Vous êtes sur la page 1sur 346

OPTIMISATION

DES
,
STRUCTUR ES
MECANIQUES
Méthodes numériques et éléments finis

DU NOD
1
Photo de couverture : © Bjm / Macjej Noskowskj - jstockphoto.com

Le pictogramme qui figure ci -contre d'enseignement supérieur, provoquont une


mérite une explication. Son objet est baisse brutale des achots de livres et de
d'alerter le lecteur sur la menace que revues, au point que la possibilité même pour
représente pour l'avenir de l'écrit, les auteurs de créer des œvvres
particulièrement dans le domaine DANGER nouvelles et de les faire éditer cor·
de l'édition technique et universi· rectement est aujourd'hui menacée.
ta ire, le développement massif du
photocopillage.
Le Code de la propriété intellec-
tuelle du 1er juillet 1992 interdit
en effet expressément la photoco·
®
LE Pt«JTOCOPUAGE
Nous rappelons donc que toute
reproduction, portielle ou totale,
de la présente publication est
interdite sans autorisation de
TUE LE LIVRE l'auteur, de son éditeur ou du
pie à usage collectif sans autori· Centre français d'exploitation du
sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
s'est généralisée dans les étoblissements Grands-Augustins, 75006 Paris).
"O
0
c
::J
0
v
T"-f
0
©Dunod, Paris,2014
N ISBN 978-2-10-070843-7
@
~
..c
Ol
ï:::: Le Code de la p ropriété intellectuelle n'autorisant, aux termes de l'article
>-
a. L. 122-5, 2 ° et 3° a), d 'une part, que les «copies ou reproductions strictement
0
u réservées à l'usage privé du copiste et non destinées à une utilisation collective»
et, d'autre port, que les analyses et les courtes citations dons un but d'exemple et
d'illustration, « toute représentation ou reproduction intégrale ou partielle faite
sons le consentement de l'auteur ou de ses ayants droit ou ayants couse est
illicite » (art. L. 122..4).
Cette représentation ou reproduction, par quelque procédé que ce soit, constitue-
rait donc une contrefaçon sanctionnée par les articles L. 335-2 et suivants du
Code de Io propriété intellectuelle.
Table des matières

Avant-propos XI

Chapitre 1 : Objectif et contraintes 1


1.1 Pourquoi l'optimisation ? 1
1.2 Optimisation et mécanique des structures 2
1.3 Structure de l'ouvrage 4

Chapitre 2 : De la conception à la conception optimale 5


2.1 Présentation 5
2.2 Concepts de base 5
2.3 Configurations possibles 11
2.4 Essai-erreur 14
2.5 Étude paramétrique 15
2.6 Plans d'expériences 18
2. 7 Surfaces de réponse 20
2.8 Optimisation 21
2.9 Questions préalables à la résolution 22

Chapitre 3 : Les différents problèmes d'optimisation


des structures 24
3.1 Paramétrage et choix des fonctions 24
3.2 Les problèmes d'optimisation de structures 25

Chapitre 4 : Les différentes méthodes d'optimisation


des structures 35
4.1 Catégories de méthodes d'optimisation des structures 35
4.2 Les critères d ' optimalité 36
4.3 Une méthode stochastique 37
4.4 Les méthodes de programmation mathématique 38
Optimisation des structures mécaniques

4.5 Variables discrètes 44


4.6 Références 45

Chapitre 5 : Optimisation 1 D 46
5.1 Fonctions convexes et fonctions non convexes 46
5.2 Minimisation à une dimension : processus itératif 50
5.3 Méthodes à un point 51
5.4 Méthode à deux points 55
5.5 Méthodes avec intervalle de confiance 56
5.6 Exemple d'application 59
5.7 Références 61

Chapitre 6 : Optimisation multi-variables sans contrainte 62


6.1 Préambule 62
6.2 Exemple 63
6.3 Remise à jour des variables de conception 67
6.4 Calcul de la direction de recherche 68
6.5 Calcul du pas de progression 77
6.6 Minimisation d' une fonction quadratique
à deux variables 81
6.7 Synthèse de structure : exemple 1 85
6.8 Synthèse de structure : exemple 2 89
"O
6.9 Références 90
0
c
::J
0 Chapitre 7 : Optimisation avec contraintes :
v
T"-f
0
notions de base et méthode duale 91
N
@ 7 .1 Position du problème d'optimisation avec contraintes 91
~
..c
Ol
ï::::
7 .2 Contraintes et domaines convexes 92
>-
a.
0 7.3 Les conditions de Kuhn-Tucker 95
u
7.4 Étude de la fonction lagrangienne 102
7 .5 Notion de point de selle 103
7 .6 Méthode duale 107
7.7 Exemples 110
7 .8 Références 115
Il
Table des matières

Chapitre 8 : Optimisation avec contraintes :


autres méthodes 116
8.1 Méthodes primales 116
8.2 Méthode du gradient projeté 116
8.3 Méthode de pénalité intérieure 123
8.4 Méthode de pénalité extérieure 125
8.5 Méthodes primales-duales 127
8.6 Méthode du simplexe 131
8. 7 Exemples 137
8.8 Références 142

Chapitre 9 : Méthodes d'approximations


séquentielles convexes 143
9.1 Motivations et solution proposée 143
9.2 Approximations en optimisation de structure 151
9.3 Comparaison de quelques approximations 165
9.4 Méthodes de résolution 168
9.5 Relaxation 168
9.6 Problèmes multi-objectifs 171
9.7 Exemples 173
9.8 Références 180

Chapitre 10 : Calcul de sensibilité 181


"O
0
c
::J
10.1 Utilité et difficultés 181
0
v
T"-f
10.2 Étude paramétrique 182
0
N .<::::
:<; 10.3 Dérivées par différences finies 183
@ -o
c
~
..c
;;;!
~ 10.4 Dérivées semi-analytiques 184
Ol ~
·-
L.. "'
>- ·;:
a. g
V>
10.5 Exemple 190
0 g
u c0
c
10.6 Cas des contraintes de tension 192
c
.g
V
;;;!
1O.7 Cas de la compliance 193
-0
eo.
~
10.8 Cas des fréquences de vibration 193
::!
;;;!

~ 10.9 Cas des charges de flambement 194


-0
0

0
c
;;;! 10.10 Cas des composites 195
@

Ill
Optimisation des structures mécaniques

10.11 Cas non linéaires 196


10.12 Références 196

Chapitre 11 : Algorithmes génétiques 197


11.1 Intérêt et principes de la méthode 197
11.2 Population et codage 198
11.3 Création de la population suivante 200
11.4 Remarques 205
11.5 Références 206

Chapitre 12 : Dimensionnement optimal


et optimisation de forme 207
12.1 Dimensionnement optimal 207
12.2 Exemples de dimensionnement optimal 208
12.3 Optimisation de forme 210
12.4 Exemples d'optimisation de forme de treillis 216
12.5 Exemple d'optimisation, structure continue 223
12.6 Références 227

Chapitre 13 : Optimisation topologique 228


13.1 Position du problème 228
13.2 Formulations du problème 235
13.3 Algorithmes d'optimisation 237
"O
0
c
::J
13.4 Analyse de sensibilité 238
0
v
T"-f
13.5 Implantation dans un code de calcul 239
0
N 13.6 Enchaînement des optimisations 240
@
~
..c 13.7 Modélisation alternative 240
Ol
ï::::
>- 13.8 Exemples 242
a.
0
u 13.9 Références 255

Chapitre 14 : Optimisation des structures


en matériaux composites 256
14.1 Principe de conception des composites 256
14.2 Rappels de mécanique des composites 257
IV
Table des matières

14.3 Caractéristiques d'une structure composite 268


14.4 Paramétrage des composites 269
14.5 Références 285

Chapitre 15 : Exemples d'optimisation des structures


en matériaux composites 286
15.1 Laminé soumis à divers efforts 286
15.2 Problème multi-objectifs 288
15.3 Membrane non homogène 292
15.4 Structure caissonnée 297
15.5 Optimisation topologique et orthotropie 302
15.6 Optimisation de séquence d'empilement 304
15. 7 Optimisation topologique en formulation SFP 307
15.8 Comparaison de méthodes 311
15. 9 Références 314

Chapitre 16 : Quelques notions supplémentaires


très utiles 315
16.1 Vitesse de convergence 315
16.2 Critères de convergence 316
16.3 Solution non admissible et relaxation 318
16.4 Recherche de l'optimum global 319
16.5 La mise à échelle 320
"O
0
c
::J
16.6 Grand nombre de contraintes 321
0
v
T"-f
16. 7 Critique de l'optimum 322
0
N .<::::
:<;
16.8 Robustesse et fiabilité de la solution 324
@ -o
c
~
..c
;;;!
~
16. 9 Optimisation multidisciplinaire 325
Ol ~
·-
L.. "'
>- ·;: V>
16.10 Problèmes multi-objectifs 326
a. g
0 g
u c0
c
16.11 Problèmes d'autres natures 327
c
.g 16.12 Références 329
V
;;;!
-0
eo.
~
::!
;;;! Index 331
~
-0
0
c
;;;!
0
@

V
"O
0
c
::i
0
~
.-l
0
N
@

..c
Ol
ï:::
>-
0..
0
u
Avant-propos

Le calcul de structures par éléments finis est une discipline née dans les an-
nées 1960. S'y mêlent étroitement les mathématiques, la mécanique et l'analyse
numérique, ce qui engendre sa grande complexité et des approches différentes
en fonction des sensibilités. Les progrès réalisés en informatique, tant par la
puissance de calcul que par une interactivité toujours plus grande associée à des
interfaces homme/machine sans cesse améliorées, ont contribué à une large dif-
fusion de la conception assistée par ordinateur (CAO) dans les bureaux d'études,
puis, naturellement, à une utilisation sans cesse croissante des programmes de
calcul par éléments finis par des personnels familiers de la CAO. Aujourd'hui,
une nouvelle étape semble franchie dans les bureaux d'études avec l'emploi de
plus en plus fréquent des outils d'optimisation, et en particulier del' optimisation
topologique, qui paraît aux yeux de certains être la solution miracle.
Un des auteurs de cet ouvrage a eu la chance de voir l'évolution du module OPTI
de SAMCEF développé à Liège dans les années 1980, puis d'assister à la naissance
et à l'éclosion de son successeur, le logiciel BOSS Quattro conçu par Vincent
Braibant, dont il était voisin de bureau. Il a pu ainsi mesurer la technicité de ces
méthodes, le niveau de connaissance nécessaire pour les utiliser correctement et
faire en sorte de mener une véritable optimisation en mécanique des structures.
Un autre auteur, arrivé beaucoup plus tard dans les éléments finis mais concepteur
d'ensembles mécaniques et thermo-mécaniques, a vu très vite l'intérêt des
méthodes d'optimisation pour guider le choix des solutions techniques ou
dimensionner des sous-ensembles vers une solution meilleure ou plutôt moins
mauvaise que les autres.
Quant au troisième d'entre nous, il est tombé dans la marmite de l'optimisation
des structures en suivant les cours dispensés par le Professeur Claude Fleury à
l'Université de Liège au milieu des années 1990 et en réalisant une thèse sous
sa direction tout en étant son assistant. Son intérêt pour cette discipline n'a fait
que croître au contact d'autres collègues passionnés, comme le Professeur Pierre
Duysinx de la même université, Alain Remouchamps et Patrick Morelle de la
société SAMTECH ou encore Stéphane Grihon d' Airbus.
La formation à l'optimisation est souvent dispensée dans le cadre de
l'enseignement des mathématiques. Son approche dans les écoles d'ingénieurs
ou formations universitaires à dominante mécanique est souvent très théorique,
et pas ou peu orientée vers l'optimisation des structures mécaniques. Les
exercices traités sont plus faits pour comparer les performances des algorithmes,
XI
Avant-propos

pour des problèmes qui ne sont généralement pas du domaine de la mécanique


des structures. La nécessaire formation des personnes à ces techniques n'est
pas assurée et il s'ensuit des utilisateurs d'outils de simulation en ingénierie
mécanique formés sur le tas ou par les fournisseurs de logiciels. Ils connaissent
peu les méthodes, les hypothèses sur lesquelles elles sont basées, leurs limites et
sont parfois surpris par les résultats obtenus.
Au début des années 2000, lors des soutenances de stage de fin d'études dans nos
écoles respectives, il est apparu quel' optimisation en bureau d'études mécanique
était un sujet émergent et que, bien que ces méthodes aient commencé à être
développées et utilisées dans l'aéronautique depuis les années 1980, nos étudiants
n'étaient pas formés, pas plus que leurs tuteurs industriels. Nous avons donc
commencé à réfléchir à un cours très orienté sur le lien entre l'optimisation,
la modélisation et le calcul de structures, en rapport avec nos formations.
Ce cours, écrit à deux et très imparfait, a démarré en 2006. Il était dispensé
en visioconférence dans nos deux établissements, donné en alternance une
semaine par l'ISMANS, la semaine suivante par l'ENSTA Bretagne. Son objectif
pédagogique et sa forme ont intéressé M. Bruyneel, entre autres spécialiste de
l'optimisation chez SAMTECH, qui, en répondant à nos nombreuses questions,
nous a aidés à améliorer les contenus. Il dispense depuis 2008 à l'ISMANS une
partie de ce cours profondément modifié par rapport à la version de 2006.
À plusieurs reprises, nous avions vaguement parlé de faire le livre dédié à
l'optimisation en mécanique que ni Claude Fleury ni Vincent Braibant ne
publiaient. Écrire un livre est un exercice difficile et de longue haleine qui n'a
rien à voir avec la rédaction d'un support de cours ou le développement de
méthodes et d'algorithmes. Le décès prématuré de Claude Fleury, qui était venu
à l'ISMANS pour des conférences et des cours aux élèves de dernière année, nous
"O a poussés à nous mettre au travail et à faire cet ouvrage que nous lui dédions.
0
c
::J Toutes les simulations numériques ont été faites avec le code de calcul par
0
v éléments finis SAMCEF, développé par la société SAMTECH. L optimisation a
T"-f
0
N été réalisée avec BOSS Quattro et TOPOL, outils également développés par la
@ société SAMTECH.
~
..c
Ol
ï::::
Nous ne saurions terminer cet avant-propos sans une petite pensée pour les
>-
a. élèves de l'option MCOP (Modélisation, Calcul et OPtimisation) de l'ISMANS
0
u et ceux de l'option mécanique de l'ENSTA Bretagne, qui servent depuis des
années de« cobayes pédagogiques »,le contenu de cet ouvrage constituant une
partie de leur enseignement.
Michael, Jean-Charles et Pierre
Boncelles, Coulaines et l'Aber Wrac'h
Juillet 2013
XII
À Claude Fleury

"O
0
c
::J
0
v
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u
"O
0
c
::i
0
~
.-l
0
N
@

..c
Ol
ï:::
>-
0..
0
u
Objectif et contraintes

Ce chapitre présente les origines, l'utilité et l'application de l'optimisation


au cas des structures.

1.1 Pourquoi l'optimisation ?


Les techniques d'optimisation sont aujourd'hui utilisées dans de très nombreux
domaines dont la logistique, la gestion de production, la finance, l'assurance et
la banque, les protocoles de transport d'information des réseaux informatiques,
le transport d'énergie dans les réseaux électriques, les stratégies militaires,
les transports aériens et ferroviaires entre autres ... Et bien sûr, ces outils sont
utilisés dans les bureaux d'études mécaniques en génie civil, construction navale,
aéronautique, automobile ...

Bref, ce n'est plus une affaire de spécialistes comme ça l'était dans les années 1980.
On ne peut plus ignorer ces méthodes et leur bonne compréhension devient
essentielle. Certains outils d'optimisation sont spécifiques à un type de problème
et ont été développés pour répondre à un besoin précis, d'autres sont généraux ...
Des outils spécifiques ont vu leur champ d'application s'étendre progressive-
ment, d'autres ont une utilisation qui est restée limitée. Mais tous les outils d' op-
timisation ont un point commun: ils reposent sur un socle mathématique relati-
vement important et sont souvent difficiles à comprendre et à utiliser. L approche
retenue dans ce livre se veut moins mathématique que les descriptions que l'on
peut trouver par ailleurs, sans pour autant manquer de rigueur scientifique. Il est
en effet important de mettre à disposition, et de manière simple, la connaissance
pratique des méthodes d'optimisation et de présenter la manière avec laquelle
elles sont utilisées dans les bureaux d'études.

Une grande partie du métier d'ingénieur consiste à trouver une solution à un


problème, qu'il soit technique (ce qui constitue le cœur du métier), financier,
1 Objectif et contraintes

organisationnel. Pour être admissible, cette solution doit atteindre un objectif ou


une fonction principale et elle doit satisfaire à un certain nombre de contraintes,
traduites ou non par les lois de la physique selon le type de problème. Il existe
toujours plusieurs solutions possibles et le concepteur est tenté de rechercher la
meilleure (au sens qu'il devra définir) : il est donc tenté d'optimiser.
Malheureusement, les phénomènes physiques sont généralement décrits par des
systèmes d'équations aux dérivées partielles qui gouvernent leurs évolutions,
systèmes qui n'ont de solutions analytiques que dans des cas particuliers très
idéalisés. Ces solutions analytiques sont intéressantes pour trouver des ordres de
grandeur mais elles ne donnent pas la solution du problème réel et sont de fait
insuffisantes pour en déterminer l'optimum.
Chacun sait aussi que des routines d'optimisation sont facilement accessibles
mais celles-ci nécessitent la formulation analytique du problème et elle n'existe
en général pas dans le métier d'ingénieur mécanicien. Celui-ci doit donc se
tourner vers le calcul numérique et utiliser diverses techniques numériques
comme par exemple les éléments finis ou les volumes finis. On conçoit bien
qu'une optimisation, quelle que soit la méthode utilisée, va nécessiter plusieurs
itérations. On sait aussi que le nombre de variables qui interviennent dans un
travail de conception est souvent grand. Toutes ces remarques vont dans le même
sens: même si on dispose d'une puissance de calcul importante et bien que les
outils soient devenus performants, on va vite avoir besoin de ressources de calcul
très importantes pour mener à bien une optimisation. Il est donc nécessaire de
maîtriser ce que l'on fait pour que les temps de calcul soient raisonnables, que
l'optimisation soit efficace et la solution pleinement satisfaisante.
Il faut également faire attention aux mots et à leur signification : en mécanique,
changer la valeur d'un rayon de raccordement et en mesurer l'influence sur un
"O
0
c résultat n'est pas de l'optimisation. Il ne faut pas confondre optimisation, étude
::J
0 paramétrique et mise en place d'un plan d'expérience, ce qui sera détaillé dès le
v
T"-f
0
chapitre 2. En effet, beaucoup parlent d'optimisation, mot à la mode aujourd'hui
N
@ très employé, mais peu sont ceux qui en font véritablement.
~
..c
Ol
ï::::
>-
a.
0
u
1.2 Optimisation et mécanique des structures
La notion de « meilleure conception » est très ancienne. Lhomme a toujours
voulu faire mieux. Mais l'idée de conception optimale des structures, même
si elle est vraisemblablement très ancienne, n'est possible que depuis quelques
décennies et ce grâce à l'avènement de l'ordinateur. Sa mise en œuvre est décrite
à la figure 1.1. Sur la base d'une conception initiale définie par un certain nombre
2
1.2 Optimisation et mécanique des structures

de paramètres de valeur variable, appelés variables de conception, l'optimisation


vise à déterminer de manière automatique la conception qui est la meilleure au
regard de critères liés à des performances structurales. La solution trouvée par
ce procédé itératif, alternant analyse structurale et application d'une technique
d'optimisation, est qualifiée de conception optimale.

Conception initiale

Analyse de la structure

Itération Application d 'une


suivante technique d'optimisation

Nouvelle conception

Fin

Figure 1.1 Mise en œuvre de l'optimisation des structures.

Contrairement à ce qui se dit de plus en plus, si on ne maîtrise pas la modélisation,


l'analyse par éléments finis et le maillage, on ne peut pas faire de l'optimisation :
tout au plus, on peut cliquer dans des outils « boîte noire » et espérer un résultat ;
les outils d'optimisation, aussi simples qu'ils paraissent, ne font encore pas de
miracles. Lingénieur devra particulièrement soigner son maillage, ce qui n'est
pas « tendance », pour au moins deux excellentes raisons.
La première est que, si le maillage est trop fin, le temps de calcul de chaque
analyse peut être très important, hypothéquant ainsi l'optimisation, faute de
place disque ou de temps. Or il est rare de nos jours de trouver un maillage
grossier, la mode étant plutôt de mailler fin en espérant avoir la bonne valeur de
tension ! La différence entre modéliser et mailler est loin d'être assimilée par un
grand nombre d'utilisateurs de code de calcul de structures. La seconde est que,
s'il n'y a pas la bonne densité del' élément ad hoc au bon endroit, les tensions sont
mal évaluées or, dans beaucoup de problèmes d'optimisation en mécanique, la
tension est l'une des contraintes générales du problème. Satisfaire à « la tension
équivalente de Von Mises reste inférie ure à 100 MPa »n'est donc intéressant que
dans la mesure où cette tension représente la véritable tension dans la structure
3
1 Objectif et contraintes

physique. D'où la nécessité de la maîtrise de l'art de la modélisation, de l'art


du maillage et l'art de l'interprétation des résultats avant d'espérer faire une
optimisation correcte.
Si le modèle n'est pas approprié, si le maillage n'est pas en adéquation avec le
comportement réel de la structure, on peut toujours faire tourner des outils d' opti-
misation. On n'a que la conception optimale que l'on mérite, issue de la compré-
hension que l'on a du problème physique, de sa modélisation, du choix de l'outil
d'optimisation et de la connaissance que l'on a de la simulation numérique.
Qui dit calcul par éléments finis dit aussi qu'on ne part pas d'une feuille
blanche, il existe un modèle de la pièce qu'on veut améliorer d'un point de vue
mécanique, thermique ou autre. On peut envisager des améliorations portant sur
les propriétés des matériaux, sur des modifications d'épaisseur de parties minces
ou de caractéristiques de section droite pour des poutres ou des barres. On peut
aussi imaginer d'agrandir des cavités ou de modifier des frontières existantes. On
peut également accepter de modifier la topologie de la pièce en ouvrant d'autres
cavités, en positionnant des raidisseurs, en changeant le nombre et la position
des poutres dans un treillis. Ces trois types d'optimisations - de dimension, de
forme et de topologie - vont être décrits dans cet ouvrage qui se différencie du
reste de la littérature car il traite des problématiques propres aux mécaniciens.
Il est le fruit de longues années de recherche, de développement et d'expérience
pédagogique.

1.3 Structure de l'ouvrage


Après cette introduction, les chapitres 2, 3 et 4 décrivent les grands concepts
qui vont être développés. On y explique notamment les différences entre
"O
c
0
l'optimisation, l'essai-erreur, les études paramétriques et les plans d'expérience.
::J
0 On y décrit brièvement les types de problèmes et les méthodes d'optimisation.
v
T"-f
0
Les chapitres 5 et 6 traitent de l'optimisation sans contrainte, les chapitres 7 et 8
N
@
de celle avec contraintes. Le chapitre 9 décrit les méthodes d'approximations
~
..c séquentielles convexes ou comment est construite une formulation explicite
Ol
ï::::
>-
locale à partir de calculs par éléments finis et comment est déterminé l'optimum
a.
0
u
à partir de cette dernière. Le chapitre 10 est consacré au calcul des sensibilités,
éléments indispensables pour tous les outils basés sur les gradients. Le chapitre 11
donne un aperçu des algorithmes génétiques, peu appropriés à la mécanique
des structures, mais qu'il aurait été surprenant de ne pas trouver dans un tel
ouvrage. Les derniers chapitres reprennent de façon détaillée les divers types
d'optimisations, à savoir le dimensionnement, la forme, la topologie, le matériau
dans le cas des composites.
4
De la conception
à la conception optimale

Ce chapitre présente la formulation d'un problème de conception optimale


de structures et les différentes manières, de complexité croissante, qui
permettent d'en trouver la solution.

2.1 Présentation
De tout temps, à partir d'un cahier des charges fonctionnelles existant ou non au
sens où on l'entend aujourd'hui, le concepteur a été confronté à trois questions :
Est-ce possible ? Peut-on faire mieux ? Quelle est la meilleure solution ? Ces
questionnements et les concepts sous-jacents sont à l'opposé des modes de pensée
classiquement développés dans le système éducatif, même dans l'enseignement
supérieur. En effet, il ne s'agit plus de résoudre des problèmes directs mais des
problèmes inverses.
Un problème est direct quand, à partir des données qui sont toutes connues, on
cherche la solution. Un problème est inverse quand, connaissant le résultat que
l'on souhaite, on cherche les données qui permettent de l'atteindre. En concep-
tion optimale, on ne connaît pas à l'avance le résultat mais on connaît les perfor-
mances que l'on souhaite atteindre car on se les impose. C'est un cas particulier
de problème inverse. Pour diverses raisons, il peut ne pas y avoir de solution, ou
il peut y en avoir de nombreuses. r optimisation et en particulier l'optimisation
des structures est donc étroitement liée à la famille des problèmes inverses.

2.2 Concepts de base


Quel que soit le domaine étudié et quelle que soit l'étude visant à améliorer les
performances d'une structure ou le problème d'optimisation à résoudre, plu-
sieurs notions sont systématiquement présentes. Tout d'abord, tout problème
d'amélioration ou d'optimisation comporte un ou plusieurs objectifs. Concen-
trons-nous dans un premier temps sur le cas d'un seul objectif, et réservons le
5
2 De la conception à la conception optimale

cas multi-objectifs pour plus tard. La meilleure solution est celle ou est parmi
celles qui atteignent l'objectif qui est fixé. En mécanique, l'objectif est souvent de
minimiser la masse de la structure ou de maximiser sa raideur. Mais on peut vou-
loir minimiser les stocks, augmenter la productivité, baisser un coût de revient,
réduire une consommation, réduire un délai ... robjectif est, pour la résolution
mathématique de problèmes d'optimisation, une fonction scalaire, notée f, dé-
pendant d'un certain nombre de paramètres. C'est cette fonction quel' on cherche
à minimiser ou maximiser selon les cas. Il est parfois difficile de la définir expli-
citement sous forme analytique, mais on doit pouvoir la calculer. En effet, pour
pouvoir affirmer qu'une conception est meilleure qu'une autre, il faut associer à
chaque conception une valeur scalaire. Profitant du fait qu'il existe une relation
d'ordre dans R, il est alors possible de classer« objectivement» les conceptions.
Ensuite, tout problème d'optimisation comporte un certain nombre n de
variables de conception généralement notées xi" r ensemble des variables de
conception est repris dans un vecteur noté x et tel que :
x= {x; } i= l , ... ,n

Les variables de conception sont des grandeurs apparaissant dans la définition


du problème et dont on cherche la valeur optimale. En mécanique, ces variables
représentent les épaisseurs de parois d'une structure, la position et le nombre de
membres structuraux, la direction des fibres dans un pli composite ... Ce sont
les inconnues du problème d'optimisation. La fonction objectif dépend de ces
variablesdeconceptionetonadoncf= f(x) =f(xl, x2, ... ,xJ rensembledesvaleurs
optimales des variables de conception est noté x*. Dans le cas del' optimisation
des structures, la valeur d'une variable de conception est la plupart du temps
limitée par une borne inférieure et une borne supérieure, explicitement définies
"O ou non dans l'énoncé du problème. Par exemple, l'épaisseur d'une tôle ne peut
0
c
::J
pas être négative : si aucune précision n'est donnée, il est évident que la borne
0
v inférieure est égale à 0, borne qu'il faut cependant définir dans le logiciel pour
T""f
0
N
la résolution du problème. Les bornes de l'intervalle entre lesquelles la variable
@ prend sa valeur définissent les contraintes de borne du problème d'optimisation :
~
..c
Ol
elles portent sur les variables de conception xt Pour un problème comportant n
ï::::
>- variables, on a n relations du type :
a.
0
u

On utilise aussi souvent la notation ~; et x; pour représenter les bornes min et


max (on utilisera indifféremment ces deux notations dans ce livre).
Les variables de conception peuvent être de nature très diverse. Elles peuvent
avoir des valeurs variant continûment dans l'intervalle défini par les contraintes
6
2.2 Concepts de base

de borne, ou faire partie d'un ensemble discret de valeurs. On parle alors


respectivement de problème en variables continues ou en variables discrètes.
Par exemple, dans le cas de la sélection de l'empilement des plis composites,
si la variable est un nombre de couches, ce nombre ne peut être qu'un entier.
Le problème peut être posé différemment : on se donne un empilement et on
cherche à savoir si tous les plis sont utiles ou non. Dans ce cas, les variables
ont pour valeurs entières 0 ou l, 0 représentant la présence et 1 l'absence du
pli. Par contre, l'orientation des fibres d'un pli composite peut, a priori, prendre
n'importe quelle valeur comprise entre 0° et 180°, et on travaille alors en variable
continue. Lorsque ces deux types de variables sont pris en compte, on a un
problème en variables mixtes.
La fonction objectif dépend également d'un ensemble de paramètres, repris dans
le vecteur p, qui, contrairement aux variables de conception x, ne varient pas
au cours du problème d'optimisation. De manière générale, la fonction objectif
s'écrit donc j(x, p). On peut par exemple vouloir rechercher l'épaisseur optimale
d'un pli composite sans pour autant changer les orientations de fibres.
Le cas d'un problème d'optimisation à une variable est illustré par la figure 2.1.
Dans ce cas, x = { x 1 } et on recherche la valeur del' unique variable de conception
x 1 qui soit telle que la fonction f(x) soit minimale. Minimiser la fonction fi.x)
est équivalent à maximiser son opposée, la solution des deux problèmes étant
donnée par la même valeur de la variable, à savoir xt :
min f (x) <==> max {- f (x))
Fonction à Fonction à
minimiser maximiser

/ . . . ···r···. . . . \
: Maximum ~

~---1----+ X1

Figure 2.1 Fonction objectif à minimiser/maximiser.

On peut être plus précis sur l'écriture du problème d'optimisation en indiquant


clairement que l'on minimise par rapport à la variable x, p étant le vecteur des
paramètres qui ne varient pas au cours du problème d'optimisation :
min f( x,p)
X

7
2 De la conception à la conception optimale

Par défaut, on n'indique pas comme argument de la fonction f le vecteur p, et la


minimisation porte uniquement sur les variables x :

min f( x) =min f (x) =min f (x, p)


X X

Dans le cas d'un problème de conception à deux variables notées x1 et x2, le


vecteur des variables de conception est représenté par x = {x1,x2}. Un point de
conception est défini par deux « coordonnées », qui sont les valeurs des deux
variables de conception. Si aucune contrainte de borne n'est imposée, l'espace
de conception est alors R2 • Dans ce cas, on parle d'optimisation sans contrainte
(figure 2.2) et le problème d'optimisations' écrit comme suit:

min f( x )
x= {xl'xz}
On voit que la fonction f(x 1,x2) à minimiser peut être représentée par une
surface dans un espace de dimension 3. On peut y tracer des iso-valeurs, qui
sont les courbes de niveaux de valeur constante de la fonction. Le problème
d'optimisation peut alors être représenté par ces iso-valeurs projetées dans le
plan (xl'x 2) selon la direction perpendiculaire à ce plan. On y voit clairement
la solution du problème de minimisation, représentée par le point noir de
coordonnées (xt , xz*).

"O
0
c
::J
0
v
,..-!
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u Figure 2.2 Projection des iso-valeurs de la fonction objectif.

Quand on introduit des contraintes de borne, l'espace de conception est déli-


mité par ces contraintes : c'est la notion d'espace de conception restreint. Le
problème d'optimisation associé est dit quasi non contraint. La solution optimale
recherchée se trouve à l'intérieur de cette zone admissible, qui constitue l'espace

8
2.2 Concepts de base

de conception admissible. Un tel pro-


. . --- ----.........,,,
blème est illustré à la figure 2.3 dans le
cas de deux variables de conception. -------~~~- --- ·...\ ')
r.: espace de conception admissible est
représenté par la zone grisée.

min f(x)
x = {xJ i = l, ... ,n --+----'----------'--~ x,
X lm.in

Figure 2 .3 Espace de conception


Dans le cas d'un problème comportant restreint (zone grisée).
n variables de conception, un point de
conception est défini par la valeur de chacune des n variables de conception.
r.: espace de conception est un pavé compact dans l'espace de dimension n défini
par les n variables. Les réponses ou résultats, dont la fonction objectif, sont des
grandeurs scalaires évaluées lors des analyses successives menées lors des essais-
erreurs, des études paramétriques, du processus d'optimisation. Dans cet
ouvrage, ce seront par exemple la masse, des déplacements, des tensions, des
facteurs de charge critique, des fréquences ... Un problème d'optimisation, et en
particulier un problème d'optimisation des structures mécaniques, comporte
habituellement un ensemble de m + p contraintes générales souvent notées c (x),
J
avec j = l, . .. , m +p. Ces contraintes générales portent sur des résultats d'analyse.
On parle d'optimisation avec contraintes. Les contraintes s'expriment en
fonction des variables de conception et sont écrites sous la forme soit d'une
inégalité, soit d'une égalité. Le problème d'optimisation s'écrit :

min f 0 (x)

c/x) ::; cjmax j = l, ... ,m


c/x)=cjlim j=m+ l, ...,m+p

où m et p sont respectivement le
nombre de contraintes d'inégalité
et d'égalité. Lorsque des contraintes
apparaissent dans le problème d' opti-
~------------~X1
misation, on écrit la fonction objectif
fo(x) et non plus f(x). Un tel problème Figure 2.4 Espace de conception
est illustré à la figure 2.4 dans le cas de admissible.

9
2 De la conception à la conception optimale

deux variables de conception. L espace de conception admissible est représenté


par la zone grisée.
On peut écrire les contraintes d'inégalité sous deux formes équivalentes:

cj (x ):::;:; cjma.x j = l , ...,m


ou
j = l, ...,m
On peut trouver des cas pour lesquels la contrainte s'écrit comme une inégalité
de la forme « ;: : : ». Si on veut par exemple que le premier facteur de charge critique
ou la première fréquence propre soit supérieur à une valeur donnée, la contrainte
s'écrit dans ce cas cJ(x) ;: : : c.;mm. . Il existe deux écritures possibles :

f/ x ) = cjmin - c/ x ) :S:: 0
::::::}

l - f/ x) =
ou
cj (x) -cjmin

Dans ce livre, on écrit les contraintes d'inégalité sous la forme«:::;», et une valeur
~0

limite maximale leur est alors assignée : la fonction c (x) doit être plus petite
J
que ou égale à une certaine valeur limite c.J max . Le cas « ;: : : » peut être converti
simplement vers le cas« :::; ». De même, pour les contraintes d'égalité, c.(x) doit
J
être égale à la valeur cj lim à la solution optimale.

c/x) =cj lim j=m+ l, ... ,m+p ::::::> hk(x )= c/x ) - cjlim = O k= l, ...,p

Les valeurs limites c.J max et c.J 111n


. étant scalaires et indépendantes des variables de

conception, et compte tenu de la discussion précédente, une écriture alternative


'O
0
des contraintes conduit à la forme suivante. Cette écriture sera utilisée dans
c
::J ce livre. Pour ne pas confondre les contraintes dans les éléments finis et les
0
v
T"-f
contraintes du problème d'optimisation, on appellera « tensions » ce qu'on
0
N nomme généralement « contraintes » en mécanique.
@
~
..c min f 0 (x )
Ol
ï::::
>- Ximin :S:: X; :S:: Ximax i = l , ... , n
a.
0
u f/ x ) :S:: 0 j = l, ... , m
hk(x ) = 0 k = l, ...,p

avec
c/x )-cjmax = f / x) j = l, ... , m
c/x )-cjlim = hk (x) k = l, ...,p j = m+ l , ...,m+ p
10
2.2 Concepts de base

2.3 Configurations possibles


Il existe un certain nombre de configurations possibles pour un problème
d'optimisation. Elles sont maintenant passées en revue. Dans tous les cas,
l'espace des conceptions admissibles correspond à la zone en gris. C'est dans
cette zone que l'on recherchera la valeur minimale de la fonction objectif. Un
point appartenant à l'espace de conception admissible est un point admissible.
Les points qui sont en dehors de cet espace ne sont pas admissibles : une ou
plusieurs contraintes générales ou de borne ne sont pas satisfaites. On dit que les
contraintes sont violées ou qu'il y a violation des contraintes.

2.3.1 Contraintes générales


r
Le problème ne comporte que des contraintes générales. espace de conception
admissible est dans ce cas entièrement délimité par les contraintes générales.
Il est représenté en grisé dans les figures ci-dessous. Il sera possible de trouver
l'optimum du problème, situé soit sur la frontière que définissent les contraintes
générales (figure 2.Sa), soit à l'intérieur du domaine qu'elles délimitent
(figure 2.Sb ).

Contraintes d'inégalité
. ...... . ------..
--- ....... ,\,

(b)
---
-!----------------- - - - - - --? x,

Figure 2.5 Espace de conception admissible et optimum.

À la figure 2.6, une contrainte d'égalité est introduite dans le problème


d'optimisation. r espace des conceptions admissibles, en gris, se situe sur
cette contrainte et est délimité par les valeurs admissibles des contraintes
d'inégalité. Si une deuxième contrainte d'égalité est introduite dans ce problème
d'optimisation, l'espace des conceptions admissibles se réduit à un point
(figure 2.7).

11
2 De la conception à la conception optimale

_..-- côYii;aziite d'égalité

/,: .:::;;(~~
( ~\ .. __ .... ~~~~.... ~:// //
\,_ ........
.... . . . .. _______...... . ....
.. ........ "' ... ..........
.. ......
. ...... .........
-i-----------~ x, -+-----------~ XI

Figure 2.6 Espace de conception Figure 2.7 Espace de conception


admissible avec contrainte d'égalité. admissible avec contraintes d'égalité.

2.3.2 Contraintes générales et contraintes de borne


Le problème comporte des contraintes générales et des contraintes de borne.
Plusieurs cas peuvent également se produire. Il existe une intersection non nulle
entre l'espace délimité par les contraintes de borne et celui délimité par les
contraintes générales (figure 2.8). Il
X2
existe donc un espace de conception
admissible dans lequel on peut cher-
cher l'optimum. Sur la figure 2.9, le
domaine noté 1 n'est pas admissible,
car les contraintes générales n'y sont
pas satisfaites. Il en va de même pour le
domaine noté 2. Une autre situation se
rencontre lorsqu'il n'y a pas d'intersec-
---
tion entre l'espace délimité par les -t----'--------'--- x,
contraintes de borne et celui délimité
"O Figure 2.8 Espace de conception
c
0 par les contraintes générales (fi- admissible.
::J
0 gure 2.10) : l'espace des conceptions
v X2
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u

--+----·-_. ._.._.._· _ _ _ _ _ _ _ _ _....,. X1


-+---~-------'--------'>x1

Figure 2.10 Espace de conception


Figure 2. 9 Espaces non admissibles.
admissible vide.
12
2.2 Concepts de base

admissibles est vide. Dans le domaine l, seules les contraintes de borne sont sa-
tisfaites ; dans le domaine 2, seules les contraintes générales sont satisfaites. Au-
cun point de l'espace des conceptions ne permet de satisfaire aux deux types de
contraintes simultanément.

2.3.3 Relaxation
Une manière de proposer néanmoins une solution consiste à effectuer une
relaxation du problème initial, c'est-à-dire à être moins restrictif sur certaines
contraintes (ici les contraintes de borne), de manière à mettre en évidence un
espace admissible sur la base de la nouvelle définition des contraintes. Cet espace
de conception admissible, non vide, est noté 3 sur la figure 2.11.

--·
-+--------------~X1
Figure 2.11 Espace de conception Figure 2.12 Espace de conception
admissible non vide obtenu admissible. L'optimum contraint est
par relaxation des contraintes différent de l'optimum non contraint.
(ici de borne).
Sur la figure 2.12, on montre que l'optimum
f(x) non contraint, noté 1, se trouve à l'extérieur
Fonction à
del' espace de conception admissible. La solu-
minimiser
Domaine
tion du problème est le point 2, qui minimise
admissible la fonction objectif tout en satisfaisant à l'en-
semble des contraintes du problème, c'est-à-

~ ...............·· ·······•..\
dire à la fois aux contraintes de borne et aux
··- .. 1
contraintes générales.
~~~-----~--·_
..._ ..._ L optimum contraint est dans ce cas différent
_ x
de l'optimum non contraint. Finalement, et
Figure 2.13 Optimum du problème
contrai nt. pour compléter la remarque liée à la figure 2.12,
il faut être attentif au fait que la valeur de
la fonction objectif associée à un problème contraint est généralement moins
bonne que celle correspondant au même problème sans contrainte. Dans les cas
présentés aux figures 2.12 et 2.13, on recherche l'optimum pour un problème avec
13
2 De la conception à la conception optimale

contraintes. La valeur de l'optimum associé au point 1 est meilleure que celle de


l'optimum associé au point 2. Cependant, la solution du problème est au point 2
car le point 1 ne satisfait pas aux contraintes et n'est pas admissible.

2.4 Essai-erreur
Toute personne qui a fait de la conception s'est posé à un moment la question de
savoir ce qu'il faut faire quand la conception initiale ne remplit pas le cahier des
charges, ne remplit plus un cahier des charges qui a évolué, ou si on peut faire
mieux ou moins mal quand la structure remplit le cahier des charges : il s'est
donc posé un problème qui semble être un problème d'optimisation mais qui
n'en est pas vraiment un.
L'utilisation d'outils d'optimisation dans les bureaux d'études est assez récente
et son emploi est encore peu répandu. Pour tenter de répondre à la question
« peut-on faire mieux ? >» la technique de l'essai-erreur a été beaucoup utilisée, et
elle l'est encore. Elle consiste tout simplement à tester différentes configurations
et à analyser leur performance en fonction de critères prédéfinis (figure 2.14).
Les configurations testées ne sont pas prédéfinies : la conception numéro k + 1
dépend des résultats obtenus avec les configurations précédentes. Certaines confi-
gurations peuvent être inadmissibles, d'autres pires que la conception initiale ...
En d'autres termes, en fonction de ce qui observé, on se déplace dans l'espace
de conception de manière intuitive en espérant faire mieux. Quand le problème
comporte plusieurs variables de conception, on en fait évoluer une ou plusieurs
pour construire le point suivant, un peu au hasard car on ne connaît pas l'influence
de chaque variable sur le comportement de la structure. Après analyse, on ne peut
que constater si la nouvelle conception est meilleure ou pas que les précédentes.
"O
0 1. Conception initiale
c
0
::J =
Variables xk (k 0)
v
T"-f
0
N
2. Analyse de la structure
@
~
f 0(xk), f/xk)
..c
Ol
ï::::
>-
a.
0
u k <= k + 1 Conception finale

5. Nouvelle conception
Variables xk+J

Figure 2.14 Essai-erreur, organigramme.


14
2.2 Concepts de base

Si la conception n'est pas meilleure, on x2


tente une autre combinaison de valeurs ..... -- ... - - - .... -..
.... --·-- -- ..... ',
pour les variables de conception. Si la
conception est meilleure, on ne sait pas
pourquoi, on ne sait pas si on peut faire
encore mieux et comment. Ce n'est pas
de l'optimisation car on n'explore pas
le domaine de manière à trouver la
meilleure conception (figure 2.15). -- . .... ____ _
-··
--+-------·-_--_-·_· - - - - - - - - -""' X 1

Figure 2.15 Déplacement dans


2.5 Étude paramétrique l' espace de conception, essai-erreur.

Plutôt que de se déplacer à tâtons dans l'espace de conception, on peut le balayer


de façon systématique et prédéfinie, ce qui limite le nombre d'essais et
«rationalise» la recherche d'une meilleure solution. Ce mode d'exploration du
domaine de conception, très souvent utilisé dans les bureaux d'études, est appelé
études paramétriques. On se donne a priori les variables de conception dont on
souhaite étudier l'influence, ainsi que le nombre de variables et la valeur que ces
variables vont prendre : on va se déplacer dans l'espace de conception mais on va
tester des configurations prédéfinies. C'est donc très différent de l'essai-erreur
car on ne se déplace pas en fonction des résultats observés pour les configurations
précédentes.

Sur la figure 2.16, les disques noirs X2

représentent les points de concep-


tion prédéfinis pour un problème à
deux variables. La variable x 1 prendra
quatre valeurs, la variable x2 aussi,
rien n'imposant que les points soient
équi-répartis dans l'espace de concep-
tion. Mais, en général, chaque variable
prend au moins sa valeur minimale et -+-------· -_
--_--_··_ _ _ _ _ _ _ _ __, XI
sa valeur maximale.
Figure 2.16 Étude paramétrique.
Plusieurs types d'études paramétriques
peuvent être menés. Dans le cas d'une étude dite paramétrique en série, on fige
toutes les variables à leur valeur minimale, puis on fait évoluer la première
variable x 1 jusqu'à sa valeur maximale en prenant les valeurs prédéfinies. Pour
chaque point de conception ainsi construit, on évalue la fonction objectif et

15
2 De la conception à la conception optimale

éventuellement les contraintes d'optimisation. On mesure ainsi l'influence de


la variable x 1 quand elle passe de sa k ième valeur à la suivante, les autres variables
ayant une valeur donnée :

On calcule ainsi l'influence d'une variation de la valeur de la variable x 1 sur


la valeur de la fonction f Il s'agit là d'un calcul appelé à tort de sensibilité
(cf. chapitre 10). D'une manière générale, quand cette approche est appliquée à
la variable x, la « sensibilité » s(x.) est calculée selon :
l l

On maintient ensuite la première variable à l'une des valeurs précédentes (mini-


male, intermédiaire, maximale), et on fait évoluer la valeur de la seconde variable
en maintenant les autres à leur valeur minimale. On mesure ainsi l'influence de
la seconde. Et ainsi de suite pour toutes les variables. Pour un problème à deux
variables de conception, cela revient à suivre le chemin représenté sur la figure 2.17.
Si chacune des n variables peut prendre p valeurs dans son intervalle de définition,
le nombre d'évaluations de la fonction objectif est p + ( n - 1) x (p - 1).

Une autre possibilité consiste à faire varier simultanément toutes les variables
et à parcourir le domaine« en diagonale» (figure 2.18). C'est alors une étude

"O
c
0 ---
......
.....\ --- ---. -.. -
::J \

0
.... ---......
-'\ ': ;'
v , /"
T"-f ---~--
- ~...,...._;.--~-
0
N
_/<<•:::>:::.-:~:-~ }'. ·'.,:. :, . : ,./ \ , i' ,'

@
~
..c
Ol
ï::::
>-
a.
/,,~::/ (:, ~:::<~;":::, ::
[ :, , ....,..._........-;.......t'--::1~1--"
>/
0 '
u \ ' .. '' \ ,_
' ...... .... ',

Figure 2.17 Étude paramétrique Figure 2.18 Étude paramétrique


en série. en parallèle.

16
2.2 Concepts de base

dite paramétrique en parallèle. On ne mesure pas l'influence d'une variable mais


l'influence simultanée des variables. Si chacune des n variables peut prendre p
valeurs dans son intervalle de définition, le nombre d'évaluations de la fonction
objectif est p. Si la fonction objectif évolue peu, soit on est au voisinage del' opti-
mum, soit les variables choisies ne sont pas celles qui permettront de progres-
ser véritablement vers une solution optimale. La dernière possibilité consiste à
évaluer la fonction objectif pour toutes les combinaisons possibles des variables
de conception choisies. C'est alors une étude paramétrique combinée. Si cha-
cune des n variables peut prendre p valeurs dans son intervalle de définition,
le nombre d'évaluations de la fonction objectif est p". On peut être confronté
au coût des calculs (coût unitaire le cas échéant, puis nombre de calculs), puis
au problème d'interprétation de l'ensemble des résultats pour déterminer les
sensibilités. Les analyses paramétriques permettent de déterminer les variables
dont l'influence est importante sur la réponse de la structure, et celles dont l' in-
fluence est moindre voire négligeable. Pour une analyse par essai-erreur, ou une
approche de type optimisation, la diminution du nombre de variables rend plus
efficace la recherche d'un mieux ou du meilleur car on restreint la zone d' explo-
ration de l'espace de conception.

r.: analyse
paramétrique constitue donc souvent une étape importante dans
la recherche de la conception optimale, préalable à la résolution du problème
d'optimisation par des outils numériques dédiés. Cependant, même s'il est
possible de suivre l'évolution de la valeur des réponses structurales comme celle
des tensions, des fréquences ou des charges critiques en fonction des paramètres
de conception, les résultats ne peuvent pas être pris en compte directement
comme des contraintes générales dans une étude paramétrique : on se contente
d'observer ce qui se passe (figure 2.19).

On peut donc continuer à faire évoluer la valeur d'une variable alors que les
contraintes sont violées et que cette direction d'exploration n'est manifestement
pas celle qui conduit à l'optimum. On explore de manière prédéfinie le domaine
de conception et, contrairement à l'essai-erreur, on ne tire pas profit des résultats
précédents pour définir le point de conception suivant.

En résumé, une étude paramétrique en série ne permet pas de quantifier l' in-
fluence des interactions entre variables de conception. Une étude paramétrique
en parallèle ne permet pas de quantifier l'influence de chaque variable de concep-
tion. Une étude paramétrique combinée, outre la difficulté d'interprétation, a
un coût élevé en raison du nombre d'évaluations des réponses structurales, le
nombre de variables d'un problème de conception mécanique étant souvent
important (quelques dizaines à plusieurs dizaines de milliers).
17
2 De la conception à la conception optimale

1. Conception initiale
=
Variables xk (k 0)

2. Analyse de la structure
fo(xk), Jj(xk)
k <= k + 1

4. Nouvelle conception
Variables xk+ /
n

5. Analyse des résultats

Conception fi nale

Figure 2.19 Étude paramétrique, organigramme.

2.6 Plans d'expériences


Le but de ce paragraphe n'est pas de décrire ces méthodes pour lesquelles il
existe une littérature spécialisée et abondante. Il s'agit plutôt de positionner les
"O
c
0 plans d'expériences ou DOE (Design Of Experiments) par rapport à l'optimisa-
::J
0 tion, d'en montrer l'intérêt et la complémentarité. Un plan d'expériences est une
v
T"-f
0
technique permettant de déterminer un nombre limité de points astucieusement
N
répartis, les résultats obtenus en ces points servant à construire une approxi-
@
~
..c
mation globale couvrant tout l'espace de conception. Cela permet de limiter le
Ol
ï:::: nombre d'évaluations de l'objectif et éventuellement de résultats complémen-
>-
a.
0 taires, ni plus ni moins. Il n'y a pas de recherche du mieux ni de l'optimum. Bien
u
qu'on les évalue, les contraintes générales n'interviennent à aucun moment dans
un quelconque processus de décision : ce n'est pas de l'optimisation. Il est pos-
sible d'utiliser un plan d'expériences dans une démarche d'optimisation, mais
ce n'en est pas.

18
2.2 Concepts de base

Pour avoir une bonne connaissance du domaine admissible de manière à y


chercher « efficacement » l'optimum, selon le nombre de variables de conception
du problème et leur influence, le nombre de points à évaluer lors d'une analyse
paramétrique peut s'avérer prohibitif, ou inutilement élevé, ce qui ne peut
être que constaté après analyses. r.: idée maîtresse du plan d'expériences est de
permettre d'avoir une aussi bonne connaissance du comportement qu'avec une
étude paramétrique, mais avec un nombre d'évaluations plus faible (ou beaucoup
plus faible). Cela revient à optimiser le nombre de points de conception quel' on
teste et leur position dans l'espace de conception restreint. Deux contraintes
de borne doivent être associées à chaque variable de conception de sorte que,
par un changement de variable adapté, chaque variable de conception varie de
-1 à + 1. La valeur -1 correspond à la valeur minimale de la variable, + 1 à sa
valeur maximale. Le domaine de conception réduit est un cube de côté 2 dans
l'espace de dimension n défini par les n variables. Quand on choisit un plan
d'expériences, on choisit en fait le nombre de points de conception et leur
position dans le domaine de conception réduit, ce qui différencie les divers
plans existants. Selon les plans d'expériences, les points de conception pour
lesquels sont effectuées les analyses sont dans le domaine de conception réduit,
sur les sommets, sur les arêtes ou dans les faces du domaine ... Chaque plan a
ses avantages et ses inconvénients, aspects qui sortent du cadre de cet ouvrage
(figure 2.20). Une différence entre un plan factoriel complet à trois niveaux pour
trois variables et une étude paramétrique avec trois valeurs pour chacune des
trois variables est que la position des vingt-sept points est figée dans l'espace
de conception pour le plan alors qu'elle est totalement arbitraire pour l'étude
paramétrique.

27 points 15 points 9 points

Figure 2.20 Position des points de conception utilisés pour divers plans
d'expérience (factoriel complet à trois niveaux, composite centré, Taguchi).

19
2 De la conception à la conception optimale

2.7 Surfaces de réponse


Après avoir réalisé les analyses par éléments finis pour les points définis par le
plan d'expériences, on dispose de la valeur des résultats en ces points. r étape
suivante est un post-traitement des résultats qui n'est pas lié aux plans d' expé-
riences et qui peut être mené après une étude paramétrique ou une succession
d'essais-erreurs. Cette étape consiste en la construction de la surface de réponse
à partir de ces valeurs. Une surface de réponse est une surface représentant
l'évolution d'un résultat en fonction de la position du point dans le domaine de
conception, comme illustré à la figure 2.21 dans le cas de deux variables. Il s'agit
d'une approximation du vrai résultat qui, lui, est inconnu, sauf aux points
d'échantillonnage (figure 2.22). Bien que ce ne soit plus une surface au sens clas-
sique en 3D, on parle de surfaces de réponse dans le cas den variables, mais il
n'est pas possible de les visualiser sauf en figeant n - 2 variables et en analysant
l'évolution des résultats en fonction des deux variables choisies.

fo(x) fo(x)
fo(X) 1
fo(X)
•1
1
1
1
1
1
1


1
1
1
1 1

Figure 2.22 Fonction initiale


"O
et approximation.
c
0 Figure 2.21 Exemple de surface
::J
0 de réponse (deux variables
v de conception).
T"-f
0
N
@
~
Les résultats sont des valeurs sûres, en ce sens qu'ils proviennent des diverses
..c
Ol
ï::::
analyses effectuées aux points de conception définis par le plan d'expériences.
>-
a. Mais une fois que l'utilisateur a choisi la forme qui lui paraît la plus représentative
0
u de chaque réponse, ce qui est complètement subjectif, le programme de post-
traitement détermine la valeur des coefficients de la forme prédéfinie. Une surface
de réponse peut être basée sur une régression polynomiale ou posynomiale, sur
du krigeage ou encore sur un réseau de neurones. Nous ne rentrerons pas ici
dans les détails de construction de ces approximations, une littérature abondante
étant disponible à leur sujet.

20
2.2 Concepts de base

Pour déterminer la valeur des coefficients de la surface de réponse, le


programme de post-traitement utilise généralement une technique de moindres
carrés, tout dépendant en pratique du nombre de points de calcul du plan
d'expérience et du nombre de coefficients à identifier. Par exemple, dans le cas
d'une surface de réponse de type polynomial, on devra déterminer la valeur des
coefficients a., b., a.... . de l'expression suivante :
l l 1)

j 0 (x) = a 0 + L., a;x; + L., b;x~ + L., aijxixj + ...


D'une manière générale, la surface de réponse peut ne pas passer par les résultats
obtenus aux points de calcul. r analyse des coefficients permet de savoir si les
variables sont couplées dans une réponse, si une variable est influente, si elle
influe linéairement ou non sur une réponse ... Il faut faire attention au nombre
de valeurs que le plan d'expériences va prendre pour les diverses variables. Pour
des résultats dont l'évolution est régulière mais non monotone, si le nombre de
points est insuffisant, ou si le nombre de coefficients définissant la surface est
insuffisant, la surface construite à partir des résultats n'est pas représentative
de l'évolution du résultat observé (cf. figure 2.22). rutilisation des surfaces de
réponse permet d'avoir une idée de la manière avec laquelle la fonction objectif
et les contraintes évoluent en fonction des valeurs de variables de conception.
Une fois ces approximations connues, on peut les utiliser dans une approche
faisant intervenir un algorithme d'optimisation. On trouvera donc une solution
approchée du problème.

2.8 Optimisation
Quand on mène une étude par essai-erreur, on se déplace à tâtons dans le domaine
de conception en analysant les résultats obtenus lors des analyses précédentes.
Quand le nombre de variables ou de contraintes est élevé, il devient très difficile
de se déplacer dans l'espace de conception a priori inconnu. De nombreuses
itérations d'essais-erreurs sont alors nécessaires, sans garantie de convergence
vers la solution du problème qui vérifie toutes les contraintes tout en ayant la
valeur minimale de la fonction objectif.

Quand on mène une étude paramétrique ou que l'on met en place un plan
d'expériences, les valeurs des variables sont définies à l'avance, les contraintes
sont difficiles à prendre en compte et les résultats ne sont pas capitalisés. Même
si on construit une surface de réponse à partir des résultats, le choix de la valeur
des variables ou du type de plan d'expériences étant tout aussi subjectif que
l'équation de la surface, on a peu de chance de trouver les valeurs optimales
21
2 De la conception à la conception optimale

des variables d'autant plus qu'en pratique on s'attache principalement (voire


exclusivement) à la fonction objectif seule.
En optimisation, on utilise les informations liées aux valeurs de réponses
structurales calculées, fonction objectif et contraintes comprises, de manière
à identifier une nouvelle estimation des variables de conception minimisant
la valeur de l'objectif tout en restant dans le domaine admissible. Dans le cas
des méthodes basées sur les dérivées, on utilise de manière systématique les
informations liées à la sensibilité des fonctions par rapport aux variations des
variables de conception. On se sert de cette information pour déterminer une
direction de recherche dans l'espace de conception admissible en prenant en
compte non seulement la minimisation de la fonction objectif mais également
l'existence des contraintes. En résumé, au lieu de se déplacer a priori dans le
domaine de conception, le programme se déplace pour le mieux dans le domaine
admissible : c'est là toute la différence (figure 2.23).

1. Conception initiale
Variables xk (k = 0)

2. Analyse de la structure
f 0(x k), fj( x k)

k <= k + 1 Conception finale

"O 4. Méthode d'optimisation


0
c Nouvelles variables xk*
::J
0
v
T"-f
0 5. Nouvelle conception
N
@ =
Variables xk+ / xk*
~
..c
Ol
ï::::
>- Figure 2.23 Optimisation, organigramme.
a.
0
u

2. 9 Questions préalables à la résolution


Définir un problème d'optimisation comporte une grande part de subjectivité
liée à la connaissance de la structure à optimiser ainsi que des contraintes
technologiques pour réaliser la structure qu'a la personne qui pose le problème.
22
2.2 Concepts de base

Suite à ce qui a été présenté dans les paragraphes précédents, toute démarche
d'optimisation doit s'accompagner de questionnements préalables. Tout d'abord,
il faut définir clairement l'objectif sachant que, s'il n'est pas unique, on souhaite
souvent faire en sorte qu'il le devienne. Ensuite, il faut savoir comment exprimer
cet objectif d'une façon telle que les outils d'optimisation puissent traiter le
problème. Par exemple, minimiser une contrainte au sens mécanique ne veut
rien dire en termes d'optimisation. Il faut préciser s'il s'agit d'une composante
principale (laquelle?), d'une contrainte équivalente (selon quel critère?), d'une
valeur sur la structure ou une zone, d'une contrainte moyennée ou extrapolée,
d'une valeur lissée ou non lissée. Et on imagine bien que, selon la manière
dont on définit l'objectif et les contraintes générales, on ne trouve pas la même
solution optimale, en supposant qu'il y en ait une: un problème peut ne pas avoir
de solution tout simplement parce qu'il est mal posé.

Il faut définir les variables de conception et savoir rester « modeste ». Il est


certes tentant de supposer que toutes les données du modèle peuvent être prises
comme variables de conception. Mais il faut tenir compte du coût et des temps
de calcul, et savoir se limiter. Si on optimise une structure, c'est que, suite à
une évolution du cahier des charges, la structure ne satisfait plus à toutes les
exigences, ou que la conception en développement ne satisfait pas à toutes les
spécifications. On a dans les deux cas une certaine expérience et « on sait » ce
sur quoi on peut agir. En général, on a déjà décidé si les variables sont discrètes
ou continues. Cela dépend des aspects technologiques et des procédés choisis
pour réaliser la structure. Quant à l'espace de conception, il doit être défini et
dimensionné avec du bon sens. S'il est trop petit, quand on prend en compte les
contraintes, il se peut que le domaine admissible soit vide. S'il est trop grand, le
point de conception initiale peut être trop loin du point de conception optimale
et, du coup, le processus d'optimisation peut ne pas converger.

Il en est de même pour les contraintes générales. Trop de contraintes ou des


contraintes mal définies peut conduire à un domaine admissible vide. Et il
est important de faire très attention aux bornes associées aux contraintes. Par
exemple, pour un barreau en compression, une contrainte équivalente inférieure
à 100 MPa est effectivement une limite pour le processus de résolution. Mais
une contrainte axiale inférieure à 1OO MPa n'en est pas une : la contrainte de
compression étant négative, quelle que soit sa valeur, elle est inférieure à + 1OO.
La contrainte d'optimisation n'est alors jamais active et ne constitue pas une
borne du problème.

La formulation d'un problème d'optimisation est donc très importante, et doit


être le fruit du savoir-faire de l'ingénieur concepteur.
23
Les différents problèmes
d'optimisation
des structures

Si l'on traite aujourd'hui un grand nombre de problèmes d'optimisation


des structures, dans de très nombreux domaines, il n'en a pas toujours
été ainsi. Le but de ce chapitre est de présenter l'évolution des classes
de problèmes qui se sont posées.

3.1 Paramétrage et choix des fonctions


Comme nous l'avons vu précédemment, l'optimisation des structures a pour but
de maximiser au moins une performance structurale donnée, tout en satisfaisant
à un certain nombre de restrictions assurant la faisabilité de la conception et
le respect du cahier des charges. La fonction objectif et les contraintes corres-
pondent à des réponses structurales représentant le poids de la structure, sa rai-
deur ou encore le maximum des tensions équivalentes rencontrées en tout point
du solide. Les variables de conception sont choisies comme étant l'épaisseur de
membres structuraux, certains paramètres définissant la géométrie de la pièce à
concevoir, ou encore des caractéristiques du matériau comme les orientations
"O
0 des fibres dans chaque pli d'une structure en matériau composite.
c
::J
0 La généralité de la solution optimale dépend du choix des variables de conception.
v
T"-f
0 Celles-ci permettent de paramétrer avec plus ou moins de liberté la structure
N
@ étudiée. La validité de la solution est fixée par les performances structurales et
~
..c les restrictions à la conception (c'est-à-dire les contraintes) retenues dans le
Ol
ï::::
>- problème d'optimisation ; ces grandeurs rendront compte du comportement de
a.
0
u la structure dans les limites imposées par ce choix. En effet, si l'optimisation
porte sur le poids et la raideur, on ne s'étonnera pas si les restrictions de tension
ne sont pas satisfaites. Selon (1) en figure 3.1, la liberté de définition de la
structure dépend du type de variables de conception; selon (2), les performances
structurales dépendent des réponses structurales considérées, et, selon (3), les
réponses structurales sont fonctions des variables de conception. En d'autres
termes, selon la manière avec laquelle on va paramétrer le problème, on pourra
24
3.2 Les problèmes d'optimisation de structures

définir différents problèmes d'optimisation qui seront d'une généralité, d'une


qualité ou d'une pertinence donnée. De plus, comme mentionné auparavant,
si certains types de réponses structurales (par exemple les tensions dans les
barres) ne sont pas pris en compte dans l'ensemble des contraintes du problème
d'optimisation, on ne doit pas s'attendre à ce qu'elles soient satisfaites pour la
solution optimale qui sera trouvée. On obtient donc l'optimum qu'on mérite.
Comme expliqué précédemment, l'analyse des structures est effectuée par la
méthode des éléments finis et le paramétrage de la structure s'effectue suivant ce
formalisme. Les différents problèmes d'optimisation y sont liés.

(3)
Var iables de conception ~ Réponses structurales

Définition de la structure Perfo rmances structurales


Restrictions à la conception

Figure 3.1 Limitations de l'optimisation des structures liées au choix


des variables de conception et des réponses structurales.

Quant aux méthodes d'optimisation des structures, elles sont nombreuses.


Certaines proviennent du domaine des mathématiques pures, où des algorithmes
généraux ont été développés sans que le but ait été de les appliquer au cas des
structures. Ces méthodes peuvent d'ailleurs montrer leurs limites dans ce genre
d'applications, ce qui leur a valu des adaptations particulières performantes, qui
seront au cœur de ce livre. D'autres méthodes viennent plutôt du domaine de la
gestion. Ici aussi, ces méthodes ont leurs inconvénients lorsqu'elles sont utilisées
en optimisation des structures, car elles ne sont pas réellement adaptées à ce
genre de problèmes. Enfin, la dernière classe de méthodes est directement liée
aux structures, et est mise au point par des ingénieurs spécialisés. Très spécifiques
et dépendant fortement du problème traité, elles ont également montré leurs
limites au fil du temps. Ces différentes méthodes seront abordées au chapitre
suivant.

3 .2 Les problèmes d' optimisation


de structures
La recherche dans le domaine de l'optimisation des structures a commencé dans
les années 1960, les techniques d'optimisation ont commencé à être utilisées en
25
3 Les différents problèmes d'optimisation des structures

mécanique des structures dès la fin des années 1970. À cette époque, le calcul
par éléments finis était moins répandu qu'aujourd'hui. Le secteur aéronautique,
grand utilisateur de cette technique, avait déjà des problèmes d'optimisation,
la réduction de la masse des avions étant depuis longtemps l'un des objectifs
prioritaires des avionneurs.

Les problèmes d'optimisation des structures peuvent être classés selon le type de
variables de conception considérées (figure 3.2). La formulation du problème en
termes de variables de conception conduit à l'optimisation de dimensionnement
(ou dimensionnement optimal), à l'optimisation de forme, à l'optimisation
topologique et à l'optimisation du matériau. Dans le cas de la figure 3.2, on
présente le cas des orientations optimales d'un matériau composite. Selon le
type de variables envisagées, les réponses structurales retenues dans le problème
d'optimisation peuvent être de natures différentes.

Conception initiale

Conception optimale

"O
0
X X'\.
- -
" 1
c
::J
0
v
T"-f Dimensionnement Optimisation Optimisation Optimisation
0
N optimal de forme topologique du matériau
@
~
..c Figure 3.2 Différents problèmes d'optimisation des structures.
Ol
ï::::
>-
a.
0
u
3.2.1 Optimisation de dimensionnement
Dans l'optimisation de dimensionnement des structures, on modifie les
dimensions transversales des éléments de structures minces : la section droite
des barres (figure 3.3a) ou encore l'épaisseur transversale des membranes,
plaques ou coques (figure 3.3b). Ni la forme ni la topologie de la structure ne

26
3.2 Les problèmes d'optimisation de structures

sont changées, c'est-à-dire qu'on ne modifie ni la géométrie ni l'agencement ni


le nombre des membres structuraux. On inclut également dans cette catégorie
les problèmes dans lesquels l'inertie ou les dimensions des raidisseurs sont
variables (figures 3.3c et 3.3d), mais seulement lorsque ceux-ci sont modélisés
par des éléments finis de poutres ou de barres : la modification des dimensions
des semelles ou de l'âme n'introduit alors aucune modification dans la géométrie
du modèle éléments finis utilisé. Seules les propriétés physiques des éléments des
structures sont modifiées (cf. chapitre 12).

Problèmes physiques

Problèmes modélisés

V a. Éléments b. Éléments finis de


/
c. Éléments
/ d. Éléments
finis de barre membrane, de finis de poutre finis de poutre
plaque ou de coque

Figure 3.3 Quelques problèmes types de dimensionnement optimal,


les variables de conception et la modélisation associées.

Ce type d'optimisation, dont on a vu l'apparition au début des années 1970, est


utilisé quotidiennement au niveau industriel, principalement dans le domaine
aéronautique. Bien qu'elle semble basique dans sa formulation, cette optimisation
peut faire intervenir un nombre appréciable de variables de conception (jusqu'à
quelques centaines) ainsi qu'un grand nombre de contraintes attachées aux
différents cas de charge que la structure doit supporter (jusqu'à quelques
milliers). La plupart du temps, il s'agit de minimiser le poids de la structure
sous des restrictions concernant la tenue en résistance et parfois la raideur de la
structure. Des restrictions liées à la tenue au flambage et à la raideur dynamique
ont également été prises en compte : on peut vouloir minimiser le poids de la

27
3 Les différents problèmes d'optimisation des structures

structure tout en s'assurant que la charge de flambage ou la première fréquence


de vibration soit supérieure à une valeur minimale donnée.

À la figure 3.4, on présente le problème d'optimisation d'un treillis composé de


18 barres. La structure est attachée sur sa partie gauche, et est soumise à une force
verticale d'amplitude P en chaque nœud supérieur. Les variables de conception
sont les aires A; des sections de chaque barre: on en compte dix-huit.

Structure modélisée
et conditions limites

Variables de
conception

Solution optimale
trouvée

Figure 3.4 Illustration d'un problème de dimensionnement optimal.

"O
0
§
0
3.2.2 Optimisation de forme
En optimisation de forme, les variables de conception du problème sont liées
au paramétrage des frontières extérieures et/ou intérieures de la structure. On
~
..c n'admet cependant que des changements de forme compatibles avec une topologie
Ol
ï:::: fixée au préalable : on ne modifie donc pas le nombre de membres structuraux
>-
a.
0
u et on n'admet pas la création ni la disparition de trous lors des changements de
forme (cf. chapitre 12). Ce type d'optimisation, apparu dans les années 1980, est
utilisé principalement dans les applications de mécanique générale. C'est par
exemple le problème de la bielle dont on cherche deux longueurs et les rayons
optimaux (figure 3.5).

28
3.2 Les problèmes d'optimisation de structures

420

Figure 3.5 Problème de dimensionnement de la bielle.

r.: optimisation deforme peut être appliquée sur des structures de type treillis
de barres ou de poutres dans lesquelles la position des nœuds peut varier
(figure 3.6a), ou sur des structures modélisées par éléments finis de type continu,
c'est-à-dire des membranes, volumes ou coques, comme illustré en figures 3.6b
à 3.6d. Dans ce dernier cas, le paramétrage est réalisé soit sur le maillage, soit sur
la géométrie qui sous-tend le maillage.

Problèmes phys iques

,VI· b

Problèmes modélisés

a. Éléments b. Éléments fin is de c. Éléments d. Éléments finis


finis de barre membrane, de finjs de de membrane, de
plaque ou de coque volume plaque ou de coque

Figure 3.6 Quelques problèmes types d'optimisation de forme, les variables


de conception et la modélisation associées.

29
3 Les différents problèmes d'optimisation des structures

Lorsque le paramétrage est lié au maillage, le problème est mal posé car
l'approche est locale : des variations rapides des coordonnées de nœuds
adjacents provoquent des oscillations indésirables dans la solution, le résultat
pouvant être des frontières en dent de scies (figure 3.7a). La seconde approche,
dans laquelle le paramétrage est lié à la géométrie, peut souffrir du manque de
robustesse des outils numériques utilisés pour définir et paramétrer la géométrie
des pièces à optimiser. En effet, le modèle éléments finis est alors obtenu à partir
d'une représentation géométrique de type CAO dont l'actualisation suite à
une modification de valeur de paramètres peut être impossible car elle conduit
à une erreur (figure 3.7b). À la figure 3.8, on reprend le problème du treillis
composé de dix-huit barres. Les variables de conception sont les coordonnées
des nœuds inférieurs du treillis. Celles-ci peuvent varier dans les directions X et
Y de manière à modifier la forme de la structure. Certaines limites de variation
doivent être définies de manière à conserver une structure réaliste : par exemple,
les valeurs des variables x 3 et x4 représentant les variations de coordonnées des
nœuds 3 et 4 dans la direction horizontale doivent être telles que le nœud 4
ne peut jamais se placer à gauche du nœud 3. Ces conditions deviennent des
contraintes du problème d'optimisation.

a. Paramétrage sur le maillage

Modèle éléments finis Paramétrage local des Solution avec


et forme de départ coordonnées des nœuds de oscillations indésirables
frontière sur la frontière
"O
0 b. Paramétrage sur la géométrie
c
::J
0
v
T"-f
0
N
@
~
0
..c
Ol
ï::::
>-
a. Modèle CAO et forme de Paramétrage global de Remise à jour de R 1
0
u départ la frontière intérieurec entraînant une e1Teur de
reconstruction géométrique

Figure 3.7 Problèmes liés à l'optimisation de forme.

30
3.2 Les problèmes d'optimisation de structures

p p p p

Structure modélisée
et conditions limites

~,---·---===r-=--=-~---1:
Variables de
conception
- ,--1,T+ 1 T~ l,
Positions l !!
j

Positions
possibles ! Y 3
!! Y 4l possibles
du nœud 3 1,____ __ _____ ___ ____ __ .,:1_i! _____ __ _____ ___ _____!• du nœud 4

Solution optimale
trouvée

Figure 3.8 Illustration d'un problème d'optimisation de forme.

3.2.3 Optimisation topologique


r optimisation topologique permet de modifier plus fondamentalement la
nature de la structure. La géométrie de la pièce est envisagée sans aucun a priori
sur la manière avec laquelle les domaines ou les membres structuraux présents
dans la solution sont connectés. Optimiser la topologie d'une structure conduit
naturellement à déterminer sa forme ou ses dimensions transversales optimales.
Le problème d'optimisation topologique est formulé comme étant la recherche
de la distribution optimale des propriétés matérielles dans un domaine de
conception prescrit. Les variables de conception sont les pseudo-densités des
éléments. Ce type d'optimisation s'applique aux structures discrétisées par des
éléments de barres, poutres, membranes, plaques ou coques, et volumes.

31
3 Les différents problèmes d'optimisation des structures

Dans le cas de structures discrétisées par des éléments finis discrets (barres et
poutres), un univers structural tel que celui représenté à la figure 3.9a constitue
le domaine de conception initial. On recherche les barres qui doivent rester
dans la structure de conception optimale. Lorsque la structure est discrétisée
par des éléments finis continus, le maillage de départ constitue le domaine de
conception (figure 3.9b). On recherche alors dans quels éléments la matière
doit être présente à la solution. On connaît l'encombrement, les conditions aux
limites et les chargements. On se donne comme contrainte la masse finale que
l'on veut, fraction de la masse contenue dans le volume initial. On se donne
comme objectif d'avoir une structure qui a la raideur maximale et/ou la valeur
imposée de la première fréquence propre. Maximiser la raideur est équivalent
à minimiser les déplacements. La solution optimale du problème posé est
représentée sur la figure 3.10.

a. Univers structural discret

[
"O
0
c
::J
0
v
,..-!
0
N
@

A
~
..c
Ol
ï:::: b. Umvers structural contmu
>-
a.
0
u
Figure 3.9 Domaines de conception pour l'optimisation topologique.

32
3.2 Les problèmes d'optimisation de structures

Variable de conception Domaine dans lequel la


associée à l'élément fini i matière doit être distribuée
I
Pseudo-densité

Figure 3.10 Conception optimale.

Il est possible d'introduire des contraintes sur le déplacement. Bien que les
contraintes sur les tensions puissent être prises en compte dans certaines
applications académiques de taille petite ou moyenne, il n'y a pas aujourd'hui de
solution robuste au niveau industriel. La structure optimale donne en pratique
une tendance à partir de laquelle on va faire de l'optimisation de forme et de
dimensionnement (figure 3.11). Le chapitre 13 sera dédié à ce type d'optimisation.

Problème physique

Optimisations successives

Optimisation Nouvelle géométrie, et Optimisation


topologique maillage de forme

Figure 3.11 Optimisation topologique suivie d'une optimisation de forme.


33
3 Les d ifférents problèmes d'optimisation des structures

3.2.4 Optimisation du matériau


L'optimisation du matériau ou la distribution de propriétés matérielles optimales
consiste à rechercher dans la structure l'emplacement optimal du matériau
optimal. On illustre cette optimisation à la figure 3.12 par la sélection du module
d'Young optimal dans le cas de structures faites de matériaux isotropes, et par la
recherche de l'orientation optimale des fibres dans le cas d'un pli composite. Il
s'agit de problèmes discrets par nature : on dispose soit d'un ensemble donné de
modules d'Young (E,, E2 ... ), soit d'un ensemble discret d'orientations de fibres
(0°, 30°, 45°, 60°, -45°, 90° ... ). Ce second type de problème est très à la mode
et fera l'objet d'une discussion plus détaillée par la suite (cf. chapitre 14). La
recherche optimale du matériau peut être vue comme un problème d'optimisation
topologique. Dans ce cas, une formulation en variables continue est possible,
dans une certaine mesure.

Problèmes physiques

Problèmes modélisés

"Cl
0
c
::::i
0 Éléments fi nis Éléments finis de Éléments finis Éléments finis de
de barre ou de membrane, de de volume membrane, de
"""
..-1
0 poutre plaque ou de coque plaque, de coque,
N
@ ou de volume

..c
Ol
·;:: Figure 3.12 Quelques problèmes types d'optimisation du matériau,
>-
a. les variables de conception et la mod élisation associées.
0
u
Ces différents types d'optimisation des structures peuvent évidemment être
combinés, ou utilisés de manière séquentielle, comme pour le problème illustré
à la figure 3.11.

34
Les différentes méthodes
d'optimisation
des structures

On explique dans ce chapitre les méthodes numériques d'optimisation des


structures qui permettent de mettre en évidence les solutions optimales
pour les quatre classes de problèmes d'optimisation décrits dans le chapitre
précédent.

4.1 Catégories de méthodes d'optimisation


des structures
Comme expliqué précédemment, l'analyse de la structure est effectuée par
la méthode des éléments finis et le paramétrage s'effectue dans ce cadre. Les
différents problèmes d'optimisation y sont liés. Les méthodes d'optimisation
des structures sont nombreuses. Certaines proviennent du domaine des
mathématiques pures, où des algorithmes généraux ont été développés sans que
le but initial ait été de les appliquer au cas des structures. Ces méthodes peuvent
d'ailleurs montrer leurs limites dans ce genre d'applications, ce qui leur a valu
des adaptations particulières performantes, qui seront au cœur de ce livre.
D'autres méthodes viennent plutôt du domaine de la gestion. Ces méthodes ont,
elles aussi, leurs inconvénients lorsqu'elles sont utilisées en optimisation des
structures, car elles ne sont pas réellement adaptées à ce genre de problèmes.
Enfin, la dernière classe de méthodes est directement liée aux structures et
est mise au point par des ingénieurs spécialisés. Très spécifiques et dépendant
fortement du problème traité, leur manque de généralité les pénalisant, elles ont
également montré leurs limites au fil du temps.
Plusieurs méthodes d'optimisation ont été progressivement développées pour
résoudre les problèmes de la figure 3.2. On peut les classer en trois grandes caté-
gories : les critères d'optimalité, les méthodes de programmation mathématique,
que celles-ci soient avec ou sans gradients, et la troisième classe de méthodes
qui dérive de la précédente : il s'agit de la programmation séquentielle convexe.
35
4 Les différentes méthodes d'optimisation des structures

Notons que ces méthodes peuvent être appliquées au cas des variables discrètes
et continues. Il faut également préciser que les méthodes d'optimisation peuvent
être soit déterministes, soit stochastiques. Dans le premier cas, la valeur des va-
riables de conception est connue précisément ; dans le second cas, elle est connue
de manière statistique. Cet aspect stochastique apparaît également lorsque les
méthodes d'optimisation incluent des phases de tirages aléatoires. Cet aspect les
rend plus aptes à mettre en évidence l'optimum global du problème.

4.2 Les critères d'optimalité


Les critères d'optimalité sont des méthodes d'optimisation dédiées à la solution
de problèmes spécifiques. Ils ne sont dès lors pas généraux. Autrement dit, ils
sont mis au point au cas par cas, par des ingénieurs spécialisés. Le plus connu des
critères d'optimalité est le critère du Fully Stressed Design (FSD) [ 1], datant des
années 1970. Il a été utilisé dans le dimensionnement optimal et est expliqué ici
dans le cas d'un treillis de barres. Il consiste à déterminer la valeur del' aire de la sec-
tion Ai de chaque barre, de manière à atteindre la contrainte maximale admissible
en tout élément de la structure. Le problème d'optimisation associé s'écrit alors :

minw(A)
A;

où A= {A., i = l, ... ,n} est le vecteur collectant les n variables de conception A.,1 w
l

est le poids à minimiser et ~max est la valeur limite admissible de la tension dans
chaque barre i. Si Ai désigne la variable de conception attachée à la barre i, on a
alors la relation : * _ ( cr;iax J
"O
0 Ai -Ai X (J.
c 1
::J
0
v
T"-f
0
On constate donc qu'il suffit d'effectuer une règle de trois sur la valeur actuelle
N
@ de la variable de conception, de manière à obtenir à la solution la contrainte
~
..c maximale dans chaque élément de structure. Ce faisant, on ne se soucie donc
Ol
ï::::
>-
pas du poids, dont la valeur ne dépendra que du résultat de la mise à jour des
a.
0 variables de conception par rapport à un état de tension maximal admissible à
u
atteindre. Dans le cas de structures isostatiques, la solution est obtenue en une
itération car la contrainte dans chaque barre ne dépend que del' aire de la section
de la barre concernée et de la force axiale Q qui y passe, et la formule ci-dessous
est appliquée indépendamment pour chaque barre.
Q.
(J. = - '
1 A.
1
36
4.3 Une méthode stochastique

Dans le cas hyperstatique, la contrainte dans une barre ne dépend plus


uniquement de l'aire de sa section, mais est liée à d'autres sections. La solution
ne pouvant plus être obtenue en une seule itération, la formule du FSD est alors
appliquée de manière itérative et la condition Œ; = Œ~ax n'est pas forcément
atteinte dans toutes les barres.

Des critères d'optimalité ont également été développés pour l'optimisation


de forme, l'optimisation topologique, ainsi que pour le cas particulier de
l'orientation optimale dans les matériaux composites.
L avantage des critères d'optimalité est qu'ils permettent souvent d'atteindre la
solution optimale en un nombre réduit d'itérations, indépendamment du nombre
de variables de conception que comprend le problème. Bien que les critères
d'optimalité aient permis de résoudre de nombreux problèmes d'optimisation,
il faut constater que la communauté scientifique et les utilisateurs industriels
tendent à se détourner d'eux, certainement à cause du manque de généralité et
de fondement mathématique de ces méthodes qui, parfois tellement spécifiques,
pourraient être interprétées comme des recettes de cuisine.

4.3 Une méthode stochastique


La méthode de Monte-Carlo consiste à effectuer un tirage aléatoire pour donner
à chaque variable de conception une valeur compatible avec ses contraintes de
borne, puis à faire une analyse pour le point de conception ainsi construit et à
répéter ce processus un très grand nombre de fois. On évalue donc la fonction
objectif et les contraintes mais on ne calcule pas les sensibilités, même lorsque
cela est théoriquement possible. Si le nombre de points est suffisant, on espère
explorer à peu près tout l'espace de conception, de manière à peu près uniforme.
L optimum est, parmi les points calculés, celui qui est admissible et qui a la
fonction objectif minimale. Lorsqu'il existe plusieurs optimums locaux, la
méthode de Monte-Carlo permet de déterminer une bonne approximation de
l'optimum global, pour autant que le nombre de tirages soit suffisamment grand.

L inconvénient principal de cette méthode est qu'il est nécessaire de mener


une analyse par éléments finis pour chaque point de conception, ce qui est très
coûteux. Un autre inconvénient de cette méthode est que si une région del' espace
de conception ne contient manifestement pas l'optimum, cette information n'est

37
4 Les différentes méthodes d'optimisation des structures

pas exploitée puisqu'on ne force pas le générateur aléatoire à créer des points
dans une région particulière del' espace de conception. Il en résulte que certaines
analyses sont inutiles. Même si diverses techniques peuvent être utilisées pour
tenir compte de la distribution statistique des valeurs des différentes variables de
conception et explorer plus finement les régions associées aux valeurs les plus
probables de ces variables (cf. chapitre 16), il n'y a pas de capitalisation de la
connaissance pour guider l'exploration. r utilisation des méthodes stochastiques
entraîne un coût de calcul élevé, ce qui explique leur utilisation marginale en
optimisation des structures. Le lecteur intéressé trouvera de plus amples
informations dans la référence [2].

4.4 Les méthodes de programmation


mathématique
Les méthodes de programmation mathématique peuvent être classées en
méthodes sans gradient et méthodes avec gradient. Le gradient représente ici
le vecteur des dérivées premières de la fonction à minimiser. Le cas échéant,
il faut tenir compte des gradients des contraintes. D'une manière générale, ces
méthodes peuvent être utilisées pour résoudre des problèmes d'optimisation
généraux, tels que ceux apparaissant à la figure 4.1 où on représente une fonction
non convexe et une fonction convexe à une variable. Lorsque la fonction est
convexe, un seul optimum existe. Cet exemple de minimisation d'une fonction
à une variable nous servira pour expliquer brièvement, sans équation, les
différentes méthodes d'optimisation. Comme on le verra par la suite, il y a
toujours moyen de remplacer un problème d'optimisation avec contraintes en
une suite de problèmes d'optimisation sans contrainte. r exemple utilisé ici n'est
"O
c
0 donc pas restrictif.
::J
0
v
T"-f
f(x) f(x)
0 Fonction à Fonction convexe à
N
minimiser minimiser
@
~
..c
Ol Optimum Optimum
ï::::
>-
a.
0
u
\\. . . . .2°.I. . . /. . ...::Tl
~------------_____,.X
\··.. o .."
~------____,.X

Figure 4.1 Minimisation d'une fonction à une variable: à droite, une fonction
convexe, c'est-à-dire n'ayant qu'un optimum.
38
4.3 Une méthode stochastique

Dans le cas de l'optimisation des structures, les fonctions à minimiser sont la


plupart du temps implicites en fonction des variables de conception, c'est-à-dire
qu'elles ne peuvent être tracées (comme à la figure 2.1) que si on calcule leurs
valeurs pour toutes les valeurs de la variable de conception.

4.4.1 Méthodes sans gradient


Les principales méthodes sans gradient qui ont été utilisées dans le cadre de
l'optimisation des structures sont l'algorithme génétique et les méthodes de
surfaces de réponse. On les classe également dans les méthodes d'ordre O.
Comme avec la méthode de Monte-Carlo, les algorithmes génétiques (AG)
n'utilisent que la valeur de la fonction objectif et des contraintes. Mais au lieu
d'explorer « tout » l'espace de conception en le balayant par tirage aléatoire,
on optimise les performances d'une population d'individus dont le nombre est
relativement faible et dont les caractéristiques évoluent à chaque itération. À la
différence de la méthode de Monte-Carlo, il y a capitalisation de la connaissance
acquise de manière à guider l'exploration.
Le point de départ de l'algorithme génétique est un ensemble de valeurs des
variables de conception, appelé population. Suite à des sélections basées sur des
critères de performance, des croisements, des mutations et autres spécificités, elle
évolue au fur et à mesure des itérations, donnant naissance à des générations suc-
cessives. Les individus qui les composent se concentrent autour de l'optimum du
problème (figure 4.2). Ce type de méthode demande de nombreuses évaluations
de la fonction à minimiser. Elle peut donc s'avérer coûteuse en termes de temps
de calcul et n'est dès lors pas adaptée à la résolution de problèmes d'optimisation
des structures. Ses applications sont peu nombreuses dans ce domaine.

j(x) j(x)
Fonction implicite à
minimiser


..·····..
......~.................,(~·-~~\..........L......
. . . . .......... . ~: !
. . .....
:
X
.-·
······\.::.:~.-.-.::~:.~::.::./.......:~.~-·······f .........
~
X

Algorithme génétique - génération 1 Algorithme génétique - génération ultérieure

Figure 4.2 Minimisation d'une fonction par algorithme génétique.

39
4 Les différentes méthodes d'optimisation des structures

Pour autant que la population soit suffisamment grande, cette méthode permet
de déterminer l'optimum global du problème. Le prix à payer est alors un temps
de calcul extrêmement élevé. La prise en compte de nombreuses contraintes peut
parfois poser problème et augmenter le nombre de générations nécessaires à l' ob-
tention d'une solution optimale. D'autres méthodes évolutionnaires ou basées sur
les mécanismes de la nature ou de la physique ont été développées : recuit simulé,
PSO (Particle Swarm Optimization) ... Ces méthodes conservent grosso modo
les avantages et inconvénients des algorithmes génétiques. Au niveau industriel,
l'algorithme génétique n'est pas utilisé dans les applications de structures. Le
chapitre 11 est consacré à l'explication plus détaillée de l'algorithme génétique.
Dans les méthodes de surface de réponse, on part également avec un ensemble de
valeurs de la variable de conception x, qu'on peut également appeler population.
Pour chacune de ces valeurs, la fonction à minimiser est évaluée par une analyse
par éléments finis. On construit alors une approximation de la fonction sur
la base des valeurs de fonction. Cette approximation peut être basée sur un
polynôme, un réseau de neurones ou tout autre type d'approximation telle que
celle de Krig. Une fois cette approximation construite, son minimum peut être
déterminé grâce à un algorithme génétique ou éventuellement par un algorithme
de programmation mathématique basé sur les gradients si les dérivées premières
de l'approximation sont disponibles. r optimum du problème approché ainsi
trouvé complète la population de départ et sert à la définition d'une nouvelle
approximation de la fonction à minimiser (figure 4.3). On génère donc des
surfaces de réponse de plus en plus précises au cours des itérations (figure 4.4). Le
processus d'approximations successives se poursuit ainsi jusqu'à la convergence
finale, pour laquelle, habituellement, deux solutions identiques successives ont la
même valeur. On parle alors de méthode de surfaces de réponse adaptatives, ou
"O
encore de SBO (Surrogate Based Optimization).
0
c
::J f(x)
0 Solution du problème approché par
v Fonction implicite à algorithme génétique
T"-f
0 minimiser
N
@
~
..c Génération 1
Ol
ï::::
>-
a.
0
Approximation globale
• •
u

Génération .finale

Méthode de sury..ace de réponse adaptative - itération 1

Figure 4 .3 Première itération de la méthode de surface


de réponse adaptative.
40
4.3 Une méthode stochastique

f(x)
Solution du problème approché par
Fonction implicite à algorithme génétique
minimiser

Approximation globale • • Génération. 1

~-----------------+X Génération.finale

Méthode de surface de réponse adaptative - itération 2

Figure 4.4 Deuxième itération de la méthode de surface


de réponse adaptative.

I.:intérêt d'utiliser ces méthodes est de générer des sous-problèmes successifs


qui sont explicites, puisque construits par l'utilisateur sur la base de polynômes,
réseaux de neurones ... I.:algorithme génétique, cher en temps de calcul lorsqu'il
est appliqué sur le problème de départ implicite, devient alors peu coûteux
lorsqu'il est appliqué aux problèmes explicites. En effet, la phase d'évaluation
de l'algorithme génétique se déroule sur des fonctions dont le calcul de la
valeur ne demande pas d'analyse par éléments finis. On peut également à ce
niveau profiter des avantages d'un calcul en parallèle. Cependant, on comprend
aisément que la qualité de l'approximation dépend du nombre d'individus dans
la population et donc de valeurs dont on dispose pour la créer. Comme chacune
de ces évaluations demande une analyse par éléments finis, cet aspect limite,
pour l'instant, l'utilisation de ce type de méthode à une dizaine de variables de
conception. Les applications des surfaces de réponse adaptatives en optimisation
des structures ne sont dès lors pas très nombreuses.

4.4.2 Méthodes avec gradient


Dans les méthodes de programmation mathématique basées sur les gradients,
on calcule la dérivée de la fonction par rapport aux variables de conception,
donc son vecteur gradient. Ce sont des méthodes d'ordre 1. La connaissance
des dérivées permet de déterminer une direction qui mène vers le minimum,
appelée la direction de descente (direction de montée dans le cadre d'une maxi-
misation de fonction). Une fois cette direction trouvée, il faut calculer la distance
à parcourir dans cette direction. C'est la phase de recherche linéaire. Cette phase
est elle-même une optimisation, à une variable, c'est-à-dire une optimisation ID

41
4 Les différentes méthodes d'optimisation des structures

(cf. chapitre 5), dont la variable est la distance à parcourir dans la direction de
descente. La recherche linéaire est donc toujours une optimisation unidimen-
sionnelle, contrairement au problème d'optimisation de départ qui peut com-
porter un nombre n arbitraire de variables. Le cas d'une variable de conception
représenté à la figure 4.5 est limitatif puisque, dans ce cas, une itération suffit car
celle-ci permettra de déterminer une direction de descente qui passe par l' opti-
mum. On illustre donc à la figure 4.6 le cas d'un problème à deux variables, pour
lequel des calculs successifs de direction de descente doivent être réalisés, ce qui
démontre que la méthode est itérative.

f(x)
Fonction implicite à Calcul du pas de progression sur un
minimiser intervalle de la fonction implicite

Calcul du gradient et déduction


Itér. I

\ de la direction de recherche
• •
.......................
··.."·····o............
·........·
'--~~~~~~~~~~~~____,.X
·.
\J ''....·::2

Méthode de programmation mathématique avec gradient

Figure 4 .5 Méthode de programmation mathématique avec gradient.

On peut montrer que, globalement, le x2


nombre d'itérations nécessaires pour
atteindre l'optimum est proportionnel
au nombre de variables de conception.
"O
0 Par exemple, dans le cas d'une
c
::J
0 fonction quadratique à n variables, n
v itérations sont nécessaires, auxquelles
T"-f
0
N il faut ajouter le coût lié à la recherche
@
~ linéaire. On comprend donc que ce
..c
Ol
ï:::: type de méthode ne peut pas être
>-
a.
0
utilisé lorsque n est trop grand (c'est-
u
à-dire lorsque le nombre de variables Figure 4.6 Méthode
de conception est trop élevé), car on de programmation mathématique
effectue alors dans ce cas n analyses par avec gradient à deux variables.
éléments finis. Si la valeur de n est égale
à 100 000 (ce qui peut se produire en optimisation topologique), il faudra alors
autant d'analyses de la structure, ce qui est impraticable. Un désavantage de telles
42
4.3 Une méthode stochastique

méthodes, comparées aux algorithmes génétiques, est qu'elles ne se prêtent pas


au calcul parallèle, chaque itération devant être effectuée de manière séquentielle,
c'est-à-dire l'une après l'autre. De plus, comme on le voit à la figure 4.6, on peut
très bien se retrouver bloqué dans un optimum local de la fonction à minimiser.
En plus des gradients, on peut utiliser le hessien, ou matrice hessienne, qui est
obtenu par le calcul des dérivées secondes. On parle alors de méthode d'ordre 2.
Ce nombre élevé d'analyses structurales est donc pénalisant lorsque les méthodes
de programmation mathématiques avec gradient sont utilisées directement sur
le problème d'optimisation des structures. Dans la méthode de programmation
séquentielle convexe, la résolution du problème d'optimisation est remplacée
par la résolution d'une séquence de sous-problèmes explicites approchés.
Chacun de ces sous-problèmes est généré sur la base d'une forme spéciale de
l'approximation en série de Taylor du premier ordre (parfois du second ordre).
De plus, ces approximations sont convexes. La solution de chaque sous-problème
approché est donc unique. On voit à la figure 4. 7 que sur la base de la valeur
de la fonction au point courant, ainsi que sur la valeur de la dérivée première
(gradient), une approximation convexe est générée. Une analyse par éléments
finis et une analyse de sensibilité (pour déterminer le gradient) sont réalisées
pour déterminer ces valeurs. Le minimum de cette approximation est alors
recherché, de manière itérative, en utilisant une méthode de programmation
mathématique basée sur les gradients.

Solution du problème
f(x)
Fonction implicite à explicite approché :
minimiser sous-itérations

Approximation
con.vexe locale ltér. 1
,J
i ...................... .
• •
"'E:l··············...... ...••••••

'--~~~~~~~~~~~~~ x
........··

Programmation séquentielle convexe - itération 1

Figure 4.7 Méthode de programmation séquentielle convexe : itération 1.

À partir du minimum trouvé, une nouvelle approximation convexe est construite,


dont on recherche le minimum (figure 4.8). Ce processus se poursuit jusqu'à la
convergence du problème d'optimisation de départ. I.:intérêt de ces méthodes
est qu'elles permettent de trouver la solution du problème en quelques dizaines

43
4 Les différentes méthodes d'optimisation des structures

d'itérations, c'est-à-dire en quelques dizaines d'analyses par éléments finis, quel


que soit le nombre de variables et de contraintes. Cependant, elles ne peuvent
identifier qu'un optimum local, et non pas l'optimum global du problème. Ce
type d'approche semble être le plus performant dans le cadre de l'optimisation
des structures. C'est pourquoi nous en expliquerons la mise en œuvre et les
détails dans la suite de cet ouvrage.

f(x) Solution du problème


Fonction implicite à explicite approché :
Approximation minimiser sous-itérations
convexe locale

• • ltér. 1
'
1
1

j Itér 2
' 1
' '
,,'' .,..,.'''

Programmation séquentielle convexe - itération 2

Figure 4.8 Méthode de programmation séquentielle convexe : itération 2.

Les performances des méthodes décrites précédemment sont comparées dans la


référence [3]. On reviendra sur une telle comparaison dans le chapitre 14, dédié
à l'optimisation des structures en matériaux composites.

4.5 Variables discrètes


"O
0 Des algorithmes traitent les problèmes pour lesquels les variables ont une
c
0
::J évolution continue dans l'intervalle défini par les contraintes de borne (diamètre
v de perçage), d'autres les problèmes pour lesquels les variables ne prennent
T"-f
0
N que des valeurs discrètes préalablement définies (épaisseur des tôles dans un
@
~
catalogue). Quand le nombre de variables est très limité et qu'elles ne peuvent
..c
Ol
ï::::
prendre qu'un nombre réduit de valeurs discrètes, on peut évaluer pour chaque
>-
a.
0
point de conception possible la valeur de la fonction objectif et vérifier si les
u contraintes sont satisfaites ou non. On peut alors, parmi les solutions admissibles,
déterminer celle dont la fonction objectif est minimale. En testant toutes les
configurations possibles, on est sûr de trouver la meilleure.

L'inconvénient essentiel de cette méthode est le nombre d'évaluations de la


fonction objectif et des contraintes pour chaque point de conception possible.

44
4.3 Une méthode stochastique

Dans notre cas, il faut mener une analyse par éléments finis pour chaque
conception possible. Parfois, il peut s'avérer plus intéressant de supposer que les
variables sont continues, utiliser des outils basés sur des variables continues pour
trouver l'optimum, puis explorer l'espace de conception au voisinage de ce point
pour trouver la solution optimale pour laquelle les variables ont une des valeurs
discrètes possibles. Cette approche est risquée et la solution optimale discrète
peut ne pas être trouvée. Dans d'autres cas, on peut paramétrer le problème de
telle manière que le problème discret s'exprime en termes de variables continues.
On abordera ce type de méthode dans le chapitre 14 dédié aux composites.
Des méthodes de programmation mathématique peuvent être utilisées pour
résoudre des problèmes formulés directement en variables discrètes. C'est le cas
de l'algorithme génétique par exemple. Il existe aussi des méthodes spécifiques
basées sur les gradients qui sont adaptées au cas des variables discrètes [4],
notamment des méthodes de programmation séquentielles convexes (5,6]. Nous
n'aborderons pas ces méthodes spécifiques [7] dans cet ouvrage.

4.6 Références
[1] Morris A.J. - Foundations of structural optimization: a unified approach, John Willey & Sons, 1982.
(2] Spall J.C. - Introduction to stochastic search and optimization, Wiley, 2003.
(3] Colson B., Bruyneel M., Grihon S., Raick C., Remouchamps A. - «Optimisation methods for advanced design
ofaircraft panels: a comparison »,Optimisation & Engineering, 2010, vol. 11, n° 4, p. 583- 596.
[4] Bonnans J.F., Gilbert J.C., Lemaréchal C., Sagastizabal C.A. - Numerical optimization: theoretical and practical
aspects, Springer, Berlin Heidelberg New York, 2003.
(5] Beckers M. - « Dual methods for discrete structural optimization problems », International Journal for
Numerical Methods in Engineering, 2000, vol. 48, p. 1761-1784.
[6] Schmit L.A., Fleury C. - « Discrete-continuous variable structural synthesis using dual methods », AIAA
Journal, 1980, vol. 18, p. 1515 -1524.
(7] Thanedar P. B., Vanderplaats G.N. - « Survey ofdiscrete variable optimization for structural design »,Journal of
Structural Engineering, i995, vol. 121, p. 301-306.

45
Optimisation 1 D

Les méthodes d'optimisation d'une fonction à une variable sont pré-


sentées ici. Leur étude permet d'aborder certains concepts qui seront
généralisés dans les chapitres suivants.

Dans ce chapitre, on met en œuvre un premier type d'optimisation : l'optimisation


unidimensionnelle. Bien qu'en mécanique des structures, ce qui est l'objet de cet
ouvrage, on rencontre des problèmes d'optimisation multidimensionnelle avec
contraintes, ce chapitre est important à double titre. Tout d'abord, il pose un
certain nombre de notions de bases utilisées dans les chapitres suivants. D'autre
part, l'optimisation unidimensionnelle est employée de façon plus ou moins
explicite dans les outils d'optimisation des structures, comme on le verra au
chapitre 6.

5.1 Fonctions convexes et fonctions


non convexes
"O
0
c
::J
Sauf cas particulier qui sera explicité quand cela deviendra nécessaire, les
0 fonctions rencontrées en mécanique des structures (masse, fréquence, tension,
v
T"-f
0 facteur de charge critique, déplacement, température ... ) sont généralement
N
@ des fonctions continues et dérivables des variables de conception quand ces
~
..c dernières sont continues. Ce n'est plus le cas quand les variables ne peuvent
Ol
ï:::: prendre que des valeurs discrètes, cas non traité dans ce livre. On restreint donc
>-
a.
0
u volontairement la généralité et on ne s'intéresse qu'à ce type de fonction.

Une fonction d'une variable f est dite convexe si quelles que soient les valeurs
de la variable x, notées xC1> et xC2>, et quelle que soit la valeur d'un paramètre 8
comprise entre 0 et l, on a l'inégalité suivante:
J f (8x(i) + (1- 8)xCl ):::; 8f (xco) + (1- 8) f (xC>)
"ï/(x 0>, xC2 l) ER2 , "ï/ 8 E [ 0, 1 2 2

46
5.1 Fonctions convexes et fonctions non convexes

En d'autres termes, quelle que soit l'abscisse prise entre .x< 1l et x<2l, l'ordonnée
associée est en dessous de la corde tirée à partir def(.x< 1l) etf(.x<2l) (figure 5.1).

f(x)
Bf(x<I))

.
+ ( 1-f))f (x<2))
--- -- ----

X X

Figure 5.1 Fonction convexe à une dimension.

Une fonction est strictement convexe si l'inégalité ci-dessus est stricte dès que .x<I)
est différent de x<2J et 8 différent de 0 et de 1. Pour une telle fonction convexe, le
processus d'optimisation revient à chercher pour quelle valeur de x la fonction
a une valeur minimale (figure 5.2). Pour une fonction convexe, l'optimum est
unique. Si une fonction est convexe sur l'intervalle [xmin ; xmax], l'optimum est
unique et situé dans cet intervalle. Une fonction est convexe monotone sur
un intervalle [xmin ; xm) si elle est convexe et si sa dérivée première a un signe
constant. Dans ce cas, l'optimum est unique et il est situé sur l'une des bornes
de l'intervalle.

f(x) f(x)

Minimum

X X

Xmi11 X max

Figure 5.2 Minimum d'une fonction convexe.

On peut définir de façon équivalente une fonction concave, d'un point de vue
mathématique ou par observation de la forme de la courbe f(x).

47
5 Optimisation 1 D

Pour une telle fonction, le processus d'optimisation revient à chercher pour


quelle valeur de x la fonction est maximale (figure 5.3). L'optimum est également
unique.

f(x )

Maximum

X
-- --- -- ----
fJf(xC' ))
.
+( 1-fJ)f (x<2)) X

Figure 5.3 Fonction concave à une dimension.

La plupart du temps, les outils d'optimisation sont basés sur la minimisation


d'une fonction. Si on se place dans le cas d'une fonction concave, en déterminer
le maximum ne pose pas de problème dès lors que maximiser une fonction
revient à minimiser son opposé. Comme illustré à la figure 5.4, si la fonction fz
est concave, alors la fonction fi = -fz est convexe, et on a :

max f 2 ( x) = min (- fi (x) )


X X

La solution de ces deux problèmes fournit effectivement la même valeur optimale


x· de la variable x.

f,= x2 - 1 12 = - x2 + 1
'O
0
c
::J
0
v
T"-f x*
0
N X X
@
~
..c
Ol
ï:::: x*
>-
a.
0
u

Figure 5.4 Équivalence entre minimum et maximum.

Quand une fonction continue et dérivable n'est ni convexe ni concave, sur


divers intervalles successifs, elle est alternativement convexe puis concave. On

48
5.1 Fonctions convexes et fonctions non convexes

parle alors d'une fonction convexe par morceaux ou concave par morceaux
(figure 5.5). La recherche del' optimum est alors beaucoup plus difficile puisqu'il
r
existe des optimums locaux. optimum global est celui qui fournit la plus petite
valeur de la fonction à minimiser. Pour un problème à une dimension, il est
facile de le trouver parmi l'ensemble des optimums, à condition d'avoir pu tous
les déterminer. Déterminer tous ces optimums n'est cependant pas facile, car il
faut sonder tout l'espace R.

j(x) j(x)
Fonction non Fonction
convexe à convexe à
minimiser minimiser
Optimum Optimum Optimum
local global unique

X X

Figure 5.5 Fonction convexe ou concave par morceaux.

Comme on le voit à la figure 5.6, à l'extremum d'une fonction correspond une


dérivée nulle :

minf(x) <=> f '(x) = 0


X

max f(x) <=> f '(x) = 0


X

.,
5 14

4.5 pl
4
10 -
3.5
8-
3
2.5
2

1.5 Maximum

-4 ~~~~~~~~~~~~~

X 2.5 -0.5 o 0.5 1.5 X 2.5

Figure 5.6 Extremum d'une fonction comme zéro de la dérivée.

49
5 Optimisation 1D

Déterminer le zéro de f'(x) permet donc d e mettre en évidence le minimum


(ou le maximum) de la fonctionf(x). La distinction entre un minimum et un
maximum se fait par la connaissance du signe de la dérivée seconde : si celle-ci
est positive, on a alors un minimum ; dans le cas contraire, on a un maximum
de la fonctionf(x).

5.2 Minimisation à une dimension :


processus itératif
On présente ici différentes méthodes qui permettent de déterminer un optimum
local pour une fonction à une dimension. Pour des raisons qui deviendront
claires quand on abordera l'optimisation à n dimensions, la variable x est notée
ici a. La fonction f devient <f>. On recherche donc à résoudre le problème suivant :

min <f>(a) (5.1)


a

Le processus d'optimisation est itératif. On ne calcule pas directement la


solution, mais on construit une suite qui converge vers la solution. Apparaissent
donc diverses notions familières à ceux qui traitent des problèmes non linéaires,
à savoir en particulier les résidus et le seuil de convergence. Le paramètre k
indique le numéro d'itération. À partir de la valeur ak de la variable a au point
courant, ou de manière plus générale en deux points, ak et ak-i' une nouvelle
estimation ak+i est obtenue. Par convention, on pose:

(5.2)

"O La valeur du paramètre p est déterminée sur la base d'informations d'ordre 0, 1


0
c et 2 au point courant ou en deux points successifs, selon la technique utilisée. Si
::J
0
v k est égal à 2, on a :
T"-f
0
N
@ </>'(ao)
~
..c
Ol
ï::::
>-
a.
0
</>'(ai)
</>'(a2)
"')
... a new =a=?
3

Quelle que soit la méthode, il est très important de noter que la différence entre
ak+i et ak peut s'interpréter comme la correction à apporter sur le point ak pour
atteindre l'optimum de la fonction lors du processus itératif.

50
5.1 Fonctions convexes et fonctions non convexes

5.3 Méthodes à un point


Dans ces méthodes à un point, la nouvelle valeur de la variable an' est déterminée
que sur la base de l'information disponible au point courant ak.

5.3.1 Méthode de Newton


Première présentation : La méthode de Newton consiste à approcher la fonction
</J dont on cherche le minimum, de classe C , par une fonction quadratique ~
2

et à chercher le minimum de cette approximation, c'est-à-dire l'abscisse a pour


laquelle la fonction ~ a une valeur minimale (figure 5.7).
5
4.5 ,'
''
4
Au point courant a,, on suppose que
3.5
l'on connaît la valeur de la fonction, 3
de sa dérivée première et de sa dérivée 2.5
seconde. On assure en ce point courant 2
l'égalité de la valeur de la fonction et
de son approximation, des dérivées
1.5
-- ...... ...
</>(a)
...
... .....
première et seconde : 0.5 .. ... , _____/
'

?o.5 0 0.5 1 1.5 2.5


~aJ = rp(a1 ) =C 1 + C2 a 1 + CiX~
Œ2 Œ1

~'(a1 ) = rp'(a1 ) = C2 + 2C3 a 1 Figure 5.7 Méthode de Newton


à une dimension, minimum
rp"(aJ = rp"(a1 ) = 2C3 d'une fonction.

Ces trois équations permettent de déterminer les trois coefficients C1, C2 et C3


définissant l'unique parabole satisfaisant au problème posé.
</J"(a)
~a) = rp(a1 )+ </J'(a1)( a - a 1 )+ 1
(a - a 1 )2
2
Cette approximation quadratique et convexe est illustrée à la figure 5.7. Son
minimum est déterminé en annulant sa dérivée première. Au point minimum
noté al·, on trouve en exprimant c2et c3:

Si on appelle a 2 le nouveau point a1*, on a alors la nouvelle estimation de la


variable a : c'est le sommet de la parabole qui a pour abscisse :

(5.3)

51
5 Optimisation 1 D

Dans le cas général d'une fonction non linéaire, le nouveau point d'abscisse
a 2 est le point de départ pour une nouvelle approximation quadratique car la
fonction et son approximation ne coïncident pas au nouveau point trouvé.

Le résidu </J(_ a)- ~ (a2 ) n'est pas nul, comme on le voit à la figure 5. 7. Le processus
se poursuit jusqu'à convergence. Si la fonction dont on recherche le minimum
est quadratique, la solution est trouvée en une seule itération.

Cette méthode peut être présentée différemment. En effet, chercher le minimum


d'une fonction </>revient à chercher pour quelle abscisse sa dérivée </>'passe par
zéro. Pour ce faire, on approche la fonction </>'par sa tangente ~' au point courant
et on recherche la valeur a 2 qui est telle que ~' ( a 1 ) = O. Au lieu d'approcher la
fonction par une parabole, on approche la dérivée de la fonction par une droite
(figure 5.8). Les équations présentées auparavant restent valables.

Deuxième présentation : Soit ak une


12
approximation de la solution. On
10
cherche au voisinage du point ak le
8
point ak+i tel ~'(ak+I ) = 0 . I.:abscisse
6
ak+i peut s'écrire
4

En effectuant un développement limité -2


- -... _
o i.-a..~~~~~,...;...,_.,._~~~----l

...
(j/(a)
-- ----~

au premier ordre de la fonction ~' au -4


-0.5 0 0.5 2.5

voisinage du point ak, on écrit :


Figure 5.8 Méthode de Newton à
une dimension, zéro d'une fonction.
"O
0
c
::J
0
v
T"-f
On en déduit la valeur de squi annule ~'(ak+i):
0
N
@
~'(ak)
~
..c E=-----
Ol
ï::::
</>"(ak)
>-
a.
0
u On retrouve bien la relation (5.3). On recherche donc ici le zéro de la fonction</>'
en utilisant ses tangentes qui sont basées sur la connaissance de la dérivée seconde
</>". Cette manière d'interpréter la méthode de Newton est certainement la plus
répandue, mais il est intéressant de remarquer que le fondement de la méthode
consiste à approcher la fonction à minimiser par une fonction quadratique. Cette
notion d'approximation reviendra dans la suite de ce livre.

52
5.1 Fonctions convexes et fonctions non convexes

La méthode de Newton converge très 1 0 ~----------~

rapidement au voisinage d'un opti- 8


mum, au prix du calcul de la dérivée 6
première et de la dérivée seconde à
4
chaque itération. De plus, comme on
2
le verra plus tard dans le paragraphe
d'application, elle peut être attirée par
un maximum de la fonction puisque la
dérivée de la fonction est également de
valeur nulle dans ce cas, tout comme ii.s '
1.5

pour un minimum. Le nombre d'ité-


rations nécessaires pour atteindre la Figure 5.9 Méthode de Newton
solution dépend bien sûr du point de à une dimension, itérations.
départ: comme on le voit à la figure 5.9,
en partant du point a2 plutôt que du point a 1, on gagne une itération.

5.3.2 Méthode de la corde


Dans cette méthode, le nouveau point ak+i est calculé à partir de la valeur
précédente de a et de la dérivée première en ce point en utilisant la formule :

ak+1 = ak -m</J'(ak)
Pour cette méthode, la valeur du paramètre m est donnée par l'inverse de la
dérivée seconde au point initial a 1 :
1
m=---
</J"(a1) 12 ~-----------~

10
On ne calcule qu'une seule fois la 8
dérivée seconde de la fonction à
6
minimiser, qui est ensuite utilisée
4
sans réévaluation pour les itérations
2
suivantes. On voit à la figure 5.10 que
ak+i est l'intersection de l'axe </l(a) = 0
avec la droite de pente l/m passant par
le point ( ak ; </J' ( ak)). C'est l'équivalent -4
0.5 2.5

de la méthode de Newton modifiée.


Cette méthode est bien connue pour
Figure 5.10 Méthode de la corde,
la résolution de systèmes d'équations
itérations.
non linéaires [ 1]. Mais le gain de temps
de calcul se fait au détriment de la vitesse de convergence, comme on le voit très
clairement en comparant les figures 5.9 et 5.10.
53
5 Optimisation 1D

5.3.3 Méthode à pas fixe et intervalle de confiance


Sur la base du signe de la dérivée première au point initial a0 , on peut remettre à
jour la valeur de a avec les relations suivantes:

selon que la dérivée de la fonction </Jest positive ou négative en a0 , respectivement.


.IL est un paramètre de valeur positive et constante. Il est évident que cette
méthode ne permet pas de mettre en évidence le minimum de la fonction </J et
n'est dès lors généralement pas utilisée telle quelle en pratique. Selon le seuil
de convergence et la taille du pas, on peut dépasser l'optimum puis osciller de
part et d'autre à chaque itération sans jamais atteindre la solution car le pas .IL
est fixe. Cependant, cette manière de faire permet d'identifier un intervalle de
confiance à l'intérieur duquel un minimum de </J peut alors être déterminé avec
une méthode plus performante comme la méthode de la corde. Cet aspect sera
abordé par la suite.

5.3.4 Méthode à pas variable


Avec la méthode à pas variable, on impose pour chaque itération la valeur du pas
de descente qui dépend du numéro de l'itération selon une loi prédéfinie. La loi
d'évolution du pas est notée .IL(k). La relation précédente est remplacée par

ak+i = ak -2(k) ou ak+i = ak + 2(k)


selon que la dérivée de la fonction </J est positive ou négative en a k. Le risque
est que, si le point de départ est trop loin de l'optimum et si la décroissance
du pas est trop forte, on n'arrive pas à atteindre la solution car on se déplace
"O
0
trop peu vers l'optimum ou le nombre d'itérations nécessaires devient
c
::J déraisonnable. Si la décroissance du pas est trop faible, il y a des oscillations
0
v d'amplitudes décroissantes de part et d'autre du point cherché. Deux conditions
T"-f
0
N mathématiques sur l'évolution du pas sont nécessaires pour atteindre en théorie
@ l'optimum:
~ ~
..c
Ol
ï::::
"k.. Â,k-- +oo
>-
a. k=O
0
u
Quand on se rapproche de l'optimum, la taille du pas doit tendre vers zéro pour
l'atteindre. Et si sa valeur est dépassée, les oscillations doivent s'amortir avec le
numéro de l'itération, assurant ainsi la convergence. Si on part loin de l'optimum,
il faut quand même pouvoir l'atteindre. La somme de toutes les corrections de
position ne doit pas être limitée, de manière à pouvoir balayer tout l'intervalle
de définition de la variable. En effet, sans cette condition, la valeur de Âk devient
54
5.1 Fonctions convexes et fonctions non convexes

constante et l'approche dégénère en méthode à pas fixe. En pratique, il est


évident que le nombre d'itérations n'est jamais infini et que le pas a une valeur
minimale qui dépend du seuil de convergence. Les deux suites suivantes vérifient
les conditions requises :
1
Â,
k
= _!_k Â,k = - k
2

5.4 Méthode à deux points


La méthode de la corde classique est basée sur la méthode de la corde vue
précédemment, la différence résidant dans le fait que le paramètre m varie d'une
itération à l'autre. Ce facteur est calculé sur la base des informations de deux
itérations successives.

avec

On voit que la valeur de l/mk est donnée par une approximation de la dérivée
seconde de la fonction </J exprimée sous forme d'une différence finie basée sur
les dérivées premières en deux itérations successives k-1 et k. Il s'agit d'une
formulation sécante et non plus d'une formulation tangente comme avec la
méthode de Newton. La nouvelle valeur en ak+i est donnée par:

a - a - k
a -a 11i'(a )
k-1 (5.4)
k+1 - k </J'(ak )-<jJ'(ak-1) 'f' k

La méthode est illustrée à la figure 5.11, où on voit la construction de la première


approximation et le résultat des deux premières itérations.

14 14

12 - 12 -

10 - 10 -

8-

6 -

4 -

2 -

o'
-2 -

-4
0 0.5 1.5 2 2.5 -0.5 0 0.5 1.5 2 2.5

Figure 5.11 Méthode de la corde classique.


55
5 Optimisation 1 D

Le nouveau point ak+l et le point précédent ak sont les points de départ pour une
nouvelle approximation. Le processus se poursuit jusqu'à convergence. Cette
technique revient à approximer la fonction </J( a) par une quadratique passant
par le point ak et ayant mêmes dérivées premières aux points ak et ak- i que la
fonction </J( a).
Pour initier ce processus de construction, on peut commencer par une itération
tangente ou prendre deux points au hasard et les utiliser pour démarrer. Les
itérations suivantes utilisent les sécantes car on dispose alors des données
nécessaires. La droite utilisée pour déterminer le point ak+l passe par les points
de coordonnées (ak_1; <jJ(ak_)) et (ak; <jJ(ak)).
On voit à la figure 5.12 qu'une convergence non monotone peut apparaître au
cours du processus d'optimisation. En effet, le point a4 issu de a 2 et a 3 prend
une valeur très éloignée du zéro de la fonction <jJ', ce qui déstabilise le processus.
Malgré cela, la solution est obtenue. Une amélioration consiste à modifier la
méthode pour que la déstabilisation constatée précédemment ne puisse plus se
produire.
14

12 -

10 -

8-

6- ,
,
,,
4-
,,
,,.
2- ,,
,,
0 '
-2-

-4
-0.5 0 0.5 1.5 2 2.5
"O
0
c Figure 5.12 Méthode de la corde classique, itérations.
::J
0
v
T"-f
0
N
@
~
..c
5.5 Méthodes avec intervalle de confiance
Ol
ï::::
>-
a.
0
u
5.5.1 Généralités
On explique d'abord comment déterminer un intervalle de confiance initial.
À la figure 5.13, on applique la méthode de pas fixe à partir du point a 1• Au
point suivant a2 , la dérivée première est calculée : comme elle est de même signe
que la dérivée au point a1, on continue le processus et on estime un nouveau
point a3• Pour cette valeur a3 , la dérivée première est de signe différent de
56
5.1 Fonctions convexes et fonctions non convexes

celle du point a 1 : on est alors certain 5

qu'un extremum de la fonction </> se 4.5

situe entre les deux points a 3 et a 1, 4 <// (0.1 ) > 0


3.5
voire même entre a 3 et a2 dans le cas
3 <//(0.3) < 0
de la figure 5.13. Puisque, dans notre 2.5
cas, on se dirige avec la méthode de 2
pas fixe vers des valeurs décroissantes 1.5

de <f>, cet extremum sera à coup sûr


0.5·
un minimum. Si la taille du pas est
J

?Q.5 '
petite par rapport à la distance entre 0
0.2
2.0
Ü.J
2.5

l'optimum et le point de départ, le


nombre d'itérations pour déterminer Figure 5.13 Méthode à pas fixe et
l'intervalle de confiance peut être très intervalle de confiance.
grand.

Une autre approche pour identifier un intervalle de confiance initial consiste


à calculer la dérivée première au point courant et, selon son signe, à se diriger
vers le minimum avec la méthode de pas fixe. Dans l'exemple de la figure 5.13,
imaginons que l'on parte de a 3 : on se déplace vers la droite. Dès qu'on identifie
une valeur de a qui soit telle que </>(a) > </>(a), un intervalle de confiance est
alors déterminé. On rate donc le point a2 qui, avec a 3, aurait pu être utilisé
pour définir un intervalle de confiance. Ici, on se base uniquement sur la valeur
de la fonction </> sans calculer sa dérivée pour les points successifs. ridée des
méthodes avec intervalle de confiance consiste à vérifier pour chaque nouveau
point ak+i calculé sur la base des informations en ak et ak-i la valeur de la dérivée
de la fonction </> à minimiser. En choisissant correctement les points, on s'assure
de toujours encadrer la solution dans un intervalle où la dérivée de </> change
de signe.
1.5 ~-----------~

Cependant, la convergence est ralentie <//(a)


par rapport à une méthode sans
intervalle de confiance si la fonction est 0.5.

convexe ou concave, car l'un des deux


points est gelé. On voit à la figure 5.14
la mise en œuvre d'une méthode avec ·0.5·

intervalle de confiance, illustrée sur ·1 ·


la fonction </>'(a). Les intervalles de
confiance successifs sont : [a0 ; a 1], · 1·?0.5 0 0.5 1.5

[q); a2] et [a0 ; aJ.


Figure 5.14 Intervalle de confiance.

57
5 Optimisation 1 D

5.5.2 Méthode de la regula falsi


Comme dans la méthode de la corde classique, la fonction </>(a) est interpolée
par une fonction quadratique construite à partir des informations connues en
deux points successifs. Par exemple, pour les points a 1 et a 2, on utilise :

Le paramètre p de (5.2) est donné par:

La différence par rapport à la méthode de la corde classique est qu'ici on utilise la


stratégie d'intervalle de confiance. Le processus est illustré à la figure 5.15.

On voit que le point a 1 est toujours 1 4 ~----------~

utilisé pour déterminer une nouvelle 12

valeur de a, car il permet de travailler 10

avec l'utilisation d'un intervalle 8

de confiance. Notons bien que, à 6


, I
,
la figure 5.15, c'est la fonction <// 4 ,,
, ,,
qui est tracée, pour laquelle une ,,
2

O i--.,...----,...........,,........,~-
'-----~
valeur négative correspond à une
-2
dérivée négative de la fonction </J, et
-4 ' '
inversement, une valeur positive de <// -0.5 0 0.5 1.5 2 2.5
Œo Œ2 Œ3
correspond à une dérivée positive de </J.
Un point reste gelé dans le processus Figure 5.15 Méthode avec intervalle
de confiance.
"O d'optimisation, ce qui ralentit la vitesse
0
c
::J de convergence. On voit que les valeurs de a utilisées pour générer la corde sont
0
v choisies pour avoir des signes de dérivées premières opposés, conformément à
T"-f
0
N
la notion d'intervalle de confiance. On est alors certain d'encadrer le minimum.
@
~
..c
Ol
ï::::
5.5.3 Méthode d'approximation quadratique
>-
a.
0
u On approche la fonction </>(a) par une fonction quadratique construite à partir
des informations suivantes :

58
5.1 Fonctions convexes et fonctions non convexes

Le paramètre p de (5.2) est donné par:


</J( a 1) - </J( a, ) </J' (a ,)
a?-a, 2
p= -
</J( a1) - </J( a ,) - </J ,( a1)
a1-a,
5.5.4 Méthode de l'interpolation cubique
Dans cette méthode, on réalise une approximation cubique de la fonction </J( a)
à minimiser sur la base des points a 1 et a 2 et des informations suivantes.
L interpolation est exacte pour des fonctions cubiques.

Le paramètre p de (5.2) est donné par:

S = 3( </J( a1) - </J( az)) + </J, (a ) + </J, (a )


a2 - al l 2

</J' ( az) + R - S
(5.5)
p = </J'(a 2) - </J'(a 1)+ 2R

5.5.5 Méthode de la bissection

Le nouveau point est au centre de l'intervalle [ak ; ak_1] :


ak-1+ ak
a k+I =
2
Le paramètre p de (5.2) a pour valeur constante:
1
p =-
2

5.6 Exemple d'application


On veut trouver le minimum de la fonction suivante :
<jJ(a) = a3 -a2 - a+ 1
La dérivée de cette fonction est illustrée à la figure 5.14. Ils' agit de la fonction qui
a servi de support pour décrire les différentes méthodes de recherche de mini-
mum à une dimension dans les paragraphes précédents, également illustrée à la
figure 5.6. On démarre du point a0 = O. On utilise d'abord la méthode de pas fixe
pour déterminer un point a, qui, avec a0 , constitue un intervalle de confiance.
Différentes méthodes sont utilisées pour en déterminer le minimum [2].
59
5 Optimisation 1 D

5.6.1 Méthode de Newton


Si on démarre du point a0 = 0, les valeurs suivantes sont utilisées pour déterminer
une nouvelle estimation de la variable a:

ç6(0) = 1 ç6'(0) = -1 ç6"(0) = -2

Lorsque la relation (5.3) est utilisée, on obtient:


a = a - ç6'(a0 ) = 0 - -l = - 0, 5
i o ç6"(ao) -2
On se dirige dans ce cas-ci vers le maximum de la fonction situé en -1 /3. On
n'est pas dans le domaine d'attraction du bon extremum de la fonction </>(a),
comme on le voit à la figure 5.16.
10 10
8 I 8
6 </> (a) ,' 6
4 I
,' 4
2

0
-2 I
I
------
;
,,
ao= O
--~-" ;
/

-2
2

0
</> (a ,,-
) ---
I
I
;
"~.._. ... __

I I
I I
-4 I
I
-4 I
I
-6 , I
-6 ,
I

-8 ' -8
I

-10 -10 ~ ,_ '---- '--


-2 -1 0 2 3 -2 -1 0 1 2 3

Figure 5.16 Approximations quadratiques, méthode de Newton.

Par contre, quand on part du point 14

"O
a 0 = 2, on arrive finalement à mettre 12

0
c en évidence le minimum (local) de 10
::J
0 la fonction </J( a), comme illustré à la 8
v
T"-f
0 figure 5.16. Le processus itératif est 6
N
@ donné à la figure 5.17. 4
~
2
..c
Ol
Le lecteur peut vérifier que quatre ité-
ï:::: 0
>-
a.
rations sont nécessaires pour atteindre
0 -2
u la solution. Les valeurs successives de <// (a)
la variable a sont : 2 ; 1,3 ; 1,04655 ; -4
-0.5 0 0.5
'
1.5 2 2.5

1,0015 et 1.
Figure 5.17 Méthode de Newton.

ç6'(2) = 7 ç6"(2) = 10

60
5.1 Fonctions convexes et fonctions non convexes

Ç)'(a)
1
1,47
Ç)'(l,3) = 1,47 Ç)"(l,3) = 5,80 a 2 =a1 - = 1 3 - - - = 1 04655
Ç)"(a,) ' 5,80 '

5.6.2 Méthodes de la corde et de la corde classique


14
rutilisation de la formule (5.4) néces-
12
site dix itérations pour déterminer le
minimum, avec, comme points de dé- 10

part, les valeurs a0 = 0 et a 1 = 2. I:his- 8

torique de la convergence est illustré à 6

la figure 5.12. 4

2
Lorsqu'un intervalle de confiance est
0
utilisé sur la base des points de départ
-2
a0 = 0 et a 1 = 2, seulement huit itéra-
-4
tions sont nécessaires pour approcher -0.5 0 0.5 1.5 2 2.5

la solution recherchée d = 1, comme


Figure 5.18 Méthode de la corde
illustré aux figures 5.15 et 5.18. On avec intervalle de confiance.
s'assure ici que, à chaque itération, les
deux valeurs de la variable conservées pour déterminer une nouvelle estimation
de d ont leur dérivée première de signe différent.

5.6.3 Méthode de l'interpolation cubique


Les deux points de départ sont donnés par a0 = 0 et a 1 = 2. Lorsque la formule
(5.5) est utilisée, les différents coefficients de l'interpolation cubique sont don-
I
nes par:
a0 = O Ç)(O) = 1 Ç)'(O) = - 1
a1 =2 Ç)(2) = 3 Ç)'(2) = 7
S=3 R=4 p=0,5

La solution optimale est directement trouvée, puisque la fonction dont on


recherche le minimum est une fonction cubique :
a2 = l Ç)(l) = 0 Ç)'(l) = 0

5.7 Références
[1] Craveur ].C., Jetteur Ph. - Introduction à la m écanique non linéaire, Dunod, 201 i.
[2] Bruyneel M. - « Optimisation de structures: recueil d'exercices », Rapport OF63, Laboratoire de techniques
aéronautiques et spatiales, Université de Liège, Belgique, 2002.
61
Optimisation
multi-variables
sans contrainte

Sur la base d'une interprétation graphique, ce chapitre explique quelles


sont les étapes et quels sont les concepts de l'optimisation sans
contraintes à plusieurs variables. Les méthodes les plus courantes basées
sur l'utilisation des dérivées (gradient) sont alors présentées et discutées.

6.1 Préambule
L'intérêt de ce chapitre est double. Il permet d'une part de montrer les similitudes
et les différences avec le chapitre précédent. Il permet d'autre part de représenter
graphiquement les étapes de la recherche de l'optimum pour les différentes
techniques qui seront abordées. On suppose que le problème n'a pas de contrainte
et que les fonctions sont continues et dérivables sur le domaine étudié.
Soit la fonction de deux variables z = f(x 1,x2) = f(x) dont on cherche la valeur
minimale. Par rapport au chapitre précédent, x est maintenant un vecteur, dont
"O
les composantes sont x 1 et x 2• f représente une surface dans l'espace euclidien.
0
c
::J
Une isocline ou courbe de niveau ou ensemble des iso-valeurs correspond à
0 l'ensemble des points pour lesquels la cote z a une valeur donnée. Son équation
v
T"-f
0 s'écrit sous la forme :
N
@ df = O
~
..c
Ol
ï:::: On peut dessiner cette isocline sur la surface, ou projeter l'isocline dans le plan
>-
a.
0 défini par les deux variables (figure 6.1). Dans ce cas, f étant une fonction de
u
deux variables indépendantes, on peut écrire :

Le vecteur t tangent à l'isocline projetée a alors deux composantes qui sont


données ci-dessous. Dans le plan défini par les deux variables, le vecteur g,
62
6.2 Exemple

orthogonal au vecteur t et dont les deux composantes sont données ci-dessous,


est le vecteur gradient. Il donne la direction locale de la plus forte variation de la
fonction f (figure 6.1). Ce vecteur joue, dans le cas multi-variables, le rôle de la
dérivée dans le cas d'une seule variable.

t= (jf__
dx -
df JT
dx 1
2

// /. --- (] ']}
,
,/ / /'
, ;'
, ......... -- . .... :
...

' ' ,
,' ,' /
' '
~.~~'. ~:---7-- ......_,;.~.;...-;,~__,;...~ x,
\ • 0,5 _ (X1 * ,X2*) /
.8 4,5 --- -- ---· ,/ ,
---
,.-

Figure 6 .1 Exemple d'une fonction à deux variables. Vecteurs t et g.

6.2 Exemple
Commençons par le cas d'une fonction à deux variables, x = (x1, x 2 )r, comme
illustré à la figure 6. 1, dont l'équation est donnée par :

f(x1 ,x2) = x12 + x/


La fonction étudiée est quadratique, c'est-à-dire qu'elle peut se mettre sous la
forme générale (ici le vecteur b et la constante c sont nuls) :
1
f =- x rHx - br x+c
2
Le gradient de la fonction f, noté g, est le vecteur qui reprend l'ensemble des
dérivées premières calculées par rapport à chacune des variables. Il est représenté
par un vecteur dans le plan (x 1, x 2) et s'écrit:

63
6 Optimisation multi-variables sans contrainte

Le hessien, ou matrice hessienne, noté H, est la matrice carrée et symétrique qui


collecte l'ensemble des dérivées secondes de la fonction f :

èlf <J2f
H=V2f = àx~ ax.ax2
a21 a21
2
dx 1dx 2 dx2

Dans notre exemple, le gradient et le hessien prennent les valeurs suivantes :

Comme la fonction f est quadratique, le hessien est constant. On remarque


également que le hessien de notre fonction est défini positif, car il vérifie la
condition suivante pour tout vecteur x E R2 :

La fonction f est donc convexe : elle se situe en tout point au-dessus de tout
plan qui lui est tangent. Ceci nous permet d'introduire, pour les fonctions de
plusieurs variables, la notion de fonction convexe qui étend celle abordée pour
les fonctions d'une variable dans le chapitre 5. Toute fonction qui ne vérifie pas
la condition ci-dessus, pour tout x, n'est pas convexe. De telles fonctions sont
présentées à la figure 6.2 dans le cas ID et à la figure 6.3 dans le cas 2D.

f(x) f(x)
"O
0 Fonction non Fonction convexe à
c
::J convexe à minimiser minimiser
0
v
T"-f
0
N
Optimum local Optimum global Optimum
@ global
~
..c
Ol
ï::::
>-
a.
J ··· · · j
0
\ .········{].·············'.... ······...\.. .
u . ..·
... 0 ... X
······e···.. X

Figure 6.2 Fonctions non convexe et convexe en 1 D.

64
6.2 Exemple

/; ~~\~
global 7 local
If&/
I~

Figure 6.3 Fonctions non convexe et convexe en 20.

Une fonction convexe est caractérisée par un seul optimum, qui est l'optimum
unique (et donc global) du problème. Dans le cas d'une fonction non convexe, il
y a plusieurs optimums, dont l'un est le meilleur de tous.C'est l'optimum global,
les autres sont des optimums locaux. Revenons à notre fonction de départ. Si un
terme x 13 avait été ajouté à la fonction f, la fonction n'aurait plus été quadratique,
et le hessien n'aurait plus été ni constant, car dépendant de la valeur de x, ni
partout défini positif. Il aurait eu pour expression :

H =[6x~+2 ~]
Notre fonction f est particulière dans le sens où c'est une fonction séparable. Elle
peut en effet s'écrire sous la forme d'une somme de deux fonctions, chacune ne
dépendant que d'une seule variable :
n
f = L .f =fi+ f 2 = f(x1)+ f(x2) = x~ +x~
i=l

Cela explique pourquoi le hessien a une forme diagonale : les composantes de


dérivées secondes mixtes sont nulles. Si un terme x 1x 2 avait été ajouté à notre
fonction, celle-ci n'aurait plus été séparable, et le hessien, restant défini positif,
aurait été donné par :

H = [~ ~]
La matrice hessienne est symétrique, donc égale à sa transposée. Le gradient
dépend de la valeur des variables x , et x2 , et prendra donc une valeur différente
selon le point de calcul. Lorsqu'il est calculé au point (1,1), il vaut:

Comme illustré à la figure 6.1, le vecteur gradient pointe dans la direction des
valeurs croissantes de la fonction, donc dans le sens d'une maximisation de f
65
6 Optimisation multi-variables sans contrainte

Cette propriété est fondamentale et servira de base dans le choix de la direction


qui nous mènera vers le minimum de la fonction. On constate également que
le minimum de la fonction se situe en (x 1, x) = (0, 0). En ce point, la norme du
gradient est nulle. Cela constitue la condition d'optimalité (de minimum) du
premier ordre (car basée sur les dérivées premières de la fonction j) dans le cas
d'une optimisation sans contrainte :

La condition d'optimalité du second d'ordre est basée sur le hessien. Lorsqu'il


est défini positif, comme c'est le cas pour notre fonction f, le point pour lequel
la norme du gradient est nulle est alors un minimum, comme on le voit à la
figure 6.1. Si la fonction f avait été donnée par :

le hessien aurait été défini négatif (la fonction est concave) mais le gradient aurait
toujours été nul en (x 1, x) = (0, O) :

~ ~2 ] ~
2
H =[ xTHx<O 'IXE R'

Une telle fonction est illustrée à la figure 6.4. Le point (x 1, x) = (0, 0) en est le
maximum.

X 2+ X 2
1 2 -x/ -xl

"O
-- -... -- - -- -
0
c ----- - -- 'L--- --
::J 1
0 '
v -- - - - r--1 ---

T"-f
0
N
@
~
..c
Ol Xl
ï::::
>-
a.
0
u Figure 6.4 Minimum et m aximum d'une fonction.

Le cas des fonctions quadratiques est bien sûr un cas particulier. Il nous permettra
cependant de présenter différents algorithmes d'optimisation, qui pourront
être généralisés au cas des fonctions générales. Les fonctions quadratiques sont
cependant plus simples à aborder, car l'optimum est unique, la fonction étant
convexe. De plus, dans la pratique, la minimisation de fonctions générales se
66
6.2 Exemple

fait souvent avec des techniques développées pour fonctions quadratiques. Dans
certains cas, les algorithmes employés sont réinitialisés toutes les n itérations,
où n est la dimension du problème, donc la taille du vecteur x. Dans d'autres
cas, on peut interpréter la minimisation d'une fonction générale comme une
succession de minimisations de fonctions quadratiques, autrement dit, on
remplace la solution du problème d'optimisation par la solution d'une suite de
problèmes quadratiques approchés. Finalement, dans la zone d'attraction de
l'optimum d'une fonction générale, c'est-à-dire au voisinage de l'optimum, la
forme quadratique représente bien le problème.

6.3 Remise à jour des variables de conception


Comme illustré à la figure 6.5, le problème d'optimisation est résolu de manière
itérative. On se déplace dans l'espace de conception, à la recherche del' optimum,
à partir d'une valeur initiale des variables de conception x(k), avec k = 0 pour la
valeur initiale (k étant le numéro d'itération). Pour fixer les idées, la fonction
étudiée et représentée à la figure 6.5 est la suivante :

-1

-1.5

-1.5 -1 -0.5 0 0.5 1.5 2 · 1.5 ·1 -0.5 0 0.5 1.5 2


Xi Xi

Figure 6.5 Recherche de l'optimum non contraint.

Cette fonction est quadratique, et son hessien est donné ci-dessous. La matrice
hessienne étant définie positive, cette fonction présente un minimum x· au point
où la norme de son gradient sera nulle :

g = { 2x1 - 3x2 + 1 }
- 3x1 +Bx2 - 1

67
6 Optimisation multi-variables sans contrainte

Nous verrons dans la suite comment une telle fonction quadratique peut dériver
d'un problème de synthèse ou d'optimisation de structures.
On conçoit bien, à partir de la figure 6.5, que l'estimation de la valeur des
variables de conception à l'itération k+ l, c'est-à-dire x(k+ll, est donnée par la
valeur à l'itération k, à laquelle il faut ajouter une correction. Cette correction
est un vecteur qui s'additionne au vecteur x<k>. La forme générale de la remise à
jour des variables de conception au cours du processus d'optimisation est alors
donnée par:
(6.1)

où s<k) est la direction de recherche vers l'optimum à l'itération k (direction


de descente dans le cas d'une minimisation ; direction de montée dans le cas
d'une maximisation), et fi.k) est la distance à parcourir dans cette direction s<k>,
à l'itération k. Le pas de progression a est un scalaire, alors que s est un vecteur
de même dimension que le vecteur des variables de conception x. Le but de
l'algorithme d'optimisation consiste alors à déterminer la séquence avec laquelle
on va pouvoir atteindre la valeur optimale. À chaque itération k, il faudra évaluer
la direction de recherche s<k) ainsi que le pas de progression fi.k) dans cette
direction.

6.4 Calcul de la direction de recherche

6.4.1 Condition de descente


Nous nous plaçons dans le cas d'une minimisation de fonction, et la direction
de recherche est une direction de descente. Comme illustré à la figure 6.6, cette
"O
0 direction de recherche n'est pas unique.
c
0
::J Mais elle doit absolument satisfaire à
v
T"-f
une condition. En effet, comme expli-
0
N qué précédemment dans ce chapitre, le
@
~
gradient de la fonction (à minimiser)
..c
Ol
ï::::
pointe vers une maximisation de cette
>-
a. fonction (cf. figure 6.1). Il convient dès
0
u lors de choisir la direction de recher- -1

che s<k) dans la direction « opposée » à


celle du gradient, ce qui revient à écrire ·1.5 -1 ·0.5 0 0.5 1.5 2
Xi
la condition de descente suivante :
Figure 6.6 Sélection d'une direction
(6.2) de descente.

68
6.2 Exemple

Il est habituel de parler de direction de recherche, alors qu'il s'agit à la fois


de la direction et du sens selon cette direction. Notons que dans le cas d'une
maximisation de fonction, on a une condition de montée donnée par s<k>g<k> > O.
À la figure 6.6, on dessine le gradient au point courant, g<k> : il est localement
perpendiculaire à l' iso-valeur correspondante.

On voit que les directions (1) à (4) satisfont la condition de descente vers le
minimum, contrairement à la direction (5) qui, elle, donne une direction qui,
si on la suit, augmente la valeur de la fonction objectif. On constate également
que la direction (1) est de piètre qualité, contrairement à la direction (3) qui
peut nous mener directement sur l'optimum du problème. Il existe différentes
méthodes de calcul de cette direction de recherche, basées sur les informations
d'ordre 0 (valeur de fonction uniquement), d'ordre 1 (prise en compte de
l'information de gradient) et d'ordre 2 (prise en compte de l'information du
hessien). Seules les méthodes d'ordres 1 et 2 sont expliquées dans la suite de ce
chapitre, les méthodes d'ordre 0 n'étant pas plus performantes dans la solution
des problèmes à n dimensions que pour la minimisation d'une fonction à une
variable. On abordera cependant ces méthodes d'ordre 0 dans un chapitre
spécialisé, par le biais de l'algorithme génétique. En se basant sur le fait que les
fonctions sont différentiables et continues, quatre méthodes seront expliquées
ici : la méthode de la plus grande pente, la méthode des gradients conjugués, la
méthode de Newton et les méthodes de quasi-Newton.

6.4.2 Méthode de la plus grande pente


Dans la méthode de la plus grande pente, la direction de recherche est donnée
par l'opposé de la direction du gradient. On a donc, à l'itération k :

(6.3)

comme illustré à la figure 6.7, et la condition de descente (6.2) est vérifiée. Il


convient maintenant de parcourir cette direction de descente et d'évaluer le
nouveau point x<k+ 1), c'est-à-dire trouver la valeur du paramètre d k) de (6.1). La
meilleure valeur de a est celle qui minimise la fonction f le long de la direction s<k).
Il faut alors ici résoudre un problème d'optimisation à une variable, a, la direction
s<k> étant fixée. Ce problème s'appelle la recherche linéaire. On recherche donc
la valeur de f qui est minimale dans la direction s<k> en faisant varier le pas de
progression a. En x<k>, la valeur de a est nulle.

min f (x<k) + as<k> ) => a <k>


a

69
6 Optimisation multi-variables sans contrainte

10

-5

-10 -5
o X1 5 10 15 -3 -2 -1 0 2 3
X1

Figure 6 .7 Méthode de la plus grande pente.

Pour ce faire, les méthodes de minimisation à une variable décrites au chapitre 4


peuvent être utilisées, ce qui justifie ce chapitre consacré à l'optimisation de
fonctions à une variable. Un complément d'information est également donné
à la fin de ce chapitre. Tentons d'interpréter graphiquement à quoi correspond
cette minimisation. Le minimum de la fonction f dans la direction s<kl, lorsque le
paramètre a varie, est donné par :
a1 (x(k) + as(k))
min f (x (kl + as<kl) ::::} min ~a) ::::} - - - - - = 0
a a aa
où on introduit la fonction <jJ(a). Ceci revient à écrire que:

"O
0
c
La valeur de a qui permet de trouver le minimum de la fonction f le long de la
::J
0
v
T"-f
0
direction s<kl est telle que le gradient de f au nouveau point x<k+ll est perpendi-
N
culaire à la direction s(kl. La valeur optimale de a est notée d. Comme illustré à
@
~
..c
la figure 6.8, lorsque la valeur de a augmente, via (6.1), en partant d'une valeur
Ol
ï:::: nulle en x<kl, le gradient au nouveau point parcouru le long de la direction s<kl se
>-
a.
0 redresse pour devenir perpendiculaire à cette direction s<kl au point minimum
u
de f le long de srkl, et se recoucher dans l'autre sens lorsqu'on dépasse ce point.
Comme on le voit dans l'équation précédente, la valeur de la dérivée de </J est liée
au produit scalaire des par g. On appelle dérivée directionnelle ce produit scalaire
du vecteur direction s(kl par le gradient courant de f le long de cette direction :

<jJ'(a) = s<kl g(x<kl + as(k))

70
6.2 Exemple

Figure 6.8 Calcul du pas de progression.

Les valeurs de cette dérivée directionnelle et de <// sont identiques. Cette dérivée
directionnelle est négative pour a = 0, indiquant qu'on se dirige vers un minimum
de f; sa valeur (toujours négative) augmente quand a augmente, pour devenir
nulle en a = d; puis la dérivée directionnelle devient positive, indiquant que la
valeur de la fonction objectiff augmente après sa valeur minimale d. La fonction
</J( a), qui n'est autre que la valeur de f pour différentes valeurs croissantes de a le
long de s<kl, diminue puis augmente. On voit effectivement à la figure 6.8 quel' on
croise des iso-valeurs de f, ce qui explique cette évolution. Le minimum de </J( a)
donne la valeur optimale d. Pour déterminer graphiquement la valeur de a, on
recherche l'iso-valeur de f qui vient« tangenter » la direction s<kl.

On a donc réalisé ici une recherche linéaire exacte, en ce sens que la valeur
de a retenue est celle qui donne le minimum de f le long de la direction s<kl.
Lorsqu'une telle recherche linéaire est réalisée à chaque itération, c'est-à-dire le
long de chaque direction de recherche successive, le chemin suivi pour atteindre
l'optimum de f est constitué de segments perpendiculaires les uns aux autres,
comme illustré à la figure 6.7. Dans le cas de deux variables, on voit que l'on
se déplace plusieurs fois selon la même direction, dans une suite de directions
perpendiculaires entre elles, générant des directions parallèles une fois sur deux.
On évalue donc plusieurs fois le même vecteur, ce qui n'est pas optimal. On fait
également ce constat quand il y a plus que deux variables.

Le nombre de directions de recherche nécessaire pour atteindre l'optimum sera


d'autant plus grand que la fonction présente une forte excentricité, c'est-à-dire
que ses iso-valeurs sont fortement resserrées dans une direction. A contrario,

71
6 Optimisation multi-variables sans contrainte

lorsque les iso-valeurs forment des cercles concentriques, une seule direction de
recherche suffit (figure 6.1). La méthode de la plus grande pente n'est pas très
efficace dans le cas général, le nombre d'itérations nécessaires pour atteindre
l'optimum étant généralement très élevé.

6.4.3 Méthode des gradients conjugués


Dans la méthode des gradients conjugués, la direction de recherche est donnée
par la direction de la plus grande pente à laquelle on ajoute une correction basée
sur la direction de recherche calculée à l'itération précédente (6.4). On essaie
ainsi d'améliorer la valeur donnée par la méthode de la plus grande pente, en se
servant de l'historique des itérations. Ce faisant, on ne progresse qu'une seule
fois selon une direction de descente donnée.

(6.4)

Le paramètre de conjugaison /JJ- 1l, qui est un scalaire, est calculé de manière
à s'assurer que les direction s(k) et s (k- i) sont conjuguées dans la métrique du
hessien H:
(6.5)

On montre que cette propriété a pour conséquence que toutes les directions s que
l'on va utiliser vont être deux à deux conjuguées dans la métrique du hessien, et
ona:

Bien que le vocabulaire soit différent, c'est une propriété bien connue en analyse
"O
c
0 modale car les modes propres vérifient les deux relations ci-dessous, K et M
::J
0 étant respectivement les matrices de raideur et de masse. En analyse de stabilité
v et en analyse thermique, les modes critiques et les modes thermiques ont des
T"-f
0
N
propriétés similaires.
@
~
..c
Ol
ï::::
>-
a.
0
u Dans un espace à n dimensions, dans le cas d'une fonction quadratique (hessien
constant), il y a n directions conjuguées dans la métrique du hessien. Pour
autant que des recherches linéaires exactes soient effectuées à chaque itération,
cette propriété permettra d'atteindre la solution en n itérations au maximum, n
directions de recherche conjuguées étant suffisantes pour parcourir, de manière

72
6.2 Exemple

indépendante, tout l'espace de conception. En appliquant la condition (6.5) à


l'équation (6.4), on obtient que :
s(k) r Hs(k-1) =- g (kf Hs(k-1) + pk-1) s(k-1)r Hs(k-1) =0
(k)r H (k-1)
o(k- l) - g s
==> fJ' - (k- t)' H (k- 1)
s s
Cette formule n'est pas utilisée telle quelle, car elle fait intervenir la matrice
hessienne dont on veut se soustraire dans le cadre d'une méthode d'ordre 1.
Lorsqu'on fait, localement, l'hypothèse que la fonction est approchée par une
fonction quadratique, on peut montrer que le paramètre de conjugaison devient :

(6.6)

C'est la formule de Hestenes-Stiefel. On fait aussi souvent l'hypothèse que les


recherches linéaires sont exactes à chaque itération. Dans ce cas, on obtient la
formule de Fletcher-Reeves pour laquelle le paramètre de conjugaison prend la
forme suivante :

(6.7)

La méthode des gradients conjugués est illustrée à la figure 6.9 : le principe de


construction de la direction de recherche sur la base du paramètre de conjugaison
est évoqué à gauche ; à droite, deux itérations sont suffisantes pour atteindre
l'optimum d'une fonction à deux variables, lorsque des recherches linéaires
exactes sont effectuées à chaque itération. On note que, à la première itération, on
utilise la méthode de la plus grande pente (il faut bien commencer la descente ... ),
à défaut d'avoir une direction de descente précédente. La méthode du gradient
conjugué peut être utilisée pour déterminer le minimum de fonctions non
quadratiques. Dans ce cas, la notion de directions conjuguées dans la métrique
du hessien n'a plus de sens car le hessien n'est pas constant mais varie d'un point
à l'autre de l'espace, et on ne peut pas connaître a priori le nombre d'itérations
nécessaires pour atteindre la solution. Cependant, ce nombre sera certainement
inférieur à celui obtenu par la méthode de la plus grande pente. Dans ce cas,
la formule de Hestenes-Stiefel est préférée et utilisée conjointement avec une
recherche linéaire inexacte (expliquée dans la section suivante). Si n est la
dimension du problème d'optimisation, toutes les n itérations, la conjugaison est
remise à zéro, autrement dit la direction de recherche est celle de la plus grande
pente, et un cycle d'au maximum n conjugaisons peut recommencer.
73
6 Optimisation multi-variables sans contrainte

-3 -2 -1 0 2 3 -3 -2 -1 0 2 3
XJ XJ

Figure 6.9 Méthode des gradients conjugués.

6.4.4 Méthode de Newton


Dans la méthode de Newton, on utilise l'information contenue dans le hessien
pour déterminer la direction de recherche : c'est une méthode d'ordre 2. Lidée
consiste en fait à réaliser une approximation quadratique locale de la fonction
à minimiser. Remarquons que si la fonction à minimiser est quadratique,
l'approximation sera exacte. Dans le cas contraire, des approximations
quadratiques successives seront nécessaires pour atteindre la solution du
problème. Le développement en série de Taylor du second ordre donne, autour
du point x<k) :

f qucui = f (x<k) )+g<k) r (x - x<k))+ ~ (x - x <k) )TH (k)(x - x (k))


"O
0
c Cette fonction est minimale lorsque son gradients' annule (condition d'optimalité
::J
0
v du premier ordre). On a donc, en utilisant la symétrie de la matrice hessienne:
T"-f
0
N Vfquad = 0 = g(k)'f + H (k) (x - x (k) )
@
~
..c De plus, en se basant sur l'équation (6.1), et en prenant un pas de progression
Ol
ï::::
>-
a. unitaire (a= 1), la direction de recherche à l'itération k est donnée par:
0
u
(6.8)

expression dans laquelle apparaît l'inverse du hessien. En utilisant la relation


(6.2), la condition suivante est obtenue:

(6.9)

74
6.2 Exemple

Pour que la direction de recherche


calculée par (6.8) soit une direction
de descente, la matrice hessienne doit
donc être définie positive. La méthode
de Newton est illustrée à la figure 6.10.
Dans le cas d'une fonction quadra-
tique, la solution est obtenue en une
itération, quel que soit le nombre de
variables de conception. Une recher-
che linéaire n'est pas nécessaire, car a
est pris égal à 1.
·3 ·2 ·1 0 2 3
Si la fonction à m1mm1ser n'est pas
quadratique, plusieurs itérations sont
Figure 6.10 Méthode de Newton.
alors nécessaires pour trouver le mini-
mum de la fonction objectif (figure 6.11). La plupart du temps, a= 1. Cependant,
pour éviter les problèmes de convergence ou pour accélérer celle-ci, une recher-
che linéaire peut être effectuée. Elle sera généralement inexacte, de manière à
ne pas trop perdre de temps dans cette phase de l'algorithme d'optimisation.
Lorsque l'on détecte, sur la base de (6.9), que la direction de recherche ne pointe
plus vers une minimisation de la fonction, utiliser malgré tout la direction don-
née par (6.8) entraînera des problèmes de convergence: on se dirigera alors (au
moins partiellement) vers un maximum de la fonction. On observe alors tempo-
rairement (ou définitivement) une divergence dans la solution du problème de
minimisation. Pour éviter cet écueil, la direction de la plus grande pente (6.3),
qui vérifie toujours (6.2), peut être utilisée. La vitesse de convergence sera ralen-
tie, mais on évitera la divergence du processus d'optimisation.

Figure 6.11 Approximations quadratiques successives vers le minimum


d'une fonction non quadratique.
75
6 Optimisation multi-variables sans contrainte

L'inconvénient majeur de la méthode de Newton réside en la nécessité de


calculer la matrice hessienne, de la stocker et de l'inverser. Dans un problème
général, cette matrice ne présente pas de structure bande, mais on peut utiliser
les possibilités de stockage de matrices creuses pour limiter la place nécessaire
au stockage des informations. Dans la résolution numérique des problèmes
d'optimisation, ces opérations coûtent cher en mémoire, surtout la phase de
calcul des coefficients de la matrice H puis celle de son inversion.

6.4.5 Méthodes de quasi-Newton


Dans les méthodes de quasi-Newton, l'inverse de la matrice hessienne (ou la
matrice hessienne elle-même) est calculée de manière itérative en utilisant
l'information d'ordre l, c'est-à-dire les gradients, au cours des itérations. On
ne calcule donc pas directement les coefficients du second ordre, mais on en
fait une approximation de plus en plus précise au cours des itérations. Les
deux approches les plus connues sont DFP et BFGS, du nom de leurs auteurs
(Davidon-Fletcher-Powell, Broyden-Fletcher-Goldfard-Shanno). Sans rentrer
dans les détails disponibles dans la référence [1], la direction de recherche est
donnée par l'expression suivante :

où, contrairement à (6.8), on voit apparaître ici le hessien estimé. Pour DFP, la
remise à jour de l'approximation de l'inverse de la matrice hessienne est donnée
par:

[
f lCk) J-
1
= S (k) = S (k-1) + S
(k-1) ( (k-1) )T
S
(S(k-1) )T y (k-1)
(S(k-1) y (-1) )(S(k-1)y (k-O )T

(y(k-l) )TS (k-l) y (k-1)


"O
0
c
0
::J
Pour BFGS, elle est donnée par l'expression suivante :
v
T"-f
0
N
_
J =s<k> =
_1 (
1-
8 ck- 1) ( y Ck- 1) )T J (1- y <k - 1) ( 8 ck- 1) )T J+ - - - - l-
8 (k-1) ( 8 ck-1)
[ H <k> s <k)
@
~
(s<k-o f y <k-1> (s<k-1) ) T y <k-1> (s<k-Ol y (k-O
..c
Ol
ï::::
>- avec
a.
0
u

La matrice s<0> est généralement égale à la matrice identité 1. Pour ces deux
méthodes et pour une fonction quadratique à n dimensions, il faut n itérations
pour retrouver l'inverse du hessien H. Pour une telle fonction, n itérations seront
donc nécessaires pour atteindre l'optimum, quand une recherche linéaire exacte
76
6.2 Exemple

est utilisée. Les directions de recherches calculées ainsi seront conjuguées dans
la métrique du hessien.
Ces méthodes peuvent être appliquées aux fonctions non quadratiques. Une
recherche linéaire inexacte peut alors être utilisée, mais sous certaines conditions
qui seront exposées dans la section suivante. Une réinitialisation de S est effectuée
toutes les n itérations.

6.4.6 Synthèse
En résumé, la méthode BFGS est certainement la meilleure. Basée sur
l'utilisation d'informations (même approchées) du second ordre, elle permet
une convergence rapide quand on se trouve au voisinage d'un optimum. Le fait
d'utiliser une matrice, qu'il faut stocker, est son point faible, car il l'empêche de
traiter des problèmes de très grande taille. Des versions à mémoire limitée de
BFGS existent cependant [1,2]. Pour les très gros problèmes, la méthode des
gradients conjugués se montre compétitive, car son implantation numérique ne
nécessite que l'utilisation de vecteurs, pour collecter par exemple l'information
des gradients.

Globalement, elle souffre cependant d'une vitesse de convergence inférieure à


celle des méthodes de quasi-Newton. Lorsque les informations du second ordre
peuvent être calculées facilement, et quand la matrice hessienne a une structure
bande, la méthode de Newton sera préférée, éventuellement accompagnée d'une
recherche linéaire inexacte (ou exacte) de manière à assurer une robustesse plus
grande à la méthode. Notons également que les méthodes appelées à« zone de
confiance » peuvent se substituer à la recherche linéaire. Cet aspect n'est pas
abordé dans ce livre. Le lecteur est renvoyé vers la littérature spécialisée [3].

6.5 Calcul du pas de progression

6.5.1 Cas d'une fonction quadratique


Il faut noter que, dans le cas d'une fonction quadratique, la valeur du pas de
progression optimale peut être déterminée sans réaliser d'itération. En repartant
de l'expression de la fonction quadratique, et en substituant x par sa nouvelle
valeur x (k+ll le long de la direction s(kl connue, on obtient une fonction qui dépend
du paramètre a.

77
6 Optimisation multi-variables sans contrainte

f = _!_ ( x Ckl + a s(k)yr H ( x Ckl + a sCkl ) - b r ( x Ckl + a sCkl ) + c


2

En dérivant cette fonction par rapport au pas de progression a et en cherchant


pour quelle valeur la dérivée est nulle, on détermine le minimum de la fonction
f le long de la direction s connue. Il vient alors que :
( sCkl yr g (k)
a=-----
(s(kl f HsCkJ
(6.10)

Cette valeur peut également être obtenue en spécifiant que la dérivée


directionnelle dans la direction s soit nulle par rapport au pas de progression a:

Le gradient de la fonction objectif étant donné par g = Hx- b, on a:

</J'( a ) = sCkl [ H ( x (kl + asCkl ) - b J= sCkl g (k) + asCkl Hs(k) = 0


On retrouve la valeur donnée en (6.10). Cette formule sera utilisée dans les
exemples faisant intervenir des fonctions quadratiques. Elle nécessite néanmoins
le calcul du hessien.

6 .5.2 Recherche linéaire inexacte


Un autre point important est celui de la recherche linéaire inexacte. Le processus
"O
0 itératif de recherche du minimum de la fonction (non quadratique) f alterne
c
0
::J calcul de direction de descente et recherche linéaire. Le nombre d'itérations
v
T"-f
nécessaires pour déterminer de manière précise d pouvant être grand, il est
0
N parfois préférable de dépenser ses ressources dans le calcul d'une nouvelle
@
~
direction de recherche et de se contenter alors d'une valeur approchée de d.
..c
Ol
ï::::
Cette valeur approchée devra néanmoins permettre une avancée significative
>-
a. vers le minimum et assurer que les remises à jour de l'approximation du hessien
0
u dans les méthodes quasi-Newton fourniront des matrices définies positives.

La méthode de Wolfe [4] est décrite ici. On considère la fonction non quadratique
représentée à la figure 6.12. Une direction de recherche s(k) est définie au point x Ckl.
On recherche une valeur approchée du minimum de f le long de cette direction.

78
6.2 Exemple

s Ck)

Figure 6.12 Fonction non quadratique à minimiser


le long de la direction de recherche.

Les conditions de Wolfe nous permettent de savoir si la valeur calculée de a


sera suffisamment bonne ou si on doit poursuivre la recherche d'une meilleure
valeur de ce paramètre. Le long de la direction s(kl, on peut calculer la valeur de
la fonction f pour toute valeur croissante de a :
f (x<k) + asCkl ) = </J(a)
À la figure 6.12, on voit que deux valeurs minimales de f se trouvent le long de
cette direction s<kl, dans les limites des valeurs de a: la valeur minimale de a est
égale à a g, initialement égale à 0 ; sa valeur maximale est égale à ad (sans autre
information, souvent une grande valeur, 1OO par exemple). On voit à la figure 6.13
le tracé de la fonction <JXa). La valeur ai est obtenue par interpolation à partir
des valeurs a g et a d; on utilise souvent une interpolation cubique (cf. chapitre 5).
La question que l'on se pose est de savoir si la valeur ai est suffisamment bonne,
auquel cas on l'accepte comme valeur de pas de progression, et on met en
évidence le nouveau point x<k+ 1>. Pour ce faire, on vérifie si les conditions de
Wolfe sont satisfaites.
f/J( a)
r/J( 0)

Figure 6.13 Minimisation unidimensionnelle.


79
6 Optimisation multi-variables sans contrainte

Tout d'abord, la valeur de </J( a) doit être plus petite que la valeur de départ,
égale à </J( a = 0) = </J( 0) : on veut en effet minimiser la fonction le long de s. Pour
vérifier si la décroissance de la fonction objectif est suffisante, on définit une
droite limite, passant par (0, 9(0)), et dont la pente est une très faible fraction
de la dérivée directionnelle 9'( a) en a = O. On obtient la droite notée « 1 » à
la figure 6.14. La première condition de Wolfe (appelée également inégalité
d' Armijo-Goldstein, ou condition de décroissance suffisante) est que:

(6.11)

En pratique, m1 peut valoir 0,01.

r/J( 0) - ---------------~
' ' --
''
''

m1f/J'(O)
a

Figure 6.14 Domaines des solutions admissibles du pas de progression


en recherche linéaire inexacte.

Ensuite, il faut s'assurer que, avec la nouvelle valeur de a, on avance suffisamment.


Cette condition est vérifiée en évaluant la dérivée de 9( a;). Si 9' (a) est supérieure
"O
0
à une fraction de 9'(0), représentée par le point« 2 »à la figure 6.14, la seconde
c
::J condition de Wolfe est alors vérifiée :
0
v
</)'(a);:::: m2 x 9'(0)
,..-!
0 (6.12)
N
@
~
..c En pratique, m 2 peut valoir 0,15. Cette condition revient à vérifier que le gradient
Ol
ï::::
>-
se relève suffisamment quand on parcourt la direction s, comme illustré à la
a.
0 figure 6.12. Les deux conditions de Wolfe délimitent des zones admissibles,
u
notées I1 et I 2 à la figure 6.14. Le point a;de cette figure vérifie les deux conditions
de Wolfe (6.11) et (6.12).

À la figure 6.15, l'estimation ai ne vérifie pas la condition de Wolfe (6.11). On


sait alors qu'on ne peut pas aller au-delà de cette valeur pour a; ad prend donc
la valeur de a .. On obtient un nouvel intervalle de recherche [ag ; ad].
l

80
6.6 Minimisation d'une fonction quadratique à deux variables

</J( 0)

m1</J'(O)
a
)>

Figure 6.15 Conditions de Wolfe, activation de la borne à droite.

À la figure 6.16, l'estimation a; ne vérifie pas la condition de Wolfe (6.12). On


sait alors qu'on ne peut pas prendre une valeur plus petite de a; a g prend donc
la valeur de ai' On obtient un nouvel intervalle de recherche [ag; ad].

c/J( a)

Figure 6.16 Conditions de Wolfe, activation de la borne à gauche.

Ce processus est itératif. Les bornes mises à jour ag et ad servent à déterminer


une nouvelle approximation ai de a, pour laquelle les conditions de Wolfe sont
à nouveau testées. Selon la condition violée, a. devient ad ou ag, et une nouvelle
1

estimation de ai est calculée. Le processus s'arrête lorsque ai vérifie les deux


conditions de Wolfe. En pratique, une dizaine d'itérations est souvent nécessaire.

6.6 Minimisation d'une fonction quadratique


à deux variables
6.6.1 Énoncé de l'exemple 1
On souhaite minimiser la fonction quadratique à 2 variables suivante :

min f = 12x: + 4x~ -1 2x1x 2 + 2x1 (6.13)

81
6 Optimisation multi-variables sans contrainte

Cette fonction peut également se mettre sous la forme :

On calcule son gradient et sa matrice hessienne :

af
\lf = g =
dX 1
= Hx-b =
{24x -12x+ 2} b ={~2}
1 2

af -12x +8x2 1

dX2

a21 a21

=[~:2 -~2]
2
dX 1
dX 1dX2
H=
a 21 a21
ax2axl dX~

Trois méthodes d'optimisation sont utilisées pour en trouver le minimum : la


méthode des gradients conjugués, la méthode de Newton et la méthode BFGS
de quasi-Newton. Le point de départ, c'est-à-dire la première estimation des
variables de conception, est donné par les valeurs x <o).T = (-1, -2).

6.6.2 Méthode des gradients conjugués


Comme la fonction est quadratique, la solution sera obtenue en deux itérations.
La première direction de recherche est celle de la plus grande pente, et le pas de
progression dans cette direction est donné par (6.10):
"O
0
c (o) )T (o)
::J (
0 a (o) = - s g = 4,807x10-2
v
T"-f
0
( s (o) ) r Hs(o)
N
@
~
..c
Ol
La mise à jour des variables de conception est donnée par (6.1):
ï::::
>-
a.
0
u X (l) = X (O) +do) S (O) = - 1) + 4, 807X10-2(-2) = (-1,0961)
( -2 4 -1,8076

La seconde direction de recherche est calculée par (6.4) :

82
6.2 Exemple

Le gradient et le paramètre de conjugaison sont donnés par :


(1) T (1)
Ol _ x <ll -(-2,6153] a(O) = g g = 0 4275
g - g( )- -1,3077 1-' (O) T (O) )
g g

et finalement :

s(1) =- (-2,6153] +o 4275 (-2J = ( 1, 7603 ]


-1,3077 ) 4 3,0178

Le pas de progression dans cette direction est donné par (6.10) et vaut:

1 (s0l? g 0 >
a' ) = - {I) T ( I) = 0,4334
(s ) Hs

La mise à jour des variables de conception est donnée par (6.1):

x (2) = x ('l + a'1)s( 1) = (-0,3333]


- 0,5

En ce point, le calcul du gradient donne :

g<'' = g(x<''l = ( ~J
Le point x<2l est donc le minimum. Les valeurs successives de la fonction objectif
au cours des itérations valent :

6.6.3 Méthode de Newton


Comme la fonction est quadratique à deux variables, la solution sera obtenue en
une seule itération. La direction de recherche est calculée par la relation (6.8) :

s (O) = -[ H r g (O) =( 0, 6666]


1,5

La recherche linéaire n'étant pas nécessaire, la mise à jour des variables de


conception est donnée par (6.1) avec un pas de recherche unitaire (a = 1) :

x Ol = x <o>+ s(oJ = (-l J + (0,6666) = (-0,3333)


-2 1,5 -0,5

83
6 Optimisation multi-variables sans contrainte

6.6.4 Méthode de quasi-Newton


On utilise ici la remise à jour de type BFGS. Comme la fonction est quadratique
à deux variables, la solution sera obtenue en deux itérations. Le premier pas
s'effectue avec la méthode de la plus grande pente :

X (O)T = (-1,-2) sco>= [ ~ ~]


x (') = x (o) + d 0l s(oJ = -1) + 4,807x10-2 ( -2) = ( -1 ' 0961 )
( -2 4 - 1,8076

x (l) =(-1,0961) et (1) = ( -2,6153)


-1,8076 g - 1,3077

La direction de recherche à l'itération suivante se calcule sur la base de la formule


de remise à jour de l'inverse de l'approximation BFGS du hessien:

$ ( 1) = (1- S(O) ( y (O)

(s(O) ) T y (O)
)1" ) $ (0) (1 - y (O) (S(O)

(s(O)/ y (O)
)1" ) + S (O) (S(O) )r
( s (O) ) T y (O)

avec:

~ ~ )(~4 ) = ( ~ )
2
8<•>=-s<o>g<o> = -(

"O
0
y<•l = g(l) -g<•l = ( )-(
=~::~~~ ~) = ( ~~~~534)
c
::J
0 s<n =(i-( o, 46154 - o,26923)J i(i- ( o,46 154 - 0,92308)]
v -0, 92308 0, 53846 -0, 26923 0,53846
T"-f

+(
0
N
@ 0,00962 -0,01923)
~
..c
Ol
- 0,01923 0,03846
ï::::
>-
a.
0
u s<o = ( 0,37204 0,60207)
0, 60207 l, 10355

80) = - sCJ) cil= -(0,37204 0,60207)(-2,6153) = ( 1, 7603 )


g 0,60207 1,10355 -1,3077 3,0178

84
6.2 Exemple

On retrouve la même direction de recherche qu'avec la méthode des gradients


conjugués. On peut vérifier que les directions s<0> et s<1> sont conjuguées dans la
métrique du hessien :

La recherche linéaire est réalisée comme pour la méthode des gradients


conjugués, et la solution optimale est obtenue, finalement, en deux itérations.
Pour les valeurs optimales des variables de conception, la valeur de s< 2
> est

identique à l'inverse du hessien.

6.7 Synthèse de structure : exemple 1


Cet exemple est un grand classique, qui a déjà été traité par ailleurs mais sans
autant de détails [5]. On considère la poutre illustrée à la figure 6.17, encastrée
d'un côté et soumise à une charge concentrée P de l' autre. La poutre a une
longueur l. Son matériau a un module d'Young E et la section a une inertie I. La
déformation due à l'effort tranchant n'est pas prise en compte. Cette structure
est modélisée par un élément de poutre de type Bernoulli de longeur l, dont les
e
degrés de liberté dans le plan xOy sont les deux rotations e1 et 2 ainsi que les
deux translations vl et v2.

X
-- -- -- -- -------- -- -- --- ---+X
e

l, El l El

Figure 6.17 Exemple de la poutre en flexion.

Le déplacement transversal peut s'écrire comme une combinaison linéaire des


fonctions d'interpolation, les coefficients de la combinaison étant les degrés de
liberté de l'élément. En introduisant la coordonnée réduite Ç= x/l, on a :

~
v(Ç) = [ (l - 3Ç2+ 2Ç3) ; Z(Ç-2Ç2+ Ç3); (3Ç 2-2Ç3) ; Z(- Ç2+ Ç3) J e1
v2
e2
85
6 Optimisation multi-variables sans contrainte

L'énergie potentielle emmagasinée dans la structure est donnée par la somme de


l'énergie interne et du travail des charges appliquées, aussi appelé compliance.
Exprimée sous une forme continue, elle s'écrit :

Jr =-1- J' M 2dx +PV2 =Bi f, "2dx + PV = Bi3 fi(d2v)2d ;:+ PV


2BI 0 2
0
y 2
21
0
d ~;:
2
~2

On peut exprimer cette énergie dans l'élément de poutre en fonction de ses


degrés de liberté, en prenant en compte les conditions limites : 81 = 0 et V1 = 0 :
BI 2 ,v. 2
Jr = - (12V2 + 4a) - 12V) BJ+ PV2
21 3
On est dans le cadre ici de la modélisation d'un problème linéaire par éléments
finis. Si l'on pose
Pl3
- =1
BI

le problème de minimisation de l'énergie potentielle s'écrit de la manière


suivante:
(6.13)

Cette fonction a été minimisée par la méthode de Newton et la méthode des


gradients conjugués à la section précédente. La solution est donnée par :

1 - PZ3 1 - Pl 2
X=-- V =- et X=-- B. = -
' 3 2 3BI 2 2 2 2BI

On attire tout de suite l'attention sur le fait que l'énergie potentielle totale
associée à un problème éléments finis linéaire est une fonction quadratique des
"O
c
0 déplacements généralisés (ou des efforts généralités, les uns étant des fonctions
::J
0 linéaires des autres). On a donc approché par une fonction quadratique l'énergie
v
,..-! généralement non quadratique autour du point d'équilibre considéré, et on fait
0
N
l'hypothèse que la solution trouvée sera dans le voisinage de la configuration de
@
~
..c
départ (hypothèse des petites déformations et petits déplacements). On est donc
Ol
ï:::: dans des hypothèses de linéarité. On a en fait l'habitude d'écrire l'énergie sous la
>-
a.
0 forme suivante, dans le formalisme éléments finis :
u

où K est la matrice de raideur, définie positive, q le vecteur des degrés de liberté


et F le vecteur des charges. Par analogie avec la forme générale ci-dessous, on
voit que la matrice de raideur K joue le rôle de la matrice hessienne H, que les
86
6.2 Exemple

degrés de liberté q jouent le rôle des variables de conception x, que le vecteur de


charge F joue le rôle de b.

Le minimum de cette fonction quadratique est obtenu en égalant à zéro son


gradient par rapport aux degrés de liberté q qui sont les inconnues du problème.
Ce faisant, on met en évidence un système d'équations linéaires qu'il faut
résoudre pour trouver l'équilibre de la structure sous le chargement F :

min n
q
~ Vn = Kq - F = 0 ~ Kq = F

Les techniques d'optimisation permettent de déterminer la position d'équilibre


sans résoudre « directement » (ou autrement dit avec un solveur direct) un
système d'équations linéaires. Ici, on utilise plutôt un solveur itératif, basé sur la
minimisation de l'énergie. Si on reprend l'expression (6.8) et qu'on l'utilise dans
le cas qui nous intéresse ici, on obtient :

s =- [Hrl g(o) ==> Llq =- [Kr1(Kq(o)_ F)


==> q new - q(O) =-q(O) + K-lF ==> q new = K-lF

On voit que le vecteur direction de recherche s est donné par Llq = q - q<0).
Dans le cas traité ici, on peut calculer directement la position d'équilibre par la
résolution d'un système d'équations :

XlJ=[ 24 -12]-I(-2J=(-Q,3333]
( x2
-12 8 0 -0,5
ou utiliser la méthode de Newton dans l'approche optimisation :

s = -[H r gcoJ = - [ H r[
Hx - b]

La solution est identique. On en déduit qu'à la minimisation d'une fonction


quadratique représentant l'énergie correspond donc la solution d'un système
87
6 Optimisation multi-variables sans contrainte

d'équations linéaires, ici par la méthode de Newton, faisant intervenir les forces
présentes dans la structure. On voit bien la dualité entre ces deux approches,
comme illustré à la figure 6.18 dans le cas à une dimension. roptimisation peut
être une alternative à la solution de systèmes d'équations pour la résolution des
problèmes de recherche d'équilibre en mécanique des structures.

dtrl Jq Méthode de Newton - - -


Une seule approximation
quadratique - - -
Zéro de la

Minimum de
l'énergie
quadratique

q*

Figure 6.18 Dualité entre minimisation de l'énergie


et solution d'un système d'équations.

Dans le cas où la fonction à minimiser n'est pas quadratique, on génère alors


un système d'équations non linéaires en termes de forces. Résoudre ce système
d'équations non linéaires par la méthode de Newton revient à construire
des approximations quadratiques de l'énergie qui n'est plus ici une forme
quadratique. Lorsque la méthode de Newton vue en optimisation est utilisée,
la matrice tangente Kt apparaît dans le problème de minimisation, tout comme
elle est présente dans le système d'équations (figure 6.19). Rappelons que la
matrice tangente Kt n'est pas utile lorsqu'une méthode d'optimisation basée sur
les gradients et non plus le hessien est utilisée.
"O
0
c Approximations
::J
0
v 1r
quadratiques
successives - - - Minimum de dtr/ Jq '
J.::f- 1
Méthode de Newton - - -
T"""f
0
l'énergie non
I
N quadratique
@
~
..c
Ol fonction non
ï::::
>-
a.
linéaire
0
u
q
q*

Figure 6.19 Dualité entre minimisation de l'énergie


et solution d'un système d'équations; cas non linéaire.

88
6.2 Exemple

6.8 Synthèse de structure : exemple 2


On généralise le problème de l'application précédente au cas de plus de deux
variables et aux fonctions non quadratiques. On veut simuler ici le gonflage de
structures gonflables, telles que des ballons de plage, des coussins ou des struc-
tures spatiales quel' on met en forme en orbite [6]. On part d'une structure plate
fermée, de type membrane, dans laquelle on va augmenter progressivement la
pression. Pour différents niveaux de pression, on recherche la forme de la struc-
ture ainsi gonflée. La solution d'un tel problème est difficile à déterminer par
simulation par éléments finis, la matrice de raideur tangente K1 pouvant devenir
mal conditionnée ou non définie positive, des plis apparaissant dans la structure
en cours de gonflage et créant localement des zones de très faible raideur ou en
instabilité structurelle. De plus, la structure est complètement plate dans son état
initial et elle est modélisée avec des éléments finis de membrane qui n'ont pas
de raideur en flexion. La pression agit sur la structure, mais celle-ci ne se gonfle
pas ; elle se gonflerait si des forces de membrane apparaissaient dans la structure,
c'est-à-dire pour une membrane déjà déformée.
rutilisation del' optimisation, et plus précisément de la méthode des gradients
conjugués qui ne nécessite pas d'utiliser la matrice de raideur tangente K1,
constitue une alternative intéressante pour déterminer les états d'équilibre en
cours de gonflage. On voit à la figure 6.20 la solution obtenue dans le cas d'une
membrane de forme carrée initialement plate et soumise à une pression interne.
On recherche la forme de la structure, c'est-à-dire l'état d'équilibre, pour des
niveaux de pression croissante. Lorsque la méthode de Newton est utilisée pour
résoudre des systèmes d'équations non linéaires associés, la membrane se gonfle
de manière non physique, en allant se contracter en un des coins. L algorithme
finit cependant par trouver une forme acceptable pour la pression maximale
souhaitée. Par contre, l'algorithme d'optimisation basé sur les gradients
conjugués met en évidence des formes intermédiaires attendues, sans aucun
problème de convergence.

6- - ~ - - - ·
Solution du système
d'équations par
Newton

·-~-- - ·
Solution par
optimisation
(gradients conjugués)

Figure 6.20 Gonflement d'un coussin carré.


89
6 Optimisation multi-variables sans contrainte

6. 9 Références
[1] Bonnans J.F., Gilbert J.C., Lemaréchal C., Sagastizabal C.A. - Numerical optimisation: theoretical and practical
aspects, Springer, Berlin Heidelberg New York, 2003.
(2] Nocedal J. - « Updating Quasi-Newton matrices with limited storage », Mathematics of Computation, i980,
vol. 35, n° i51, p. 773-782.
(3] Conn A.R., Gould N.M., Toint P.L. - Trust region methods, SIAM, 2000.
[4] Wolfe P. - «Convergence conditions for ascent methods »,SIAM Review, 1969, vol. 11, n° 2, p. 226-235.
(5] Haftka R.T., Gurdal Z. - Elements of structural optimization, Kluwer Academic Publishers, i992.
(6] Bruyneel M., Jetteur Ph., Granville D., Langlois S., Fleury C. - « An augmented Lagrangian optimization
method for injlatable structures analysis problems », Structural & Multidisciplinary Optimization, 2006,
vol. 32, p. 383-395.

"O
0
c
::J
0
v
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u

90
Optimisation
• •
avec contraintes : notions
de base et méthode duale

Sur la base d'une analogie avec un problème de mécanique, on explique ici


quelles sont les conditions d'optimalité d'un problème avec contraintes.
La méthode de résolution duale est alors introduite.

7 .1 Position du problème d'optimisation


avec contraintes
Des contraintes apparaissent dans la très grande majorité des problèmes
d'optimisation. Il convient dès lors de les prendre en compte dans la minimisation
de la fonction objectif, de manière à mettre en évidence une solution optimale
qui soit admissible, c'est-à-dire qui ne viole aucune des contraintes du problème
d'optimisation. Comme évoqué précédemment, les contraintes peuvent être
de deux types : les contraintes de borne, qui portent sur les variables, et les
contraintes générales, qui portent sur les résultats. Les contraintes générales, à
leur tour, peuvent être classées en contraintes d'égalité ou d'inégalité. Dans le
cas d'une minimisation de la fonction objectiffo(x), x ={xi, i = 1, ... , n} étant le
vecteur des variables de conception, le problème d'optimisation avec contraintes
s'écrit sous la forme suivante :

min f 0 (x)

(7.1)
f/x) ~ 0 j = l, ..,m
hk(x)=O k=l, ...,p

Dans ce problème, on a p contraintes d'égalité et m contraintes d'inégalité. On


a 2n contraintes de borne : ces contraintes portent sur chaque variable x ; prise
séparément et la comparent à une borne inférieure et à une borne supérieure.
Les contraintes d'inégalité sont de la forme « ::; ». De nombreuses méthodes
91
7 Optimisation avec contraintes : notions de base et méthode duale

d'optimisation avec contraintes existent. Pour les comprendre, il faut d'abord


expliquer quelles sont les conditions d'optimalité d'un problème d'optimisation
avec contraintes. Ces conditions s'appellent les conditions d'optimalité de Kuhn-
Tucker [1,2] . Avant de les aborder, il est intéressant de rappeler les notions de
contraintes concaves ou convexes et de domaine convexe.
Dans ce livre, on traite principalement les problèmes généraux dans lesquels
des réponses structurales non linéaires apparaissent. Pour être complet, le cas
purement linéaire sera également abordé.

7 .2 Contraintes et domaines convexes


À la figure 7 .1, on trace la fonction .t; et son opposée, la fonction li· La fonction
.t; est convexe, alors que la fonction/; est concave. En effet, les dérivées secondes
de .t; et li valent 2 et -2, respectivement. L ensemble des points pour lesquels .t;
est négative est le même que pour li positive : il s'agit de l'ensemble x E ]-1 ; 1[.
En x = 1 et x = -1, les deux fonctions sont nulles. Si l'ensemble x E (-1 ; 1] est
l'ensemble admissible, c'est-à-dire l'ensemble des valeurs de x dans lequel la
solution est recherchée, .t; étant une fonction convexe, etli une fonction concave,
cet ensemble est caractérisé indifféremment par :

f~étant une fonction convexe etli une fonction concave. En conclusion, utiliser la
fonction convexe.f; (x) :::; 0 ou la fonction concaveli (x) ~ 0 pour définir l'ensemble
admissible revient au même.

f~= x2 - 1
Fonction
"O
0 convexe
c
::J
0
v
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a. Fonction
0 concave
u Domaine Domaine
admissible admissible
"--! V

f1> 0
I j~ <0
~
!1 = 0 !1=0

Figure 7 .1 Contraintes concave et convexe.


92
7 .2 Contraintes et domaines convexes

À la figure 7.2, on représente deux domaines admissibles. r ensemble défini


par les fonctions li, f~ eth est convexe car tous les points situés sur le segment
de droite reliant deux autres points quelconques du domaine appartiennent
r
à ce domaine. ensemble admissible défini par les fonctions li, fi et fi n'est pas
convexe car, pour relier certains points, il faut passer par l'extérieur du domaine.

------~

Domaine convexe Domaine non convexe

Figure 7 .2 Domaines convexe et non convexe.

À la figure 7.3, on se place dans le cas d'un domaine admissible convexe. Ce


domaine convexe peut être défini par des fonctions convexes ou concaves.
Comme on l'a vu plus haut, les fonctions convexes doivent être de la forme
f(x):::; 0 et les fonctions concaves de la formef(x) ~O.
j j

12<0 12=0 !2>0 15>0 f5=0 15<0


~/ ~/
'' ''
' '
''
1
1
1
1

:15

Domaine convexe basé Domaine convexe basé


sur des fonctions sur des fonctions
convexes concaves

Figure 7 .3 Domaines convexes.

Pour les fonctions convexes, leur valeur est négative dans le domaine admissible,
nulle sur la fonction elle-même (c'est-à-dire sur une partie de la frontière

93
7 Optimisation avec contraintes : notions de base et méthode duale

du domaine admissible) et positive à l'extérieur du domaine (figures 7.1 et 7.2).


La valeur de ces fonctions augmente donc quand on va dans la direction qui sort
du domaine admissible (on passe d'une valeur négative à une valeur positive).
Le gradient d'une fonction pointant vers la direction de son maximum, le
gradient de la contrainte pointe donc vers l'extérieur du domaine. Ainsi, par
exemple pour la fonction fi, le gradient Vfi pointe vers l'extérieur du domaine
admissible. Inversement, pour les fonctions concaves, leur valeur est positive
dans le domaine admissible, nulle sur la fonction elle-même et négative à
l'extérieur du domaine (figures 7.1 et 7.2). La valeur de ces fonctions augmente
donc quand on va dans la direction qui rentre dans le domaine admissible (on
passe d'une valeur négative à une valeur positive). Le gradient d'une fonction
pointant vers la direction de son maximum, le gradient de la contrainte pointe
donc vers l'intérieur du domaine. Ainsi, par exemple pour la fonction fs, le
gradient Vfs pointe vers l'intérieur du domaine admissible. On voit donc qu'on
peut représenter le même problème soit avec des fonctions convexesf(x) ~ 0, soit
J
avec des fonctions concavesf(x);;::: O.
./

À la figure 7.4, on trace les iso-valeurs de la fonction objectif à minimiser, ainsi


que les limites du domaine admissible. On montre que, lorsque le domaine
admissible est convexe, un seul optimum existe. Dans le cas du domaine
admissible non convexe, on peut mettre en évidence deux points du domaine où
la fonction objectif à minimiser se stabilise (de manière générale, on peut avoir
plusieurs points). L'un d'entre eux est caractérisé par une valeur de fonction
objectif plus petite que celle des autres points : il s'agit de l'optimum global du
problème contraint, c'est-à-dire la valeur de x qui minimise le plus la fonction
objectif tout en ne violant aucune contrainte. Sur la figure 7.4, l'optimum est sur
une frontière, ce qui n'est pas toujours le cas.
'O
0
c
::J
0
v
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u

Problème d'optimisation Problème d'optimisation


convexe non convexe

Figure 7.4 Problèmes d'optimisations convexe et non convexe.


94
7 .2 Contraintes et domaines convexes

7.3 Les conditions de Kuhn-Tucker


7 .3.1 Contraintes d'inégalité
Considérons une particule lâchée depuis la position de départ x0 dans un champ
de forces conservatives, dans l'espace (x 1, x 2 ), où x 2 correspond à la direction
verticale (figure 7.5). Le vecteur x = {x1, xJ représente la position de cette
particule. La fonction fo(x) est le potentiel que la nature veut minimiser, ici
l'énergie potentielle mgx2 , avec m la masse de la particule et g l'accélération de
la pesanteur. Les contraintes concaves sont données par les inégalités.~(x) ;:::: O,j
= l, 2, 3, 4. Elles définissent des parois rigides. La particule se déplace dans un
domaine convexe (cf. figure 7.1). Bien que, dans la formulation (7 .1 ), on considère
des contraintes d'inégalité de la forme « ::;; », on aborde ici les conditions de
Kuhn-Tucker avec des contraintes concaves du type « ;:::: » car l'interprétation
physique que nous allons donner des conditions de Kuhn-Tucker s'y prête
r
mieux. exercice peut néanmoins être réalisé avec des contraintes convexes.
Nous en discuterons le résultat par la suite.

Comme on le voit à la figure 7.5, la particule va s'arrêter en x', qui correspond à


sa position d'équilibre dans le domaine admissible. En ce point, on peut exprimer
les forces qui agissent sur la particule. Comme illustré à la figure 7 .6, les forces
(mécaniques) qui agissent en x· sont d'une part le poids de la particule et d'autre
part les forces de réaction au niveau des parois. La gravité agissant vers le bas,
l'énergie potentielle augmente avec x2 • Le poids est donc dirigé dans le sens
opposé à celui du gradient :

Figure 7 .5 Particule lâchée dans Figure 7 .6 Forces agissant sur


un domaine convexe. la particule en sa position d'équilibre.
95
7 Optimisation avec contraintes : notions de base et méthode duale

Les forces de réaction au niveau des parois sont, quant à elles, perpendiculaires
à celles-ci, le système étant conservatif, ce qui revient à dire que les forces de
frottement sont supposées nulles. Il n'y a donc pas de force tangentielle dans
le plan local de contact. Comme on travaille avec des contraintes concaves, les
gradients pointent vers l'intérieur du domaine (cf. figures 7.3 et 7.5). Les forces
de réaction sont donc proportionnelles aux gradients :

puisque la particule s'est arrêtée sur les contraintes.f;(x) eth(x). Notons que, de
ce fait, ces contraintes sont satisfaites, les inégalités sont en x· des égalités :
(7.2)

De manière à assurer l'équilibre de ces forces, on peut en faire la somme en x*,


on obtient alors :
(7.3)

Les coefficients scalaires Â3• et Â4• sont les facteurs de proportionnalité des
gradients aux parois, dont la valeur doit être ajustée pour assurer l'équilibre de la
particule en x·. Pour que cet équilibre soit assuré, on constate que :
(7.4)

Pour terminer, on constate également que, en x*, la particule ne se trouve pas


sur les parois représentées par les contraintes.fi(x) etf,/x). Ces contraintes sont
cependant satisfaites comme des inégalités (elles ne sont pas violées puisque x*
se trouve dans le domaine admissible). On a :
(7.5)
"O
0
c
0
::J Puisque aucune réaction aux parois n'existe pour les fonctions J; (x) etfi (x) en x*,
v
,..-!
ces contraintes n'interviennent pas dans l'équilibre des forces et on a :
0
N
@ X=
1
o et ,f 2 = o (7.6)
~
..c
Ol En combinant les résultats (7.2) et (7.4), ainsi que (7.5) et (7.6), on peut écrire:
ï::::
>-
a.
0
u (7.7)

En considérant le signe des coefficients JL.*


j
, donné en (7.4) et (7.6), l'expression
(7.3) peut se mettre sous la forme générale:
4
Vf0 (x') - L., ,.t;VJ/x')= O (7.8)
j =l

96
7 .2 Contraintes et domaines convexes

En considérant en plus (7.2) et (7.5), il vient que:

,.i; ;: : 0 j = 1, ... , 4 (7.9)

J/x ·);:::: 0 j = 1, ... , 4 (7.10)

Appliquées à un ensemble m de contraintes concaves d'inégalité du type


f (x) ~ 0, les conditions (7. 7) à (7 .10) s'écrivent :
J
m
Vf0 (x') - L Â;\lf/ x*) = 0 (7.11)
j =I

À;fj(x*) = 0 j = 1,... , m (7.12)

,.i; ;: : 0 j = 1, ... , m (7.13)

~(x');::::o j = l, ... ,m (7.14)

Ce sont les conditions de Kuhn-Tucker pour un problème d'optimisation


avec contraintes d'inégalité. Un point x· qui satisfait aux conditions de
Kuhn-Tucker (7.11) à (7.14) est un optimum (au moins local) du problème
d'optimisation avec contraintes (cf. figure 7.4). La condition (7.14) stipule que la
solution doit satisfaire à l'ensemble des contraintes, autrement dit le point x· doit
être admissible. La condition (7.13) impose que les coefficients ,.t· ne peuvent
J
pas être négatifs à la solution. Ces coefficients sont appelés les multiplicateurs
de Lagrange. Un multiplicateur de Lagrange est associé à chaque contrainte,
et l'ensemble des multiplicateurs de Lagrange se range dans le vecteur .Â. = {À, J
j = 1, ... , m}. La condition (7.11), qui provient de l'équilibre des forces agissant
sur la particule au point x*, impose la stationnarité d'une fonction notée L par
rapport aux variables x, en x· et .Â.. :
m

L(x, .Â.) = f 0 (x) - L Àj f/x) (7.15)


j =I

On peut calculer le gradient de cette fonction :


m
vr(x*, .Â.*) = Vfo(x' )- I Â,;\lf/x· ) = O
j =I

ou encore

Cette fonction L est la fonction lagrangienne ou lagrangien du problème avec


contraintes. Le rôle de cette fonction est fondamental en optimisation avec
contraintes. Lorsque le problème d'optimisation ne comporte pas de contraintes,
97
7 Optimisation avec contraintes : notions de base et méthode duale

m = 0 et le second terme de (7 .15) s'annule : le lagrangien se réduit à la fonction


objectif. La condition d'optimalité est alors donnée par la stationnarité de
la fonction objectif fo(x) par rapport aux variables x, résultat déjà obtenu par
ailleurs dans le cas de l'optimisation sans contraintes.

La condition (7.12) stipule que le produit des multiplicateurs de Lagrange par


la valeur de la fonction correspondante doit être nul à la solution, pour toutes
les contraintes. Le signe des multiplicateurs de Lagrange à la solution permet de
caractériser l'ensemble des contraintes actives, c'est-à-dire les contraintes sur
lesquelles la solution se trouve (contraintes satisfaites comme des égalités). Si on
reprend l'exemple de la figure 7.6, on a:

À;fi (x *) = 0 Ç::} À; = 0 et fi (x · ) > 0 ~ contrainte inactive à l'optimum


Â~f2 (x · ) = 0 Ç::} À; = 0 et f x · ) > 0 ~ contrainte inactive à l'optimum
2
(

;i;J3 (x · ) = 0 Ç::} À; > 0 et f x· ) = 0 ~ contrainte active à l'optimum


3
(

Â:f (x ·) = 0
4
Ç::} À:> 0 et f 4
( x · ) = 0 ~ contrainte active à l'optimum

Le multiplicateur de Lagrange Â1 associé à la contraintefi (x) est nul à la solution:


cette contrainte n'est pas active à la solution, elle est donc satisfaite comme une
inégalité. Par contre, le multiplicateur de Lagrange Â3 associé à la contrainte
.f/x) est positif à la solution : cette contrainte est active à la solution et elle est
donc satisfaite comme une égalité. On remarque également que si les conditions
(7 .12) sont satisfaites, le lagrangien prend, à la solution optimale, la valeur de la
fonction objectif:
m

L(x·,1.: )= f 0 (x· )- L Â;f/x·)= f 0 (x · )


"O j=l
0
c
::J
0 Une observation très importante est reprise à la figure 7.7. Considérons que la
v
T"-f
0
particule parcoure la contrainte J; et s'arrête à l'intersection des contraintes J;
N
@
etf;. En ce point, on vérifie la condition (7.11) de stationnarité du lagrangien
~
..c par rapport aux variables X. L équilibre des forces peut être vérifié pour autant
Ol
ï::::
>-
que le multiplicateur de Lagrange Â2 associé à la contrainte J; prenne une valeur
a.
0 négative. Cela est en contradiction avec les conditions de Kuhn-Tucker qui
u
imposent que, pour des contraintes d'inégalité, tout Â../ doit être non négatif. On
en déduit donc que ce point n'est pas la solution du problème. Comme on le
voit aux figures 7.6 et 7.7, il faudra que la particule quitte la contrainteJ;, dont le
multiplicateur de Lagrange est négatif, et poursuive son chemin plus bas, pour
mettre finalement en évidence la solution x·.

98
7 .2 Contraintes et domaines convexes

-'Vfo(X) X*

Figure 7.7 Point non optimal.

Le lecteur est invité à déterminer les conditions de Kuhn-Tucker dans le cas de


contraintes convexes du type .~(x) ~O. Dans ce cas, la direction des gradients des
contraintes change (cf. figure 7.3) et la fonction lagrangienne prend la forme:
m
L(x,À.)= f 0 (x)+ L'., :Ljfj(x)
j =l

On remarque le changement de signe par rapport à la fonction lagrangienne


pour les fonctions concaves (7.15). La condition (7.11) devient donc:
m
V'f (x. )+ L., :t;VJ/x*)= O
0
j=l

Les autres conditions de Kuhn-Tucker (7.12) à (714) sont inchangées.

7 .3.2 Contraintes d'inégalité et d'égalité


On introduit à présent une contrainte d'égalité h 2 (x) dans le problème de la
particule, en remplacement de la contrainte d'inégalité J;(x) de la figure 7.6.
Comme il s'agit d'une contrainte d'égalité, la solution doit se trouver sur cette
contrainte. Remarquons que cette contrainte est linéaire, de manière à obtenir
un domaine admissible, représentée en gris sur la figure 7.8, qui soit convexe.
Soumise à son poids, et devant rester sur la contrainte d'égalité, la particule
s'arrête donc en x', comme illustré à la figure 7.8. En ce point, on peut évaluer
l'équilibre de la particule, soumise à son poids et aux forces de réaction au niveau
des parois. Dans notre cas, le gradient à la paroi h 2 (x) = 0 pointe vers l'intérieur
du domaine. La condition de stationnarité en x', donnée par

99
7 Optimisation avec contraintes : notions de base et méthode duale

n'est vérifiée que si le multiplicateur de Lagrange À2 associé à la contrainte h 2 (x)


est négatif en x', c'est-à-dire À2• < O. Dans ce cas, la force associée à la paroi
h 2 (x) = 0 change de sens, et un équilibre des forces peut être trouvé.

-V/o(x*) -Vfo(x*)

Figure 7.8 Contraintes d'égalité et d'inégalité.

Ici, on n'a donc pas le choix : il faut accepter à la solution un multiplicateur de


Lagrange négatif associé à la contrainte d'égalité, ce qui est interdit dans le cas des
contraintes d'inégalité. C'est la condition nécessaire pour assurer la stationnarité
de la particule en x*. Dans un problème d'optimisation qui comprend des
contraintes d'égalité, le signe des multiplicateurs de Lagrange associés à ces
contraintes n'est pas soumis à la non-négativité et peut donc être quelconque
(positif, négatif ou nul). Les conditions de Kuhn-Tucker sont alors données par :

m P
Vf0 (x·)- L A;VJ/x·)- L A~Vhk(x')= O (7.16)
j=l k=l

j = 1,... , m (7.17)
"O
0
c
::J j = 1, ... , m (7.18)
0
v
T"-f
0
N j= 1, ... , m (7.19)
@
~
..c
Ol
ï::::
k = l, ...,p (7.20)
>-
a.
0
u k = l, ... ,p (7.21)

avec le lagrangien valant :


m P
L(x).. )= f 0 (x)- L Ajf/x)- L Akhk(x )
j=I k=I

100
7 .2 Contraintes et domaines convexes

On voit qu'aucune restriction n'est imposée sur le signe des multiplicateurs de


Lagrange A,k (k = l, ... ,p) associés aux contraintes d'égalité. Pour les contraintes
d'inégalité, on retrouve les conditions vues précédemment, les formules (7 .17) à
(7.19) correspondant aux formules (7.12) à (7.14).

7 .3.3 Contraintes d'égalité


Quand le problème ne comporte que des contraintes d'égalité, la fonction
lagrangienne s'écrit :
p
L(x, Â.) = f 0 (x)- LÀkhk(x ) (7.22)
k=l

Les contraintes d'égalité doivent être satisfaites à la solution. Il faut donc que :
hk(x*)=O ,k = l, ... ,p

Cela revient à assurer la stationnarité du lagrangien (7.22) par rapport aux


multiplicateurs de Lagrange Â. :
p
\! ). f 0 (x * )- L ,.i;v).hk(x *) =O (7.23)
k= I

La stationnarité du lagrangien devant également être assurée par rapport aux


variables x, on a donc la condition supplémentaire suivante :
p
vxfo(x · )- I,.i:vxhk(x · ) = o (7.24)
k= I

Les équations (7.23) et (7.24) fournissent un système de n+p équations à n+p


inconnues, les inconnues étant les valeurs x· et Â.•. Aucune restriction n'existe
quant au signe des multiplicateurs de Lagrange : les contraintes étant du
type égalité, on n'a pas le choix et on prendra les signes des Â. qui assurent la
stationnarité du lagrangien par rapport aux variables x selon (7.24).

7 .3.4 Contraintes de borne


De manière générale, les contraintes de borne apparaissant dans la formula-
tion (7.1) peuvent être traduites en contraintes d'inégalité générales. Ce faisant,
on augmente de manière significative le nombre de contraintes dans le problème
d'optimisation. On verra dans la suite comment ces contraintes particulières
peuvent être prises en compte de manière efficace dans une formulation intéres-
sante des problèmes d'optimisation avec contraintes.

101
7 Optimisation avec contraintes : notions de base et méthode duale

7 .4 Étude de la fonction lagrangienne


On considère le problème d' optimi-
sation suivant, dont les fonctions et la Domaine admissible
25
solution sont illustrées à la figure 7.9.
20
fo(x)
2
min f 0 (x)=x + 1 1
.s

fi(x)=(2-x)(x- 4)~ 0 1
.0

La contrainte concave délimite un do- fi(x)


maine admissible donné par x E [2; 4].
1.5 2 2.5 3 3.5 4 4.5
X
La fonction lagrangienne associée à
ce problème est donnée par (7 .15) et Figure 7. 9 Problème d'optimisation
vaut: avec contrainte.

L(x,À)=x 2 + l -À-(2-x) (x-4) (7.25)

Si la contrainte avait été écrite sous forme convexe, on aurait eu :

fi (x) = (x - 2)(x - 4)::; 0

et la fonction lagrangienne aurait été donnée par :

L(x,À) = x 2 +l +À(x-2)(x- 4)

ce qui revient finalement au même. Le tout est de ne pas se tromper et d'utiliser


un signe « - » devant les fonctions concaves et un signe « + » devant les fonctions
convexes lorsqu'on construit le lagrangien. La dérivée de la fonction lagrangienne
"O par rapport à la variable x vaut :
0
c
::J
0 ê)L
v - = 2x+2Âx-6Â
T"-f
0
N
àx
@
~
..c
Comme on le voit sur la figure 7.9, la solution du problème est donnée pour
Ol
ï:::: x = 2. Il s'agit en effet de la valeur de x qui donne le minimum de la fonction
>-
a.
0 objectif dans le domaine admissible. En se basant sur l'équation précédente, et
u
en l'égalant à zéro, on assure la stationnarité du lagrangien et on peut déter-
miner la valeur de À à l'optimum : A = 2. On peut tracer l'allure de la fonc-
tion lagrangienne; elle est donnée à la figure 7.10. On remarque que la solution
(x , A,) = (2, 2) est un point particulier de la fonction lagrangienne, qui assure la
stationnarité de L par rapport à x et à A. La stationnarité de L par rapport à A
est assurée car la contrainte d'inégalité du problème que l'on traite est satisfaite
102
7 .2 Contraintes et domaines convexes

comme une égalité à la solution. Ce point particulier, que l'on voit en noir à la
figure 7.10, et qui assure que
dL =0 et dL =0
dx dÂ
est appelé point de selle. Déterminer ce point de selle permet donc de mettre en
évidence la solution du problème d'optimisation.

12 20
50

'~
2.5 L(x,À)
40

30

20
1.5
10

0
3

0.5

0 2 X J

Figure 7 .10 Fonction lagrangienne.

7 .5 Notion de point de selle


On étudie dans cette section la
manière avec laquelle on peut mettre
en évidence un point de selle. On
considère la fonction suivante, illustrée
à la figure 7.11.
f (xi' x2 ) = (x1 - 2
1) -(x2 - 1)
2
- x 1x 2

Cette fonction possède un point de


selle, noté (x 1· , x 2' ), caractérisé par :
df(x ,xJ
1
df(x ,x
1 2
)
-- - =0 -- - =0 Figure 7.11 Fonction à point de selle.
dx 1 dx2
Il existe deux moyens de mettre en évidence le point de selle. Tout d'abord, on
peut fixer la valeur de la variable x 1, comme illustré à la figure 7.12. Ce faisant,
on constate que la fonction/est concave. On peut rechercher le maximum de la
fonction/par rapport àx2 :

max f ( xl'x2 ) ~ df(x"x 2 ) = 0 ~ x2 = x 2 ( x 1 ) ~ f ( x"x (x ))


2 1
Xi dX2
103
7 Optimisation avec contraintes : not ions d e base et méthode duale

Figure 7 .12 Recherche du point de selle, première méthode.

On identifie ainsi un lieu x 2 = x/x). La fonction/(x 1, x 2(x)) est convexe. Son


minimum par rapport à x 1 est le point de selle:

minf (xl'x (x
XI
2 1 )) => (x; ,x;)
De manière similaire, on peut fixer la valeur de la variable x 2 , comme illustré
à la figure 7.13. Ce faisant, on constate que la fonction/ est convexe. On peut
rechercher le minimum de la fonction f par rapport à x 1 :

"Cl
0
c
::::i
0 -20

"""
.-1
0
N
@

..c
Ol ·2 .J 2
·;::
>- x,
a.
0
u Figure 7 .13 Recherche du point de selle, seconde méthode.

On identifie ainsi un lieu x 1 = x 1(x2 ) . La fonctionfix 1(x2 ), x 2 ) est concave. Son


maximum par rapport à x 2 est le point de selle :

104
7 .2 Contraintes et domaines convexes

On constate donc que le point de selle peut être déterminé dans un double
processus, soit par le bas, soit par le haut : il est à la croisée des deux chemins
possibles mis en évidence précédemment. La relation suivante y est vérifiée :

(7.26)

Connaissant la valeur de x 1· , on peut trouver le point de selle en maximi-


sant par rapport à la variable x 2 la fonction f(x 1· , x). De même, connaissant la
valeur de x2 · , on peut trouver le point de selle en minimisant par rapport à la
variable x 1 la fonctionf(x 1, x 2*). Si on applique cette méthodologie à la fonction
lagrangienne, il vient alors :
L(x ' , Â.) s L(x* ,Â.' ) s L(x , Â. ' )

Ce principe de recherche du point de selle peut être maintenant appliqué à la


fonction de la figure 7.10. On peut par exemple fixer une valeur de Â. Dans ce
cas, comme on le constate à la figure 7.10, on peut alors rechercher un minimum
de la fonction lagrangienne par rapport à la variable x :

dL(x,2) 32
d =0 <==> minL(x,2) <==> x(2) = - (7.27)
x X 1+ 2

La fonction x = x(À.) obtenue ci-dessus est illustrée à la figure 7.14 (gauche),


dans le plan (x, À). Quand on injecte cette valeur dans la fonction lagrangienne
(7.25), on voit le lieu qu'elle représente à la figure 7.15. Sous forme d'équations,
en injectant la relation précédente, on écrit :

92 2
L(x(2),2) = 1(2) = --+82+ 1
1+2

6 12 21
2.5 2.5

2 2

,i 2
1.5 l.5

Figure 7.14 Recherche du point de selle sur fonction lagrangienne.


105
7 Optimisation avec contraintes : notions de base et méthode duale

so ...L(x~.4} ··· ··· 2*


. ~.. ......... ~' ..
40 ··•· · . .. . !········

so ' ! .. .. · L(x(ÂX1!.~: z ç~)' 4


20 .... ···· ·· ·~····· ···· ,;, . ······ : .

10 -~~~

3
0

2
." ~
L(x(2), 2)=l(Â)

4 5 1
0 0.5 1.5 2 2.5 3.5
0 ·-1 0
X
2

Figure 7.15 La fonction duale.

On met en évidence une fonction qui ne dépend que de la variable À. Comme


on le voit à la figure 7.15, cette fonction est concave par rapport à À. Quand on
recherche le maximum de cette fonction, on met en évidence la valeur optimale
de À, notée X :
maxl(2) ~
Â
,r
Dans notre cas, X = 2. Une fois la valeur optimale de À trouvée, on peut utiliser
la relation x = x(A.,) pour déterminer la valeur optimale de x:
32 1
• • 3X
x(2)= - ~ x =x (A)= •
1+2 1+2
On trouve ici que x' = 2. On vérifie à la figure 7.10 que le point de selle a bien pour
coordonnées (x; À) = (2 ; 2). On a donc trouvé la solution de notre problème
d'optimisation.

Le second moyen de déterminer un point de selle selon la figure 7 .12 est de


"Cl
0
maximiser la fonction lagrangienne par rapport à la variable 2, de déterminer
c
::::i alors la relation À = Â(x) et ensuite de minimiser la fonction L(x, À(x)) qui ne
0
dépend plus que de la variable x . Le maximum de la fonction lagrangienne par
"""
..-1
0 rapport à Â n'est pas borné, du fait de la dépendance linéaire du lagrangien par
N
@ rapport aux multiplicateurs de Lagrange.

..c
Ol
·;:: 2
>- dL(x, ) = 0 {:::> max x 2 +1+2(x-2)(x-4)
a.
0
u
a2 2

En effet, si la valeur de À augmente, la valeur du lagrangien ne peut qu'augmenter,


contrairement à ce qui se passe quand on fait varier la valeur de la variable x pour
laquelle un minimum existe. Comme le maximum de L par rapport à Â n'est
pas borné, on n'arrive donc pas à déterminer la relation  = Â(x) et le point de
selle ne peut pas être obtenu par ce second moyen. En résumé, le seul moyen de
trouver le point de selle de la fonction lagrangienne étudiée est de minimiser cette
106
7 .2 Contraintes et domaines convexes

fonction par rappport aux variables x, de manière à obtenir les relations x = x(À),
et de construire la fonction L(x(À),À) qui est alors maximisée par rapport aux À.

7 .6 Méthode duale
7.6.1 Principe
La méthode duale reprend les idées présentées dans la section précédente. Elle
consiste à travailler dans l'espace des multiplicateurs de Lagrange, de manière
à déterminer l'ensemble des contraintes actives qui sont satisfaites comme
des égalités à la solution. Une fois les valeurs optimales de À connues, on peut
déterminer les valeurs optimales des variables x, grâce aux relations x = x(À).

On appelle cette méthode « méthode duale », et les multiplicateurs de


Lagrange À sont aussi appelés variables duales, en opposition aux variables x
qui sont les variables primales. La relation x = x(À) est appelée relation primale-
duale. Appliquée à un problème d'optimisation tel que (7 .1), les différentes
étapes de cette méthode sont les suivantes :
1. On crée la fonction lagrangienne :
m P
L(x,À) = f 0 (x)- LA,jf/x)- LA,khk(x) (7.28)
j=I k= I

2. On calcule la stationnarité de cette fonction par rapport aux variables


primales. Ce faisant, on satisfait à une des conditions de Kuhn-Tucker. On
recherche donc le minimum de L(x,À) par rapport aux variables primales x ;
cette minimisation est réalisée en contraignant la solution par les variables de
borne du problème (7.1):
minL(x,À) ximîn:::;; X;:::;; ximax , i = 1, .. .,n (7.29)
X

On détermine de ce fait les relations primales-duales x = x(À), comme à la


figure 7.14 (gauche).
3. On injecte les relations primales-duales dans le lagrangien. On obtient de ce
fait une fonction qui ne dépend que des variables duales À :
L ( x (À), À) = l (À) (7.30)

La fonction l(À) est appelée fonction duale. Elle est concave, comme illustré
à la figure 7.15.
4. On maximise la fonction duale par rapport aux variables duales À. Comme
des contraintes d'inégalité peuvent apparaître dans le problème d' optimisa-
tion (7.1), il faut s'assurer que les variables duales qui leur sont associées ne
107
7 Optimisation avec contraintes : notions de base et méthode duale

prennent pas des valeurs négatives, conformément aux conditions de Kuhn-


Tucker ; le signe des Â. des contraintes d'égalité est, quant à lui, non contraint.
On a donc le problème suivant à résoudre :
mFl(À.) 2j ~o, j =l, ..,m (7.31)
La solution est la valeur optimale des variables duales, soit Â.•.
5. On utilise alors les relations primales-duales pour déterminer les valeurs
optimales des variables primales :
x* = x(Â.*)
Avec la méthode duale, le problème d'optimisation (7 .1) qui comporte n variables
de conception x, m contraintes d'inégalité~(x),p contraintes d'égalité hk(x) et 2n
contraintes de borne, est remplacé par un problème de maximisation d'une fonc-
tion /(À.) à m+p variables Â., etm contraintes de borne (7.31), auquel il faut associer
le problème (7.29) de minimisation du lagrangien par rapport aux n variables de
conception x, et 2n contraintes de borne. On voit que, dans une certaine mesure,
on a simplifié la formulation du problème de départ (7.1). Cette constatation est
d'autant plus vraie que le nombre de contraintes retenues dans le problème d' opti-
misation (m+p) est faible. Dans ce cas en effet, le problème (7.31) est de petite
taille et donc plus rapide à résoudre. C'est le cas dans les problèmes d' optimi-
sation topologique, pour lesquels une centaine de contraintes sont typiquement
prises en compte, alors que le nombre de variables de conception peut atteindre
plusieurs millions. On reviendra sur ces aspects dans la suite de cet ouvrage.
Le talon d'Achille de cette méthode est néanmoins la solution du problème
(7.29), qui peut être de très grande taille, comme mentionné pour l'optimisation
topologique. Il existe cependant un cas particulier pour lequel ce problème
d'optimisation à n variables peut être simplifié : c'est celui des fonctions
"O
séparables et explicites. Comme on le montrera par la suite, ces deux propriétés
0
c
::J
seront d'une aide précieuse dans la mise au point de méthodes efficaces en
0 optimisation de structures.
v
T"-f
0
N
@ 7 .6.2 Cas des fonctions séparables
~
..c
Ol
ï:::: Comme déjà évoqué précédemment, une fonction est séparable si elle peut
>-
a.
0
s'écrire comme la somme de fonctions de chaque variable prises séparément.
u
Une fonction séparable possède une matrice hessienne diagonale.
n

f (x) = L /;(x;)+constante (7.32)


i= l

Un exemple d'une telle fonction est donné ci-dessous:


f( x) = x~ + x~ + x, + x + 2 =fi (x, ) + f
2 2 (x2 ) +constante= (x: + x, )+(x~ + x 2 )+ 2

108
7 .2 Contraintes et domaines convexes

La fonction suivante n'est pas séparable, à cause du terme produit x 1x 2 :

f( x) = x~ +x~ -x1x 2 + x 1 +x2 + 2

Pour une fonction séparable, la minimisation (7.29) à n variables peut être


remplacée par n optimisations à une variable, problème qui est généralement
plus rapide à résoudre. Dans ce cas, la fonction lagrangienne s'écrit :

Les conditions de stationnarité du lagrangien sont données par :

min_ L;(xi' Â. ) {::::} X; = x;(Â.) i = l, ... ,n


! 1$x; $x1

Le problème dual (7.31) devient alors:

7 .6.3 Cas des f onctions séparables explicites


En optimisation des structures industrielles, les fonctions qui entrent en jeu dans
le problème d'optimisation, telles que le poids, la raideur, les déplacements, les
tensions, sont implicites : on ne les connaît que pour différentes valeurs discrètes
des variables de conception, en les calculant pour ces valeurs par une analyse par
éléments finis. Une fonction est explicite en termes des variables de conception
si on peut l'écrire en y faisant apparaître clairement les variables de conception,
comme par exemple :

Si la fonction objectif et les contraintes sont explicites, on peut alors calculer


analytiquement leur dérivée. Par exemple, considérons la fonction ci-dessus
comme une fonction objectif, et la fonction suivante comme une contrainte:

Le lagrangiens' écrit:

L (x ,Â.) = f 0 (x)+ 1J; (x) = x~ +2x~ +x 1 + x2 + 2 +À1 (x1 +x2 -1)

109
7 Optimisation avec contraintes : notions de base et méthode duale

Les fonctions étant séparables, on a :

L( x, Â. ) = L (x ,2 + L (x
1 1 1) 2 2, 21 ) + cte

On calcule directement les relations primales-duales pour chaque variable x ; :

dL,~;:A.,) = 0 =2x 1
+ l +.-1, => x, =- + .-1,
1
2
1+21
=> X =- - -
2 4
Les relations primales-duales sont déterminées sans effectuer d'optimisation
numérique, c'est-à-dire sans devoir résoudre numériquement le problème
(7.29). La recherche del' optimum du problème contraint par méthode duale se
réduit donc à la construction de la fonction duale et à la résolution du problème
(7.31). Le gain de temps est évident.

7 .6.4 Propriété intéressante de la fonction duale


Pour résoudre le problème dual (7.31), les dérivées de la fonction /(À) sont
nécessaires (si on utilise des méthodes d'ordre 1 ou plus). En se basant sur
l'expression de la fonction lagrangienne, on montre que la dérivée de cette
fonction par rapport aux variables duales est donnée par les contraintes du
problème primai, ce qui simplifie fortement le calcul des dérivées :

L(x ,À. )= f (x)- I 2j~(x) => êJl(Â. ) = êJL(x(Â.), À) =-f.(x(À.))


0
j =l êJ2j êJ2j J

"O
7.7 Exemples
0
c
::J
0 2 .---~-----::=---~---=-~-----,

v 7. 7 .1 Exemple de solution 1.8


T"-f
0
N par méthode duale
@

0
~
..c Soit le problème suivant, constitué de
Ol
ï:::: fonctions séparables et dont l'optimum
>-
a.
0 contraint se situe sur la frontière du
u
domaine admissible (figure 7.16). 0.4

0.2

m}n ~ (x 1 - 1)2 + ~ (x2 - 1)2 OO 0.5 1.5 2


Xt
X1 + X2 $ 1
Figure 7 .16 Problème à résoudre par
X1 ~ Û
la méthode duale.
110
7 .2 Contraintes et domaines convexes

Dans un premier temps, on construit le lagrangien du problème :

Comme deux contraintes (une contrainte générale et une contrainte de borne)


apparaissent dans le problème d'optimisation, deux multiplicateurs de Lagrange
sont utilisés. On fait bien attention au signe associé aux fonctions du type « :::; » et
«~».La deuxième étape consiste à résoudre le problème (7.29) de stationnarité
du lagrangien par rapport aux variables primales x 1 etx2 • Ce faisant, on détermine
les relations primales-duales x = x(Â) :

On trouve que :

À-À
1 2
À1
X = 1- et X = 1- -
l 2 2 2

Avec ces relations, la fonction duale peut être écrite:

1(1 ,À)=-).,: -
l'"J 2 2
;i:4 + /!,1).,22 + 1 -À
l'"J 2

La fonction duale est quadratique. On peut remarquer que, bien que le problème
primai soit séparable, la fonction duale (figure 7 .17) ne l'est pas.

Figure 7 .17 Fonction duale et solutions.

111
7 Optimisation avec contraintes : notions de base et méthode duale

Les valeurs optimales des multiplicateurs de Lagrange sont obtenues en maxi-


misant cette fonction. Ce maximum est déterminé en égalant à zéro les dérivées
premières de /(À) :

j_!_=-À + À,2 + 1= 0
az J2 J.
- = - - + - - 1= 0
aJ l
• 2 ()J2 2 2

La solution analytique de ce système linéaire de deux équations à deux inconnues


est (À1 = 0; À2 = -2). La valeur d'un multiplicateur de Lagrange étant négative,
une discussion doit être menée car les conditions de Kuhn-Tucker imposent que
les multiplicateurs de Lagrange soient positifs ou nuls à l'équilibre :

.,. Si Â2 = -2, Â 1 = O. Cette solution est représentée à la figure 7 .17. Il s'agit


du minimum non contraint de la fonction duale. Si le multiplicateur de
Lagrange associé à la contrainte n° 2, soit x 1 ;::: 0, est négatif, cela signifie que
cette contrainte est satisfaite comme une égalité à la solution. On voit à la
figure 7.16 que cela n'est pas possible, la solution vérifiant x 1 > 0 et non pas
x, = 0.
.,. Comme les contraintes du problème traité sont des inégalités, on sait en fait
que les multiplicateurs de Lagrange doivent être non négatifs à la solution.
Sur la base du problème (7.31), on impose donc que Â2 = 0, ce qui veut dire
que la contrainte n° 2 va être satisfaite comme une inégalité à la solution. La
valeur de Â1 obtenue par la solution du système d'équations écrit plus haut
est  1 = 1. On voit donc ici qu'on a recherché la solution dans le cadran Â1 ;::: 0
et Â2 ;::: O.
Quand on injecte les valeurs (Â1· , Â2' ) = (1 , O) dans les relations primales-duales,
on obtient les valeurs optimales des variables primales et on voit graphiquement
sur la figure 7 .16 qu'il s'agit effectivement de la solution du problème contraint :
"O
0
c
::J
0
v
T"-f
0
N
@ 7. 7 .2 Exemple de synthèse, calcul par éléments finis
~
..c
Ol
ï:::: Dans la suite de ce qui a été présenté dans le chapitre relatif à l'optimisation non
>-
a.
0
contrainte, on peut utiliser les techniques d'optimisation pour trouver l'équilibre
u
d'une structure soumise à des contraintes. Dans le formalisme éléments finis, et
dans le cas statique, on minimise l'énergie potentielle totale de la structure sous
une forme intégrée dans laquelle on voit apparaître les degrés de liberté q du
problème. Si l'énergie est quadratique, on a :
· 1 T
mm - q Kq-FT q
q 2
112
7 .2 Contraintes et domaines convexes

Si l'énergie n'est pas quadratique, comme dans le cas où des non-linéarités


apparaissent dans le problème mécanique, on a :

minJr( q)
q

Minimiser cette fonction énergie potentielle revient à déterminer les valeurs de


q qui fournissent une structure en équilibre sous ses charges. Il arrive souvent
qu'un certain nombre NJ.de degrés de liberté soient liés entre eux par des relations
linéaires ou non linéaires du type :
Ni

L.,c9q; =bj
i=l

Un cas pratique bien connu en éléments finis correspondant à cette situation est
celui des conditions de corps rigide. En notant M le nœud maître et E un de ses
nœuds esclaves, ü le vecteur déplacement du point considéré et Q la rotation
d'ensemble du solide, les équations de la mécanique du solide permettent
d'écrire la relation vectorielle ci-dessous qui donne trois relations scalaires du
type précédent :
ü(E) = ü(M) + Q /\ MË
Diverses conditions aux limites comme les conditions de planéité, les conditions
de symétrie cyclique amènent à mettre en place des relations similaires entre
degrés de liberté, de type « égalité ». D'autres relations entre degrés de liberté
peuvent être rencontrées, de type« inégalité» :
Ni

L.,c9q; ~bj
i=

Le cas particulier de la relation qi ;:::: bi est celui quel' on est amené à gérer quand
on prend en compte le contact dans la recherche de l'équilibre de la structure,
comme illustré à la figure 7.18. Un tel problème de minimisation d'une fonction
avec des contraintes sur les variables peut être résolu par les techniques
d'optimisation avec contraintes décrites dans ce chapitre. Les problèmes de
mécanique des structures pour lesquels les jeux et les contacts font partie de la
modélisation sont innombrables mais, pour les techniques de gestion du contact,
on décrit plus souvent la méthode de pénalité ou la méthode des multiplicateurs
de Lagrange sans lien avec l'optimisation et les conditions de Kuhn-Tucker [3].

On reprend ici l'exemple de la poutre cantilever traitée dans le chapitre précédent.


Cette fois-ci, on impose que le déplacement vertical sous la charge soit limité. On
pose le problème d'optimisation suivant :
1
,
X >--
-
4
113
7 Optimisation avec contraintes : notions de base et méthode duale

La variable x 1 représente le déplace-


ment vertical du point chargé, et sa
valeur optimale sans contrainte vaut
-1/3. En imposant que la valeur de x 1
doive être supérieure à -1/4, on sera
amené à activer cette contrainte à la
solution, car la poutre entre en contact Figure 7 .18 Problème de contact
avec la paroi rigide, comme évoqué à la en éléments finis.
figure 7.18.

En réécrivant la contrainte sous la formej~ = x 1 + 1/4 ;::: 0, À étant le multiplicateur


de Lagrange associé à cette contrainte, le lagrangien du problème contraint est
donné par:

Les relations primales-duales sont obtenues en assurant la stationnarité du


lagrangien par rapport aux variables primales x 1 et x 2 :

dL dL
--:'\ = 24x1 -12x2 +2-À=O et -
-:'\
= 8x 2 -12x1 =0
ox1 ox2

En résolvant ces équations, on détermine :


À- 2 Â- 2
X= - - et X= - -
1 6 2 4

En insérant ces expressions dans le lagrangien, on trouve la fonction duale :


"O
0
c _,i2 Â
::J
0 Z(Â)= - - + -
v 12 12
T"-f
0
N
@ Maximiser cette fonction par rapport à À, en s'assurant que ce dernier soit positif,
~
..c donne la valeur optimale du multiplicateur de Lagrange :
Ol
ï::::
>-
a. dl 2Â 1 • 1
0 -=--+-= 0 ~ Â =-
u d 12 12 2

On trouve alors les valeurs optimales des variables primales :

• ,,t,* - 2 1 . X-2 3
X = 6
et X
2
= 4
1
4 8

114
7 .2 Contraintes et domaines convexes

On peut contrôler qu'il s'agit bien de la solution en vérifiant que les conditions
de Kuhn-Tucker (7.11) à (7.14) sont bien satisfaites. La vérification des relations
(7.12) à (7.14) est triviale. Pour la relation (7.11), on a:

dfo , C>fi • • 1
- -/l,- = 24x1 -12x 2 + 2- -= 0 et
dX1 dX1 2

On trace à la figure 7.19 l'allure de la déformée de la poutre, avec ou sans prise


en compte de la contrainte de contact.

0 0,2 0,4 0,6 0,8

-0,1

-0,2 - sans cont rainte


- Avec contrain te
-0,3

-0,4

Figure 7.19 Déformées de la poutre.

7 .8 Références
[1) Kuhn H .W, Tucker A.W. - «Non linear programming », Proceedings of the 2"d Berkeley Symposium,
University of California Press, 1951, p. 481 -492.
[2) Karush W - « Minima of functions of several variables with inequalities as side constraints », MSc
Dissertation, Department of Mathem atics, University of Chicago, Illinois, i 939.
[3] Craveur J.C., Jetteur Ph. - Introduction à la mécanique non linéaire, Dunod, 2011.

115
Optimisation

avec contraintes :
autres méthodes

Les concepts de l'optimisation avec contraintes ayant été établis, on décrit


dans ce chapitre d'autres méthodes pouvant être utilisées pour résoudre
ce type de problème. Leurs avantages et inconvénients sont discutés.

8.1 Méthodes primales


Dans les méthodes duales exposées dans le chapitre précédent, on travaille
sur l'ensemble des variables duales Îl. Ce sont en pratique les multiplicateurs
de Lagrange grâce auxquels on identifie l'ensemble des contraintes actives
à la solution. Une fois cet ensemble connu grâce à la solution du problème
d'optimisation (7.31), les relations primales-duales permettent d'identifier la
valeur des variables primales x. A contrario, on peut bien évidemment mettre en
évidence des méthodes d'optimisation qui travaillent directement dans l'espace
des variables primales x : ce sont les méthodes primales, expliquées ci-après.

"O
c
0 8.2 Méthode du gradient projeté
::J
0
v
T"-f
On traite ici le cas d'une fonction
0
N objectif non linéaire et de contraintes
@
~
linéaires. On discutera ensuite la
..c
Ol généralisation aux contraintes non
ï::::
>-
a. linéaires.
0
u
La figure 8.1 représente un problème
de minimisation à deux variables, avec
contraintes. Le domaine de conception
X1
est pour cet exemple limité par cinq
contraintes linéaires. Les iso-valeurs de Figure 8.1 Minimisation
la fonction objectif, dont le minimum avec contraintes linéaires.
116
8.2 Méthode du gradient projeté

non contraint est représenté par un point blanc, sont dessinées en traits fins.
On désire trouver le minimum de la fonction objectif fo(x) tout en restant à
l'intérieur du domaine admissible délimité par les m contraintes d'inégalité.
r.: optimum contraint est également représenté sur cette figure. En définissant les
contraintes de la manière suivante :
11

fj( x ) = L., cijxi -bj;::::: 0 ,


i= l

le problème d'optimisation traité ici s'écrit :


11

min f 0 (x) avec L.,c9x; ;: : : bj, j = l , ... ,m


X
i=l

Partant de la valeur courante des variables de conception x, s étant la direction de


descente et g le gradient de la fonction objectif au point x, la nouvelle estimation
x+ est classiquement donnée par :

x+ = x +as

Elle doit satisfaire à la relation sTg < O. De plus, il faut que le nouveau point
x+ soit admissible. Les contraintes du problème d'optimisation peuvent être
séparées en contraintes actives (égalités) et contraintes inactives (inégalités) :

.,. . q contraintes actives : c~ x -bj =0


.,... m - q contraintes inactives : c; x -bj > 0
N q = [c 1, ... ,c]
q
= ensemble des gradients des contraintes actives.

Si l'on se trouve sur la contrainte (1), nous avons donc : N q = [cJ

c 1 représente le gradient de la seule


contrainte active (1), comme à la x
figure 8.2. Les contraintes étant
concaves, les gradients sont dirigés
vers l'intérieur du domaine admissible.
Ces gradients sont constants car les
fonctions définissant les contraintes
générales sont linéaires. La première
étape de l'algorithme consiste à déter-
miner une direction de recherche X1
qui permette de minimiser la fonc-
tion objectif tout en restant dans le Figure 8.2 Point de départ
domaine admissible défini par les de l'optimisation.

117
8 Optimisation avec contraintes : autres méthodes

contraintes. En se basant sur les méthodes d'optimisation non contrainte, on sait


qu'une direction de descente possible est celle donnée par la plus grande pente,
c'est-à-dire l'opposé du gradient de la fonction objectif au point courant:
s= -g

Cependant, comme on le voit à la figure 8.3, suivre cette direction nous fait sortir
du domaine admissible. Une idée consiste alors à projeter cette direction sur
l'ensemble des contraintes actives, c'est-à-dire l'ensemble des contraintes sur
lesquelles on se trouve au point courant. On retrouve ainsi une direction de
déplacement dans l'espace de conception sur la frontière du domaine admissible.
On verra dans un paragraphe ultérieur que si toutes les fonctions sont linéaires,
y compris la fonction objectif, on se déplace simplement sur la frontière. Mais,
dans un problème général, on peut quitter les contraintes pour rechercher
l'optimum à l'intérieur du domaine. Dans notre cas, la seule contrainte active est
la contrainte (1) dont le gradient est noté c 1. On a alors :

s = -g + Â.1c1

La nouvelle direction est illustrée à la figure 8.3. Elle nous permet de nous
déplacer sur la frontière du domaine admissible, à la recherche du minimum de
la fonction objectiffo(x).

(1) -g
fo(x) ~ Àc

"O
c
0
Figure 8.3 Direction de recherche admissible.
::J
0
v
T"-f
0
D'une manière générale, lorsqu'on se trouve en un point pour lequel plusieurs
N
@
contraintes sont actives, collectées dans la matrice N q, la direction de recherche
~
..c est donnée par la relation suivante, où Â. est un vecteur :
Ol
ï::::
>-
a.
0
u
s = - g + N qÂ. (8.1)

Comme la direction s impose un déplacement dans l'espace des contraintes


actives, conformément à la figure 8.2 où s est perpendiculaire à c 1, ce qui se
traduit par la relation c11 s = 0, on peut écrire que, d'une manière générale:

(8.2)
118
8.2 Méthode du gradient projeté

La valeur des paramètres À peut être déterminée en utilisant les relations (8.1)
et (8.2) :
1
s=-g + NqÀ => N; s =-N; g +N; NqÀ = O => À = (N;Nq f N; g (8.3)

Connaissant l'ensemble des contraintes actives N q, ainsi que le gradient de la


fonction objectif au point courant g, on peut donc déterminer la valeur des .IL qui
permettent de projeter l'opposé du gradient, c'est-à-dire -g, sur la frontière du
domaine, et de nous fournir ainsi une direction de recherche du minimum de
fo(x) qui soit admissible.

Prenons à présent le cas particulier où


le point courant se situe à l'intersection
des deux contraintes (1) et (2), dans le
cas à deux dimensions de la figure 8.4.

En ce point, les gradients c 1 et c2 des


contraintes actives interviennent dans
le problème. r opposé du gradient -g Figure 8.4 Test sur les multiplicateurs
se projette sur le point sommet qui est de Lagrange.
à l'intersection des deux contraintes
actives, ce qui nous donne une valeur nulle de s car on projette un vecteur sur un
point. Lorsque s = 0, on a :
a1c q af1
s =-g + N qÀ = O => - 0
+ L,.Jlj- = O i= l , ... ,n (8.4)
axi j =l dxi

On retrouve ici la condition de Kuhn-Tucker (7 .11) et les paramètres À sont


assimilés aux multiplicateurs de Lagrange. Vérifier leur signe permet de
déterminer si le point courant (le sommet dans notre cas) est la solution optimale
du problème ou pas. Il vient donc :
.,.. sis= 0 et .IL.;::: 0 (j = 1, .. . ,q) : le point courant est la solution;
J
.,.. sis= 0 et 3.IL, < 0 (r E [l, ... ,q]): le point courant n'est pas la solution.
On regarde donc la valeur des multiplicateurs de Lagrange À quand s = 0, et
plus particulièrement le signe du plus petit d'entre eux. Dans le cas qui nous
intéresse (figure 8.4), la somme des vecteurs reprise ci-dessous, qui correspond
à la condition (7.11) de Kuhn-Tucker, ne peut être nulle que si le signe de Â1 est
négatif:

119
8 Optimisation avec contraintes : autres méthodes

Le point sommet, intersection des contraintes (1) et (2) dans le problème de la


figure 8.4, n'est donc pas la solution du problème. De manière à continuer la
progression sur la frontière du domaine admissible pour se déplacer vers l' opti-
mum qui n'est pas encore atteint, on quitte la contrainte dont le multiplicateur de
Lagrange associé est (le plus) négatif. Dans le cas étudié, on doit donc quitter la
contrainte (1). rensemble Nq qui contenait les deux vecteurs de gradients c 1 et c2
se réduit alors à c2 • On poursuit donc la progression uniquement sur la
contrainte (2). On projette alors l'opposé du gradient au point courant -g sur la
contrainte (2), comme à la figure 8.5. La nouvelle direction de recherche est
maintenant donnée par :

Un autre cas est illustré à la figure 8.6. Ici, le minimum se trouve à l'intérieur
du domaine admissible. Au point noir, le multiplicateur de Lagrange associé à
la contrainte active est en fait négatif. Il faut donc quitter la contrainte (2) pour
se déplacer vers l'optimum. Il en résulte que la direction de recherche donnée
par la formule (8.1) se résume à l'opposé du gradient de la fonction objectif: on
quitte la frontière et on rentre alors dans le domaine admissible à la recherche du
minimum.

Figure 8.6 On rentre


"O
Figure 8.5 On quitte une contrainte. dans le domaine admissible.
0
c
::J
0 Maintenant que la direction de recherche est connue, il convient de déterminer
v
T"-f
0 la distance à parcourir dans cette direction, c'est-à-dire le pas de progression a.
N
@ Deux possibilités abordées ici se présentent quand on progresse le long de la
~
..c direction de recherche : soit déterminer un minimum de la fonction objectif,
Ol
ï::::
>- soit atteindre une nouvelle contrainte dans le cas où le minimum de la fonction
a.
0
u objectif se trouve de l'autre côté de la contrainte.

Quand on se déplace le long de la direction s comme à la figure 8. 7, on peut


rencontrer deux contraintes, (3) et (4), pour lesquelles la condition suivante est
satisfaite :
(8.5)

120
8.2 Méthode du gradient projeté

A contrario, les contraintes qui vérifient la condition ci-dessous ne seront pas


interceptées quand on se déplace selon la direction s :
ST C .
)

De manière à déterminer le pas de progression a. nous amenant sur la contrainte


J
f(x),
)
on considère que cette contrainte devient active :

(8.6)

Ce calcul n'est fait que pour les contraintes non actives pour lesquelles
j = q + 1, .. . ,m, et telles que c.Ts < 0 comme illustré à la figure 8.7. Sur la base
J
de (8.6), on trouve donc la valeur du pas de progression qui nous mène à la
contrainte correspondante :
c x- b
a.=- ; ; (8.7)
J ST C .
J

De l'ensemble des a. ainsi calculés, on retient le plus petit, de manière à ne pas


J
sortir du domaine admissible (figure 8.7).

De cet exemple, il apparaît que le pas de progression que l'on retient dans notre
problème est celui qui nous mène au sommet basé sur les contraintes (2) et (3).
Cependant, on voit à la figure 8.8 que l'optimum du problème se trouve avant ce
sommet, sur la contrainte (2). Ce minimum le long des est déterminé comme si
le problème était non contraint, par une recherche linéaire telle que présentée au
chapitre 5 ou en fin de chapitre 6. On effecture donc une recherche linéaire non
contrainte le long de la direction S, pour déterminer a nc (figure 8.8).

X2

Figure 8.7 Intersection avec Figure 8 .8 Pas de progression


les contraintes dans la directions. non contraint le long des.

De tous les pas de progression calculés, par intersection des contraintes ou par
recherche linéaire non contrainte dans la direction s, on retient le plus petit.
121
8 Optimisation avec contraintes : autres méthodes

L'équation (8.1) revient à considérer que la méthode de la plus grande pente est
utilisée dans l'espace des contraintes actives, comme illustré à la figure 8.9. On
pourrait très bien utiliser dans cet espace la méthode des gradients conjugués,
voire la méthode de Newton. On a alors la méthode des gradients conjugués
projetés ou la méthode de Newton projetée. À la figure 8.9, on regarde les iso-
valeurs de la fonction objectif à minimiser dans la contrainte active qui est un
plan porté par les axes x 1, x2 et x 3, et on compare la progression vers l'optimum
avec la méthode des gradients conjugués et la méthode de la plus grande pente.
Expliquer les équations associées à ces méthodes sort du cadre de ce livre.
Lorsque l'ensemble des contraintes actives change, la méthode des gradients
conjugués est réinitialisée, et on redémarre avec la plus grande pente.

Gradients conjugués dans Plus grande pente dans l'espace


l'espace des contraintes actives des contraintes actives

Figure 8.9 Méthode des gradients conjugués projetés.

L'algorithme du gradient projeté peut être utilisé quand le problème d' optimi-
sation ne contient que des contraintes de borne et s'écrit :
min f 0 (x )
X
"O
0
c
::J xi >
- ximin' l·-1
- ,. . ., n
0
v -X; ;;::-ximax> i= l , ...,n
T"-f
0
N
@
~
Dans ce cas, les gradients c.J des contraintes sont triviaux car ils comportent
..c
Ol une seule composante non nulle et égale à 1. On trouve donc ici une méthode
ï::::
>-
a. qui permet de résoudre le problème dual (7.31). En effet, on peut remplacer le
0
u problème (7.31) par :

m1n(-l (À)) avec Âj ;;:: o j= l ,. ..,m

On travaille alors avec l'algorithme du gradient projeté dans l'espace dual. En


pratique, la méthode des gradients conjugués projetés est utilisée, car elle s'avère
être plus efficace (figure 8.9).
122
8.2 Méthode du gradient projeté

La méthode peut être adaptée au cas des contraintes non linéaires. La projec-
tion peut cependant poser certains problèmes (figure 8.10) et il convient de
mettre au point une stratégie robuste. En pratique, on peut linéariser les
contraintes non linéaires et résoudre le
problème de départ comme une suite
de problèmes d'optimisation à con-
traintes linéaires. Lorsque la fonction
objectif est également linéarisée, on se
Projection i
1
1
1

retrouve alors avec un problème ne


contenant que des fonctions linéaires.
Ce cas particulier, qui peut être résolu
à l'aide d'une méthode spécialisée,
Figure 8.10 Méthode des gradients
sera abordé par la suite. projetés avec contraintes non linéaires.

8.3 Méthode de pénalité intérieure


Une autre manière de traiter les problèmes d'optimisation avec contraintes
consiste à atteindre leur solution en construisant une suite de problèmes non
contraints que l'on résout de manière séquentielle. Ce type d'approche porte le
nom de SUMT en anglais (Sequential Unconstrained Minimization Technique),
dont l'organigramme est donné sur la figure 8.11, le paramètre k représentant le
numéro du problème approché sans contrainte.

Problème initial avec contraintes.


=
k 0 et r r<ü)=

Construction du problème approché


sans contraintes avec rCk)

k = k+l Solution du problème approché


r<k) = yr<k·I) (y<l) sans contraintes avec y(_k)

Fin

Figure 8.11 Principe des méthodes SUMT.


123
8 Optimisation avec contraintes : autres méthodes

Ici, on considère le problème d'optimisation suivant :

min f 0 (x)
X

f/x ) ~ o j=l, ...,m

Par exemple, ce problème initial peut être remplacé par le suivant, où r est un
coefficient de pénalité :
r
min lj/(x,r)= f 0 (x)+
x
:L--
m

fj( X)
j=I
(8.8)

En pratique, on construit le problème d'optimisation sans contrainte (8.8)


pour une valeur donnée de r et on le résout. Une fois la solution trouvée, on
reconstruit un nouveau problème (8.8) pour une valeur plus petite de r, que
l'on résout en prenant comme point de départ le minimum du problème
précédent. Le processus se poursuit jusqu'à convergence du problème contraint.
En minimisant la fonction lfl(x, r), on
f==:> Domaine admissible x > 4
minimise la fonction objectif fo(x) et
18
l'inverse des contraintes /;(x). Le fait
J 16
d'utiliser l'inverse de la contrainte crée 14

une barrière au niveau de la frontière 12


du domaine admissible, empêchant les 10
violations de contraintes. Au cours des s
6
itérations, la valeur de r diminuant, on
pénalise plus fortement le fait que les .f~(x)

contraintes non violées ne soient pas


satisfaites comme des égalités. Cet effet X

"O
est illustré à la figure 8.12, où on résout Figure 8.12 Méthode de la pénalité
0
c
::J
le problème suivant : intérieure, exemple 1 D.
0
v X r
T"-f . X
0 mm- avec x~ 4 => min lj/(x ,r) = - + - -
N
X 2 x 2 x- 4
@
~
..c
Ol La fonction lj/ est construite pour différentes valeurs de la pénalité r, chaque
ï::::
>-
a. minimum est représenté par un point noir. Lorsque r diminue, la valeur de x
0
u trouvée comme minimum de la fonction lj/ tend vers la valeur optimale du
problème d'optimisation contraint de départ, représentée par le carré noir.

À la figure 8.13, la méthode est appliquée à un problème à deux variables. Il a été


résolu par la méthode duale dans le chapitre précédent. La fonction lj/devient de
plus en plus mal conditionnée quand r tend vers O. La recherche du minimum
devient de plus en plus difficile au fil des itérations à cause de l'excentricité
124
8.2 Méthode du gradient projeté

croissante de la fonction 1.f1. On voit que le minimum du problème non contraint


avec pénalité intérieure se rapproche de plus en plus de la solution du problème
r
contraint de départ. intérêt de la méthode de pénalité intérieure est de fournir
des solutions intermédiaires qui sont admissibles, car on attaque le problème
par l'intérieur du domaine admissible. I.:inconvénient majeur est le mauvais
conditionnement de la fonction vrlorsque r tend vers zéro: les iso-valeurs de V'
sont de plus en plus serrées au fil des itérations.

--- ' ,,
-,_-,

.... ..... ...

X1 X1 X1

Problème de départ Problème approché 1 Problème approché 2

Figure 8.13 Méthode de la pénalité intérieure, exemple 2D.

Le minimum des problèmes non contraints successifs devient de plus en plus


difficile à obtenir. De plus, comme on le voit sur les figures 8.12 et 8.13, la
fonction (8.8) n'est définie qu'à l'intérieur du domaine admissible: la recherche
linéaire peut être prise en défaut car la fonction n'existe pas à l'extérieur du
domaine admissible. Des formulations permettant d'étendre la fonction à vr
l'extérieur du domaine admissible existent cependant.

8.4 Méthode de pénalité extérieure


Dans ce cas, on considère le problème d'optimisation suivant, soumis à un
ensemble de contraintes d'égalité :
minf0 (x)
X
(8.9)
h/x)=O j = l, ...,m
Le problème approché s'écrit sous la forme suivante :

(8.10)

Comme pour la méthode de la pénalité intérieure, on construit une suite de


problèmes d'optimisation sans contraintes via la fonction vr
pour différentes
valeurs de r. Pour chaque configuration successive, on recherche le minimum,
125
8 Optimisation avec contraintes : autres méthodes

qui devient le point de départ du problème approché suivant. Minimiser la


fonction lfl(.x, r) revient dans ce cas à minimiser la fonction objectif fo(x) et à
satisfaire comme des égalités les contraintes h(x). Si les valeurs intermédiaires
J
des h(x) sont non nulles, le second terme de (8.10) est non nul et influence donc
J
le problème. Comme r diminue au cours des configurations successives, il
devient de plus en plus cher de violer les contraintes d'égalité ; comme on
minimise la fonction (8.10), le terme associé aux contraintes devient de plus en
plus grand si les violations subsistent et la minimisation portera alors
naturellement sur lui, diminuant de ce fait les violations.
On voit sur les figures 8.14
et 8.15 l'application de cette
18 :c:::::::::> Domaine admissible x > 4
16
méthode. On constate que la
14
solution du problème contraint
12 r =0.15
de départ est approchée par
10
l'extérieur du domaine admis-
sible, la méthode générant
ainsi des solutions intermé-
diaires non admissibles. De
plus, comme pour la méthode
de la pénalité intérieure, on 2.5 3.5 4.5

observe que les iso-valeurs Figure 8.14 Méthode de la pénalité


de la fonction lfl se resserrent extérieure, exemple 1D.
quand r tend vers zéro, ce qui
déconditionne le problème et rend la recherche de l'optimum de plus en plus
difficile. On peut appliquer la méthode au cas des contraintes d'inégalité, par
exemple f(x) ;:::: O. Dans ce cas, la fonction lflpeut prendre l'expression suivante,
J
"O
la pénalité n'intervenant alors dans le problème que si des contraintes d'inégalité
0
c
::J
sont violées :
0 1 m 2
v
T"-f
0
m}n lfl(x ,r) = f 0 (x ) +- L:( min( O,hj(x))) (8.11)
N r j=I
@
~
..c
Ol
ï::::
>-
a.
0
u .... . .
X1

Problème de départ Problème approché 1 Problème approché 2

Figure 8.15 Méthode de la pénalité extérieure, exemple 20.


126
8.2 Méthode du gradient projeté

8.5 Méthodes primales-duales

8.5.1 Méthode du lagrangien augmenté


Comme on l'a vu précédemment, les méthodes de pénalité permettent de trouver
la solution d'un problème contraint en remplaçant la recherche de sa solution
par la résolution d'une suite de problèmes non contraints approchés dans
lesquels une pénalité sur les contraintes apparaît. Cependant, lorsque la valeur
du coefficient de pénalité r tend vers zéro, ce qui est nécessaire pour atteindre
la solution du problème contraint, la fonction approchée à minimiser devient
de plus en plus difficile à minimiser car son conditionnement se détériore. La
méthode du lagrangien augmenté permet d'éviter cet écueil. Considérons le
problème (8.9) pour lequel on peut construire le lagrangien:
m
L(x, Â.) = f 0 (x) - L Â-jh/x)
j =l

On sait que la solution de ce problème doit satisfaire aux conditions de Kuhn-


Tucker (7.23) et (7.24), à savoir la stationnarité du lagrangien par rapport aux
variables x et Â. :

V xL(x, Â. ) = 0 et VÀL(x, Â.) = 0 (8.12)

La première de ces conditions revient à minimiser le lagrangien par rapport aux


variables primales x. La seconde consiste à satisfaire aux contraintes h.(x) comme
J
des égalités. On a donc le problème d'optimisation suivant :
m
minL(x, Â.) = minf0 (x) - ~ Xh.(x)
X X ~ ) )
j =l

h/x) = O j = l, ... ,m

On peut résoudre ce problème en utilisant la méthode de la pénalité extérieure.


On obt ient alors la fonction suivante à minimiser par rapport aux variables x
pour différentes valeurs successives de r :
m 1 m 2

minLa(x,
X
Â.,r) = mX
inf0
(x) - ~ Xh
~ ) )
.(x)+ - ~
r~ )
(h . (x)) (8.13)
j=I j=I

où La est appelé le lagrangien augmenté (d' une pénalité sur les contraintes). On
construit le lagrangien augmenté pour une valeur de r donnée et des valeurs
de variables duales Â.) données. On recherche les valeurs de x qui minimisent

127
8 Optimisation avec contraintes : autres méthodes

cette fonction. On remet à jour les valeurs des À. et on diminue la valeur de r.


J
On construit une nouvelle fonction La que l'on minimise par rapport à x. Ce
processus se poursuit jusqu'à convergence (figure 8.16). Comme aussi bien
les variables x que les coefficients À sont remis à jour dans la solution du
problème, on parle alors de méthode primale-duale. Il apparaît que dans le cas
du lagrangien augmenté, en raison de l'utilisation du lagrangien plutôt que de la
fonction objectiffo(x) seule (en plus des contraintes avec pénalité), la valeur der
ne doit pas tendre vers zéro mais peut rester constante alors qu'on construit de
nouveaux problèmes approchés basés sur La. Cela permet d'éviter de travailler
avec des fonctions La mal conditionnées, comme c'était le cas avec les méthodes
de pénalité des sections précédentes.

Problème initial avec contraintes.


k = 0 , r = -,{O) et ,1,.j = ,1,.(0)
j

Construction du lagrangien
au 0b menté avec y(k) et Â.,(k)
j

n
Solution du problème approché;
y(k) = r mm. valeurs de x<k)*

k = k+ l Mise à jour des valeurs de Â.


1-k) = rr<k-1 )
Cr< l )
n
"O
0
c
::J
0
v
T"-f
0 Fin
N
@
~
..c Figure 8.16 Méthode du lagrangien augmenté .
Ol
ï::::
>-
a.
0
u Les valeurs successives des variables duales Il.sont remises à jour en considérant
J
que, à la solution qui est la même quelle que soit la méthode utilisée, la
stationnarité du lagrangien ainsi que celle du lagrangien augmenté doivent être
satisfaites, soit :

128
8.2 Méthode du gradient projeté

On obtient donc :

En comparant les termes, on obtient une formule de remise à jour donnée par :

Â,11ew =À,._ 2h. (8.14)


' ' r '
La nouvelle valeur des variables duales peut donc être calculée puisqu'on connaît
la valeur courante des À., de la pénalité r et des contraintes h.(x).
J J

La méthode peut être appliquée au cas des contraintes d'inégalité. Dans ce cas,
les variables duales, qui sont les multiplicateurs de Lagrange, ne peuvent pas
être négatives. Si la remise à jour (8.14) donne une valeur négative, cette valeur
devient alors égale à zéro. En mécanique des structures, pour la gestion par
multiplicateurs de Lagrange des contraintes linéaires entre degrés de liberté ou
du contact, on utilise le lagrangien augmenté sans l'expliquer dans le cadre de
l'optimisation [1,2]. On y insiste sur le fait qu'un avantage du lagrangien augmenté
est la possibilité de recourir à des techniques d'inversion avec pivotage. Un autre
avantage est que le facteur de régularisation r, appelé également « pénalité», n'a
pas d'influence sur la position d'équilibre respectant les contraintes mais une
influence sur la vitesse de convergence et le nombre d'itérations nécessaire pour
déterminer l'équilibre.

8.5.2 Méthode SQP


Pour expliquer cette méthode, on repart du problème (8.9). Les conditions
d'optimalité sont données par les relations (8.12). Ils' agit là d'un système d' équa-
tions, généralement non linéaire, à n+m équations et n+m inconnues (8.12). Ce
système d'équations peut être résolu, de manière itérative, par la méthode de
Newton ou par des méthodes qui en sont dérivées. On linéarise alors les équa-
tions (8.12) au point courant (x<kl, J..<kl), et on recherche la solution du système
d'équations linéaires correspondant. La solution devient le point autour duquel
une nouvelle approximation linéaire des équations est réalisée, et ainsi de suite
jusqu'à la convergence.

G(x <kl , À (kl ) -N(x<kl )][ x - x <kl) = [-V


/ 0
(x <kl + N (x <kl )Â (kl )J (8.15)
[ -N(x <kl) 0 Â - Â <kl h (x (kl)

129
8 Optimisation avec contraintes : autres méthodes

Dans (8.15), Gest le hessien de la fonction lagrangienne et N est la matrice des


dérivées premières des contraintes, calculées au point courant (x<k), Â}k) ). Les
conditions d'optimalité du problème d'optimisation avec contraintes (8.15) sont
les mêmes que celles du problème d'optimisation (8.16). Résoudre l'un de ces
deux problèmes fournit donc la même solution.

min_!_ôr G(x<kl ,Â_<kl)ô +ôrv+ (x<k))


a 2 Jo
N T(x<k))ô + h(x<kl) = 0 (8.16)
ô = x-x<k)

On peut donc résoudre le problème (8.9) en générant une séquence de problèmes


de type (8.16) et en les résolvant. Le problème (8.16) comprend une fonction
quadratique et des contraintes linéarisées, c'est-à-dire remplacées par leur
approximation en série de Taylor du premier ordre. C'est pourquoi cette méthode
s'appelle Sequential Quadratic Programming (« programme d'approximations
quadratiques»). On génère donc le problème (8.16) autour du point courant
(x<k>, Â,,tkl), et on en recherche l'optimum. La solution devient le point autour
duquel un nouveau problème (8.16) est généré et résolu et ainsi de suite jusqu'à
la convergence.

8.5.3 Méthode SLP


En se basant sur la formulation du SQP, on pourrait aller plus loin et considérer
que non seulement les contraintes sont linéarisées, mais également la fonction
objectif. On remplace donc toutes les fonctions du problème par leur
approximation linéaire, c'est-à-dire par un développement en série de Taylor
"O
d'ordre 1. On obtient alors un problème de type Sequential Linear Programming
0
c ( « programme d'approximations linéaires »). Un problème ainsi linéarisé peut
::J
0 être résolu avec un algorithme particulier appelé l'algorithme du simplexe.
v
T"-f
0
N À titre d'exemple, soit le treillis présenté sur la figure 8.17, constitué de deux
@
~
barres en acier, soumis à une charge
..c
Ol F de direction donnée. Les points A L
ï::::
>-
a.
0
et C sont encastrés. Les variables de c
u
conception sont l'angle formé par les
deux membrures et la section de cha- p
cune des membrures. On veut déter- A
miner le treillis de masse minimale
pour lequel les deux barres sont sou- Figure 8.17 Exemple d'un treillis
mises à la même tension a (en valeur à deux barres.

130
8.2 Méthode du gradient projeté

absolue). Si les variables de conception sont les sections des barres, la fonction
objectifs' écrit :

L
avec L2 = - -1 -
cos a
C'est une fonction linéaire des sections, non linéaire de l'angle. Si les variables
sont les rayons des sections supposées circulaires, on a :

La fonction objectif n'est pas une fonction linéaire des rayons, ni de l'angle.
La méthode du simplexe a été développée pour des problèmes d'optimisation
dans lesquels la fonction objectif et les contraintes générales doivent être des
fonctions linéaires des variables de conception. Ce n'est pas le cas en mécanique
des structures, l'exemple simple ci-dessus le montrant dans un cas particulier. La
méthode du simplexe a été employée en optimisation de structures car on peut
toujours utiliser des techniques de linéarisation pour linéariser un problème
qui n'est pas linéaire et résoudre itérativement. Mais la méthode est par nature
inappropriée à la résolution de problèmes d'optimisation en mécanique
des structures et ses performances sont plutôt mauvaises pour ce domaine
d'application. Tout dépend en fait de ce que l'on cherche. Comme il existe des
ressemblances avec certains aspects abordés précédemment, une partie de ce
chapitre lui est consacrée.

8.6 Méthode du simplexe

8.6.1 Présentation de la méthode


On se place ici dans un cas particulier : les variables sont réelles, l'objectif et les
contraintes sont des fonctions linéaires de ces variables. Le problème n'a pas été
linéarisé au voisinage du point courant, le problème est linéaire. L'optimum du
problème se situe alors sur la frontière du domaine admissible. On peut donc
partir d'un point quelconque intérieur au domaine admissible, traverser ce
domaine jusqu'à venir en butée sur la frontière et la suivre jusqu'au minimum.
On peut également se positionner sur la frontière, et la suivre jusqu'au minimum,
ce qui est d'autant plus facile que la frontière est par hypothèse constituée de
segments de droite. C'est la technique utilisée dans la méthode du simplexe.
Elle a été développée en Angleterre par Dantzig pendant la Seconde Guerre

131
8 Optimisation avec contraintes : autres méthodes

mondiale et n'a été publiée qu'en 1947. Parfaitement adaptée à la résolution


de nombreux problèmes industriels, elle a dû son essor au développement
des outils informatiques et elle est très largement utilisée aujourd'hui dans
différents secteurs comme la logistique, la gestion de production ... Bien que
les variables puissent être continues, on recherche souvent des solutions pour
lesquelles les variables ont des valeurs entières. Les méthodes de résolution
ayant beaucoup évolué depuis les années 1950, diverses classifications ont été
proposées. La méthode du simplexe fait aujourd'hui partie des méthodes dites
de« Programmation Linéaire Séquentielle» (SLP).

La résolution d'un problème à deux variables est intéressante pour illustrer la


méthode du simplexe puisqu'il est aisé de représenter graphiquement le processus
de détermination de l'optimum. Dans le paragraphe 8.6.2, on mettra en place
pour le même exemple le processus de résolution matricielle. Pour expliquer la
méthode, on propose l'exemple suivant.

On fabrique deux produits à partir de trois matériaux de base notés 1, 2 et 3. Le


stock de matériau 1 est limité à 8 (m 1 $ 8), à 7 pour le matériau 2 (m 2 $ 7) et à 3
pour le matériau 3 (m3 $ 3). Pour fabriquer le premier produit, il faut deux doses
de matériau 1 et une dose de matériau 2. Pour fabriquer le second produit, il faut
une dose de matériau 1, deux doses de matériau 2 et une dose de matériau 3. Le
profit est de 4 sur le premier produit, de 5 sur le second. On souhaite déterminer
quelles quantités de chaque produit il faut fabriquer pour maximiser le profit.
Les variables apparaissent explicitement dans l'expression de l'objectif. Ici, il
s'agit des quantités fabriquées pour les deux produits, que l'on note x 1 et x 2 • Le
gain étant de 4 pour chaque produit de type 1 et de 5 pour chaque produit de
type 2, l'objectif est donc de maximiser la fonction :
"O
0
c
::J
0
v
T"-f
Les variables étant définies, on voit que l'inégalité m 1 $ 8 n'est pas une contrainte
0
N de borne car elle ne porte pas sur une variable. Pour ce problème, les contraintes
@ de borne sont implicites. En effet, il n'y a pas de borne maximale sur la quantité
~
..c
Ol de produits fabriqués et la borne minimale est naturellement O. Les variables et
ï::::
>-
a. leurs bornes étant définies, le reste de l'énoncé traduit les contraintes délimitant
0
u l'espace admissible. Chaque fois que l'on fabrique une pièce de type l, on
consomme deux unités de matériau 1. Chaque fois que l'on fabrique une pièce
de type 2, on consomme une unité de matériau 1. Et on ne peut pas consommer
plus que ce qui est disponible :

132
8.2 Méthode du gradient projeté

Le problème à résoudre comporte donc deux variables, trois contraintes générales


et deux contraintes de borne qui sont en fait des restrictions implicites sur les
variables. Il s'écrit :
maximiser 4x, + 5x 2
x, et x 2 ~ 0
2x, + x 2 s8 stock de m,
x, + 2x 2 s7 stock de m2
x2 s3 stock de m 3

Le domaine admissible est à l'intérieur du polygone, frontière comprise, représenté


sur la figure 8.18, obtenu à partir des droites définissant toutes les contraintes du
problème. Pour trouver la solution optimale et le profit associé, il suffit de tracer
un ensemble de droites parallèles d'équation 4x1 + 5x2 = Cet de chercher l'inter-
section entre le polygone et la droite pour laquelle le profit est maximal. On trouve
x 1 = 3 et x2 = 2. La solution est ici un sommet du polygone, les deux variables ont
une valeur entière. Selon les cas, la
solution optimale peut être tout un
segment de droite (une contrainte est
« parallèle » aux iso-valeurs de la
fonction objectif), ou un point de coor-
données non entières. Si elles doivent
être entières, il faut alors déterminer le
meilleur point acceptable, sachant que 2 3 4
ce n'est pas l'optimum mathématique
Figure 8.18 Domaine admissible
en variables continues.
restreint et solution optimale.

8.6.2 Principe de résolution itérative, n variables


On sait que l'optimum est dans le cas général un des sommets du polygone (deux
variables) ou un des sommets du polyèdre (n variables) . Un sommet est le point
de concours d'au moins deux arêtes (pour le cas de deux variables). Dans le cas
où le problème comporte de nombreuses variables et de nombreuses contraintes,
parcourir tous les chemins possibles pour chercher tous les sommets du polyèdre
et y évaluer la fonction objectif, puis en déduire l'optimum est illusoire. La
méthode du simplexe permet, à partir d'un sommet quelconque, de parcourir le
chemin conduisant à l'optimum, tout en restant sur les arêtes.
On part donc d'un sommet, en général le point dont toutes les coordonnées
sont nulles. Il faut vérifier que ce point est admissible, c'est-à-dire qu'il satisfait
aux contraintes. Si ce n'est pas le cas, il faut trouver un sommet pour démarrer
le processus. Plusieurs arêtes en partent. On cherche laquelle il faut suivre pour
133
8 Optimisation avec contraintes : autres méthodes

augmenter le plus rapidement la fonction objectif, car ici on traite un problème


de maximisation, autrement dit sur quelle variable il faut jouer. C'est celle dont
le coefficient dans l'expression de l'objectif a la valeur la plus importante. On
cherche ensuite l'intersection de cette arête avec les autres. Parmi toutes les
intersections, une seule correspond à une solution réalisable, c'est-à-dire vérifiant
toutes les contraintes. On itère à partir de ce point jusqu'à arriver à l'optimum.
En un point, on peut envisager deux possibilités. La fonction objectif augmente
quand on augmente au moins la valeur d'une variable ou elle diminue quelle que
soit la variable qui subit une augmentation. Dans le premier cas, on se déplace
sur la frontière pour laquelle la variation de la fonction objectif est maximale.
Dans le second cas, le processus s'arrête car le sommet courant est l'optimum.
En résumé, tant que tous les coefficients apparaissant dans l'expression courante
de la fonction objectif ne sont pas négatifs, on continue à se déplacer sur la
frontière. On va réutiliser l'exemple à deux variables précédent pour expliquer la
méthode matricielle de résolution, qui est la seule utilisée dans l'industrie.
La forme canonique du problème d'optimisation s'écrit, A étant une matrice
généralement rectangulaire, b, c et x des vecteurs, z un scalaire :
Ax :::; b
{ cx =z

On cherche à maximiser z, qui est la fonction objectif du problème, toutes les


variables contenues dans le vecteur x étant positives ou nulles. Les contraintes
sont des inéquations, que l'on ne sait pas traiter car les relations d'ordre ne sont
établies que pour des scalaires. En introduisant des variables auxiliaires, on
remplace la forme précédente par la forme standard associée qui s'écrit :

"Cl
Ai = b
c
0
::::i
{ cx =z
0

"""
..-1
0
.Â. est une matrice carrée, i est une par-
N x 5 =0
@
tie du vecteurx, les contraintes d'inéga-

..c lité ont été transformées en contraintes
Ol
·;::
>-
d'égalité. En reprenant l'exemple pré- 2
a.
0 cédent, la première inéquation de la
u
forme canonique s'écrit : 2x1 + lx2 :::;; 8.
On introduit la variable x3' positive ou
nulle, qui représente l'écart entre la
2 3 4
contrainte et l'état courant :
Figure 8.19 Représentation
graphique de la forme standard.
134
8.2 Méthode du gradient projeté

En procédant de la même façon pour les autres inégalités, on écrit le problème


sous sa nouvelle forme et on peut le représenter comme sur la figure 8.19 :

max(4x, + Sx2 )
x 1 et x2 2 0 XI' X 2 , X 3 , X 4 , X 5 2 Ü

2x, +x2 ~ 8 2x1 + x 2 +x3 =8


x 1 + 2x2 ~7 X 1 + 2x2 + X4 =7
x2 ~ 3 x2 + x 5 = 3

Sous forme matricielle, la forme standard du problème comporte cinq variables


(n) et trois contraintes générales (m) . Les contraintes de borne sont implicites,
toutes les variables doivent être positives ou nulles. Le problème s'écrit :

La matrice .Â. est rectangulaire. Une base B en est une sous-matrice carrée
et inversible de dimension m. Une solution de base est obtenue en mettant
arbitrairement n - m variables à 0 et en résolvant le système de dimension m
restant. Ces m variables sont appelées variables de base xb, les autres variables
hors base xe. Le vecteur contenant les variables de base xb doit être réalisable,
c'est-à-dire que toutes ses composantes doivent être positives ou nulles. Dans ce
cas particulier, on choisit x 1 = x2 = O. Certains choix de variables peuvent ne pas
être satisfaisants. Dans le cas général, la forme standard s'écrit en réorganisant
l'ordre des variables :

A=[B EJ X= [ : : ] b=[: :]

Ax = h Bxb + Exe = b
{ CX - Z { cbx b + cex e = z

Bxb + Exe = b
{ cbxb + cexe = z Bx b = h

135
8 Optimisation avec contraintes : autres méthodes

Pour savoir si on a atteint ou non l'optimum, on calcule les coefficients de la


fonction objectif en fonction des variables hors base. Si tous les coûts sont
négatifs, toute augmentation d'une variable hors base diminuera la valeur de la
fonction objectif z donc la base est optimale pour le processus de maximisation.
L'évaluation du coût des variables est le test d'optimalité.

Si la base n'est pas optimale, on recherche une nouvelle base réalisable parmi les
bases adjacentes. Deux bases réalisables sont adjacentes si elles ont en
commun m - 1 variables. On effectue toutes les combinaisons possibles pour
trouver la ou les bases adjacentes en mettant chaque variable de la base précé-
dente hors base. On calcule la fonction objectif pour chaque base adjacente réa-
lisable et on voit si elle est maximale. Si elle ne l'est pas, on répète le processus
jusqu'à l'obtention de l'optimum. Cela revient à se déplacer sur une frontière et
à chercher son intersection avec les autres, puis à déterminer le « bon change-
ment d'arête » pour poursuivre la x2
recherche de l'optimum s'il n'est pas
atteint. On trouvera une certaine simi-
larité entre divers aspects décrits ci-
dessus et la technique des gradients
projetés abordée dans le chapitre sui-
vant. Mais, dans la méthode du sim-
plexe, on n'effectue pas de recherche
linéaire dans la direction de la progres-
"O
c
0 sion car on sait que l'optimum est sur
::J
0 un sommet et jamais sur l'arête reliant Figure 8.20 Gradient conjugué
v
T"-f
0
deux sommets (figure 8.20). et recherche dans une direction.
N
@
~ Dans les notations, on a toujours les mêmes lettres mais l'information contenue
..c
Ol
ï:::: dans les matrices B, E, et les vecteurs xb' xe, cbet cechange à chaque itération. Le
>-
a.
0
système linéaire doit être reconstruit et il faut évaluer l'inverse de la nouvelle
u
matrice B. Malgré ses restrictions d'utilisation, la méthode du simplexe n'est
pas une méthode d'optimisation obsolète. Elle est encore non seulement très
utilisée, mais elle est parfaitement adaptée à de nombreux problèmes industriels.

136
8.2 Méthode du gradient projeté

8.7 Exemples

8.7.1 Exemple de solution par gradient projeté


On souhaite résoudre le problème 2 ~~~---=---~"""'=---.~~,

1.8·
illustré à la figure 8.21. Il s'agit en fait 1.6-
d'un problème séparable, quasi non 1.4 ·

contraint: 1.2

X2 1
0.8

0.6·

0.4·

0.2-
avec x 1 2:: l , 5 et x2 2:: 0 0 ~~~----==,,,___._"'""""=----.~~-----
0
X1

On écrit dans un premier temps Figure 8.21 Problème à résoudre


l'ensemble des contraintes selon le par la méthode du gradient projeté.
formalisme de la section 8.7, dans
lequel les vecteurs c de gradient des contraintes sont utilisés :

Comme illustré à la figure 8.21, le point de départ se situe en (2; 0). En ce point,
seule la contrainte x')- ;2;: 0 est active, donc x 2 = O. La matrice Nq qui collecte les
gradients des contraintes actives se déduit de l'écriture reprise plus haut, et il
vient:

(0 1) ( ::)- 0 =0

Le gradient de la fonction objectif en ce point est, quant à lui, donné par :

Üfo

g=
ax,
Üfo
dX1

Sur la base de ces informations, on peut calculer la valeur de À en se servant de

r 1)(
l'équation (8.3) :

 =(N:·N,t N;g=((o 1)(~) (o ~I) = -t, =-1


137
8 Optimisation avec contraintes : autres méthodes

La direction de recherche projetée sur la frontière du domaine, à l'itération l, est


donnée par:

À partir du point de départ, on se dirige donc horizontalement vers la gauche


(figure 8.22). Dans cette direction, on doit rechercher le pas de progression
qui nous mène éventuellement sur une contrainte. La contrainte que l'on peut
rencontrer sur notre chemin est x 1 ~ 1,5. En effet, la condition (8.5) est vérifiée:

s(I>' c, =(- 1 0 J(~) =- 1 < 0


Le pas de progression qui nous mène sur cette contrainte est calculé par (8.7) :

(1 o) ( 2) - 1,5
cx - b 0
a<o =- i i = =o 5
sr c1 (-1 0) (~) ,

On laisse le soin au lecteur de déterminer que le pas de progression non contraint,


c'est-à-dire celui qui nous mène sur le minimum le long de la direction s<1>
sans prendre en compte les contraintes, prend une valeur unitaire. Des deux
pas calculés, on retient le plus petit. La nouvelle estimation des variables de
conception est donnée par :

x (') = x (
1
l +a1 1 1
l8( l = ( ~ )+o,s( ~) = (1~5 )
"O
c
0 En ce point, les deux contraintes du problème sont actives. La matrice N q est
::J
0
v
T"-f
0
N
donc donnée par :
T
N1,2 = 0 1
[l Û]
@
~
..c
Ol Le gradient de la fonction objectif au nouveau point vaut gr= (0,5 ; -1). On
ï::::
>-
a. peut alors utiliser (8.3) pour déterminer la nouvelle direction de recherche. On
0
u obtient:

À = ( N ri,2 N i,2 )-1 Nri,2 g =(Â,') ( 0,5]


2 2 = - 1 s ('l = - g +N, = ( ~J
Puisque s = 0, on peut vérifier le signe des À, qui sont donc les multiplicateurs
de Lagrange. On constate que /L2 < 0 et la contrainte n° 2 doit donc être quittée.
138
8.2 Méthode du gradient projeté

Seule la contrainte n° 1 reste dans l'ensemble des contraintes actives et il vient


que N / = (1 ; 0). Les valeurs de Â. et s sont calculées selon:

). = (N~Nr N~ g =((1 o)(~) r (1 o)(~n = 2 = 0,5 1

s<" =-g+ N, ). = -(~~)+(~ )xo,s= (~)


On voit donc que le minimum est maintenant recherché le long de la direction
verticale qui correspond à la contrainte n°1. Dans cette direction, aucune
contrainte n'est croisée et on doit donc simplement calculer le pas de progression
non contraint. On trouve que d 2l = 1. Le nouveau point est donc donné par :

x (3) = x (2) + a (2) s (2) = (1,5) (0) = (1,5)


0
+l
1 1

Au nouveau point, on peut montrer que A1 = 0,5 > 0 et que s = O. Il s'agit donc de
la solution du problème. On voit à la figure 8.22 le chemin parcouru par le point
courant au cours du processus d'optimisation.
2 2
1.8· 18
1.6 ·
1.4 . 0.1 0.1

0 0
1.2
X2 1 X2 1
0.8 08i 1
0.6 · 0.6[
0 .4-
0.4f
0 .2 · 0.2
0 0
0 0.5 1.5 2 0 0 .5 1.5 2
x, x,
Figure 8.22 Gradient projeté.

Le lecteur pourra vérifier que si la contrainte n° 1 est donnée par x 1 ;::: 0,5,
l'algorithme nous mène au point (1 , O) puis quitte la contrainte pour rentrer
dans le domaine admissible à la recherche de la solution qui correspondra au
minimum non contraint.

8. 7.2 Exemples de solution par lagrangien augmenté


On peut reprendre la problématique exposée dans le chapitre 6 sur les ballons
gonflables. Comme précédemment, on considère que l'énergie potentielle totale
139
8 Optimisation avec contraintes : autres méthodes

doit être minimisée par rapport aux déplacements. On ajoute cependant des
contraintes sur ces degrés de liberté. On recherche l'état d'équilibre du ballon
gonflé pour chaque état de pression croissante notée P. Les variables du problème
sont les degrés de liberté q représentant la position de chaque nœud du maillage
éléments finis. Le problème de conception peut alors s'écrire :

f/ q)::; 0 j = 1, .. .,m
(8.17)
hk(q ) = 0 k = 1,. .. ,p

nPreprésente l'énergie potentielle totale de la structure pour une pression donnée


P qui est augmentée de manière incrémentale. On détermine les états d'équilibre
successifs en résolvant le problème précédent pour les valeurs croissantes de P.
nP est une fonction a priori non quadratique.~ et hk représentent les différentes
relations imposées sur certains des degrés de liberté dans le code éléments finis
qui permettent de satisfaire à des conditions de contact ou de corps rigide. Pour
résoudre un tel problème, utiliser une méthode de Newton [2] pour la résolution
de systèmes d'équations non linéaires associés n'est pas toujours efficace [3] car
la matrice tangente peut ne pas être bien conditionnée ni définie positive. On
préfère alors utiliser une approche basée sur l'optimisation, dans notre cas un
lagrangien augmenté. Chaque sous-problème non contraint est résolu par un
gradient conjugué ne faisant intervenir que les dérivées premières de la fonction
objectif et non ses dérivées secondes. On résout donc un problème de mécanique
non linéaire par une méthode d'optimisation.
À la figure 8.23, on étudie une membrane carrée soumise à une pression interne
croissante, venant en contact avec une paroi rigide dans la direction verticale.
"O
c
0 Les nœuds de la membrane à l'aplomb de la paroi rigide sont en fait contraints à
::J
0 avoir leur déplacement dans la direction z limité à une valeur zmax· Pour chaque
v
T"-f valeur de la pression, on cherche à minimiser l'énergie potentielle en satisfai-
0
N
sant aux contraintes sur les déplacements qui doivent vérifier les conditions de
@
~
..c
contact. Le côté de la plaque carrée a pour dimension 0,275 m. Le modèle est
Ol
ï:::: constitué de 2 863 éléments finis de
>-
a.
0 coques membranaires. Le matériau z
u Paroi rigide
est élastique linéaire et ses propriétés
- - Zma:< Paroi rigide
sont données par E = 6 000 000 N/m2
et v = 0,3. L épaisseur de la paroi est
de 1 mm. La pression varie entre 0 et
0,25 MPa. La valeur de zma.x est égale Figure 8.23 Membrane carrée
à 0,035 m. Les degrés de liberté de et paroi rigide.
140
8.2 Méthode du gradient projeté

translation sont fixés pour tous les nœuds situés sur le pourtour de la plaque.
La figure 8.24 permet de voir la configuration de la membrane à l'équilibre pour
différentes valeurs de la pression. Dans un premier temps, la membrane se gonfle
sans que le contact ne soit activé. On voit que, pour les étapes suivantes, certains
nœuds sont bloqués par la paroi.

Figure 8.24 Gonflage de la membrane carrée en contact avec la paroi rigide.

À la figure 8.25, on traite le cas de la membrane carrée qui gonfle cette fois-ci
sous une sphère rigide. Pour vérifier les conditions de contact, les distances
entre les nœuds de la membrane et la sphère doivent rester positives ou nulles.
L énergie potentielle est minimisée de manière à déterminer, sous les contraintes
de distance, les positions de la membrane pour différentes valeurs de pression
interne. En partant d,une configuration de membrane complètement plate,
on constate que, lorsque la pression augmente, la membrane touche la sphère.
Comme le déplacement horizontal de la structure gonflable d est pas contraint,
elle commence à se déplacer, ici vers la droite, pour trouver une nouvelle position
d'équilibre qui la fait tangenter la sphère. En augmentant davantage la pression,
la structure continue à se déplacer légèrement vers la droite.

Figure 8.25 Gonflage de la membrane carrée en contact


avec une sphère rigide.
141
8 Optimisation avec contraintes : autres méthodes

On traite encore le cas d'une membrane carrée qui gonfle sous l'effet d'une
pression interne mais, ici, une partie de cette membrane est supposée
indéformable (figure 8.26).

Zone rigide

Figure 8.26 Gonflage de la membrane carrée incluant un corps rigide.

Les nœuds correspondant à cette zone dans le modèle éléments finis sont liés
entre eux et forment un corps rigide. On remarque sur la figure 8.27 les éléments
de barres fictives liant ces nœuds et permettant la visualisation du corps rigide.
Lorsque la membrane se gonfle, les déplacements de ces nœuds sont bien
contraints à rester dans un même plan qui bouge selon le niveau de gonflage
obtenu. r utilisation d'une technique d'optimisation dans la formulation (8.17)
permet ici encore de résoudre un problème de mécanique non linéaire avec
contraintes.

"O
0
c
0
::J Figure 8.27 Gonflage de la membrane carrée en contact avec la paroi rigide.
v
T"-f
0
N
@
~
..c
Ol
8.8 Références
ï::::
>-
a.
0
[1] Craveur J.C., Chèze C. - Mécanique des structures, du calcul analytique au calcul matriciel, Ellipses, 2008.
u (2] Craveur J.C., Jetteur Ph. - Introduction à la mécanique non linéaire, Dunod, 2011.

(3] Bruyneel M., Jetteur Ph., Granville D., Langlois S., Fleury C. - « An augmented Lagrangian optimization
m ethod for inflatable structures analysis problems », Structural & Multidisciplinary Optimization, 2006,
vol. 32, p. 383-395.

142
Méthodes
d'approximations
séquentielles convexes

On décrit ici une classe de méthodes robustes et efficaces pour la solution de


problèmes industriels d'optimisation de structures. Différentes approxima-
tions séquentielles convexes sont présentées et les éléments indispensables
de l'implantation industrielle d'un optimiseur sont également discutés.

9.1 Motivations et solution proposée

9.1.1 Une question de performances


Les méthodes de programmation mathématique présentées dans les chapitres
précédents demandent un très grand nombre d'itérations pour atteindre
la solution du problème d'optimisation. Typiquement, pour une fonction
quadratique à n variables, n itérations seront nécessaires pour atteindre
l'optimum lorsque la méthode des gradients conjugués est utilisée, dans un
problème non contraint. Se baser sur la méthode de Newton du second ordre
permet d'accélérer la convergence, mais pour un coût de calcul de direction
de recherche prohibitif. Pour une fonction non quadratique, des redémarrages
ponctuels des méthodes pour fonctions quadratiques doivent être réalisés,
ce qui peut détériorer la vitesse de convergence de l'algorithme. De plus,
lorsque des contraintes apparaissent dans le problème d'optimisation, ce qui
est pratiquement toujours le cas dans les applications réelles en mécanique
des structures, les algorithmes non contraints soit sont utilisés de manière
séquentielle, ce qui augmente encore le temps de calcul, soit passent leur temps
à déterminer l'ensemble des contraintes actives et à réaliser des optimisations
dans ces espaces. Pour des fonctions générales, le calcul du pas de progression
est également un processus d'optimisation itératif.

143
9 Méthodes d'approximations séquentielles convexes

Dans les problèmes d'optimisation des structures, les fonctions sont implicites
en termes de variables de conception. La valeur des fonctions ne peut être
déterminée qu'en réalisant une analyse de la structure, la plupart du temps par
éléments finis. Le calcul des dérivées, nécessaires pour déterminer la direction
de recherche dans le cas des méthodes basées sur les gradients, se fait également
par éléments finis, dans une phase appelée analyse de sensibilité. Comme à
chaque itération une analyse par éléments finis et une analyse de sensibilité
doivent être réalisées, se déplacer dans l'espace de conception admissible
demande donc un très grand nombre d'analyses, potentiellement coûteuses
en temps de calcul, ce qui est généralement impossible à mettre en œuvre car
trop long en temps de calcul. Telles quelles, ces méthodes ne sont donc pas
adaptées à une résolution efficace, c'est-à-dire en un temps raisonnable, pour
des problèmes de grande taille.

Pour fixer les idées sur le caractère implicite des fonctions du problème
d'optimisation des structures en fonction des variables de conception, on
propose un exemple. Soit une membrane rectangulaire, d'épaisseur constante e,
uniformément sollicitée en traction sur ses deux largeurs et constituée d'un
seul matériau de masse volumique p. La membrane est discrétisée par éléments
finis. On cherche à déterminer les dimensions d'un trou de forme elliptique
pour lesquelles la structure a une masse minimale, sachant que les tensions
équivalentes de Von Mises moyennes par élément doivent être inférieures à la
limite élastique du matériau. On traite donc ici un problème d'optimisation de
forme.

Si L et l sont respectivement les longueurs et largeurs de la membrane, a et b


respectivement le demi petit axe et le demi grand axe de l'ellipse, la masse de la
structure a une expression explicite, elle s'écrit :
"O
0
c
::J
0 M = pe (L X l - 1la X b)
v
T"-f
0
N Il est facile de déterminer l'influence d'une variation de a ou de b sur la masse. Il
@
~
suffit de calculer les deux dérivées partielles :
..c
Ol
ï::::
>-
a.
êJM êJM
0 -=-1lpeb - = -1lpea
u da db
Quand on traite le problème d'optimisation par éléments finis, dans l'optique de
pouvoir traiter des structures de forme complexe, les choses sont très différentes.
L'élément fini i a une surface si' qui dépend de l'itération du processus
d'optimisation de forme puisque la géométrie change au cours de l'optimisation,

144
9.1 Motivations et solution proposée

donc la forme des éléments aussi. La masse de la structure à une itération donnée
s'écrit:

Il est cependant impossible d'écrire explicitement quelle est l'influence d'un


changement de paramètre géométrique puisque l'évaluation de la masse se fait
à partir du maillage et non de la géométrie. Et dans les deux cas, analytique
ou numérique, comment écrire explicitement la tension dans chaque élément
et sa variation en fonction des paramètres a et b ? La difficulté est bien là : ne
connaissant pas explicitement l'expression de la fonction objectif à minimiser, ni
celle des contraintes, ni celle de ses dérivées partielles par rapport aux variables de
conception, l'utilisation d'une méthode numérique, en l'occurrence la méthode
des éléments finis, est alors indispensable pour déterminer la valeur des fonctions,
ainsi que de leurs dérivées, qui alimenteront la méthode d'optimisation.

9 .1.2 Une approche performante : interprétation physique


Limage suivante permet de fixer les idées: on est sur une colline qui ne nous est
pas familière, il fait nuit noire et on veut rejoindre la vallée. La lampe dont on
dispose a une faible autonomie : elle ne peut être utilisée que ponctuellement
pendant la descente et n'éclaire pas beaucoup. On sait simplement que la
géométrie de la colline est « régulière » au sens de l'ingénieur. Le principe est le
suivant : on donne un « coup de projecteur » pour avoir une idée d'où on se situe
et de la géométrie environnante. On éteint la lampe et on descend un peu selon la
direction qui nous a semblé la meilleure. On redonne un « coup de projecteur »
pour voir où on est arrivé, quelle est la nouvelle géométrie environnante et ce qui
semble être la nouvelle meilleure direction de descente. On itère ainsi jusqu'à
arriver en bas de la colline.

C'est ainsi que l'on va procéder en optimisation des structures. N'ayant pas les
moyens de connaître l'expression analytique de la fonction objectif ni celle des
contraintes, on va se contenter d'une approximation au voisinage du point où on
se situe, évaluer l'optimum de ce problème approché, réévaluer l'approximation
au voisinage du point optimum trouvé, et ainsi de suite. La recherche de
l'optimum du problème implicite est donc itérative et passe par la construction
d'un ensemble de problèmes explicites approchés représentant localement le
problème implicite initial. Il existe de nombreuses méthodes pour construire les
problèmes explicites successifs qui vont être plus ou moins détaillées ici. Leurs
avantages et inconvénients vont être décrits et pour les plus simples d'entre elles,

145
9 Méthodes d'approximations séquentielles convexes

des exemples seront détaillés et analysés. On suppose dans ce chapitre que toutes
les fonctions ont les propriétés requises de continuité et de différentiabilité.

9 .1.3 Une approche performante : interprétation mathématique


L'idée émise au début des années 1970 consiste à remplacer la résolution du
problème d'optimisation initial (9.1) par la résolution d'une suite de sous-
problèmes approchés par des fonctions convexes, explicites et séparables. À
chaque itération, chaque fonction f intervenant dans le problème (9.1) est
remplacée par son approximation Jtl
basée sur un développement en série de
Taylor en termes des variables de conception x; ou de variables intermédiaires
(par exemple les variables inverses Y;= llx). On discutera par la suite les diverses
possibilités de variables intermédiaires.

minf0 (x)
~ (x) ~ 0 j=l, ... ,m (9.1)

X.1 ~X-~X;
- 1
i = l , ... ,n
Pour une conception donnée, représentée par les valeurs x<kl à l'itération k, le
problème d'optimisation approchés' écrit alors sous la forme (9.2) :

min Jo<
kl (x)
f-J_(k) <_ 0 . 1, ... ,m
;= (9.2)
(k) -(k)
X.,
_ ~X.1 ~Xi i = l, ... ,n

La construction des fonctions approchées nécessite une analyse structurale


et une analyse de sensibilité car elles sont construites sur la base des valeurs
"O
c
0 des vraies fonctions ~(x<kl) et de leurs dérivées premières êJ~(x<kl)JêJx; au point
::J
0 courant x<kl (informations respectivement d'ordre zéro et d'ordre un). Pour
v chaque approximation, la valeur de la fonction et celle de l'approximation sont
T"-f
0
N
égales au point courant ; il en va de même de leurs dérivées premières. Les
@
~
..c
relations suivantes sont donc vérifiées :
Ol
ï::::
>-
a. êJf.(x<kl)
)
êJj.(x<k>y
-___;_] __
0
u et (9.3)
êJxi êJxi
Une fois le sous-problème approché construit à l'itération courante x<k>, on peut
en trouver l'optimum noté x<kl* sans effectuer de nouvelle analyse par éléments
finis car les fonctions le constituant sont explicites et donc connues pour toute
valeur des variables x. Le principe de ces méthodes est illustré à la figure 9.1 où on

146
9.1 Motivations et solution proposée

voit le sous-problème qui est construit


sur la base d'une analyse structurale et
d'une analyse de sensibilité. Le sous-
problème (9.2) ainsi obtenu présente
certaines propriétés mathématiques :
.,.. par construction, chaque approxi-
mation structurale est explicite en
fonction des variables de concep-
tion : contrairement au cas du
problème initial, le domaine de
conception approché est connu
exactement, et tout déplacement Figure 9.1 Problème initial
dans ce dernier se fait sans nécessi- et sous-problème approché.
ter d'analyse structurale ;
.,.. de plus, ces approximations sont souvent choisies convexes : le domaine
admissible approché est donc lui aussi convexe, et la résolution du problème
(9.2) fournit dès lors une seule valeur optimale des variables de concep-
tion x<kl* ;
.,.. les fonctions approchées sont choisies séparables, ce qui simplifie la résolu-
tion du sous-problème (9.2) qui devient par ailleurs peu coûteuse lorsque la
résolution est effectuée avec une méthode duale (cf. chapitre 7).
Le concept d'approximation est résumé à la figure 9.2 et les différentes étapes de
sa mise en œuvre sont reprises ci-dessous:

1. une analyse structurale et une analyse de sensibilité sont réalisées pour la


valeur x<k> des variables de conception (k = 1 correspond à la conception
initiale);
2. sur la base des résultats de l'analyse, le sous-problème d'optimisation
approché (9.2) est généré;
3. l'optimisation est réalisée dans le sous-domaine défini par les fonctions
approchées : le problème (9.2) est résolu par des techniques dérivées de la
programmation mathématique, vues aux chapitres 7 et 8 ;
4. la solution x<kl* du sous-problème approché est adoptée comme nouveau
point de départ dans le domaine de conception initial, et le processus d' opti-
misation se poursuit jusqu'à ce que la convergence soit atteinte (figure 9.3).
Rien ne garantit que l'optimum global, obtenu en suivant le chemin a à la
figure 9.1, soit obtenu. La plupart du temps, un optimum local (chemin b) est
mis en évidence.

147
9 Méthodes d'approximations séquentielles convexes

Conception initiale
Conception initiale
k = 1, x<k)

Au point courant x<k) calcul de j j(x<k)) Analyse de la structure


et d fj(x<k))/ dxi, i= l , .. ,n etj=O, .. ,m Analyse de sensibilité

Construction du sous-problème
Construction des fonctions l<x<k))
approché

Solution du problème (9.2) Solution du sous-problème ;


x<k)* => x<k+I ) , k = k+ 1 nouvelle conception

n n

Fin

Figure 9.2 Principe de la méthode d'approximations convexes.

"O
0
c
::J
0
v
T"-f
0
N
@ Figure 9.3 Problème initial et suite de sous-problèmes approchés.
~
..c
Ol
ï::::
>-
a. Une telle méthode de résolution est souvent appelée programmation
0
u séquentielle convexe (Sequential Convex Programming - SCP) ou approche
par concepts d'approximation (Approximation Concept Approach - ACA) ou
encore optimisation par approximations séquentielles (Sequential Approximate
Optimization - SAO). Les avantages de ces méthodes sont listés ci-dessous:

~ contrairement à l'approche par critère d'optimalité évoquée au chapitre 2, la


notion d'approximation structurale est générale et permet, a priori, de traiter
148
9.1 Motivations et solution proposée

tous les types de problèmes, quelle que soit leur nature (treillis, plaques,
coques ... ) et le caractère des réponses structurales considérées (réponse
statique globale, locale, réponse dynamique ... ) ;
.,.. les problèmes de conception peuvent être résolus quelle que soit leur
formulation, qu'il y ait une ou plusieurs fonctions objectifs ou restrictions,
plusieurs cas de charge, plusieurs types d'analyses effectués ;
.,.. l'expérience a montré que dix à cinquante itérations sont suffisantes pour
déterminer un optimum local indépendamment du nombre de variables
de conception que contient le problème ... On a donc ici une méthode
d'optimisation qui permet des' affranchir du lien entre le nombre de variables
de conception et le nombre d'itérations nécessaire pour atteindre la solution
du problème ;
.,.. de nouvelles approximations peuvent constamment être développées. On
peut donc, sur la base de recherches, mettre en évidence des approximations
qui seront plus précises car plus proches des fonctions qu'elles approchent,
ce qui permet de diminuer encore le nombre d'itérations nécessaire pour
trouver la solution du problème d'optimisation de départ.
Les approximations sont construites au voisinage du point courant et elles ne
sont donc valables qu'au voisinage du point courant. On cherche ensuite l' opti-
mum de l'approximation, qui n'est pas nécessairement l'optimum du problème
réel. Dans le cas où il existe des contraintes, des approximations explicites de
celles-ci peuvent être construites de la même façon que l'approximation de la
fonction objectif qui est alors bornée. Certaines contraintes peuvent être violées
lorsque les valeurs optimales sont injectées dans une analyse par éléments finis
car le point optimal du problème approché n'est pas nécessairement l'optimum
du problème réel et ne satisfait pas nécessairement aux contraintes réelles.

De nombreux problèmes d'optimisation structurale ont été résolus efficace-


ment en utilisant cette technique d'approximation : le dimensionnement opti-
mal [ 1], l'optimisation de forme [2], l'optimisation topologique [3,4], l' opti-
misation multidisciplinaire [5,6] et l'optimisation des structures en matériaux
composites [7,8].

9.1.4 Discussion sur la sélection du schéma d'approximation


Lorsque le schéma d'approximation sélectionné est bien adapté au problème
considéré, le nombre de générations de sous-problèmes approchés, et donc d'ana-
lyses structurales nécessaires pour atteindre l'optimum, est réduit. Cette consta-
tation est à l'origine de nombreuses recherches dans le domaine, recherches qui
tentent d'identifier des schémas d'approximation de grande qualité, représentant
149
9 Méthodes d'approximations séquentielles convexes

le plus fidèlement possible le problème de départ. On voit en effet à la figure 9.4


que la qualité du schéma d'approximation influence fortement l'histoire de la
convergence. Si les approximations sont trop conservatives, le domaine appro-
ché sera petit, et de nombreux sous-problèmes successifs devront être résolus
avant de trouver la solution du problème de départ. A contrario, si les approxi-
mations ne sont pas assez conservatives, le domaine approché est trop grand,
et les solutions intermédiaires obtenues ne sont pas admissibles par rapport au
problème initial. Finalement, lorsque le schéma n'est pas adapté au problème
traité, on peut voir apparaître de nombreuses itérations au cours du processus
d'optimisation, qui peut rester bloqué entre deux solutions candidates, qui ne
correspondent pas à une solution du problème de départ.

x,

Figure 9.4 Impact sur la convergence de la qualité de l'approximation.

La sélection d'un schéma d'approximation adapté au problème est donc délicate,


et dépend la plupart du temps del' expérience de l'utilisateur, de la connaissance
qu'il a du problème à résoudre et des outils d'optimisation qui sont à sa
"O disposition.
0
c
::J
0 On peut trouver dans la littérature différents schémas d'approximation
v
T"-f
0
représentant des variantes du développement en série de Taylor. Ces différences
N
@
sont liées au degré d'approximation de la réponse structurale (premier ou second
~
..c ordre) et à l'introduction de variables de conception intermédiaires (variables
Ol
ï:::: directes ou changement de variables). Les schémas du premier ordre font
>-
a.
0 correspondre la valeur de l'approximation et de ses dérivées premières à celles de
u
la réponse structurale au point courant, comme en (9.3). Les schémas du second
ordre assurent en plus l'égalité des dérivées secondes en ce point. D'une manière
générale, les schémas d'approximation du second ordre sont plus efficaces car
ils tiennent compte de l'information de courbure. Ils présentent également une
tendance naturelle à être attirés par le minimum local le plus proche. Cependant,

150
9.2 Approximations en optimisation de structure

la détermination des dérivées secondes, pour autant que celle-ci soit réalisable,
peut entraîner des temps de calcul élevés ou risque de ne pas pouvoir être
exploitée pour des raisons liées à la non-convexité du problème. La manière
dont les variables de conception sont introduites dans l'approximation permet
également d'améliorer celle-ci : le rôle joué par les variables inverses dans le
cadre du dimensionnement en témoigne.

Initialement, ces approximations étaient locales, c'est-à-dire construites sur la


base de l'information disponible au point d'analyse courant. Récemment, les
informations relatives à l'itération précédente ont été utilisées pour générer des
schémas d'approximation en deux points, fournissant des sous-problèmes plus
précis. Cependant, ce gain de précision s'effectue au détriment d'une augmenta-
tion du nombre de paramètres à gérer pour construire l'approximation.

La sélection d'un schéma d'approximation résulte donc d'un compromis


entre la précision, le coût de génération des sous-problèmes approchés et la
facilité de leur résolution. Il n'existe pas à ce jour un schéma d'approximation
miracle ou universel, qui se soit montré le plus performant pour tout problème
d'optimisation de structures.

Dans la section suivante, les types d'approximations structurales les plus


couramment rencontrés dans la littérature et/ou utilisés dans les applications
industrielles sont passés en revue. En théorie, chaque fonction approchée du
problème (9.2) peut être d'un type différent, selon la nature même de la fonction
à approcher. Autrement dit, la fonction objectif fo(x) peut être approchée avec
un certain type d'approximation, alors que les contraintes f (x) peuvent être
J
approchées avec un autre type. En pratique, dans les logiciels d'optimisation
pour problèmes industriels, on utilise souvent un seul type d'approximation de
très haute qualité pour toutes les fonctions du problème.

9.2 Approximations en optimisation


de structure
Les différentes approximations sont
comparées sur la base d'une même
fonction à approcher : ils' agit del' éner-
gie de déformation dans un pli compo-
site, dont l'orientation des fibres peut Figure 9.5 Pli composite soumis
varier entre 45° et 180° (figure 9.5). à du cisaillement.

151
9 Méthodes d'approximations séquentielles convexes

Le pli est soumis à du cisaillement et 145 Énergie de déformation


à de la torsion. Pour chacune de ces 140
valeurs d'angle, on calcule l'énergie m
de déformation par analyse numé- 130
125
rique sur la base de la théorie clas- 120
sique des laminés (figure 9.6). Le 115
Points
résultat est représenté par des cercles 110
105
d'approximation
sur les figures suivantes. Le but ici est possibles
100
de déterminer le minimum de l' éner-
45 90 180
gie de déformation qui est la fonction x= 8
objectif du problème. La variable de
Figure 9 .6 Fonction à approcher.
conception x est la valeur de l'angle e.
Le problème consiste à rechercher l'orientation à donner au pli pour qu'il soit
le plus raide vis-à-vis des sollicitations appliquées. rorientation optimale des
fibres est obtenue pour deux valeurs: 45° et 135°. Compte tenu du voisinage du
point où les approximations sont construites (figure 9.6), on cherche à déter-
miner ici l'optimum en 8 = 135°. Les approximations sont par la suite tracées
en traits continus. On note qu'ici seule la fonction objectif est approchée. Si le
problème comprenait des contraintes, celles-ci seraient également remplacées
par leur approximation.

9.2.1 Approximation linéaire


La fonction est remplacée par son approximation en série de Taylor du premier
ordre. r approximation est construite sur la base de la valeur au point courant x<kl
et des dérivées premières par rapport à chaque variable en ce point :

"O
0
c (9.4)
::J
0
v
T"-f
0
N En optimisation dimensionnelle, premier type d'optimisation développé en
@
~
mécanique des structures, les variables de conception sont des épaisseurs et des
..c
Ol sections et, si on souhaite minimiser la masse, une approximation linéaire de
ï::::
>-
a. la fonction objectif est tout à fait légitime car la masse est une fonction linéaire
0
u de ces variables. Mais en ce qui concerne les contraintes, ce n'est pas le cas et
l'approximation par linéarisation directe n'est pas appropriée.
On voit à la figure 9. 7 que, au point courant x Ck), on a créé une droite qui est tangente
à la fonction à minimiser. Cette droite constitue notre problème approché pour
ce cas ID (une seule variable). Conformément à (9.2), le but de l'optimisation
consiste maintenant à déterminer le minimum de cette fonction. On comprend
152
9.1 Motivations et solution proposée

aisément que celui-ci se trouve en 45°, qui est la valeur minimale de la variable x.
En pratique, on peut limiter les variations trop rapides des valeurs de variables
de conception, de manière à ne pas avoir, pour un problème approché, de trop
grands déplacements dans l'espace de conception. Ils pourraient perturber la
convergence du problème d'optimisation. Comme on le voit à la figure 9. 7, on
peut définir ce qu'on appelle un move-limit, qui est une borne ajoutée à la variable
de conception. Ce n'est pas une modification des contraintes de borne associées
à la variable : le minimum est maintenant contraint dans un voisinage du point
courant, pour cette itération. On permet avec le move-limit une amplitude de
variation donnée par ~(k) :

x . :::; x~k) _ ~ (k) :::; x~k+1) :::; x <k> + ~(k) :::; ~;


_, 1 1 l

pour l'ensemble des variables de conception \, i = l, .. . ,n. Ce paramètre ~<kl


peut être constant ou varier au cours des itérations. Il pourrait également être
différent selon les variables de conception. Dans tous les cas, on fait en sorte de
ne pas violer les contraintes de borne du problème.

145 145

140 140

135 135
130 130
125 125

120 120

115 115
11 0 110

105 105

100 100
Move-limit

45 90 180 45 90 180
~k) x<k) ~k)

Figure 9.7 Approximation linéaire.

À la figure 9.7, on détermine le minimum du problème approché avec un move-


limit, dont la valeur est par exemple de 15°, minimum qui devient le nouveau
point courant autour duquel on construit l'approximation linéaire suivante.
Il est clair que, répété, ce processus ne permettra pas de mettre en évidence
le minimum de la fonction initiale, sauf si une stratégie de move-limits qui se
resserrent autour du point courant est utilisée, comme par exemple celle donnée
ci-dessous avec un exposant qui dépend du numéro d'itération:

x(k)
- 1
= x (k ) -15°(0, 9)k-i
1
~~k) = x~kl + 150(0, 9)k-1 (9.5)
153
9 Méthodes d'approximations séquentielles convexes

Ce type de stratégie permet effecti-


vement de déterminer le minimum,
mais au prix d'un nombre très élevé
d'itérations, donc de constructions de
sous-problèmes approchés, et donc
d'analyses structurales et de sensibi-
lité. Pour cette raison, l'approximation
linéaire est peu utilisée en pratique,
sauf lorsque la fonction à approcher
est linéaire. C'est par exemple le cas
du poids dans un problème de dimen-
sionnement. On illustre à la figure 9.8
l'utilisation de move-limits dans le cas Figure 9.8 Move-limits
d'un problème à deux dimensions. dans un problème à deux dimensions.

9.2.2 Approximation réciproque


Dans le cas d'un treillis de barres isostatique, lorsque les variables de conception
sont les aires des sections de barres, les tensions dans les barres et les dépla-
cements des nœuds peuvent s'écrire en fonction de l'inverse des variables, soit
yi = llxi. Il paraît donc intéressant de travailler avec ces nouvelles variables qui
sont appelées variables réciproques, par opposition aux variables xi qui sont les
variables directes. r.: approximation réciproque s'écrit alors :

(9.6)

"O
0
c
::J
0
v puisque
T"-f
0
N
@
d f j (X(k ) ) d Xi
et
~
..c
Ol
axi aYi
ï::::
>-
a.
0 Un avantage de cette technique de linéarisation est que la dérivée par rapport
u
à l'inverse de la variable de conception se calcule directement à partir de
la dérivée par rapport à la variable elle-même : une dérivée « classique »
permet de construire une approximation localement non linéaire. Utiliser les
variables réciproques yi = I!xi entraîne l'apparition dans la fonction construite
d'asymptotes verticales situées en xi = O. r.: approximation est convexe pour
les valeurs strictement positives des variables de conception. L utilisation de
154
9.1 Motivations et solution proposée

l'approximation réciproque impose donc que les variables de conception ne


prennent pas de valeurs négatives ou nulles.

On voit à la figure 9.9 que des move-limits doivent idéalement être utilisés avec
ce type d'approximation. Bien qu'une approximation convexe soit construite
lorsque la dérivée de la fonction à approcher est négative, une approximation
concave apparaît lorsque la dérivée de la fonction est positive. Lorsque ce prin-
cipe d'approximation réciproque est appliqué de manière générale, il se peut
alors qu'un mélange d'approximations convexes et non convexes soit utilisé pour
approcher le problème d'optimisation initial. Dans ce cas, on n'est plus sûr que
le sous-problème approché n'ait qu'une seule solution, car il n'est plus convexe.

145

140

135

130

125

120

ll5
11 0

I05

100
fo(k+ L)(x)
45 90 :xf-k) 180 45 90 180
x<k) x<k+ t)

Figure 9.9 Approximation réciproque.

9 .2.3 Approximations de linéarisation convexe


Avec cette approximation, on s'assure de ne travailler qu'avec des approximations
linéaires et réciproques qui soient convexes : lorsque la dérivée de la fonction
à approcher est positive par rapport à une variable de conception, on utilise
l'approximation linéaire, et lorsque la dérivée de la fonction à approcher est
négative par rapport à une variable de conception, on utilise l'approximation
réciproque par rapport à cette variable. On obtient alors l'approximation
convexe linéaire, encore appelée ConLin, pour Convex Linearization [9]. Dans
l'expression (9.7), les symboles :L+ et :L- désignent les variables dont les dérivées
premières sont positives ou négatives :

155
9 Méthodes d'approximations séquentielles convexes

Cette approximation est non linéaire, elle fait apparaître l'inverse de certaines
variables de conception mais on n'utilise que les dérivées premières par rapport
à ces variables pour la définir. L optimum du problème explicite approché
est toujours sur une frontière du domaine admissible car l'approximation est
convexe monotone : des contraintes sont saturées. Cela signifie que, pour au
moins une contrainte, il n'y a pas inégalité mais égalité. Cette approximation
est illustrée à la figure 9.10. On voit que l'utilisation de move-limits est requise
lorsque la fonction à approcher est non monotone comme c'est le cas ici.

145

140

135
130

125

120

ll5

~
110

I05

100

45 180 45 90 180
90 x(k) x(k+ I )* x(k+ I)

Figure 9.10 Approximation Conlin.

On rappelle qu'utiliser les variables réciproques Y; = l/x; entraîne l'apparition


dans la fonction construite d'asymptotes verticales situées en xi = O. De manière
à conserver une approximation convexe, les valeurs non positives de variables de
conception ne sont pas admises. La méthode ConLin est dès lors bien adaptée
au cas du dimensionnement optimal puisque les variables de conception qui
"O sont des épaisseurs de panneaux ou des sections de poutres sont strictement
0
c positives. Cette technique de linéarisation est également utilisée en optimisation
::J
0
v topologique (cf. chapitre 13), la porosité d'un élément est toujours strictement
T"-f
0
N
positive grâce à l'utilisation des seuils.
@
~
..c
Ol
ï::::
9.2.4 Méthode des asymptotes mobiles
>-
a.
0
u De manière à généraliser l'approximation ConLin, par exemple au cas de
l'optimisation de forme où des valeurs négatives de variables de conception
peuvent apparaître, il a été proposé dans la référence [10] d'utiliser les variables
intermédiaires du type :

ou

156
9.1 Motivations et solution proposée

selon que la dérivée première de la fonction à approcher est négative ou positive,


respectivement. Ces deux paramètres Ui et Li jouent le rôle d'asymptotes haute
(U = Upper asymptote) ou basse (L = Lower asymptote). Ces asymptotes
changent de valeur au cours des itérations selon une règle définie par Svanberg,
de manière à modifier la courbure de l'approximation et à se rapprocher ainsi le
plus possible de la fonction de départ, d'où le nom de l'approximation : méthode
des asymptotes mobiles MMA (Method of Moving Asymptotes). L'utilisation
de ces asymptotes permet de relâcher la contrainte sur l'asymptote fixe située
en xi = 0 dans la méthode ConLin ainsi que le fait de ne pouvoir utiliser que des
approximations linéaires lorsque la dérivée de la fonction est positive. Dans (9.8),
les symboles L+ et L- désignent les variables dont les dérivées premières sont
positives ou négatives :

- (k) -
fj (x) - fj (x
(k) ~
) + ~ P ij
(k) (
(k)
1
(k)
1
(k)
J
+ ui - xi ui - xi
(9.8)
~
+ ~ qij
(k) ( 1
x. - L(_k> -
1
x(k) - L(k)
J
- l l l l

Pour une variable x i, on utilise soit l'asymptote U i soit l'asymptote L i, mais pas les
deux en même temps. Les paramètres p /k> et q ij(k) dépendent des dérivées de la
fonction à approcher au point courant x<kJ ainsi que de la valeur des asymptotes.
Leur expression sera donnée dans les paragraphes suivants. La formule de remise
à jour des asymptotes est donnée par :

pour k 5: 2
(k) -
U . -
(k)
X.
+ _!_ (X,
-(k) - (k))
X.
l l 2 -1

L <kJ= x<k> _ 5 . (x<k- 1) _ L<.k- 1))


l l l l l
pour k >2
u (k) = x(kJ + (U(k- 1) _ x(k- 1))
l
5
l l l l

(x~k> _ x~k-1) )(x~k-1) _ x~k-2) ) < 0

avec si (x?l - x;k- 1) )(x~k -1 ) - x~k-2)) > 0


(k) -
( xi xi
(k-1) ) ( (k-1) -
X; X;
(k-2)) =0
L'approximation ainsi construite est représentée à la figure 9.11. On y voit le cas
où la dérivée de la fonction f(x) est négative et positive, ainsi que la position de
l'asymptote utilisée selon le cas. On peut montrer quel' approximation MMA est
monotone pour un sous-problème donné, c'est-à-dire que sa dérivée ne change
157
9 Méthodes d'approximations séquentielles convexes

pas de signe pour toute valeur des variables x;. r.: utilisation de move-limits est
indispensable pour éviter les mouvements trop importants dans l'espace de
conception ; cependant, les asymptotes peuvent se resserrer de plus en plus
au cours des itérations, ce qui permet de trouver le minimum d'un tel type de
fonction objectif non monotone. Toutefois, le nombre d'itérations nécessaire est
très élevé.

145 fo(k)(x) 145

140 140

135 135
130 130

125 125

120 120

115 115

110 110

105 105

100 100

45 180 45 90 180
90 L(k) x<k) x <k)* x <k+l )* x <k+l ) u <k)

Figure 9.11 Approximation MMA.

La plupart des problèmes d'optimisation de structures faisant intervenir des


fonctions monotones, l'approximation MMA est très efficace pour les représen-
ter, et elle est certainement la plus utilisée avec ConLin.

9.2.5 Versions non monotones des asymptotes mobiles


De manière à générer une approximation qui soit non monotone, une autre
"O
0 écriture (9.9) a été proposée dans la
c
0
::J référence [11]. Les deux asymptotes 145
v U. et L. sont utilisées en même temps
T"-f 1 1
0
N pour chaque variable xï Comme
@
~
dans l'exemple de la figure 9.12,
..c
Ol
ï::::
on recherche l'optimum du sous-
>-
a.
0
problème approché qui est mainte- ll 5
11 0
u nant non monotone. Cette approxi- 105
mation, appelée GCMMA (Glo-
bally Convergent Method of Moving 45 L(k) 90
U <k)
Asymptotes) permet de déterminer le
minimum de la fonction initiale. Figure 9 .12 Approximation GCMMA.

158
9.1 Motivations et solution proposée

fj- (k ) (x) = ~(x (k ) )+ "-'


"""' (k) (
Pii 1
(k) _ (k) _
1
(k )
J
; ui xi ui xi (9.9)
"""'
+ "-' %
.
(k ) ( 1
x . - L(.k) - x (k) - i<kl
1 J
1 t l l l

La différence entre les écritures (9.8) et (9.9) réside dans les symboles de
sommation. D'un côté, on calcule soit p1)_<k>, soit q1)..<k) pour MMA, de l'autre,
on calcule pii(k) et qit) pour la nouvelle forme GCMMA. Cette approximation
GCMMA est globalement convergente [11]. Cela signifie que, pour n'importe
quel point de départ, un minimum local peut être déterminé par l'algorithme
d'optimisation. Il faut être attentif au fait que « globalement convergent » ne
signifie pas qu'un optimum global sera trouvé, contrairement à ce qu'on pourrait
interpréter en lisant ces mots.

I:approximation détient son caractère non monotone d'un paramètre noté p.,
J
appelé paramètre de non-monotonicité, qui est différent pour chaque fonctionf.
J
Ce paramètre intervient dans la définition des coefficients p1)..<kl et qIJ..<k) :
(k)

P
= (U( k) _
(.k) x <k) ) z A2 (U(k) _ L(.k) )
df (x(k)) 1) 1 1 1 1

si '
dX;
< 0,
q<.k) = (x <k) _ i<.k) )1 _
a+'J j (x(k)) + A (k )
(U (k) _ i<kl)
J
1; 1 1 ( dX.
1
2 1 1

= (U(k ) _
<.k ) x <k) )1
a+(x(k))
'J j +A
(k)
(U (k ) _ L (k) )
J
P IJ 1 1 ( dX . 2 1 1
1

(k)
q = (x(k ) _ L(k) )1 A2
(_k)
" 1 1
(U(k ) _ i<.k) )
1 1

Pour chaque fonction du problème, ce coefficient est adapté au cours des itérations
selon une règle définie dans la référence [11]. On peut voir à la figure 9.13
l'influence de la valeur de ce coefficient sur la qualité de l'approximation. On
y illustre également le rôle de la valeur des asymptotes sur la convexité de
l'approximation. Quand les asymptotes sont resserrées, l'approximation est plus
conservative, autrement dit plus convexe. La même constatation est faite quand
la valeur du paramètre p augmente. Au lieu d'utiliser le paramètre p. remis à jour
J
à chaque itération sur la base d'une loi heuristique, on peut utiliser les dérivées
secondes diagonales de la fonction de départ. Dans ce cas, la forme (9.9) de

159
9 Méthodes d'approximations séquentielles convexes

l'approximation est toujours valable, mais les paramètres p ijCk) et q ij(k) prennent la
forme suivante :

Ck) =
(U(k) - xCkl )3 ( of. (xCkl )
, , a2f. (x (k) ) J
+ (x<kl _ 1ckl) 1
Pij 2(U(k) - r c.kJ)
l
2 1
ox.
l
i ; 2_
l
_a_x_ l

(xCkl -1<.kl)3 ( of.(x<kl) a2 f.( xCkJ)J


+(U(k) - xCkJ) _ _1_ _
q11C.k) = , r _
2 1
2(U(k) - LC.kl )
l
àx. l
' ' ox2 l 1

(c
145 145
(b)
140 140

135 135
130 130

125 125

120 120

115
(a) u<k) = 140 11 5

110 110

105
(b) u<k) = no
105

100 (c) u<k) =230 100

45 90 135 180 45 90 135 180


x<k)

Figure 9.13 Approximation GCMMA: influence des asymptotes


et du paramètre de non-monotonicité.

Au point courant, les dérivées premières et secondes (diagonales) de


l'approximation sont donc les mêmes que celles de la fonction à approcher.
Ce type d'approximation n'est pas utilisé en pratique, à cause du coût associé
au calcul des dérivées secondes. Une alternative consiste à approcher cette
"O
c
0
information par une différence finie sur la base des dérivées premières en deux
::J
0 itérations successives [7] :
v
T"-f
0
N àf/x(k) ) àf/x<k-1))
@ 2
~ 0 f / x (k )) - àxi àxi
..c (9.10)
Ol
ï:::: OX 2 x (k) - x~ k-1)
>-
a.
; 1 l

0
u On peut également imposer que les dérivées premières de la fonction et de
l'approximation soient identiques en deux itérations successives [7] :

(9.11)

160
9.1 Motivations et solution proposée

On compare cette dernière approxi-


mation à GCMMA à la figure 9.14. 140
Ce type d'approximation dans lequel
130
on utilise les gradients en deux points
successifs est appelé GBMMA (Gra- 120
dients-Based MMA). :Lapproximation 11 0
GBMMA générée ainsi doit être
convexe, pour les raisons évoquées 100
précédemment. La convexité de l' ap- 45 90 135 180
x <k- 1) x <k)
proximation se calcule pour chaque
variable x. sur la base de la dérivée
1 Figure 9.14 Comparaison
seconde, qui doit être positive. Si tel entre GCMMA et GBMMA.
n'est pas le cas pour la variable x;, alors
l'approximation GCMMA est utilisée pour cette variable. On peut dès lors avoir
une approximation qui mixe les deux types, GCMMA et GBMMA, selon les
variables concernées. :L approximation GBMMA est souvent de meilleure qualité
que l'approximation GCMMA.

9 .2.6 Approximation mixte en asymptotes mobiles


Les réponses structurales sont la plupart du temps monotones. Il arrive cepen-
dant qu'elles soient non monotones, ou qu'elles présentent un caractère mixte
monotone / non monotone, selon le type de variable qui lui est associé. C'est par
exemple le cas dans les matériaux composites, où l'énergie de déformation est
monotone par rapport aux épaisseurs de pli mais non monotone lorsque l'orien-
tation des fibres change (figure 9.15).

Énergie de déformation

350
300
250
200
12
150

180 ·1so 2

Orientation 8

Figure 9.15 Comportement structural mixte.

Comme on le voit à la figure 9.16, lorsque la réponse structurale est non


monotone, il convient de l'approcher par une fonction non monotone comme
161
9 Méthodes d'approximations séquentielles convexes

GCMMA, l'utilisation d'une approximation monotone telle que MMA ne per-


mettant pas d'approcher l'ensemble de la fonction de départ de manière satisfai-
sante. De même, lorsque la réponse structurale est monotone, l'approximation
non monotone sera trop conservative (c'est-à-dire trop convexe), et, dans le cas
de la figure 9.15, plusieurs itérations seront nécessaires pour atteindre le mini-
mum de la fonction de départ, là où une approximation monotone permettrait
de le déterminer directement.

145
j~(GCMMA)
140

135
130

125

120

115

110

105

100

1.6 1.8 2.0


t

Figure 9 .16 Sélection de l'approximation.

On comprend dès lors qu'il serait intéressant de pouvoir travailler avec une
approximation qui permette d'approcher les réponses structurales mixtes
monotones / non monotones. C'est le cas de l'approximation GCM [8]. Le
caractère monotone ou non de la réponse structurale f (x) est déterminé en
J
observant le signe des dérivées par rapport à chaque variable x; au cours des
itérations successives :
"O
df. (x <kl ) df. (x(k-ll)
1 1
c
0 X >0
0
::J dx; dx; (9.12)
v
T"-f
df. (x<kl ) df. (x (k-l))
1 1
0
N X <0
@ dx; dx;
~
..c
Ol Lorsque le produit des dérivées premières entre les itérations k et k+ 1 est négatif,
ï::::
>-
a. l'approximation est non monotone par rapport à la variable xï Une contribution
0
u de type GEMMA est alors utilisée pour cette variable. Dans le cas contraire,
l'approximation peut être monotone ou non.
On voit à la figure 9.17 que les dérivées premières aux points x?l et x?+ o ont
le même signe ; on pourrait en déduire que la fonction est monotone, mais ce
n'est clairement pas le cas. Utiliser une approximation monotone dans ce cas
perturberait la convergence du processus d'optimisation, le nouveau point
162
9.1 Motivations et solution proposée

de conception, même bloqué par


fo(k)
145
des move-limits, pouvant alors être
140
rejeté très loin du point courant et 135

du minimum recherché. De manière 130


125
à s'assurer du caractère monotone,
120
le test (9. 12) sur les dérivées est alors 115

réalisé au cours de plusieurs itérations, 110

105
typiquement cinq ; si le signe du
100
produit des dérivées ne change pas,
45 90 xf,k) x<k+ t) 135 180
on considère alors que la réponse
structurale est monotone par rapport à
Figure 9 .17 Sélection de
la variable x;, et une approximation de l'approximation monotone ou non.
type MMA est utilisée.

9.2.7 Approximations MMA généralisées


Dans les approximat ions de type MMA décrites jusqu'ici, les asymptotes
U; et L; sont associées aux variables mais sont les mêmes pour toutes les
fonctions f. Dans les approximations généralisées de type MMA, notées GMMA
J
(Generalized MMA), on travaille plutôt avec des asymptotes ~jet L;p qui sont
différentes à la fois pour les variables et pour les fonctions :

u ij i = l, ... ,n j = l, ... ,m
Lij i = l , ... ,n j = l, ...,m
On a donc n X m asymptotes u ij et Lij. Il y a intérêt à différencier les asymptotes
par fonction. Imaginons que l'on ait deux fonctions monotones fi (x) et f/x 1)
à approcher au point x 1 = 1, là où les valeurs des fonctions et des dérivées sont
calculées. Dans le cas de l'approximation MMA, seule l'asymptote L 1 associée à
la variable x 1 est utilisée.
rapproximation de la fonctionf/x) est bonne, mais celle de la fonctionfi(x,)
n'est pas de très grande qualité car la fonction initiale est linéaire. Utiliser
l'asymptote L, pénalise la qualité del' approximation de fi(x), comme illustré à la
figure 9.18.a. Lorsqu'on dissocie les asymptotes par fonction et quel' on travaille
dès lors avec L 11 pour la fonctionf/x) et L,2 pour la fonctionfi(x) dans le cadre
de la méthode GMMA, on peut adapter la valeur des asymptotes de manière à
améliorer la qualité des approximations. Ici, prendre la valeur L 12 = -10 permet
d'avoir une approximation de fi(x) qui est de meilleure qualité (figure 9.18.b).
Les approximations de type GMMA peuvent être monotones (5,12] ou non
monotones (7,13]. Selon les cas, les asymptotes sont remises à jour sur la base
163
9 Méthodes d'approximations séquentielles convexes

1.8

1.6

o.8 ( n,,=rlO
0.6
,.A
0.4 ......
......
0.2 ~
.....
o '--~,__._~~~~~~~~~..=,.,

·0.5 0 0.5 1 1.5 2


x/k)
b. Approximations GMMA

Figure 9.18 Comparaison des approximations MMA et GMMA.

des dérivées secondes diagonales, de leur approximation de type (9.10), des


gradients au point précédent ou de la valeur de la fonction au point précédent.
L'équation ci-dessous présente le cas de l'approximation monotone de type
GMMA. On y voit apparaître les symboles :L+ et :L- :

fj (x) - f/x ) + ~
- ( k) -
+ pij
(k) """' (k) ( 1
u(_k ) - x . -
1
u (_k ) - x( k)
J+ """'~ qij (k) (
X . - L(k ) -
1 1
x(k) -L(.k)
J
1) 1 1) 1 - 1 1) 1 1)

9.2.8 Approximation quadratique séparable


Dans le cas del' approximation quadratique, un développement en série de Taylor
du second ordre est utilisé. Comme on veut travailler avec des approximations
séparables, seules les dérivées secondes non mixtes sont prises en compte :
af 1(x(k)) c .2!. a f-:'\ (x(k))
2
!-}. cX (k ) ) = 1J. (X ( k)) + I; X;
X . _ X (k) ) + I
1 1
;
-
o x;
1 ?
( X . _ X.(k))2
1 1
(9.13)
"O
0
c
::J
0 En pratique, on ne calcule pas ces j~(k)
v 145
T"-f dérivées secondes (figure 9 .19). On
0
N
les approche par une différence finie
@
~
..c
sur les dérivées premières en deux
Ol
ï:::: itérations successives, comme en
>-
a.
0 (9.10). Procéder de la sorte revient en
u
fait à assurer les conditions (9.11).

45 90 135 J80

Figure 9.19 Illustration d'une


approximation quadratique séparable.
164
9.1 Motivations et solution proposée

9.3 Comparaison de quelques approximations


Les approximations linéaires, réciproques, ConLin, MMA et GCMMA sont
construites pour deux fonctions fi et fi :

Le point d'approximation x Ckl est donné par (x1 ; x) = (4 ; 4). Les contraintes
de borne prennent pour valeur 0 ~ x; ~ 1O. On traite ici la fonction fi. Au point
courant, on a :
ofi1 (x(k) ) a1i (x (k))
1
= -2x1= -8 et =5
ax, ax2

r approximation linéaire appliquée à la contrainteli a pour expression :

r approximation réciproque appliquée à la contrainteli prend pour valeur :

{ rec (x(k) )= +(
Ji Ji X
(k))-( x,(k) ) ofi(x(k))(~--1-J-( (k)) ofi(x(k) ) (~ --l-J <10
2
:i (k) X2
2
:i (k ) -
ax1 x1 x, ax2 x2 x2

J.rec (x(k) ) = 4 - ( 4 )2 X (- 8)(~ -_!_] - ( 4)2 X ( 5)(-lx __!_J4 ~ 10


x, 4 2

{ rec ( (k) ) _ 128 80


Ji X - - - - ~l 8
x, x2

Pour l'approximation ConLin, on doit différencier le traitement des dérivées


positives et négatives. Appliqué à la contrainte fi, on obtient:

J,œ'"' (x(k) ) = J;<x(k) ) - ( x~k) )' df,~x(k)) (~ - ~k) J+ df,~ x(k) ) ( x, - x~k) } :". 10
x, x, x1 x2

165
9 Méthodes d'approximations séquentielles convexes

Pour l'approximation MMA, il faut évaluer la valeur des asymptotes. Si on


considère que k = l, sur la base des équations présentées à la section 9.2.4,
sachant que 0 :::; x; :::; 10, on calcule :

i <.k)
1
= x(k) _.!..2 c~~k) -
1
x(k))
-1
=4 - .!.. (lo-o) = -1
2

u~k) = x(k) +.!..(~~k)


1 2 1
-x(k)) = 4+.!..(10 - 0) = 9
_, 2

Les coefficients p.1)(k) et q1)__<kl sont calculés comme à la section 9.2.5, en prenant
p.(k) égal à 0, car on considère ici l'approximation MMA monotone. Puisque la
J
dérivée de J; par rapport à la variable x 1 est négative, on obtient :
(k )

P<k>
Il
= (U<k>_ x<kJ )1 .B._ (U<k> _ i<k>) =
1 1 1 1
o
2

(k)
q21<k> = (x<k> _ i <kJ )1.B._ (U<k> _ i <k>) = o
2 2 2 2 2

L'approximation MMA appliquée à la contrainte J; s'écrit finalement :

"O
- MMA
J;
_
(x) - J; (x
(k) (k) ( 1
) + P2 1 U(k) _
2 x2
1
- u <k> _
2 x2
(kJ
J
+ q 11
( k) (

xi
_
1
i<k>
i
(k)
x1 -E1
1 (k) J ~ 10
0
c
::J
0
v
T"-f
J;MMA(
- X) =4+ 125 ( 1- - -1- ) ~ 10
1 - -l- J +200 (-
0 9-x2 9-4 x1 + l 4 + 1
N
@
~
..c {MMA ( ) 200 125
Ol
Ji X =--+ ~ 71
ï:::: x 1 +l 9-x2
>-
a.
0
u Pour l'approximation GCMMA, le paramètre p.(kJ doit être évalué:
J

Pik) = _.!.._
Sn
t (X;- _!i)
i= l
1 "dJ; (x(k)) = _!_(~ +
dx; 10 10
2-) =~ =
10 100
0, 13

166
9.1 Motivations et solution proposée

Les coefficients p1)Ck) et q1)_Ck) prennent les valeurs suivantes :


(k)
2
P<kl = (U<kl -x<k') 2 .B__(u<kl -L<kl ) = (9-4) __!2_ (9-(-1))=16,25
11 1 1
2 1 1 200

q<11kl = (x(k)
1
-L<kl )2 (- "dfi (x<k>) + 11<kl (UCkl - r <kl
1 dXI 1 1
)J = 216 25 >
2

P2 1
<kl = (U<kl - x(k))2 ( "dfi (x<kl ) + li<kl (U<kl - LCkl
2 2 () x 2 2
)J = 141 25 '
2
2

(k)

q
(k) = (xCkl - r <kl ) 2 .B__(UCkl - r<kl ) = (4-(-1))2 __!2_(9-(-1)) = 16,25
21 2 2 2 2 2 200

r approximation GCMMA appliquée à la contrainte J; s'écrit finalement :

f-GCMMA( X) = 4 +p(k) ( 9 -1x1


; i1
!..J+q(
5
k)(_l+__
1 5
!_J
i1 x1

+p(k) ( 9 -1 _!_J
21 5X2
+q(k) (-1+__
1 5
!_J:::;10
21 X2

Toutes ces approximations sont dessinées à la figure 9.20. La courbe en traits


gras représente la fonction réelle que l'on souhaite approcher. r approximation
GCMMA, qui est non monotone, crée un domaine fermé, contrairement aux
autres approximations qui sont monotones.

12 12
réelle
10
réciproque 10
GCMMA

6
X2
GCMMA 4

2
réelle ConLin
0

_, -2
:2 0 2 6 8 JO 12 -2 0 4 6 JO 12
X1 X1

/ 1 =5x2 - x1 2 ~ 10 f2 = 5x2 - X 12 >- 10


Figure 9.20 Comparaison des approximations.

167
9 Méthodes d'approximations séquentielles convexes

9.4 Méthodes de résolution


Une fois le sous-problème approché d'optimisation (9.2) construit avec certaines
des approximations convexes détaillées dans la section précédente, il faut le
résoudre. Au départ du point de conception courant x Ck), on doit déterminer
l'optimum x Ckl*, comme illustré à la figure 9.21. Les gradients étant disponibles,
puisqu'ils étaient nécessaires pour générer les approximations des réponses
structurales, il paraît dès lors logique d'utiliser des algorithmes basés sur les
dérivées premières pour identifier l'optimum unique de chaque sous-problème
convexe. Les méthodes décrites dans les chapitres 7 et 8 trouvent alors toute leur
utilité. Plusieurs possibilités ont été proposées dans la littérature.

Figure 9.21 Problème initial et sous-problème approché.

Elles montrent des performances relativement comparables. La première consiste


à résoudre directement le sous-problème convexe par la méthode duale. La deu-
xième est le cas particulier pour lequel on se contente d'utiliser des approxi-
"O mations quadratiques, les sous-problèmes successifs étant alors résolus par la
0
c méthode duale.
::J
0
v
T"-f
Dans une troisième approche, la solution du sous-problème approché peut
0
N être remplacée par celle d'une succession de sous-problèmes quadratiques de
@
~
type SQP, chacun étant résolu par méthode duale, primale ou primale-duale.
..c
Ol
ï::::
Finalement, chaque sous-problème peut trouver sa solution directement par
>-
a. méthode primale ou primale-duale.
0
u

9.5 Relaxation
Il arrive très souvent qu'un problème d'optimisation ne comporte pas de
solution. C'est d'autant plus vrai que le nombre de contraintes apparaissant dans
le problème est très élevé. Une telle situation est illustrée à la figure 9.22. On y
168
9.1 Motivations et solution proposée

voit clairement qu'aucun point x ne parvient à satisfaire en même temps aux


trois contraintes du problème, le domaine admissible est vide.

Figure 9.22 Nécessité d'une relaxation, cause 1 et remède.

À la figure 9.23, le problème est différent : on construit une approximation de


la réponse structurale initiale, mais celle-ci a toutes ses valeurs supérieures à la
valeur limite de la fonction de départ. Il n'y a aucun point x pour lequel la valeur
de l'approximation est inférieure à f;.max.

Domaine
admissible du sous-
problème approché
/ .(k)(x) fj(x) fj (x)
J

f),max

;x!.k) problème initial ;x!.k)

Figure 9.23 Nécessité d'une relaxation, cause 2 et remède.

Le domaine admissible du problème approché est vide dans ce cas aussi. Un cas
pratique pourrait être le suivant : on veut maximiser la raideur d'un treillis de
barres, en adaptant les valeurs des aires des sections des barres. Des contraintes
de tension et de poids maximum sont également définies dans le problème. Ces
contraintes stipulent, par exemple, que la tension doit être inférieure à 250 MPa.
Il se peut que la contrainte sur le poids soit telle que les contraintes de tension ne
peuvent pas être satisfaites : on veut un treillis très léger, les aires des sections de
barres doivent donc être très petites, ce qui augmente la tension dans les barres
et entraîne la violation des contraintes de tension. Aucune solution satisfaisant
à l'ensemble des contraintes ne peut être trouvée. On peut alors relaxer le
169
9 Méthodes d'approximations séquentielles convexes

problème, en lâchant du lest sur la satisfaction des contraintes de tension, et


admettre par exemple que la contrainte doive être inférieure à 250(1 +8) MPa,
avec 8 qui soit le plus petit possible, car on ne veut pas avoir une solution trop
éloignée des spécifications du problème défini initialement.
La solution consiste donc à introduire une relaxation des contraintes du
problème. Le problème d'optimisation (9.1) ou (9.2) s'écrit alors:

min f 0 (x)+.!.(8+ p)2


2

f J.(x)::;; f.1.max. (1 +8) j = l , ...,m


i = l ,... ,n

On a utilisé ici une écriture des contraintes qui permet d'expliquer l'effet du
paramètre 8, et on a donc introduit explicitement la valeur maximale admissible
des contraintesfJ.ffiaX. On permet aux contraintes d'être relaxées par l'introduction
du paramètre de relaxation noté 8 qui prend une valeur positive. La valeur
maximale admissible de la contrainte f; (x) passe de f;,max à une valeur plus grande
donnée par f;,max (1+8). De manière à éviter que la valeur de 8 ne devienne trop
grande, on ajoute à la fonction objectif à minimiser un terme comprenant ce
paramètre, de manière à en minimiser également la valeur au cours du processus
d'optimisation. On autorise une relaxation, donc une violation, des contraintes,
dans la mesure où celle-ci est la plus petite possible. De manière à minimiser
effectivement la valeur de 8, on introduit un paramètre de mise à échelle p, dont
le but est d'obtenir un terme (8+p)2 qui soit du même ordre de grandeur que la
fonction objectif_fo(x). On aurait pu prendre à la place p82 • Sans cet artifice, seule
la fonction objectif risquerait d'être minimisée. En effet, si _fo(x) est de l'ordre
"O
0
de 1 000 et que 8 a une valeur proche de l, il est plus facile pour l' optimiseur
c
::J de minimiser _fo(x) qui est plus grand que 8 dont l'effet d'une minimisation
0
v
T"-f
sera marginal.
0
N
@
On voit l'effet de cette relaxation sur la figure 9.22. La relaxation permet d' écar-
~
..c ter les contraintes et d'ouvrir une zone d'espace admissible. r amplitude de cette
Ol
ï:::: ouverture sera minimale, puisque le paramètre 8 sera minimisé. À la figure 9.23,
>-
a.
0 on augmente la valeur de f1.max de manière à s'assurer qu'un domaine admis-
u
sible existe, c'est-à-dire que des valeurs de l'approximation soient inférieures à
fJ.max.(1+8). Ici aussi, la valeur de 8 est minimisée. Dans le cas des approximations
(cf. figure 9.23), il se peut que l'utilisation de cette relaxation ne soit que tem-
poraire et ne doive être utilisée que pour certaines itérations, le domaine admis-
sible du problème initial pouvant ne pas être vide alors que celui d'un problème
approché pourrait l'être.
170
9.1 Motivations et solution proposée

D'une manière générale, cette relaxation doit être prise en compte dans
l'implantation numérique d'un optimiseur. Sans cet artifice, très peu de
problèmes industriels pourraient être résolus.

9.6 Problèmes multi-objectifs

9 .6.1 Position du problème


Il arrive souvent que plusieurs fonctions objectifs interviennent dans
le problème d'optimisation. C'est, par exemple, le cas en optimisation
topologique, quand on a plusieurs cas de charge qui agissent sur la structure et
que l'on a donc plusieurs compliances à prendre en compte dans le problème
de maximisation des raideurs associées. Le problème multi-objectifs (ici non
contraint) s'écrit:

où nobj est le nombre de fonctions objectifs à prendre en compte. On peut bien


évidemment ajouter des contraintes générales et des contraintes de borne à ce
problème d'optimisation. On veut donc minimiser un ensemble de fonctions par
rapport aux variables x. On peut écrire ce problème sous une forme équivalente,
dans laquelle on minimise le maximum des fonctions .fi0,;. par rapport à x :

~in max {fo,I' fo,2, ... , fo .m} <=> m}n j=1?,~bj { fo .J


On minimise donc la fonction qui a la plus grande valeur dans l'ensemble des
fonctions à minimiser. En fin de compte, on minimise l'ensemble des fonctions.

Ce problème est illustré à la figure 9.24 dans le cas de trois fonctions fi, fz et f3'
Pour chaque valeur de la variable x, on doit donc minimiser l'ensemble des trois
fonctions ou, de manière équivalente,
la fonction qui a la plus grande valeur,
comme expliqué juste avant. On obtient
alors l'enveloppe des fonctions à mini-
Points de non-
miser, qui est donnée par les valeurs dijférentiabilité
maximales des trois fonctions pour
toutes les valeurs de la variable x, donc
/\
maxifi fi.hl. On voit à la figure 9 .24 que X

cette fonction résultante à minimiser


par rapport à x est non différentiable. Figure 9.24 Problème multi-objectifs.
171
9 Méthodes d'approximations séquentielles convexes

En effet, aux différents points d'intersection des fonctions, la dérivée première


n'est plus continue. Il y a donc une incertitude sur la valeur de la dérivée calcu-
lée en ces points, et les méthodes vues précédemment, basées sur les gradients,
ne sont en réalité par suffisantes pour déterminer le minimum de la fonction
maxifi,f2.h}. Il faut dans ce cas se rabattre sur des méthodes spéciales pour pro-
blèmes non différentiables (14]. On peut cependant reformuler le problème pour
le résoudre avec les méthodes décrites dans ce livre, et donc éviter le problème
de non-différentiabilité. Deux manières différentes sont décrites dans ce qui suit.

9 .6.2 Combinaison linéaire des fonctions objectifs


Ils' agit de créer une combinaison linéaire des fonctions à minimiser. Le problème
d'optimisation résultant est alors noté :
nobj nobj

mxin L:Cif0 ) x) avec :Lei= 1


j =I
j=l

La difficulté dans cette approche réside dans le choix des valeurs à donner aux
paramètres c., qui sont les poids associés aux fonctions à minimiser et dont
J
la somme doit être unitaire. Selon la valeur choisie, l'influence des fonctions
objectifs .fc0,;. sera différente dans la fonction globale à minimiser, et la solution du
problème sera différente.

9 .6.3 La méthode de la borne


On repart ici de la forme générale, avec l'ensemble des contraintes :

m~n __max .{f0 } x)}


x ; - 1,...,nob;
"O
c
0 fj (x) ~ 0 j = l,. ..,rn
::J
0
v !; ~X;~X ; i=l,. ..,n
T"-f
0
N
@ On remplace l'ensemble des fonctions objectifs à minimiser par des contraintes
~
..c et on introduit dans le problème une nouvelle variable /3 qui devient à la fois la
Ol
ï:::: fonction objectif à minimiser et le membre de droite des fonctions initiales à
>-
a.
0
u minimiser:
2
min/3
fJ
f 0,/x) ~ /3 j = l ,. ..,nobj
fi (x) ~ 0 j = 1,. .., m

!; ~X;~ X; i = l,. ..,n

172
9.1 Motivations et solution proposée

En minimisant la valeur de /J, on impose aux fonctions objectifs f o,j de prendre


des valeurs plus petites que ce f3 qui est minimisé. Il en résulte que l'ensemble des
fonctions {!;)) est minimisé. Cette approche est très utilisée en pratique.

9.7 Exemples
9.7.1 Optimisation d'un pli composite
On considère un pli unidirectionnel soumis à un chargement plan
N = (NI, N 2, NI2 ), comme illustré à la figure 9.25. On recherche l'orientation des
fibres (} qui maximise la raideur du pli. On minimise alors la densité d'énergie
de déformation du pli, ce qui s'écrit, A étant la matrice de raideur de membrane
du pli:
1
min-NTA-IN
f) 2

Ces notions seront détaillées ultérieurement, dans le chapitre consacré à l'opti-


misation des structures en matériaux composites. La matrice A dépend de la
variable (}: A =A( 8). La variation del' énergie en fonction de (}est illustrée à la
figure 9.26. On voit que cette fonction est fortement non linéaire en fonction de
(Jet qu'elle admet un minimum pour 8= 57,9°.

0.4

0.3

0.2

01

50 100 150
e
Figure 9.26 Énergie de déformation
Figure 9 .25 Pli composite soumis dans le pli composite soumis
à des efforts plans à des efforts plans.

On utilise les approximations ConLin et GCMMA pour trouver le minimum de


l'énergie de déformation. Le point de départ est donné par la valeur (} = 20°. Pour
ConLin, la stratégie de move-limits (9.4) est utilisée. Les résultats sont donnés
à la figure 9.27. Puisque la dérivée del' énergie est négative au point de départ,
une approximation réciproque est construite. On en cherche le minimum, qui se
trouve sur la contrainte définie par la stratégie de move-limits. En ce nouveau

173
9 Méthodes d'a pproximations séquentielles convexes

point, une nouvelle approximation est construite. On voit qu'à l'itération 4 une
approximation linéaire est générée car la dérivée est positive.

0 .4 0.4
fo(8)
0 .3 0 .3

02 0 .2

fo(ConLin)
0 .1 0 .1

_ ,_
50 100 150 50 100 150
()(1 ) 8 (1)* 8 ()(2) 8 (2)* 8
Itération 1 Itération 2

0.4 0 .4
fo(8) fo(8)
0.3 0 .3

0.2 0.2

0 .1 0.1

0
' '
150 0 50 100 150
8 8 (4) * 8 (4) 8
Itération 3 Itération 4
Figure 9.27 Solution par la méthode Conlin.

Grâce à la stratégie de move-limits qui diminue l'amplitude de variation de


"O
0 8 au cours des itérations, la solution est finalement trouvée en soixante-dix
c
0
::J itérations. Il est évident que, sans cette stratégie particulière de move-limits, la
v solution ne peut pas être mise en évidence et le processus reste bloqué entre deux
T"-f
0
N valeurs définies par des move-limits fixes, comme déjà évoqué à la figure 9.7.
@
~
On remarque également que, à l'itération 4, le minimum du problème approché
..c 4 4
Ol (} l' est plus grand que la valeur à laquelle l'approximation est construite (} ) . Ce
ï::::
>-
a. comportement est typique des méthodes d'approximation.
0
u
Les résultats obtenus avec GCMMA sont présentés à la figure 9.28. Il est évident
que l'approximation, qui est non monotone grâce à l'utilisation simultanée des
deux asymptotes, est mieux adaptée au problème étudié. La solution est obtenue
en dix itérations.

174
9.1 Motivations et solution proposée

'1
0.4

ij(2)_
0-
~~~~~~~ ..............
~~~~~

0 50 100 150
8(1) 80 )* 8 (2)* 8(2)
Itération 1 Itération 2

0.3

0.2

0 ·l
o~
o
I ----L.~.,-L-_~~~~~-
100 150
8<3) Itération 3

Figure 9.28 Solution par la méthode GCMMA.

9.7.2 Optimisation d'un treillis 2 barres


On veut minimiser le poids du treillis illustré à la figure 9.29a, tout en limitant
la valeur des tensions dans les barres. Selon [10], le problème peut se mettre
sous la forme (9.15). Les variables de conception sont la valeur commune x 1
des aires des barres et la demi-distance entre les supports x2 • Le problème
combine donc variable de dimensionnement et variable de forme. Le problème
d'optimisation (9.15) est illustré à la figure 9.29. On y voit le point de départ du
processus d'optimisation ainsi que la solution optimale x·. Sur la figure 9.30, on
voit les quatre premiers sous-problèmes générés avec l'approximation ConLin.

(9.15)

175
9 Méthodes d'approximations séquentielles convexes

1.6

1.4
F= 200 kN
12
(Fy=8Fx)
X2
OB

0.6

0.4

02

0.5 1.5 2 2 .5 3 3.5 4

x,

Figure 9 .29 Solution par la méthode GCMMA.

0.5 1.5 2 2.5 3 3.5 4 0.5 1.5 3 3 .5 4

x, Itération 1 Itération 2

"Cl
0
c
::::i
0

"""
..-1
0
N
@

..c
Ol 0.5 1.5 2 2.5 3 3 .5
·;::
>-
a. Itération 3 x, Itération 4
0
u
Figure 9.30 Sous-problèmes Conlin pour l'optimisation du treillis 2 barres.

On superpose le problème initial au sous-problème approché. Le domaine


admissible approché est représenté par les traits gras. On voit qu'au cours des

176
9.1 Motivations et solution proposée

itérations, et selon le point de conception où l'on se trouve, la forme du domaine


admissible approché peut être très différente. Le problème converge en cinq
itérations.

9.7.3 Résolution par sous-problèmes quadratiques et dualité


On souhaite résoudre le problème d'optimisation suivant, dans lequel la fonction
objectif est une fonction réciproque et la contrainte est une approximation
linéaire:
. 1 1
mm- + -
x x, x2

Il s'agit ici de la forme classique d'un


problème de dimensionnement opti-
mal de treillis, ou de l'approximation
qu'on en fait classiquement. Ce pro- 3

blème est résolu par approximations


2.5
quadratiques successives de la fonc-
tion objectif, comme en (9.13), alors
que la contrainte reste linéaire. Chaque
sous-problème approché ainsi généré
est alors résolu par méthode duale 1.5 2 2.5 3 3.5 4

(figure 9.31). Le point de départ du X1

processus d'optimisation a pour coor-


Figure 9.31 Minimisation
données (x1 ; x 2 ) = (1 ; 1).
avec contrainte.
À l'itération l, les coefficients de
l'approximation quadratique séparable
(9.13) au point (1; 1) sont donnés par:

àfo 1 àfo 1
fo =l - = - - = -1 - = - - = -1
CJx1 X~ CJx2 X~

Le sous-problème d'optimisation illustré à la figure 9.32 sécrit alors:

177
9 Méthodes d'approximations séquentielles convexes

.:r

1.5
3 2.5

Figure 9.32 Approximation quadratique à l'itération 1.

Le lagrangien prend la forme suivante :

Les relations primales-duales sont obtenues en assurant la stationnarité du


lagrangien par rapport aux variables primales. On obtient :

3-À 3-À
X=-- X=--
1 2 2 2

La fonction duale est alors donnée par :

"Cl À2 3
c
0 l(À)= - - - À+-
::::i 2 2 1.6
0

"""
..-1
0 Le problème dual consiste alors à 1.2
N
@ maximiser cette fonction, tout en

..c
Ol
assurant que la variable duale  reste 08
·
·;::
>-
a.
non négative. Ce problème est illustré
0
u à la figure 9.33. La solution est obtenue o.4

pour  = O.
· 1.5 ·1 ·0.5 0 0.5

maxl(À)
Figure 9 .33 Problème dual
à l' itération 1.

178
9.1 Motivations et solution proposée

La solution du sous-problème quadratique est donnée par:

(x~ 1 >' ; x~1 >· ) = (1, 5; 1, 5) f o(x0 ») = 4 / 3 ] 0 (x 0 >* ) = l, 5

À l'itération 2, le sous-problème d'optimisation s'écrit selon :

.
mm 10
'j:(2) -
-
0,5926 2
x1 + 0,5926 x 22 - 4 x 1 - 4 x 2 + 4
2 2 3 3
Il est illustré à la figure 9.34. Ici aussi, la méthode duale est utilisée. La fonction à
maximiser est illustrée à la figure 9.35.

- r ~· ._
21 ~'-
1.5+ •

Figure 9.34 Approximation quadratique à l'itération 2.

0.5

-0.5

·1

-1 .5 '-----~---'-----~-----'

-1 -0.5 0 0.5

Figure 9.35 Problème dual à l'itération 2.

179
9 Méthodes d'approximations séquentielles convexes

Une troisième itération permet de d éterminer de manière plus précise la solution


du problème initial :
. -(3) - 0,25 2 0,25 2
mmf0 - - -x, +--x2 -0,75x, -0,75x2 +3
2 2
La solution finale est donnée par :
(x~ 3 t; x~3 t ) = (2; 2)

fo (x<o)• ) = 1
ex;; x; )=(2;2)

9 .8 Références
(1] Starnes J.H., Jr, Haftka R.T. - « Preliminary design of composite wings for buckling, strength and displacement
constraints », J. Aircraft, 1979, vol. 16, n° 8, p. 564-570.
(2) Braibant V., Fleury C. - «An approximate concepts approach to shape optimal design», Computer Methods in
Applied Mechanics and Engineering, 1985, vol. 53, p. 119-148.
(3) Duysinx P. - « Layout optimization : a mathematical programming approach », Rapport DCAMM 540,
Technical University of Denmark, i997.
(4] Duysinx P., Bends0e M.P. - « Topology optimization of continuum structures with local stress constraints »,
International Journal for Numerical Methods in Engineering, 1998, vol. 43, p. 1453-1478.
( 5] Zhang WH., Fleury C., Duysinx P. - «A generalized method ofmoving asymptotes (GMMA) including equality
constraints », First World Congress of Structural and Multidisciplinary Optimization, Goslar, Allemagne,
28 mai-2 juin 1995.
(6) Sigmund O. - «Design ofmultiphysics actuators using topology optimization - Part 1 : one-material structures»,
Computer Methods in Applied Mechanics and Engineering, 2001, vol. i99, n° 49, p. 6577-6604.
(7) Bruyneel M., Fleury C. - «Composite structures optimization using sequential convex programming », Advances
in Engineering Software, 2002, vol. 33, p. 697-711.
"O [8] Bruyneel M. - «A general and effective approach for the optimal design offi ber reinforced composite structures»,
0
c Composites Science & Technology, 2006, vol. 66, p. 1303 -1314.
::J
0 (9) Fleury C., Braibant V. - « Structural optimisation: a new dual method using mixed variables », International
v
T"-f journal for Numerical Methods in Engineering, 1986, vol. 23, p. 409-428.
0
N
[1o) Svanberg K. - « The method of moving asymptotes - A new method for structural optimization », International
@
~
Journal for Numerical Methods in Engineering, 1987, vol. 24, p. 359-373.
..c
Ol [11] Svanberg K. - «A globally convergent version ofMMA without linesearch », First World Congress of Structural
ï::::
>- and Multidisciplinary Optimization, Goslar, Allemagne, 28 mai-2 juin 1995.
a.
0
u (12) Smaoui H., Fleury C., Schmit L.A. - « Advances in dual algorithms and convex approximation methods »,
AIAA/ASME/ASCE 291h Structural Dynamics and Material Conference, 1988, p. 1339-1347.
(13) Bruyneel M., Duysinx P., Fleury C. - « A family of MMA approximations for structural optimization »,
Structural & Multidisciplinary Optimization, 2002, vol. 24, p. 263 -276.
(14] Bonnans J.F., Gilbert J.C., Lemaréchal C., Sagastizabal C.A. - « Numerical optimisation : theoretical and
practical aspects», Springer, Berlin, Heidelberg New York, 2003 .
(15) Bruyneel M. - «Optimisation de structures: recueil d'exercices», Rapport OF63, Laboratoire de techniques
aéronautiques et spatiales, Université de Liège, Belgique, 2002.
180
Cale 1de sensibilité

Lorsque des méthodes basées sur les gradients sont utilisées, il faut pouvoir
calculer les dérivées des fonctions entrant dans le problème d'optimisation.
Le calcul de sensibilité est alors utilisé.

10.1. Utilité et difficultés


La solution d'un problème d'optimisation de structures est itérative. Elle alterne
analyse de la structure, le plus souvent par la méthode des éléments finis, et passage
dans l'algorithme d'optimisation de manière à donner une nouvelle estimation
de la valeur des variables de conception. Ce processus se poursuit jusqu'à
convergence. Lorsque des méthodes basées sur les gradients sont utilisées, il faut
alimenter l' optimiseur avec la valeur des dérivées de chaque fonction, qu'elle soit
objectif ou contrainte, par rapport à chaque variable de conception. Le calcul de
ces dérivées s'appelle l'analyse de sensibilité. Cette phase du processus itératif est
souvent la plus demandeuse en temps de calcul et en ressources informatiques.
Même si le calcul de la dérivée de certaines fonctions est trivial quand celles-ci
peuvent s'écrire de manière analytique, la solution du problème étant calculée
par éléments finis, les dérivées seront également calculées par voie numérique.

Soient par exemple une structure ne comportant que des barres ou des poutres,
et un problème d'optimisation de dimensionnement. En supposant que la masse
du treillis soit la fonction objectif, cette dernières' écrit explicitement:

où Ai, Li et pi sont respectivement l'aire de la section, la longueur de la barre


et la densité du matériau. r.: augmentation des dimensions de la section d'un

181
10 Calcul de sensibilité

élément augmente toujours sa masse. Les dérivées partielles dont on a besoin


sont donc toujours strictement positives. Si la variable de conception xi est la
section Ai d'une barre ou d'une poutre, la dérivée partielle analytique est connue
et a l'expression suivante :

adfX; =pL
,,
Si le profil de la section est extrait d'un catalogue de profils, on connaît là aussi
l'expression analytique de toutes les dérivées partielles dont on a besoin pour
l'approximation de la fonction objectif. Mais en pratique, même si la dérivée
est triviale, elle sera calculée numériquement car, pour d'autres fonctions, la
relation par rapport aux variables de conception n'est pas explicite. Le problème
se complique en effet pour certaines contraintes générales d'optimisation. La
tension dans une poutre ou une barre d'un treillis est une fonction non linéaire
de la section de la poutre, ou de la section des poutres pour un treillis. Elle n'est
généralement pas explicite, sa dérivée partielle n'est donc généralement pas
calculable directement. Or il est impératif d'évaluer l'expression suivante pour
chaque variable, et une approche numérique est indispensable :
d()
dxi
Dès le début de l'utilisation industrielle des techniques d'optimisation de dimen-
sionnement, il est apparu indispensable de réduire le coût d'évaluation des déri-
vées premières évaluées lors de l'analyse de sensibilité. Les dérivées secondes sont
très rarement calculées à cause du coût additionnel que cela engendre. Les mé-
thodes de calcul des dérivées premières sont présentées dans ce chapitre [l ,2,3].
Elles peuvent être étendues aux dérivées d'ordres plus élevés.
"O
0
c
::J
0
v
T"-f
0
10.2 Étude paramétrique
N
@
~ Une manière simple d'évaluer l'influence que peut avoir la valeur d'une variable
..c
Ol
ï:::: sur une réponse structurale est d'effectuer une étude paramétrique. Quand on
>-
a.
0 réalise une étude paramétrique, on calcule une tendance sur un intervalle ou
u
«évolution moyenne »,la variable passant de la valeur x; à la valeur x;+~; qui
n'est pas proche de la précédente. Ce n'est pas une dérivée partielle comme
celle définie ci-dessus qui, au sens mathématique, est une quantité locale et qui
suppose que la variation de la valeur de la variable tende vers zéro. Utiliser les
résultats d'une étude paramétrique pour s'épargner des analyses de sensibilité ne
permet pas de construire une approximation de qualité.
182
10.3 Dérivées par différences finies

10.3 Dérivées par différences finies


La manière la plus simple et la plus directe de calculer la dérivée d'une fonction
~(x) par rapport à la variable x i est d'utiliser la formule des différences finies:

àf/x) _ àf/x1 ,. .. ,X;, ... ,xJ _ J/xI' ... ,xi +~i'"'xn)- J/x 1 , ... ,X;, ... ,xJ
axi axi ~i
On évalue la fonction f (x) pour les valeurs nominales des variables de conception
J
ainsi que pour la valeur perturbée de la variable x i, les autres variables différentes
dei conservant leur valeur nominale. r amplitude de la perturbation de la variable
x i vaut ~i' Si la variable est suffisamment peu perturbée, la différence finie donne
une bonne approximation de la dérivée. Cette opération doit être effectuée pour
chaque variable de conception x;, i = 1, ... ,n. La formule ci-dessus est celle de
différences finies avant, car on utilise une valeur perturbée de la variable xi qui
est plus grande que la valeur actuelle xi' soit x;+dxc Il faut n+ 1 évaluations de
fonction pour calculer l'ensemble des dérivées premières : une évaluation de la
valeur nominale de la fonction, ainsi que n évaluations en perturbant tour à tour
chacune des n variables x, i = 1, .. .,n. On doit donc résoudre, dans le cas d'une
l

analyse statique linéaire, n+ 1 fois le système d'équations suivant :

F = Kq

En effet, les variables de conception impactent la valeur de la matrice K et du


vecteur F, et par conséquent du vecteur résultat q et des fonctions associées.

Dans la méthode des différences finies, si le problème comporte deux variables


x 1 et x2 , on aura alors à effectuer les calculs suivants:

axl ~l ax2 ~2
On voit donc bien qu'il faut évaluer ~(x 1 , x2 ),~(x 1 +dx 1 , x2 ) et~(x 1 , x2 +~J On
peut également utiliser la différence finie centrée. Dans ce cas, on a besoin de
2n+ 1 évaluations de fonction :
àf/x) _ J/x 1 , ••. ,xi +~i, .. ,x,) - f/x 1 , ... ,xi -~i' ... ,x1)
axi 2~i
Ce type de différences finies fournit parfois des résultats plus précis. Mais, d'une
manière générale, la qualité de la dérivée ainsi calculée dépend de l'amplitude
de la perturbation ~; qui est utilisée. Si sa valeur est trop grande, on calcule
une sécante et non plus une tangente (figure 10.1). Si sa valeur est trop petite, on
peut tomber dans des imprécisions numériques liées à la précision machine lors
183
10 Calcul de sensibilité

du calcul du quotient. En pratique, x i.max et x i,nun étant les variables de borne de la


variable xi, on peut utiliser une valeur de perturbation donnée par :

Llxi = 1o-4(xi.max - xi.min)

fj(x) fj(x)

X·l X·l X.+Llx·


l l

Figure 10.1 Calcul de la dérivée par différences finies.

La méthode par différences finies n'est pas performante car elle demande de
nombreuses évaluations de fonctions, même si celles-ci peuvent se faire en
utilisant des possibilités de calcul parallèle. Elle est néanmoins utilisée lorsqu'on
n'a pas le choix. Ce choix consiste à effectuer l'analyse de sensibilité avec des
méthodes analytiques ou semi-analytiques.

10.4 Dérivées semi-analytiques


On se base ici sur les équations qui permettent de décrire la physique du problème
étudié pour déterminer la dérivée des grandeurs intervenant dans le problème
"O
c
0 d'optimisation.
::J
0
v
T"-f
0 10.4.1 Cas d'une analyse statique linéaire
N
@ en dimensionnement
~
..c
Ol
ï:::: Si u est le champ de déplacement dans un élément, a le vecteur des coordonnées
>-
a.
0 matérielles du point matériel observé dans l'élément, N la matrice des fonctions
u
d'interpolation de l'élément, q le vecteur des degrés de liberté de l'élément,
les déformations e dans l'élément sont reliées au vecteur q par la matrice des
déformations B selon la relation suivante :
e = ou = êJNq = oN q = Bq
aa aa aa
184
10.3 Dérivées par différences finies

La matrice des déformations B est indépendante des variables de conception


pour un problème de dimensionnement, elle décrit la cinématique interne de
l'élément. Connaissant le lien entre les contraintes et les déformations et sachant
que la loi de comportement H est elle aussi indépendante des variables de
conception, on peut écrire :

a = He = HBq àa = àHBq = HB àq
àx àx àx
La dérivée de la tension par rapport à une variable de conception est
proportionnelle à la dérivée du déplacement par rapport à cette variable. Il suffit
donc de déterminer :
àq
àx
Si on part de l'équation d'équilibre pour évaluer cette dérivée partielle, on peut
la calculer de manière analytique :

F= Kq => q = K-1F => àq = ê)K-1 F + K-1 ê)F


àx; àx; àx;
On constate que, pour calculer cette dérivée, il faut connaître la valeur des
déplacements q à l'équilibre, l'inverse de la matrice de raideur K, ainsi que les
dérivées de la matrice K- 1 et du vecteur de forces F par rapport à la variable x;.
On verra par la suite comment calculer les dérivées de K et de F. Cette évaluation
est trop coûteuse car l'inverse de la matrice de raideur K doit être calculée
pour chaque modification de la variable de conception. À partir de l'équation
d'équilibre, on peut mettre en place une autre expression de la dérivée partielle
en écrivant :

F= Kq (10.1)

On trouve également l'écriture suivante :

avec

On voit que, pour évaluer la dérivée partielle, on perturbe la matrice de raideur K


pour chaque variable de conception, mais on utilise son inverse qui est connue
au point courant. Elle a permis de calculer le déplacement q et les tensions dans
la structure. L inverse de la matrice de raideur n'a donc pas à être recalculée pour
chaque variation d'une variable de conception. Tout comme on résout le système
F = Kq pour déterminer la valeur des déplacements q, déterminer la dérivée du

185
10 Calcul de sensibilité

déplacement q par rapport à la variable de conception xi revient à résoudre le


système d'équations suivant :
aq -
K - = F<n
dX;

Le vecteur force est la pseudo-charge F associée à la variable xr Pour chaque


variable de conception, il faut donc résoudre le problème ci-dessus en ayant
évalué au préalable la pseudo-charge associée à la variable xi. Si le problème
comprend n variables de conception, on aura donc n cas de charge additionnels
à traiter pour déterminer les dérivées par rapport à chaque variable. Il s'agit de la
méthode directe des pseudo-charges. Par exemple, dans le cas de deux variables,
il faudra résoudre les trois problèmes suivants :

F = Kq

oq - - oF oK
K -;- = F(,) avec F<,l =-;---;- q
ox1 ox 1 ox 1
aq -
K -;- = F<2 l
- aF aK
avec F(2 ) = -;- - -;- q
oX 2 o X2 oX2

Le premier est l'équation d'équilibre, les deux autres permettent le calcul des
dérivées par rapport à x , et par rapport à x 2 • On calcule de cette manière la
dérivée de tous les degrés de liberté q. repris dans le vecteur des déplacements q
J
par rapport à chaque variable xi'

La pseudo-charge est composée de deux termes : le premier fait apparaître la


dérivée de la charge par rapport à chaque variable de conception, le second la
dérivée de la matrice de raideur par rapport à ces mêmes variables. Le seul cas où
la charge dépend des variables de conception pour un problème de dimension-
"O
c
0 nement est celui des charges de volume, comme par exemple un champ d' accé-
::J
0 lération. L influence de la variable xi sur la charge dans l'élément i est explicite-
v
T"-f
0
ment connue, la dérivée est connue analytiquement. Et dans la plupart des cas, la
N
charge de volume étant nulle, la dérivée partielle s'écrit :
@
~
..c
Ol
ï::::
>-
dq = - K -' [ éJK
dX; dXi
q] ==> da = HB dq = - HBK_1 [ dK
dX; dX; dX;
q]
a.
0
u
Lorsqu'il y a beaucoup plus de variables de conception que de contraintes dans
le problème, il est plus intéressant d'opter pour une autre méthode. Il arrive en
effet parfois que seuls quelques déplacements nodaux soient contraints dans le
problème d'optimisation, et par conséquent seules les dérivées de ces
déplacements par rapport aux variables de conception sont nécessaires. C'est le
cas par exemple en optimisation topologique.
186
10.3 Dérivées par différences finies

On arrive à agencer les calculs de


manière moins coûteuse dans ce cas,
comme expliqué ci-après. En effet, une
fois le vecteur des dérivées connu par
la méthode expliquée précédemment,
on peut rechercher la dérivée d'un
déplacement ou d'un degré de liberté
particulier dans la structure, par
exemple pour q3 à la figure 10.2. Pour
Figure 10.2 Treillis et degrés
repérer ce degré de liberté dans le de liberté q.
vecteur q global, on utilise le vecteur
de localisation b tel que :
ql
q2
q3
q3 = b~>q = (o,0,1,o,o,o)
q4
qs
q6
Ce vecteur b est constitué de 0 et d'une valeur unitaire associée au degré de
liberté que l'on veut traiter. Le vecteur b peut contenir d'autres valeurs, et, dans
ce cas, une combinaison des degrés de liberté est réalisée. Dans l'exemple traité,
on aura donc :

D'une manière générale, on aura le vecteur de localisation suivant pour aller


repérer le degré de liberté q.J dans le vecteur déplacement q:

qn
Sur la base de cette constatation, on peut calculer la dérivée comme suit :
ê)qj T ê)q T -1-
-dX = b(J") -dX. = b<>K
J
Fu>
1 1

On peut donc effectuer les calculs différemment en utilisant cette relation. Dans
la méthode précédente, on devait résoudre le problème avec inversion de matrice
187
10 Calcul de sensibilité

pour chaque variable de conception. Ici, puisque le degré de liberté q.J est
clairement identifié, grâce à l'utilisation du vecteur de localisation b, on peut
effectuer une fois pour toutes le produit vecteur/matrice b(j)7K- 1, ce qui nous
donne un vecteur noté v.

En multipliant ce vecteur par le vecteur


des pseudo-charges associées, on
obtient alors la valeur de la dérivée.
Le vecteur b est en quelque sorte une
charge unitaire qui multiplie l'inverse
de la matrice K. Il est appelé charge
virtuelle et est illustré à la figure 10.3.
On applique une charge unitaire sur
Figure 10.3 Charge virtuelle.
le degré de liberté dont on souhaite
calculer la sensibilité. Cette manière de faire est avantageuse d'un point de vue
calcul car le nombre de cas de charge additionnels à effectuer correspond au
nombre de contraintes sur les degrés de liberté. Par exemple, dans le cas de deux
variables et d'une contrainte sur q., il faudra résoudre les problèmes suivants:
J
F = Kq

b(j) = Kv
ê)qj T ê)q y-
- = bj - = v F(IJ avec
axl ax.
ê)q j r àq r- - ê)F ê)K
-;----- = bj -;----- = v F(2l avec F<2l = -;---;-q
ux 2 ux2 ox2 ox2
"O Un seul cas de charge additionnel apparaît pour déterminer la valeur du vecteur v.
0
c Le calcul des dérivées ne demande alors que des produits de vecteurs. Si, dans
::J
0
v un problème d'optimisation, on a n variables de conception et m contraintes sur
T"-f
0
N
les déplacements, la méthode des charges virtuelles demandera m cas de charge
@ supplémentaires à résoudre.
~
..c
Ol
ï:::: La méthode directe des pseudo-charges en demandera n. Dans un problème
>-
a.
0 d'optimisation topologique par exemple, puisque n est très largement supérieur
u
à m, on préfère utiliser la méthode des charges virtuelles.

10.4.2. Méthode analytique versus semi-analytique


Le calcul des dérivées de la matrice de raideur K et des forces F, alimentant
le vecteur des pseudo-charges, peut se faire de différentes manières. On peut
188
10.3 Dérivées par différences finies

calculer la dérivée de manière ana- l


lytique, en fonction de l'élément fini { ()
considéré ou de la formulation du pro-
blème d'optimisation retenue. Consi- ql
dérons un élément de barre horizon-
Figure 10.4 Élément fini
tale en dimensionnement optimal, de de barres et ses deux degrés
caractéristiques A., E. et L. représentant
1 l l de liberté.
respectivement l'aire de la section, le
module d'Young et la longueur, comme illustré à la figure 10.4. I.:élément com-
prend deux degrés de liberté q1 et q2 • La variable de conception est Ai"

Dans le repère propre de l'élément, la matrice de raideur peut se mettre sous la


forme suivante :

_ E;A;
K.- - [ 1 - 1]-
- A. -E; [ 1 - 1] --A. -K ;
L. - 1 1
l L. - 1 1 l l
l l

On voit apparaître l'expression de la matrice de raideur sans l'influence de la


variable de conception. La dérivée analytique de Ki par rapport à A i est donnée
par:
dK; = E; [ 1 - lJ= K;
dA; L; - 1 1

On pourrait effectuer ce type de calcul de dérivée pour tous les éléments finis
disponibles dans un code de calcul industriel, ainsi que pour tout type de variables
de conception (aire de section, longueur, matériau, position des nœuds, variable
de topologie ... ). Sauf cas particuliers dont on parlera par la suite, on ne pratique
pas de la sorte car cette approche n'est pas générale : pour chaque nouvel élément
implanté dans le code éléments finis, le calcul de toutes les dérivées partielles doit
également être programmé, ce qui demande du temps. En pratique, ces dérivées
sont plutôt calculées par différences finies, et on a alors :
dK K( x1 , .• ,x; +6.x;, ... ,xn) - K( xl' .. ,x;, ... ,xn)
dx; 6.x;
dF F(x 1 , •• ,x; + 6.x;, ... ,x,, )-F(x 1 , •• ,x; , ... ,x 11
)

dx; 6.x;
Lorsque les dérivées de la raideur et des forces sont calculées de cette façon et
que la formule générale de dérivée analytique ( 10.1) est utilisée, la méthode est
appelée dérivée semi-analytique. r évaluation des dérivées selon les formules ci-
dessus n'est pas coûteuse, car elle ne nécessite pas la résolution d'un système
d'équations.
189
10 Calcul de sensibilité

On perturbe simplement la valeur de la variable et on mesure son effet sur la


raideur et les forces. Lorsque la variable de conception n'impacte quel' élément
auquel elle appartient, ces différences finies sont évaluées au niveau élémentaire :
dK; _ K ; (x" .. ,x; +Lix;, ... ,xn}-K;(x" .. ,x;> ... ,x,,)
dx; Lix;
dF; F; (x 1 , .. ,x; +Lix;, ... ,x,,)-F; (x 1 , .. ,x;, ... ,x,,)
dx; LÎX;

10.5 Exemple
Pour fixer les idées, on considère le cas du treillis de la figure 10.2, avec les deux
variables de conception A 1 et A 2 représentant l'aire de la section des barres 1
et 2. Considérant qu'elles sont inclinées à -45° et 45°, les matrices de raideur
élémentaires sont données par :
cz SC - c2 -se

K . =A;E; SC s2 -se -s 2 c = cos(B)


1 L.
1
-c
2
- se c2 SC s = sin(B;)
-se -s 2 SC s2

1 -1 -1 1 1 1 -1 -1
AIE -1 1 1 -1 K =AzE
1 1 -1 -1
K1 = - 2
2L - 1 1 1 - 1 2L - 1 - 1 1 1
1 -1 -1 1 -1 -1 1 1

"O
c
0 La matrice de raideur assemblée prend la forme suivante, lorsque le vecteur des
::J
0 degrés de liberté est donné par (q 1, •• • ,q6 ):
v
T"-f
0
N
A, -A 1 -A1 Ai 0 0
@
~
-A1 A1 A1 -A1 0 0
..c
Ol -A1 A1 A1 +Az -A1+A2 -A2 -A2
ï::::
>- K =_E_
a.
0 s 2L A1 - A1 -A1 +Az A1+Az -Az -A2
u
0 0 -A2 -A2 Az Az
0 0 -A2 -A2 Az Az
Le système mis en place n'est pas inversible, c'est le sous-système obtenu après la
prise en compte des conditions aux limites qui est inversé [4] . Traditionnellement,
on le note F = Kq, ce qui peut prêter à confusion. Puisque seuls les degrés
190
10.3 Dérivées par différences finies

de liberté % et q4 ne sont pas contraints (figure 10.2), on obtient le système


d'équations suivant :

_Ë__[A, + A 2

2L A1 - A,
Le vecteur q est maintenant le vecteur contenant les degrés de liberté %et q4 • On
peut inverser la matrice de raideur K associée à ces deux degrés de liberté et on
obtient:
1 1
A2 A,
1 1
- +-
A, A2
La dérivée de la matrice K par rapport aux variables de conception vaut :

é)K
oA,
E [
= 2L -1
1 -1]
1
é)K
oA2
E [l l]
= 2L 1 1

Calculons ici la dérivée des déplacements par rapport à la variable A ,. En


considérant que la force F ne dépend pas des variables de conception, la pseudo-
charge associée à la variable A , est donnée par:

-
F (I) =
oF oK oK
aA, - aA, q = - aA, q = -
E [
2L - 1
1 -1
1
J(q3)
q4
En multipliant l'inverse de K par la pseudo-charge associée à la variable A ,, on
obtient finalement :
aq = K-'ï:o) = _ _ 1_[q3 -q4]
oA, 2A, q4 - q3
De même, pour la dérivée par rapport à la variable A 2 , on obtient :

-
F(2) =
aF aK
àAi - oA2 q = -
aK E [l l](q3)
oA2 q = - 2L 1 1 q4

aq = K-'~ l= __1_[q3+q4]
2
0A2 2A2 q3 +q4
En utilisant le vecteur de localisation b réduit aux degrés de liberté % et q4 , la
dérivée de % par rapport à A 1 et A 2 est alors donnée par :

191
10 Calcul de sensibilité

Quand on utilise la méthode de la charge virtuelle pour déterminer la même


quantité, on obtient :
aq3 T àq T -1 - T -1 aK
- = b(3) - = b(3)K F0 ) = - b(3lK - q
àA1 àA1 àA1
La pseudo-charge a été calculée précédemment et est connue. On calcule ici
l'unique cas de charge supplémentaire en résolvant le système suivant :

b(3l = Kv

v=K
-1 b (3) =L-
2E

On a finalement :
()q3 T-r T ()K q -q
=V F (l) = - v àA q = - 3 4
àA , , 2A,
La dérivée par rapport à A 2 s'obtient simplement, sans cas de charge
supplémentaire :

10.6 Cas des contraintes de tension


Comme on l'a vu précédemment, le champ de tension dans un élément fini
s'écrit selon :
"O
c
0 a = HE = HBq = Tq
::J
0
v
T"-f
où T est la matrice de tension de l'élément. On peut également considérer que la
0
N dérivée de a est donnée par la formule suivante :
@
~
..c
{)(J = a( X+ dx ) - a( X)
Ol
ï::::
>-
ax i axi
a.
0 Avec
u
(x + dxf =(x 1 , ••• ,xi +dx;, ... ,xn)

<J(x) = Tq(x) et <J(x + dx) = Tq(x + dx)

q(x + dx) = q(x) + aq dx


ax
192
10.3 Dérivées par différences finies

D'une manière générale, la dérivée de la tension cr prend la forme suivante:

da = êJTq = êJT q + T dq
dx ; dx dx dx
On voit apparaître les dérivées des déplacements, qui sont maintenant connues,
et les dérivées de la matrice de tension qui sont non nulles dans le cas de
l'optimisation de forme ou lorsque les propriétés du matériau dépendent de la
variable de conception. Ces dérivées peuvent être calculées de manière analytique
ou par différences finies.

10.7 Cas de la compliance


La compliance est l'énergie associée aux forces externes dans le cas d'un problème
statique. En termes des vecteurs de déplacements q et de forces F, elle a pour
expression :

On peut calculer la dérivée de C par rapport à une variable xi :

ac= dFT q + FT dq
dx; dx; dx;
Connaissant l'expression de la dérivée des déplacements q par rapport à la
variable x 1., il vient :
ac =2q
-
T êJF ,,. êJK
- - q -q
dx; dx; dx;
La dérivée de la compliance fait donc intervenir la valeur des déplacements q à
l'équilibre, ainsi que les dérivées des forces F et de la matrice de raideur K. Il n'y a
pas de cas de charge additionnels à prendre en compte. Et, s'il n'y a pas de charge
de volume, le premier terme de l'expression ci-dessus est nul. Cette fonction
compliance joue un rôle important en optimisation topologique. On poursuivra
la discussion sur le calcul de sa dérivée dans le chapitre 13.

10.8 Cas des fréquences de vibration


Quand la contrainte générale (ou une des contraintes) du problème porte sur les
fréquences propres, on cherche généralement à ce que la première fréquence soit
supérieure à une valeur donnée. En optimisation de dimensionnement, quand

193
10 Calcul de sensibilité

on change la valeur d'une variable de conception, la forme des modes propres


ne change pas, seule la fréquence associée évolue. On utilise ce résultat dans le
calcul ci-dessous réalisé dans le cas d'une analyse modale.

En un point de conception, on calcule les fréquences et, pour construire le


problème explicite approché, on doit déterminer l'évolution des fréquences
en fonction de l'évolution des variables de conception. r équation aux valeurs
propres s'écrit sous la forme suivante :

M et K sont les matrices de masse et de raideur, alors que (J) est la pulsation
propre. Le vecteur q représente le mode de vibration. I.:indice k repère le mode.
Puisque la forme du mode ne change pas, la dérivée dq/dx est nulle. On écrit :

Dans l'expression ci-dessus, le mode propre q (k) et sa fréquence associée sont


connus. Le dénominateur l'est également, il s'agit de la masse généralisée associée
au mode propre considéré. r amplitude des modes propres est arbitraire, on les
normalise généralement par rapport à la masse. Le dénominateur a donc pour
valeur 1. On sait déterminer analytiquement les dérivées partielles de la matrice
de raideur à partir de la matrice de raideur et de la valeur courante des variables
"O
de conception. Il en est de même pour la matrice de masse, quel que soit le
0
c type d'élément fini, que la matrice de masse soit diagonale ou consistante. Si les
::J
0 dérivées sont calculées par différences finies en perturbant la valeur de la variable
v
T"-f
0 de conception, la dérivée du carré de la pulsation propre est donc évaluée par
N
@ une méthode semi-analytique. Le calcul des fréquences multiples et des modes
~
..c de vibration associés est plus compliqué et n'est pas abordé dans cet ouvrage.
Ol
ï::::
>-
a.
0
u
1O.9 Cas des charges de flambement
Dans le cas d'un problème de dimensionnement optimal, la contrainte peut
également porter sur la valeur du facteur de charge critique, qui doit être supérieur
à une valeur donnée. Le cas des charges de flambement est fort semblable à celui
des fréquences de vibration. Le problème aux valeurs propres à résoudre s'écrit
194
10.3 Dérivées par différences finies

sous la forme suivante, formellement identique à l'équation aux valeurs propres


mise en place en analyse modale lorsque l'analyse de stabilité est réalisée selon
l'approche d'Euler (stabilité linéaire) :

(K - Â<klS) q<kl = 0
S est la matrice de contraintes initiales, encore appelée matrice de raideur
géométrique et également notée Ka, alors que Il est le facteur de charge critique.
Le produit de la charge de service par le facteur de charge critique est la charge de
flambement. Le vecteur q représente le mode de flambement. r indice k repère
le mode. En appliquant le même principe que dans la section précédente, on
obtient:
ê),.1,<kl _
- T
1 r
q(k)
(ê)K_ 1
/l,(k)
~J q(k)
dXi q(k)Sq(k) dX; dXi

La différence par rapport au cas des vibrations est que la matrice S dépend non
seulement des variables de conception, mais aussi des modes qui eux-mêmes
dépendent des variables de conception :

S = S(x,q(x))

Le calcul de la dérivée de la matrice S est donc, en principe, plus délicat que celui
du calcul de la dérivée de la matrice M. Cependant, en pratique, on néglige la
dépendance de S par rapport à q(x), l'erreur introduite par cette approximation
est considérée comme négligeable. La dérivée est calculée par différences finies :
ê)S S(x1 , .. ,X; +~;, ... ,x )-S(x., .. ,X;, ... ,X i)
11 1

axi ~i
Là encore, en dimensionnement optimal, pour construire l'approximation
locale au voisinage du point courant, on peut donc calculer toutes les dérivées
partielles de la fonction objectif (souvent la masse de la structure) et toutes les
dérivées partielles des contraintes à partir d'une seule analyse par éléments finis
et ceci, quel que soit le nombre de variables de conception. remploi des dérivées
analytiques ou semi-analytiques pour déterminer les dérivées partielles est en
soi un bel exemple d'optimisation des performances des outils numériques
d'optimisation.

10.10 Cas des composites


Pour les orientations d'angles, on doit évaluer la dérivée d'une matrice de
rotation, qui sera présentée dans le chapitre 14 dédié à l'optimisation des
195
10 Calcul de sensibilité

structures faites de tels matériaux. Pour les épaisseurs de plis, les formules
semi-analytiques utilisées en dimensionnement sont utilisées. De nombreux
paramétrages existent, et une analyse de sensibilité adaptée doit être développée.

10.11 Cas non linéaires


Les notions expliquées plus haut peuvent être étendues aux problèmes non
linéaires [ 1]. On peut soit utiliser les différences finies soit utiliser des dérivées
semi-analytiques pour calculer les dérivées partielles nécessaires.

La solution la plus simple consiste à utiliser les différences finies. Dans ce cas,
l'analyse de sensibilité pour la variable de conception \ est effectuée à partir
des résultats obtenus pour deux analyses non linéaires : l'une pour les valeurs
courantes des variables de conception, l'autre en remplaçant la valeur courante
de x; par sa valeur perturbée. Vu le coût d'une analyse non linéaire par rapport à
celui d'une analyse linéaire, vu le nombre de variables et le nombre d'itérations
du processus de résolution du problème d'optimisation, on évite généralement
d'utiliser cette méthode car le temps de calcul peut devenir excessivement long.

rutilisation de dérivées semi-analytiques est intéressante car plus économique.


Dans ce cas, on calcule les dérivées partielles par rapport aux variables de
conception à chaque pas convergé, ce qui évite de refaire une analyse complète avec
une variable de valeur perturbée. Cette technique a par exemple été utilisée pour
le design optimal d'un panneau composite soumis à des contraintes de stabilité
et de charge de ruine [5]. Il faut souligner que les dérivées semi-analytiques sont
difficiles à mettre en place (expression analytique puis programmation).

"O
0

~ 10.12 Références
[1 ] Haftka R.T., Gurdal Z. - Elements of structural optimization, Kluwer Academic Publishers, i992.
[ 2 J Fleury
C. - Le dimensionnement automatique des structures élastiques, Thèse de doctorat, Université de Liège,
~
..c Belgique, 1978.
Ol
ï:::: [3] Braibant V. - Optimisation de forme des structures en vue de la conception assistée par ordinateur, Thèse de
>-
a. doctorat. Université de Liège, Belgique, 1986.
0
u [4] Craveur J.C., Chèze C. - Mécanique des structures, du calcul analytique au calcul matriciel, Ellipses, 2008.
[5] Bruyneel M., Colson B., Delsemme J.P., Jetteur P., Grihon S., Remouchamps A. - « Exploiting semi-analytical
sensitivities from linear and non-linear finite element analyses for composite panel optimisation», International
Journal of Structural Stability & Dynamics, 2010, vol. 10, n° 4, p. 885 -903.

196
Algorithmes
génétiques

L'algorithme génétique est une méthode répandue pour traiter les


problèmes d'optimisation. Ce chapitre en décrit ici les fondements, bien
que ses performances soient très faibles dans le cadre de l'optimisation des
structures.

11.1 Intérêt et principes de la méthode


Dans un certain nombre de cas (figure 11.1), la fonction à minimiser a des
optimums locaux et la solution optimale déterminée par les méthodes de
gradient dépend du point de départ. D'autres méthodes sont donc nécessaires
pour déterminer l'optimum global.

j(x) f(x) ~
X

Figure 11.1 Optimum global et optimums locaux.

Avec les méthodes de surfaces de réponse, les algorithmes génétiques (AG) sont
les principales méthodes sans gradients utilisées dans le cadre de l'optimisation
des structures. Pour la recherche de la solution optimale, ils ne nécessitent que la
valeur de la fonction objectif et des contraintes. Mais, au lieu d'explorer « tout »
l'espace de conception comme avec la méthode de Monte-Carlo, ou de suivre le
déplacement d'un point dans l'espace de conception comme avec les méthodes
de gradient, on optimise les performances d'une population d'individus dont les
caractéristiques évoluent à chaque itération.
197
11 Algorithmes génétiques

Ces algorithmes sont des outils d'optimisation inspirés du concept de sélection


naturelle élaboré par Charles Darwin. Dans une population donnée, les individus
les mieux adaptés à leur biotope ont une plus grande probabilité que les autres de
survivre et de transmettre leurs caractéristiques à une descendance importante.
Au fil des générations, il y a un brassage des informations génétiques dont les
caractéristiques s' homogénéisent. Les individus sont de mieux en mieux adaptés
à leur milieu, la population devient optimale vis-à-vis de ce milieu. Ce processus
« naturel » est reproduit dans les algorithmes génétiques [1,2].

Schématiquement, un algorithme génétique est une boîte noire avec une


entrée munie de potentiomètres et une sortie. On cherche par tâtonnement
comment régler les potentiomètres pour avoir la meilleure sortie en explorant
le comportement d'une population et non pas d'un individu. C'est une forme
d'essai-erreur, mais l'analyse du résultat par le programme qui lui permet d'aller
vers l'optimum différencie les outils génétiques de l'essai-erreur traditionnel.
L'analyse des performances de la population de la génération n permet de
modifier les caractéristiques des individus de la génération n+ 1 de sorte que cette
dernière ait une meilleure performance. Et on itère jusqu'à la convergence si
convergence il y a. Il y a capitalisation de la connaissance acquise sur un nombre
relativement faible d'individus de manière à guider l'exploration.
Ce n'est pas un autre type d'optimisation qui viendrait s'ajouter aux types
décrits dans le chapitre 3, mais une autre façon de rechercher l'optimum. On
peut utiliser des algorithmes génétiques en optimisation de dimensionnement,
de forme, de matériau optimal. Ils peuvent donner des solutions quand l'espace
de conception est très complexe, quand le nombre de variables est faible, quand
le calcul des dérivées coûte trop cher ou quand celles-ci n'existent pas. La raideur
d'une structure réalisée en matériaux composites est fonction du nombre de
"O
0
plis de l'empilement, mais cette fonction n'est pas dérivable. Les algorithmes
c
::J génétiques peuvent être employés pour déterminer le nombre de plis optimal
0
v dans l'empilement (cf. chapitre 14).
T"-f
0
N
@
~
..c
Ol
11.2 Population et codage
ï::::
>-
a.
0
u Le point de départ d'un algorithme génétique est la construction de la population
initiale, qui est la génération O. Une population est un ensemble de points de
conception appelés individus. Dans un problème comprenant n variables de
conception, on prend généralement une population comprise entre Sn et 1On
individus. Un individu est défini par ses caractéristiques qui sont les valeurs des
n variables de conception tirées aléatoirement. On trouve des algorithmes avec
codage binaire, d'autres avec code réel. Dans cet ouvrage, on traite exclusivement
198
11.2 Population et codage

le codage binaire. Des informations sur le codage réel peuvent être trouvées
dans la référence [3]. Codée en langage binaire, la valeur d'une variable est une
séquence de 0 et de 1 (gènes) qui constitue un chromosome.
Pour garantir que tous les individus de toutes les générations auront leurs
chromosomes dans l'espace de conception restreint, c'est-à-dire délimité par
les contraintes de borne, on effectue deux transformations successives si on
adopte un codage binaire. Çest la valeur tirée aléatoirement pour une variable x,
comprise entre 0 et 1. On se ramène entre x mm. etxmax par:

Puis on calcule y par la relation suivante et on code en binaire l'entier dont la


valeur est la plus proche de celle de y. Cet entier est compris entre 0 et 2 nbit _ l,
nbit est le nombre de bits servant au codage des nombres ; x mm. et x max sont les
contraintes de borne de la variable x. Cela permet de discriminer les valeurs
possibles dans l'intervalle défini par les contraintes de borne, en utilisant tous les
entiers permis par le nombre de bits de la machine.

Avec un codage sur 8 bits, 00000000 est associé à xmin et 11111111 à x ax, quelles
01

que soient leurs valeurs. Si les variables ont des contraintes de borne très
différentes, des chromosomes proches en codage binaire sont en fait éloignés en
valeur réelle, ce qui peut poser des problèmes de convergence.
Pour illustrer le contenu de ce chapitre,
on va utiliser un AG pour optimiser
un treillis composé de deux barres
(figure 11.2). Les nombres sont F
supposés être codés sur 8 bits pour
l'exemple traité (32 ou 64 pour les
ordinateurs actuels), les variables
de conception sont les sections des
deux barres, elles sont soumises à des
contraintes de borne. La valeur de S1
doit être comprise entre 2 et 10 mm2 ,
celle de S2 entre 5 et 30 mm2. Un Figure 11.2 Treillis et variables
individu, c'est-à-dire un treillis, est de conception.
défini par la valeur des deux sections.
On effectue un tirage aléatoire entre 0 et 1 pour choisir la section S1 de la
première barre. Il donne par exemple 0,3019607, correspondant à une valeur
199
11 Algorithmes génétiques

initiale de 4,4156862 mm2 • La valeur entière de y est 77 dont le codage sur 8 bits
est 01OO1101. On procède de la même façon pour la variable S2 et on obtient
par exemple 00110100. Ce nombre est en binaire inférieur au précédent. Mais
il correspond à une valeur de 10,098037 mm2 pour la section S2, ce qui est
supérieur à la valeur de S1 . On associe enfin les deux chromosomes pour définir
l'individu 1 : 0100110100110100.
On reproduit cette boucle pour tous les individus de la population initiale. Pour
notre exemple, l'individu 2, après tirages aléatoires et codage, est défini par
100000110110101 1. Par exemple, on S2
tire successivement dix couples (S 1, S2 ),
les dix valeurs de S 1 puis de S2 étant
obtenues par tirage aléatoire puis trans-
formations comme expliqué précé-
demment. À chaque couple est associé
un treillis, correspondant à un point
dans l'espace de conception restreint,
point représenté par un disque noir sur
Figure 11.3 Exemple de population
la figure 11.3.
initiale générée par tirage.
On effectue une analyse par éléments finis pour chaque individu et on évalue sa
performance par rapport à l'objectif et aux contraintes (fitness), ce qui constitue
la phase d'évaluation. C'est un point délicat car il faut définir une grandeur
scalaire qui sert à déterminer l'aptitude d'un individu par rapport aux autres.
Il reste alors à créer la population de l'itération n+ 1 en se basant sur la fitness
des individus de la population n. Cela constitue le cœur de l'optimisation par
algorithmes génétiques. Un individu qui viole une ou plusieurs contraintes
générales du problème d'optimisation a une mauvaise fitness et va se voir
"Cl
c
0 probablement éliminé par le processus de sélection, ainsi qu'un individu qui
::::i
0 satisfait aux contraintes mais dont la valeur de la fonction objectif est plus
"""
..-1 importante que celle des autres individus. Classiquement, la performance est
0
N
une combinaison linéaire des objectifs avec une pénalisation pour les contraintes
@

..c
violées. Entre les individus de la génération net ceux de la génération n+ 1, un
Ol
·;:: AG comporte trois phases, détaillées dans les paragraphes suivants et on crée
>-
a.
0 deux générations intermédiaires.
u

11.3 Création de la population suivante


11.3.1 Sélection
On fait en général l'hypothèse que la taille de la population reste constante au
fil des itérations. Afin de créer la génération suivante, il faut mettre en place des
200
11.2 Population et codage

méthodes de sélection. Il en existe principalement deux : la sélection par tournoi


et la sélection par roulette.

Quand la sélection est réalisée par tournoi, on tire aléatoirement un couple dans
la population de la génération n et on regarde la performance des deux individus.
Celui qui a la meilleure performance remporte le tournoi et il est sélectionné
comme futur parent potentiel. Les deux individus qui se sont affrontés ne sont
pas supprimés de la génération n : ils restent en lice pour les tournois suivants.
Un même individu peut donc être tiré plusieurs fois, gagner ou perdre selon son
challenger. Chaque fois qu'il remporte un tournoi, il est copié dans la première
génération intermédiaire : un individu de la génération n peut y apparaître
plusieurs fois.

Quand la sélection est réalisée par roulette, on divise un disque en autant de


secteurs qu'il y a d'individus et on attribue à chacun un secteur dont la surface
est proportionnelle à sa fitness. Puis on fait « tourner » la roue et on regarde
quel est l'individu qui est « en face de l'aiguille » quand la roue s'arrête, comme
dans un jeu télévisé bien connu. Les individus dont les secteurs sont les plus
grands, c'est-à-dire ceux qui sont les plus performants, ont plus de chance d'être
sélectionnés que les autres. Ils peuvent être sélectionnés plusieurs fois pour la
génération intermédiaire, comme dans le cas de la sélection par tournoi. Quel
que soit le mode de sélection, elle est répétée autant de fois qu'il y a d'individus
à sélectionner pour constituer les générations intermédiaires.

Les individus sélectionnés ne deviennent pas directement ceux de la génération


suivante n+ l, sinon on perd rapidement en diversité. En ne gardant que
les meilleurs de chaque génération (qui sont les meilleurs des générations
précédentes car les individus ne changent pas), ils émergent et dominent les
autres par sélection. Il y a alors un excès d'exploitation des meilleurs individus
rencontrés, ce qui est illustré sur la figure 11.4.

Le point optimal déterminé à


l'itération 1 est représenté par un
• • • • • •
cercle. Le nombre d'individus est le • •
• • • • •
même à chaque itération, les individus ( 1)
• (3)

• 0

0

les plus performants apparaissant


plusieurs fois car ils gagnent les
tournois. On concentre la recherche • • •

de l'optimum vers ces individus alors c2> • • • (4) • •
• 0 0
qu'on ne sait pas s'il n'en existe pas •
d' encore meilleurs ailleurs. Des parties
entières du domaine de conception ne Figure 11 .4 Perte de diversité.
201
11 Algorithmes génétiques

sont pas explorées, l'optimum donné par le processus est le premier optimum
local rencontré. C'est pour supprimer cet effet que la plupart des individus
sélectionnés subissent des croisements et/ou des mutations, et pour imiter ce qui
se passe dans la nature car la reproduction y est faite par croisements.

11.3.2 Croisement
On effectue un tirage aléatoire de deux individus de la première génération
intermédiaire et le tirage d'un nombre aléatoire. Ce nombre est comparé à un
seuil de précision donné, éventuellement modifiable par l'utilisateur de l' AG.
Si le nombre est inférieur à ce seuil, les deux individus tirés sont mis tels quels
dans la seconde génération intermédiaire. Si le nombre est supérieur au seuil, les
deux individus sont croisés et donnent naissance aux deux individus qui sont
mis dans la seconde génération intermédiaire (figure 11.5). Sur cette figure, les
cercles représentent les individus qui ont été obtenus par croisement, les disques
ceux qui ne subissent pas le croisement.
On reproduit cette opération autant de fois qu'il y a eu de sélections : un individu
sélectionné peut ne pas être tiré lors de cette étape, ou être tiré plusieurs fois. Et
chaque fois qu'il est tiré, il peut être croisé ou non. En cas de croisement, les
chromosomes des individus sont « mixés » afin de créer les gènes des individus
de la seconde génération intermédiaire. On peut avoir une coupure simple,
toujours au même endroit, ou un tirage aléatoire sur la position de la coupure.
On permute entre ces individus de la génération intermédiaire l, notés I, les
gènes qui sont après la coupure (figure 11.6), donnant naissance aux enfants de
la génération intermédiaire 2, notés E. On peut avoir une coupure double,
toujours au même endroit, ou un tirage aléatoire sur la position de la coupure et
un tirage sur la longueur de la coupure. On permute entre individus les gènes qui
"Cl
c
0
sont entre les coupures.
::::i
0 •GIJ •Gt2

"""
..-1
0
N
@ Croisement

..c
Ol
·;::
11 = 01001101001lr?!?~ 12= 10000011011r_1_0_1_1
>-
a.
0
Croisemeni ~
u E1 = 0100 110100 101011 E2 = IOOOOOl IOl l IOIOO

•••
Figure 11 .5 Processus Figure 11 .6 Exemple de croisement
de croisement. simple.

202
11.2 Population et codage

Cette transformation augmente le taux d'exploration du domaine admissible. La


population initiale (et les suivantes) ne couvre pas tout le domaine admissible. Il
n'y a donc aucune garantie que, dans la population initiale, il y ait les meilleurs
individus, ni même qu'il y en ait un« bon». En croisant entre eux les individus
sélectionnés, les caractéristiques des populations suivantes sont supposées avoir
une meilleure fitness. Si ce n'est pas le cas, l'individu a des chances d'être éliminé
lors de la sélection à une itération suivante. Mais la population se concentre dans
la région où, certes, on va vers un optimum, mais sans savoir s'il n'y a pas un
meilleur optimum ailleurs dans le domaine de conception.

11.3.3 Mutation
Pour chaque individu de la seconde génération intermédiaire, on tire un nombre
aléatoire que l'on compare à un seuil donné, éventuellement modifiable par
l'utilisateur de l' AG. Si le nombre est inférieur au seuil, l'individu passe sans
modification dans la génération n+ 1. Si le nombre est supérieur au seuil,
l'individu de la seconde génération intermédiaire subit une mutation pour
accéder à la génération n+ 1 (figure 11 .7). Sur cette figure, les cercles représentent
les individus qui ont été obtenus par mutation, les disques ceux qui ne subissent
pas la mutation. On procède alors à un tirage aléatoire pour déterminer quel est
le gène qui subit la mutation, le faisant passer de 1 à 0 ou inversement. Le nombre
de tirages lors de cette phase est inférieur au nombre d'individus composant
une génération, pour des raisons abordées dans le paragraphe suivant. Cette
transformation augmente elle aussi le taux d'exploration du domaine admissible,
permettant une recherche aussi bien globale que locale de l'optimum, selon la
position du gène qui mute dans la chaîne de chromosomes. Toujours pour imiter
la nature et éviter que la population optimale n'émerge trop lentement, le taux
de mutation est généralement faible. Sur la figure 11.8, les disques indiquent

012

--
0
1 1 • • • • • 0
0

• Mutation 0 • • • 0 0

•• ~11)



• ••
• •
\G l2) • 0



0
0


0
0

•-..... 1
• Mutation
1


•• • • • • •
-•- - 1
• Mutation
1 -
• (G ll



•• • ••
• •
(n+ I)
..
.. 0


o "' o

0
0


0
..
••
Figure 11.8 Création
Figure 11.7 Processus de mutation. de la génération suivante.
203
11 Algorithmes génétiques

la position des individus de la population n dans l'espace de conception. Les


carrés indiquent pour la génération intermédiaire 1 les individus qui n'ont pas
été sélectionnés.

Le nombre d'individus n'ayant pas changé, certains individus y apparaissent


plusieurs fois. À la génération intermédiaire 2, les cercles représentent les
individus créés par croisement. À la génération n+ l, les triangles représentent
les individus créés par mutation.

Au final, certains individus passent directement d'une génération à l'autre,


d'autres subissent un croisement mais pas de mutation, d'autre subissent des
mutations mais pas de croisement, les derniers subissent et le croisement et la
mutation. Même si une partie des individus se concentre dans une région de
l'espace de conception, le croisement et la mutation font apparaître des individus
«ailleurs», augmentant la probabilité de trouver un individu dont la fitness est
supérieure à celle des autres et qui va attirer les autres vers lui.

11.3.4 Élitisme
Dans le cas de la sélection par tournoi, le meilleur individu de la génération n
est sûr de gagner, mais seulement dans la mesure où il rentre en lice via le tirage
aléatoire, ce qui n'est pas garanti. De même pour la roulette. Et, en supposant
que le ou les meilleurs aient été sélectionnés, on n'est pas certain de les retrouver
tels quels dans la génération n+ 1 car, selon les tirages aléatoires, ils peuvent ne
jamais arriver dans la seconde génération intermédiaire, ou y arriver et subir des
croisements et/ou des mutations. De manière à être sûr de retrouver les p meilleurs
dans la génération n, on les place d'office dans la population de la génération
n+ l, sans passer par la phase de croisement-mutation, indépendamment du fait
"O
c
0 qu'ils aient ou non été sélectionnés. Un « bon » individu peut donc apparaître
::J
0 plusieurs fois dans la génération n+ 1, une fois par élitisme, les autres fois parce
v qu'il a été sélectionné, a remporté les tournois et a eu la chance de ne pas être
T"-f
0
N
croisé ni de muter. Cette transformation augmente le taux d'exploitation du
@
~
..c
domaine admissible.
Ol
ï::::
>-
a. Par la sélection, on crée donc deux générations intermédiaires dont le nombre
0
u d'individus est déterminé par l'utilisateur de l'algorithme, et qui est inférieur
de quelques unités au nombre d'individus des générations dont on évalue la
fitness. On peut choisir le nombre d'individus auquel on réserve ce traitement
particulier, par exemple deux sur une population de cent individus, à chaque
itération ou toutes les k itérations. Ce n'est pas parce qu'un individu fait partie
de l'élite qu'il y restera jusqu'à la fin du processus d'optimisation. Puisque la

204
11.2 Population et codage

population évolue, on peut avoir à la génération m des individus qui ont une
meilleure fitness et qui supplantent l'élite des générations précédentes.

11.3.5 Naissance spontanée


L'idée sous-jacente est qu'il y a peut-être des régions de l'espace de conception
restreint, non encore explorées, dans lesquelles les individus sont encore
meilleurs que ceux qui ont déjà été
0 11 Gll Gl2
évalués. On crée donc q individus par G11+l

tirage aléatoire, comme pour la


constitution de la génération initiale.
On les ajoute à ceux qui sortent des
sélections et à l'élite pour avoir la
population de la génération n+ 1. Cette
opération redonne un peu de diversité
à la population. L'ensemble des
opérations permettant d'engendrer la
population n+ 1 est illustré sur la Figure 11. 9 Processus complet de
figure 11.9. création de la génération suivante.

11.4 Remarques
L'objectif de ces opérations est de solutionner le dilemme auquel est confronté
ce type d'algorithme : il faut explorer l'espace de conception en exploitant la
connaissance acquise, mais il faut acquérir de la connaissance en explorant
l'espace de conception.

Ce type de méthode demande de nombreuses évaluations de la fonction à


minimiser, une pour chaque individu de chaque génération. Le recours à un AG
peut donc s'avérer coûteux en termes de temps de calcul et n'est pas adapté à la
solution de problème d'optimisation des structures dès lors que des méthodes
par gradient sont applicables et peuvent donner la solution optimale.

Considérons en effet un problème comportant dix variables de conception.


Il semble raisonnable de considérer dans ce cas une population de soixante
individus. Selon la complexité du problème, le nombre de générations nécessaires
avant d'obtenir la solution peut varier. Considérons ici que cent générations
soient nécessaires pour obtenir la solution du problème. Il faudra donc réaliser
60 x 100 = 6 000 analyses par éléments finis. Si chaque analyse par éléments finis
prend 1 seconde, ce qui est très peu, il faudra lh40 avant d'obtenir la solution du

205
11 Algorithmes génétiques

problème d'optimisation. Si le temps de l'analyse est de 1 minute, il faudra plus


de 4 jours pour identifier l'optimum. En pratique, malgré l'utilisation possible
du calcul parallèle, ce temps d'évaluation reste prohibitif. Les applications
des algorithmes génétiques en optimisation des structures ne sont pas très
nombreuses. Pour autant que la population soit suffisamment grande, cette
méthode permet de déterminer l'optimum global du problème. Cependant,
la prise en compte de nombreuses contraintes générales peut parfois poser
problème. D'autres méthodes évolutionnaires ou basées sur les mécanismes de
la nature ou de la physique ont été développées : recuit simulé [4], PSO - Partide
Swarm Optimization ou « Optimisation par essaim de particules » [5] ... Ces
méthodes conservent grosso modo les avantages et inconvénients des algorithmes
génétiques.

11.5 Références
[1] Holland J.H. - Adaptation in natural and arti.ficial systems, University of Michigan Press, 1975·
(2] Goldberg D. E. - Genetie algorithms in search, optimization and machine learning, Addison Wesley, i989.
(3] Michalewicz Z. - Genetie algorithms +Data structures = Evolution programs, Springer-Verlag, i992.
[4] Kirkpatrick S., Gelatt C., Vecchi M.P. - « Optimization by simulated annealing », Science, 1983, vol. 220,
n° 4598, p. 671 -680.
(5] Schutte J.F., Groenwold A. - « Siz ing design of truss structures using particle swarms », Structural &
Multidisciplinary Optimization, 2003, vol. 25, n° 4, p. 261 -269.

"O
0
c
::J
0
v
T"-f
0
N
@
~
..c
Ol
ï::::
>-
a.
0
u

206
ensionnement
et optimisation
de forme

Deux classes de problèmes d'optimisation sont abordées dans ce chapitre.


Le dimensionnement optimal permet des modifications des dimensions trans-
versales de la structure, comme l'épaisseur d'une plaque. L'optimisation de
forme permet de changer la géométrie de la structure.

12.1 Dimensionnement optimal


En dimensionnement optimal, les variables de conception sont associées aux
dimensions transverses des éléments de structure : aire A. de la section des barres
1

ou des poutres dans le cas d'un treillis ou épaisseur t dans le cas de membranes
ou de coques. Pour la plupart des problèmes, la matrice de raideur élémentaire
s'exprime simplement comme le produit de deux facteurs, le premier dépendant
de la variable de conception et le second en étant indépendant.
Si on reprend le cas de l'élément fini de barre, la matrice de raideur del' élément i
prend la forme suivante, et la variable Ai peut en être extraite :

K . = E;A; [ 1 -1] = A. E; [ 1 -1] = A. K;


1 1 1
L.1 - 1 1 L.1 - 1 1
De même et sans rentrer dans des écritures éléments finis, la matrice de raideur A
d'une membrane et la matrice de raideur en flexion D d'une plaque s'expriment
de manière générale sous la forme suivante :

Et
A = l-V V
[
l

0
V

1
0
00
(1- v) / 2
l=t A

Et 3
D = --- V
12(1 - v2)
[ 1

0
V
1
0
00
(1- v) /2
l 3
=t D

207
12 Dimensionnement optimal et optimisation de forme

On voit donc où se cachent les variables de conception dans ce type de problème.


Le cas particulier des composites sera traité au chapitre 14. Comme on l'a vu
au chapitre 10, le calcul de sensibilité des réponses structurales fait intervenir
la dérivée de la raideur par rapport aux variables de conception. Cette dérivée
s'obtient aisément sur la base des relations précédentes.

12.2 Exemples de dimensionnement optimal


On étudie ici le cas simple d'un treillis
isostatique constitué de deux barres
formant un angle de 90°, comme
illustré à la figure 12. l. Les deux
nœuds supérieurs sont fixés et une
charge verticale est appliquée au nœud
inférieur. Les aires des sections des
Figure 12.1 Treillis à optimiser.
barres sont les variables de conception.

Le but de l'optimisation consiste à minimiser le volume du treillis, proportionnel


à son poids, tout en satisfaisant à des contraintes sur les tensions dans les barres.
On donne au matériau des limites différentes en traction et en compression. Le
problème d'optimisation s'écrit alors :

minw(A)
A;

- 200 :S; Œ2 :S; 300


"O
0
c
0
::J Le volume du treillis w est une fonction linéaire des variables de conception.
v
T"-f
L'équilibre des forces aux nœuds où s'applique la charge permet d'écrire, Q1 et
0
N Q2 étant les tensions respectivement dans les barres 1 et 2 :
@
~
..c F F
Ol
ï:::: Q = c
'\/ 2
Q =- -
2 Ji
>-
a.
1
0
u
Les contraintes associées sont données par :

Q1 F
Œ. =-=---
2 ~ ~Ji

La barre 1 est en traction alors que la barre 2 est en compression. On peut


appliquer ici le critère d'optimalité du FSD. Puisque le treillis est isostatique, on
208
12.2 Exemples de dimensionnement optimal

trouve la solution optimale en une itération. Les aires des sections de barres sont
alors telles que la contrainte limite est atteinte dans chacune des barres. On a :

Q1 F F
Œ1 =- = =300 A1 = r;; =11, 79
A, A,-J2 300-v 2

F
Π= Q2 = F = -200 A1 = r;; = 17,68
2 A r;; 200-v 2
2 A2 -v2

On voit que la fonction objectif n'intervient finalement pas dans le problème,


le but du FSD étant d'assurer un état de tension limite dans les barres, sans
contrainte de borne sur les sections, bien que de manière générale celles-
ci puissent être prises en compte. Lorsque la méthode ConLin est utilisée, la
solution est trouvée en une seule itération. En effet, l'approximation ConLin
est exacte pour le problème considéré, les fonctions étant séparables, le volume
étant une fonction linéaire des variables de conception lorsque les contraintes
sont exprimées en variables réciproques. Lorsque la méthode GCM est utilisée,
l'approximation n'est plus exacte et quelques itérations sont nécessaires pour
atteindre la solution (figure 12.2). On voit que la valeur des aires augmente au
cours des itérations, tout comme le poids de la structure. C'est le prix à payer
pour satisfaire aux contraintes de tension dans les barres.

20 400
300
200
15 ~Sigma2
100
-<:rSigmal
0
2 3 4 5
10 -100
~A2

-<:rAI -200
-300

2 3 4 5 -400 J

Figure 12.2 Solution avec GCM.

Lorsqu'un algorithme génétique est utilisé, ici avec les valeurs par défaut des
paramètres, aucune solution n'est trouvée. Dans notre cas, nous avons utilisé
une population de dix individus qui a engendré cent générations successives, ce
qui correspond à mille évaluations de fonctions, soit mille analyses par éléments
finis. On voit à la figure 12.3 l'évolution de la valeur du volume des barres au
cours des évaluations de fonction. À la fin du processus, les contraintes sont
violées.

209
12 Dimensionnement optimal et optimisation de forme

35000

30000

25000

20000

15000

10000

5000

0 1 OO 200 300 400 500 600 700 800 900 1000 11 OO 1 200
Itérations

Figure 12.3 Volume du treillis, algorithme génétique.

12.3 Optimisation de forme


12.3.1 Introduction
En optimisation de forme, les variables de conception sont assoc1ees à la
définition des frontières intérieures ou extérieures de la structure. Ces frontières
sont définies a priori dans la structure, ce qui signifie qu'aucune nouvelle
frontière ne peut être définie. On travaille ici à topologie constante.

"Cl
12.3.2 Paramétrage du problème
0
c
::::i
0 Dans le cas de structures de type continu, comme des membranes, plaques,
"""
..-1 coques ou volumes, modélisées par les éléments finis de type correspondant, il
0
N y a au moins deux possibilités pour définir les variables de conception dans un
@
.µ problème d'optimisation de forme, et ainsi paramétrer les frontières du modèle .
..c
Ol
·;:: La première consiste à travailler directement sur le maillage alors que, dans la
>-
a.
0
seconde, on associe les variables de conception à la géométrie qui sera ensuite
u maillée. On voit à la figure 12.41' ensemble des nœuds définissant dans le modèle
éléments finis la frontière du trou intérieur. Les coordonnées x et y de chaque
nœud peuvent être les variables de conception. L optimiseur devra alors en
trouver les valeurs optimales, indépendantes les unes des autres.

210
12.2 Exemples de dimensionnement optimal

y
\ \i

y
I /, -
~ 'I
)-....,
,,, -
/
........
/

Figure 12.4 Paramétrage local des coordonnées de nœuds.

On travaille ici avec un maillage dont ni le nombre ni le type d'éléments ne change


au cours du processus d'optimisation. Ces variables de conception sont locales,
car chacune impacte une portion bien définie de la frontière. La plupart du
temps, la solution obtenue n'est pas lisse, comme on peut le voir à la figure 12.4.
La liberté laissée à la forme de la frontière entraîne l'apparition de zigzags, qui
rendent la solution non interprétable. De manière à obtenir une solution réaliste,
on pourrait ajouter des contraintes sur la pente relative des segments adjacents
sur la frontière, et ainsi limiter les variations trop brutales. Dans un problème
général, l'écriture de ces contraintes peut être difficile, et les prendre en compte
augmente de toute façon la taille du problème d'optimisation à résoudre. On
évite donc d'utiliser ce type de paramétrage en pratique. On peut malgré tout
travailler sur le maillage, mais en sélectionnant un ensemble de nœuds qui se
déplaceront lors du changement de forme de la frontière.

Cette possibilité est illustrée à la figure 12.5, où l'ensemble des nœuds formant
le cercle intérieur bouge de concert pour définir des cercles concentriques. On
parle alors de morphing (ou morphisme) de maillage, encore appelé optimisation
topographique dans certains logiciels. Là non plus, ni le nombre ni le type
d'éléments ne change au cours du processus d'optimisation. Considérons que
la configuration du milieu à la figure 12.5 est la référence à partir de laquelle on
modifie le maillage. Lorsque le trou change de dimension, comme on travaille
avec un même nombre de mailles, on voit apparaître des éléments très déformés
qui ne sont plus adaptés à un calcul éléments finis précis car ils sont de plus en plus
mal conditionnés numériquement. Il s'agit donc là d'un inconvénient de cette
approche et c'est une limite importante du morphing. Comme le paramétrage

21 1
12 Dimensionnement optimal et optimisation de forme

est réalisé sur le maillage, la géométrie n'est pas nécessaire. On peut effectuer une
optimisation de forme sur un maillage mort, c'est-à-dire un maillage qui n'est
plus associé à une géométrie.
- ·-· ,- - - - ~~

-
- - ...... -
- ':w
~

- -1
AC/
~

~ tJ5tJ ~]
- >-- '\;

-
V
~

c+;:l, \><1' __ c / \
'/

'~_l
/_./_/'
~ Â
-- 1 1

Figure 12.5 Paramétrage en morphisme de maillage.

Dans certains outils-métiers dédiés aux formes embouties, le maillage initial


est réalisé avec des éléments de coque. L objectif est de raidir la structure. La
technique utilisée consiste à définir des nervurages possibles (largeur, hauteur,
angle de dépouille) et à faire varier la position des nœuds en les déplaçant
orthogonalement au plan qui les contenait initialement (figure 12.6), tout en
assurant des contraintes géométriques pour que les zones modifiées soient
planes.

"Cl
0
c
::::i
0

"""
..-1
0
N L
@

..c
Ol Figure 12.6 Optimisation topographique.
·;::
>-
a.
0
u Le paramétrage standard en optimisation de forme consiste à paramétrer la
géométrie et non pas le maillage, avec des grandeurs globales qui définissent
les frontières de la structure [l]. On voit à la figure 12.7 que le rayon du trou
de forme circulaire est la variable de conception du problème d'optimisation
de forme. Il faut donc pouvoir travailler avec des outils de CAO qui permettent
le paramétrage. Les courbes généralement paramétrées sont des arcs de cercle,
212
12.2 Exemples de dimensionnement optimal

des splines, des NURBS ... Lorsque la valeur du paramètre de forme change, le
maillage de la structure doit s'adapter aux nouvelles dimensions, comme on le
voit à la figure 12.8. Dans ce cas, on a une associativité entre la géométrie et
le modèle éléments finis. On note qu'à la figure 12.8 le nombre de mailles est
différent d'un maillage à l'autre.

>

Figure 12.7 Paramétrage sur la géométrie.

" 1/

/V L_
"\ / \
\

il -
~

./

l -K > V
/
) /
I
/
..... /
/ 1 -

""
T
/ !"-. ~

_),, ..... f
_,., "-

Figure 12.8 Adaptation du maillage au changement de géométrie.

Les paramètres de géométrie définissent des frontières de la structure, comme


des trous ou des bords courbes pouvant représenter des congés de raccordement.
Il arrive souvent que les concentrations de contraintes y soient localisées. Un
calcul précis des tensions mécaniques est alors souhaitable. Dans ce cas, on peut
coupler l'optim isation de forme à un calcul d'erreur et adapter le remaillage en
cas de changement de géométrie de manière à obtenir des valeurs précises de ces
tensions dans les zones d'intérêt.

213
12 Dimensionnement optimal et optimisation de forme

Dans le cas de structures de type treillis modélisées par des éléments finis
de poutres ou de barres, la forme ne peut être changée qu'en modifiant les
coordonnées des nœuds joignant les éléments de structure, coordonnées qui sont
les variables de conception pour l'optimisation de forme de ce type de structure.

12.3.3 Perturbation de maillage


Dans le cas où des méthodes basées sur les gradients sont utilisées, la dérivée
des réponses structurales doit être calculée. Comme on l'a vu au chapitre 10 et
dans le cas d'un code de calcul industriel qui se veut généraliste, on procède à
un calcul semi-analytique des sensibilités, les dérivées des matrices de raideur et
des forces étant calculées par différences finies alors que l'expression même de la
dérivée est analytique.

ê)K K(x1 , .. ,X; +àx;, ... ,x )-K(xl' .. ,X;, ... ,x


11 11
)

dX; àxi
(12.1)
ê)F F(x1 , .. ,x; +àx;, ... ,xJ-F(x 1 , .. ,x;, ... ,x i)
1

àxi

La difficulté principale qui apparaît dans le cas de l'optimisation de forme est que
la modification de la valeur d'un paramètre géométrique a une double influence.
Elle influe localement sur le maillage au niveau de la courbe paramétrée dont
les points ou les pôles changent, mais également sur ce qui se passe à l'intérieur
de la structure. On voit en effet à la figure 12.5 qu'un changement de valeur du
"O
c
0 rayon modifie le maillage plus loin qu'au seul niveau du trou. Apparaît alors ici la
::J
0 notion de champ de vitesse en optimisation de forme, qui permet de déterminer
v comment l'information de perturbation est propagée au-delà de la frontière à
T"-f
0
N
l'intérieur de la structure maillée et ainsi de relocaliser les nœuds et les mailles
@
~
..c
dans le maillage perturbé, sans création de nouvelles mailles. Plusieurs approches
Ol
ï:::: sont possibles pour déterminer ce champ de vitesse. Nous ne rentrerons pas
>-
a.
0 dans ces détails ici, des informations complémentaires pouvant être trouvées par
u
exemple dans les références suivantes [1,2]. Tout code industriel d'optimisation
de forme travaillant avec des méthodes de gradient possède ce qu'on appelle un
perturbateur de maillage qui, basé sur un champ de vitesse, permet de déterminer
le maillage perturbé suite à une variation de valeur d'une variable de conception
de forme.

214
12.2 Exemples de dimensionnement optimal

Un exemple est donné à la figure 12.5. En pratique, et contrairement à ce qui est


illustré sur cette figure, la perturbation est infinitésimale, de manière à calculer
les dérivées de K et de F selon les formules précédentes. [intérêt est de pouvoir
calculer ces dérivées sur la base de deux maillages qui soient topologiquement
identiques, c'est-à-dire constitués du même nombre d'éléments. Sans cela, il
serait impossible de calculer la sensibilité des grandeurs locales liées aux éléments
comme les tensions mécaniques, la correspondance entre les éléments dont on
calcule la contribution à la dérivée n'étant alors plus assurée. En effet, si on veut
calculer la dérivée de la tension mécanique dans un élément fini précis, celui-ci
doit encore exister lorsque le maillage est perturbé pour calculer les différences
finies selon la relation (12.1). On voit à la figure 12.9 que la correspondance existe
quand le perturbateur de maillage est utilisé. Par contre, elle est perdue quand
on procède à un remaillage complet, comme à la figure 12.10, où le nombre
d'éléments dans les deux maillages est différent.

' ' 1 1 ' 1 1 ' - 1 ' 1 1 ' 1 1 '


.347 éléments - 347 éléments
1

1
1
\1

{]V
\1
\,,..-

~
'\/
\
V"

~ \ 1/
/'\.
1 /r- r
'" •
........ ,
- Elément 11° 100
~
"r-....
- i--.. ......_ ~ ....
~
..,...-;- \ /

Élément n° 1OO
1
-
-
-
---
1 1 1 1 1 1 1 1 1
1
1

Figure 12. 9 Correspondance de maillages.

>- 1 1 1 1 1 1 1 1 - - 1 1 1 1 1 1 1 1
"- 347 éléments - 33 1 éléments

$1~Ll
;_

~
\1 L
\.r
~ \

~
' \/
f -
V
/

/~
\ / I
/
/ /\
~ _A]-
1 l
Élément n° 100 "'li~
.; \ V/ f
...._._.
~~
.... Io-. --- -- ..-
_.... ./'

Élément n° 100 -
1 1 1 1 1 1 1 1 1-

Figure 12.10 Non-correspondance de maillages.


215
12 Dimensionnement optimal et optimisation de forme

12.3.4 En pratique
Après avoir paramétré la géométrie, on suit la séquence de calcul suivante lorsque
les dérivées semi-analytiques sont utilisées : analyse de la structure pour calculer
les réponses structurales, calcul de sensibilité avec perturbateur de maillage,
modification de la géométrie selon les nouvelles valeurs des variables de forme,
création d'un nouveau maillage pouvant être différent de celui de l'itération
précédente. En effet, puisque chaque nouvelle géométrie est remaillée avec des
outils de maillage automatique, le nombre et la forme des éléments peuvent ne
pas être conservés suite à la modification de la valeur des variables de conception.

Lorsque les dérivées semi-analytiques ne sont pas utilisées et que la sensibilité


est calculée par différences finies directement sur les réponses structurales, on a
alors la séquence de calculs suivante, après avoir paramétré la géométrie : analyse
de la structure pour calculer les réponses structurales, calcul de sensibilité avec
probablement une modification du maillage (cf. figure 12.8), modification de
la géométrie selon les nouvelles valeurs des variables de forme, création d'un
nouveau maillage pouvant être différent de celui de l'itération précédente.

Ici, comme la correspondance entre les mailles n'est pas conservée dans le calcul
des sensibilités, on ne peut pas calculer les dérivées des valeurs locales, comme les
tensions mécaniques. On doit alors se contenter dans le problème de grandeurs
globales, comme la compliance et le maximum des tensions mécaniques sur
la structure. Cette dernière fonction n'étant pas différentiable car sa valeur est
le résultat d'une fonction maximum, on peut s'exposer à des problèmes de
convergence avec les méthodes d'optimisation basées sur les gradients.

Bien que de nombreuses recherches aient été faites sur le sujet depuis le début
"O des années 1980, il faut bien avouer que l'optimisation de forme est très peu
0
c utilisée dans l'industrie. La cause en est certainement le manque de robustesse
::J
0
v des outils géométriques auxquels le calcul est couplé.
T"-f
0
N
@

t
ï::::
12.4 Exemples d'optimisation de forme
~
0
de treillis
u

12.4.1 Comportement des réponses structurales


La recherche de la configuration optimale de treillis est difficile quand
elle fait intervenir deux types de variables de conception : les variables de
dimensionnement qui définissent les valeurs des aires des sections de barres,
216
12.2 Exemples de dimensionnement optimal

et les variables de forme qui repèrent la position de certains nœuds du


treillis. En effet, les réponses structurales de ce type de problème présentent
des caractéristiques monotones ou non, ou encore mixtes monotones / non
monotones selon le type de variable considéré. Certaines difficultés numériques
peuvent dès lors apparaître au cours de l'optimisation comme des oscillations
et des violations de contraintes. La solution ne peut être obtenue, la plupart du
temps, que par l'utilisation délicate de move-limits. Lorsque les coordonnées des
nœuds définissant le treillis sont variables au cours du processus d'optimisation,
la masse structurale, souvent définie dans ce type de problème comme étant
la fonction objectif, peut présenter un comportement soit monotone, soit non
monotone ou encore mixte. Ces caractéristiques sont mises en évidence ici sur
l'exemple simple d'un treillis formé de deux barres.

Dans la configuration représentée à la figure 12.11, la fonction objectifs' écrit


sous la forme suivante, linéaire selon la section des barres A, et non monotone en
fonction de la coordonnée x mesurant le mouvement du nœud sous la charge, p
étant la masse volumique du matériau et L une longueur de référence définie à
la figure 12.11 :

W(A,x) = pA(-JL2 +x 2 +)L2 + (L -x)2 )

50

49 WccMMA
48

47

46

45
p = 0.1
44 A=1
L = 200
43
0 50 100 150 200
X

Figure 12.11 Treillis 2 barres soumis à une charge horizontale : évolution du poids.
217
12 Dimensionnement optimal et optimisation de forme

Dans ce cas, l'utilisation d'une approximation non monotone est préférable pour
éviter le recours aux move-limits qui contraignent l'amplitude du mouvement
du point représentatif de la conception. Dans le cas de la figure 12.12, et pour
autant que la coordonnée y du nœud sous la charge ne puisse prendre que des
valeurs positives, la masse varie de manière monotone selon l'expression :
2
W(A,y) = pA~L +4y
2

!; y
::
::

1. .1
50

45

WccMMA
40

35

30

p = 0.1
25 A=1
L= 200

50 100 y 150 200

Figure 12.12 Treillis 2 barres soumis à une charge verticale : évolution du poids.
"O
0
c
::J Ici, l'utilisation d'une approximation non monotone entraînerait une trop grande
0
v
T"-f
convexité du sous-problème approché et pourrait conduire à un ralentissement
0
N du processus d'optimisation.
@
~
..c Le comportement des réponses structurales entrant dans le problème de
Ol
ï:::: configuration de treillis pouvant être mixte (et non pas purement non
>-
a.
0
u monotone) relativement aux variables de type géométrique, il semble prudent
de ne pas définir a priori une approximation exclusivement non monotone
pour approcher leur comportement structural. r utilisation de l'approximation
GCM et de son processus de détection automatique du caractère des réponses
structurales permet de traiter le problème de manière adaptée, sans imposer
a priori un type d'approximation, monotone ou non, qui, s'il est mal sélectionné,
pourrait ralentir le processus d'optimisation.
218
12.2 Exemples de dimensionnement optimal

12.4.2 Treillis 18 barres


Le problème étudié est celui d'un treillis comportant dix-huit barres (figure 12.13).
p p p p p

D1 Ds D9
~--"A ~~=={ S J:==~==l } :::.====-ç:==={ J:==~=::::(. J==~==={ J:===:~
D.10 Du
L y

X
2 3 4 5

5L

Figure 12.13 Treillis 18 barres, configuration initiale. L = 250 in.

Il est fixé à son extrémité gauche (nœuds 1 et 6) et est soumis à des forces
concentrées P d'intensité de 20 000 lb aux nœuds libres supérieurs 7 à 11. Les
propriétés mécaniques du matériau utilisé sont reprises au tableau 12.1, où E est
le module d'Young, p la masse volumique et (j ( Œ) la limite élastique en traction
(compression).

Tableau 12.1 Propriétés mécaniques relatives au treillis de dix-huit barres.

E (lb/in 2 ) p (lb/in 3) Π= -Π(lb/in2 )

107 0, 1 20000

Le but de l'optimisation consiste ici à trouver le treillis de poids minimum


satisfaisant aux contraintes de tension dans les barres. Dans une seconde étape, le
déplacement vertical du nœud d'extrémité 11 est également limité. Les variables
de conception sont les coordonnées des nœuds 1 à 5 : les amplitudes de leur
variation sont reprises au tableau 12.2 et partiellement illustrées à la figure 12.14.
I.:aire des sections des barres est constante et vaut 10 in2 • Le problème comporte
neuf variables de conception.
Tableau 12.2 Coordonnées initiales des nœuds 1 à 5,
amplitudes de variation (en in) .

Nœud
Nœud
2
3
••••••
0
10
380
0
250
500
0
370
620
-250
-250
-250
0
0
0
240
240
240
Nœud 4 630 750 870 -250 0 240
Nœud 5 880 1000 1240 -250 0 240
219
12 Dimensionnement optimal et optimisation de forme

1 2 3 4 5
1

Y1:: Y2 Y4
:•': Positions possibles 'Positions possibles,
:: du nœud 2 : du nœud 4 :
··- -- ---------------- 1 1

Figure 12.14 Illustration des positions possibles des nœuds 1, 2 et 4,


et définition des variables de conception associées : y1, x2 , y 2 , x4 et y 4 •

La configuration du treillis de poids minimum obtenu lorsque les contraintes de


tension sont les seules à être traitées est illustrée à la figure 12.15.

"O
0 Figure 12.15 Illustration de la solution de poids minimum.
c
::J Cas des contraintes de tension dans les barres.
0
v
T"-f
0
N Lorsque le critère d'arrêt est une variation relative des variables de conception de
@
~ moins de 0,5 %, huit itérations sont nécessaires pour atteindre la solution avec
..c
Ol
ï:::: GCM. Quand on est plus restrictif sur le critère d'arrêt en prenant une tolérance
>-
a.
0 de variation inférieure à 0, 1 %, onze itérations sont alors nécessaires. Le poids
u
à l'optimum est de 4 284 lb. La méthode MMA nécessite quant à elle six et neuf
itérations, respectivement (figure 12.16).

Aux figures 12.16 et 12.17, les contraintes du problème d'optimisation sont


normalisées par rapport à leur valeur limite. La violation maximale rencontrée
est portée en graphique. Une valeur supérieure à 1 témoigne d'une violation de

220
12.2 Exemples de dimensionnement optimal

contrainte. Les contraintes actives à l'optimum sont celles correspondant aux


tensions dans les barres l, 2, 3, 7 et 8.

Évolution de la masse (lb) Nombre de violations de contrainte Violation de contminte max.


5200 4 1,5

5000 1,4
3
4 800 1,3
2
4 600 1,2

4400 l,l

4 200 0 1
0 5 10 0 5 10 0 5 10

Figure 12.16 Histoire de la convergence pour MMA.

Évolution de la masse (lb) Nombre de violations de contrainte Violation de contrainte max.


5 500 6 3,5

5 000

4 500

4000
\_ 4

0
2.5

1,5

0 5 10 15 0 5 10 15 5 10 15

Figure 12.17 Histoire de la convergence pour GCM.

Lorsque le déplacement du nœud d'extrémité 11 est limité à 10 in, la structure


devient plus massive (figure 12.18). Le poids à l'optimum est del' ordre de 4 600 lb.
Les critères d'arrêt sont identiques à ceux définis précédemment. La contrainte
dans la barre 1 et la restriction sur le déplacement sont actives à l'optimum. La
méthode MMA nécessite onze et seize itérations, selon la précision souhaitée,
alors que GCM atteint la précision de 0, 1 % sur la variation des variables de
conception en huit itérations.

Figure 12.18 Illustration de la solution de poids minimum.


Cas des contraintes de tension et du déplacement du nœud d'extrémité.
221
12 Dimensionnement optimal et optimisation de forme

La contrainte de déplacement introduit visiblement une composante non


monotone dans le problème, puisque la convergence de la méthode MMA fait
apparaître un comportement oscillatoire (figure 12.19). De plus, les violations de
cette contrainte sont importantes. Les résultats obtenus avec GCM sont présentés
sur la figure 12.20.
Violation de contrainte max.
3 ~------~

5~ 4 2,5
4 800
2
4 60() 2

4 400 1,5

4 200~------~
0 5 10 15 2() o'------------'
0 10 15 20 5 10 15 2()

Figure 12.19 Histoire de la convergence pour MMA.


Évolu tion de la masse (lb) Nombre de violations de contrainte 2 Violation de contrainte max.
5200 8 lO ~------~

5000
4 800

4 600
\_ 6

2
lO

lO O
1

........ _. 1

-
4400
·1
4 200 10
0 5 lO 15 5 10 15 0 lO 15

Figure 12.20 Histoire de la convergence pour GCM.

Dans le premier cas étudié (contraintes de tension seules), le comportement


d'ensemble du problème d'optimisation est principalement monotone, et
MMA est donc plus apte à trouver rapidement la solution. Dans le second cas,
lorsqu'une contrainte de déplacement est considérée, une approximation non
monotone est préférable. Ceci se confirme en effectuant une étude paramétrique
sur la variable de conception x 2 relative au mouvement horizontal du nœud 2. À
"O
0
la figure 12.21, les autres variables de conception gardent leurs valeurs initiales :
c
::J le déplacement est non monotone, alors que les contraintes dans les barres 5, 10
0
v et 11 (symboles 0, +et ô) sont quasi linéaires. Quand le nombre de variables de
T"-f
0
N
conception est limité, on voit donc l'intérêt d'une étude paramétrique pour le
@ choix de l'algorithme d'optimisation.
~
..c
Ol Évolution du déplace ment du nœud 11
ï:::: 5 150 -1 2,5
>-
a.
0 2
5 100
u -13
5 050
0
- 13,5
5 000

. 14 ~------~ - 2 ~------~
1OO 200 300 400 0 1OO 200 300 400 0 1OO 200 300 400
X2 X2 X2

Figure 12.21 Évolution des réponses structurales du treillis 18 barres.

222
12.2 Exemples de dimensionnement optimal

12.5 Exemple d'optimisation,


structure continue
Une bielle mince et d'épaisseur uniforme de valeur 30 mm (figure 12.22) est
soumise à un chargement de traction de résultante 75 000 N dans son plan. Elle
est ici traitée en état plan de contrainte avec des éléments de degré 2. L alésage
de gauche a un rayon de 40 mm, celui de droite de 25 mm. La distance entre
le centre des deux alésages est fixée à 420 mm. Bien que le problème soit
parfaitement symétrique, la symétrie n'est pas exploitée dans le modèle, le
maillage est libre et le nombre de mailles n'est donc pas imposé. Un corps rigide
sur la circonférence de l'alésage de droite permet de charger la bielle via une
charge concentrée reportée au centre de l'alésage. Les nœuds de la circonférence
de l'alésage de gauche sont fixés dans le plan. Ces deux conditions ne traduisent
pas vraiment l'aspect physique mais elles permettent de simplifier la mise en
données. Les variables de conception sont les rayons extérieurs R1 et R2 des têtes
de bielle, les positions 1 1 et12 des centres des cercles limitant la zone évidée ainsi
que les rayons Re et R0 associés. Le problème d'optimisation comporte donc six
variables de conception.

Ro

420

Figure 12.22 Problème d'optimisation de forme de la bielle.

I.: objectif de l'étude est la minimisation de la masse de la structure, la contrainte


générale devant être satisfaite est que la tension maximale reste inférieure à
1OO MPa. En ce qui concerne le paramétrage de la géométrie, deux droites sont
tangentes aux rayons extérieurs des têtes de bielle : les bords de la bielle resteront
donc rectilignes lors des itérations. Pour que leur forme puisse changer, il aurait
fallu créer des splines définies par un certain nombre de points ou de pôles, leurs
coordonnées étant alors des variables de conception supplémentaires. Avant de
traiter le problème d'optimisation, on réalise une analyse statique linéaire pour
voir où est le point de conception initial par rapport au domaine admissible (cf.
chapitre 2). Les déplacements sous charge sont suffisamment petits pour que
223
12 Dimensionnement optimal et optimisation de forme

le comportement soit géométriquement linéaire, les contraintes sont partout


inférieures à la limite élastique, le comportement est donc matériellement
linéaire. Une optimisation basée sur une succession d'analyses linéaires paraît
légitime, il faudra cependant vérifier que cela sera encore valable pour la solution
optimale. La masse initiale est de 14,57 kg et la conception initiale est largement
admissible car la tension maximale n'est que de 38 MPa (figure 12.23). Il est
donc possible d'enlever de la matière en réduisant le diamètre extérieur des têtes
de bielle et en augmentant la surface du trou central. Par « tension », on entend
contrainte équivalente de Von Mises, extrapolée aux nœuds et non lissée.

Figure 12.23 Conception initiale, tensions équivalentes de Von Mises.

Certaines zones sont peu chargées. C'est le cas des têtes de bielle et de la zone
centrale mais pour des raisons différentes : soit il y a trop de matière, ce qui est
le cas de la zone centrale, soit les conditions aux limites mises en place dans le
modèle éléments finis ont fait s'écrouler la contrainte calculée car on a imposé
des conditions de rigidification de type fixation ou de type corps rigide, c'est
le cas des têtes de bielle. Cette remarque est importante car, intellectuellement,
pour que la matière soit bien employée, il faudrait que la tension soit maximale
"Cl en tout point de la bielle, ou tout au moins que la tension soit comprise entre,
0
c par exemple, 80 et 100 MPa. Résoudre cet exemple met en évidence plusieurs
::::i
0
difficultés et va servir à montrer que l'optimum éventuellement déterminé par
"""
..-1
0 l' optimiseur dépend de la façon dont le problème a été défini.
N
@

..c Si la contrainte générale est basée sur un critère de type contrainte de Von
Ol
·;:: Mises maximale calculée en chaque nœud à partir de contraintes extrapolées
>-
a.
0 non lissées, le nombre de nœuds n'étant pas figé car le maillage est libre, le
u
nombre de contraintes du problème d'optimisation est important et surtout
variable d'une itération à l'autre. Cela pose un gros problème à moins d'imposer
un maillage réglé au risque de déconditionner la matrice de raideur au fur et à
mesure des évolutions de géométrie lors du processus d'optimisation de forme.

224
12.2 Exemples de dimensionnement optimal

Si on borne la tension maximale et la tension minimale dans la structure, on


n'a plus que deux contraintes générales, mais on risque de ne pas trouver de
solution admissible à cause des rigidifications imposées par les conditions aux
limites ou de la limitation de déformation de la géométrie de la pièce. En effet, les
zones voisines des alésages sont peu chargées et on ne risque pas d'y saturer les
contraintes de tension. Il faut donc se rabattre sur une solution optimale moins
ambitieuse, qui consiste généralement à saturer la contrainte dans la structure
mais sans imposer où.

On se retrouve ainsi avec une fonction objectif bien définie (minimiser la masse),
une contrainte générale plus floue qui impose que la tension équivalente de Von
Mises maximale n'excède pas 1OO MPa, sachant que l'on peut difficilement
imposer une tension minimale. On se retrouve avec six variables de conception
qui ont toutes une forte influence sur l'objectif mais aussi avec deux variables
RI et R2, rayons extérieurs des têtes de bielles, qui ont très peu d'incidence sur
la tension maximale. Ceci se conçoit aisément et peut être démontré en faisant
une étude paramétrique préalable. On garde donc a priori les six variables de
conception pour la phase d'optimisation.

Pour le choix des contraintes de borne, on peut raisonner ainsi : puisque la


solution actuelle est très largement admissible, on prend comme borne supérieure
les valeurs actuelles pour R1, R2 et L1 et comme borne inférieure les valeurs
actuelles de RG, RDet L2 • Pour les bornes inférieures de RI et R2, compte tenu des
dimensions de la pièce et du chargement, une épaisseur de matière de 10 mm
semble correcte. On doit veiller ensuite à ce que RGne dépasse par le rayon de
l'alésage gauche et RD celui de l'alésage droit. Pour RGet RD respectivement, les
contraintes de borne sont des rayons compris entre 10 et 40 mm, 10 et 25 mm ;
pour RI et R2 , des rayons compris entre 50 et 80, 35 et 60 mm ; pour les centres
des deux arcs intérieurs, des positions comprises entre 70 et 1OO mm, 350 et
390 mm. On lance alors l' optimiseur et le calcul s'arrête à la quatrième itération.
On constate que l' optimiseur se trouvant très loin de la solution optimale a fait
varier de façon importante et simultanément la valeur des variables et a modifié
la géométrie à un point tel que les interférences dans la CAO empêchent le
maillage comme le montre la figure 12.24. Pour éviter ce problème, on crée des
relations entre variables pour qu'il y ait toujours 10 mm de matière entre les
alésages et l'évidement intérieur. Ces relations seront appelées contraintes de
marge. On écrit donc :

225
12 Dimensionnement optimal et optimisation de forme

(_ __
Figure 12.24 Interférence lors de la modification de géométrie.

Le programme converge difficilement, l' optimiseur GCM est arrêté au bout de


cinquante itérations (figure 12.25). Cela provient du fait que la contrainte générale
porte sur la tension extrapolée aux nœuds, non lissée, et que la contrainte générale
de tension est non différentiable car elle porte sur le maximum d'un ensemble
de valeurs. Une petite variation de géométrie, et donc du maillage, engendre une
variation de tension extrapolée qui est au-delà du seuil de convergence. Comme
la géométrie change beaucoup entre la conception initiale et la conception finale,
il y a de grandes évolutions de valeurs, du nombre de nœuds et de mailles, ce qui
pose des problèmes pour les calculs de sensibilité.

0 5 w ~ ~ ~ ~ ~ ~ ~ ~ ~ •
Jterations
a----e [Sdb) Element Mass

100 99.7
"Cl
0
c 50
::::i
0
0 5 w ~ ~ ~ ~ ~ ~ ~ ~ ~ ~

"""
..-1
0
Iterati ons
C3-EJ [Code 1411) Stress tensor
N
@

..c Figure 12.25 Évolution de la masse et de la tension au cours des itérations .
Ol
·;::
>-
a.
0
u La masse de la géométrie « optimale » est d'environ 4, 18 kg pour une tension
maximale de 100 MPa (figure 12.26). Puisque les valeurs des variables fluctuent
légèrement d' une itération à l'autre, la contrainte générale portant sur une
valeur locale extrapolée, les ordres de grandeur des variables de conception sont
de 51,0 mm pour R1, 37,l mm pour R2 , 83,3 mm pour L1, 360,5 mm pour L2 ,
33,3 mm pour RGet 24,0 mm pour RD.

226
12.2 Exemples de d imensionnement o pt imal

Figure 12.26 Conception optimale, tensions équiva lentes de Von Mises.

Le point de conception initial est largement admissible. Pour aider l' optimiseur et
limiter les évolutions de maillage, on peut se donner un autre point de conception
initial, plus proche de la conception optimale : il y aura moins d'évolution du
nombre de nœuds, du nombre de mailles, de la valeur des variables. Le processus
est quasi stabilisé pour quarante itérations : l'optimisation de forme est plus
délicate que l'optimisation de dimensionnement du fait de l'évaluation des
sensibilités.

12.6 Références
[1] Braibant V., Morelle P. - « Shape optimal design and free mesh generation »,Structural Optimization, 1990,
vol. 2, p. 223 - 231.
[2] Duysinx P., Zhang WH., Fleury C. - « Sensitivity analysis with unstructured free mesh generators in 2-D and
3-D shape optimization »,Structural Optimization 93, The World Congress on Optimal Design of Structural
Systems, Rio de Janeiro, 2-6 août 1993.

227
ion topologique

La formulation d'un problème d'optimisation topologique et les ingré-


dients nécessaires à sa solution sont expliqués. Ce chapitre discute
également sa place dans la conception globale d'une structure ainsi
que ses limitations.

13.1 Position du problème


Le problème d'optimisation topologique est formulé comme étant la recherche
de la distribution optimale des propriétés matérielles dans un domaine de
conception prescrit. Ce type d'optimisations' applique aux structures discrétisées
par des éléments de barres, de poutres, de membranes, de plaques ou de coques,
et de volumes [l] .

Dans le cas de structures discrétisées par des éléments finis discrets (barres et
poutres), un univers structural tel que celui représenté à la figure 13.la constitue
le domaine de conception initial. Le but del' optimisation est alors de déterminer
"O
0 quelles barres ou poutres vont conserver les propriétés mécaniques du matériau
c
0
::J
les constituant à la solution, les autres éléments structuraux étant, eux, affectés
v de propriétés mécaniques proches de zéro. Aucune barre ou poutre n'est retirée
T"-f
0
N du modèle, seules leurs propriétés mécaniques changent. Lorsque la structure
@
~ est discrétisée par des éléments finis continus, le maillage de départ constitue
..c
Ol
ï:::: le domaine de conception (figure 13.lb), et on recherche les éléments qui se
>-
a.
0
verront affecter les propriétés mécaniques du matériau utilisé. Ici aussi, aucun
u
élément fini n'est retiré du modèle, seules leurs propriétés mécaniques changent.
Dans les deux cas, le maillage est donc figé et ne subit aucune évolution au fur et
à mesure des itérations. On note que la topologie des éléments et le raffinement
du maillage ont une influence sur la solution optimale.

228
13.1 Position du problème

a. Univers structural discret

~ b. Umvers structural contmu


~
Figure 13.1 Domaines de conception pour l'optimisation topologique.

Dans chaque élément fini i est définie une variable de conception, généralement
notéeµ; et appelée pseudo-densité, comme illustré à la figure 13.2 dans le cas
des éléments finis continus. Le problème étant de déterminer la présence ou
l'absence de matière dans chaque élément à la solution, il est par nature discret.
Cependant, dans la pratique, on travaille en variables continues qui varient dans
l'intervalle ]O;l]. On n'admet pas les valeurs exactement nulles des variables de
conception, de manière à éviter la singularité numérique liée à la suppression
complète d'un membre structural du modèle éléments finis. La valeur minimale
des variables est donc égale à ê, qui vaut la plupart du temps 0,001. À la solution,
lorsque la pseudo-densitéµ; prend une valeur unitaire, de la matière est présente
dans l'élément fini i qui est alors considéré comme faisant partie de la structure à
la solution. Au contraire, si la valeur de µ;est égale à ê, on admet que la matière
s'est retirée de cet élément dont les propriétés mécaniques sont proches de celles
du vide, ce qui revient à ne pas prendre en compte l'élément structural dans
la solution.

Sur la figure 13.2, les éléments en noir sont remplis de matière, alors que les
éléments clairs représentent le vide. On peut également y voir des éléments gris,
qui montrent que des densités intermédiaires sont présentes dans la solution. Ces

229
13 Optimisation topologique

éléments peuvent parfois être difficiles à interpréter dans les résultats (doit-on les
conserver ou les enlever de la solution ?). À la fin du processus d'optimisation
topologique, une ébauche de structure apparaît.

Variable de conception Domaine dans lequel la


associée à l'élément fini i matière doit être distribuée
/
Pseudo-densité

Figure 13.2 Paramétrage utilisé dans un problème d'optimisation


topologique.

Dans le cas de la figure 13.2, on maximise la raideur de la structure dont on


connaît l'encombrement, les conditions aux limites et les chargements. C'est-
à-dire qu'on minimise l'énergie associée à la force appliquée ; cette énergie
est appelée la compliance. C'est la fonction objectif classique en optimisation
topologique. En d'autres termes, on minimise le déplacement sous la charge.
La contrainte du problème d'optimisation est liée au volume de matière (ou à
la masse) à conserver dans le domaine de conception initial : dans l'exemple
présenté ci-dessus, on conserve 24 % du volume total. Le volume des dix barres
"Cl
c
0 noires du treillis émergeant du domaine de conception en figure 13.2 occupe
::::i
0 alors 24 % du volume du domaine de conception rectangulaire. Une autre
"""
..-1
0
formulation consiste à minimiser le volume (ou la masse), tout en imposant une
N
@
limite sur le déplacement sous la charge.

..c
Ol
·;::
On voit à la figure 13.3 la solution obtenue lorsque le domaine de conception
>-
a. est un rectangle soumis à une force concentrée. On y observe l'influence que
0
u peuvent avoir les conditions limites sur la topologie optimale résultante. Dans
la solution de gauche, les fixations sont isostatiques, et des barres horizontales
apparaissent dans la partie inférieure de la structure optimale de manière à
limiter le déplacement vers la droite, et donc limiter la compliance dans cette
direction. Dans la solution de droite, on bloque les deux degrés de liberté dans
les directions horizontale et verticale au niveau des appuis, et aucune barre

230
13.1 Position du problème

n'est donc nécessaire dans la direction horizontale puisque le déplacement y est


impossible.

?. ?.

Figure 13.3 Illustration d'un problème d'optimisation topologique.

Au cours du processus d'optimisation, la valeur des variables de pseudo-densités


peut varier entre ê et 1, prenant par exemple dans un premier temps la valeur
ê puis se retrouvant avec une valeur unitaire à la solution. Contrairement à des
paramétrages qui ont été proposés au cours du temps, on ne supprime pas ici
les éléments dont la variable de pseudo-densité aurait atteint la valeur ê à un
moment donné du processus d'optimisation. La suppression irréversible des
éléments est une difficulté importante puisqu'ils ne peuvent plus apparaître dans
les itérations suivantes. Or, pour qu'un trou apparaisse en un endroit, il peut être
nécessaire d'en combler entièrement ou partiellement un autre. La suppression
des éléments élimine donc des solutions qui pourraient être meilleures et qu'on
ne peut plus explorer. En pratique, cette approche de suppression totale n'est
jamais retenue car elle est très restrictive et non optimale.

On peut expliquer simplement la manière avec laquelle la matière va apparaître


ou disparaître à la solution, et finalement donner naissance à la structure de
topologie optimale. Comme décrit plus haut, une variable de conception, la
pseudo-densité µ; est associée à chaque élément fini du maillage. Elle témoigne
de l'absence ou de la présence de matière au niveau de l'élément fini, selon
la relation suivante dans laquelle p0 est la masse volumique du matériau de
référence (par exemple celle de l'acier ou de l'aluminium), et P; représente la
densité effectivement présente au niveau de l'élément fini :

(13.1)

231
13 Optimisation topologique

Le module d'Young associé à l'élément i est donné par :

(13.2)

E0 est le module d'Young du matériau de référence à distribuer dans la


structure et p est un exposant de pénalisation des densités intermédiaires. Cet
exposant est généralement compris entre 1 et 4. Cette manière de paramétrer
les propriétés matérielles porte le
nom de SIMP (Simply Isotropie
Material with Penalization, [2]). 0,9
/
0.8 /
Bien que d'autres formulations plus /
0.7 p =l/
mathématiques existent [3], elle est la 06 /
E;I Eo . /
plus répandue et celle qui est utilisée o,, /
0,4 / p=2
dans les codes industriels. Sur la base /
0.3 /
de ces définitions, on représente sur 0.2 /
/
la figure 13.4 l'évolution de la raideur 0.1 /

relative E/ E0 en fonction de la variable


de pseudo-densité. La raideur est µ; =P;I Po
proportionnelle au module d'Young et, Figure 13.4 Paramétrage
par abus de langage, on parle de raideur SIMP pour l'optimisation
relative pour le rapport E/E0 • La valeur topologique.
de la variable de conception associée à
l'élément fini i évolue entre ê et l, et la raideur relative varie entre ê P et 1.

À la figure 13.Sa, on montre le cas d'un élément ayant une pseudo-densité de


0,9. Sa raideur relative E/E0 vaut donc 0,93 , soit 0,729, car l'exposant p est égal
à 3. On remarque alors qu'une faible augmentation de la masse faisant passer
"O
0
la variable d'une valeur de 0,9 à 1 permet d'augmenter la raideur de 27,l %. En
c
::J conséquence, l' optimiseur aura tendance à pousser la variable initialement à 0,9
0
v
T"-f
vers une valeur unitaire. De même, à la figure 13.Sb, l'élément a une pseudo-
0
N densité de 0,3. La raideur relative E/E0 correspondante vaut 0,027. Si la valeur
@ de cette variable tend vers 0, on diminue alors le poids de manière significative
~
..c
Ol (µ; passant de 0,3 à ë), tout en ne perdant que 2,7 % de la raideur associée. Dans
ï::::
>-
a. ce cas, l' optimiseur aura tendance à pousser la variable à 0,3 vers la valeur ê. Ce
0
u principe n'est évidemment possible que si l'exposant p est plus grand que l, une
valeur unitaire de p n'influençant en rien le choix de la valeur de variable entre
ê et 1. En effet, quand l'exposant p a pour valeur l, il peut rester de nombreux
éléments de densité intermédiaire, rendant difficile l'interprétation de la forme
optimale.

232
13.1 Position du problème

0.9 0.9

0.8 0.8

0.7 0.7

EJ Eoo6 E;I Eoo6


0.5 0.5

0.4 0.4

O.J O.J

0.2 0.2

0. 1 0.1

µ ; = p;I Po µ ; = p; I Po
a. Grande valeur intermédiaire b. Faible valeur intermédiaire
de pseudo-densité de pseudo-densité

Figure 13.5 Paramétrage SIMP avec p = 3.

Comme on le voit aux figures 13.1 et 13.2, un problème d'optimisation


topologique peut contenir un très grand nombre de variables, puisqu'elles sont
potentiellement associées à chaque élément fini du modèle, et que celui-ci doit
être très fin si on veut capturer les nuances dans le design résultant. En pratique,
il n'est pas rare de compter quelques centaines de milliers de variables dans
le problème. Dans les outils industriels d'optimisation topologique, diverses
fonctionnalités ont été ajoutées, comme par exemple le fait que certaines zones
du maillage initial ne doivent pas être modifiées lors du processus d'optimisation
(zones de non-design). On leur affecte une valeur unitaire de pseudo-densités.
Cela rend compte d'une contrainte du cahier des charges et représente une
fonction structurale à assurer ainsi qu'une limitation du nombre de variables,
tout en permettant lors des analyses par éléments finis de prendre en compte
des zones qui ne doivent pas être modifiées mais qui ont un impact sur le
comportement de la structure.

Si des contraintes mécaniques locales du type tension (ou contrainte équivalente


de Von Mises) sont également prises en compte, on se retrouve alors avec un
problème d'optimisation contenant plusieurs centaines de milliers de contraintes.
Aucune méthode d'optimisation n'est capable aujourd'hui de résoudre de
manière efficace en un temps raisonnable un problème aussi grand, contenant
autant de variables et de contraintes. Bien que des recherches soient menées sur
le sujet, il n'existe pas encore aujourd'hui d'approche robuste pour résoudre ce
genre de problème au niveau industriel. C'est pourquoi on se contente la plupart
du temps, en optimisation topologique, de prendre en compte des réponses

233
13 Optimisation topologique

structurales globales telles que le poids ou/et des déplacements en certains


nœuds du modèle à limiter, et la compliance à minimiser.

Un phénomène parasite apparaît lorsqu'on essaie de résoudre le problème


d'optimisation topologique modélisé avec des éléments finis continus
(membranes, volumes, coques). Comme illustré à la figure 13.6, une alternance
rapide de valeurs ê et 1 des pseudo-densités apparaît, créant ce qu'on appelle
une structure en damier, qu'il est difficile d'interpréter. Et plus le maillage de la
structure est fin (éléments finis continus), plus l'effet damier est important.

Solution avec damier Solution sans damier

Figure 13.6 Solution avec ou sans damier.

Pour éviter ces variations trop rapides, une solution consiste à lisser les valeurs
de pseudo-densités sur un certain voisinage. On utilise pour ce faire une
technique de filtre, telle que celle utilisée en traitement d'images. En pratique,
les dérivées de la compliance sont moyennées sur un certain voisinage [4]. On
"O
peut également limiter le périmètre de la solution (problèmes 2D) ou la surface
0
c externe (problèmes 3D), qui devient alors une contrainte supplémentaire dans le
::J
0 problème d'optimisation. On voit à la figure 13. 7 une structure carrée qui contient
v
T"-f
0 une ou plusieurs inclusions sphériques, constituées de vide. raire de la surface
N
@ grisée est la même dans les trois cas, alors que le périmètre P des inclusions
~
..c augmente lorsque le nombre d'inclusions augmente. Limiter le périmètre permet
Ol
ï:::: d'obtenir une solution dans laquelle on a quelques inclusions de grande taille,
>-
a.
0
u plutôt que la présence et l'alternance d'un grand nombre d'inclusions de petite
taille dans la structure. La solution du problème d'optimisation topologique
dépend fortement du maillage initial et de la valeur donnée à la contrainte de
périmètre ou de surface. Avec ces deux méthodes, on obtient des solutions telles
que celle représentée à la figure 13.2.

234
13.1 Position du problème

0000
OO 0000
0000
r=4
OO r= 2
0000
r= l
P = 8n p = 16n: P = 8n

Figure 13.7 Périmètres d'inclusions sphériques.

13.2 Formulations du problème


Dans le cas d'une analyse statique, quel' on considère ici linéaire, la formulation
classique du problème d'optimisation topologique consiste à minimiser l'énergie
des charges extérieures, c'est-à-dire la compliance, pour un volume de matière
donné. On maximise ainsi la raideur de la structure. Dans ce problème, les n va-
riables de conception sont les pseudo-densitésµ; attachées à chaque élément fini i:

minC= Fr q
p

L, µy;~v (13.3)

Pour éviter d'engendrer des problèmes numériques lors du processus


d'optimisation, dont l'apparition de mauvais conditionnement numérique, les
pseudo-densités ont une valeur minimale strictement positive f!:.; . Dans les
relations ci-dessus, V est le volume de matière disponible, c'est-à-dire la fraction
v;
volumique requise à la solution, est le volume élémentaire de l'élément fini i,
F est le vecteur des charges nodales et q collecte la valeur des déplacements en
chaque nœud du maillage. Lorsqu'une contrainte de périmètre ou de surface
enveloppe est ajoutée au problème, on a la formulation suivante :

minC = Fr q
p

L, µy;~ v
(13.4)
P(µ ) ~ p
0<µ ~µi ~ l
-l

235
13 Optimisation topologique

Plusieurs cas de charge, ne en l'occurrence, peuvent apparaître dans le problème.


Dans ce cas, le problème s'écrit selon la formulation (13.5) et on minimise la
compliance maximale :
. '{'
mm max c l
11 l=l, .. .,nc
= FI ql
(13.5)

0 <µ <5: µ; <5: 1


-1

Les vecteurs de déplacements q1 correspondant à chaque cas de charge F1 sont


obtenus en résolvant les problèmes statiques suivants :

On peut également minimiser la masse tout en imposant des contraintes sur


l'amplitude des déplacements q en différents nœuds j du modèle :
min~ µ .V.
11 ~ 1 1
1

qj <5: q j j =1,. .., m (13.6)


µ_
0 < _, <5: µ; <5: 1
On peut bien évidemment combiner ces fonctions. Dans le cas d'un problème
dynamique, les fréquences de vibration (J)k sont classiquement maximisées, de
manière à fournir la structure la plus raide sous un critère dynamique. On a alors
le problème suivant :
maxmi~(J)k
11 k=l,n.J

Lµ;v; <5: V (13.7)

"O
0
c
::J
On peut faire de même avec les charges de flambement, même si dans ce cas la
0
v
solution du problème est plus difficile à obtenir à cause de l'apparition possible
T"-f
0 de modes très locaux dans la structure. Des problèmes de réponse dynamique
N
@ et de mécanique non linéaire ont également été traités dans la littérature [ 1]. On
~
..c
Ol
remarque que, dans la très grande majorité des cas, seules des fonctions globales,
ï::::
>- comme le poids, la raideur, les fréquences, apparaissent dans la formulation du
a.
0
u problème. Des recherches ont été menées pour inclure dans le problème des
contraintes locales de tension, souvent de type contrainte équivalente de Von
Mises [5] :
min~ µ .V
11 ~ 1 1
1

cr; <5: (j i =1,. .., n (13.8)


0<µ
_,. <5: µ; ~ 1
236
13.1 Position du problème

Comme évoqué plus haut, le problème d'optimisation associé comporte alors un


très grand nombre de variables de conception et de contraintes. Il n'est pas possible
aujourd'hui de résoudre de manière efficace de tels problèmes. De nombreuses
contraintes sont actives à la solution dans ce type de problème, c'est-à-dire
qu'elles sont satisfaites comme des égalités. On ne peut dès lors pas a priori les
exclure du problème d'optimisation. Même l'utilisation de filtres ne conservant
qu'un nombre très limité de ces contraintes les plus dangereuses au cours des
itérations n'est pas toujours efficace, car on peut perdre de l'information au cours
du processus d'optimisation. De plus, les frontières en zigzag apparaissant dans
la structure, comme on le voit aux figures 13.2 et 13.6, ne permettent pas de
calculer les contraintes de manière très précise.

Des contraintes permettant d'obtenir une topologie finale moins torturée peuvent
également être ajoutées au problème. Ce sont par exemple les contraintes de
démoulage qui donnent une direction privilégiée pour l'apparition de la matière
à la solution, ou les contraintes d'épaisseur minimale de membres structuraux
[ 1]. Le périmètre de la solution peut également être utilisé comme fonction
objectif, et, comme on le verra par la suite, la topologie résultante peut s'en
trouver simplifiée par la présence de moins de trous à la solution (cf. figure 13.7).

13.3 Algorithmes d'optimisation


Dans certains cas, des critères d'optimalité ont été utilisés en optimisation
topologique, mais ceux-ci manquent de généralité et de performance. Certains
auteurs ont également essayé des méthodes de type algorithmes génétiques, mais
sans succès pour la résolution d'applications industrielles. La plupart du temps,
des méthodes d'optimisation basées sur les gradients, de type programmation
séquentielle convexe, sont utilisées. Ce sont les méthodes les plus générales et
les plus performantes, donc les plus efficaces, pour la résolution des problèmes
d'optimisation topologique. Dans ce livre, ConLin, MMA, GCMMA et GCM
ont été comparées (cf. chapitre 9).

Un critère d'arrêt souvent utilisé en optimisation topologique est basé sur la


variation des variables de conception en deux itérations successives k et k-1.
Si la variation maximale de la valeur d'une pseudo-densité est inférieure à une
valeur limite TOL, de l'ordre de 0,01 ou 0,001 en pratique, on considère que la
solution est obtenue :

max lµ~k) - µ~k-1) 1 :::; TOL (13.9)


i= l,. .. n

237
13 Optimisation topologique

13.4 Analyse de sensibilité


On présente ici le cas particulier de l'analyse statique linéaire. Comme on l'a vu
dans le chapitre dédié à l'analyse de sensibilité (cf. chapitre 10), la dérivée de la
compliance par rapport à une variable de conception, µ ; dans notre cas, prend la
forme suivante :

-
ac =2q r -aF - q , . -aKq (13.10)
()µ; ()µi ()µ;

Cette dérivée peut être calculée dès lors que les déplacements à l'équilibre q
sont connus, de même que les dérivées de la matrice de raideur K et des forces
F. Puisque la variable de conceptionµ; n'impacte quel' élément fini i, on peut
remplacer K par K; et F par F; dans l'expression précédente. En considérant
le paramétrage spécifique SIMP donné en (13.2), et selon les notations du
chapitre 10, on a les relations :

K 1. =µPI K;

Il en va de même pour le vecteur force F mais, dans ce cas, la dépendance à la


variable de conception est linéaire car les forces de volume de type poids propre
ou accélération varient de manière linéaire par rapport à la masse et donc à la
densité du matériau donnée par (13.1):
ê)F. -
-'= f ;
()µ;
On a donc tous les ingrédients pour pouvoir calculer la dérivée de la compliance.
Dans les problèmes qui ne font intervenir que des charges fixes et constantes,
seul le second terme du membre de droite de l'équation ( 13.10) est considéré
"O
0
c dans le calcul de sensibilité. Sa contribution est purement négative, reflétant
::J
0 une perte de raideur structurale suite à une diminution de densité du matériau.
v
T"-f
0
La fonction objectif est dans ce cas monotone, et des approximations de type
N
@ ConLin ou MMA sont bien adaptées (cf. chapitre 9). Lorsque les charges de
~
..c volume sont prises en compte, le terme supplémentaire apparaît et la compliance
Ol
ï::::
>-
peut avoir un comportement non monotone. On doit dans ce cas utiliser des
a.
0
u
méthodes de type GCMMA ou GCM (cf. chapitre 9). On discutera cet aspect
dans les applications qui suivent.

Lorsque des contraintes sur le déplacement de certains nœuds du modèle existent


dans le problème d'optimisation, il faut également en calculer les dérivées par
rapport aux variables de conception. Puisque le nombre de contraintes est
bien moins élevé que le nombre de variables de conception en optimisation

238
13.1 Position du problème

topologique, on utilise alors la méthode des charges virtuelles, discutée au


chapitre 10.

13.5 Implantation dans un code de calcul


On donne ici l'exemple d'une barre
l
de treillis (figure 13.8), à laquelle est
( ()
associée la variable de pseudo-densité
µi' Ce cas peut se généraliser à tous les
éléments finis de structure. La matrice
de raideur est donnée par : Figure 13.8 Élément fini
de barres et ses deux degrés
de liberté.
K.
'
= E;A; [
L
1 -1]
-1 1
= p
µ,
BO Ai [ 1
L -1
-1]=µ( K;
1
l l

La dérivée se calcule ~implement selon la relation suivante. Il est important de


noter que la matrice K; est en fait la matrice K; pour laquelle µ; = 1 :

K; =y; [~l ~l] =K;I,,,=,


La relation précédente est générale, et le type d'élément fini n'y apparaît pas. En
pratique, on part d'un domaine de conception dans lequel toutes les variablesµ;
ont une valeur unitaire, soit µ; = 1. Les éléments finis sont générés, les vecteurs
élémentaires de forces et les matrices élémentaires de raideur sont alors calculés.
-
Selon l'expression précédente, elles correspondent à f; et K; . Ces vecteurs et
matrices sont conservés en mémoire ou sur fichier. Au cours des itérations, selon
la valeur des variables de conception, les valeurs courantes de ces vecteurs et
matrices sont alors simplement données par :

Leurs dérivées sont obtenues comme expliqué précédemment. On voit donc


qu'il suffit de générer à la première itération, et une fois pour toutes, les matrices
élémentaires, qu'on utilise simplement par la suite. On gagne ainsi du temps
239
13 Optimisation topologique

dans la phase d'analyse structurale et de sensibilité, en ne devant plus regénérer


les éléments à chaque itération. De plus, l'approche peut s'appliquer à tous les
types d'éléments, qu'ils soient des barres, poutres, membranes, coques, volumes,
faits d'un matériau isotrope, orthotrope ou d'un composite multicouches.

13.6 Enchainement des optimisations


L'optimisation topologique est un des ingrédients del' optimisation des structures.
Elle est utilisée au stade de la conception. Elle permet d'identifier l'agencement,
le nombre et la forme des membres structuraux qui pourraient composer la
structure optimale. Les fonctions qui interviennent dans la formulation du
problème sont généralement simples, comme le poids et la raideur. Pour avoir la
structure optimale qui respecte toutes les contraintes qu'un concepteur voudrait
inclure dans un problème d'optimisation, il faut partir du résultat fourni par
l'optimisation topologique, qui est une structure facétisée, la taille des facettes
dépendant de la densité et de la nature des éléments du maillage initial. Une
nouvelle géométrie doit alors être créée sur la base du résultat obtenu. C'est
une difficulté en soi et de nombreux travaux sont en cours pour construire de
manière automatique et la plus transparente possible pour l'utilisateur un modèle
géométrique basé sur le maillage optimal issu de l'optimisation topologique.

Cette géométrie «lissée» sert de support à un maillage, et des analyses de structure


sont alors menées avec ce maillage pour vérifier que les contraintes du cahier des
charges sont respectées, ou faire en sorte qu'elles le soient, et que la structure
peut être fabriquée en fonction du procédé prévu (moulage, emboutissage ... ).
Mais en présence de densités intermédiaires se pose la question de savoir quelle
"O
géométrie construire car certains éléments ne sont plus vraiment présents mais
0
c
::J
n'ont pas non plus disparu. De plus, seul l'ingénieur peut interpréter la topologie
0
v
naissante et il paraît périlleux de vouloir laisser cette étape à une procédure
T"-f
0 automatisée. Et si le but de l'étude est de réaliser de l'optimisation de forme dans
N
@ la foulée d'une optimisation topologique et de ce fait enchaîner les deux types
~
..c
Ol
d'optimisations, la géométrie créée doit être paramétrée. Ici aussi, seul l'ingénieur
ï::::
>- peut définir quel sera le paramétrage de la géométrie qui sera judicieux pour la
a.
0
u bonne solution de son problème.

13.7 Modélisation alternative


Tous les codes industriels d'optimisation topologique sont basés sur la méthode
des éléments finis, comme décrit précédemment. Depuis quelques années, on voit
240
13.1 Position du problème

cependant apparaître au niveau de la


1
recherche une modélisation alternative
1 1 1
basée sur la méthode XFEM, eXtended 1 1 1 1 1 1 1

Finite Element Method [6]. Dans cette


~
-~ -
approche, les discontinuités peuvent Il \ V if ~I
\.1
traverser les éléments finis, et la ~ 1
1 1 ~
1 1 "'°'"
formulation des éléments est adaptée
à cette propriété. Dans le cas qui nous
concerne ici, cela revient à dire qu'une - 1 LL.
rt èc
frontière intérieure dans le modèle
"
1 1 1

peut couper des éléments, et que l'effet


de sa présence sera bien représenté Figure 13.9 Formulation XFEM.
dans la solution du problème. On
voit à la figure 13.9 l'exemple d'une membrane carrée modélisée en éléments
quadrangulaires dans laquelle une frontière coupant les éléments est définie.
À l'intérieur del' ellipse, on assigne des propriétés mécaniques très proches de
celles du vide alors que, à l'extérieur, on a les propriétés mécaniques du matériau
avec lequel on travaille. Les éléments coupés sont particuliers, de type XFEM,
et repèrent la présence de la frontière. Leur formulation incorpore le fait que les
propriétés du matériau sont différentes de part et d'autre de cette frontière.

On peut paramétrer les frontières au moyen de plusieurs trous et leur assigner


des variables de conception. En changeant la valeur de ces variables avec un
algorithme d'optimisation, on peut adapter la forme de ces frontières intérieures
et mettre ainsi en évidence des topologies optimales. On voit à la figure 13.10
le maillage constitué d'éléments finis quadrangulaires. Les frontières coupent
certains de ces éléments. De part et d'autre de la frontière dans ces éléments, la

/ 1 1 1 /. 1

/ 1 1 /. 1 -...._
-.....
1
/ 1 1 V 1 \ ...-'11 1 .....
,
,
,,
,, -
/

'\. 1/
1
I
......,
-1
......, - ... ......
....
.....
....
.....
/ / V"j ~f ... , !\...._ ., lj / 1
-1 ' 1, "'
/ r-.._,,; -1
/ I I"'
\ / 1 ,__ " '\
/ I
-1 )
/
/ "..... """-....- 71L / 1
/ \
/
,
,
-1
-1 c-
I ~"'" " \
,,,...- -1
/
.... """ / 1
,
,, ~"'
" -1 -
.1.
/.

·I·
Figure 13.10 Solution en formulation XFEM.

241
13 Optimisation topologique

formulation permet de prendre en compte soit de la matière, soit l'équivalent


d'un matériau proche du vide. Les frontières changent de forme et de position
dans le modèle, et une solution optimale peut être mise en évidence. On voit à la
figure 13 .10 la position des frontières et l'ensemble du maillage. À la figure 13.11,
on enlève les éléments intérieurs pour la visualisation du résultat. r avantage de
cette modélisation est que les frontières de la solution sont lisses et non pas en
forme de zigzag comme c'était le cas à la figure 13 .3 par exemple. r inconvénient
est qu'il faut adapter la formulation des éléments et du problème, en se dotant de
la possibilité de représenter et de paramétrer les frontières. La méthode des level-
sets est utilisée dans ce cas [7] . Avec certaines variantes, ce concept est utilisé
dans les références [8,9].

/ 1 1 1 1 1
/ 1-
-
/
/

--
1

1
/
1/

l,, '--- 1-

1-

----- __ /
V .... 1
I'\.
l'I..
.. r-. _.,, ,,
f-1-

/
/
-
I "' ' \
/ I
/
/
=~ , r-. _.,, . . /

-
/

/
/
/
~""
..... ....... ........... ,
/

-1~
Figure 13.11 Solution en formulation XFEM, visualisation des zones« vides».

"Cl
13.8 Exemples
0
c
::::i
0 Pour les exemples de cette section, on utilise la modélisation par éléments finis,
"""
..-1
0
comme c'est le cas dans les codes industriels, et les méthodes de programmation
N
@ séquentielle convexe. Par défaut, la densité minimale des variables de conception

..c est égale à 0,001 .
Ol
·;::
>-
a.
0
u 13.8.1 Genèse d'une topologie
À la figure 13.12, on traite le cas d'une structure dans laquelle on recherche
la répartition optimale de la matière qui la rende la plus raide lorsqu'elle est
soumise à son propre poids.

242
13.1 Position du problème

La solution est obtenue à la figure 13.13


pour un exposant p valant 3. Le
maillage comprend 20 x 40 éléments
finis quadrangulaires du premier degré. ?

Le volume de matière à la solution doit
être inférieur à 30 % du volume total
du domaine initial. Les éléments noirs
à la solution représentent la matière, Figure 13.12 Structure soumise
les éléments blancs sont équivalents au à son poids propre.
vide, et les éléments gris sont remplis
de densités intermédiaires. On voit apparaître une structure en forme d'arche.

Itération 3 Itération 20

Itération 5 Itération 50

Itération 10 Itération 1OO


Figure 13.13 To pologie optimale pour la structure soumise à son poids
propre.

Il est intéressant d'observer les résultats obtenus au cours des itérations. La


matière apparaît d'abord au niveau des fixations, et de nombreuses densités
intermédiaires sont présentes. Après cinquante itérations, la structure finale
apparaît clairement. Il existe deux seuils pour la densité : le seuil définissant
la valeur minimale que peut avoir la pseudo-densité, de manière à éviter les
problèmes numériques, et le seuil en dessous duquel on n'affiche pas l'élément
bien qu'il soit présent dans le modèle. Ces deux valeurs sont en pratique
indépendantes et sont choisies par l'utilisateur du logiciel d'optimisation et du
243
13 Optimisation topologique

logiciel de post-traitement. Comme expliqué dans la référence [10], lorsque le


poids propre apparaît dans le problème, la contrainte sur le volume peut ne pas
être satisfaite à la solution. On observe effectivement que la fraction volumique
optimale à la figure 13.13 est plus proche des 15 % que des 30 % maximum
désirés. De plus, on ne peut pas garantir que la structure résiste sous son propre
poids car les contraintes sur les tensions ne sont pas prises en compte.

13.8.2 Problème des forces de volume


L'application précédente est particulière dans le sens où les forces de volume
apparaissent dans le problème. Dans ce cas, et comme discuté précédemment,
la valeur de la dérivée de la compliance peut changer de signe selon la valeur
de la variable de conception : la fonction objectif est non monotone et il faut
utiliser une approximation non monotone, soit GCMMA, soit GCM. On voit à
la figure 13.14 les solutions obtenues avec ConLin, qui est monotone, et GCM,
qui est non monotone. ConLin n'arrive pas dans ce cas à stabiliser la solution.

• •
111111. - . ~

t 1
ConLin GCM
Figure 13.14 Solution du problème avec Conlin et GCM.

"Cl
c
0 Un autre problème apparaît. La structure qui résiste le mieux à son poids est
::::i
0 une structure composée de vide, soit pas de structure à la solution ! Le problème
"""
..-1
0
est donc mal posé. Une solution consiste à considérer le problème plus comme
N
@
le renforcement d'un voile existant. Dans ce cas, on peut prendre une valeur

..c minimale de variable de conception par exemple égale à 0,1 au lieu de 0,001. De
Ol
·;:: la matière existera donc a priori dans la solution. Une autre approche consiste
>-
a.
0 à introduire une masse morte dans la structure, modélisée comme une zone
u
dans laquelle les variables de conception prennent une valeur constante unitaire,
comme illustré à la figure 13.15. L'optimisation va alors naturellement devoir
relier les fixations et la zone de densité imposée.

244
13.1 Position du problème

?• ?•

Figure 13.15 Régularisation du problème avec poids propre.

On montre au tableau 13.1 le nombre d'itérations nécessaires pour atteindre la


convergence pour différentes valeurs du paramètre TOL (cf. la relation 13.9).
Lorsque l'approximation monotone ConLin est utilisée, des oscillations
apparaissent dans l'évolution de la fonction objectif au cours des itérations
(figure 13.16). I.;évolution des variables de conception est également erratique
et la variation maximale de variable entre deux itérations atteint la plupart du
temps la valeur de 11µ = 0,5 qui est celle d'amplitude limite définie par la loi de
move-limits suivante:

Tableau 13.1 Définition du problème, cas de charge et point de départ.

GCMMA
TOL = 10-2 OO