Vous êtes sur la page 1sur 224

MATHÉMATIQUES

&
APPLICATIONS
Directeurs de la collection:
G. Allaire et M. Benaïm

47
MATHÉMATIQUES & APPLICATIONS
Comité de Lecture / Editorial Board

Grégoire Allaire Dominique Picard


CMAP, École Polytechnique, Palaiseau Proba. et Mod. Aléatoires, Univ. Paris 7
allaire@cmapx.polytechnique.fr picard@math.jussieu.fr
Michel Benaïm Robert Roussarie
Mathématiques, Univ. de Neuchâtel Topologie, Univ. de Bourgogne, Dijon
michel.benaim@unine.ch roussari@satie.u-bourgogne.fr
Thierry Colin Claude Samson
Mathématiques, Univ. de Bordeaux 1 INRIA Sophia-Antipolis
colin@math.u-bordeaux.fr claude.samson@sophia.inria.fr
Marie-Christine Costa Bernard Saramito
CEDRIC, CNAM, Paris Maths Appl., Univ. de Clermont 2
costa@cnam.fr saramito@ucfma.univ-bpclermont.fr
Gérard Degrez Annick Sartenaer
Inst. Von Karman, Louvain Mathématique, Univ. de Namur
degrez@vki.ac.be annick.sartenaer@fundp.ac.be
Jean Della-Dora Zhan Shi
LMC, IMAG, Grenoble Probabilités, Univ. Paris 6
jean.della-dora@imag.fr zhan@proba.jussieu.fr
Jacques Demongeot Sylvain Sorin
TIMC, IMAG, Grenoble Equipe Comb. et Opt., Univ. Paris 6
jacques.demongeot@imag.fr sorin@math.jussieu.fr
Frédéric Dias Jean.Marie Thomas
CMLA, ENS Cachan Maths Appl., Univ. de Pau
dias@cmla.ens-cachan.fr Jean-Marie.Thomas@univ-pau.fr
Nicole El Karoui Alain Trouvé
CMAP, École Polytechnique Palaiseau Inst. Galilée, Univ. Paris 13
elkaroui@cmapx.polytechnique.fr trouve@zeus.math.univ-paris13.fr
Marc Hallin Jean-Philippe Vial
Stat. & R.O., Univ. libre de Bruxelles HEC, Univ. de Genève
mhallin@ulb.ac.be jean-philippe.vial@hec.unige.ch
Laurent Miclo Bernard Ycart
LATP, Univ. de Provence Maths Appl., Univ. Paris 5
laurent:miclo@latp.univ-mrs.fr ycart@math-info.univ-paris5.fr
Huyen Pham Enrique Zuazua
Proba. et Mod. Aléatoires, Univ. Paris 7 Matemáticas, Univ. Autonóma de Madrid
pham@math.jussieu.fr enrique.zuazua@uam.es
Valérie Perrier
LMC, IMAG, Grenoble
valerie.perrier@imag.fr

Directeurs de la collection:
G. Allaire et M. Benaïm
Instructions aux auteurs:
Les textes ou projets peuvent être soumis directement à l’un des membres du comité de lecture avec
copie à G. Allaire ou M. Benaïm. Les manuscrits devront être remis à l’Éditeur
sous format LaTEX 2e.
Claude Le Bris

Systèmes
multi-échelles
Modélisation et simulation

With 35 Figures

123
Claude Le Bris
École Nationale des Ponts et Chaussées
avenue Blaise Pascal 6-8
77455 Marne La Vallée Cedex 2, France
lebris@cermics.enpc.fr

Library of Congress Control Number: 2005926659

Mathematics Subject Classification (2000): 35xx, 49xx, 60Hxx, 65xx, 74Bxx,


76Dxx, 81Vxx

ISSN 1154-483X
ISBN-10 3-540-25313-0 Springer Berlin Heidelberg New York
ISBN-13 978-3-540-25313-6 Springer Berlin Heidelberg New York
Tous droits de traduction, de reproduction et d’adaptation réservés pour tous pays.
La loi du 11 mars 1957 interdit les copies ou les reproductions destinées à une utilisation collective.
Toute représentation, reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement
de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles 425 et suivants
du Code pénal.
Springer est membre du Springer Science+Business Media
© Springer-Verlag Berlin Heidelberg 2005
springeronline.com
Imprimé en Allemagne
Imprimé sur papier non acide 41/3142/YL - 5 4 3 2 1 0 -
Préface

Ce cours est une introduction à la problématique des systèmes multi-échelles


du point de vue du mathématicien appliqué. Il se compose d’une mosaı̈que
d’exemples dont le seul lien est d’appartenir à la très grande famille des
problèmes issus de la physique au sens large qui présentent pour leur modélisa-
tion et leur simulation cette difficulté essentielle de comporter en leur sein des
échelles de temps ou d’espace très différentes.
Nous n’avons aucune prétention à la généralité. Le choix des sujets évoqués
ici est une pure affaire de circonstances (les sujets sont, plus ou moins, dans
le domaine de compétence de l’auteur1 ). En revanche le choix est délibéré
d’avoir choisi d’aborder
– des domaines aussi différents que la mécanique des solides, la mécanique
des matériaux lamellaires, la chimie moléculaire, la dynamique des
fluides polymériques, la cinétique des réactions chimiques,
– sous des points de vue aussi différents (mais aussi intimement liés) que
la physique, l’analyse mathématique, l’analyse numérique, la program-
mation.
L’ordre dans lequel ces modélisations et techniques de simulation sont
présentées est relativement modulable. Le lecteur pourra se reporter directe-
ment à sa discipline de prédilection sans pour autant trop souffrir de faire
l’impasse sur les autres chapitres, qui ont volontairement été conçus comme
indépendants. Cela dit, on ne saurait trop l’encourager à tout lire. Il trouvera
alors peut-être une unité insoupçonnée dans ce texte, et, au-delà de ce simple
texte, dans le traitement des systèmes multiéchelles.
Schématiquement, devant un problème présentant diverses échelles de
temps ou d’espace, le mathématicien dispose des stratégies suivantes
– 1 - attaquer directement le système tel quel en le simulant avec des
techniques très efficaces (mais peut-être coûteuses) ; un exemple est le

1
ou au moins dans le champ de compétence de ses collègues les plus proches !
VI Préface

cas des schémas implicites pour les systèmes d’équations différentielles


raides que nous verrons au Chapitre 5,
– 2 - effectuer un prétraitement du système visant à faire disparaı̂tre les
petites échelles pour ne laisser à simuler que les grandes ; un exemple
est la théorie et la pratique de l’homogénéisation que nous présenterons
au Chapitre 2 ; un autre celui de la dynamique adiabatique pour les
systèmes moléculaires au Chapitre 3 (lié à l’exemple de la réduction de
systèmes dynamiques au Chapitre 5)
– 3 - choisir de gérer conjointement, mais de façons différentes, les petites
et les grandes échelles dans le système ; il en va ainsi de la mécanique
pour les matériaux à microstructure, qu’ils soient solides et nous les
verrons au Chapitre 1, ou fluides, et nous les aborderons au Chapitre 4.
Ce qui motive le choix d’une stratégie est comme d’habitude un com-
promis. Mais, encore schématiquement, on pourrait dire que c’est aussi la
disproportion entre les échelles petites et grandes qui contribue grandement
à la décision. Pour un problème où les échelles sont franchement séparées, de
plusieurs ordres de grandeur au besoin, tout plaide pour la stratégie 2, mais
la 3 peut aussi convenir. La première n’est pas conseillée. Pour les problèmes
où la disproportion n’est pas si grande, l’approche 1 est possible, mais les
approches 2 et 3 pourront aussi être envisagées.
Le lecteur pourra se faire lui-même son opinion sur certains cas pratiques
après la lecture de ce document. Parcourons-le rapidement.
Le Chapitre 1 présente une stratégie permettant de coupler, pour la simu-
lation de la déformation d’un corps solide, une description microscopique de
la déformation du matériau dans les régions très fortement déformées, avec
une description plus classique en termes de mécanique des milieux continus
en d’autres zones du matériau. On manipulera dans ce chapitre les équations
de l’élasticité ⎧
⎨ −div T = f, dans le matériau
(0.1)

T · n = g, sur son bord
où T désigne le tenseur des contraintes mais aussi une description atomique
des solides. Une logique de changement d’échelle sera aussi abordée, donnant
ainsi un exemple d’un cas où le niveau microscopique va nourrir le niveau
macroscopique en lui fournissant une information.
Le Chapitre 2 est le plus mathématique de tous. On y expliquera les
techniques d’homogénéisation d’abord sur le plan de l’analyse mathématique,
puis sur le plan de sa pratique numérique. L’exemple canonique est celui de
l’équation
d x d
− (a( ) uε ) = f, (0.2)
dx ε dx
x
où la fonction a( ) est une fonction périodique de petite période ε. Plutôt
ε
que d’attaquer la résolution de cette équation, on va chercher l’équation limite
Préface VII

obtenue quand ε −→ 0 et résoudre cette équation limite. On détaillera cette


stratégie, et on l’appliquera ensuite non seulement à une équation, mais aussi
aux conditions aux bords d’une équation, abordant ainsi le traitement des
couches limites (en thermique, en turbulence,...).
Au Chapitre 3, on traite des systèmes moléculaires modélisés par la chimie
quantique. Les objets qu’on manipule sont des électrons (légers et rapides) et
des noyaux (lourds et lents). Comprendre comment l’équation de Schrödinger

i Ψ = H Ψ, (0.3)
∂t
très belle mais non traitable dans la pratique numérique, peut être rem-
placée par une de ses approximations plus abordable numériquement, sera
le coeur du débat. On verra aussi dans ce chapitre comment modéliser et si-
muler un système moléculaire en phase condensée, ce qui est un autre type de
problème multiéchelle, et un autre genre de traitement couplé de deux échelles
différentes.
Le Chapitre 4 présentera la modélisation des fluides polymériques par les
méthodes dites micro-macro, dans l’esprit du Chapitre 1. En chaque point du
fluide, dont l’évolution est régie par les équations de la mécanique des fluides
comme l’équation de Navier-Stokes, on calcule le tenseur des contraintes en
tenant compte de la présence des millions de chaı̂nes polymériques qui sont
tendues, distordues, cassées à l’échelle microscopique par le bombardement
moléculaire et les effets des déformations macroscopiques. Les techniques
numériques allieront des techniques déterministes et des techniques de la
théorie des probabilités.
Le Chapitre 5 introduit aux techniques de simulation pour la cinétique
chimique, qu’on rencontre par exemple dans la modélisation en génie chimique,
ou dans la météorologie. Les systèmes en jeu sont par exemple

⎪ dy1

⎪ = −k1 y1 +k2 y2

⎨ dt
dy2
= k1 y1 −k2 y2 +k3 y3 (0.4)
⎪ dt



⎩ dy3 = −k3 y3
dt
avec des constantes de réaction ki très différentes. On présentera les rudiments
de simulation numérique des équations différentielles ordinaires, juste ceux
nécessaires pour aborder la simulation des systèmes multiéchelles dits raides
dans ce contexte. On parlera donc de méthodes de décomposition d’opérateurs
et de réductions de systèmes dynamiques.
Enfin, un court sixième chapitre donne une vision synthétique du travail
effectué et ouvre vers le monde de la recherche.
Ce cours a été enseigné à partir de l’année scolaire 2001-2002 aux élèves de
troisième année de l’Ecole Polytechnique au sein de la majeure consacrée aux
VIII Préface

Sciences de l’Ingénieur. Au premier chef, je souhaite remercier Yvon Maday


pour l’aide qu’il m’a apportée dans la définition et l’élaboration du programme
scientifique enseigné, et pour ces années de collaboration dans l’enseignement.
Ma gratitude va aussi à Grégoire Allaire, pour son soutien dans cette entre-
prise, depuis la création du cours jusqu’à la publication du présent livre.
A l’automne 2004, ce cours a été enseigné en temps que cours commun
(ISM-CRM) à l’Université de Montréal et à l’Université McGill. Je tiens à
remercier Anne Bourlioux et Michel Delfour pour leur collaboration, leurs
remarques et leur hospitalité.
Des remerciements sont enfin dus à de nombreux collègues, notamment de
de l’Ecole Nationale des Ponts et Chaussées, qui ont aimablement autorisé le
“pillage” de leurs travaux pour rédiger certaines sections de ce texte, ou ont
effectué une relecture attentive du document : Eric Cancès, Bruno Sportisse,
Xavier Blanc, Frédéric Legoll, Tony Lelièvre.

Champs sur Marne,


Mars 2005. Claude Le Bris
Table des matières

1 Modèles micro-macro pour les solides . . . . . . . . . . . . . . . . . . . . . . 1


1.1 Eléments de mécanique des milieux continus . . . . . . . . . . . . . . . . 1
1.2 De l’échelle atomique à l’énergie élastique . . . . . . . . . . . . . . . . . . . 5
1.3 Une méthode couplée micro-macro . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.3.1 Le modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3.2 La discrétisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.3 Utilisation de E(ϕ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.4 Introduction à la topologie faible . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.5 Vers le calcul des variations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.5.1 Quelques problèmes modèles . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.2 Techniques pour les microstructures . . . . . . . . . . . . . . . . . 32
1.6 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

2 Techniques d’homogénéisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1 Le cas monodimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2 Deux cas bidimensionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.1 Les matériaux lamellés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.2 Le résultat général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.3 Un vrai cas 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Des cas plus compliqués : la convergence à deux échelles . . . . . . 52
2.3.1 L’Ansatz et le développement à deux échelles . . . . . . . . . 53
2.3.2 L’interprétation énergétique . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.3 Retour sur le cas monodimensionnel . . . . . . . . . . . . . . . . . 62
2.3.4 Retour sur le cadre général . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.4 A lire en 2ème lecture : Vers des méthodes multiéchelles
avancées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.5 Questions de couche limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.5.1 Deux cas simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.5.2 Couche limite rugueuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.6 Quand ça se passe mal ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.7 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
X Table des matières

3 Simulation moléculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1 Modélisation d’un système moléculaire . . . . . . . . . . . . . . . . . . . . . 89
3.1.1 Les modèles complets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1.2 Découplage des échelles pour le problème statique . . . . . 92
3.1.3 Découplage des échelles pour le problème dynamique . . . 93
3.1.4 Approximation du problème électronique . . . . . . . . . . . . . 98
3.2 Simulation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.1 Discrétisation du problème Hartree-Fock . . . . . . . . . . . . . 102
3.2.2 Discrétisation de la dynamique newtonienne . . . . . . . . . . 108
3.2.3 Méthodes d’accélération de la dynamique moléculaire . . 114
3.3 Modélisation de la phase liquide . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.3.1 Le modèle de continuum . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.3.2 Résolution numérique des modèles de continuum . . . . . . 122
3.3.3 Notions sur les méthodes intégrales . . . . . . . . . . . . . . . . . . 122
3.4 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

4 Modèles micro-macro pour les fluides . . . . . . . . . . . . . . . . . . . . . . 129


4.1 Eléments de mécanique des fluides incompressibles . . . . . . . . . . . 129
4.2 Modélisation micro-macro des fluides polymériques . . . . . . . . . . 133
4.2.1 Le modèle de la chaı̂ne libre . . . . . . . . . . . . . . . . . . . . . . . . 136
4.2.2 Le modèle d’haltères . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.2.3 Les équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
4.3 Simulation numérique de l’Ecoulement de Couette . . . . . . . . . . . 143
4.3.1 Le modèle micro-macro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
4.3.2 La discrétisation du problème macroscopique . . . . . . . . . 146
4.3.3 La discrétisation du problème microscopique : Méthode 1150
4.3.4 La discrétisation du problème microscopique : Méthode 2153
4.3.5 Un résultat numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
4.4 A lire après le Chapitre 5 : notions de base d’analyse
numérique des EDS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
4.4.1 Convergence forte du schéma . . . . . . . . . . . . . . . . . . . . . . . 166
4.4.2 Convergence faible du schéma . . . . . . . . . . . . . . . . . . . . . . . 169
4.4.3 Stabilité asymptotique du schéma . . . . . . . . . . . . . . . . . . . 170
4.5 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171

5 Cinétique chimique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173


5.1 Modélisation de la cinétique chimique . . . . . . . . . . . . . . . . . . . . . . 173
5.2 Notions rapides d’analyse numérique des EDO . . . . . . . . . . . . . . 174
5.2.1 Généralités et schéma d’Euler explicite . . . . . . . . . . . . . . . 175
5.2.2 Schéma d’Euler implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
5.2.3 Précision, stabilité et convergence . . . . . . . . . . . . . . . . . . . 179
5.3 Les problèmes raides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
5.4 Méthodes de séparations d’opérateurs . . . . . . . . . . . . . . . . . . . . . . 187
5.4.1 Le cas simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
5.4.2 Le cas raide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
Table des matières XI

5.5 Réduction de systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192


5.6 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

6 Vers une unité des approches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199


6.1 Des classifications des problèmes rencontrés . . . . . . . . . . . . . . . . . 199
6.2 L’unité des approches . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
6.3 Sur le front de la recherche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205

Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
1
Modèles micro-macro pour les solides

Nous décrivons dans ce premier chapitre une stratégie permettant de cou-


pler, pour la simulation de la déformation d’un corps solide, une descrip-
tion microscopique (allant jusqu’au niveau atomique) de la déformation du
matériau là où c’est nécessaire, avec une description plus classique en termes
de mécanique des milieux continus en d’autres zones du matériau. Au pas-
sage, l’approche décrite ici permet aussi de définir des modèles de mécanique
macroscopiques pour des matériaux qui ne sont pas décrits par les hypothèses
habituelles. Dans un premier temps (Sections 1.1 à 1.3), nous élaborons l’ap-
proche sans nous préoccuper de propriétés mathématiques : les calculs sont
menés formellement, les justifications rigoureuses étant (un peu) laissées au
lecteur et (surtout) reléguées dans la bibliographie. De même, nous décrivons
la stratégie numérique associée en termes purement factuels, sans aucune ana-
lyse numérique. Dans un second temps (Sections 1.4 et 1.5), nous abordons
l’analyse mathématique de modèles proches de ceux dérivés aux premières
sections. En particulier, la Section 1.4 est consacrée à l’introduction d’un ou-
til crucial pour l’étude des systèmes multiéchelles, la notion de topologie de
la convergence faible pour les fonctions. Cet outil mathématique est, dans une
certaine mesure, l’essence même des problèmes multiéchelles.

1.1 Eléments de mécanique des milieux continus

Commençons par quelques rappels rapides sur la mécanique des milieux conti-
nus et l’élasticité tridimensionnelle. Nous ne donnons ici qu’une présentation
courte et donc un peu approximative, et renvoyons à la bibliographie pour
une présentation plus rigoureuse et plus étoffée.
Pour décrire la déformation d’un corps solide remplissant le domaine de
référence Ω, on utilise une fonction ϕ : Ω −→ IR3 , dite déformation. Il est
utile aussi d’introduire la fonction u(x) = ϕ(x) − x définissant le déplacement.
Le gradient de déformation est bien sûr la fonction
2 1 Modèles micro-macro pour les solides

F = ∇ϕ : Ω −→ M3 ,

où M3 désigne l’espace des matrices carré de taille 3. Les coefficients de


∂ϕi
la matrice F (x) sont les (x). Ayant décrit la cinématique, passons à la
∂xj
dynamique.

Fig. 1.1. Champ de déformation d’une configuration vers une autre.

Les équations qui traduisent l’équilibre du corps (dans la configuration de


référence Ω) sont 
−div T = f, dans Ω
(1.1)
T · n = g, sur ∂Ω
où T désigne le tenseur des contraintes (premier tenseur des contraintes de
Piola-Kirchhoff), f les forces de volume appliquées au corps, g les forces de
surface, et n le vecteur unitaire normale extérieure à ∂Ω.
Pour déterminer la position du corps étudié, il est nécessaire de fermer le
système, c’est-à-dire d’établir une relation entre le tenseur des contraintes T
et les éléments de nature cinématique ϕ, u ou F :

T = T (x, ϕ(x), ...). (1.2)

Cette relation est dite relation constitutive, ou aussi loi de comportement.


Elle dépend évidemment de la nature physique du matériau considéré. Il est
important de noter que l’écriture (1.2) est formelle, au sens où au membre de
droite peuvent intervenir des dérivées d’ordre supérieur de ϕ, des valeurs de
ϕ et de ses dérivées en des points autres que x (éventuellement à des instants
antérieurs que l’instant t considéré si on est dans un cadre dépendant du
temps), etc...
1.1 Eléments de mécanique des milieux continus 3

Un corps est dit élastique si le tenseur T (x) ne dépend que du point x et


du gradient de déformation F (x)

T = T (x, F (x)). (1.3)

Ceci signifie en particulier que ni la déformation ϕ elle-même, ni ses dérivées


d’ordre supérieur à 1 n’interviennent 1 , et que seul le point x considéré (et
en fait l’instant t considéré) entre en jeu (voir Figure 1.2). Nous verrons au
Chapitre 4 une situation toute différente, celle des fluides non newtoniens où
l’histoire du matériau joue un rôle : l’état de déformation en des points autres
que x, à des instants antérieurs, a un impact sur l’état de contrainte en x au
temps t.
En plus de cette hypothèse d’élasticité, il est courant de faire l’hypothèse
supplémentaire (dite d’hyperélasticité) qu’un matériau élastique ne dissipe
pas d’énergie durant une déformation cyclique. On en déduit alors l’existence
d’une densité d’énergie élastique W qui, pour des raisons d’invariance, dépend
de F seulement à travers t F F . La densité W et le tenseur des contraintes T
sont alors reliés par
∂W
T (F ) = (F ), (1.4)
∂F
et on peut alors reconnaı̂tre les équations d’équilibre (1.1) comme les équations
d’Euler-Lagrange (c’est-à-dire les équations d’optimalité) pour la minimisa-
tion d’une fonctionnelle d’énergie du type

W (F (x)) dx + termes dépendant de f, g (1.5)

sur toutes les déformations possibles2 ϕ, i.e.

ϕ ∈ A = { ϕ compatible avec les conditions aux limites imposées


en déformation, s’il y en a, et de régularité suffisante
pour donner un sens aux quantités manipulées}.

Sans rentrer dans le détail, le problème a la forme


  
inf W (∇ϕ(x)) dx − fϕ− g ϕ. (1.6)
ϕ∈A Ω Ω ∂Ω

La détermination de la relation constitutive (1.2), ou de façon équivalente


dans le cadre de l’élasticité, de la densité W , n’est pas une tâche facile, et
1
Une des conclusions de l’étude mathématique esquissée dans la Section 1.2 est
que cette hypothèse est correcte au premier ordre pour un matériau cristallin.
2
En fait, en plus des conditions énoncées, il existe d’autres conditions pour
qu’une déformation soit mécaniquement admissible, la condition d’injectivité et de
préservation de l’orientation. Nous omettons ces conditions dans la suite, notamment
car leur traitement mathématique rigoureux est épineux.
4 1 Modèles micro-macro pour les solides

requiert tout l’art du mécanicien. Autant de matériaux, sous autant de condi-


tions, autant de relations (1.2) ou de densités W . Nous verrons plus loin dans
ce Chapitre que l’approche multiéchelle décrite ici est en fait un moyen, al-
ternatif à l’expérience par exemple, de déterminer une formule (1.2), ou une
fonction W (voir notamment l’Exercice 1.8 à ce sujet).
En attendant, une simplification supplémentaire est possible : celle de
l’élasticité linéaire. On considère alors que le tenseur des déformations
1 t 1
e= ( F F − 1) = (∇u +t ∇u +t ∇u · ∇u)
2 2
peut être approché par sa version linéarisée
1
ε= (∇u +t ∇u),
2
et que le tenseur des contraintes T s’exprime de façon linéaire par rapport à ε
T = Aε où A est un tenseur d’ordre 4.
L’énergie élastique qui correspond à l’élasticité linéarisée est alors
1
W = ε A ε,
2
et la détermination de l’état de déformation du matériau passe alors par la
résolution du problème de minimisation
  
1
inf εAε − fu− g u. (1.7)
u 2 Ω Ω ∂Ω

Exercice 1.1. Ecrire précisément les équations d’optimalité de (1.6) et re-


trouver les relations (1.1) et (1.4). Particulariser au cas de l’élasticité linéaire
(1.7).
Remarque 1.2. On ne présume pas de l’existence et de l’unicité des solutions
des problèmes de minimisation comme (1.7) qui peuvent nécessiter des hy-
pothèses supplémentaires.
Munis de ces éléments, nous sommes maintenant en mesure d’énoncer les ques-
tions sur lesquelles nous allons nous concentrer dans la suite de ce chapitre.
– 1 - Une approche multiéchelle, allant chercher l’information au niveau
microscopique pour l’insérer au niveau macroscopique permet-elle de
définir une forme particulière de densité d’énergie élastique W ?
– 2 - Comment peut-on s’y prendre dans les cas difficiles où la déformation
subie par le matériau présente de fortes hétérogénéités (certaines régions
très localisées sont très fortement déformées, d’autres, couvrant la ma-
jeure partie du domaine, le sont beaucoup moins) au point qu’un trai-
tement macroscopique complet du matériau n’a pas de sens, ou qu’une
relation de fermeture est trop difficile à postuler ?
1.2 De l’échelle atomique à l’énergie élastique 5
Τ T

e e
e

Τ>0 Τ=0

Fig. 1.2. Différents comportements mécaniques : à gauche l’élasticité (la dé-


formation e dépend seulement du tenseur des contraintes T et a la même valeur
au chargement et au déchargement) ; à droite la plasticité (cette fois la déformation
n’est pas la même lors du déchargement, le matériau garde la mémoire) ; en bas la
viscoélasticité et la viscoplasticité (le temps joue un rôle : après une déformation
maximale, la contrainte se relâche)

1.2 De l’échelle atomique à l’énergie élastique


Nous allons montrer dans cette section une dérivation simple d’une densité
d’énergie macroscopique à partir d’informations recueillies au niveau micro-
scopique, c’est-à-dire au niveau atomique.
Pour simplifier, nous supposons que les forces f appliquées en volume et
les données au bord g sont nulles. Notre objectif est donc de déterminer,
par une inspection à l’échelle microscopique, une forme explicite de densité
d’énergie élastique W à insérer dans l’expression (1.5) de l’énergie élastique
du matériau, à savoir 
W (F (x)) dx. (1.8)

Nous choisissons pour cela un matériau cristallin parfait, c’est-à-dire
que nous supposons qu’à l’échelle atomique notre matériau est un cristal
périodique parfait, sans défaut, remplissant la totalité du domaine Ω. Il s’agit
bien sûr d’une hypothèse simplificatrice pour l’exposé car un tel matériau
n’existe que rarement. Un véritable solide est en fait dans le meilleur des cas
l’agrégation de tels cristaux parfaits (on parle de monocristaux agrégés en un
6 1 Modèles micro-macro pour les solides

polycristal, voir la Figure 1.3). La démarche que nous décrivons ci-dessous


pourrait s’appliquer à de tels cas plus réalistes, avec bien entendu de sévères
complications techniques. Elle pourrait même s’appliquer à des matériaux
amorphes. Nous renvoyons pour cela à la bibliographie.

Fig. 1.3. Un véritable solide est l’agrégation de grains de cristaux parfaits agencés
dans différentes directions (la flèche figure symboliquement l’orientation du réseau
cristallin à l’intérieur de chaque grain)

Pour simplifier l’exposé, mais ce n’est maintenant qu’une hypothèse tech-


nique, nous choisissons une maille cristalline cubique de côté ε (qu’on ne
confondra bien sûr pas avec le tenseur des déformations linéarisé ε de la
section précédente). Les atomes du réseau sont placés aux sommets des
cubes. D’autres configurations avec plus de contenu physique et d’authenticité
mécanique pourraient de même être envisagées.
Reprenons notre déformation ϕ à l’échelle macroscopique de notre maté-
riau, et utilisons une loupe pour regarder son effet à l’échelle atomique. Il
semble très raisonnable (bien qu’en fait d’autres approches, beaucoup plus
sophistiquées mathématiquement, existent) de considérer que chaque atome
du réseau initialement placé en Xi = i1 e1 + i2 e2 + i3 e3 où i1 , i2 , i3 décrivent
ZZ3 et (e1 , e2 , e3 ) est la base canonique de IR3 ici alignée avec les côtés de la
maille cubique, se déplace sous l’effet de ϕ en une nouvelle position donnée
(c’est là l’hypothèse) par
Xi = ϕ(Xi ).
Pour une déformation ϕ ne présentant pas d’irrégularité flagrante, ceci est
plausible. Choisissons maintenant un modèle simpliste pour décrire l’énergie
microscopique d’un réseau cristallin parfait. Par définition, nous dirons que
l’énergie du cristal parfait décrit ci-dessus est
1 
E= V (xk ), (1.9)
2 3
xk ∈ZZ ,xk =0

où V (r) = V (|r|) est un potentiel d’interaction supposé régulier (de classe
C ∞ (IR3 )) et à support compact. Expliquons d’où vient l’énergie (1.9).
1.2 De l’échelle atomique à l’énergie élastique 7

Pour cela, il ne faut pas perdre de vue que l’énergie est une grandeur
extensive, c’est-à-dire une grandeur qui dépend linéairement de la quantité
de matière considérée (contrairement à une grandeur intensive comme la
température, qui n’en dépend pas). Comme un cristal périodique est par
définition infini, la seule grandeur énergétique qui a un sens est l’énergie par
atome constituant le cristal. Autrement dit, chaque atome placé en xi inter-
agissant avec ses voisins placés en les xj par le potentiel V (xi − xj ), l’énergie
qui a un sens est
1 1  
lim 3
V (xi − xj ),
P −→+∞ (2P + 1) 2
xi = (i1 , i2 , i3 ) ∈ Z3 , xj = (j1 , j2 , j3 ) ∈ Z3 ,
−P ≤ i1 , i2 , i3 ≤ P −P ≤ j1 , j2 , j3 ≤ P,
xj = xi
(1.10)
3 3 1
où le nombre d’atomes considérés est N = (2P +1) . Le facteur est présent
2
pour éviter de compter deux fois l’interaction entre les atomes en xi et xj . En
utilisant la périodicité du réseau cristallin, on peut montrer que cette limite
a bien un sens, et qu’elle vaut (1.9). On peut aussi montrer qu’elle ne dépend
pas de la manière dont l’ensemble limite Z3 est approché (ici le grand cube
[−P, P ]3 ).
Exercice 1.3. Montrer dans le détail que la formule (1.10) est bien définie et
donne (1.9) dans le cas d’un réseau périodique monodimensionnel.
Revenons maintenant à notre matériau. En chaque point x macroscopique,
nous savons qu’il existe un matériau cristallin parfait microscopique (toujours
le même d’un point x à un autre dans ce modèle simplifié) dont l’énergie est
décrite par (1.9). Pour trouver une expression de l’énergie du matériau macro-
scopique ainsi formé, qui plus est quand ce matériau subit une déformation ϕ,
nous allons raisonner comme suit.
Nous remplissons le domaine Ω avec un réseau cristallin parfait de maille
cubique de côté ε = N1 de sorte que nous avons N = 2P + 1 points par dimen-
sion. Pour simplifier Ω est supposé être de taille 1, égal au cube [− 21 , + 12 ]3
centré en 0, et nous prenons un nombre impair de points par dimension, mais
tout ceci n’est qu’une affaire technique. Le nombre d’atomes contenus dans
Ω est alors N 3 = (2P + 1)3 et l’énergie du système ainsi constitué est, par
atome,
1 1  
V (xi − xj ),
N3 2
xi = ε(i1 , i2 , i3 ) xj = ε(j1 , j2 , j3 )
(i1 , i2 , i3 ) ∈ Z3 (j1 , j2 , j3 ) ∈ Z3 ,
−P ≤ i1 , i2 , i3 ≤ P −P ≤ j1 , j2 , j3 ≤ P
xj = xi
Une modification s’impose alors. Comme les positions des sommets du
réseau périodique sont sensées refléter les positions d’équilibre du matériau
8 1 Modèles micro-macro pour les solides

(on part de la configuration de référence d’équilibre, qu’on déformera ensuite


sous l’effet de certaines forces), il est nécessaire de changer l’échelle à laquelle
1
on regarde le potentiel d’un facteur ε = , de sorte que l’énergie par atome
N
est
1 1    xi − xj
EN = 3 V .
N 2 x ε
i xj =xi

où pour alléger la formule on n’a pas répété le détail sur les sommations en
xi et xj . Appliquons alors notre déformation ϕ. L’énergie devient

ϕ 1 1    ϕ(xi ) − ϕ(xj )
EN = V . (1.11)
N3 2 x ε
i xj xi

On va alors faire tendre ε vers zéro : on change d’échelle, puisque l’échelle


microscopique figurée par ε devient nulle et laisse la place à l’échelle ma-
1
croscopique qui nous intéresse seulement. Comme ε = cela est équivalent
N
à faire tendre N vers +∞ : on considère de plus en plus d’atomes qui rem-
plissent Ω. La déformation ϕ considérée étant prise très régulière, il est naturel
de faire le développement de Taylor :

ϕ(xi ) − ϕ(xj )  i j j
= N ϕ( ) − ϕ( ) = ∇ϕ( ) · (i − j) (1.12)
ε N N N
i
en négligeant les termes d’ordre supérieur et en notant le multi-indice
N
i1 i2 i3 j
( , , ) et de même pour . L’énergie de notre matériau est donc
N N N N
1 1   j
lim 3
V ∇ϕ( ) · (i − j) .
N −→+∞ N 2 N
i j

A quelques termes de bord près dont le lecteur pourra vérifier qu’ils sont
négligeables asymptotiquement, on peut changer i − j en k de sorte que l’on
a affaire à
1 1    j
lim V ∇ϕ( ) · k .
N −→+∞ N 3 2 N
(j1 , j2 , j3 ) ∈ Z3 , (k1 , k2 , k3 ) = 0 ∈ Z3
−P ≤ j1 , j2 , j3 ≤ P −P ≤ k1 , k2 , k3 ≤ P
(1.13)
Pour une fonction Ψ qui vaut asymptotiquement
1  
Ψ (x) = V ∇ϕ(x) · k ,
2
k=0∈ZZ3

ceci est de la forme


1.2 De l’échelle atomique à l’énergie élastique 9

1 
lim Ψ (yj ),
card {yj }−→+∞ card {yj } y j

où les yj sont équirépartis sur un domaine de volume unité. La formule (1.13)
n’est donc rien d’autre qu’une somme de Riemann qui converge quand N tend
vers l’infini vers  
1 
V ∇ϕ(x) · k dx (1.14)
2 Ω 3
k=0∈ZZ

Notre but est donc atteint. Nous avons bien déterminé la fonction de den-
sité d’énergie élastique W à insérer dans (1.8) :
1  
W (F )(x) = W (∇ϕ(x)) = V ∇ϕ(x) · k (1.15)
2
k=0∈ZZ3

Cette formule (1.15) est l’exacte analogue de (1.9) pour le réseau déformé par
l’application linéaire ∇ϕ(x). En chaque point x, cette fonction ne dépend que
de la valeur ponctuelle du gradient de déformation F (x) = ∇ϕ(x) (en fait de
t
F F , voir l’Exercice 1.6) et bien sûr de la nature du matériau considéré, ici un
réseau cristallin parfait dont les interactions sont régies par le potentiel V . Au
moins dans ce cadre, nous avons donc démontré que l’hypothèse d’élasticité
(1.3) était fondée.
Remarque 1.4. Rappelons ici que, pour simplifier, nous avons supposé que Ω
était le cube de taille unité et que, dans leur configuration d’équilibre, les
atomes étaient aussi espacés de 1 sur chaque dimension (avant changement
d’échelle). Cela explique pourquoi la formule (1.15) peut apparaı̂tre comme
non homogène (une densité d’énergie à gauche, une énergie à droite). Il est
instructif de rétablir les unités. Soit a l’unité de longueur à l’échelle atomique,
de sorte que la maille du réseau à l’équilibre est le cube de côté a, et que Ω
est (par exemple) le cube de côté N a. Alors, après changement d’échelle, les
Na
N 3 atomes sont espacés de sur chaque dimension. On obtient alors à la
N
place de (1.14) l’énergie par nombre de particules
 
1 1 
3
V ∇ϕ(x) · k a dx (1.16)
(N a) 2 Ω 3
k=0∈ZZ

ce qui, sachant qu’il y a N 3 particules dans l’échantillon “réel”, donne l’énergie


totale  
1 1 
3
V ∇ϕ(x) · k a dx (1.17)
a 2 Ω 3
k=0∈ZZ

et, donc, à la place de (1.15) la densité d’énergie


1 1  
W (F )(x) = W (∇ϕ(x)) = V ∇ϕ(x) · k a . (1.18)
a3 2
k=0∈ZZ3
10 1 Modèles micro-macro pour les solides

Exercice 1.5. On suppose que la déformation ϕ est un C ∞ -difféomorphisme


de Ω dans IR3 , c’est-à-dire qu’en particulier elle vérifie

∃a, b > 0, / ∀x, y ∈ Ω, a|x − y| ≤ |ϕ(x) − ϕ(y)| ≤ b|x − y|. (1.19)

On suppose que V est une fonction C ∞ à support compact. On se place en


dimension 1, et Ω est le segment [−1/2, +1/2]. Montrer rigoureusement la
formule (1.14).
Exercice 1.6. Vérifier que la densité W définie (1.15) ne dépend en fait que
de t F F et pas de F = ∇ϕ(x) lui-même.
Une formule comme (1.14) met bien en évidence le caractère multiéchelle
du matériau : en chaque point macroscopique, la densité d’énergie élastique
s’évalue en calculant l’énergie du cristal déformé présent en x.
Evidemment, nous l’avons démontrée dans un cadre très académique et
sous des hypothèses simplificatrices, mais sous la forme
 
W (F (x)) dx = {énergie du réseau cristallin placé en x
Ω Ω (1.20)
et déformé par F (x)} dx
elle s’applique dans des cas de modélisation beaucoup plus généraux. Par
exemple, nous n’avons considéré que des potentiels de paire (au niveau ato-
mique, nous avons dit que les atomes intéragissaient deux à deux et pas
dans leur ensemble), mais nous pourrions appliquer la démarche dans un
modèle plus complexe en tenant compte même de la présence de la structure
électronique du réseau cristallin. Du point de vue numérique, l’évaluation de
la densité d’énergie sera compliquée d’autant.
Soulignons l’intérêt de l’approche microscopique qui a été menée ici sur
un exemple simple. Pour les matériaux standards, utilisés dans des conditions
standard (i.e. sous des déformations raisonnables), la fermeture des équations
de l’élasticité par une relation constitutive (1.2) liant contrainte et déformation
(puis la discrétisation numérique du système d’équations ainsi obtenu) reste la
méthode de choix. D’un point de vue numérique, une telle modélisation reste
aussi la plus économique. Mais, dès que l’on sort de ces conditions standard
(matériau nouveau mal connu, matériau connu mais placé sous des charge-
ments inhabituels,...) on peut se trouver dans une situation où il n’existe pas
de relation constitutive appropriée car les relations existantes sont en échec.
Typiquement, la raison de cet échec est que de telles formules sont dérivées
dans des situations “école”, sous des conditions standard, que le cas spécifique
nouveau ne connaı̂t pas forcément. Dans une telle situation, retenons qu’il est
possible d’envisager une modélisation par système multiéchelle, et donc pos-
sible, dans l’esprit de ce qui a été fait ici, de descendre à l’échelle atomique.
D’ailleurs, même sous des conditions standard, on peut vouloir vérifier que la
relation constitutive postulée est la bonne, et l’échelle atomique peut venir en
aide sur ce point (voir à ce sujet l’Exercice 1.8).
1.2 De l’échelle atomique à l’énergie élastique 11

En anticipant sur les chapitres suivants (voir notamment la formule (2.46)


donnant l’interprétation variationnelle de l’homogénéisation elliptique au cha-
pitre 2, et le système micromacro (4.28) pour les fluides à microstructures),
terminons cette section en isolant bien la forme du problème de minimisation
obtenu. Symboliquement, il s’écrit
⎧   


⎪ inf E(ϕ) − fϕ− gϕ ϕ ∈ A ,



⎪ Ω ∂Ω

⎨  

⎪ E(ϕ) = W (ϕ(x)) dx = {énergie du réseau cristallin placé en x




Ω Ω


et déformé par ∇ϕ(x)} dx
(1.21)
Nous allons évoluer dans tout ce cours avec des modèles présentant la même
forme, au sens large, que (1.21).

Remarque 1.7. A l’inverse, la stratégie que nous venons de décrire peut être
vue comme un moyen explicite de calculer l’énergie au niveau microscopique.
Prenons en effet le point de vue suivant. Nous modélisons l’énergie du matériau
(déformé par ϕ) entièrement à l’échelle microscopique, c’est-à-dire atomique,
par une formule du type (1.11), récrite ici sous la forme compacte (se reporter
à (1.11) pour l’expression exacte)

ϕ 1 1    ϕ(xi ) − ϕ(xj )
EN = V , (1.22)
N3 2 ε
xi ∈ AN xj = xi ∈ AN ,

où AN est un ensemble de points, inclus dans (εZ)3 , de cardinal d’ordre N 3 . En


pratique, N 3 est de l’ordre du Nombre d’Avogadro (1023 ) et une telle somme
n’est donc pas calculable. Cependant, en adoptant le procédé précédent, on
voit que cette somme peut en fait, pour ε d’ordre 1/N , être reconnue comme
une somme de Riemann et calculée par une méthode de discrétisation adéquate
pour l’intégrale correspondante qui n’est autre que (1.8) pour W définie par
(1.15).

Exercice 1.8. On se place en dimension 1, sur le segment [0, 1] sur lequel on


1 i−1
place N atomes espacés de ε = et placés en les xi = ,1≤i≤
N −1 N −1
N . On impose à ces atomes une déformation ϕ, fonction régulière supposée
strictement croissante (Pourquoi ?). L’énergie du matériau est alors définie
par la formule suivante :

1 1   ϕ(xi ) − ϕ(xi−1 )
N
ϕ
EN = V , (1.23)
N 2 i=1 ε

où V est le potentiel d’interaction défini par


12 1 Modèles micro-macro pour les solides

V (r) = k(r − 1)2 , r > 0 (1.24)


avec k une constante strictement positive fixée. Expliquer pourquoi l’énergie
(1.23) est dite énergie des plus proches voisins. Montrer que lorsque ε tend
ϕ
vers 0, l’énergie EN tend vers la fonctionnelle d’énergie élastique linéarisée
 1
k |u |2 , (1.25)
0

définie sur la déformation u(x) = ϕ(x) − x. En déduire que, au moins dans ce


cas, le modèle atomique permet de retrouver un modèle macroscopique bien
connu.
Exercice 1.9. On se place dans les conditions de l’Exercice 1.5, mais on sup-
pose cette fois que la portée δ du potentiel d’interaction au niveau atomique
est bien plus longue que la distance interatomique ε = N1 , ce qui se traduit
ε
mathématiquement par −→ 0 au lieu de ε = δ. Au niveau microscopique,
δ
l’énergie par atome est donc :
ϕ 1 1    ϕ(xi ) − ϕ(xj )
EN = V .
N 2 x x δ
i j

avec xi = εi et i ∈ ZZ. Montrer alors que la même construction que ci-dessus


conduit à
 
ε ϕ 1 1
lim EN = V dx. (1.26)
N −→+∞ δ 2 R Ω |det (∇ϕ(x))|

1.3 Une méthode couplée micro-macro


Il n’est pas rare de voir des situations où la déformation que subit le matériau
présente de grandes inhomogénéités. Dans une majeure partie du matériau, la
déformation peut être considérée comme “gentille”, alors que dans une zone
précise, on s’attend à des déformations importantes et irrégulières. On pourra
par exemple se faire une idée sur le cas où on appuie une pointe sur une table
(voir Figure 1.4). Au voisinage de la pointe (dans la pointe et dans la table),
on s’attend à de forts gradients, ailleurs on est plus serein. Un autre exemple
est celui d’un matériau en train de se fracturer (voir Figure 1.5). Dans la zone
d’ouverture, il est clair que la situation est difficile. A titre d’exemple, et sans
aucune prétention à la généralité, nous allons présenter dans cette section
une méthode possible pour traiter de telles situations. Il s’agit d’une méthode
récente, datant des années 90, due essentiellement à une équipe de chercheurs
américains en Mécanique. Comme il sera de nombreuses fois d’usage dans ce
cours, nous en présentons une version simplifiée destinée avant tout à faire
sentir l’approche sans surcharger l’exposé de détails techniques.
Nous allons en fait nous appuyer sur le travail effectué dans la section
précédente.
1.3 Une méthode couplée micro-macro 13

Fig. 1.4. Expérience dite d’indentation : on appuie une pointe sur une table : les
déformations attendues à l’impact (à l’intérieur du cercle) sont fortes.

Fig. 1.5. Un matériau se déchire selon une fracture : au voisinage de la fracture, il


est impensable d’utiliser seulement l’échelle macroscopique.

1.3.1 Le modèle

Supposons encore notre matériau composé à l’échelle microscopique d’atomes


répartis sur un réseau cristallin périodique parfait, dont la taille de la maille est
notée ε. Ce matériau remplit un domaine Ω. Comme à la section précédente,
nous gardons à l’esprit dans notre vision macroscopique qu’en chaque point x
du domaine Ω existe un réseau périodique parfait microscopique sous-jacent.
Pour simplifier, nous allons supposer que nous travaillons dans une coupe bi-
dimensionnelle du matériau : Ω et donc le réseau cristallin, seront désormais
considérés comme des objets bidimensionnels plans. De même la déformation
ϕ envoie le plan sur lui-même. Quant à l’énergie microscopique, elle est prise
comme l’analogue bidimensionnel de l’énergie (1.9).
Calculer l’état du matériau sous la déformation ϕ revient à savoir évaluer
l’énergie de toute configuration déformée par ϕ. Compte-tenu de la description
faite à la section précédente, il est raisonnable de définir cette énergie par

W (ϕ)(x) dx,

14 1 Modèles micro-macro pour les solides

où on a noté W la densité d’énergie. Un point important est à noter ici. Comme
on a pour objectif d’attaquer les situations difficiles, on ne se restreint pas au
cas de l’élasticité où W dépend de ϕ à travers ∇ϕ seulement. On autorise W
à dépendre explicitement de ϕ lui-même, et de ses dérivées, comme dans la
forme générale (1.2). Deux situations sont alors possibles pour chaque point
macroscopique x :
1 soit le point x se situe dans une zone, notée Ωreg (comme “régulière”),
où la déformation ϕ attendue est régulière, c’est-à-dire ne présente
pas de variations fortes à petite échelle. On s’attend alors à ce que
le développement de Taylor (1.12) et le processus limite effectués à la
section précédente soient valables localement autour de x, et il est alors
raisonnable de poser
1 
W (ϕ)(x) = W (∇ϕ(x)) = V (∇ϕ(x) · εk) (1.27)
2
k=0∈ZZ2

où ε désigne la taille de la maille cristalline (voir la Remarque 1.4 et, ci-
dessous, la Remarque 1.11 ; pour alléger on oublie dans (1.27) et (1.28) le
coefficient de normalisation). Tout se passe dans une telle zone comme si
le réseau cristallin microscopique présent en x était déformé linéairement
en un autre réseau cristallin par l’application linéaire ∇ϕ(x),
2 soit le point x se situe dans une zone critique, notée Ωsing (comme “sin-
gulière”), où la déformation ϕ est attendue comme hétérogène. Rien ne
dit alors que le calcul de la section précédente soit correct (et en fait tout
dit même le contraire), et il est indispensable de regarder explicitement
comment se déforme le réseau cristallin. Une façon de faire est de choisir
un atome représentatif de ce réseau (celui placé à l’origine par exemple)
et de poser
1 
W (ϕ)(x) = V (ϕ(x + εk) − ϕ(x)). (1.28)
2
k=0∈ZZ2

Chaque atome du réseau initialement placé en x + εk a été déplacé en


ϕ(x + εk) et interagit avec l’atome d’origine placé désormais en ϕ(x).

Remarque 1.10. Dans l’un comme l’autre des cas, il faut noter que si V est un
potentiel d’interaction à support compact, les deux sommes (1.27) et (1.28)
sont en fait finies. Si V est seulement un potentiel qui décroit vite à l’infini,
il faudra en pratique réaliser des troncatures pour calculer ces sommes.

Remarque 1.11. Dans la pratique numérique, la taille caractéristique du réseau


cristallin microscopique est ε et pas exactement zéro comme dans le proces-
sus limite mathématique qui permet de trouver la densité. On ne peut pas
se permettre, en un certain sens, de passer à la limite ε −→ 0 mais on doit
gérer explicitement un ε ridiculement petit mais non nul. Nous rencontre-
rons à plusieurs reprises cette différence entre analyse mathématique (où un
1.3 Une méthode couplée micro-macro 15

petit paramètre ε tend vers zéro) et pratique numérique (où le même petit
paramètre est petit mais non nul) dans la suite de ce cours.

L’énergie totale du matériau déformé par ϕ sera la somme des densités de


type (1.27) et (1.28) selon les zones :
 
1
E(ϕ) = V (∇ϕ(x) · εk) dx
2 Ωreg
k=0∈ZZ2
 
1
+ V (ϕ(x + εk) − ϕ(x)) dx. (1.29)
2 Ωsing 2
k=0∈ZZ

Remarque 1.12. Bien noter que dans ce modèle, les zones Ωreg et Ωsing
dépendent de la fonction ϕ. On ne détaille d’ailleurs pas cette dépendance (on
dit seulement de façon floue que Ωreg est la zone où ϕ est “assez régulière”).
L’état de l’art n’est encore pas clair sur ce point. Il s’agit quoi qu’il en soit
d’un modèle hautement non linéaire, difficile à mettre en oeuvre quand les
zones Ωreg et Ωsing ne sont pas fixées a priori.

Il est maintenant temps de voir comment on procède dans la simulation


numérique pour calculer E(ϕ) et pour appliquer le traitement adéquat suivant
la zone où se trouve le point courant x.

Zone macroscopique

Couronnes (modèle microscopique)

Fig. 1.6. On traite différemment les différentes zones : dans la zone grisée centrale
on s’attend à une déformation irrégulière ; dans une couronne autour, on s’attend à
une déformation régulière. Dans une zone périphérique plus large, où la déformation
est tout à fait standard, on peut même envisager, par souci d’économie, d’utiliser
une relation de fermeture du type (1.2).

1.3.2 La discrétisation

Réalisons d’abord une triangulation T du domaine Ω, au sens des triangula-


tions régulières des maillages des éléments finis. Pour des notions de base sur
16 1 Modèles micro-macro pour les solides

ces maillages, nous renvoyons à la bibliographie. Nous rappelons seulement ici


quelques notions de base sur la méthode des éléments finis.
Un maillage régulier d’un domaine étant donné, on peut considérer l’appro-
ximation éléments finis d’une fonction qui consiste à approcher cette fonction
par une combinaison linéaire de fonctions de base. Ces fonctions de base sont
dépendantes du maillage en ce qu’elles engendrent un sous espace vectoriel de
dimension finie formé des fonctions polynômiales par maille. Ainsi, l’approxi-
mation dite P0 consiste à approcher l’espace L2 (Ω) par l’espace de dimension
fini des fonctions constantes par maille (polynôme de degré zéro par maille,
d’où l’appellation P0)

VN0 = {u ∈ L2 (Ω), u = uj ψj (x)} (1.30)
j

où 
= 1 sur le triangle Tj
ψj = (1.31)
= 0 ailleurs.
Ici, la dimension N est bien sûr le nombre de triangles dans le maillage.
De même, l’approximation P1 consiste à choisir l’espace de dimension finie
des polynômes de degré 1 par maille triangulaire. On en construit une base
en considérant les noeuds yi de la triangulation (les sommets des triangles) et
les fonctions “pyramidales”, linéaires par morceau

= 1 au noeud yk
φk = (1.32)
= 0 en tous les autres noeuds.

L’espace de discrétisation est alors (par exemple en se restreignant aux


noeuds strictement intérieurs à Ω ce qui a pour effet de ne considérer que les
fonctions nulles en l’approximation polygônale ∂Ωh du bord ∂Ω)

VN1 = {u ∈ H01 (Ωh ), u = uk φk (x)}. (1.33)
k

Supposons alors que le problème à résoudre est une équation aux dérivées
partielles sur le domaine Ω du type

−∆u = f
(1.34)
u|∂Ω = 0

pour une certaine fonction f ∈ L2 (Ω).


On en réalise la formulation faible, aussi dite formulation variationnelle,
 
Trouver u ∈ H01 (Ω) telle que ∀v ∈ H01 (Ω), ∇u · ∇v = f v. (1.35)
Ω Ω

On approche alors cette formulation faible par la formulation faible discrète


(ou formulation variationnelle discrète)
1.3 Une méthode couplée micro-macro 17
 
Trouver uN ∈ VN1 telle que ∀vN ∈ VN1 , ∇uN · ∇vN = f vN . (1.36)
Ω Ω

L’étape suivante est de transformer cette formulation discrète en une équation


algébrique. Il est en effet clair que la traduction de (1.36) en termes des coef-
ficients uk de la fonction solution uN est une égalité algébrique AU = B,
où la matrice A est associée à la représentation de la forme bilinéaire
(uN , vN ) −→ ∇uN · ∇vN dans la base de VN1 , où B est le vecteur colonne
 Ω

des f φj et où U est le vecteur colonne des ukN .



Finalement, on résout cette équation algébrique par un algorithme de
résolution de système linéaire et on obtient l’approximation recherchée uN
de la solution u du problème original (1.34) :

uN = ukN φk (x).
k

De la même manière, on peut avec cette méthode attaquer un problème de


minimisation comme celui qui nous intéresse. Par exemple, on peut rechercher
l’approximation de
  
1
inf |∇u|2 − f u, u ∈ H01 (Ω) (1.37)
2 Ω Ω

pour f fixée dans L2 (Ω), problème qui est rigoureusement équivalent à la


résolution de (1.34). On approche alors ce problème par
  
1
inf |∇uN |2 − f uN , uN ∈ VN1 (1.38)
2 Ω Ω

ce qui est encore équivalent à la formulation faible discrète donnée ci-dessus.


Pour que la solution discrète ainsi obtenue par l’une ou l’autre des voies
(c’est la même) soit une approximation correcte et asymptotiquement exacte
(quand le paramètre de taille caractéristique du maillage tend vers 0) de
la solution exacte u du problème de départ, il faut certaines propriétés
mathématiques de ce problème. Ces propriétés sont effectivement vérifiées
par (1.34) et (1.37). On admettra qu’elles le sont aussi pour notre problème
de mécanique. Il faut aussi pour le maillage de bonnes propriétés de régularité
et d’homogénéité (relatives à la forme et la taille des triangles, à leur recollage
mutuel). Nous admettrons que notre maillage possède de telles bonnes pro-
priétés. Nous pouvons donc appliquer la discrétisation éléments finis à notre
problème de minimisation (sous la forme (1.37)). Concentrons-nous alors sur
les aspects multiéchelles.
Notons (Tj ) les différents triangles du maillage, et discrétisons la déforma-
tion ϕ par éléments finis P1. Chaque coordonnée ϕα de ϕ, α = 1, 2 se
décompose donc selon
18 1 Modèles micro-macro pour les solides

ϕα (x) = ϕα
i φi (x),
i

où les φi sont les éléments finis associés au maillage T .


Corrélativement, le gradient de déformation est discrétisé selon les éléments
P0 sur les triangles, notés ψi ,
∂ϕα  α,β
(x) = gl ψl (x), α = 1, 2 β = 1, 2
∂xβ
l

Par définition, ψl est la fonction constante de valeur un sur le triangle Tl .


Désignons maintenant par ξj les noeuds de quadrature associés à la trian-
gulation effectuée. Cela signifie que, de façon générale, une intégrale

ψ(x) dx (1.39)

d’une fonction arbitraire ψ, pas nécéssairement dans l’espace d’éléments finis,


sera approchée par  
ψ(x) dx ≈ ωj ψ(ξj ) (1.40)
Ω j

où les ωj sont les poids de la formule de quadrature. Nous prenons ici la
formule de quadrature la plus simple qui consiste à choisir un seul noeud dans
chaque triangle Tj , précisément son barycentre ξj , et à lui affecter le poids
ωj = |Tj |. Nous utilisons donc la formule de quadrature
 
ψ(x) dx ≈ |Tj | ψ(ξj ) (1.41)

ξj barycentre de Tj

L’évaluation de l’intégrale (1.29) se fera par cette formule de quadrature,


et tout se ramène alors au calcul des

W (ϕ)(ξj ) quand ϕ est dans l’espace d’éléments finis P 1

pour pouvoir ensuite l’inclure dans une boucle de minimisation sur ϕ.


Suivant que ζj et les ζj + εn appartiennent à Ωreg ou Ωsing (voir la Fi-
gure 1.8), on choisit respectivement la formule (1.27), d’où
1 
W (ϕ)(ξj ) = V (∇ϕ(ξj ) · εk),
2
k

ou la formule (1.28) d’où


1 
W (ϕ)(ξj ) = V (ϕ(ξj + εk) − ϕ(ξj )).
2
k
1.3 Une méthode couplée micro-macro 19

Pour calculer ces deux séries de la forme f (k) au membre de droite de
k∈ZZ2
(1.27) et (1.28),
 une manière de procéder est de les remplacer par des sommes
finies f (k) où rc est un rayon de coupure.
k ∈ ZZ2
k ∈ Brc (0)

Zone de faibles gradients:


le modèle macroscopique est suffisant

Zone de forts gradients:


le modèle microscopique est nécessaire

Fig. 1.7. Choix des zones

1.3.3 Utilisation de E(ϕ)


A ce stade, nous savons donc, pour un maillage donné et une discrétisation de
ϕ donnée, calculer l’énergie mécanique E(ϕ) de la transformation ϕ. Le reste
est une affaire d’algorithme d’optimisation : il faut lancer une minimisation
de l’énergie mécanique donnée par (1.29), i.e. résoudre
⎧   


⎪ inf E(ϕ) − fϕ− gϕ ϕ ∈ A ,



⎪ Ω ∂Ω



⎨ 
1 
E(ϕ) = V (∇ϕ(x) · εk) dx (1.42)

⎪ 2 Ωreg

⎪ k=0∈ZZ 2

⎪ 


1
V (ϕ(x + εk) − ϕ(x)) dx

⎩ +
2 Ωsing 2
k=0∈ZZ
20 1 Modèles micro-macro pour les solides

où f et g ont la même signification que dans la première section de ce chapitre.

Fig. 1.8. En chaque point macroscopique, on regarde la déformation subie par le


cristal microscopique : elle peut être régulière (une simple application linéaire ∇ϕ(x),
en haut), ou peut être beaucoup plus “chaotique” (en bas)

Remarque 1.13. Signalons que les questions de détermination d’états de défor-


mation statiques comme celles que nous avons traitées ci-dessus sont claire-
ment cruciales, mais que, au-delà, les applications d’intérêt pratique sont le
plus souvent des problèmes dépendant du temps, comme par exemple la pro-
pagation d’une fracture. La technologie développée ci-dessus permet d’avoir au
moins une stratégie pour ce type de problèmes, à savoir la stratégie dite quasi-
statique, qui consiste à considérer que l’évolution en temps n’est rien d’autre
qu’une succession d’états d’équilibres calculés chacun par un problème de mi-
nimisation du type (1.42). Nous renvoyons le lecteur à la bibliographie pour
en apprendre plus.

On attaque (1.42) de la façon suivante. Après avoir postulé une forme


pour ϕ0 , on bâtit une suite d’itérées ϕk , par exemple via un algorithme de
gradient pour tenter de minimiser l’énergie. A chaque itération, il faut calculer

E(ϕk ) et éventuellement E(ϕk ) ce qui dans les deux cas fait intervenir
∂ϕ
un calcul du type de celui détaillé ci-dessus. Au besoin, il faut raffiner le
maillage là où on détecte des apparitions d’irrégularités dans ϕk . Il existe pour
1.4 Introduction à la topologie faible 21

cela des stratégies automatiques que nous n’exposerons pas ici. De même,
la partition du domaine Ω en les parties Ωreg et Ωsing pourra évoluer au
cours des itérations selon les inhomogénéités constatées sur ϕk . Que le lecteur
retienne simplement que la partie spécifiquement de nature multiéchelle du
travail est maintenant connue de lui. Il ne reste après que des techniques
standard de calcul scientifique.
Cependant, un point capital demeure. Bien qu’on sache effectivement at-
taquer en pratique la minimisation du problème (1.42), de nombreux progrès
restent à faire, notamment car on ne dispose pas à ce jour d’une analyse
numérique du problème (1.42), et ce, d’abord, parce qu’on ne dispose pas non
plus d’une analyse mathématique. Certes, de récents efforts de recherche dans
ce domaine visent à combler ce manque, mais dans l’état actuel des connais-
sances, on a peu d’éléments d’analyse, et donc on paie un inévitable prix dans
la technique numérique.
Faute de pouvoir faire l’analyse de (1.42), ou de (1.21), on peut donner
quelques éléments d’analyse pour un problème purement macroscopique du
type   
inf W (ϕ(x), ∇ϕ(x)) dx − fϕ− g ϕ. (1.43)
ϕ∈A Ω Ω ∂Ω
Il est clair qu’un problème comme (1.42) ou même sa forme simplifiée (1.21)
(pour laquelle Ω = Ωreg ), contient au moins les difficultés mathématiques du
problème (1.43). Et nous allons voir que ces difficultés sont énormes.
Les deux prochaines sections sont consacrées à l’étude mathématique (in-
troductive) des problèmes de type (1.43). La Section 1.5 peut être omise en
première lecture, notamment par le lecteur qui n’est pas un “fana maths”. La
lecture de la Section 1.4 est en revanche indispensable car on y présente un
outil capital pour l’étude des problèmes multiéchelles, la topologie faible.

1.4 Introduction à la topologie faible


Nous commençons par définir la notion de topologie faible sur L2 (]0, 1[), et
nous verrons des extensions à peine plus compliquées plus tard.
Définition 1.14. Une suite un de fonctions de L2 (]0, 1[) est dite converger
faiblement vers la fonction u ∈ L2 (]0, 1[) si pour toute fonction v ∈ L2 (]0, 1[),
on a  
1 1
lim un v = u v. (1.44)
n−→+∞ 0 0
L’exemple le plus simple est celui de la suite

un (x) = sin (2π n x) (1.45)

qui converge faiblement vers la fonction nulle sur le segment ]0, 1[. Le lecteur
sait en effet que par une simple intégration par parties, il est facile de montrer
22 1 Modèles micro-macro pour les solides

que (1.44) est vraie avec u = 0 pour toute fonction v de classe C 1 par exemple.
On procède ensuite par densité pour étendre le résultat à toutes les fonctions
de L2 (]0, 1[).
Exercice 1.15. Formaliser le raisonnement précédent.
Il est clair que pour autant cette suite ne converge pas vers zéro pour
la topologie habituelle de L2 (]0, 1[), celle définie par : un tend vers u si et
seulement si  1
lim |un − u|2 = 0 (1.46)
n−→0 0

(pour différencier, on parlera souvent de convergence forte dans ce cas). En


effet,
 1  1  1
1 1 1
|un − u|2 = sin2 (2πnx) = ( − cos(4πnx)) = .
0 0 0 2 2 2
En revanche, c’est une simple application de l’inégalité de Cauchy-Schwarz
que de montrer que si une suite un converge vers u fortement, alors elle
converge faiblement. La notion de convergence faible (comme son nom l’in-
dique) est donc une notion plus faible que celle de convergence forte.
Dès maintenant, on peut comprendre pourquoi topologie faible et problè-
mes à plusieurs échelles sont liés. Si la suite un définie par (1.45) est un courant
électrique, il s’agit d’un courant qui oscille très rapidement. En le mesurant
(c’est le rôle de la fonction v qui figure l’appareil de mesure, lequel n’est pas
infiniment précis, donc a une “largeur” (le support de v)), on ne voit asymp-
totiquement qu’un signal nul (la fonction limite faible u = 0). La fonction
oscille tellement qu’en moyenne (ou, plus trivialement, vue de loin) elle est
nulle. Dit en d’autres termes, elle est non nulle quand on la regarde avec un
“microscope” (un appareil de mesure très précis, ou en termes mathématiques
avec la topologie forte), mais nulle quand on la regarde “macroscopiquement”
(en termes mathématiques avec la topologie faible).
Encore dit différemment, la limite faible u0 d’une suite de fonctions uε
définit le comportement moyen (macroscopique) de la suite.
De la même façon que nous avons défini la topologie faible sur L2 (]0, 1[),
nous pouvons définir la topologie faible sur un espace de Hilbert V de produit
scalaire (·, ·) par
n−→+∞
un tend faiblement vers u dans V si (un , v) −→ (u, v) ∀v ∈ V. (1.47)

Ceci permet notamment de définir par exemple la topologie faible de L2 (Ω)


pour Ω ⊂ IRN (par la même définition que (1.44)), ou celle de H 1 (0, 1) :

un tend faiblement vers u dans H 1 (0, 1) si


 1  1
(un v  + un v) −→ (u v  + uv) ∀v ∈ H 1 (0, 1),
n−→+∞

0 0
1.4 Introduction à la topologie faible 23

ou encore celle de H 1 (Ω), pour Ω ⊂ IRN .


Nous pouvons aussi définir la topologie faible sur les espaces Lp , 1 ≤ p ≤
+∞, en dimension quelconque.

Définition 1.16. Soit Ω un ouvert de IRN , N ≥ 1. Soit 1 ≤ p < +∞, nous


dirons que la suite un ∈ Lp (Ω) converge faiblement vers u ∈ Lp (Ω) si pour
1 1
toute fonction v ∈ Lq (Ω), + = 1,
p q
 
lim un v = u v. (1.48)
n−→+∞ Ω Ω

Dans le cas p = ∞, il y a une petite nuance : nous dirons qu’une suite


un ∈ L∞ (Ω) converge faiblement- vers u ∈ L∞ (Ω) si pour toute fonction
v ∈ L1 (Ω), (1.48) a lieu.
Dans tous les cas, il est commode de noter
n→∞
un  u, (1.49)

pour indiquer la convergence faible, tandis que la convergence forte est dénotée
par l’habituel
n→∞
un −→ u. (1.50)

Cette définition nous permet d’envisager les produits de suite. En effet, le


lecteur sait que si la suite un converge vers u dans Lp et la suite vn converge
vers v dans Lq , 1 ≤ p ≤ +∞, p1 + 1q = 1, alors la suite un vn converge dans L1
vers uv. Ceci se montre par une simple application de l’inégalité de Hölder, à
savoir
uv L1 (Ω) ≤ u Lp (Ω) v Lq (Ω) , (1.51)
1 1
pour toute fonction u dans Lp (Ω), v dans Lq (Ω), + = 1.
p q
La proposition suivante, dont la preuve est laissée au lecteur, montre que
les choses ne sont pas aussi simples pour la topologie faible.
1 1
Proposition 1.17. Soit 1 ≤ p ≤ +∞ et q tel que + = 1.
p q
p
– (i) Si un converge fortement vers u dans L (Ω), et vn converge faible-
ment vers v dans Lq (Ω), alors un vn converge faiblement vers uv dans
L1 (Ω),
– (ii) Si un converge faiblement (respectivement faiblement- si p = +∞)
vers u dans Lp (Ω), et vn converge faiblement vers v dans Lq (Ω), alors
on ne peut rien dire de la convergence du produit un vn .

Exercice 1.18. Montrer (i) en utilisant l’inégalité de Hölder, et donner un


contrexemple pour (ii).

Enfin, une propriété essentielle de la topologie faible est la suivante


24 1 Modèles micro-macro pour les solides

Proposition 1.19. Toute suite un bornée dans Lp (Ω), 1 < p < +∞, (res-
pectivement p = ∞) admet une sous suite convergente pour la topologie faible
(respectivement la topologie faible-).
Remarque 1.20. Noter que le cas p = 1 est exclu et que le cas p = ∞ requiert
un traitement spécial. Cette remarque vaudra dans toute la suite.
Remarque 1.21. Cette proposition est en fait la raison d’être de la topologie
faible, qui crée des objets (les limites) en étant moins exigeante sur la notion
de convergence. Charge ensuite au mathématicien de montrer que cette limite
faible est éventuellement une limite pour la topologie forte si tel est le cas.
La preuve de cette proposition sera admise. Cependant, la preuve du cas
particulier p = 2 fait l’objet de l’exercice suivant.
Exercice 1.22. On se place sur L2 (]0, 1[). Soit ek une base hilbertienne de cet
espace. Soit un une suite de L2 (]0, 1[) qu’on suppose bornée. On décompose un
+∞

selon la base des ek en un = un,k ek où, pour chaque n, un,k ∈ l2 . Montrer
k=1
que pour chaque k, la suite des coefficients un,k est bornée dans R. En déduire
qu’à extraction près, la suite un converge faiblement.
La dernière propriété que nous allons mentionner ici est un résultat de
compacité que nous ne sommes pas en mesure de démontrer et que nous
admettrons (voir par exemple la référence [2] à la fin de ce chapitre pour une
démonstration).
Proposition 1.23. dit Théorème de Rellich On suppose que le domaine
Ω est un borné régulier de IRN . Alors une suite faiblement convergente dans
H 1 (Ω) est à extraction près fortement convergente dans L2 (Ω).
Remarque 1.24. Au vu des deux propositions précédentes, le lecteur peut faire
l’observation suivante. Si une suite de fonctions un de L2 (]0, 1[) (par exemple)
est bornée, alors une de ses sous suites converge faiblement. Si de plus la suite
des dérivées un est bornée dans L2 (]0, 1[), alors une sous suite de un converge
fortement.
De nombreuses autres propriétés permettent de relier convergence faible et
convergence forte. Nous ne nous y attarderons pas plus et renvoyons le lecteur
à la bibliographie de ce chapitre pour une étude plus approfondie.

1.5 Vers le calcul des variations


Muni de l’outil “topologie faible”, abordons l’étude d’un problème modèle, à
savoir le problème (1.43) que nous récrivons ici, en supposant les données f
et g nulles, juste pour comprendre (en d’autres termes, nous cherchons l’état
d’équilibre du matériau sans qu’on ne le soumette à aucune force),
1.5 Vers le calcul des variations 25

inf W (ϕ(x), ∇ϕ(x)) dx. (1.52)
ϕ∈A Ω

Ce problème est ici représentatif des bien plus complexes problèmes de type
(1.21), et au-delà encore de type (1.42). Il nous arrivera aussi de ne garder
que la dépendance en ∇ϕ, pour nous restreindre au cas de l’élasticité, et donc
de traiter 
inf W (∇ϕ(x)) dx. (1.53)
ϕ∈A Ω

Quelle est la difficulté dans les problèmes (1.52) et (1.53) ? Elle tient en
deux mots : la non convexité de W .
Déjà, quand la fonctionnelle d’énergie est convexe, un problème de mini-
misation peut ne pas être trivial, au sens où il peut ou non admettre un mi-
nimiseur (minimiser t2 , ou au contraire, e−t sur la droite réelle), mais quand
elle est non convexe, les difficultés deviennent terribles.
Pourquoi W est-elle par nature non convexe (sauf dans le cas très simple de
l’élasticité linéarisée, où on est en train de minimiser une “parabole”) ? Pour le
comprendre, il suffit par exemple de regarder la densité d’énergie W que nous
avons construite plus haut en (1.20) et qui provient de l’échelle atomique :

W (F (x)) = {énergie du réseau cristallin placé en x et déformé par F (x)}.

Une telle fonctionnelle n’est généralement pas convexe. En effet, pour un


réseau atomique tridimensionnel, il n’est pas rare qu’il existe plusieurs confi-
gurations d’énergie minimale (plusieurs mailles périodiques qui minimisent
l’énergie), et toute application linéaire qui fait passer de la configuration de
référence à l’une d’entre elles sera donc un minimiseur pour W . En langage
mécanique, le passage d’une configuration d’énergie minimale à une autre est
appelée une transition de phase, et l’on voit ainsi se développer dans des
matériaux réels différentes zones, selon la configuration (la phase) du réseau
local. D’ailleurs même s’il n’existe qu’une seule configuration d’énergie mini-
π 3π
male, disons un carré en dimension 2, alors les rotations d’angle , π, la
2 2
changent en elle-même est donc il est exclus que le potentiel W soit convexe,
sauf à être constant. En résumé, W a plusieurs puits, et en conséquence,
l’énergie 
inf W (F (x)) dx
ϕ∈A Ω

admet beaucoup (voire une infinité) de minimiseurs, formés de fonctions F (x)


qui vont “visiter” tous les puits. Minimiser une telle énergie devient donc une
tâche difficile.
Dans le cas non convexe, 3 situations sont donc possibles
(i) il n’existe pas de minimiseur
(ii) il existe un unique minimiseur
(iii) il existe plusieurs (une infinité de) minimiseurs.
26 1 Modèles micro-macro pour les solides

Encore une fois, nous ne pouvons pas faire l’analyse mathématique de


(1.52) et (1.53). Nous allons en fait prendre des problèmes modèles 3 , mo-
nodimensionnels, qui exhibent les mêmes caractéristiques, présentent donc les
mêmes difficultés, et sur lesquels nous allons comprendre en détail la phénomé-
nologie de la situation et examiner les techniques appropriées, surtout du point
de vue mathématique et un peu du point de vue numérique.

1.5.1 Quelques problèmes modèles

Commençons par la minimisation d’une fonctionnelle du type (1.53), à savoir


 1
inf (ϕ (x)2 − 1)2 dx, ϕ ∈ W 1,4 ([0, 1]), ϕ(0) = ϕ(1) = 0 , (1.54)
0

où l’on a désigné par W 1,4 ([0, 1]) l’espace fonctionnel

W 1,4 ([0, 1]) = {ϕ ∈ L4 ([0, 1]) / ϕ ∈ L4 ([0, 1])}. (1.55)

Comme on peut le voir sur la Figure 1.9, le potentiel W (ϕ ) = (ϕ (x)2 −
2
1) est un potentiel à deux puits. Phénoménologiquement, on doit penser les
points -1 et 1 qui sont les points où sont localisés les deux puits comme
les transformations linéaires (les ∇ϕ) qui font passer du réseau de réference
à deux configurations différentes d’énergie minimale, ou autrement dit aux
deux phases du matériau à l’échelle microscopique.

Une analyse simple montre que

le problème (1.54) a une infinité de minimiseurs.

En effet, la fonction

x si 0 ≤ x ≤ 1/2,
ϕ1 (x) =
1 − x si 1/2 ≤ x ≤ 1

a pour énergie zéro et vérifie bien les conditions aux limites. Ceci montre que
l’infimum (1.54) vaut zéro. Il existe en fait une infinité de fonctions donnant
l’énergie zéro (voir de telles fonctions sur la Figure 1.10), d’où une infinité de
minimiseurs.

Remarque 1.25. Rappelons le vocabulaire suivant : l’infimum d’un problème


de minimisation
inf{E(x), x ∈ X}
est la valeur du nombre I = inf{E(x), x ∈ X} (éventuellement = −∞).
Quand I > −∞ et qu’il existe un x0 ∈ X tel que E(x0 ) = I, l’infimum I
est atteint et est dit un minimum. Le point x0 est un minimiseur.
1.5 Vers le calcul des variations 27

A B

Fig. 1.9. Potentiel à deux puits modélisant une éventuelle transition entre deux
phases (2 configurations cristallines d’énergie minimale).

0 1

Fig. 1.10. Quelques minimiseurs pour le problème (1.54).

Remarque 1.26. Dans le problème (1.54), on a, par souci de simplicité, fixé la


condition ϕ(1) = 0, ce qui peut être troublant dans le contexte mécanique, où
ϕ est la déformation. En fait, une condition plus satisfaisante mécaniquement
est une condition ϕ(1) = a, pour un réel a < 1. On a alors les mêmes conclu-
sions que pour a = 0 (le faire en exercice). Quant au cas a = 1, on va le
regarder maintenant.

Définissons maintenant

3
les anglophones parlent de toy-model, littéralement modèle-jouet.
28 1 Modèles micro-macro pour les solides
 1
inf ((ϕ (x)2 − 1)2 dx, ϕ ∈ W 1,4 ([0, 1]), ϕ(0) = 0, ϕ(1) = 1 , (1.56)
0

En changeant seulement de manière adéquate la condition aux limites, on


a totalement modifié le paysage, puisque

le problème (1.56) a un unique minimiseur.

En effet, la fonction ϕ(x) ≡ x sur [0, 1] a pour énergie zéro, donc l’infimum
(1.56) vaut toujours zéro. Un minimiseur quelconque vérifie donc ϕ (x)2 = 1
d’où  
1 1
1 = ϕ(1) − ϕ(0) = ϕ (x) dx ≤ dx = 1
0 0

d’où l’égalité dans tous les termes et donc ϕ(x) ≡ x.


La comparaison de (1.54) et (1.56), et le rôle capital joué par les conditions
aux limites, nous amènent aux commentaires suivants. Changer les conditions
aux limites est un moyen (parmi d’autres, voir la Remarque 1.28 ci-dessous) de
changer l’espace fonctionnel sur lequel on minimise. Et en fait, l’occurence de
tel ou tel comportement dépend non seulement de la fonctionnelle d’énergie
qu’on minimise, mais aussi précisémentde l’ensemble sur lequel on la mini-
2
mise. Trivialement, e−t a deux minimiseurs sur [−1, 1] mais n’en a aucun
sur IR. Ceci nous conduit à souligner un point qui a été totalement passé
sous silence dans les sections précédentes. Nous nous sommes attachés, avec
beaucoup d’efforts, à déterminer à partir du niveau atomique une forme de
densité W à insérer dans le problème de minimisation (1.21), mais poser ri-
goureusement ce problème requiert de préciser l’espace fonctionnel où varie la
fonction ϕ (on parle de l’espace variationnel ), ce qui est une vraie question en
soi. Au niveau macroscopique, c’est une question qui n’admet pas de réponse
claire4 , et donc tout élément d’information qui proviendrait du niveau micro-
scopique serait formidablement utile. Et ce d’autant plus que le problème de
minimisation est, comme on vient de le voir ci-dessus, précisément très sen-
sible au choix de l’espace variationnel. Malheureusement, à ce jour, on n’a pas
encore compris comment faire. On est donc obligé de considérer une variété
d’espaces fonctionnels différents.

Exercice 1.27. Que dire du cas ϕ(1) = a > 1 dans (1.54) ?

Remarque 1.28. Un autre exemple de dépendance forte du problème de mi-


nimisation par rapport à l’espace fonctionnel est le suivant. Cette fois la
dépendance ne tient pas aux conditions aux bords, mais à la régularité de
la fonction sur tout le domaine, et elle se manifeste non sur l’existence d’un
minimiseur mais sur la valeur de l’infimum. On peut montrer que le problème

4
Il y a autant de débats sur l’espace variationnel que sur la forme de la fonction-
nelle elle-même.
1.5 Vers le calcul des variations 29
 1
 
Ip = inf (ϕ(x)3 − x)2 (ϕ (x))6 dx, / ϕ ∈ W 1,p ([0, 1]), ϕ(0) = 0, ϕ(1) = 1
0

où W 1,p ([0, 1]) est défini comme dans (1.55), vérifie

Ip > I1 = 0, pour tout p ≥ 3/2.

3
En d’autres termes, pour p = 1 (et en fait pour tout p < ) l’infimum est
2
1/3
zéro (considérer la fonction ϕ0 (x) = x ), mais si on prescrit une régularité
à peine plus forte, alors l’infimum augmente strictement.

Revenons maintenant à (1.54) et modifions maintenant le modèle, en


considérant cette fois le modèle suivant, de la forme (1.52)
 1  1
inf ((ϕ (x)2 − 1)2 dx + ϕ(x)2 dx, ϕ ∈ W 1,4 ([0, 1]), ϕ(0) = ϕ(1) = 0 ,
0 0
(1.57)
Cette fois,
le problème (1.57) n’a aucun minimiseur.
En effet, en construisant la fonction

x si 0 ≤ x ≤ ε,
ϕε (x) =
2ε − x si ε ≤ x ≤ 2ε

et en la reproduisant de manière 2ε-périodique sur le segment [0, 1], on voit


qu’on construit une suite de fonctions (dessinées en Figure 1.11) qui est telle
que  
1 1
0≤ ((ϕε (x)2 − 1)2 dx + ϕε (x)2 dx ≤ 0 + ε2 ,
0 0

ce qui montre que l’infimum défini par (1.57) vaut zéro. Mais alors, s’il existait
un minimiseur ϕ0 de ce problème on aurait
 1  1
 2 2
((ϕ0 (x) − 1) dx + ϕ0 (x)2 dx = 0,
0 0

d’où les exigences contradictoires ϕ0 ≡ 0 et |ϕ0 | ≡ 1.


Ce troisième exemple est particulièrement intéressant, car on y voit s’y
développer un véritable phénomène multiéchelle, assez proche de ce qui peut
se produire sur un cas réel du type (1.52) ou (1.53).
Pour minimiser l’énergie, la suite minimisante de la Figure 1.11 se met à
exhiber des structures de plus en plus fines, en fait jusqu’à une finesse mi-
croscopique infinie, sans qu’il existe asymptotiquement un minimum. Il s’agit
d’un phénomène que nous retrouverons plus loin dans ce cours : la suite ϕε
converge faiblement, mais pas fortement, dans H 1 .
30 1 Modèles micro-macro pour les solides

Supposons qu’on veuille approcher ce problème par une méthode éléments


finis, P1 par exemple. Pour une taille de maillage h fixée, seules les fonctions ϕ ε
avec ε ≥ h appartiendront à l’espace variationnel, d’où une borne inférieure
sur les microstructures due à la discrétisation elle-même. Il existera alors un
minimiseur, mais qui n’aura aucun caractère intrinsèque, puisqu’il oscillera de
plus en plus quand h diminuera.
En fait, il est même possible de prouver, par une étude mathématique très
fine, que le problème discrétisé possède, à h fixé, un très grand nombre de
minimiseurs locaux, non globaux, très proche en énergie du minimiseur global
(à h fixé), ce qui causera d’énormes difficultés quand on tentera de minimiser
le problème avec un algorithme de minimisation directe.
Si la discrétisation peut borner inférieurement la taille des microstruc-
tures, un terme additif dans la fonctionnelle d’énergie peut jouer le même
rôle. Considérons en effet
 1  1  1
inf ((ϕ (x)2 − 1)2 dx + ϕ(x)2 dx + η 2 (ϕ (x))2 dx, /
0 0 0
1,4  2
ϕ∈W ([0, 1]), ϕ ∈ L ([0, 1]),

ϕ(0) = ϕ(1) = 0 , (1.58)

et
 1  1
inf ((ϕ (x)2 − 1)2 dx + η 2 (ϕ (x))2 dx, /
0 0
ϕ ∈ W 1,4 ([0, 1]), ϕ ∈ L2 ([0, 1]),

ϕ(0) = ϕ(1) = 0 , (1.59)

où η est un petit paramètre. Ainsi définis,

les problèmes (1.58) et (1.59) ont (au moins) un minimiseur.

L’idée est que le terme additif amène de la viscosité : il permet de montrer


1
que la dérivée seconde d’une suite minimisante est bornée dans L2 par , et
η
donc que la taille de la microstructure (i.e. des oscillations) ne peut pas être
inférieure à η. Nous laissons au lecteur, dans l’Exercice 1.29 ci-dessous, le soin
de formaliser ce raisonnement.

Exercice 1.29. Sur les problèmes (1.58) et (1.59), formaliser avec rigueur
le raisonnement ci-dessus (on utilisera sans nécessairement la démontrer la
propriété suivante : la norme L2 est semi continue inférieurement pour la
topologie faible).
1.5 Vers le calcul des variations 31

Remarque 1.30. Noter qu’on pourrait aussi bien, pour cet exemple (1.57), sup-
primer la condition au bord ϕ(0) = ϕ(1) = 0 et minimiser sur toutes les
fonctions de W 1,4 ([0, 1]) tout en obtenant la même situation. On pourrait
aussi raisonner sur d’autres conditions de Dirichlet, an amendant légèrement
le raisonnement.

A ce stade et avant de continuer sur le traitement mathématique de ces


problèmes modèles, il est utile de s’arréter un peu sur la démarche générale.
Les problèmes comme (1.54) sont symboliques de problèmes de la méca-
nique où une fonctionnelle de densité d’énergie, bien que ne faisant pas ap-
paraı̂tre explicitement de petites échelles, en fait apparaı̂tre implicitement lors
de sa minimisation. Le gradient ϕn de la suite minimisante ϕn oscille entre
différentes valeurs, et ce à des échelles de plus en plus petites, pour permettre
à la suite ϕn d’approcher asymptotiquement la valeur de l’infimum d’énergie.
Ces petites échelles peuvent devenir infiniment petites. On argumentera alors
que ce dernier point n’est pas possible. En effet, si la fonction ϕ figure une
déformation, la déformation ne peut pas varier à une échelle infiniment petite,
car l’échelle la plus fine à laquelle elle peut varier est l’échelle atomique, et en
fait en général une échelle sensiblement supérieure. Que s’est -il donc passé ?

0 1

Fig. 1.11. Suite minimisante pour (1.57).

En fait,
- d’un côté, ces oscillations infiniment petites sont un artefact de la modéli-
sation, car pour des raisons physiques elles devraient être bornée inférieure-
32 1 Modèles micro-macro pour les solides

ment (et donc on peut insérer cela “au forceps” dans le modèle par exemple
par l’introduction d’un terme de viscosité comme dans (1.59) 5 )
- mais d’un autre côté, du point de vue de la modélisation (et aussi surtout du
point de vue du calcul scientifique), même si ces oscillations sont bornées
à une échelle très fine, cette dernière peut s’avérer tellement fine qu’il vaut
mieux la considérer en pratique comme nulle. Ainsi, quelques Angströms
valent zéro à l’échelle du mètre car gérer 10−10 numériquement n’est pas
facile.
Il ressort de cela qu’une stratégie tout à fait raisonnable peut être de
délibérément attaquer ces problèmes avec microstructures infiniment fines,
plutôt que de traiter explicitement la petite échelle. Nous prenons ici le contre-
pied de l’approche que nous prendrons dans d’autres chapitres de ce cours.
Certes. Mais comment traiter de tels problèmes, et que faut-il calculer
dans de telles situations pour obtenir la “mécanique” des choses ? Nous allons
le voir maintenant.

1.5.2 Techniques pour les microstructures

Il est instructif de revenir d’abord sur la notion de convergence faible :


rappelons-nous la suite sin (2πnx), qui converge faiblement dans L2 ([0, 1])
vers 0 (et en fait dans tous les Lp , 1 ≤ p < +∞ et dans L∞ ([0, 1]) faible-).
La bonne façon de décrire son comportement macroscopique a été de ne pas
essayer de suivre ses oscillations de plus en plus fines mais de tout simplement
considérer sa limite faible, à savoir zéro.
Appliquons la même technique à la suite minimisante de la Figure 1.11.
Elle converge fortement vers zéro, mais on peut décrire le comportement de
sa dérivée par limite faible : sa dérivée converge faiblement vers zéro. En un
certain sens, la fonction nulle est donc le “minimiseur” du problème (1.57).
Cela dit, cette notion de limite faible ne renseigne pas beaucoup sur la
forme de la suite minimisante de la Figure 1.11. On peut en fait décrire de
manière plus détaillée le comportement d’une suite qui converge faiblement
mais pas nécessairement fortement. C’est l’objet de la Proposition suivante,
qui introduit la notion de mesure de Young 6

Proposition 1.31. Soit (un ) une suite de fonctions de Ω ⊂ IRN à valeurs


dans IRp (il peut donc s’agir de fonctions à valeurs vectorielles). Supposons
que cette suite est bornée, indépendamment de n, dans L∞ (Ω, IRp ). Alors, il
existe une sous-suite, que nous dénoterons encore un , et pour chaque x ∈ Ω
5
Un terme de ce type est par exemple le terme d’énergie d’interface microsco-
pique, qui suffit le plus souvent à borner les variations de déformation microscopique.
6
Pour les fanas maths, signalons que les mesures de Young sont une façon, parmi
d’autres, de quantifier la non compacité d’une suite, c’est-à-dire de quantifier à quel
point la convergence faible n’est pas forte. On parle de défaut de compacité, et ainsi
de mesures de défaut.
1.5 Vers le calcul des variations 33

une mesure de probabilité dνx (appelée une mesure de Young générée par la
suite (un )) telle que pour toute fonction f continue sur IRp , on ait

n−→+∞
f (un )  f (λ) dνx (λ) (1.60)
IRp

dans L∞ (Ω) faible-.

Si la convergence de un vers sa limite u est forte, on sait que f (un ) converge


vers f (u) (par continuité de f ) et alors dνx (λ) = δ(λ − u(x)). En revanche, si
elle n’est pas forte, cette Proposition affirme que f (un ) tend vers une valeur
pondérée : pour chaque λ, la mesure de Young nous dit à quel point un charge
λ à la limite, et la valeur de lim f (un ) s’en déduit par somme (i.e. intégration).
En appliquant cette Proposition aux dérivées (ϕε ) des fonctions ϕε de la
Figure 1.11, on peut en fait montrer (nous l’admettons) que dans ce cas, la
mesure de Young qui apparaı̂t est indépendante du point x ∈ [0, 1] et vaut
1
dνx (λ) = dν(λ) = (δλ=−1 + δλ=1 ).
2
Heuristiquement, cela signifie qu’en tous les points x ∈ [0, 1], la dérivée vaut
asymptotiquement autant de fois −1 que 1, ce qu’on comprend bien intuiti-
vement à partir de la Figure 1.11. D’une certaine manière, la connaissance de
dνx (y) permet d’imaginer que le comportement est celui de la Figure 1.11,
sans pour autant le décrire dans le détail. On a ainsi l’intuition de la forme
des microstructures qui apparaissent asymptotiquement.

Exercice 1.32. On considère le problème de minimisation de la forme (1.53)


suivant
 1
 ∂ϕ 2  ∂ϕ 2
inf ( − 1)2 + dx dy / ϕ ∈ W 1,4 ([0, 1] × [0, 1]),
0 ∂x ∂y


ϕ = 0 sur ∂ [0, 1] × [0, 1] . (1.61)

Montrer que cet infimum vaut zéro, en en construisant une suite minimisante
particulière. Expliquer (sans démonstration) pourquoi il est naturel que la
mesure de Young
1
dνx,y (λ, µ) = dν(λ, µ) = δλ=−1,µ=0 + δλ=1,µ=0
2
apparaisse à la limite.

En toute généralité et en dimension 3, la mesure de Young pour la suite


des gradients de la suite minimisante détermine, comme le faisait la limite
faible, le gradient de déformation macroscopique ∇ϕ0 par la relation
34 1 Modèles micro-macro pour les solides

∇ϕ0 (x) = A dνx (A) (1.62)
M3

où M3 désigne, on le rappelle, l’espace des matrices 3 × 3. Du point de vue


énergétique, 
W (A) dνx (A)
M3
est la densité d’énergie macroscopique au point x, correspondant à l’énergie
microscopique
W (∇ϕn )
de la suite minimisante.
Mieux, cette notion de mesure de Young nous fournit en fait une approche
algorithmique pour les problèmes de minimisation du type (1.52) et (1.53).
Cette approche est une version de la Théorie de la relaxation. L’idée de re-
laxation consiste à modifier le problème de minimisation de la façon suivante.
Au lieu de tenter de minimiser (1.53), i.e.

inf W (∇ϕ(x)) dx,
ϕ∈A Ω

ce qui, on l’a mentionné ci-dessus peut être une tâche insurmontable à cause
de l’apparition de microstructures très fines, et de kyrielles de minimiseurs
locaux pour le problème discrétisé, on attaquera la minimisation de
 
inf W (A) dνx (A) dx (1.63)
ν, ϕ telles que Ω M3
∀x
 ∈Ω
A dνx (A) = ∇ϕ(x)
M3

On notera bien sûr que le problème de minimisation (1.63) généralise (re-


laxe !) le problème (1.53) : il suffit de prendre dνx ≡ δ(A − ∇ϕ(x)).
Evidemment, cette relaxation a un prix : l’espace variationnel a doublé
puisqu’il faut non seulement discrétiser (par exemple par éléments finis) les
déformations ϕ, mais aussi, en chaque point x (c’est-à-dire en fait au niveau
discret en chaque maille du maillage éléments finis), discrétiser l’espace des
mesures de Young.
Nous ne rentrons pas dans le détail de ces techniques, ni de leurs améliora-
tions possibles, et renvoyons à la bibliographie. Mentionnons simplement que
leur mise en oeuvre pratique est très lourde et que des efforts sont encore à
fournir pour élargir l’applicabilité de ces méthodes.
Remarque 1.33. Le lecteur retrouvera ce schéma tout au long du cours : il
y a un maillage macroscopique, et pour chacune de ses mailles, une fibre,
c’est-à-dire un nouvel espace à discrétiser. Voir à ce sujet la récapitulation du
Chapitre 6.
1.5 Vers le calcul des variations 35

Pour terminer ce chapitre, abordons une autre notion très importante pour
les problèmes variationnels de la mécanique que nous traitons ici, la quasicon-
vexité.
Nous l’avons dit, la difficulté provient du fait que la densité d’énergie W
dans (1.53) n’est pas convexe. Il s’agit donc d’affaiblir la notion de convexité
pour comprendre.

Définition 1.34. Une fonction W définie sur les matrices de taille M × N


et à valeurs dans IR ∪ {+∞} est dite quasiconvexe si
 
W (∇v) dx ≥ W (A) dx = |Ω| . W (A) (1.64)
Ω Ω

pour toute matrice A de taille M × N , toute fonction v telle que v(x) − Ax ∈


C0∞ (Ω, IRM ), et tout domaine Ω (et en fait il en suffit d’un).

Quand M = 1 (et quand W est à valeurs dans IR), la notion de quasicon-


vexité coı̈ncide avec la notion de convexité, mais dès la dimension M ≥ 2, la
quasiconvexité est une notion strictement plus faible que la convexité.
Mécaniquement, cette propriété de quasiconvexité signifie que quand la
densité W est quasiconvexe, un (des) minimiseur(s) du problème

inf W (∇ϕ(x)) dx, / ϕ = Ax sur le bord ∂Ω ,

c’est-à-dire un état de déformation du système sous déformation linéaire du


bord consiste précisément en une déformation linéaire ϕ(x) ≡ Ax du domaine
tout entier.
Pour une densité W générale, cette notion permet en fait de relaxer
le problème de minimisation dans un esprit un peu différent de la section
précédente. En effet, on remplace par exemple (1.53) par

inf W ∗∗ (∇ϕ(x)) dx. (1.65)
ϕ∈A Ω
∗∗
où la fonction W est l’enveloppe quasiconvexe de W , c’est-à-dire par
définition, la plus grande fonction quasiconvexe minorant W . On l’appelle
aussi la fonctionnelle d’énergie relaxée. Sous de bonnes hypothèses sur W ,
cette enveloppe quasiconvexe peut s’écrire
 
1
W ∗∗ (F ) = inf W (∇ψ(y)) dy, / ψ = F y sur le bord ∂ω ,
|ω| ω
où l’on peut en fait montrer que le membre de droite ne dépend pas du domaine
ω choisi. On verra deux exemples importants d’enveloppes quasiconvexes sur
la Figure 1.12 ; noter cependant qu’en général l’enveloppe quasiconvexe d’une
fonction est très dure, voire quasiment impossible, à calculer, ce qui rend
36 1 Modèles micro-macro pour les solides

l’approche décrite ici difficile à mettre en oeuvre dans la pratique. Sous de


bonnes hypothèses sur W , les deux valeurs des infima (1.53) et (1.65) sont
égales, c’est-à-dire

inf W (∇ϕ(x)) dx =
ϕ∈A Ω 

1
inf inf W (∇ψ(y)) dy, / ψ = ∇ϕ(x)y sur le bord ∂ω dx .
ϕ∈A Ω |ω| ω

Mais le problème (1.65), au membre de droite, au contraire éventuellement du


membre de gauche (1.53), admet un minimiseur. Ce minimiseur décrit en fait,
d’un certain point de vue, le comportement macroscopique, et a été obtenu
en moyennant sur les petites échelles.

Remarque 1.35. La quasiconvexité de W est en fait une condition nécessaire


pour que le problème (1.53) admette un minimiseur.

Enfin, signalons que les deux techniques, mesure de Young d’une part et
quasiconvexité d’autre part, sont reliées, puisque le minimiseur ϕ0 de (1.65)
(ou un des minimiseurs de (1.65)) a son gradient donné par (1.62). En parti-
culier, la relaxation par les mesures de Young conserve plus d’information au
niveau microscopique que la relaxation par quasiconvexification.

Fig. 1.12. Deux fonctions et leurs enveloppes quasiconvexes (A gauche un potentiel


1 1
à 2 puits, à droite un potentiel de Lennard-Jones 12 − 6 .
r r

Exercice 1.36. On considère le problème de minimisation suivant



 L 
I = inf W (ϕ (x)), ϕ ∈ H 1 ([0, L]), ϕ > 0, ϕ(0) = 0, ϕ(L) = a , (1.66)
0

où L > 0 et a > 0 sont fixés, et W est le potentiel de Lennard-Jones de


la Figure 1.12, normalisé de sorte que son minimum soit atteint en r = 1.
Montrer que l’on a, pour tout a > 0,
1.6 Bibliographie 37
a
I = L . W ∗∗ ,
L
a
et que l’infimum (1.66) est atteint seulement pour ≤ 1 alors que l’infimum
L

 L 
I = inf W ∗∗ (ϕ (x)), ϕ ∈ H 1 ([0, L]), ϕ > 0, ϕ(0) = 0, ϕ(L) = a ,
0
(1.67)
est toujours atteint. On précisera dans chacun des deux cas les minimiseurs.

1.6 Bibliographie

Pour des éléments sur la mécanique des milieux continus, nous renvoyons
aux livres de J. Salençon [69], Ph. G. Ciarlet [25], Y. Bamberger [10]. La
discrétisation par éléments finis en général est exposée dans le cours de G. Al-
laire [2], et par exemple dans les livres [33], et [67]. Pour son adaptation
spécifique aux problèmes d’élasticité on renvoie à l’ouvrage de P. Le Tal-
lec [53]. Des informations sur la façon de dériver des modèles macroscopiques
à partir d’informations à l’échelle atomique peuvent être par exemple trouvées
dans le livre d’A. Askar [7].
La dérivation mathématique rigoureuse de densités d’énergie mécanique
peut se lire dans le récent article X. Blanc, C. Le Bris et P.L. Lions [15].
La méthode numérique exposée dans la Section 1.3 est connue sous le nom
de Quasi continuum method et a été introduite, et successivement amendée,
dans E.B. Tadmor, R. Phillips [81], E.B. Tadmor, M. Ortiz, R. Phillips [82],
V.B. Shenoy, R. Miller, E.B. Tadmor, D. Rodney, R. Phillips, M. Ortiz [75],
J. Knap, M. Ortiz [51]. Pour des exemples d’application, on pourra voir
E.B. Tadmor, G.S. Smith, N. Bernstein, E. Kaxiras [80], V.B. Shenoy, R.
Miller, E.B. Tadmor, R. Phillips, M. Ortiz [74], R. Miller, E.B. Tadmor, R.
Phillips, M. Ortiz [59]. Nous en avons présenté ici la version “historique”, es-
sentiellement pour des raisons pédagogiques. La version “actuelle” est un peu
différente à la fois dans son esprit (tout à fait dans la veine de la Remarque 1.7)
et dans sa réalisation. On renvoie bien évidemment à la bibliographie.
Pour plus de détails sur les simulations multiéchelles en science des
matériaux, on pourra consulter les ouvrages “professionnels” : P. Deák, Th.
Frauenheim, M. R. Pederson [27] (et en particulier l’article R. E. Rudd &
J. Q. Broughton [68] des pages 251-291 de [27]), D. Raabe [66], O. Kirchner,
LP. Kubin, V. Pontikis [49], VV. Bulatov et coll. [18].
Pour en savoir plus sur la notion de topologie faible et ses multiples pro-
priétés, on pourra consulter, dans l’ordre croissant de difficulté, le cours de
G. Allaire [2], le livre de H. Brézis [16] ou le remarquable petit fascicule de
L.C. Evans [35]. L’analyse mathématique des problèmes de calcul des varia-
tions du type de ceux abordés dans la Section 1.5 fait l’objet d’une littérature
de recherche abondante. L’essentiel de ce qui a été exposé ci-dessus est tiré
38 1 Modèles micro-macro pour les solides

d’un article de J. Ball [8] (voir aussi [9] pour une mise en perspective). On a
aussi utilisé le livre de M. Chipot [24], les excellentes notes de S. Müller et
coll. [13], les livres de G. Buttazzo et coll. [19], de E. Giusti [38], de P. Pedre-
gal [64]. Une référence pour les aspects numériques est C. Carstensen [23].
A la frontière de ce que nous avons exposé ici se trouve la mécanique de la
fracture, qui, elle aussi, fait un usage grandissant des simulations multiéchelles.
On pourra par exemple se faire une idée en consultant H. Kitagawa et al. [50].
2
Techniques d’homogénéisation

Nous allons dans ce chapitre présenter sous une forme simple une stratégie
courante pour attaquer les problèmes multiéchelles à savoir la stratégie de l’ho-
mogénéisation. Nous la verrons aussi bien sous ses aspects de technique d’ana-
lyse mathématique que sous ses aspects de technique d’analyse numérique (on
parle dans ce second cas d’homogénéisation numérique).
En termes simples, le constat est le suivant. Prenons comme support un
problème aux limites monodimensionnel. Nous considérons une fonction a de
la variable réelle, supposée périodique de période 1, minorée par une constante
strictement positive, et pour une constante ε supposée petite, nous cherchons
la fonction uε , de [0, 1] dans IR, solution de l’équation différentielle
d x d
− (a( ) uε ) = f, (2.1)
dx ε dx
vérifiant les conditions aux limites uε (0) = uε (1) = 0. Dans l’équation ci-
dessus, f est une fonction régulière fixe donnée, supposée telle que (2.1) ait
une solution unique. Il est clair qu’on peut s’attendre à ce que la solution u ε
varie à l’échelle ε, et donc si on veut résoudre numériquement l’équation (2.1),
par exemple par un schéma aux différences finies, il nous faudra prendre un
pas de taille h au moins plus petit que ε. Sinon, en effet, on ne verra rien
·
des oscillations de la fonction a( ) qui se produisent à l’échelle ε, et donc a
ε
fortiori nous ne pourrons pas nous attendre à calculer uε correctement. Cela
risque donc de coûter cher.
Une stratégie envisageable est de chercher si quand ε tend vers zéro notre
équation converge vers une équation limite, dite alors équation homogénéisée.
On pourra alors tenter de résoudre l’équation ainsi obtenue, dans laquelle ε
aura disparu. La solution u
du problème homogénéisé aura de bonnes chances
(et c’est bien sûr en fait le cas) de ressembler à uε pour ε petit, la fonction
uε oscillant en effet autour de u
. Son approximation numérique pourra se
calculer avec un maillage de taille h (pour les éléments finis), ou un pas h
(pour la méthode des différences finies) qui ne sera plus nécessairement aussi
petit que ε.
40 2 Techniques d’homogénéisation

Nous mènerons ce travail à bien sur l’équation (2.1) dans la Section 2.1
ci-dessous.
Ensuite, nous enchaı̂nerons sur des situations en dimension 2, et sur des
cas beaucoup plus compliqués. Nous verrons aussi (Section 2.5) que ce qui a
été employé sur les équations peut l’être aussi sur les conditions aux bords, et
ce sera pour nous l’occasion d’aborder les problèmes dits de couche limite qui
sont eux aussi à ranger dans la classe des problèmes multiéchelles. Enfin, en
Section 2.6, nous constaterons, sur un exemple, que toutes les équations ne se
plient pas à l’homogénéisation avec autant de “simplicité” que les équations
de type (2.1) (qu’on appelle elliptiques).

2.1 Le cas monodimensionnel


Nous reprenons (2.1) :

⎪ d x d
⎨ − (a( ) uε ) = f, dans ]0, 1[
dx ε dx


uε (0) = uε (1) = 0

Rappelons que a est périodique de période 1. Nous supposons de plus que


cette fonction est bornée, positive et isolée de zéro, c’est-à-dire qu’il existe
deux constantes 0 < c1 ≤ c2 < +∞ telles que

0 < c1 ≤ a(x) ≤ c2 , ∀x ∈]0, 1[. (2.2)

Nous supposons que f ∈ L2 (]0, 1[). Toutes ces hypothèses peuvent être lar-
gement relaxées au prix de complications mathématiques inutiles pour cet
exposé introductif.
Soit uε la solution de (2.1). Nous ne détaillons pas les raisons pour
lesquelles une telle fonction uε existe. Il suffit par exemple d’appliquer le
Théorème de Lax-Milgram, ou de montrer l’existence  1 d’un minimiseur
 1 dans
1 x dv
H01 (]0, 1[) à la fonctionnelle fortement convexe a( )| |2 − f v. Nous
2 0 ε dx 0
renvoyons pour les détails à la bibliographie.
Qui peut le plus peut le moins ! Si on veut déterminer la “forme” de uε
solution de (2.1) pour ε petit, et sa “limite” u
quand ε tend vers 0, il faut
au moins que nous sachions
·
(a) d’abord définir avec précision le comportement de a( ) pour ε petit,
ε
(b) ensuite résoudre le même problème (déterminer la “forme” de uε pour ε
petit) quand il n’y a pas d’opérateur différentiel dans (2.1)1 .
1
Contrairement au point (a), ce point (b) n’est pas stricto sensu nécessaire pour
la suite du raisonnement. Mais il va bigrement nous aider à comprendre.
2.1 Le cas monodimensionnel 41

La topologie de la convergence faible va nous fournir les éléments pour


résoudre le point (a).

Proposition 2.1. Soit a une fonction dans L∞ (IR), supposée périodique de


·
période 1. Alors la suite de fonctions a( ) converge faiblement- vers la fonc-
ε
tion constante notée < a >, dite moyenne de a, et de valeur
 1
< a >= a. (2.3)
0

Preuve :
Il s’agit de montrer que pour toute fonction v ∈ L1 (IR), on a
  1 
x
a( )v(x) dx −→ a v.
ε 0

On montre en fait cela pour v une fonction caractéristique, puis il suffira d’uti-
liser la densité des fonctions en escalier dans l’espace L1 (IR). Nous sommes
donc ramenés à montrer que pour α < β, on a
 β  1
x
a( ) dx −→ (β − α) a.
α ε 0

On récrit simplement, en utilisant la périodicité et en notant [x] la partie


entière de x,
 β  β
x ε
a( ) dx = ε a(y) dy
α ε α
ε
 [α
ε ]+1
 β
β  α ε
= ε( − + 1) < a > +ε a(y) dy + ε a(y) dy
ε ε α
ε [β
ε]

= (β − α) < a > +O(ε)

Ceci conclut la preuve. ♦


A partir du résultat ci-dessus, une vision naı̈ve des choses pourrait faire
penser sur la base de (2.1) que la limite de l’équation est

d d

− (< a > u ) = f,
dx dx
puisqu’il “suffit” de remplacer a par sa moyenne. Pour tester si les choses sont
aussi spontanées que cela, nous allons maintenant attaquer le point (b).
Effaçons par la pensée l’opérateur différentiel dans (2.1) de sorte que uε
devient la solution de
x
−a( ) uε = f, (2.4)
ε
42 2 Techniques d’homogénéisation

c’est-à-dire
f (x)
uε = − x .
a( )
ε
1
A la limite ε −→ 0, en vertu de la Proposition 2.1 appliquée à la fonction ,
a
on sait donc que
1
uε  u
= − < > f
a
faiblement (dans L2 ). L’équation limite (on dira bientôt homogénéisée) obte-
nue à partir de (2.4) est donc
1
− 1 u
= f, (2.5)
< a >

En d’autres termes, ce n’est pas < a > qui va compter, comme l’aurait fait
1
croire l’approche naı̈ve, mais l’inattendu (qui est bien sûr différent, sauf
< a1 >
miracle, de < a >, voir l’Exercice 2.2). Autrement dit encore, la connaissance
de la statistique de la fonction a ne suffit pas à connaı̂tre le comportement
moyen de uε . Que la statistique de l’entrée a ne suffise pas à connaı̂tre celle
de la sortie uε est en fait naturel car (2.4), comme (2.1), est un problème
non linéaire (a multiplie uε ). Dans le cas (2.4), et aussi nous le verrons dans
le cas (2.1) où l’opérateur différentiel est rétabli, l’analyse montre qu’il faut
1
connaı̂tre la statistique de . Bizarre ! C’est pourtant le cas le plus simple pos-
a
sible, et, dans des cas à peine plus compliqués, avoir l’intuition du coefficient
1
homogénéisé, le qui va apparaı̂tre, est une tâche impossible.
< a1 >

Exercice 2.2. Soit a une fonction périodique telle que 0 < m ≤ a ≤ M pour
1
deux constantes m et M . Montrer que =< a > si et seulement si a est
< a1 >
constante.

Nous sommes maintenant en mesure de revenir à l’étude de notre problème


(2.1) et d’établir la

Proposition 2.3. La solution uε ∈ H01 (]0, 1[) de


d x d
− (a( ) uε ) = f,
dx ε dx
converge dans L2 (]0, 1[) vers la solution u
∈ H01 (]0, 1[) de l’équation dite
homogénéisée
d 1 d

− ( 1 u ) = f, (2.6)
dx < a > dx
2.1 Le cas monodimensionnel 43

Remarque 2.4. Le résultat de la Proposition 2.3 est en fait un cas particulier


explicite du résultat de la Proposition 2.12, plus générale, que nous verrons
ci-dessous.
Remarque 2.5. Bien sûr, compte-tenu de notre travail préliminaire sur l’équa-
tion sans opérateur différentiel (2.4), l’apparition du coefficient homogénéisé
1
ne nous surprend pas.
< a1 >

Preuve de la Proposition 2.3


En multipliant l’équation par uε et en réalisant une intégration par parties,
on constate que  1  1
x d
a( )| uε |2 = f uε
0 ε dx 0
d’où par application de l’inégalité de Cauchy-Schwarz
 1
d ε 2 x d
c1 u L2 (]0,1[) ≤ a( )| uε |2 ≤ f L2 (]0,1[) uε L2 (]0,1[)
dx 0 ε dx
Comme uε est nulle en 0 et en 1, nous utilisons alors l’inégalité de Poincaré
(voir l’exercice 2.6 ci-dessous) pour obtenir, pour une certaine constante c > 0
c uε 2L2 (]0,1[) ≤ f L2 (]0,1[) uε L2 (]0,1[) ,
d ε
et donc que la suite uε et la suite u sont toutes les deux bornées dans
dx
L (]0, 1[), ce qui revient à dire que u est bornée dans H01 (]0, 1[). Quitte à
2 ε

extraire une sous-suite, ce que nous faisons sans changer de notation, nous
pouvons donc supposer que uε converge fortement dans L2 vers une certaine
d ε d

fonction u
, alors que u converge faiblement dans L2 vers u . Par
dx dx
construction, la limite u
appartient aussi à H01 (]0, 1[).
Intégrons alors (2.1) :
 x
x d
−a( ) uε = f + cε , (2.7)
ε dx 0

où à cause des bornes sur a et sur uε qu’on vient de montrer, la suite de réels
cε est une suite de réels bornée. A extraction près, on peut donc sans perte
de généralité supposer que cε converge vers un certain c. Récrivons alors

d 1 x  x
− uε = ( ) f + cε . (2.8)
dx a ε 0

1
Comme la suite est aussi dans L∞ et périodique (en vertu des propriétés
a
de a), on peut lui appliquer la Proposition 2.1, et on sait donc
 que la suite
d ε 2 1  x
− u converge faiblement dans L vers la fonction < > f + c , d’où
dx a 0
44 2 Techniques d’homogénéisation

d
1  x
− u =< > f +c . (2.9)
dx a 0

La limite u
de la suite uε solution de (2.1) est donc solution de

d 1 d

− ( u ) = f, (2.10)
dx < a1 > dx

complémentée des conditions au bord u


(0) = u
(1) = 0. Il nous reste à
remarquer que pour une autre extraction de uε nous obtiendrions la même
1 ·
équation limite et la même fonction limite, car c’est toute la suite ( ) qui
a ε
1
converge vers la moyenne < >, et que la solution de (2.10) est en fait unique.
a
Donc la limite u
que nous avons obtenue ne dépend pas de la sous-suite
considérée, ce qui montre que toute la suite uε converge vers cette limite. ♦

Exercice 2.6. Montrer que toute fonction de H 1 (]0, 1[) admet un représentant
continu qui s’écrit  x
du
u(x) = u(0) + .
0 dx
En déduire qu’il existe une constante C telle qu’on ait l’inégalité de Poincaré :
 1  1
du
u2 ≤ C | |2 pour tout u ∈ H01 (]0, 1[).
0 0 dx

La stratégie que l’on peut employer pour approcher la solution de (2.1)


numériquement est donc de
1
– calculer d’abord le coefficient homogénéisé < >
a
– résoudre ensuite (2.6) avec un pas h adéquat, non nécessairement petit ;
et ceci au lieu de tenter de discrétiser directement (2.1) avec un pas de maillage
plus petit que ε, ce qui serait juste mais trop coûteux, ou de discrétiser di-
rectement (2.1) avec un pas de maillage plus grand que ε, ce qui serait moins
coûteux certes, mais faux (voir l’Exercice 2.10 ci-dessous).
Nous verrons que cette stratégie en deux étapes se retrouvera dans des
situations plus complexes.

Remarque 2.7. Il faut bien noter que l’étape 1 peut se faire avant l’étape 2
1
car le coefficient homogénéisé ne dépend pas de la fonction f . Nous
< a1 >
retrouverons ce point capital à la Proposition 2.12 et dans les remarques qui
la suivent.

Remarque 2.8. En fait, numériquement, on peut procéder en gérant conjoin-


tement les échelles et non pas en deux temps comme indiqué ci-dessus, mais
nous verrons cela plus loin.
2.2 Deux cas bidimensionnels 45

Remarque 2.9. Il faut remarquer que dans la preuve de la proposition ci-


·
dessus, nous n’utilisons le caractère périodique de la fonction a( ) que pour
ε
déterminer explicitement sa limite faible-. La preuve est donc encore vraie
pour une suite de fonctions aε qui serait bornée dans L∞ (]0, 1[) et telle que
0 < c1 ≤ aε (x) ≤ c2 , ∀x ∈]0, 1[ pour deux constantes c1 et c2 indépendantes
1 1
de ε. Bien sûr, c’est l’inverse de la limite faible de qui remplace alors
a < a1 >
dans l’équation homogénéisée et le résultat tient seulement pour une extrac-
tion (lorsque cette limite n’est pas unique).
Exercice 2.10. On décide d’attaquer directement la résolution par éléments
finis P1 de l’équation (2.1) avec un pas de maillage h nettement plus grand
que ε. Montrer que l’on obtient alors un résultat faux, qui revient en fait à
approcher numériquement la solution de
d d
− (< a > u) = f, (2.11)
dx dx
et non pas de (2.10).

2.2 Deux cas bidimensionnels


En dimension 2, la situation va s’avérer beaucoup plus complexe car les ques-
tions de géométrie vont entrer en jeu.

2.2.1 Les matériaux lamellés

Commençons par un cas de dimension 2 qui ressemble à un cas de dimension 1 :


le cas des matériaux lamellés.
      
     

  

  

 
   

         
        

          
     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          
     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          
     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          
     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  

  

     

     

 
   

 

         
        

          

     

   

 
  
    

  
  

     
     

 
   

 

         
        

          
     

   

  
    

Fig. 2.1. Matériau lamellé (on dit aussi “laminé”) : la structure est invariante selon
x2 et périodique de période ε selon x1 .

Regardons en effet l’équation aux dérivées partielles


46 2 Techniques d’homogénéisation

a( x1 ) 0
− div ε x1 ∇u (x1 , x2 ) = f
ε
(2.12)
0 a( )
ε
qui s’écrit aussi
x1  ∂ ε ∂ ε
−div (a( ) u (x1 , x2 )e1 + u (x1 , x2 )e2 ) = f. (2.13)
ε ∂x1 ∂x2
On a noté (e1 , e2 ) la base canonique de vecteurs unitaires du plan. On
considère cette équation sur le carré Q = [0, 1]2 et on lui adjoint des conditions
nulles au bord de ce carré. Ici et dans toute la suite de ce chapitre, la fonction
uε prend ses valeurs dans IR.
Dans cette équation, la fonction a est encore une fonction périodique de
période 1, vérifiant la propriété (2.2). Le point important est qu’elle dépend
seulement de la première coordonnée x1 du point x = (x1 , x2 ). Typiquement,
elle figure un coefficient qui dépend de la nature du matériau modélisé. Par
exemple, il s’agit d’une conductivité thermique, u étant alors la température
et f la source de chaleur, ou d’une conductivité électrique, et u est alors le
potentiel électrique, et f la charge. Dans tous les cas, on considère un matériau
bidimensionnel dont les propriétés ne dépendent que de x1 . Par exemple, si a
est la fonction 
α si 0 ≤ x1 ≤ 1/2
a(x1 ) = (2.14)
β si 1/2 < x1 ≤ 1
alors on peut penser à (2.12) comme un modèle pour un matériau fait d’un
assemblage de lamelles de coefficient α et β, chacune d’épaisseur ε/2 et as-
semblées dans le sens x1 (voir Figure 2.1).
Le problème obtenu à partir de (2.12) en laissant ε tendre vers 0 est énoncé
dans la proposition suivante :
Proposition 2.11. Quand ε tend vers 0, la solution uε du problème (2.12)
tend vers la solution u
de
1
1 0
− div < a > ∇u
=f (2.15)
0 <a>

c’est-à-dire de
1 ∂


−div ( 1 u (x1 , x2 )e1 + < a > u (x1 , x2 )e2 ) = f.
< a > ∂x1 ∂x2

On peut comprendre (2.15) par le raisonnement intuitif suivant. Dans la


direction x1 , le matériau est rigoureusement identique au matériau monodi-
mensionnel étudié précédemment, et il est donc naturel de voir la quantité
1
apparaı̂tre comme coefficient homogénéisé. Dans la direction x2 , le
< a1 >
matériau n’a pas d’hétérogénéité à l’échelle ε, et il est donc aussi naturel
2.2 Deux cas bidimensionnels 47

que sa “réponse” dans cette direction soit la moyenne (au sens habituel, soit
< a >) des réponses des matériaux constitutifs.
Nous ne sommes pas en mesure de présenter ici tous les détails techniques
de la preuve de cette proposition. Cependant, nous en indiquons les grandes
lignes, en admettant un ou deux points au cours de la preuve.
Preuve de la Proposition 2.11 :
Comme dans la section précédente, les bornes sur a permettent de montrer
∂ ε
facilement que la suite uε et les suites u sont bornées dans L2 (Q), ou
∂xi
ce qui revient au même, que uε est bornée dans H01 (Q). A extraction près,
nous pouvons donc supposer la convergence faible de ces suites respectivement

vers u
et les u . Mieux, à cause du théorème de Rellich (Proposition 1.23),
∂xi
nous pouvons même supposer que la convergence de uε vers u
dans L2 (Q)
est forte.
Notons maintenant, pour i = 1, 2,
x1 ∂ ε
σiε = a( ) u (x1 , x2 ).
ε ∂xi
Il est clair que
1 ∂ ε ∂

σε = u  u . (2.16)
a( xε1 ) 1 ∂x1 ∂x1
∂ ε
D’autre part, en utilisant les bornes sur a et celles sur u , nous avons
∂x1
ε 2
facilement σ1 bornée dans L (Q). De plus, à cause de l’équation,

∂ ε ∂ ε
− σ =f+ σ
∂x1 1 ∂x2 2
est bornée indépendamment de ε dans un certain espace fonctionnel, à savoir
L2x1 (Hx−1
2
). On admet que les deux propriétés d’avoir σ1ε bornée dans L2 (Q)
∂ ε
et σ bornée dans L2x1 (Hx−1 ) impliquent qu’à extraction près σ1ε converge
∂x1 1 2

fortement (dans L2x1 (Hx−1


2
)) vers un certain σ1 . Cela entraı̂ne la convergence
faible
1 1
σ ε  < > σ1 (2.17)
a( xε1 ) 1 a
grâce à un produit d’une convergence faible (celle de a1 ( ε· ) vers sa moyenne) par
une convergence forte (celle de σ1ε vers σ1 ) et l’application de la Proposition
1.17. Nous déduisons alors de (2.16) et (2.17) que

1 ∂

σ1 = 1 u .
< a > ∂x1
48 2 Techniques d’homogénéisation

D’autre part, nous avons, puisque a ne dépend pas de la coordonnée x2


(là est le point clé de la démonstration),

x1 ∂ ε ∂  x1 ε
σ2ε = a( ) u = a( )u .
ε ∂x2 ∂x2 ε

Or, encore par produit de la suite uε qui converge fortement dans L2 et de


x1
la suite a( ) qui converge faiblement- dans L∞ , nous avons la convergence
ε
faible dans L2
x1
a( )uε  < a > u
,
ε
et donc la convergence faible dans H −1

σ2ε  σ2 =< a > u


∂x2
En regroupant ce que nous avons obtenu, nous aboutissons bien à la pro-
position. ♦

2.2.2 Le résultat général

Il est temps, avant de passer à un cas plus compliqué, de citer un résultat


central, que nous ne démontrerons pas et qui est clairement la généralisation
des cas que nous avons rencontrés jusqu’ici.
Proposition 2.12. Soit Ω un ouvert borné de IRN , et soit Aε une suite de
matrices inversibles à coefficients dans L∞ (IRN ) et vérifiant Aε ≥ c1 Id et
(Aε )−1 ≥ c2 Id (au sens où ∀x ∈ IRN , (Aε x, x) ≥ c1 x 2 , et de même pour
(Aε )−1 ) pour deux constantes ci > 0 ne dépendant pas de ε. Alors, il existe

une matrice A
vérifiant les mêmes propriétés que Aε et une sous suite Aε
−1
de A telles que, pour toute fonction f ∈ H (Ω), si u est la solution dans
ε ε

H01 (Ω) de
−div Aε ∇uε = f, (2.18)
alors on ait les convergences
     
uε  u
, Aε ∇uε  A
∇u
, Aε ∇uε · ∇uε  A
∇u
· ∇u
(2.19)

respectivement dans H01 (Ω)-faible, L2 (Ω)-faible, et D  (Ω) et de plus


 
  
Aε ∇uε · ∇uε dx −→ A
∇u
· ∇u
dx, (2.20)
Ω Ω

où u
est la solution dans H01 (Ω) de

−div A
∇u
= f, (2.21)
2.2 Deux cas bidimensionnels 49

Il est tout à fait essentiel de bien comprendre la portée (théorique) de ce


résultat :
– • le premier point est que la matrice A
et la sous suite ε ne dépendent
pas du second membre f de l’équation. En un sens mécanique, cela
dit qu’il existe un matériau équivalent (on dit homogénéisé) et que
ce matériau est le même quel que soit le chargement que le matériau
de départ subit. On a bien observé cette propriété sur les deux cas
précédents où la matrice homogénéisée ne dépend que des moyennes de
1
a ou et de rien d’autre (cf. la Remarque 2.7).
a
– • le second point est que l’important n’est pas qu’il existe une limite à
la suite de solution uε , mais que cette limite soit solution d’une équation
de même type que celle de départ !
En revanche, le “gros défaut” de ce résultat théorique est que tout en affir-
mant qu’il existe une matrice homogénéisée A
, il ne fournit pas l’expression
explicite de cette matrice, et a fortiori l’expression de la limite u
. Comme
nous le verrons plus loin (dans la Section 2.3.4), on peut en fait compléter
ce résultat par un autre, qui précisera un peu plus qui est A
, mais pas au
point d’en obtenir une expression aussi explicite que rêvée. Pour le moment,
seule la considération de cas très particuliers (à la Section suivante) va nous
permettre de trouver explicitement A
et u
. De même, l’application d’une
technique complémentaire (dite de la convergence à deux échelles) nous per-
mettra dans le cas “général” périodique (à la Section 2.3) de quantifier A

et u
.

Exercice 2.13. En écho à la Remarque 2.4, montrer que la Proposition 2.3


est compatible avec le résultat général de la Proposition 2.12. En particulier,
vérifier que toutes les convergences de l’énoncé de la Proposition 2.12 ont bien
lieu dans le cadre de la Proposition 2.3.
Une autre remarque est la suivante : en fait les conditions aux limites (ici on
a pris les solutions uε dans H01 ) ne jouent pas de rôle. Ainsi, on a
Lemme 2.14. Dans les conditions de la proposition précédente, si on a une

fonction f ∈ H −1 (Ω) et une suite de fonctions de H 1 (Ω), notée v ε telle que
 
−div Aε ∇v ε = f
et 
v ε  v dans H 1 (Ω),
alors
 
Aε ∇v ε  A
∇v dans L2 (Ω), et donc − div A
∇v = f.
Remarque 2.15. Bien sûr, ajoutons aussi le commentaire que la Proposi-
tion 2.12 et le Lemme 2.14 dépassent largement le cadre périodique que nous
manipulerons ici par souci de simplicité.
50 2 Techniques d’homogénéisation

La Proposition 2.12 va nous permettre d’aborder un cas plus difficile. Sur


sa base, nous saurons déjà que la matrice homogénéisée existe, il restera à la
déterminer.

2.2.3 Un vrai cas 2D

Á Á Ç Á Ç É Ç É Ï É Ï Ñ Ï Ñ × Ñ × Ù × Ù ß Ù ß á ß á ç á ç é ç é ï é ï ï
Â Â Â È Ê È Ê Ê Ð Ò Ð Ò Ò Ø Ú Ø Ú Ú à â à â â è ê è ê ê ð ð

Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï

È È Ð Ð Ø Ø à à è è ð ð

Ã Ã Ã Ë Ë Ë Ó Ó Ó Û Û Û ã ã ã ë ë ë
Ä Ä Ì Ì Ô Ô Ü Ü ä ä ì ì

Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï
Á Á Á É É É Ñ Ñ Ñ Ù Ù Ù á á á é é é
È È Ð Ð Ø Ø à à è è ð ð
Â Â Â Ê Ê Ê Ò Ò Ò Ú Ú Ú â â â ê ê ê

Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î

Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï

È È Ð Ð Ø Ø à à è è ð ð

Å Å Ã Å Ã Í Ã Í Ë Í Ë Õ Ë Õ Ó Õ Ó Ý Ó Ý Û Ý Û å Û å ã å ã í ã í ë í ë ë
Æ Æ Æ Ä Î Ä Î Î Ì Ö Ì Ö Ö Ô Þ Ô Þ Þ Ü æ Ü æ æ ä î ä î î ì ì

Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í

Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î

Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Ã Ã Ã Ë Ë Ë Ó Ó Ó Û Û Û ã ã ã ë ë ë
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î
Ä Ä Ì Ì Ô Ô Ü Ü ä ä ì ì

Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î

                 !  ! ' ! ' ) ' ) / ) / /


   


          " " " ( * ( * * 0 0

            ' ' ' / / /


      ( ( 0 0

         # # # + + +

      $ $ , ,

            ' ' ' / / /


      ! ! ! ) ) )
      ( ( 0 0
  


      " " " * * *

         % % % - - -
            & & & . . .

            ' ' ' / / /


      ( ( 0 0

                 %  % # % # - # - + - + +
                 &  & & $ . $ . . , ,

         % % % - - -

            & & & . . .

1 1 1 9 9 9 A A A I I I Q Q Q Y Y Y
2 2 2 : : : B B B J J J R R R Z Z Z

         % % % - - -
         # # # + + +
            & & & . . .
      $ $ , ,

7 7 7 ? ? ? G G G O O O W W W _ _ _

8 8 @ @ H H P P X X ` `

         % % % - - -
            & & & . . .

1 1 7 1 7 9 7 9 ? 9 ? A ? A G A G I G I O I O Q O Q W Q W Y W Y _ Y _ _

2 2 2 8 : 8 : : @ B @ B B H J H J J P R P R R X Z X Z Z ` `

7 7 7 ? ? ? G G G O O O W W W _ _ _
8 8 @ @ H H P P X X ` `

7 7 7 ? ? ? G G G O O O W W W _ _ _
1 1 1 9 9 9 A A A I I I Q Q Q Y Y Y
8 8 @ @ H H P P X X ` `
2 2 2 : : : B B B J J J R R R Z Z Z

7 7 7 ? ? ? G G G O O O W W W _ _ _

8 8 @ @ H H P P X X ` `

5 5 3 5 3 = 3 = ; = ; E ; E C E C M C M K M K U K U S U S ] S ] [ ] [ [
6 6 6 4 > 4 > > < F < F F D N D N N L V L V V T ^ T ^ ^ \ \

5 5 5 = = = E E E M M M U U U ] ] ]

6 6 6 > > > F F F N N N V V V ^ ^ ^

a a a i i i q q q y y y    ‰ ‰ ‰
b b b j j j r r r z z z ‚ ‚ ‚ Š Š Š

5 5 5 = = = E E E M M M U U U ] ] ]
3 3 3 ; ; ; C C C K K K S S S [ [ [
6 6 6 > > > F F F N N N V V V ^ ^ ^
4 4 < < D D L L T T \ \

g g g o o o w w w    ‡ ‡ ‡   
h h p p x x € € ˆ ˆ  

5 5 5 = = = E E E M M M U U U ] ] ]
6 6 6 > > > F F F N N N V V V ^ ^ ^

a a g a g i g i o i o q o q w q w y w y  y     ‡  ‡ ‰ ‡ ‰  ‰  
b b b h j h j j p r p r r x z x z z € ‚ € ‚ ‚ ˆ Š ˆ Š Š  

g g g o o o w w w    ‡ ‡ ‡   

h h p p x x € € ˆ ˆ  

g g g o o o w w w    ‡ ‡ ‡   
a a a i i i q q q y y y    ‰ ‰ ‰
h h p p x x € € ˆ ˆ  
b b b j j j r r r z z z ‚ ‚ ‚ Š Š Š

g g g o o o w w w    ‡ ‡ ‡   

h h p p x x € € ˆ ˆ  

e e c e c m c m k m k u k u s u s } s } { } { … { … ƒ … ƒ  ƒ  ‹  ‹ ‹
f f f d n d n n l v l v v t ~ t ~ ~ | † | † † „ Ž „ Ž Ž Œ Œ

e e e m m m u u u } } } … … …   

f f f n n n v v v ~ ~ ~ † † † Ž Ž Ž

‘ ‘ ‘ ™ ™ ™ ¡ ¡ ¡ © © © ± ± ± ¹ ¹ ¹
’ ’ ’ š š š ¢ ¢ ¢ ª ª ª ² ² ² º º º

e e e m m m u u u } } } … … …   
c c c k k k s s s { { { ƒ ƒ ƒ ‹ ‹ ‹
f f f n n n v v v ~ ~ ~ † † † Ž Ž Ž
d d l l t t | | „ „ Œ Œ

— — — Ÿ Ÿ Ÿ § § § ¯ ¯ ¯ · · · ¿ ¿ ¿

˜ ˜     ¨ ¨ ° ° ¸ ¸ À À

e e e m m m u u u } } } … … …   
f f f n n n v v v ~ ~ ~ † † † Ž Ž Ž

‘ ‘ — ‘ — ™ — ™ Ÿ ™ Ÿ ¡ Ÿ ¡ § ¡ § © § © ¯ © ¯ ± ¯ ± · ± · ¹ · ¹ ¿ ¹ ¿ ¿
’ ’ ’ ˜ š ˜ š š   ¢   ¢ ¢ ¨ ª ¨ ª ª ° ² ° ² ² ¸ º ¸ º º À À

— — — Ÿ Ÿ Ÿ § § § ¯ ¯ ¯ · · · ¿ ¿ ¿
˜ ˜     ¨ ¨ ° ° ¸ ¸ À À

— — — Ÿ Ÿ Ÿ § § § ¯ ¯ ¯ · · · ¿ ¿ ¿
‘ ‘ ‘ ™ ™ ™ ¡ ¡ ¡ © © © ± ± ± ¹ ¹ ¹
˜ ˜     ¨ ¨ ° ° ¸ ¸ À À
’ ’ ’ š š š ¢ ¢ ¢ ª ª ª ² ² ² º º º

— — — Ÿ Ÿ Ÿ § § § ¯ ¯ ¯ · · · ¿ ¿ ¿

˜ ˜     ¨ ¨ ° ° ¸ ¸ À À

• • “ • “  “  ›  › ¥ › ¥ £ ¥ £ ­ £ ­ « ­ « µ « µ ³ µ ³ ½ ³ ½ » ½ » »

– – – ” ž ” ž ž œ ¦ œ ¦ ¦ ¤ ® ¤ ® ® ¬ ¶ ¬ ¶ ¶ ´ ¾ ´ ¾ ¾ ¼ ¼

• • •    ¥ ¥ ¥ ­ ­ ­ µ µ µ ½ ½ ½

– – – ž ž ž ¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾

• • •    ¥ ¥ ¥ ­ ­ ­ µ µ µ ½ ½ ½
“ “ “ › › › £ £ £ « « « ³ ³ ³ » » »
– – – ž ž ž ¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾
” ” œ œ ¤ ¤ ¬ ¬ ´ ´ ¼ ¼

• • •    ¥ ¥ ¥ ­ ­ ­ µ µ µ ½ ½ ½
– – – ž ž ž ¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾

Fig. 2.2. Matériau périodique bidimensionnel : il est clair que le volume de chaque
phase est le même que dans le matériau lamellé de la Figure 2.1. Pourtant l’équation
homogénéisée est différente.

On considère un matériau périodique bâti à la manière d’un échiquier.


Ainsi, on prend une fonction a(x1 , x2 ) périodique sur le carré Q, et constante
par morceau, avec des valeurs α et β, toutes deux strictement positives, selon
la Figure 2.2. On construit alors la matrice Aε = a( xε1 , xε2 ) Id et on regarde
la solution uε dans H01 (Q) de
−div Aε ∇uε = f, (2.22)
ce qui s’écrit aussi
a( x1 , x2 ) 0
− div ε ε x1 x2 ∇u ε
(x 1 , x2 ) =f
0 a( , )
ε ε
ou encore
x1 x2  ∂ ε ∂ ε
−div (a( , ) u (x1 , x2 )e1 + u (x1 , x2 )e2 ) = f.
ε ε ∂x1 ∂x2
Nous avons alors la
Proposition 2.16. La solution uε de (2.22) converge à extraction près vers
u
∈ H01 (Ω) de
−div A
· ∇u
= f, (2.23)
où la matrice A
vaut 
A
= αβ Id. (2.24)
2.2 Deux cas bidimensionnels 51

Preuve de la Proposition 2.16 :


Il est clair que la matrice Aε que nous avons construite remplit les condi-
tions de la Proposition 2.12. Il existe donc une matrice homogénéisée A
, et
il s’agit maintenant de la déterminer.
Soit λ ∈ IR2 et soit u une fonction de H 1 (Q) vérifiant les conditions
périodiques au bord de Q et −div (A∇u) = div (Aλ), où A est bien sûr la
matrice Aε pour ε = 1. Notons v = ∇u + λ, qui est donc aussi périodique. On
notera que < v >= λ car < ∇u >= 0 puisque u est périodique.
Commençons par montrer que nécessairement

A
< v >=< A v > . (2.25)

Pour cela, on considère la suite uε = (λ, x) + ε u( xε ). En appliquant la Propo-


sition 2.1, on sait que ∇uε (x) = v( xε ) converge faiblement vers < v > dans
L2 (Q). De même, u( xε ) converge faiblement vers < u > dans L2 (Q), d’où uε
converge faiblement vers u0 (x) = (λ, x) dans H 1 (Q). En utilisant le fait que
−div (Aε ∇uε ) = −div (Aε v( xε )) = 0 et le Lemme 2.14, on sait que Aε ∇uε
converge faiblement vers A
∇u0 = A
λ = A
< v >. D’autre part, en ap-
pliquant directement la Proposition 2.1 à la fonction périodique Av on sait
que Aε ∇uε = (Av)( xε ) converge faiblement vers < Av >. On a donc l’égalité
(2.25).
Revenons maintenant à la matrice A particulière que nous avons choisie
et qui modélise la structure en échiquier. Si on note σ la rotation d’angle π/2
dans le plan, il est clair que l’on a

A(x)A ◦ σ(x) = αβ Id.

On peut donc écrire

A ◦ σ(x)v(σ(x)) = αβ(A(x))−1 v(σ(x)).

On écrit alors

A
< v > = < Av > en vertu de (2.25)
= < (Av) ◦ σ(x) > car σ ne change pas la moyenne

Or

div (A(x)(A(σ(x))v(σ(x)))) = αβdiv (v(σ(x))) = αβdiv (∇u(σ(x))) = 0,

et
rot (A(σ(x))v(σ(x))) = div (A(x)v(x)) = 0,
par un calcul simple (exploitant le fait que l’on travaille en dimension 2 ) donc
la fonction w(x) = A(σ(x))v(σ(x)) peut s’écrire w(x) = ∇h(x)+ < w > où h
est périodique et vérifie div (Aw) = 0. Donc la relation (2.25) établie ci-dessus
pour v peut s’appliquer aussi à w pour avoir :
52 2 Techniques d’homogénéisation

A
< A(σ(x))v(σ(x)) >=< A(x)(A(σ(x))v(σ(x)) >= αβ < v(σ(x)) > .

Donc

A
< v > = αβ(A
)−1 < v(σ(x)) >
= αβ(A
)−1 < v > car σ ne change pas la moyenne.

On a donc obtenu A
λ = αβ(A
)−1 λ pour tout λ ∈ IR2 , ce qui impose

A
= αβ(A
)−1 ,
2
√ matrice vérifiant (A x, x) ≥ c1 x pour tout x et c1 > 0 ,

ce qui pour une


impose A = αβId. ♦

Remarque 2.17. On notera dans la preuve ci-dessus que la détermination de


A
requiert, d’après la formule (2.25), deux calculs : pour < v >= (1, 0) et
< v >= (0, 1) (les deux vecteurs de base de IR2 ), on doit déterminer A
< v >.
En fait, à cause ici de la géométrie particulière du problème, la seconde partie
de la preuve montre que ces deux calculs sont inutiles, et peuvent être évités
par un petit raisonnement. Dans les cas plus complexes que nous verrons
ci-dessous, on retrouvera le fait qu’il faut pour déterminer A
, autant de
calculs que de dimensions. Et dans ces cas plus compliqués, il n’y aura pas de
“seconde partie de preuve”, basée sur une géométrie particulière, pour nous
faire économiser ces calculs.

Remarque 2.18. Le cas ci-dessus, qui est un authentique cas bi-dimensionnel


en comparaison du cas lamellé vu précédemment, montre qu’à partir de la di-
mension 2, la géométrie entre en jeu. En dimension 1, seule la proportion des
1
matériaux compte (penser au calcul de < >), peu importe la manière dont
a
ils sont répartis. Ici, ce n’est plus le cas : le matériau lamellé et le matériau en
échiquier peuvent être composés des mêmes matériaux en même proportion,
ils ne conduisent pas à la même matrice homogénéisée et donc au même com-
portement macroscopique. Cela donne naissance à une question intéressante,
à laquelle des recherches sont consacrées : étant donnée une proportion de
matériaux constitutifs fixée, quelles sont les matrices homogénéisées qu’on
peut obtenir, en faisant varier la répartition géométrique de ces matériaux.

2.3 Des cas plus compliqués : la convergence à deux


échelles

Jusqu’à maintenant, la détermination de l’équation homogénéisée a pu se faire


“simplement”. En fait, rares sont de tels cas. Dans la plupart des situations, la
matrice homogénéisée ne s’exprime pas aussi simplement. Bien que l’on sache
son existence, par la Proposition 2.12, il reste à la déterminer de manière
2.3 Des cas plus compliqués : la convergence à deux échelles 53

explicite, ou en d’autres termes d’écrire le problème homogénéisé. Nous al-


lons regarder une stratégie typique pour une telle situation, celle dite de la
convergence à deux échelles, que nous mettrons en oeuvre sur le cas particulier
périodique.
Considérons un ouvert régulier Ω de IRN , et une matrice symétrique A
carrée de taille N qui est supposée avoir ses coefficients bornés et périodiques
au sens où la fonction y −→ A(y) est une fonction périodique de cellule de
périodicité Y = [0, 1]N . Comme d’habitude, nous supposons que A vérifie la
propriété (dite de coercivité) (A(y)z, z) ≥ c z 2 pour une certaine constante
c > 0 ne dépendant pas de z ∈ IRN et de y ∈ Y . Pour une fonction f
appartenant disons à L2 (Ω), nous voulons résoudre

−div (A( xε ) · ∇uε ) = f, dans Ω,
(2.26)
uε = 0, sur ∂Ω,

où ε est une petite constante. Plutôt que d’attaquer directement la résolution
numérique de (2.26) qui pourrait coûter trop cher, nous nous proposons comme
ci-dessus de déterminer un problème dont la résolution donnera une bonne idée
de la solution uε de (2.26) pour ε petit.

2.3.1 L’Ansatz et le développement à deux échelles

Pour cela, nous commençons par postuler une forme de uε (en analyse
numérique comme en physique, un tel postulat s’appelle parfois un Ansatz ).
Il s’agit d’écrire uε comme le développement en ε suivant :
x x x
uε (x) = u0 (x, ) + εu1 (x, ) + ε2 u2 (x, ) + ..., (2.27)
ε ε ε
où la fonction uk apparaissant à l’ordre k en ε a été supposée dépendre de deux
x
variables, l’une macroscopique x, l’autre microscopique . Cette fonction est
ε
x
de plus supposée être périodique de sa seconde variable y = , c’est-à-dire
ε
y −→ uk (x, y) est périodique de cellule Y = [0, 1]N . (2.28)

Tout se passe comme si en chaque point macroscopique x on avait une modula-


tion de la fonction uk (x, ·) due aux petites échelles présentes dans le problème
au point x et représentées par la partie uk (·, xε ) de la fonction uk (penser
par exemple, mais pas seulement, à un produit f (x)g( xε )). Injectons alors
cette forme de fonction uε dans le problème (2.26) pour voir les conditions
nécessairement vérifiées par les fonctions uk . Le calcul est un peu fastidieux,
mais sans difficulté. On ne devra pas oublier que, par la règle de dérivation
x
des fonctions composées, quand on calcule le gradient de v(x, ), on a en fait :
ε
 x 1 x
∇ v(x, ) = (∇x v)(x, y) + (∇y v)(x, y), où y = , (2.29)
ε ε ε
54 2 Techniques d’homogénéisation

et où on a symboliquement noté ∇x et ∇y les dérivées partielles de v(x, y) res-


pectivement par rapport à son premier argument x et son second y (Bien noter
∂ ∂
que chacune est un N -uplet de dérivées partielles du type ( , ..., )).
∂x1 ∂xN
Nous avons donc :

−div (A(y) · ∇uε )


1
= − 2 divy (A(y) · ∇y u0 (x, y))

1
− divx (A(y) · ∇y u0 (x, y)) + divy (A(y) · ∇x u0 (x, y))
ε

+divy (A(y) · ∇y u1 (x, y))

− divx (A(y) · ∇x u0 (x, y)) + divy (A(y) · ∇x u1 (x, y))

+divx (A(y) · ∇y u1 (x, y)) + divy (A(y) · ∇y u2 (x, y))

+O(ε). (2.30)
1
Imposer (2.26) revient donc à exiger d’abord que le coefficient de 2 soit nul,
ε
i.e.
divy (A(y) · ∇y u0 (x, y)) = 0. (2.31)
Ceci impose
∇y u0 (x, y) = 0. (2.32)
En effet, on a
 
 
c ∇y u0 (x, y)2 ≤ (A(y)∇y u0 (x, y), ∇y u0 (x, y)) dy
Y Y
par coercivité de A

=− divy (A(y) · ∇y u0 (x, y)) u0 (x, y) dy
 Y

+ (A(y) · ∇y u0 (x, y)) · n u0 (x, y),


∂Y

où le premier terme est nul à cause de (2.31) et le second terme est nul en
raison de la périodicité de u0 (x, y) par rapport à y. Dans la formule ci-dessus,
n désigne bien sûr la normale unitaire sortante sur ∂Y .
La formule (2.32) signifie que la fonction u0 ne dépend en fait que de la
variable macroscopique x :
u0 = u0 (x). (2.33)
1
A l’ordre maintenant, on obtient, en utilisant l’information précédente :
ε
2.3 Des cas plus compliqués : la convergence à deux échelles 55

−divy (A(y) · (∇x u0 (x) + ∇y u1 (x, y))) = 0.

L’équation vérifiée par la fonction u1 est donc



−divy (A(y) · (∇x u0 (x) + ∇y u1 (x, y))) = 0, dans Y,
u1 périodique au bord ∂Y.
(2.34)
Si l’on suppose connaı̂tre u0 (que l’on déterminera en fait dans un instant, voir
ci-dessous), la solution de cette équation est en fait entièrement déterminée
explicitement. Il s’agit de


N
∂u0
u1 (x, y) = (x)wi (y), (2.35)
i=1
∂xi

pour les wi fonctions solution des problèmes dits sous-maille



−divy (A(y) · (ei + ∇y wi (y))) = 0, dans Y,
(2.36)
wi périodique au bord ∂Y.

où ei , i = 1, ...N désigne le i-ème vecteur de base de IRN .


Remarque 2.19. En fait, comme seulement la dérivée ∇y u1 (x, y) intervient
dans (2.34) et pas la fonction u1 (x, y) elle-même, l’équation à donnée au bord
périodique (2.34) ne détermine u1 selon (2.35) qu’à l’addition d’une fonction
v(x) de la seule variable x près (de même dans (2.36) les wi peuvent être
décalées d’une constante en y). Mais on peut toujours supposer cette fonction
v(x) identiquement nulle, d’où la définition (2.35). Ceci ne modifie pas2 l’ex-
pression de la matrice homogénéisée A
(v(x) disparaı̂t immédiatement dans
(2.37)) ci-dessous, et donc la valeur de u0 . De même, il faut en toute rigueur
prendre en compte cette fonction dans le développement (2.27) si l’on cherche
à calculer mieux que le seul ordre zéro en ε. On se reportera à ce sujet à
l’Exercice 2.27 et à la discussion de la Section 2.3.4.
Exercice 2.20. Vérifier que si wi est solution de (2.36), alors u1 donné par
(2.35) est bien l’unique solution (à l’addition d’une fonction de x près) de
(2.34).
Remarque 2.21. L’équation (2.34) qui définit u1 , et qui, on le verra, va per-
mettre de définir la matrice homogénéisée A
est vue ici comme une équation
x
(paramétrée en x) de la variable y. Si on se souvient que y = , elle est
ε
1
donc, en toute rigueur, posée sur le domaine Ω. En la considérant comme
ε
paramétrée par x et posée pour y ∈ Y , on fait le triple raccourci suivant :
2
Pour le lecteur exigeant, il est bon de savoir que, dans le cas de l’homogé-
néisation non périodique, il n’est pas évident (et il peut s’avérer faux) de négliger
cette fonction v(x). Ici, dans le cas de l’homogénéisation périodique, on bénéficie
d’un cadre particulièrement simple.
56 2 Techniques d’homogénéisation
x
(i) on désolidarise x de y, alors qu’ils sont liés par y = ,
ε
1
(ii) on assimile Ω à IRN , de sorte que (2.34) devient posée sur l’espace tout
ε
entier,
(iii) puis on fait usage de la périodicité postulée en (2.28), et on ramène cette
équation sur la seule maille Y .
Aucun de ces trois raccourcis n’est en fait évident. Ils sont validés par la phase
de “remontée”, qui consiste en la preuve mathématique (que nous ne ferons
pas ici en toute généralité, mais seulement en dimension 1) du fait que le
développement que nous allons trouver est en fait le bon. Dans des cadres
différents de celui de l’homogénéisation périodique avec donnée de Dirichlet
au bord, ces points (i)-(ii)-(iii) peuvent poser problème. Sans aller dans de tels
développements, il est bon de garder en tête que, structurellement, l’équation
(2.34) est en fait posée sur un très grand domaine3 (voire sur tout l’espace),
et que c’est seulement la périodicité qui la ramène ici à un problème posé sur
une maille périodique.

Il nous reste maintenant à déterminer u0 . Pour cela, on retourne au


développement (2.30) et à son terme d’ordre 0 qu’on doit donc égaler à f
pour que (2.26) soit vérifiée :

−divy (A(y) · (∇x u1 (x, y) + ∇y u2 (x, y))) =


divx (A(y) · (∇y u1 (x, y) + ∇x u0 (x))) + f, (2.37)

assorti des conditions de périodicité au bord de Y pour la fonction u2 .


Remarquons alors qu’une condition nécessaire (et en fait suffisante) pour
que la fonction u2 existe et soit périodique est que l’intégrale du membre de
gauche sur la cellule de périodicité Y soit nulle. En effet, si g est une fonction
périodique à valeurs vectorielles, on a
 
div g(y) dy = g(y) · n = 0, par périodicité.
Y ∂Y

Donc l’intégrale du membre de droite de (2.37) est aussi nulle ce qui se traduit
par 

−divx A(y) · (∇y u1 (x, y) + ∇x u0 (x)) dy = f (x)
Y
puisque l’intégrale en la variable y “traverse” la dérivation en x.
Compte-tenu de la valeur déterminée (2.35) de u1 en fonction des wi , on
obtient

3
Et ceci est normal car, à l’échelle microscopique, le domaine macroscopique est
immense !
2.3 Des cas plus compliqués : la convergence à deux échelles 57
 
 N
∂u0
−divx A(y) · (x)(∇y wj (y) + ej ) dy = f (x). (2.38)
Y j=1
∂xj

A ce stade, on remarque
 
N
∂u0
A(y) · (x)(∇y wj (y) + ej ) dy
Y j=1
∂xj
 
N
= A(y) · (∇u0 (x))j (∇y wj (y) + ej ) dy
Y j=1


N 
= (∇u0 (x))j A(y) · (∇y wj (y) + ej ) dy
j=1 Y

N 
 N 
N 
= Aik (y)(∇y wj (y) + ej )k dy (∇u0 (x))j ei
i=1 j=1 k=1 Y

N 
 N
= A
ij (∇u0 (x))j ei
i=1 j=1
= A · ∇u0 (x)

où les termes de la matrice A


sont donnés, pour i, j = 1...N par
N 

A
ij = Aik (y)(∇y wj (y) + ej )k dy
k=1 Y

= (A(y) · (∇y wj (y) + ej ), ei ) dy. (2.39)
Y

En fait, on peut montrer (voir l’Exercice ci-dessous) que les coefficients de A

peuvent s’écrire


A
ij = A(y)(ei + ∇y wi ), (ej + ∇y wj ) dy. (2.40)
Y

L’équation (2.38) peut en fait se récrire sous la forme du problème ho-


mogénéisé 
−div (A
· ∇u0 ) = f, dans Ω,
(2.41)
u0 = 0, sur ∂Ω,
Exercice 2.22. En utilisant le caractère symétrique de A et la définition
(2.36) des wj , montrer dans le détail comment on passe de (2.39) à (2.40).

A ce stade, nous avons donc déterminé les deux premiers termes u0 et u1


du développement limité de uε en fonction de ε. Dans l’ordre,
58 2 Techniques d’homogénéisation

(i) on détermine wi par résolution des problèmes sous-maille (2.36) sur la


cellule de périodicité
(ii) on calcule les termes de la matrice A
par (2.40)
(iii) on résout le problème homogénéisé (2.41) pour trouver u0
(iv) on calcule u1 par (2.35), si on souhaite avoir le terme d’ordre 1
(v) on peut ensuite résoudre (2.37) si on souhaite le terme suivant du
développement, et ainsi de suite...

Notons que les étapes [i] et [ii] sont les précalculs qui permettent comme
dans les cas plus simples des sections ci-dessus de déterminer les termes de
la matrice homogénéisée A
. On voit que, cette fois, ce précalcul est en fait
la résolution d’un ensemble de problèmes aux limites (en fait autant que de
dimensions) et pas seulement un “simple” calcul de moyenne d’une fonction
périodique. De tels calculs, plus l’assemblage de la matrice A
, ne sont pas
gratuits ! Il faudra bien en être conscient avant d’entamer cette stratégie de
passage à la limite.
Remarque 2.23. On reviendra utilement à la Remarque 2.17.

Remarque 2.24. En fait, on est ici dans un cas simple car l’hypothèse de
périodicité faite sur A entraı̂ne que la détermination de A
ne dépend en
fait pas du point macroscopique x. Dans un milieu plus compliqué où on au-
rait une matrice A(x, xε ), on devrait résoudre les problèmes de type (2.36) en
chaque point x macroscopique4 . Ce qui est bien sûr beaucoup plus cher, même
si on peut en fait faire cela en parallèle, et une seule fois pour tous les seconds
membres f .
Il est utile de remarquer que ce que nous avons obtenu à la limite est en
fait une hiérarchie d’équations


⎪ u0 en fonction de f et A
via (2.41)

u1 en fonction de u0 via (2.34)

⎪ u2 en fonction de u1 et u0 via (2.37)

...

L’intérêt pratique est clair (même si on le répète tout n’est pas gratuit
dans cette approche) : on n’a pas à discrétiser le domaine de départ avec une
échelle aussi fine que ε dans un calcul couplé avec l’échelle 1. Il s’agit d’un
précalcul (la résolution de (2.36) à une échelle fine) qui est ensuite injecté
dans le calcul avec maillage grossier (2.41) via la formule (2.40).
En résumé, en résolvant d’abord les N problèmes (2.36) sur la maille, on
est en mesure d’obtenir pour tous les seconds membres f , une bonne approxi-
mation de la solution uε de (2.26) rien qu’en résolvant (2.41) à l’échelle 1.
4
En un certain sens, cette observation prépare ce que nous verrons au Chapitre 4.
2.3 Des cas plus compliqués : la convergence à deux échelles 59

Α∗=...

−div(Α∗(x) grad u*)= f

Fig. 2.3. En chaque maille de taille macroscopique, on résout le problème sous-


maille pour déterminer les termes de la matrice homogénéisée.

Autrement dit, connaı̂tre uε à l’ordre 0 en ε (et en fait quasiment à


l’ordre 1, modulo de subtiles questions de couche limite qu’on mentionnera
rapidement plus loin) nous coûte N + 1 calculs sur un maillage standard, au
lieu d’un calcul sur un maillage de taille ε (qui certes nous donnerait uε à
tous les ordres). Et la situation est d’autant meilleure que l’on veut résoudre
(2.26) pour beaucoup de seconds membres.
Cependant, malgré cet évident succès, le lecteur doit garder à l’esprit que
premièrement, nous n’avons rien prouvé (tout le travail ci-dessus est à ce
stade purement formel), et deuxièmement le passage à la limite brutal “on
remplace ε par zéro” a ses propres carences.
Dans les sections qui viennent, nous allons successivement regarder le tra-
vail effectué avec un point de vue sensiblement différent, le point de vue
énergétique ou variationnel (Section 2.3.2), puis revenir, en Section 2.3.3, sur
le cas monodimensionnel pour constater la consistance du travail effectué ici
avec le travail effectué en Section 2.1. Ceci nous permettra aussi de fournir,
en dimension 1, une preuve du fait que le développement effectué est le bon.
Puis, au contraire, nous retournerons en Section 2.3.4 vers le cadre général
de la Section 2.2.2 pour voir en quoi notre cas périodique rejoint ce cadre
général, et en quoi le développement fait ici est mieux que formel. Pour tenter
de répondre à l’objection “ε n’est pas zéro”, nous allons rapidement esquisser
ensuite en Section 2.4 des méthodes plus sophistiquées.

2.3.2 L’interprétation énergétique

Commentons un peu la définition (2.40) de la matrice homogénéisée A


avec
le point de vue énergétique.
En fait, parce qu’elle est symétrique, la matrice A
peut de façon équiva-
lente être définie par
60 2 Techniques d’homogénéisation

∀z ∈ IRN , z A
z = inf (∇u(y) , A(y) · ∇u(y)) dy. (2.42)
Y
∇u
 périodique
∇u = z
Y

En effet (on peut le montrer en exercice ; c’est facile en dimension 1, et c’est


plus difficile en dimension quelconque), si ei est un vecteur de la base cano-
nique, alors il est équivalent
 de considérer toutes les fonctions u, de gradient
périodique, telles que ∇u = ei et toutes les fonctions u s’écrivant u = xi +w
Y
où w est une fonction périodique. Donc le problème de minimisation (2.42) se
récrit dans ce cas

ei A
ei = inf ((ei + ∇w(y)) , A(y) · (ei + ∇w(y))) dy. (2.43)
Y
w périodique

Or, par une preuve simple de calcul des variations, le minimiseur de ce


problème (2.43) est exactement wi défini par (2.36), et vaut donc

ei A
ei = inf ((ei + ∇w(y)) , A(y) · (ei + ∇w(y))) dy
Y
w périodique

= ((ei + ∇wi (y)) , A(y) · (ei + ∇wi (y))) dy. (2.44)
Y

On retrouve la formule (2.40) pour i = j. En calculant plus généralement


x A
x pour tout x, on peut reconstruire tous les coefficients et retrouver (2.40)
pour tout i, j.
D’un point de vue heuristique, en se souvenant que l’on est parti de la
solution uε de (2.26) qui est aussi le minimiseur de
 
1 x
inf (∇u(x) , A( ) · ∇u(x)) dx − f (x)u(x) dx, (2.45)
2 Ω ε Ω
u ∈ H01 (Ω)

on constate qu’il est “naturel” que le problème de minimisation (2.42) entre


en jeu.
Ce que l’on a en fait montré, c’est que la solution homogénéisée u0 , ap-
proximation de uε minimiseur de (2.45) était le minimiseur de
2.3 Des cas plus compliqués : la convergence à deux échelles 61
  
1
inf inf (∇v(y) , A(y) · ∇v(y)) dy dx − f u,
2 Ω Y Ω
u ∈ H01 (Ω) ∇v
 périodique
∇v = ∇u(x)
Y
(2.46)
Ceci est l’interprétation variationnelle de la démarche que nous avons eue
dans le langage des équations aux dérivées partielles.
Elle peut être utilement rapprochée de ce que nous avons vu au premier
Chapitre, et notamment de la formule (1.20). L’intégrande dans le premier
terme de (2.46) est une façon d’exprimer la densité d’energie macroscopique :
il suffit de noter

W (F ) = inf (∇v(y) , A(y) · ∇v(y)) dy dx
Y
∇v périodique

∇v = F (x)
Y

On la calculera en résolvant le problème à l’échelle microscopique, comme on


calculait au Chapitre 1 pour (1.20)
{énergie du réseau cristallin placé en x et déformé par F (x)}
laquelle était aussi, implicitement, un problème de minimisation.
Remarque 2.25. Cette interprétation variationnelle, symbolisée par la formule
(2.46), est en fait plus générale que l’interprétation EDP que nous avons
présentée précédemment (sous réserve, bien sûr, d’avoir dans le problème
une énergie sous-jacente, c’est-à-dire, dans le cas quadratique, une matrice
symétrique). Elle permet alors de traiter des cas plus compliqués que le “sim-
ple” cas périodique que nous traitons ici, comme des fonctionnelles d’énergie
non quadratiques, des coefficients aléatoires,... Une écriture plus générale (un
peu formelle) de la formule (2.46), et qui permet d’ailleurs d’encore mieux
comprendre ce qui a été fait ici, est la suivante :
 
1
inf inf  Energie de ∇v  dx − f u,
2 Ω Ω
u ∈ H01 (Ω) ∇v = ∇u(x)
(2.47)
où le signe · désigne la moyenne sur un élément représentatif (dans  le cas
périodique, il s’agit de l’intégrale sur la cellule de périodicité · = ·(y) dy).
Y
De plus, cette approche est intimement liée à la théorie dite de la Γ -
convergence, qui permet de définir la limite d’une suite de problèmes de mi-
nimisation, et de reconnaı̂tre cette limite comme un nouveau problème de
minimisation.
62 2 Techniques d’homogénéisation

2.3.3 Retour sur le cas monodimensionnel

A ce stade, il est utile de revenir en détail sur le problème monodimensionnel


(2.1). A la Section 2.1, nous avons vu que le problème homogénéisé corres-
pondant s’écrit (2.6), à savoir

d 1 d

− ( u ) = f,
dx < a1 > dx

assorti des conditions aux limites u


(0) = u
(1) = 0. La limite de uε est :
   1  1
1 x x 

u =< > −x f (t) dt + tf (t) dt + x f (t) dt − tf (t) dt ,


a 0 0 0 0
(2.48)
de dérivée
  1  1

 1 x 
(u ) =< > − f (t) dt + f (t) dt − tf (t) dt . (2.49)
a 0 0 0

Alternativement, le résultat de la méthode de convergence à deux échelles


de la Section 2.3 nous enseigne que, si le développement est bon, alors le terme
d’ordre zéro en ε est solution de (2.41), qui s’écrit ici

d
d
− (a u0 ) = f, dans [0, 1],
dx dx
u0 = 0, en 0 et 1,

où le coefficient homogénéisé a


s’exprime selon (2.40) et donc ici
 1
a
= a(y)(1 + w  (y))2 dy, (2.50)
0

et où la fonction w (il n’y en a qu’une ici puisqu’on travaille en une dimension)
est solution de (2.36), ici

⎨ d d
− (a(y)(1 + w(y))) = 0, dans [0, 1],
dy dy
⎩ w périodique de période 1.

On déduit de cette équation que


d
a(y)(1 + w(y)) = constante,
dy

et on identifie la constante en imposant la condition périodique w(0) = w(1),

d 1
a(y)(1 + w(y)) = . (2.51)
dy < a1 >
2.3 Des cas plus compliqués : la convergence à deux échelles 63

Plus explicitement, la valeur de la fonction w (définie on le rappelle à une


constante additive près en y) est donc
 y
1 1
w(y) = −y + (2.52)
< a1 > 0 a

de dérivée
1 1
w (y) = −1 + 1 . (2.53)
< a > a(y)
En injectant (2.53) dans (2.50), on trouve la valeur du coefficient homogénéisé
 1  1
1 1 1
a
= a(y)(1 + w  (y))2 dy = a(y) 1 2 dy =
0 0 < a > a(y) 2 < a1 >

qui est bien la valeur trouvée à la Section 2.1. Il s’ensuit évidemment que
la fonction u
est bien égale à u0 , et donc la Section 2.1 prouve que le
développement à deux échelles est au moins correct pour son ordre zéro, à sa-
voir que uε converge faiblement vers u0 dans H 1 ([0, 1]). C’est le seul exemple
où nous pourrons effectivement prouver cela dans ce cours.
Soyons curieux. La convergence de uε vers u0 est-elle forte dans H 1 ? Cela
revient à se poser la question suivante : la dérivée (uε ) tend-elle fortement
vers (u0 ) dans L2 ([0, 1]) ?
L’intérêt de la dimension 1 est que nous pouvons tout calculer explicite-
ment. Ainsi, il est possible en suivant la démarche de la preuve de la Propo-
sition 2.3, de résoudre (2.1) pour chaque ε > 0 et de trouver
 x  x  x  t
1 t  1 t
u (x) = − cε +
ε
f (t) dt ( ) dt + ( ) dt f (t) dt (2.54)
0 0 a ε 0 0 a ε
où la constante cε (celle de (2.7)) vaut
 1  1  1  t
1 t  1 t
− ( ) dt f (t) dt + ( ) dt f (t) dt
0 a ε 0 0 0 a ε
cε =  1 . (2.55)
1 t
( ) dt
0 a ε

La dérivée (uε ) est bien entendu donnée par (2.7).


Formons alors la différence (uε ) − (u0 ) et évaluons-la :
 x
1 x 1
(uε ) − (u0 ) = − ( )+ < > cε + f (t) dt
a ε a 0 1
1
1
− < > cε + f (t) dt − tf (t) dt .
a 0 0

Le second terme du membre de droite est une constante réelle qui tend vers 0
avec ε. En effet, nous remarquons alors que
64 2 Techniques d’homogénéisation
 1   1
t
1 t 1 t
 1  1 ( ) dt − t ( ) dt f (t) dt
0 0 a ε 0 a ε
cε + f (t) dt − tf (t) dt =  1 ,
0 0 1 t
( ) dt
0 a ε

où, en désignant par [y] la partie entière de y,


 t  1   t  1ε 
 1 t 1 t   ε 1 1  
      
 ( ) dt − t ( ) dt  = ε (t ) dt − t (t ) dt 
0 a ε 0 a ε L ∞  0 a 0 a  ∞
 t   L
 ε 1 1 
 ε 1

= ε −t + O(1)
 [t] a 1 a
[ ]  ∞
ε ε L
= O(ε).
(2.56)

Nous avons donc


 1  1
cε + f (t) dt − tf (t) dt = O(ε). (2.57)
0 0

Quant au premier terme, il tend faiblement vers 0 dans L2 par produit : la


1 x 1
fonction ( )− < > converge faiblement vers 0 dans L2 , et la fonction
 x a ε a
cε + f (t) dt converge fortement dans L∞ , et ce vers la fonction
0
 1  1  x
− f (t) dt + tf (t) dt + f (t) dt.
0 0 0

Par conséquent, à cause de ce premier terme, on retrouve que

(uε ) − (u0 )

tend faiblement vers 0, et pas fortement. Pour s’en convaincre, il suffit de


1 x 1
fixer une fonction f et de prendre un exemple de fonction ( )− < > qui
a ε a
converge faiblement et pas fortement vers 0.
Obtenir une convergence forte de (uε ) vers (u0 ) dans L2 ([0, 1]) est
précisément le but de la présence du terme d’ordre 1 dans le développement
à deux échelles.
Considérons en effet maintenant la différence
x
(uε (x)) − (u0 (x) + εu0 (x)w( )) ,
ε
que nous évaluons
2.3 Des cas plus compliqués : la convergence à deux échelles 65
 x  x x
(uε (x)) − u0 (x)+εu0 (x)w( ) = (uε (x)) −(1+w ( ))(u0 ) −ε(u0 ) (x)w( ).
ε ε ε
(2.58)
Le dernier terme vaut
 xε
 x 1  x 1 1
ε(u0 ) (x)w( ) = −ε < > f (x) − + 1
ε a  x ε <a> 0 a
 1 1 t
= −x < > + ( ) dt f (x),
a 0 a ε

et est donc une fonction qui tend vers zero en norme L2 en O(ε) par le même
raisonnement que pour (2.56). Et l’on peut donc récrire, en tenant compte de
la valeur de 1 + w  ,
 x  1 1
(uε (x)) − u0 (x) + εu0 (x)w( ) = (uε (x)) − u (x) + OL2 (ε)
ε < a > a( xε ) 0
1
 1  1
1 x
= − ( ) cε + f (t) dt − tf (t) dt
a ε 0 0
+OL2 (ε). (2.59)

A cause de (2.57), nous avons donc maintenant bien la convergence forte de


(uε (x)) − (u0 (x) + εu0 (x)w( xε )) vers 0 dans L2 , et donc
x
uε (x) − (u0 (x) + εu0 (x)w( )) tend fortement vers 0 dans H 1 (Ω), (2.60)
ε
x
(puisque le terme εu0 (x)w( ) ne modifie pas la convergence L2 précédemment
ε
prouvée).

Remarque 2.26. Nous retrouverons à la Section suivante le fait qu’il est im-
portant d’obtenir une telle convergence forte.

Exercice 2.27. En reprenant le détail des calculs précédents pour une fonc-
tion w s’écrivant  y
1 1
w(x, y) = h(x) − y + 1
<a> 0 a
(où h(x) est arbitraire), montrer que le fait qu’on ait pris dans la définition
de w la “constante” d’intégration h(x) nulle ne modifie en rien la convergence
(2.60).

Pourquoi ne pas pousser l’analyse plus loin en se demandant : pouvons-


nous dire à quel ordre en ε la convergence de (uε (x)) − (u0 (x) + εu0 (x)w( xε ))
vers 0 dans H 1 a lieu ?
Encore une fois, comme nous disposons en dimension 1 des expressions
explicites, il suffit de mener le calcul. Nous venons de montrer avec (2.59) et
(2.57) que
66 2 Techniques d’homogénéisation
 x 
 ε 
(u (x)) − (u0 (x) + εu0 (x)w( ))  2 = O(ε),
ε L

et en fait pas mieux que cela (Le vérifier en exercice).


Avec un plus d’effort, on peut faire le même travail sur la fonction uε (x)
elle-même. On a en effet
x
uε (x) − (u0 (x) + εu0 (x)w( ))
ε
 1  1  x
1 t
= − cε + f (t) dt − tf (t) dt ( ) dt
0 0 0 a ε
 x  t 

1 t 1
+ ( ) dt − t < > f (t) dt,
0 0 a ε a

où chacun des deux termes est un O(ε) en norme L∞ (et donc en norme
L2 ([0, 1])) en vertu de raisonnements déjà effectués ci-dessus.
Nous avons donc
 x 
 ε 
u (x) − (u0 (x) + εu0 (x)w( )) 1 = O(ε). (2.61)
ε H

Au moins deux commentaires s’imposent à ce stade.


Premièrement, on n’a pas mieux que l’ordre ε. Il suffit pour le voir de
choisir une fonction f et une fonction a non triviales particulières et de vérifier
que la convergence est alors exactement d’ordre ε.
Deuxièmement, on pourrait à première vue être “déçu” par cette conver-
gence d’ordre ε. En effet, pour un développement limité “classique”, on s’at-
tend typiquement à ce que une différence v ε − v0 − εv1 soit d’ordre o(ε), voire
O(ε2 ). Il ne faut pas se faire abuser ici ! Comme

x x x
u0 (x) + εu0 (x)w( ) = (u0 ) (x) + (u0 ) (x)w ( ) + ε(u0 ) (x)w( ),
ε ε ε

le terme d’ordre 1 cache en fait un terme d’ordre 0 pour la dérivée (à cause de
x
l’argument dans w). La convergence à l’ordre o(1) pour la convergence H 1
ε
est donc en fait le résultat naturel que l’on peut attendre, et une convergence
à l’ordre O(ε) est donc un résultat non trivial5 .

Remarque 2.28. Cette convergence à l’ordre ε ne sera en fait pas nécessaire-


ment vraie dans le cas général (voir la Section 2.3.4), en partie à cause d’une
difficulté due aux conditions aux limites, et reliée au point qui suit.

5
On pourrait cependant attendre O(ε2 ) pour la norme L2 .
2.3 Des cas plus compliqués : la convergence à deux échelles 67

Terminons cette section en signalant un point jusqu’ici passé sous silence.


La fonction u0 (x) + εu0 (x)w( xε ) approche bien uε , mais ne vérifie en fait
pas la condition au bord de nullité en 0 et 1. Ici on peut encore faire le calcul
et obtenir d’une part exactement
0
u0 (0) + εu0 (0)w( ) = 0
ε
et d’autre part
 1  1
1 1 ε 1
u0 (1) + εu0 (1)w( ) =0− tf (t) dt − < > +ε ,
ε 0 a 0 a

qui n’est pas exactement zéro en général mais est un O(ε) (encore par le même
raisonnement que ci-dessus).

Exercice 2.29. L’objet de l’exercice est de montrer la convergence forte de


uε (x) − (u0 (x) + εu0 (x)w( xε )) vers 0 dans L2 par une autre méthode que la
méthode ci-dessus. Nous nous plaçons au stade où nous savons que (u ε (x)) −
(u0 (x)+εu0 (x)w( xε )) converge fortement dans L2 vers 0, et ce comme un O(ε).
En intégrant alors cette fonction, et en utilisant notamment la remarque sur
les conditions aux bords ci-dessus, conclure.

Exercice 2.30. Montrer que si on avait une convergence o(ε) pour la norme
H 1 alors la condition au bord devrait au moins être vérifiée à l’ordre o(ε) près.
Vérifier que ce n’est pas le cas en général.

2.3.4 Retour sur le cadre général

Dans la section 2.3.1, nous avons seulement travaillé par conditions néces-
saires, de manière formelle, sans nous préoccuper de notre bon droit quand
nous utilisions des dérivées. Nous avons montré que si uε admet un dévelop-
pement limité du type (2.27) alors les premiers termes sont nécessairement
donnés par les u0 et u1 déterminés ci-dessus. Dans le cadre monodimensionnel,
nous avons pu fournir la preuve, mais en toute généralité, il reste à fonder ceci
mathématiquement. Nous ne sommes malheureusement pas en mesure de faire
ceci ici, préférant nous consacrer à d’autres aspects. En fait, sous de bonnes
conditions sur les données, on peut montrer que le développement (2.27) est
·
légitime, au sens où uε − u0 (·) − εu1 (·, ) tend effectivement fortement vers
ε
0 dans H 1 .
Cependant, dès l’ordre 1 en ε, et a fortiori pour les ordres suivants, la
situation n’est pas simple, notamment car des couches limites aux bords du
domaine rentrent en jeu. Ceci peut déjà se comprendre de la façon suivante.
Comme indiqué en fin de Section précédente, un point est passé relativement
inaperçu dans notre analyse de la section 2.3.1 : la condition au bord uε = 0
68 2 Techniques d’homogénéisation

est certes vérifiée par u0 , mais pas par u1 (voir la formule (2.35)), et donc pas
·
par u0 (·) + εu1 (·, ). Ainsi, en dimension 1, nous avons vu que la condition
ε
au bord n’était en général vérifiée qu’à l’ordre O(ε). Il s’ensuit notamment
(une preuve précise peut être faite) que la vitesse en ε pour la convergence
·
dans H 1 de la fonction uε − u0 (·) − εu1 (·, ) vers 0 n’est pas forcément celle
ε
attendue6 . Rappelons en effet que, par exemple, à cause des propriétés de
l’application Trace, la norme H 1 (Ω) sur le domaine majore (à constante mul-
tiplicative près) la norme L2 (∂Ω), et donc si la convergence au bord n’est pas
bonne, la convergence de la dérivée sur tout le domaine ne peut pas l’être non
plus. Un terme parasite dû aux conditions aux limites apparaı̂t ainsi dans le
développement limité (2.27), qu’il faut ainsi corriger. Aux ordres supérieurs,
on anticipe de façon analogue des difficultés certaines pour montrer la validité
du développement (et il arrive effectivement qu’il soit faux).
Quoi qu’il en soit, la convergence à deux échelles développée ci-dessus est
un moyen explicite de rendre forte une convergence faible H 1 , celle de uε vers
u0 . De ce point de vue, il s’agit d’un cas particulier d’un résultat général
que nous citons maintenant, et qui, comme annoncé, prolonge et complète les
résultats de la Proposition 2.12. Dans cette dernière, la convergence H 1 de

uε vers u
est faible (voir Figure 2.4), et donc on n’a pas convergence forte
des dérivées, en particulier dans L1 et donc presque partout. Pour améliorer
la situation, il faut adjoindre des termes correctifs à u
, comme nous l’avons
fait en adjoignant εu1 à u0 dans le développement à deux échelles.

Proposition 2.31. dite Théorème des correcteurs Nous nous plaçons


dans les conditions de la Proposition 2.12. Alors il existe N suites de fonctions

ziε dans H 1 (Ω) vérifiant
 ε −→0
ziε  0, faiblement dans H 1 (Ω), (2.62)

et
  ε −→0
−div Aε ei + ∇ziε −→ 0, fortement dans H −1 (Ω), (2.63)
telles que
   ε −→0
∇uε − Id + ∇z ε ∇u
−→ 0, fortement dans (L1 (Ω))N . (2.64)

Les fonctions zi sont dites les correcteurs, au sens où, grâce à leur présence,

la formule (2.64) permet d’obtenir la convergence forte de la dérivée de u ε

vers celle de u .

Nous ne démontrerons pas la Proposition ci-dessus, et renvoyons une fois


de plus à la bibliographie. Disons cependant que le début de la preuve consiste

6 √
Typiquement, on peut obtenir un ordre O( ε).
2.3 Des cas plus compliqués : la convergence à deux échelles 69

à construire “explicitement” les correcteurs en les définissant comme les solu-


tions d’un problème du type
 
−div Aε ei + ∇ziε = 0, (2.65)

avec ziε ∈ H01 (Ω), puis à vérifier que de tels ziε tendent effectivement faiblement
vers 0 dans H 1 (Ω).
En fait, les correcteurs permettent mieux que simplement corriger la
convergence, car ils permettent aussi d’obtenir une expression de la matrice
homogénéisée et donc de déterminer u
. C’est l’objet du
Corollaire 2.32. Toujours sous les conditions de la Proposition 2.12, la ma-
trice homogénéisée A
s’exprime par
  
A
= lim Aε Id + ∇z ε . (2.66)
faible dans (L2 (Ω))N ×N
Remarque 2.33. La convergence (2.64) est bien sûr la généralisation de (2.60),
laquelle est basée sur (2.58).
Remarque 2.34. De même, (2.66) généralise (2.50) et aussi (2.39)-(2.39).
A ce stade, nous savons donc que grâce à la résolution préalable des N
problèmes du type (2.65), nous obtiendrons, pour chaque fonction f une bonne
approximation de uε par la seule résolution du problème homogénéisé. Ceci
est tout à fait la situation constatée pour la convergence à deux échelles.
Pour autant, il ne faut pas sombrer dans l’euphorie. En fait, l’expression
(2.66) n’est pas vraiment explicite, car calculer cette limite n’est pas simple :
il y a un produit de fonctions au membre de droite. Dans le cas périodique, la
convergence à deux échelles pour le cas périodique rend cette formule vraiment
explicite et indépendante de l’extraction. C’est ce que nous avons vu plus haut.
On obtient d’un seul coup le correcteur et la matrice homogénéisée. En toute
généralité, tout reste à faire !
Remarque 2.35. Pour être rigoureux, nous devrions préciser que l’expression
(2.66) est bien une définition au sens où la valeur ne dépend pas du correcteur
choisi, c’est-à-dire que quelles que soient les fonctions zi remplissant les condi-
tions de la Proposition 2.31 le résultat sera le même. C’est en fait le cas, nous
l’admettons en toute généralité, et l’exercice ci-dessous éclaircira la situation
sur le cas de la dimension 1.
Exercice 2.36. Sur le cas de la dimension 1, montrer que (2.66) est bien une
définition légitime.
Exercice 2.37. Reprendre le cas de la convergence à deux échelles sur le
cas périodique de la Section 2.3.1 largement exploré ci-dessus : contruire des
correcteurs, et montrer que l’expression (2.66) coı̈ncide bien avec l’expression
(2.40).
70 2 Techniques d’homogénéisation

u*

u ε’

u*’

Fig. 2.4. A gauche, la limite u donne le comportement moyen de uε qui présente


des oscillations d’amplitude ε à l’échelle ε. Pourtant, à droite, sa dérivée (u  ) est
une très mauvaise approximation de la dérivée (uε ) (qui oscille avec une amplitude
unité). u est peut-être la limite faible dans H 1 de uε , mais certainement pas la
limite forte.

2.4 A lire en 2ème lecture : Vers des méthodes


multiéchelles avancées

Les difficultés soulevées ci-dessus soulèvent en fait la difficulté plus générale


du calcul du comportement de uε “à tout ordre” c’est-à-dire pour ε petit
mais non nul. Il est en effet clair que le passage à la limite que nous avons ef-
fectué en remplaçant ε par zéro peut être un peu troublant. Dans un problème
donné, ε vaut par exemple 10−5 et pas zéro ! Evidemment, on peut, suivant la
technologie développée à la section précédente, se dire que l’on va calculer ri-
2.4 A lire en 2ème lecture : Vers des méthodes multiéchelles avancées 71

goureusement le développement complet, c’est-à-dire comprendre précisément


le comportement de uε quand il tend vers u0 , en calculant les correcteurs à
tout ordre. Dans certains cas (comme le cas périodique), ces correcteurs sont
explicites (quoique pas gratuits !), mais dans beaucoup de cas ils ne le sont pas,
et les déterminer peut s’avérer dans la pratique aussi difficile que de résoudre
le problème initial. Il y a donc de la place pour des stratégies alternatives :
on peut imaginer que passer à la limite ε −→ 0 n’est pas la seule stratégie
numérique. Certaines techniques (tout à fait dans l’esprit de celles de la Sec-
tion 1.3) consistent à gérer explicitement l’échelle ε conjointement à l’échelle
1 (i.e. l’échelle macroscopique).
L’idée est de s’inspirer du développement (2.27), sous sa forme


N
∂u0 x
uε (x) = u0 (x) + ε (x)wi ( ).
i=1
∂xi ε

Certes ce développement n’est pas toujours correct en théorie, mais il


suggère malgré tout de rechercher7 , pour ε fixé non nul, une approximation
numérique de la solution uε comme superposition (et/ou produits) de fonc-
tions oscillant à l’échelle 1 et à l’échelle ε. L’objectif est alors clair : il faut,
d’une manière ou d’une autre, insérer dans l’espace d’éléments finis considérés
à la fois des fonctions qui oscillent à l’échelle 1 et des fonctions qui oscillent
à l’échelle ε, pour avoir une chance de bien représenter la fonction uε , qui
présente les deux comportements.
Remarque 2.38. La démarche que nous employons, consistant à nous inspirer
d’un développement théorique, non nécessairement rigoureux en théorie, pour
en déduire une stratégie d’approximation numérique, qui elle sera rigoureuse,
est très courante en analyse numérique.
Si on utilise des fonctions oscillantes à l’échelle ε génériques, il y a toutes les
chances qu’il en faille un nombre énormément grand, et on est alors ramené à
la difficulté mentionnée au début de chapitre : on se retrouve avec par exemple
une base d’éléments finis de taille ε, ce qui est précisément ce qu’on voulait
éviter.
Si au contraire on particularise trop, et qu’on incorpore l’asymptotique
de uε explicitement dans l’espace d’éléments finis, cela revient au cas de la
·
section précédente, où l’on calcule uε sous la forme u0 (·) + εu1 (·, ) où u0 et
ε
u1 sont définies par le problème homogénéisé et le problème périodique.
Une idée naturelle est alors de rechercher un compromis entre les deux
stratégies extrêmes ci-dessus. Il existe différentes façons de mettre en oeuvre
cette idée.
En premier lieu, on peut vouloir incorporer l’information à l’échelle ε dans
les fonctions de base éléments finis elle-même. Pour celà, on considère des
7
et ce même hors du cadre périodique de la Section précédente
72 2 Techniques d’homogénéisation
·
éléments finis qui vont jouer en fait le rôle des fonctions wi ( ) de la section
ε
précédente.

Brièvement dit, une des techniques consiste à mailler le domaine selon des
mailles grossières (i.e. à l’échelle 1, par exemple en dimension 2 par des carrés
(de sommets notés xj ) ce qui est bien adapté à la cellule de périodicité Y =
[0, 1]2 ), et considérer comme espace d’éléments finis un espace de fonctions
qui sont somme de deux types de fonctions : d’une part, les fonctions Q1
habituelles (notées ψi et vérifiant ψi (xj ) = δij ) et d’autre part des fonctions
tests qui oscillent à l’échelle ε. Par exemple, on peut déterminer les fonctions
ηiε solutions de

−div (A( xε ) · ∇(ηεi + ψ i )) = 0, dans la maille de taille 1,
ηεi = 0, au bord de la maille,

puis poser ϕiε = ηεi + ψ i , qui est alors solution de



⎨ −div (A( xε ) · ∇ϕiε ) = 0, dans la maille de taille 1
ϕiε (xj ) = δij , en les sommets xj , du carré

ϕiε est continu à travers le changement de maille,

et utiliser la base des ϕiε comme base d’éléments finis. Cette base contient
des oscillations à l’ordre ε, à cause de la présence des ηεi ( ce sont elles qui
·
jouent en fait, pour ε = 0, le rôle des fonctions wi ( ) de la section précédente,
ε
avec cet avantage supplémentaire qu’elles vérifient les bonnes conditions aux
bords).
La résolution numérique du problème original se présente alors encore en
deux étapes : un précalcul où on évalue les ϕiε sur chaque maille, puis un calcul
sur le maillage à l’échelle 1 de la solution uε de l’équation développée sur les
ϕiε .
Une alternative, dans le même esprit mais avec une réalisation pratique
un peu différente, est de considérer des fonctions de base à l’échelle ε qui sont
périodiques.
Plus précisément, on définit la solution φ(y, ε, t) de

−e−iεty divy (A(y) · ∇y (eiεty φ(y, ε, t))) = ε2 , sur la maille périodique Y,
φ(y, ε, t) périodique au bord.

En échantillonnant φ(y, ε, t) pour différents t = tj , on construit une famille


d’éléments finis φ(y, ε, tj ) à l’échelle fine. Ensuite, en faisant le produit tenso-
riel de cette famille par une famille d’éléments finis à l’échelle 1, on construit
une base globale, dans laquelle on approchera uε . Une telle stratégie peut
s’interpréter comme issue de la décomposition par transformée de Fourier

1 x
uε (x) = n/3
fˆ(t) eitx φ( , ε, t) dt, (2.67)
(2π) t∈IRn ε
2.5 Questions de couche limite 73

décomposition qui serait rigoureuse si on travaillait sur un domaine infini.


La fonction φ(y, ε, t) apparaı̂t alors comme la réponse, à l’échelle ε, à une
excitation eitx à l’échelle 1. La solution uε est donc vue comme une fonction
x
uε (x) = U ε (x, ), c’est-à-dire une fonction de la variable x à valeurs dans les
ε
x
fonctions de la variable . A ces deux niveaux, on utilise une base d’éléments
ε
finis différente.
En allant une étape plus loin, on peut même construire une variante de
cette technique : plutôt que d’insérer directement les φ(y, ε, t) dans l’espace
d’éléments finis à l’échelle ε, on se souvient seulement de la régularité de ces
fonctions φ(y, ε, t) (elle se détermine par une analyse mathématique) et on
choisit un espace d’éléments finis “classiques”, dont on choisit la forme et le
degré en fonction de ce qui est attendu sur les φ(y, ε, t). L’espace d’éléments
finis global est alors le produit tensoriel de deux espaces adaptés aux échelles
respectives 1 et ε. Et on peut même, en allant encore plus loin dans l’effica-
cité, réaliser une très bonne approximation en effectuant un produit tensoriel
“creux” (consistant à prendre seulement un sous-espace bien choisi du produit
tensoriel).
Quelle que soit leur déclinaison, toutes ces techniques “avancées” consistent
peu ou prou à remplacer le problème initial −div Aε (x)∇uε (x) = f , qui est
multiéchelle mais fonction d’une variable seulement, par un problème va-
riationnel, essentiellement à une seule échelle, mais sur plusieurs variables
(d’où par exemple un produit tensoriel d’éléments finis8 ). On peut donc les
voir comme des techniques préférant gérer conjointement les échelles, que
séquentiellement. Progressivement, on s’éloigne donc de la méthodologie ini-
tiale de ce chapitre, pour se rapprocher de techniques que nous verrons au
Chapitre 4.
Pour en savoir plus sur ces techniques multiéchelles qui sont actuellement
en pleine évolution, nous conseillons au lecteur de se reporter à la bibliographie
de ce chapitre, qui servira de point d’entrée dans une littérature beaucoup plus
large.

2.5 Questions de couche limite


Dans les sections précédentes, nous nous sommes intéressés au cas où les pe-
tites échelles intervenaient uniformément sur tout le domaine, ce qui est le
x
cas pour un coefficient périodique oscillant vite a( ). Il arrive que l’interven-
ε
tion des petites échelles du problème ne soit sensible que le long des parois
du domaine. C’est par exemple le cas des couches limites dans les problèmes
8
Une autre approche encore consiste à introduire une somme d’espace d’éléments
finis, comme dans les méthodes multiéchelles reliées à la technique d’éléments-bulles,
voir les travaux de F. Brezzi, D. Marini, E. Süli [17, 22].
74 2 Techniques d’homogénéisation

de thermique ou de mécanique des fluides. Ainsi, on sait que dans certains


écoulements de fluide, la viscosité du fluide ne joue en fait un rôle que le long
de la paroi (penser aux calculs d’épaisseur de couche limite que le lecteur a
peut-être déjà rencontrés), alors que partout ailleurs, loin de la paroi, le fluide
s’écoule comme s’il était parfait, i.e. sans viscosité.
C’est un cas de ce type que nous allons regarder. Mais tout d’abord, don-
nons un aperçu sur les cas simples.

2.5.1 Deux cas simples

Dans un certain nombre de problèmes, on s’attend sur le bord du domaine


de calcul à l’existence d’une couche limite dans la solution uε d’épaisseur ηε
liée à ε. Toujours pour des raisons d’efficacité, on ne souhaite pas réaliser la
discrétisation de l’équation avec un pas de discrétisation h de l’ordre de ε mais
bien plus grand que ε. Généralement, la couche limite d’épaisseur ηε est donc
une petite partie de la première maille. La résolution aboutira donc sur cette
première maille à une solution discrète fausse, et cela peut même polluer les
mailles suivantes.
L’idée simple est alors la suivante : éliminer la couche limite du domaine
de calcul pour
– ne pas avoir à la mailler finement,
– ne pas avoir d’erreur quand on la maille grossièrement.
La difficulté est bien sûr qu’on dispose d’une condition sur le bord Γ du
domaine physique et qu’il faut donc déterminer une condition équivalente au
bord Γ̃ de la couche limite (voir Figure 2.5).
Il nous faut donc résoudre d’une manière simplifiée à l’intérieur de la
couche limite pour trouver la bonne condition à mettre au bord Γ̃ .
Nous raisonnons en dimension 1 pour simplifier, mais tout peut s’adap-
ter sans problème aux dimensions supérieures pour des parois régulières en
évoluant selon la normale à la paroi. Notre cas d’école consiste à résoudre
une certaine équation sur le segment [0, 1], pour des conditions aux bords de
Dirichlet u(0) = u(1) = 0. On s’attend à une couche limite au voisinage de
0+ . Le bord gauche du domaine physique est donc le point x = 0, et le bord
de la couche limite est le point x = ηε .
La stratégie la plus simple consiste à ne résoudre aucune équation que ce
soit sur la couche limite, même pas une équation approchée, mais à seulement
utiliser un simple développement de Taylor pour écrire
duε
uε (0) = uε (ηε ) − ηε (ηε ) + o(ηε ),
dx
et donc imposer
duε
uε (ηε ) − ηε (ηε ) = 0 (2.68)
dx
2.5 Questions de couche limite 75

au lieu de uε (0) = 0. Cela fournit la condition au bord manquante pour la


résolution du problème sur [ηε , 1].
Bien sûr, ceci a le mérite de la simplicité, mais présente deux désavantages :
– la validité du développement de Taylor suppose l’existence d’une dérivée
seconde bien régulière de uε ,
– on ne peut pas attendre des miracles de cette technique puisqu’on n’uti-
lise rien du problème sur [0, ηε ].
Une technique plus sophistiquée consiste donc
– à d’abord résoudre une équation simplifiée sur le segment [0, ηε ] avec la
duε
donnée au bord uε (ηε ), de sorte de déterminer en sortie (ηε ), qui
dx
sera donnée (ou approchée) par une formule
duε 
(ηε ) = g uε (ηε ) (2.69)
dx
qui peut être en particulier de la forme (2.68) mais pas seulement,
– résoudre ensuite sur le segment [ηε , 1] avec la condition (2.69) au bord
x = ηε .
Les deux cas ci-dessus recouvrent par exemple les questions de couche
limite pour les écoulements turbulents. Une formule de type (2.69) s’appelle
alors une loi de paroi.

                                

Fig. 2.5. Couche limite en 0+ : il s’agit pour bâtir une discrétisation efficace de
déplacer le bord du domaine de calcul (ici le bord gauche en 0) pour éliminer la
couche limite ; mais il faut aussi trouver la “nouvelle” condition à imposer sur le
“nouveau” bord. On parle de condition équivalente.

Exercice 2.39. Comme exemple simple, considérons en 1D l’équation



⎪ d2
⎨ −ε2 2 uε + (1 + x2 )uε = 0,
dx

⎩ uε (0) = 1,
uε −→ 0, quand x −→ +∞
76 2 Techniques d’homogénéisation

sur la demie-droite x > 0. Pour éviter de devoir résoudre dans la couche limite
au voisinage de 0+ , on veut trouver une condition équivalente. L’établir.

2.5.2 Couche limite rugueuse


Nous étudions dans cette section le problème plus complexe de l’écoulement
de fluide visqueux le long d’une paroi rugueuse. Pour les besoins de l’étude,
nous supposons que les rugosités de la paroi sont périodiques.
On se place en dimension 2. Les coordonnées sont (x1 , x2 ). Le fluide occupe
un domaine, infini vers le haut, du demi plan supérieur x2 > 0. La paroi
inférieure du domaine n’est pas exactement la droite Γ0 = {x2 = 0}. Elle n’en
est pas très éloignée, mais c’est une courbe Γε présentant une périodicité à
l’échelle ε dans le sens x1 et une “hauteur” ε dans le sens x2 . On se reportera
à la Figure 2.6. Le domaine Ωε occupé par le fluide est délimité par la paroi
Γε vers le bas et est infini vers le haut. On note par ailleurs Ω0 le demi-plan
x2 > 0. L’écoulement stationnaire du fluide est supposé régi par l’équation de
Stokes ⎧
⎨ −ν∆uε + ∇pε = f dans Ωε
div uε = 0 dans Ωε (2.70)

uε = 0 sur Γε .
La forme des aspérités de la paroi est, on l’a dit, périodique, de sorte que
le domaine Ωε peut être découpé en une collection de domaines ε × Y accollés
selon Ox1 . La cellule de périodicité (au sens des sections précédentes ) est
donc le domaine Y : infini vers le haut, périodique de largeur 1 dans le sens
x1 .
Brutalement, une idée naturelle est de remplacer le domaine Ωε par le
domaine Ω0 , ce qui revient à supposer que la vitesse du fluide est nulle sur
le bord x2 = 0 (on parle d’une condition de non glissement sur Γ0 ), alors
qu’en fait elle est nulle sur la paroi rugueuse Γε . La vitesse obtenue par cette
simplification est la solution u0 de

⎨ −ν∆u0 + ∇p0 = f dans Ω0
div u0 = 0 dans Ω0 (2.71)

u0 = 0 sur Γ0 .
Pour des raisons d’origine physique que nous ne détaillons pas, mais qui
rendent exactement le problème intéressant pour notre étude, nous regardons
le problème dans le régime où la viscosité du fluide ν vérifie
ν = µε avec µ constante fixe (2.72)
lorsque ε tend vers zéro. Il s’agit donc d’une viscosité “petite”. Une deuxième
hypothèse que nous ferons est de supposer que
√ ∂u0 ∂ 2 u0 √ ∂ 2 u0
ε , ε , ε sont d’ordre O(1) en tous les points de Γ0 .
∂x2 ∂x22 ∂x1 ∂x2
(2.73)
2.5 Questions de couche limite 77

Ω0

ε xY Ω
ε

Γε
Γ0

Fig. 2.6. Géométrie de la paroi rugueuse Γε . On a fait figurer la cellule de périodicité


ε × Y . En première approximation, on remplacerait Γε par Γ0 . On va faire mieux.

Ces hypothèses correspondent à un écoulement non turbulent.


Il est clair que l’approximation de uε par u0 est un peu brutale. Plus
précisément, comme uε n’est pas nulle sur Γ0 mais y est approximativement
nulle (à l’ordre 1 en ε), on commet une erreur en approchant uε par u0 qu’il
va nous falloir corriger. Voyons comment.
Nous allons montrer la

Proposition 2.40. La solution (uε , pε ) peut être approchée plus précisément


par le couple (u1 , p1 ) solution du problème suivant :

⎪ −µε∆u1 + ∇p1 = f, dans Ω0


⎨ div u1 = 0, dans Ω0
1 (2.74)
∂u µ


⎪ εµ + u11 = 0, sur Γ0
⎩ ∂n v 1
u2 = 0, sur Γ0

où le scalaire v est défini de la manière suivante : on cherche le seul triplet


(v, v, q) tel que
– v et q sont périodiques dans la direction x1 ,
– v − v et q et leurs dérivées sont à décroissance exponentielle quand
x2
y2 = −→ +∞,
ε
et le couple (v, q) est solution du problème de Stokes suivant sur la cellule de
périodicité Y

⎨ −µ∆v + ∇q = 0, dans Y
div v = 0, dans Y (2.75)

v = −y2 e1 , sur le bord des aspérités.

Pour approcher la solution (uε , pε ) de (2.70), on procédera donc comme suit :


– 1 - on déterminera la solution (v, q) (et v) du problème de Stokes sur la
cellule de périodicité,
78 2 Techniques d’homogénéisation

– 2 - on résoudra alors le problème de Stokes (2.74) sur le domaine Ω0 .


Dans la suite de cette section, nous allons “justifier” cette Proposition 2.40.
Eléments de preuve de la Proposition 2.40 :
Nous commençons par écrire le développement

⎨ uε (x) = u0 (x) + εuc (x, x ),
ε (2.76)
⎩ pε (x) = p0 (x) + εpc (x, x ),
ε
dans l’esprit du développement à deux échelles que nous avons vu dans la
section précédente. L’indice supérieur c figure la correction microscopique due
à la couche limite. Dans notre cas, nous exigeons les propriétés suivantes sur
le couple (uc , pc ) : les deux fonctions décroissent à vitesse exponentielle quand
x2 x1
tend vers +∞, et sont périodiques en la variable . D’autre part, les
ε ε
0 0
fonctions (u , p ) sont les corrections macroscopiques de premier ordre (en ε)
x
car elles ne dépendent pas de la variable rapide .
ε
Evaluons maintenant l’erreur que nous effectuons en remplaçant comme
nous l’avons fait ci-dessus brutalement le couple (uε , pε ) par le couple (u0 , p0 ).
Comme l’équation ne change pas et que seul change le bord, l’intégralité de
l’erreur que nous commettons est due au fait que nous imposons à tort u 0 (x2 =
0) = 0 au lieu de l’imposer le long de Γε . Or

∂u0 1 ∂ 2 u0
u0 (x1 , x2 ) = u0 (x1 , 0) + x2 (x1 , 0) + x22 (x1 , ζ(x1 , x2 )x2 )2 ,(2.77)
∂x2 2 ∂x22

∂ 2 u0
pour un certain ζ(x1 , x2 ) ∈]0, 1[. Nous avons u0 (x1 , 0) = 0, et x22 = O(ε)
∂x22
dès que x2 est de l’ordre ε (ce qui est le cas pour (x1 , x2 ) ∈ Γε ) au vu de l’hy-
∂u0
pothèse (2.73). De plus, comme u0 est nul sur Γ0 , on sait (x1 , 0) = 0,
∂x1
0
et en utilisant le caractère à divergence nulle de u qui se traduit par
∂u02 ∂u0
(x1 , 0) = − 1 = 0, cela entraı̂ne donc
∂x2 ∂x1

∂u0 ∂u01
(x1 , 0) = (x1 , 0)e1 .
∂x2 ∂x2

En reportant ces résultats dans (2.77), on obtient

∂u01
u0 (x1 , x2 ) = (x1 , 0) x2 e1 + O(ε), (2.78)
∂x2

pour tout (x1 , x2 ) placé sur Γε . C’est au premier ordre en ε l’erreur que nous
avons commise en remplaçant uε par u0 .
2.5 Questions de couche limite 79

Une récriture de la formule ci-dessus est


∂u01 x2
u0 (x1 , x2 ) = ε (x1 , 0) e1 + O(ε), (2.79)
∂x2 ε
∂u01
et fait apparaı̂tre au membre de droite un produit d’une fonction ε (x1 , 0)
∂x2
de la variable macroscopique x1 par une fonction de la variable microscopique
x2
et périodique de la variable macroscopique x1 . Ceci donne l’idée de chercher
ε
la correction (uc , pc ) sous la même forme, à savoir

⎪ x ∂u01 x

⎪ u c
(x, ) = (x1 , 0) (v( )− < v >),
⎨ ε ∂x2 ε
(2.80)

⎪ 0
⎪ x
⎩ pc (x, ) = ∂u 1 x
(x1 , 0) q( ),
ε ∂x2 ε
où v(·) et q(·) sont périodiques (de période 1) en y, et où nous allons im-
poser (nous admettons que cette exigence est compatible avec ce que nous
· ·
imposerons ensuite) que v( )− < v > et q( ) décroissent exponentiellement
ε ε
rapidement en y2 quand y2 −→ +∞.
En reportant cette forme de (uc , pc ) dans (2.76) et en insérant (uε , pε )
ainsi obtenus dans l’équation de la première ligne de (2.70), on trouve (après
un long calcul sans difficulté que le lecteur peut vérifier)

∂u01 x x
−µε∆u0 + ∇p0 + (x1 , 0) [−µ∆v( ) + ∇q( ) ]
∂x2 ε ε

 ∂ 2 u01 x
−2µε (x1 , 0), 0 · ∇ v( )
∂x1 ∂x2 ε
x  2 0
∂ u1 ∂ 3 u0  x
+εq( ) (x1 , 0), 0 − µε 2 1 (x1 , 0) v( )− < v > = f.
ε ∂x1 ∂x2 ∂x1 ∂x2 ε
(2.81)

Comme v et q sont exponentiellement décroissants par rapport à la variable y 2


quand celle-ci tend vers l’infini, on sait que les termes de l’équation ci-dessus
qui contiennent v et q sont exponentiellement petits quand ε tend vers 0. On
admet qu’il en est de même pour les termes contenant des dérivées de v et q.
L’ordre dominant est donc

−µε∆u0 + ∇p0 = f,

ce qui redonne la première ligne de (2.71). Ensuite, on utilise (2.73) pour


affirmer que parmi les termes exponentiellement décroissants l’ordre dominant
est
∂u01 x x
(x1 , 0) [−µ∆v( ) + ∇q( )] = 0.
∂x2 ε ε
80 2 Techniques d’homogénéisation

En effet, on peut considérer (le raisonnement est un peu formel) que

∂u01 1
(x1 , 0) est exactement d’ordre √ , (2.82)
∂x2 ε
1
au lieu d’être seulement O( √ ) selon l’hypothèse (2.73). De même, on
ε
considère que

∂ 2 u01 ∂ 3 u0 ∂ ∂ 2 u01
(x1 , 0) et 2 1 (x1 , 0) = (x1 , 0), 0
∂x1 ∂x2 ∂x1 ∂x2 ∂x1 ∂x1 ∂x2
1
sont exactement d’ordre √ . (2.83)
ε
On notera que la dernière quantité est une dérivée tangentielle le long de Γ0
et hérite donc des propriétés de la fonction sur cette même frontière. Ensuite,
on admet que v, q, et leurs dérivées sont essentiellement tous du même ordre,
de sorte que par leur multiplication, ils ne perturbent pas l’ordre en ε des
quantités précédentes. En étudiant tous les termes restants de (2.81), on réalise
alors bien que c’est le deuxième terme qui domine quand ε −→ 0. On choisit
donc naturellement (v, q) tels que

−µ∆v + ∇q = 0. (2.84)

De la même manière, la seconde ligne de (2.70) s’écrit

div u0 + ε divx uc = 0,

c’est-à-dire
∂u01 x ∂ 2 u01 x
div u0 + (divy v)( ) + ε (x1 , 0) (v1 ( )− < v >1 ) = 0.
∂x2 ε ∂x1 ∂x2 ε

En raisonnant identiquement, on retrouve div u0 = 0, puis, à l’ordre dominant


en ε,
divy v = 0. (2.85)
Enfin, la condition au bord uε = 0 sur Γε se traduit par
 
0 c ∂u01 x2 x
u + εu = ε (x1 , 0) e1 + v( )− < v > + O(ε) = 0,
∂x2 ε ε

où l’on a utilisé (2.78) pour évaluer u0 sur Γε .


Pour tenter d’améliorer cette condition au bord, on pose donc
x x2
v( ) = − e1 sur le bord Γε , (2.86)
ε ε
de sorte que
2.5 Questions de couche limite 81

∂u01
u0 + ε uc = −ε < v > (x1 , 0) + O(ε), (2.87)
∂x2

ce qui, on le notera, est un développement
√ en puissance de ε puisque le
premier terme est précisément d’ordre ε.
Si l’on résume les conditions imposées sur (v, q), nous avons exigé (2.84),
(2.85), (2.86), ce qui donne bien (2.75). Nous admettons qu’il existe un unique
couple (v, q) et une unique moyenne < v > tels que v, q soient solutions du
système (2.75), avec les propriétés de décroissance et de périodicité annoncées
dans la Proposition 2.40. Nous admettons de plus que nécessairement nous
avons alors
< v >= v e1 .

L’idée est alors la suivante. Pour compenser le terme d’ordre ε dans (2.87),
nous remplaçons le couple (u0 , p0 ) dans le développement (2.76) par le couple
(u1 , p1 ) solution de la même équation de Stokes (2.74) à savoir

−µε∆u1 + ∇p1 = f, dans Ω0
(2.88)
div u1 = 0, dans Ω0

mais cette fois avec la condition au bord


∂u01
u1 = ε < v > (x1 , 0) sur Γ0 . (2.89)
∂x2
En reportant cette nouvelle valeur au bord dans le développement (2.77), on
obtient cette fois à la place de (2.87) que

u1 + ε uc = O(ε), (2.90)

ce qui gagne un ordre en ε.
Le programme de travail est à ce stade le suivant : on résout le problème
de Stokes (2.71) pour trouver (u0 , p0 ), puis le problème (2.75) sur la cellule
de périodicité, et enfin le problème de Stokes (2.88)-(2.89) pour déterminer
(u1 , p1 ). C’est clairement un peu trop lourd. Donc une astuce est de remplacer
u0 par u1 dans les membres de droite de (2.89) et de (2.80), ce qui s’écrit

∂u11
u1 = ε v (x1 , 0) e1 sur Γ0 , (2.91)
∂x2

ou encore comme la troisième ligne de (2.74). L’intérêt est que cette fois
on peut oublier complètement le problème (2.71), et ne résoudre donc qu’en
deux étapes au lieu de trois : la résolution du problème (2.75) sur la cellule
de périodicité, puis la résolution du problème de Stokes (2.74) avec la bonne
condition au bord. Ceci conclut la “preuve” de la proposition. ♦.
82 2 Techniques d’homogénéisation

Remarque 2.41. Encore une fois, le lecteur peut constater qu’on suit les
désormais habituelles deux étapes pour la résolution.

Remarque 2.42. Dans la droite ligne de ce que nous mentionnons pour la


convergence à deux échelles à la Section 2.3, insistons sur le fait que tout
ceci est pour le moment un raisonnement formel. On a postulé une forme
(2.76) avec (2.80) (un tel postulat s’appelle, on le rappelle, un Ansatz ). On a
ensuite admis un certain ordre en ε pour chacune des fonctions dans les cal-
culs, et on a donc proposé une équation pour u1 . Il resterait maintenant, pour
être complet, à “remonter” le raisonnement, c’est-à-dire à considérer (u0 , p0 )
solution de (2.71) (dont il faudrait montrer qu’il obéit à (2.73), (2.82), (2.83)),
(v, q) solution de (2.75) (dont il faudrait montrer qu’il existe avec le bon com-
portement asymptotique), puis (u1 , p1 ) solution de (2.74), à former (uc , pc ) via
(2.80), puis vérifier que (uε − u0 − εuc , pε − p0 − εpc ) tend bien vers 0 quand
ε −→ 0, avec un ordre en ε meilleur que la convergence de (uε − u0 , pε − p0 )
vers 0. Tout ce travail a été effectué (voir les références bibliographiques),
mais il dépasse le cadre de ce cours.
Il subsiste en fait une petite difficulté pratique pour mettre en oeuvre la
résolution de (2.74). C’est l’objet de l’exercice suivant que d’identifier cette
difficulté et une façon de la contourner.
Exercice 2.43. Réaliser la formulation variationnelle de (2.74). Montrer que
pour v < 0, la forme bilinéaire n’est pas nécessairement coercive. En utilisant
un développement de Taylor, montrer alors qu’on peut résoudre plutôt

⎪ −µε∆u1 + ∇p1 = f, dans Ωδ


⎨ div u1 = 0, dans Ωδ
1 (2.92)
∂u µ

⎪ εµ + u11 = 0, sur Γδ

⎩ ∂n v+δ
u12 = 0, sur Γδ
où l’ouvert Ωδ a pour bord inférieur Γδ = δ e2 + Γ0 pour un certain δ > 0
bien choisi.
Terminons par un commentaire qui réunit les deux paragraphes de cette
section. On peut remarquer que dans (2.74) la condition au bord sur Γ0

∂u1 µ 1
εµ + u1 (x1 , 0) = 0
∂n v
est équivalente par une simple application de la formule de Taylor à l’ordre 1

u1 (x1 , −ε v) = 0.
En d’autres termes, ceci n’est rien d’autre qu’une condition de non glissement
de type u = 0, mais posée sur une paroi à la hauteur −ε v. Tout le calcul
précédent peut être vu comme une “simple” évaluation de la bonne hauteur à
laquelle placer cette paroi équivalente, exactement dans l’esprit des cas simples
démontrés au début de cette section.
2.6 Quand ça se passe mal ... 83

2.6 Quand ça se passe mal ...


Pour terminer ce chapitre, citons un cas qui va montrer que tout ne se passe
pas forcément aussi bien dans tous les cas que dans ce chapitre. En d’autres
termes, montrons que la forme du problème obtenu par passage à la limite
quand les petites échelles tendent vers zéro n’est pas forcément identique à
celle du problème original. Jusqu’à maintenant quand on partait de

−div (Aε · ∇uε ) = f, (2.93)

on obtenait comme problème homogénéisé un problème

−div (A
· ∇u
) = f, (2.94)

de même type avec A


dépendant (certes plus ou moins simplement) de A.
Nous allons ici considérer un cas où le problème homogénéisé obtenu n’est
pas de même type que le problème original. A titre d’exemple, nous considérons
un problème dépendant du temps (motivé en fait par des questions d’absorp-
tion en électromagnétisme), mais des exemples tout aussi convaincants pour-
raient être choisis sur des cas stationnaires, dans le cadre des milieux poreux
ou de la physique des particules. Le problème d’évolution que nous étudions
est le suivant

⎪ ∂ x
⎨ uε (t, x) + a( )uε (t, x) = 0 pour t > 0
∂t ε (2.95)

⎩ ε
u (t = 0, x) = v(x)

où v ∈ L2 ([0, 1]) est fixée, et a est une fonction périodique de la variable
réelle, de période 1, vérifiant 0 < c1 ≤ a(x) ≤ c2 pour deux constantes ci ne
dépendant pas de x quelconque dans IR.
La solution de cette équation est connue et vaut
x
ε
−ta( )
u (t, x) = v(x) e ε , (2.96)

de sorte que
u
(t, x) = lim uε (t, x) = v(x) b(t),
ε−→0

où
x
−ta( )
b(t) = lim e ε =< e−ta >
ε−→0

en utilisant de nouveau la Proposition 2.1 pour chaque t > 0 fixé.


Il n’y a en général aucune raison qu’il existe un réel a∗ tel que

b(t) = e−ta (2.97)
84 2 Techniques d’homogénéisation

uniformément en t > 0, et c’est d’ailleurs faux dès que a n’est pas une fonction
constante. Et donc il n’est pas possible que la limite u
vérifie une équation de
même type que (2.95). En passant à la limite ε −→ 0, la forme de l’équation
a changé. Nous allons montrer (ici sur un cas simple de fonction a) que u

vérifie en fait une équation d’évolution avec retard du type


 t

u (t, x)+ < a > u


(t, x) = K(t − s)u
(s, x) ds, (2.98)
∂t 0

pour la même donnée initiale que (2.95), et pour une certaine fonction K = 0
que l’on peut déterminer explicitement d’après a (voir la formule (2.112) ci-
dessous). Pour mener le calcul avec les outils les plus simples possibles (mais en
fait le résultat qualitatif menant de (2.95) à (2.98) est plus général que cela),
nous allons choisir comme fonction a la fonction constante par morceaux

a1 si x ∈ [0, α1 ],
a(x) = (2.99)
a2 si x ∈]α1 , 1],
où a1 , a2 sont deux constantes strictement positives, α1 ∈]0, 1[, et on note
désormais α2 = 1 − α1 .
Remarque 2.44. Pour montrer que l’équation (2.98) est vérifiée par u
, on
pourrait tout simplement calculer u
, compte-tenu de l’expression (2.99) :

u
(t, x) = v(x) α1 e−ta1 + α2 e−ta2 ,
puis insérer brutalement ceci dans (2.98) et vérifier qu’il existe un K conve-
nable (et qui est bien sûr celui qu’on va trouver en (2.112)). La démarche
qu’on va employer ici est plus générale.
Nous procédons de la façon suivante. Vue l’expression (2.96), la suite
uε (t, x) est bornée dans L∞ ([0, +∞[, L2 ([0, 1])) (ce qui signifie que la norme
L2 en x de uε (t, ·) est bornée indépendamment de t ∈ [0, ∞[ et de ε). On
peut donc supposer, quitte à en extraire une sous-suite, qu’elle converge vers
une certaine fonction u
pour la topologie faible de cet espace fonctionnel,
c’est-à-dire la topologie L∞ faible- en temps, et L2 faible en espace.
Exercice 2.45. En fait, il n’y a pas besoin de l’expression (2.96) pour mon-
trer que la suite uε (t, x) est bornée dans L∞ ([0, +∞[, L2 ([0, 1])). On peut
en effet établir directement à partir de (2.95), ce qu’il est d’usage d’appeler
une estimation a priori, c’est-à-dire montrer que la suite uε est bornée dans
une certaine norme, sans pour autant calculer explicitement u . En intégrant
(2.95) contre une fonction bien choisie, mener à bien cette estimation a priori.
Nous intégrons alors l’équation (2.95) contre e−pt pour p > 0, faisant ainsi
apparaı̂tre la transformée de Laplace
 ∞
Luε (p, x) = e−pt uε (t, x) dt, pour x ∈ [0, 1], p > 0, (2.100)
0
ε
de la fonction u .
2.6 Quand ça se passe mal ... 85

Remarque 2.46. La transformée de Laplace est l’outil numéro un pour changer


un problème d’évolution en temps en un problème stationnaire.

Nous avons
 ∞  ∞
∂ ε x
e−pt u (t, x) dt + a( ) e−pt uε (t, x) dt = 0,
0 ∂t ε 0

i.e., par intégration par parties du premier terme


x
−v(x) + p Luε (p, x) + a( ) Luε (p, x) = 0,
ε
et donc l’expression
1
Luε (p, x) =
x v(x). (2.101)
p + a( )
ε
Pour p > 0 fixé, le passage à la limite ε −→ 0 donne donc la convergence
faible dans L2 ([0, 1])

ε−→0 1
Luε (p, x)  < > v(x). (2.102)
p+a
Mais par ailleurs, nous savons déjà que uε converge faiblement vers u
, et
il s’ensuit que Luε converge faiblement vers Lu
. En effet, si ϕ(x) est une
fonction fixée de L2 ([0, 1]), nous avons
 1  1  ∞
(Luε − Lu
)(p, x) ϕ(x) dx = e−pt ϕ(x) (uε − u
)(t, x) dt dx
0 0 0
ε−→0
−→ 0,

car la fonction e−pt ϕ(x) appartient à L1 ([0, +∞[, L2 ([0, 1])).


Nous avons donc, par unicité de la limite faible
1
Lu
=< > v(x). (2.103)
p+a

Admettons alors pour un instant que u


est solution de l’équation (2.98)
pour une fonction K de la forme

K(t − s) = α e−β(t−s) , (2.104)

où α et β sont deux constantes et où nous supposons β > 0. Effectuons alors
une transformée de Laplace de (2.98) ; nous trouvons
 ∞ t
−v(x) + (p+ < a >) Lu
(p, x) = α e−β(t−s) e−pt u
(s, x) ds dt
0 0

Par application du théorème de Fubini, le second membre s’écrit


86 2 Techniques d’homogénéisation
 ∞ t  ∞  ∞
α e−β(t−s) e−pt u
(s, x) ds dt = α e−β(t−s) e−pt u
(s, x) dt ds,
0 0
0 ∞ s  ∞
= u
(s, x) α eβs e−(β+p)t dt ds
0 s
 ∞
α
−ps
= u (s, x) e ds
β+p 0
α
= Lu
(p, x).
β+p
Nous avons donc
 α

−v(x) + p+ < a > − Lu (p, x) = 0, (2.105)


β+p

et donc, vue l’expression (2.103),


 α 1
−1 + p+ < a > − < >= 0. (2.106)
β+p p+a
En regardant la limite p −→ 0 de cette équation, il est facile d’identifier que
α
nécessairement le quotient vaut
β
α 1
=< a > − 1 , (2.107)
β <a>

d’où, en reportant dans (2.106),



1 1
(β+ < a >) p + p2 + β 1 < >= β + p. (2.108)
< a > p+a

A ce stade, nous utilisons le fait que a est la fonction constante par morceaux
donnée par (2.99), d’où la valeur de la moyenne
1 α1 α2
< >= + , (2.109)
p+a p + a1 p + a2

pour chaque p ≥ 0 fixé. De là, (2.108) devient



1 α1 α2
(β+ < a >) p + p2 + β + = β + p. (2.110)
< a1 > p + a1 p + a2

Cette équation peut se mettre sous la forme d’une équation polynômiale en la


variable p, et l’on constate alors (voir l’Exercice 2.47 ci-dessous) que la valeur

< a2 > − < a >2


β= (2.111)
1
<a>− 1
<a>
2.7 Bibliographie 87

est l’unique valeur rendant exactement l’égalité possible pour tout p > 0. Il
est facile de voir (c’est l’objet de l’Exercice 2.48 ci-dessous) que cette valeur
est bien strictement positive, ce qui est compatible avec l’hypothèse faite plus
haut.
Ceci marque la fin du raisonnement par conditions nécessaires. On conclut
alors de la façon suivante. On fixe β par (2.111) et ensuite α selon (2.107).
On fixe

< a2 > − < a >2
K(t) = (< a2 > − < a >2 ) exp − t . (2.112)
1
<a>− 1
<a>

On sait que la fonction Lu


, transformée de Laplace de u
limite faible de uε ,
est donnée par (2.103). Elle vérifie donc (2.105), puisque cette dernière s’écrit
(2.106) et est équivalente à (2.110). Par ailleurs, la transformée de Laplace de
la solution (notée momentanément9 u0 ) de (2.98) (toujours pour α, β, et K
fixés comme ci-dessus) vérifie aussi (2.105). L’unicité évidente de la solution
de (2.105) permet alors d’affirmer que Lu
= Lu0 , i.e. L(u
− u0 ) = 0, et donc
u
= u0 est bien solution de (2.98) pour la valeur de K donnée par (2.112).

Exercice 2.47. Montrer dans le détail que (2.110) est possible pour tout
p > 0 si et seulement si β est donné par (2.111).

Exercice 2.48. Montrer que β donné par (2.111) est strictement positif. En
déduire que le calcul menant de (2.98) à (2.106) a bien un sens.

Exercice 2.49. Montrer que si la fonction a est constante (i.e. a1 = a2 ) alors


il n’y a pas de terme de retard dans (2.98). On retrouve alors la situation
“miraculeuse” de (2.97).

2.7 Bibliographie
La théorie de l’homogénéisation dont on a montré le B.A.BA et la conver-
gence à deux échelles peuvent être lues dans le premier chapitre du livre G.
Allaire [3], dans le livre d’E. Sanchez-Palencia [70], et dans F. Murat et L.
Tartar [60], ces deux derniers auteurs étant deux des “pères fondateurs” de
cette théorie. La convergence à deux échelles, initialement introduite dans
[61], peut être lue pour le cas périodique dans l’article G. Allaire [4]. Pour la
Proposition 2.16, et d’autres points de ce chapitre, on renvoie aussi au livre
de V.V. Zhikov, S.M. Kozlov, O.A. Olejnik [84].
Pour les méthodes multiéchelles de la Section 2.4, on renvoie à Hou,
Thomas Y. ; Wu, Xiao-Hui [46], A.M. Matache et Ch. Schwab [57], Ch.
9
on admet que cette solution existe pour v suffisamment régulière, ce qui peut
être montré soit directement, soit en utilisant précisément la transformée de Laplace
inverse de Lu
88 2 Techniques d’homogénéisation

Schwab [73], A.M. Matache et Ch. Schwab [58]. La section 2.5 s’inspire
fidèlement d’une étude récente effectuée dans Y. Achdou, O. Pironneau, et
F. Valentin [1] sur un cas plus compliqué que le problème de Stokes. Enfin,
l’exemple de la Section 2.6 est classique, et par exemple tiré des travaux de
F. Golse, voir [39] et ses références.
3
Simulation moléculaire

Un système moléculaire est un exemple parfait de système multiéchelle. Il


s’agit d’un assemblage de noyaux et d’électrons, dont les premiers sont lourds,
et réagissent selon des constantes de temps “longues”, et les seconds sont
légers et réagissent presque instantanément. Les premiers obéissent le plus
souvent aux règles de la mécanique classique alors que les seconds doivent
être modélisés à l’aide de la mécanique quantique. Aussi bien dans une
modélisation stationnaire que dans une modélisation dépendante du temps,
il faudra donc gérer les uns et les autres différemment, par deux physiques
différentes, avec des échelles de temps et d’espace différentes. Nous verrons
comment.
De plus, un système moléculaire n’est jamais isolé, sauf dans les très rares
cas d’un gaz à faible pression. Il est inclus dans une phase condensée, liquide
ou solide, et la présence de cet environnement modifie bien sûr son état et
sa réponse à des sollicitations extérieures. D’où, en plus des deux échelles
mentionnées ci-dessus, une troisième, plus macroscopique, qui va interagir
avec les deux premières. Nous détaillerons ce qu’il en est pour l’exemple d’un
système moléculaire en phase liquide. C’est le cas typique d’application de la
biologie ou de la chimie du vivant.

3.1 Modélisation d’un système moléculaire

3.1.1 Les modèles complets

Dans la grande majorité des cas, le comportement d’un système moléculaire


est complètement décrit avec une excellente précision par l’équation de
Schrödinger qui lui est associée. Savoir exploiter cette équation permet donc
en théorie de calculer toutes les propriétes (chimiques, mécaniques, optiques,
magnétiques, ...) de ce système. Les modèles les plus sophistiqués sont dits ab
initio parce qu’ils sont des modèles quantiques directement issus de l’équation
de Schrödinger. Les briques élémentaires de la matière sont à ce niveau de
90 3 Simulation moléculaire

description les noyaux atomiques et les électrons. La plus grande des échelles
d’espace pertinentes est l’Angström (10−10 mètre), taille typique d’un nuage
électronique, alors que la plus petite est de l’ordre de 10−15 mètre, taille
du noyau. La plus grande des échelles de temps est la femtoseconde (10 −15
seconde), échelle de la vibration d’une liaison moléculaire, alors qu’une struc-
ture électronique se met à jour en mille fois moins de temps. Ces modèles ab
initio ne font intervenir que les constantes fondamentales de la physique et
ne comportent donc aucun paramètre empirique. Ils permettent aujourd’hui
d’effectuer des calculs sur l’état stationnaire de systèmes moléculaires com-
portant jusqu’à 100 ou même 1000 atomes. Les calculs sur la dynamique sont
très lourds mais deviennent accessibles ; ils restent cependant limités à des
échelles de temps très courtes, de l’ordre de la picoseconde (10−12 s). Pour
aller au-delà et atteindre des échelles de temps plus longues (pour la biologie
par exemple), on fait appel à des modèles moins sophistiqués (qui ne seront
pas abordés ici).
Considérons un système moléculaire isolé formé de M noyaux et de N
électrons. En mécanique quantique non relativiste, ce système est complète-
ment décrit par une fonction d’onde

Ψ (t; x̄1 , σ̄1 ; · · · ; x̄M , σ̄M ; x1 , σ1 ; · · · ; xN , σN )

à valeur dans C | , t désignant la variable de temps, x̄


k et σ̄k les variables de
position et de spin du k-ième noyau, xi et σi les variables de position et de
spin du i-ième électron. Les variables x̄k et xi sont des variables continues qui
appartiennent à IR3 ; les variables de spin rendent compte de l’état de spin de
la particule ; ce sont des variables discrètes.
D’un point de vue physique |Ψ (t; x̄1 , σ̄1 ; · · · ; x̄M , σ̄M ; x1 , σ1 ; · · · ; xN , σN )|2
représente la densité de probabilité de mesurer simultanément à l’instant t le
noyau k en x̄k avec un spin σ̄k et l’électron i en xi avec un spin σi pour tout
1 ≤ k ≤ M et tout 1 ≤ i ≤ N . Pour avoir une réalité physique, une fonction
Ψ (t, ·) doit vérifier à tout instant t les deux propriétés suivantes : être normée
pour la norme L2 , et respecter un principe d’indiscernabilité des particules
identiques qui implique selon les cas une symétrie ou une antisymétrie de Ψ
par rapport à ses variables. On note H l’espace fonctionnel correspondant.
L’évolution en temps du système est régie par l’équation de Schrödinger

i Ψ = H Ψ, (3.1)
∂t
dans laquelle l’opérateur


M
1 N
1 N  M
zk
H=− ∆x̄k − ∆xi − (3.2)
2 mk i=1
2 i=1 k=1
|x i − x̄k |
k=1
 1  zk zl
+ +
|xi − xj | |x̄k − x̄l |
1≤i<j≤N 1≤k<l≤M
3.1 Modélisation d’un système moléculaire 91

désigne le hamiltonien du système. On a noté mk la masse du noyau k et zk


sa charge. De plus, on a adopté un système d’unités tel que
1
me = 1, e = 1, h̄ = 1, =1
4π0
où me désigne la masse de l’électron, e la charge élémentaire, h̄ la constante
de Planck réduite h̄ = h/2π, et 0 la constante diélectrique du vide. Le Ha-
miltonien ci-dessus s’obtient à partir de celui de la mécanique classique

M
px̄2 k N
p2xi  
N M
zk
Hcl := + −
2mk i=1 2 i=1 k=1
|xi − x̄k |
k=1
 1  zk zl
+ +
|xi − xj | |x̄k − x̄l |
1≤i<j≤N 1≤k<l≤M

par les règles de correspondance x → x et px → −i∇x . On voit ainsi que


dans l’expression (3.2) de l’hamiltonien quantique H, les deux premiers termes
correspondent à l’énergie cinétique des noyaux et des électrons respectivement
et les trois derniers à l’énergie d’interaction électrostatique entre électrons et
noyaux, entre électrons et entre noyaux respectivement.
De même qu’on peut regarder l’évolution en temps du système moléculaire
via (3.1), on peut rechercher son état fondamental en cherchant à résoudre

inf {Ψ, HΨ , Ψ ∈ H, Ψ = 1} (3.3)


Un tel état Ψ est alors solution de l’équation de Schrödinger stationnaire

H Ψ = E Ψ, (3.4)

E désignant l’énergie de Ψ .
La recherche du fondamental d’un système moléculaire isolé est le problème
central de la chimie quantique. C’est notamment un problème clé car il consti-
tue souvent une étape préliminaire incontournable à la détermination des pro-
priétés physico-chimiques du système.
Il est difficile d’attaquer directement le problème dépendant du temps (3.1)
ou le problème stationnaire (3.3) (éventuellement sous sa forme (3.4)), et ce
pour deux raisons
[i] l’espace des fonctions d’onde est trop gros,
[ii] le Hamiltonien couple les différentes variables entre elles,
les deux points augurant d’une impossible discrétisation du problème. Nous al-
lons donc faire une série d’approximations, qui vont rendre ces deux problèmes
traitables numériquement.
Remarque 3.1. D’un point de vue théorique, ces deux problèmes sont trai-
tables. C’est d’un point de vue pratique pour la simulation qu’ils sont insur-
montables.
92 3 Simulation moléculaire

3.1.2 Découplage des échelles pour le problème statique

Commençons par diminuer la taille de l’espace des fonctions d’ondes (difficulté


[i] ci-dessus) par ce qui est connu sous le nom d’approximation de Born-Oppen-
heimer. Cette approximation repose sur le fait que les noyaux sont beaucoup
plus lourds que les électrons (de trois à cinq ordres de grandeur selon les
noyaux : en unités atomiques, la masse d’un électron vaut 1, celle d’un proton
1836, celle d’un neutron 1839).
Cette disproportion des masses rend légitime le fait de supposer qu’on peut
factoriser la fonction d’onde Ψ en le produit d’une fonction d’onde nucléaire
ψn (élément d’un espace Hn , que nous ne préciserons pas) et d’une fonction
d’onde électronique ψe (élément d’un espace He ). On peut donc approcher le
problème (3.3) par

inf {Ψ, HΨ , Ψ = ψ n ψe , ψn ∈ Hn , ψn = 1, ψe ∈ He , ψe = 1} .

On voit alors facilement que ce problème se récrit sous la forme


M 
 1  
2 2
inf |∇x̄k ψn | + W |ψn | , ψn ∈ Hn , ψn = 1
2mk IR3M IR3M
k=1
(3.5)
avec

N
He = L2 (IR3 × {|+, |−} , C
| ) (3.6)
i=1
 z k zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) + (3.7)
|x̄k − x̄l |
1≤k<l≤M

U (x̄1 , · · · , x̄M ) = inf {ψe , He (x̄1 , · · · , x̄M ) · ψe , ψe ∈ He , ψe = 1} (3.8)



N
1 
N 
M
zk  1
He (x̄1 , · · · , x̄M ) = − ∆xi − + .
2 |xi − x̄k | |xi − xj |
i=1 i=1 k=1 1≤i<j≤N

L’hamiltonien He (x̄1 , · · · , x̄M ), appelé hamiltonien électronique, n’agit que sur


les variables électroniques. Les variables de position x̄k des noyaux y font
figures de simples paramètres. Le potentiel U peut être interprété comme un
potentiel effectif créé par les électrons et subi par les noyaux.
En faisant alors tendre les masses mk vers l’infini, on peut montrer que, à
la limite, l’infimum du problème (3.5) vaut
 
inf W (x̄1 , · · · , x̄M ), (x̄1 , · · · , x̄M ) ∈ IR3M . (3.9)

La résolution du problème (3.3) est ainsi ramenée à la minimisation de


W , fonction de IR3M à valeurs dans IR, elle-même définie par (3.7)-(3.8)
en tout point de IR3M comme l’infimum d’un problème variationnel sur
{ψe ∈ He , ψe = 1}. Calculer W en un point (x̄1 , · · · , x̄M ) ∈ IR3 , c’est-à-
dire en pratique résoudre (3.8), c’est résoudre le problème électronique pour
3.1 Modélisation d’un système moléculaire 93

une configuration nucléaire donnée. Quant à la résolution du problème (3.9),


dit problème d’optimisation de géométrie, elle ne sera pas abordée ici (mais
est aussi en un certain sens la résolution d’un problème multi-échelle).
En tout cas, grâce aux approximations faites ci-dessus, on a découplé les
deux échelles du problème présentes dans (3.3) et ramené ce problème d’une
énorme minimisation à une paire de problèmes de minimisation imbriqués l’un
dans l’autre.

Remarque 3.2. La logique est exactement la même qu’au Chapitre 2 : en


chaque “point” correspondant à l’échelle la plus grande, c’est-à-dire ici en
chaque configuration de noyaux (x̄1 , · · · , x̄M ), on résout un problème corres-
pondant à l’échelle la plus petite, ici le problème de minimisation électronique
(3.8).

La même stratégie de découplage en fonction des échelles physiques va


maintenant être appliquée au problème dépendant du temps. Cette fois, bien
sûr, il s’agira d’échelles de temps, et non plus d’échelles d’espace (ou de masse).

3.1.3 Découplage des échelles pour le problème dynamique

Les réactions chimiques sont des phénomènes fondamentalement dynamiques.


Pour les étudier, il est nécessaire de simuler l’évolution du système, autrement
dit de résoudre l’équation de Schrödinger dépendant du temps.
Comme dans le cadre stationnaire, on ne peut attaquer directement la
résolution numérique de l’équation de Schrödinger (3.1) que pour des systèmes
très simples sans grand intérêt pour les applications. Il faut donc avoir recours
à des approximations de cette équation. On peut distinguer deux grandes
classes d’approximation, qui sont les approximations non adiabatiques et les
approximations adiabatiques.

Une approximation non adiabatique

Dans l’esprit de ce qui a été fait pour obtenir l’approximation de Born-


Oppenheimer, on peut considérer que les noyaux sont des particules classiques
ponctuelles tout en conservant la dynamique quantique des électrons, ce qui
fait que l’état du système moléculaire à l’instant t est décrit par
 
dx̄k
x̄k (t), (t) , ψe (t) ∈ IR6M × He ,
dt 1≤k≤M

dx̄k
où x̄k (t) et (t) désignent respectivement la position et la vitesse du noyau
dt
k et ψe (t) la fonction d’onde électronique à l’instant t. Le mouvement des
électrons est décrit par l’équation de Schrödinger électronique
94 3 Simulation moléculaire

∂ψe
i = He (t) ψe , (3.10)
∂t
où l’hamiltonien électronique s’écrit


N
1 
N 
M
zk  1
He (t) = − ∆xi − + .
2 |xi − x̄k (t)| |xi − xj |
i=1 i=1 k=1 1≤i<j≤N

La dynamique des noyaux est décrite par l’équation de Newton

d2 x̄k
mk (t) = −∇x̄k W (t; x̄1 (t), · · · x̄M (t)) (3.11)
dt2
avec
M 
 
zk ρ(t, x) zk zl
W (t; x̄1 , · · · , x̄M ) = − dx + . (3.12)
IR3 |x − x̄k | |x̄k − x̄l |
k=1 1≤k<l≤M

où
 
ρ(t, x) = N |ψe |2 (t; x, σ1 ; x2 , σ2 ; · · · ; xN , σN ) dx2 · · · dxN
σ1 ,σ2 ,···,σN IR3(N −1)

désigne la densité électronique à l’instant t. Chaque noyau se déplace donc


selon une dynamique newtonienne dans le potentiel créé par les autres noyaux
et par la distribution électronique moyenne ρ.

Fig. 3.1. Dynamique non adiabatique : les noyaux sont gérés par la dynamique
newtonienne, et les états électroniques évoluent par l’équation de Schrödinger.
3.1 Modélisation d’un système moléculaire 95

Cette méthode d’approximation est dite non adiabatique. Le système glo-


bal lui correspondant est

⎪ d2 x̄k

⎪ m (t) = −∇x̄k W (t; x̄1 (t), · · · x̄M (t))


k
dt2

⎪ M   

⎪ zk N

⎨ W (t; x̄1 , · · · , x̄M ) = − |ψe |2 dx2 ...dxN dx
3 |x − x̄ | 3(N −1)
k=1 IR σ1 ,...,σN IR
k
⎪  z k zl

⎪ +

⎪ |x̄
⎪ k − x̄l |

⎪ 1≤k<l≤M

⎪ ∂ψe
⎩ i = He (t) ψe ,
∂t
(3.13)
Nous verrons ci-dessous que ce système n’est en pratique simulé que sous une
forme simplifiée (par exemple, sous la forme du système (3.30).

L’approximation adiabatique

L’approximation adiabatique est la version dépendante du temps de l’ap-


proximation de Born-Oppenheimer introduite à la section ci-dessus dans un
contexte stationnaire.
D’un point de vue pratique, l’approximation adiabatique consiste à consi-
dérer que les électrons s’adaptent instantanément aux positions des noyaux,
car l’échelle de temps de la dynamique des électrons par l’équation de
Schrödinger (3.10) est beaucoup plus petite que l’échelle de temps de la dyna-
mique des noyaux par (3.11). Ceci fait que tout se passe comme si les noyaux
évoluaient dans le potentiel moyen
 zk zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) + . (3.14)
|x̄k − x̄l |
1≤k<l≤M

En règle générale, on suppose que les électrons sont dans leur état fonda-
mental et U est alors donné par (3.8).

Remarque 3.3. On peut cependant aussi effectuer une dynamique adiabatique


sur chacune des surfaces de Born-Oppenheimer, la k-ième surface de Born-
Oppenheimer étant définie par la fonction

(x̄1 , · · · , x̄M ) → Uk (x̄1 , · · · , x̄M ),

où Uk (x̄1 , · · · , x̄M ) désigne l’énergie du k-ième état excité électronique (le
(k + 1)-ième état propre de l’hamiltonien He ) pour les positions x̄1 , · · · , x̄M
des noyaux. Tout ce qui sera dit plus bas peut s’adapter à un tel cas.

Pour calculer le mouvement des noyaux dans le potentiel moyen W , le plus


fréquent est d’utiliser la dynamique newtonienne
96 3 Simulation moléculaire

d2 x̄k
mk (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t)). (3.15)
dt2
L’approximation adiabatique est valable dans beaucoup de situations et en
particulier quand on cherche à calculer des propriétés physiques comme par
exemple les diagrammes de phase qui indique l’état physique (liquide, solide,
gazeux) d’un composé en fonction des conditions externes (température,...),
ainsi que pour la simulation de la plupart des réactions chimiques. En re-
vanche, il existe des situations importantes (comme des collisions) où plusieurs
états électroniques du système jouent simultanément un rôle déterminant et
où l’approximation adiabatique est mise en défaut.

Fig. 3.2. Dynamique adiabatique : les noyaux sont gérés par la dynamique newto-
nienne, et pour chaque nouvelle position, on calcule l’état électronique.

Le système global pour une simulation adiabatique s’écrit donc en regrou-


pant (3.8), (3.14) et (3.15)


⎪ d2 x̄k

⎪ mk 2 (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t))
⎨ dt  zk zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) +

⎪ |x̄k − x̄l |

⎪ 1≤k<l≤M
⎩ U (x̄1 , · · · , x̄M ) = inf {ψe , He (x̄1 , · · · , x̄M ) · ψe , ψe ∈ He , ψe = 1}
(3.16)
Nous verrons ci-dessous (voir le système (3.29)) qu’il nous faut en pratique
encore le simplifier en adoptant une approximation de U (x̄1 , · · · , x̄M ).
Remarque 3.4. Il faut bien comprendre que la disproportion des échelles de
temps est telle ici que c’est un avantage pour réaliser le découplage.
3.1 Modélisation d’un système moléculaire 97

Le coût numérique de la méthode adiabatique réside principalement dans


la résolution à chaque pas de temps du problème de minimisation électronique.
On s’attend donc (et cela semble paradoxal à première vue puisque c’est le
problème comportant le plus de simplifications) à ce que le problème adiaba-
tique soit d’un certain point de vue plus dur à résoudre que le problème non
adiabatique. En effet, il est plus facile d’avancer en temps, que de minimiser
une fonction à chaque pas de temps, car dans ce second cas, on est d’une cer-
taine manière “condamné” à ce que l’algorithme de minimisation ait convergé
avant de pouvoir passer au pas de temps suivant. Ceci a souvent en pratique
l’effet de conduire à une réduction du pas de temps de la dynamique new-
tonienne, pour que chaque minimisation ne soit qu’une petite perturbation
de la minimisation au pas de temps précédent. En fait, cette impression doit
être modulée par le fait que la simulation non adiabatique n’est pas simple
non plus, pour des questions subtiles de stabilité et de précision sur les longs
temps d’intégration (ne pas se méprendre sur le mot “long” qui veut dire ici
quelques infimes fractions (10−12 ) de seconde). Elle est en tout cas une mo-
tivation pour développer aussi des approximations intermédiaires entre ces
deux approches. L’une d’elle est présentée dans la remarque suivante.

Remarque 3.5. L’approximation de Car-Parrinello consiste à remplacer le pro-


blème de minimisation à chaque pas de temps par une dynamique fictive (non
physique) du type suivant


⎪ d2 x̄k
⎨ mk dt2 (t) = −∇x̄k E({x̄k (t)} , Ψe (t))

(3.17)

⎪ 2

⎩µ ∂ ψ e
(t) = F (ψe ).
∂t2
Le coefficient µ figure une masse fictive, qui doit être judicieusement ajustée
dans les simulations, de sorte que la deuxième ligne de (3.17) approche celle
de (3.16).
La mise en oeuvre de cette approximation autorise un pas de temps plus
grand que pour l’approximation non adiabatique (3.13), ce qui la rend plus
avantageuse. Par ailleurs, comme aucune minimisation n’est requise au pas de
temps courant, et bien que ce pas de temps doive être significativement plus
petit que celui de la simulation adiabatique, la méthode de Car-Parrinello
peut globalement s’avérer plus payante que la simulation adiabatique (3.16).
L’accroissement des possibilités informatiques fait que cette méthode, qui
permet de simuler des situations inaccessibles aux autres méthodes, tend à
être supplantée dès que possible, par les approches adiabatiques et non adia-
batiques, mieux fondées physiquement, plus précises, et nécessitant moins de
“réglages” (cf. la masse fictive µ).
98 3 Simulation moléculaire

3.1.4 Approximation du problème électronique

Dans cette section, nous nous intéressons à la résolution du problème électro-


nique (3.8) pour une configuration donnée des noyaux, qu’on récrit pour sim-
plifier les notations

U = inf {ψe , He ψe , ψe ∈ He , ψe = 1} (3.18)

L’espace variationnel choisi est He donné par (3.6), où par souci de simplicité
on oublie désormais la variable de spin (ceci ne change quasiment rien à la
suite, à part des détails techniques)


N
He = L2 (IR3 , C
| ). (3.19)
i=1

Le Hamiltonien est

N
1 
N  1
He = − ∆xi + V (xi ) +
2 |xi − xj |
i=1 i=1 1≤i<j≤N


M
zk
V (x) = −
|x − x̄k |
k=1
3
les x̄k étant ici des paramètres de IR fixés. Il s’agit de bien comprendre que les
x̄k sont en fait typiquement une position de noyaux au cours d’une dynamique
newtonienne, ou une itération d’un algorithme d’optimisation de géométrie.
Ce que nous regardons ici est donc une “sous-boucle” d’un algorithme.
En raison de la taille de l’ensemble des fonctions d’onde admissibles, on ne
peut encore pas attaquer directement la résolution numérique de ce problème
de minimisation pour des molécules intéressantes (on peut seulement le faire
pour des molécules ridiculement petites). En effet, le lecteur sait que réaliser
une approximation de dimension finie d’un espace de fonctions comme L2 (IR3 )
n’est déjà pas simple (penser aux méthodes d’éléments finis, qui sont beaucoup
plus dures à mettre en oeuvre en 3D qu’en 2D). Il peut alors s’imaginer la
tâche insurmontable en pratique de tenter d’approcher un espace comme H e
(voir (3.6)) qui est en fait un sous-ensemble de L2 (IR3N ) (aux variables de
spin près), pour un entier N de l’ordre de 100.
Il va donc nous falloir encore simplifier le problème.
La méthode de Hartree-Fock est une approximation variationnelle du
problème électronique (3.18) consistant à restreindre l’ensemble de minimi-
sation
{ψe ∈ He , ψe = 1}
aux seules fonctions d’onde ψe qui s’écrivent comme un déterminant de Slater
3.1 Modélisation d’un système moléculaire 99

1
ψe = √ det(φi (xj )) (3.20)
N!
de N fonctions d’onde monoélectroniques orthonormées φi appelées orbitales
moléculaires, en se basant sur l’idée qu’un prototype d’une fonction anti-
symétrique de N variables est un produit antisymétrisé de fonctions d’une
variable. On note

WN = {Φ = {φi }1≤i≤N , φi ∈ H 1 (IR3 , C


| ),


(φi , φj ) = φi (x)∗ φj (x) dx = δij , 1 ≤ i, j ≤ N } (3.21)
IR3

l’ensemble des configurations de N orbitales moléculaires. Par souci de sim-


plicité, nous avons omis, et nous omettons désormais, les variables de spin.
En désignant par SN l’ensemble des déterminants de Slater

1
SN := ψe ∈ He / ∃Φ = {φi }1≤i≤N ∈ WN , ψe = √ det(φi (xj )) ,
N!
le problème de Hartree-Fock s’écrit

inf {ψe , He ψe , ψe ∈ SN } .

Soit Φ = {φi }1≤i≤N ∈ WN et ψe ∈ SN le déterminant de Slater issu de Φ.


En notant :

N
τΦ (x; x ) = φi (x) φi (x )∗ , (3.22)
i=1


N
ρΦ (x) := ρψe (x) = |φi (x)|2 , (3.23)
i=1

on obtient après un calcul simple l’expression de ψe , He ψe  en fonction des φi :

E HF (Φ) = ψe , He ψe 
N 
1
= |∇φi |2
i=1
2 IR 3

  
1 ρΦ (x) ρΦ (x )
+ ρΦ V + dx dx
IR3 2 IR3 IR3 |x − x |
 
1 |τΦ (x; x )|2
− dx dx . (3.24)
2 IR3 IR3 |x − x |

Exercice 3.6. En utilisant les propriétés algébriques d’un déterminant, établir


la formule (3.24).
100 3 Simulation moléculaire

Dans le membre de droite de cette expression, le premier terme représente


l’énergie cinétique de la fonction d’onde et le deuxième terme l’interaction
électrostatique entre noyaux et électrons. La répulsion interélectronique se
manifeste dans le troisième terme, dit de répulsion coulombienne, qui peut
s’interpréter comme l’énergie coulombienne classique de la densité électronique
moyenne ρΦ , ainsi que dans le quatrième terme, dit terme d’échange, qui est
d’origine quantique : il résulte de l’antisymétrie de la fonction d’onde. On peut
donc écrire le problème de Hartree-Fock sous la forme
 
inf E HF (Φ), Φ ∈ WN , (3.25)
où E HF (Φ) est donné par (3.24) et WN par (3.21). Notons qu’en simplifiant
l’ensemble de minimisation, on a compliqué la fonctionnelle d’énergie à mini-
miser, puisque celle-ci a perdu son caractère quadratique.
Une des conséquences est que l’équation d’optimalité du problème de mini-
misation (3.25) n’est plus une équation linéaire comme l’équation de Schrödin-
ger mais une équation non linéaire, ou plus exactement un système de N
équations non linéaires couplées
N  N
1 M
zk  1  1
2 ∗
− ∆φj + φj + |φi |  φj − φi φj ·  φi = λ j φj ,
2 | · −x̄k | i=1
|x| i=1
|x|
k=1
(3.26)
pour des multiplicateurs de Lagrange λj qui s’interprètent en fait comme des
énergies d’ionisation, et qui sont eux aussi à déterminer. Les équations (3.26)
sont donc un système d’équations non linéaires aux valeurs propres.
Exercice 3.7. Etablir (3.26).
Remarque 3.8. Il nous faut mentionner que l’approximation de Hartree-Fock
n’est pas la seule possible pour approcher le problème de minimisation de
départ et le rendre traitable numériquement. On peut aussi employer l’ap-
proximation dite de Kohn-Sham, qui consiste d’une certaine façon à renoncer
à connaı̂tre la fonction d’onde de chaque électron et à se concentrer sur la
connaissance de leur densité globale ρΦ (celle de (3.23)) issue de leur fonction
d’onde complète Φ. L’énergie obtenue admet en fait une forme assez proche
de celle de Hartree-Fock, bien que les φi y figurant ne signifient pas physi-
quement la même chose. Dans le modèle Kohn-Sham, les φi sont les fonctions
d’onde monoélectroniques d’un système à électrons sans interactions différent
du système réel mais lui correspondant (en un certain sens). Il est sage pour
nous de ne les voir que comme une décomposition mathématique particulière
de la densité ρΦ . L’énergie s’écrit :
N    
 M
zk
2
E ({x̄k } , {φi }) =
KS
|∇φi | − ρΦ (x) dx
i=1 IR
3 IR3 |x − x̄k |
k=1

1 ρΦ (x) ρΦ (x )
+ dx dx + Exc (ρΦ ),
2 IR3 |x − x |
3.1 Modélisation d’un système moléculaire 101
N
où ρΦ = i=1 |φi |2 et Exc (ρΦ ) est une certaine fonctionnelle dépendant du
système étudié.

L’approximation de Hartree-Fock peut aussi s’adapter pour fournir une


approximation de l’équation de Schrödinger dépendante du temps (3.10).
Elle devient alors l’approximation Hartree-Fock dépendante du temps qui
consiste (pour un modèle sans spin pour simplifier) à forcer la fonction d’onde
électronique ψe (t) à évoluer sur la variété des déterminants de Slater
 
1
SN = ψe = √ det(φi (xj )), φi ∈ H 1 (IR3 , C | ), φi · φ∗j = δij
N! IR3

La dynamique découlant de la stationnarité de l’action


 T
ψe (t), (i∂t − He (t)) · ψe (t) dt,
0
les équations du mouvement s’écrivent alors en fonction des orbitales φ i sous
la forme
∂φi
i = F(DΦ )φi (3.27)
∂t
où F(DΦ ) désigne l’opérateur de Fock défini comme dans le cadre stationnaire
par
N  N
1 M
zk  1  1
2 ∗
F(DΦ ) = − ∆+ + |φi |  − φj ·  φj . (3.28)
2 | · −x̄k | i=1
|x| j=1
|x|
k=1

Revenons maintenant à nos modèles dépendant du temps. On peut donc


regrouper ce qui précède pour les écrire, dans le cas adiabatique


⎪ d2 x̄k

⎪ mk 2 (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t))
⎨ dt  zk zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) + (3.29)

⎪ |x̄k − x̄l |

⎪ 1≤k<l≤M

U (x̄1 , · · · , x̄M ) = inf{E HF (Φ), Φ ∈ WN }
oùE HF (Φ) est donné par (3.24) et WN par (3.21), et dans le cas non adiaba-
tique


⎪ d2 x̄k

⎪ mk 2 (t) = −∇x̄k W (t; x̄1 (t), · · · x̄M (t))

⎪ dt

⎪ M 
 

⎪ zk ρ(t, x) zk zl

⎪ W (t; x̄ , · · · , x̄ ) = − dx +
⎨ 1 M
3 |x − x̄k | |x̄k − x̄l |
k=1 IR 1≤k<l≤M (3.30)

⎪ 
N

⎪ φ∗i φi

⎪ ρ(t, x) =



⎪ i

⎩ ∂φi
i = F(DΦ )φi
∂t
102 3 Simulation moléculaire

où F(DΦ ) est donné par (3.28).


Il va maintenant nous falloir attaquer la résolution numérique de tels
systèmes.

3.2 Simulation numérique

Pour résoudre numériquement les systèmes ci-dessus, il faut être capable


– pour le problème adiabatique, de savoir résoudre pour chaque posi-
tion de noyaux le problème de minimisation Hartree-Fock, et de savoir
discrétiser en temps l’équation de Newton,
– pour le problème non adiabatique, de savoir discrétiser en temps l’équa-
tion de Hartree-Fock dépendante du temps et encore de savoir discrétiser
en temps l’équation de Newton.
Commençons par la résolution du problème de minimisation Hartree-Fock,
puis nous verrons la dynamique newtonienne. Pour la résolution de l’équation
de Hartree-Fock dépendante du temps, nous renvoyons le lecteur à la biblio-
graphie.

3.2.1 Discrétisation du problème Hartree-Fock

Avant tout, nous allons récrire le problème Hartree-Fock sous une forme plus
compacte, celle fournie par le formalisme des matrices densités.

Le formalisme matrices-densités

Il est possible d’écrire l’énergie électronique d’un déterminant de Slater à


partir du seul opérateur densité :


N
D(x, y) = φ∗i (x)φi (y). (3.31)
i=1

On a ainsi
ψe , He ψe  = E HF (Φ) = E HF (DΦ ),
avec
1
E HF (D) := Tr(hD) + Tr(G(D) · D)
2
où
1
h := − ∆ + V
2
désigne le hamiltonien de coeur du système moléculaire et où pour tout φ ∈
H 1 (IR3 , C
| ) et tout x ∈ IR3
3.2 Simulation numérique 103

1 τΦ (x; x )
(G(D) · φ)(x) := ρΦ  (x) φ(x) − φ(x ) dx ,
|y| IR3 |x − y|

en utilisant τΦ et ρΦ définis par (3.22) et (3.23).


En outre, il est facile de caractériser l’ensemble des opérateurs densités
d’ordre 1 issus d’un déterminant de Slater d’énergie finie : ce sont les pro-
jecteurs orthogonaux de rang N sur L2 (IR3 , C | ) à image dans H 1 (IR3 , C
| ). Le

problème de Hartree-Fock (3.25) est donc équivalent au problème


 
inf E HF (D), D/ D 2 = D = D ∗ , Tr(D) = N , (3.32)

Les équations de Hartree-Fock se récrivent alors

F(D) · ψi = −λi ψi (3.33)

où
F(D) := h + G(D) (3.34)
N
est l’opérateur de Fock associé à l’opérateur densité D = i=1 (φi , ·)φi , ce qui
donne de façon plus explicite

1 1
(F(D) · φ)(x) = − ∆φ(x) + V (x)φ(x) + ρD  (x) φ(x)
2 |y|

τD (x; x )
− φ(x ) dx , (3.35)
IR3 |x − y|

en notant ρD et τD au lieu de ρΦ et τΦ .

L’espace de discrétisation

Pour approcher le problème de minimisation de Hartree-Fock (3.25), la


méthode la plus efficace consiste à utiliser une approximation de Galerkin.
On approche le problème (3.25) par
 
inf E HF (Φ) , Φ ∈ W̃N (V) (3.36)

avec
 
W̃N (V) = Φ = {φi } , φi ∈ V, φi φ∗j = δij 1 ≤ i, j ≤ N ,
IR3

où V est un sous-espace de l’espace H 1 (IR3 , C) de dimension finie n.


Soit {χk }1≤k≤n une base de V et S ∈ M(n, n) la matrice hermitienne des

produits scalaires χ∗i χj . Le problème de minimisation (3.36) peut s’écrire
IR3
sous la forme
104 3 Simulation moléculaire
 
inf E HF (C) , C ∈ M(n, N ) , C ∗ SC = IN

soit encore, dans le formalisme des matrices densités,


 
inf E HF (D), D ∈ M(n, n), DSD = D ∗ = D, Tr(D) = N ,

avec


⎪ E HF (C) = Tr(hD) + 21 Tr(G(D)D) = h : D + 21 D : A : D

⎪ ∗

⎪ D = CC 


⎨ hij =
1 ∗
∇χi · ∇χj + V χ∗i χj
2 IR3 IR3



⎪ G(D) =A :D  avec Aijkl = (ij|kl) − (ik|jl)

⎪ ∗
χk (x )∗ χl (x ))

⎪ χ (x)χ (x)
dx dx
i j
⎩ (ij|kl) =
IR3 IR3 |x − x |

C, D, h et A désignant respectivement les expressions dans la base {χk }1≤k≤n


de la matrice des coefficients des orbitales moléculaires occupées {φi }1≤i≤N
n
(φi = j=1 Cji χj , pour tout 1 ≤ i ≤ N ), de la matrice densité, de la matrice
du hamiltonien de coeur − 12 ∆ + V et du tenseur des intégrales biélectroniques.
Les équations d’Euler-Lagrange relatives au problème de minimisation (3.36)
s’écrivent usuellement (après diagonalisation de la matrice des multiplicateurs
de Lagrange)
F (D)C = SCE
avec
D = CC ∗ , F (D) = h + G(D) = h + A : D,
E désignant une matrice diagonale. En pratique, on choisit en général pour V
l’espace engendré par n orbitales atomiques (OA), une OA étant une fonction
d’onde monoélectronique localisée autour d’un noyau donné. On parle alors
d’approximation LCAO (linear combination of atomic orbitals).
Il est tentant de prendre comme OA des orbitales de Slater, ie des fonctions
de la forme
ζs (r, θ, φ) = P (r)Ylm (θ, φ)e−αr (3.37)
où P est un polynôme, α > 0 et Ylm une harmonique sphérique, puisque les
fonctions propres du seul système atomique calculable analytiquement, à sa-
voir l’atome hydrogénoı̈de, sont effectivement de la forme (3.37). L’intérêt de
ces fonctions de base est qu’elles représentent bien la décroissance exponen-
tielle à l’infini de la densité électronique et que peu d’entre elles suffisent à
bien représenter les singularités des orbitales monoélectroniques au voisinage
des noyaux. Le premier point se comprend bien car, loin de tous les noyaux,
tout se passe comme si toute la charge était concentrée en un seul atome (c’est
le théorème de Gauss de l’électrostatique, pour le cas de la moyenne sphérique
au moins), et la densité électronique d’un atome décroı̂t effectivement expo-
nentiellement vite à l’infini. Le second point se comprend encore mieux, car
3.2 Simulation numérique 105

au voisinage d’un noyau donné, tout se passe comme si un électron ne voyait


que ce noyau particulier, et pas les autres. Il est donc naturel que sa fonc-
tion d’onde soit proche d’une fonction d’onde de l’atome hydrogénoı̈de. Cette
base est donc de qualité puisque peu d’éléments suffisent à bien discrétiser la
solution. C’est en effet de cette manière qu’on juge de la qualité d’une base
de fonctions en analyse numérique, et le plus grand nombre d’éléments de
base est souvent “consommé” pour la représentation des singularités, car les
parties régulières de la solution ne “coûtent” pas grand chose.
Cependant, le plus souvent, on prend comme OA, non pas des orbitales de
Slater, mais des “gaussiennes contractées” soit en d’autres termes des combi-
naisons linéaires finies de gaussiennes-polynômes :


d
2
k ηk γk −δk |x|
χi (x) = ck xα
1 x2 x3 e
k=1

où les αk , ηk , γk sont des entiers positifs et les δk des réels positifs, l’en-
semble étant optimisé de sorte d’approcher au mieux des orbitales de Slater.
L’intérêt de telles fonctions est double. D’abord, parce qu’elles approchent les
orbitales de Slater, elles représentent avec précision les singularités des orbi-
tales monoélectroniques. Ensuite, parce que ce sont des gaussiennes, elles se
prêtent facilement au calcul des n4 intégrales biélectroniques
 
χi (x)χj (x)∗ χk (x )∗ χl (x )
(ij|kl) = dx dx , (3.38)
IR3 IR3 |x − x |

qui est l’étape limitante de la méthode Hartree-Fock en termes de temps de


calcul. Plus précisément, on montre que les quantités (3.38) qui s’expriment
a priori par des intégrales sur IR6 peuvent en fait se ramener à des intégrales
sur IR du type  1
2
F (w) = e−w s ds
0
lorsque les χi sont des gaussiennes et on traite le cas général des gaussiennes-
polynômes en s’appuyant sur des relations de récurrence, ce qui réduit
considérablement les temps de calcul.

Remarque 3.9. Le fait que la base d’orbitales de Slater soit une base efficace
(et donc avec elle la base de gaussiennes contractées, lesquelles ne sont qu’un
habillage numérique supplémentaire pour ensuite pouvoir rapidement calculer
les intégrales biélectroniques) est à relier à l’idée suivante. Pour un problème
donné, arbitraire, on ne peut pas espérer qu’une base de fonctions passe-
partout (penser à des éléments finis par exemple) donne le meilleur résultat.
La généricité est contradictoire avec l’optimalité. Au contraire, il faut pour
approcher l’optimalité, choisir une base de fonctions qui ont un rapport avec
le problème donné lui-même. Idéalement, la meilleure base est celle constituée
d’un seul élement, la solution ! Cette idée est celle de la synthèse modale, ou
106 3 Simulation moléculaire

au-delà celle des bases réduites. On construit dans un premier temps une base
de fonctions adaptées au problème (par exemple les solutions d’un problème
simplifié, ici les solutions du problème de l’atome hydrogénoı̈de), et dans un
second temps on développe sur cette base. Cette méthodologie s’applique à
beaucoup de champs du calcul scientifique.

Algorithmes de résolution numérique

Pour résoudre numériquement un problème de Hartree-Fock on peut ou


bien minimiser directement la fonctionnelle d’énergie, ou bien résoudre les
équations d’Euler-Lagrange associées à ce problème de minimisation, c’est-à-
dire les équations de Hartree-Fock.
Le plus souvent, on a intérêt pour optimiser le temps de calcul, à résoudre
les équations d’Euler-Lagrange plutôt qu’à minimiser directement la fonction-
nelle d’énergie. Pour cela, il faut utiliser une procédure itérative en raison de la
non-linéarité de ces problèmes. On appelle une telle procédure un algorithme
SCF (self-consistent field). La difficulté vient alors du fait que rien s’assure
alors a priori la décroissance de l’énergie et que des difficultés de convergence
peuvent apparaı̂tre.
Remarque 3.10. Noter que minimiser directement la fonctionnelle d’énergie
et résoudre les équations d’Euler-Lagrange ne sont pas théoriquement deux
stratégies équivalentes puisque nous travaillons ici sur une fonctionnelle d’éner-
gie non convexe. Du point de vue pratique, minimiser directement, c’est
prendre le risque de rester “bloqué” dans un minimum local, non global (pour
une fonctionnelle du type Hartree-Fock, il y a des milliers de tels points).
Résoudre les équations d’Euler-Lagrange, c’est aussi prendre le risque de
déterminer un point critique qui n’est pas minimum global. Beaucoup pour-
rait donc être dit, du point de vue pratique, sur la comparaison des deux
stratégies. On se reportera à la bibliographie. Contentons-nous de dire, mais
c’est une évidence, que la meilleure stratégie consiste à combiner les deux
stratégies.

Les algorithmes SCF de résolution des equations de Hartree-Fock se


décrivent bien dans le formalisme des opérateurs densités. Ils consistent à
résoudre les équations de Hartree-Fock par une technique itérative de point
fixe de forme générale
1 2
(SCF ) (Dk )0≤k≤n −→ Fn −→ Dn+1 .

L’étape 1 consiste à construire un pseudo-opérateur de Fock Fn à partir


des opérateurs densités (Dk )0≤k≤n calculés lors des itérations précédentes et
l’étape 2 à définir le nouvel opérateur densité Dn+1 à partir de Fn .
L’algorithme de Roothaan est l’algorithme le plus naturel quand on écrit
les équations de Hartree-Fock sous la forme
3.2 Simulation numérique 107

F(DΦ )φi = −i φi , 1 ≤ i ≤ N.

Il est défini par Fn = F(Dn ) et par le principe aufbau qui consiste à
prendre pour Dn+1 un minimiseur du problème
 
inf Tr(Fn D), D ∈ PN . (3.39)

En termes d’orbitales moléculaires, le principe aufbau consiste à prendre


Dn+1 = DΦn+1 , où Φn+1 est une configuration Hartree-Fock obtenue en choi-
 
sissant n’importe quel ensemble d’orbitales moléculaires φn+1 i correspon-
dant aux N plus petites valeurs propres (en tenant compte des multiplicités
s’il y a lieu) −n+1
i de Fn , c’est-à-dire en peuplant les N orbitales moléculaires
de plus basse énergie.
L’algorithme de Roothaan peut donc se résumer par le schéma
aufbau
Dn −→ Fn = F(Dn ) −→ Dn+1 . (3.40)

Tel quel, cet algorithme présente certains défauts techniques, qu’on sait
très bien corriger en amendant un peu la construction de l’algorithme ci-
dessus. Mais dans la mesure où ces algorithmes plus sophistiqués sont basés
sur le même type d’idées, nous n’en dirons pas plus ici et renvoyons à la
bibliographie.
A ce stade, nous savons donc, au moins dans le principe, comment
discrétiser les équations de Hartree-Fock et les résoudre, de sorte d’obtenir
pour une configuration donnée de noyaux le potentiel U à insérer dans (3.29).
Remarque 3.11. En fait, le lecteur attentif aura remarqué que ce n’est pas
réellement de U dont nous avons besoin mais de ∇xi U pour pouvoir calculer
∇xi W et l’insérer au membre de droite de l’équation de Newton. Il se trouve
que le calcul de ce gradient peut être fait très rapidement quand on connaı̂t
U . Ceci fait l’objet de l’exercice suivant.
Exercice 3.12. - Dérivées analytiques
1 - Montrer que, une fois discrétisé, le potentiel W de la formule (3.29)
s’écrit sous la forme
1
W = U + Vnuc = h : D + D : A : D + Vnuc
2
 zk z l
où on identifiera les termes h, D, A, et où Vnuc = désigne
|x̄k − x̄l |
1≤k<l≤M
le potentiel de répulsion internucléaire. Soit alors λ un paramètre qui peut
être une coordonnée nucléaire. Montrer que
∂W ∂h 1 ∂A ∂D ∂Vnuc
= :D+ D: : D + F (D) : + .
∂λ ∂λ 2 ∂λ ∂λ ∂λ
2 - En utilisant l’équation de Hartree-Fock F (D)C = SCE, montrer
108 3 Simulation moléculaire

∂D ∂C ∂C ∗
F (D) : = Tr(E(C ∗ S + SC)).
∂λ ∂λ ∂λ
3 - Utiliser alors la condition d’orthonormalité C ∗ SC = IN , et en déduire
∂W ∂h 1 ∂A ∂S ∂Vnuc
= :D+ D: : D − Tr(CEC ∗ )+ (3.41)
∂λ ∂λ 2 ∂λ ∂λ ∂λ
4 - Expliquer alors pourquoi le calcul de ∇xi W est “gratuit”.

3.2.2 Discrétisation de la dynamique newtonienne

Nous allons voir ici un exemple de schéma numérique mis en oeuvre pour
résoudre les équations de la dynamique newtonienne (3.15), et tenter de
faire sentir au lecteur pourquoi ce schéma présente des propriétés spécifiques
intéressantes.
Que ce soit dans le cas adiabatique ou dans le cas non adiabatique, on
doit simuler la dynamique newtonienne. Nous examinons le cas adiabatique
sous la forme académique suivante (le cas non adiabatique nécessite quelques
adaptations mineures).
Il s’agit de déterminer l’évolution des positions de N particules dans IR3 .
Les positions des N particules sont notées x̄1 , x̄2 , ..., x̄N , et sont donc des
variables de IR3 . Les N particules interagissent par un potentiel d’interaction
V (x̄1 , ..., x̄N ), ce qui veut dire que −∇x̄1 V (x̄1 , ..., x̄N ) désigne la force exercée
par l’ensemble des N particules sur la particule numéro 1. Dans le cadre
de la mécanique newtonienne, les équations qui régissent le mouvement des
particules sont donc :
⎧ 2

⎪ d x̄i
⎪ 2
⎨ = −∇x̄i V (x̄1 , ..., x̄N ), 1 ≤ i ≤ N,
dt
x̄i (0) = x̄i0 , 1 ≤ i ≤ N, (3.42)



⎩ dx̄
(0) = x1i0 ,
i
1 ≤ i ≤ N,
dt
Pour simplifier l’expression de la loi de Newton, on a normalisé les masses des
particules.
En introduisant la notation q = (x̄1 , ..., x̄N ) ∈ IR3N , et

dx̄1 dx̄N
p=( , ..., ) ∈ IR3N
dt dt
et la fonction H(p, q), dite Hamiltonien du système, définie par

p2
H(p, q) = + V (q), (3.43)
2
on voit facilement que le système (3.42) se récrit sous la forme
3.2 Simulation numérique 109

⎪ dp ∂H

⎪ =− ,

⎪ dt ∂q
⎨ dq ∂H
= , (3.44)

⎪ dt ∂p

⎪ 0


p(0) = p ,
q(0) = q 0

Un système de la forme (3.44) ci-dessus est dit système hamiltonien.

Exercice 3.13. Montrer que le système (3.44) a une solution pour tout t > 0
sous des conditions raisonnables sur V qu’on précisera.

Il est facile de voir, à cause de la forme particulière de (3.44), que le


Hamiltonien H(p(t), q(t)) est une constante du mouvement, ce qui modélise
le fait que l’énergie d’un système isolé est conservée au cours du temps. En
effet,
d ∂H dp ∂H dq ∂H ∂H ∂H ∂H
H(p(t), q(t)) = + =− + = 0.
dt ∂p dt ∂p dt ∂p ∂q ∂q ∂p

Le système (3.44) est une forme particulière du système plus général


d’évolution 
dy
= f (y),
dt (3.45)
y(0) = y 0
où y(t) = (p(t), q(t)) et y 0 = (p0 , q 0 ). A la fois y(t) et y 0 sont dans IRM . Dans
notre cas, M = 6N . Pour simplifier, on suppose que la fonction f : IRM −→
IRM est de classe C 1 .
Pour un tel système, on introduit la notion de flot au temps t. Il s’agit de
la fonction Ψt de IRM dans lui-même, qui à y 0 associe la solution du système
(3.45) au temps t, autrement dit la position y au temps t de la particule qui
se trouvait au temps t = 0 en y = y 0 .
On prendra bien garde au fait que, dans notre cas où y(t) désigne le couple
vitesse/position (p(t), q(t)) solution de (3.44), le flot agit sur le couple vi-
tesse/position, qui est la variable “position” en termes du système (3.45) (voir
l’Exercice 3.14).
Pour le système (3.45), une conséquence directe de la définition de Ψt (y)
est que l’on a
d
Ψt (y 0 ) = f (Ψt (y 0 )),
dt
et donc que

Ψt (y 0 ) = y 0 + tf (y 0 ) + o t , quand t −→ 0. (3.46)

A partir de (3.46), on peut montrer une importante propriété de conser-


vation du volume. Soit D(0) une région de IRM . Désignons par D(t) la région
110 3 Simulation moléculaire

D(t) = Ψt (D(0)) = {y ∈ RM ; ∃y 0 ∈ D(0) y = Ψt (y 0 )}


qui est la “déformée” au temps t de D(0). Soit VΨ (t) le volume de D(t),
c’est-à-dire 
V(t)Ψ (t) = dy1 ... dyM ,
D(t)

intégrale dont on suppose qu’elle existe pour tout temps. On a alors la pro-
priété
VΨ (t) = VΨ (0) pour tout t > 0 si et seulement si f est à divergence nulle
(3.47)
En effet, on peut écrire, pour t petit,
   
 ∂Ψ (t)i  0
dy1 ... dyM =  0
det ∂y 0  dy1 ... dyM
D(t)=Ψ (t)(D(0)) D(0) j

 
= det (IdM + t ∇f + o(t)) dy10 ... dyM
0
D(0)

 
= (1 + t div f + o(t)) dy10 ... dyM
0
D(0)

en utilisant successivement un changement de variable dans l’intégrale, la


formule (3.46), et la propriété
det (IdM + tA) = 1 + t Trace A + o(t).
Il s’ensuit que
  
d 
dy1 ... dyM  = div f dy10 ... dyM
0
.
dt D(t) t=0 D(0)

Ce qui vient d’être fait en t = 0+ peut être fait de même en un quelconque


t > 0 (juste en appliquant les arguments ci-dessus au flot Ψs−t défini à partir
de l’instant t, pour s > t). Nous avons donc
 
d
| dy1 ... dyM = div f dy1 ... dyM ,
dt D(t) D(t)

et ceci montre l’assertion (3.47).


Nous revenons maintenant au système (3.44) et utilisons sa forme parti-
culière pour obtenir que son flot, noté Φt , conserve le volume dans l’espace des
phases. Cette propriété est liée à ce qu’on appelle le caractère symplectique du
système (3.44) (voir les commentaires plus loin). Elle fait l’objet de l’exercice
suivant.
Exercice 3.14. En particularisant le raisonnement fait ci-dessus sur (3.45),
au cas du système (3.44), montrer que le flot Φt de ce système préserve le
volume dans l’espace des phases, i.e. l’espace des couples vitesse/position
(p, q) ∈ IR3N × IR3N
3.2 Simulation numérique 111

Attaquons maintenant la résolution numérique. Pour intégrer numéri-


quement (3.44), un des schémas les plus populaires est le schéma suivant


⎨ pn+1 1 1
i = pni − ∆t ∇qi V (q1n + ∆t pn1 , ..., qN
n
+ ∆t pnN ),
2 2
⎪ q n+1 = q n + ∆t pn − 1 (∆t)2 ∇ V (q n + 1 ∆t pn , ..., q n + 1 ∆t pn )
⎩ i i i qi 1 1 N N
2 2 2
(3.48)
dqi
où on a noté pi = . On appelle ce schéma l’algorithme de Verlet. Pour
dt
simplifier, on ne considère dans la suite qu’une seule particule, c’est-à-dire
que l’indice i ne prend qu’une seule valeur, et on l’oublie donc désormais.
L’adaptation du raisonnement au cas de plusieurs particules est immédiate.
L’algorithme que l’on considère est donc :


⎨ pn+1 = pn − ∆t ∇x V (q n + 1 ∆t pn ),
2 (3.49)
⎪ 1 1
⎩ q n+1 = q n + ∆t pn − (∆t)2 ∇x V (q n + ∆t pn )
2 2

En s’inspirant de la définition de Φt , on définit le flot numérique associé


pour n ≥ 0 au schéma (3.49). Il s’agit de l’application Φn qui associe le
couple (pn+1 , q n+1 ) au couple (pn , q n ). Au vu de (3.49), cette application est
différentiable et un calcul simple montre que sa différentielle est l’application
linéaire de IR3 × IR3 dans lui-même de matrice (écrite ici sous forme de 4 blocs
de taille 3×3) :
⎛ ⎞
1 − 12 (∆t)2 ∇2 V (q n + 21 ∆t pn ) −(∆t) ∇2 V (q n + 21 ∆t pn )
Jn = ⎝ ⎠
∆t − 14 (∆t)3 ∇2 V (q n + 21 ∆t pn ) 1 − 21 (∆t)2 ∇2 V (q n + 21 ∆t pn )
(3.50)
Si l’on considère maintenant un domaine Dn de l’espace des phases pour
une particule IR3 × IR3 , on peut voir que ce domaine voit son volume exacte-
ment conservé par le flot numérique Φn . En effet,
  
dpn+1 dqn+1 = |det Jn | dpn dqn = dpn dqn ,
Dn+1 =Φn (Dn ) Dn Dn

puisque, par un calcul immédiat, det Jn = 1. Cette propriété de conservation


du volume au niveau discret fait le grand intérêt de ce schéma numérique,
puisqu’il reproduit les propriétés du niveau continu.
Les deux exercices suivant permettent d’appréhender l’impact qu’ont sur
la conservation de l’énergie deux propriétés bien différentes : d’une part la
conservation de l’énergie à un ordre approché, pas de temps par pas de temps,
et d’autre part la propriété de conservation exacte du volume dans l’espace
des phases. Ils seront ensuite complétés par les commentaires finaux de cette
section.
112 3 Simulation moléculaire

Exercice 3.15. Définir l’énergie au temps discret tn . Calculer à quel ordre en


∆t l’énergie est conservée par le schéma (3.48).

Exercice 3.16. Expliquer pourquoi un algorithme qui augmenterait sans


cesse le volume dans l’espace des phases serait très susceptible d’amener de
grosses erreurs sur la conservation de l’énergie à long terme au niveau discret.

Terminons cette section par quelques commentaires.


Le flot Φt d’un système hamiltonien est en fait toujours une application dite
symplectique, c’est-à-dire une application g possédant la propriété suivante

0 IdM 0 IdM
∀ (p, q) ∈ IR2M , (∇g(p, q))t (∇g(p, q)) =
−IdM 0 −IdM 0
(3.51)
Cette propriété entraı̂ne la propriété de conservation du volume dans l’espace
des phases
∀ t > 0, ∀A ⊂ IR2M , vol (Φt (A)) = vol (A) (3.52)
(cf. l’Exercice 3.14 ci-dessus), et d’ailleurs en dimension 1 (c’est-à-dire quand
M = 1) la symplecticité est équivalente à la propriété de conservation du
volume.
On dit alors d’un schéma numérique qu’il est symplectique si, lorsqu’il
est mis en oeuvre sur un système hamiltonien, le flot numérique Φn que le
schéma définit est une application symplectique (i.e. vérifie (3.51)). En uti-
lisant un tel schéma, on est donc assuré de préserver exactement le volume
dans l’espace des phases (cf. le raisonnement ci-dessus). On observe en fait
dans la pratique numérique qu’un tel schéma exhibe le plus souvent une pro-
priété supplémentaire, a priori miraculeuse (voir cependant l’Exercice 3.16) :
il conserve presque exactement l’énergie du système hamiltonien, et ce même
sur les longs temps d’intégration, ce qui est une propriété redoutablement
intéressante. Cette propriété peut s’expliquer par l’analyse numérique. En ef-
fet, on peut montrer que le flot numérique associé à un schéma numérique sym-
plectique est (quasiment) le flot exact d’un système hamiltonien qui approche
le système original. En réalité, si on veut être plus rigoureux, ce flot numérique
est exponentiellement proche du flot exact d’un système hamiltonien, l’expres-
1
sion exponentiellement proche signifiant proche à l’ordre exp(− ). En tant
∆t
que (quasiment) flot exact, ce flot conserve donc exactement l’énergie associée
à ce nouveau système hamiltonien, laquelle est proche de l’énergie du système
original. D’où la conservation approchée de l’énergie du système original, en
1
fait sur des intervalles de temps de longueur exp( ), propriété capitale pour
∆t
la pratique. Nous renvoyons le lecteur qui veut en savoir plus à la bibliographie
de la fin de ce chapitre.
3.2 Simulation numérique 113

A ce stade, il est aussi utile de commenter un peu plus sur l’utilisation


de ces techniques d’intégration. Un des objectifs premiers de la dynamique
moléculaire est le calcul de moyennes statistiques. Brièvement dit, l’objectif de
simuler une évolution du système sur un temps long n’est pas la connaissance
de l’état final de ce système quand son état initial est donné (cela peut bien
sûr être une motivation, mais ce n’est pas la seule). Il s’agit plutôt d’un
moyen d’échantillonner l’espace des phases. On se base en effet sur l’hypothèse
dite ergodique pour affirmer que la moyenne < A > d’un opérateur A (une
observable au sens de la mécanique quantique) sur le système peut s’obtenir
par le calcul de
 T
1
< A >= lim A(p(t), q(t)) dt,
T −→+∞ T 0

où (p(t), q(t)) est une trajectoire en temps du système. D’où la nécessité de
calculer cette trajectoire en temps long, et les questions soulevées dans cette
section. Mais, à partir de là, on peut remarquer que le point de vue change sen-
siblement : on ne s’intéresse pas vraiment à la précision dans la détermination
d’une trajectoire donnée (dont la condition initiale est d’ailleurs mal connue,
voire arbitraire et de toute façon indifférente), mais plutôt à la reproduction
en temps long du flot de l’équation. Il y a une certaine “globalisation” du point
de vue : la notion de flot, ensemble de toutes les trajectoires, se substitue à la
notion de trajectoire. C’est cette modification du point de vue qui conduit à
prendre en compte des propriétés de nature géométrique, comme la symplec-
ticité. Nous verrons plus en détail au Chapitre 5 des questions de précision
sur les schémas de résolution des équations différentielles ordinaires, dans le
contexte plus classique où l’on cherche à déterminer précisément une évolution
particulière. Dans une certaine mesure, notre ignorance de telles questions à
ce stade du cours ne nous pénalise pas ici, où l’objectif est différent.

Remarque 3.17. Dans cette section, on s’intéresse à des trajectoires hamilto-


niennes du système, donc des évolutions à énergie constante. De telles trajec-
toires parcourent un sous-ensemble de l’espace des phases qui correspond à une
seule valeur de l’énergie. On génère ainsi, sous l’hypothèse ergodique, tout l’en-
semble microcanonique (N, V, E), i.e. nombre de particules, volume et énergie
constante. D’autres simulations peuvent par exemple être destinées à décrire
l’ensemble canonique (N, V, T ), i.e. cette fois la température du système, et
non l’énergie, est gardée constante (remarquer qu’asymptotiquement pour un
nombre infini de particules, ou en volume infini, tous les ensembles statis-
tiques donnent la même valeur des moyennes). Pour parcourir cet ensemble,
on suit donc des dynamiques qui ne sont pas les dynamiques hamiltoniennes
vues ci-dessus. On peut par exemple utiliser des systèmes dynamiques avec
thermostat (des variables annexes, formellement du type multiplicateur de La-
grange) qui ont pour but de maintenir la température du système constante :
on parle de dynamique de Nosé-Hoover, par exemple. On peut aussi utili-
ser une simulation par dynamique de Langevin, qui consiste à introduire un
114 3 Simulation moléculaire

terme de frottement dans la dynamique hamiltonienne, de sorte encore de


garder la température constante. Les problématiques numériques sont un peu
différentes de celles décrites ici, mais la même préoccupation sur le temps long
d’intégration, qu’on va voir maintenant, reste.

Enfin, il est instructif en cette fin de section de résumer ce que signifie


en pratique simuler une dynamique adiabatique, c’est-à-dire le système (3.29)
(par exemple). La simulation est donc une succession de trois étapes effectuées
à chaque pas de temps de longueur ∆t,
(1) la résolution du problème électronique de type (3.36) pour la confi-
guration de noyaux courante (cette étape est elle-même un algorithme
itératif du type (3.40) où chaque itération est une diagonalisation de
système linéaire) ; à la fin de cette étape, on dispose donc de l’état
électronique et du potentiel U (x̄1 , ..., x̄N )
(2) un calcul des dérivées ∇x̄i U (x̄1 , ..., x̄N ) par technique de dérivées ana-
lytiques (cf. l’Exercice 3.12),
(3) une avancée d’un pas de temps, par un schéma du type (3.48) (où W
remplace V ), des équations de la dynamique moléculaire en y insérant
les valeurs de

z k zl
∇x̄i W (x̄1 , ..., x̄N ) = ∇x̄i U (x̄1 , ..., x̄N ) + ∇x̄i
|x̄k − x̄l |
1≤k<l≤M

Le lecteur mesure sans peine la lourdeur d’une telle simulation. Il est ce-
pendant possible d’encore compliquer les choses ! On peut par exemple cou-
pler de telles simulations de dynamique moléculaire avec des simulations de
type éléments finis pour atteindre des tailles macroscopiques. Ceci se fait
dans l’esprit de ce qui a été montré, dans un cadre stationnaire, au Cha-
pitre 1. Ainsi, il existe des simulations couplées chimie quantique/dynamique
moléculaire/éléments finis de dynamique de fracture au sein des matériaux
par exemple.

3.2.3 Méthodes d’accélération de la dynamique moléculaire

Dans cette courte section, nous voudrions aborder une des difficultés cru-
ciales de la dynamique moléculaire : la nature multiéchelle en temps de ce
problème. En effet, aussi efficaces soient-elles, les techniques exposées à la
Section précédente (schémas symplectiques pour les temps longs) restent en-
core parfois (voire souvent, suivant les domaines d’application) incapables de
simuler des phénomènes se déroulant sur quelques millisecondes.
Qu’on y pense en effet. Typiquement, sans même parler du problème
électronique qui évolue à une vitesse mille fois supérieure voire plus, l’échelle
caractéristique de la vibration d’une courte liaison atomique est de l’ordre de
la femtoseconde. Dans une molécule biologique vont figurer des liaisons qui
3.2 Simulation numérique 115

vibrent à cette vitesse, d’autres à des vitesses mille à cent mille fois inférieures.
La simulation devra s’accommoder de telles disproportions. Mais malheureu-
sement, il y a pire. La simulation devra en plus porter sur un temps physique
de l’ordre de la milliseconde ou de la seconde (par exemple, un phénomène
capital de la biologie, à savoir le repliement d’une protéine, s’effectue dans une
fourchette allant de la milliseconde à la seconde). Si un pas de temps est de
l’ordre de la femtoseconde, ou de la picoseconde, il faut donc envisager 109 pas
de temps, au bas mot, 1012 ou 1015 souvent. Ce n’est pas possible. Si on oublie
le monde de la biologie et qu’on regarde celui de la science des matériaux, on
trouve des disproportions analogues (questions de sauts de lacunes dans des
matériaux irradiés, ou dynamique de dislocations dans des matériaux qui se
dégradent, par exemple).
Bref, les techniques d’équations différentielles ordinaires les meilleures du
moment, comme celles de la Section précédente, ne suffisent pas à couvrir
les besoins en simulation en temps long 1 . Quelles sont donc les alternatives
possibles ?
Commençons par l’observation suivante. Dans la plupart des situations
d’évolution d’un système moléculaire (par exemple), si un phénomène prend
“beaucoup” de temps, c’est parce que la majeure partie du temps, le système
ne fait rien, ou pas grand chose. Typiquement, l’évolution d’un système est la
suivante : le système passe son temps à osciller au voisinage d’états métastables
(on baptise ainsi les états du système qui “vivent” lontemps), le passage d’un
état à un autre étant un phénomène rapide, mais qu’il faut attendre longtemps
(on parle d’un évènement rare). Petit à petit, le système atteint ainsi son
état final. Cette succession de longues plages d’immobilité entrecoupées de
transitions quasi immédiates est un drame pour la simulation numérique (voir
Figure 3.3). Elle fait accroı̂tre le nombre de pas de temps, tout en interdisant
d’en sauter, faute de rater l’évènement important.
Cette observation est à la base d’un certain nombre de techniques dites
d’accélération de la dynamique moléculaire. Nous en citerons une comme
exemple, celle connue sous le nom de technique de Monte-Carlo cinétique.
Elle a pour base un substantiel changement de point de vue. Plutôt que
de regarder l’évolution du système, on va regarder le paysage énergétique.
Imaginons par exemple que l’état du système soit régi par le Hamiltonien
(3.43) de la section précédente

p2
H(p, q) = + V (q).
2
Alors on peut bien sûr suivre l’état du système au cours du temps par une
dynamique. C’est l’approche de la Section précédente. Mais on peut aussi
chercher dans l’espace des positions q du système les états métastables ou
1
encore une fois, par “en temps long”, on entend “long par rapport à l’échelle
de temps élémentaire présente dans le problème”. On ne se méprendra pas sur le
vocabulaire “long”, “court”, “rapide”, ... employé dans toute cette section.
116 3 Simulation moléculaire

stables (les cuvettes du potentiel V (q)), les seuils de réactions (les points-selles
de V (q)), et de cette façon imaginer quelle serait la dynamique du système
pour aller d’une position à une autre.
On procède donc comme suit. On se place en un état stable (ou métastable),
disons A0 .
On commence par identifier d’abord, à la proximité de A0 , les fonds de
cuvette de potentiel et dans un second temps les points-selles qui séparent
ces cuvettes. Ceci requiert d’effectuer un grand nombre de simulations de
dynamique moléculaires assez courtes : on part d’un point et on regarde où
on aboutit. Nous ne décrivons pas de telles techniques qui requièrent elles
aussi beaucoup d’ingéniosité, préférant esquisser l’approche complète. Il suffit
en fait de savoir que c’est dans cette phase que l’on va utiliser les techniques
habituelles de simulation d’équations différentielles de la Section précedente,
mais aussi d’autres techniques, complémentaires, de localisation de points-
selles.
Ceci étant fait, on a alors la liste de tous les états stables voisins de A0 ,
disons les N états Ai , et de leur barrière de potentiel ∆Ei > 0, compte tenu
des points-selles qui y conduisent. On emploie alors un modèle pour évaluer
le taux de réaction probable de A0 vers Ai , par exemple la loi d’Arrhénius

−∆Ei
ri = exp
kT

où T est la température, k la constante de Boltzmann. Le nombre ri est dans



N
]0, 1] et mesure (une fois normalisé, i.e. divisé par rj ) la probabilité d’aller
j=1
de A0 à Ai . Ce qui intéresse est alors la double question : vers quel état le
système en A0 va-t-il aller et combien de temps cela va-t-il prendre ?
On part de la remarque suivante. Si N évènements sont indépendants et
ont des temps d’occurences qui suivent chacun une loi exponentielle, de pa-
ramètre λi (c’est-à-dire ont une densité λi e−λi x 1x>0 ), alors un calcul simple
de théorie des probabilités montre que l’évènement “le premier d’entre eux
N
se produit” suit aussi une loi exponentielle, cette fois de paramètre λj .
j=1
L’espérance du temps de ce premier évènement (quel qu’il soit) est donc
1
N . La probabilité que le premier évènement qui se produise soit
j=1 λj
λi
l’évènement i0 vaut N 0 . En vertu de cette remarque, on admet que,
j=1 λj
dans notre cas, les transitions vers les états Ai sont indépendantes entre elles
et que chacune suit effectivement une loi exponentielle, et on procède comme
suit : on tire au sort le passage vers les Ai en affectant à chaque Ai la proba-
ri
bilité N ; on déplace alors le système en l’état Ai obtenu, et on avance
j=1 rj
3.2 Simulation numérique 117

1
le temps horloge de N (on peut aussi, pour cette seconde étape, tirer
j=1 rj

N
au sort le temps de sortie suivant la loi exponentielle de paramètre rj au
j=1
lieu de prendre simplement comme valeur de temps l’espérance) . On continue
ensuite en revenant à l’étape préliminaire de détermination des points selles et
des états stables voisins du nouvel état courant. Ainsi, on peut déterminer la
trajectoire en temps long, et, si nécessaire, calculer une moyenne d’opérateur
le long de cette trajectoire en pondérant la valeur de cet opérateur sur chaque
état stable Ai par le temps passé dans cet état (ou en réalité au voisinage de
cet état).

Remarque 3.18. Si l’on y regarde bien, la morale de l’histoire est qu’on a


échangé une longue dynamique contre un ensemble de petites, plus quelques
tirages au sort. Cette méthodologie est en fait la ligne directrice de beaucoup
de méthodes efficaces en dynamique moléculaire, aussi bien pour le calcul de
moyennes statistiques que pour le calcul d’évolutions particulières.

Remarque 3.19. On peut le voir ci-dessus, le travail devient plus facile quand
la température est plus élevée, car alors le système visite spontanément plus
de puits de potentiel (les barrières énergétiques sont moins hautes, cf. l’ex-
ponentielle). Beaucoup de techniques d’accélération, complémentaires de la
précédente ou alternatives directes, consistent donc à chauffer artificiellement
le système, simuler alors son évolution, et en déduire (c’est la phase la plus
“acrobatique”) ce que cette évolution aurait été à la bonne température. On
peut aussi, par exemple, utiliser des techniques stochastiques pour s’échapper
des cuvettes de minima plus facilement.

Fig. 3.3. Une trajectoire de dynamique moléculaire reste longtemps dans le puits
A, avant de passer rapidement, via le point-selle C, vers le puits B.
118 3 Simulation moléculaire

3.3 Modélisation de la phase liquide


La plupart des réactions chimiques, et en particulier la quasi-totalité de celles
intervenant en biologie, se déroulent en phase liquide et de nombreuses preuves
expérimentales confirment que les effets de solvant jouent un rôle crucial dans
ces processus. Il est donc fondamental en vue des applications de parvenir à
modéliser le comportement de la phase liquide à l’échelle moléculaire. Pour
modéliser une molécule solvatée dans un cadre quantique, la première idée
consiste à effectuer un calcul sur une supermolécule, c’est-à-dire sur un système
moléculaire formé de la molécule de soluté et des quelques molécules de sol-
vant qui l’entourent (Fig. 3.4). Mais cette méthode atteint vite ses limites
car la présence d’interactions à grande distance fait qu’il est nécessaire de
considérer un grand nombre de molécules de solvant pour obtenir un résultat
réaliste, ce qui fait rapidement exploser les temps de calcul. Il faut donc trou-
ver un autre traitement numérique, plus adapté. Il s’agira d’une stratégie trai-
tant différemment les deux échelles présentes dans le problème : d’une part
l’échelle microscopique constituée par la molécule solvatée simulée au niveau
quantique, et d’autre part l’échelle macroscopique, constituée par le solvant
s’étendant à l’infini (ce mot s’entend par rapport à la molécule solvatée) si-
mulée par les lois de l’electrostatique du continuum.

Remarque 3.20. En fait, le modèle de la supermolécule est surtout coûteux


quand la molécule solvatée à étudier est petite, car, proportionnellement,
tout le temps de calcul est alors consommé sur les molécules du solvant.
En revanche, quand la molécule solvatée est elle-même énorme (penser à une
molécule biologique, type ADN, composée de dizaines de milliers d’atomes), le
nombre de molécules de solvant dont on doit l’entourer pour simuler la solva-
tation n’est pas proportionnellement si grand. Dans une telle situation (encore
rarissime aujourd’hui car elle demande des capacités de calcul phénoménales),
le modèle de la supermolécule devient compétitif.

Pour simplifier, nous considérons le seul calcul de l’état fondamental de la


molécule, et ce dans le cadre de l’approximation Hartree-Fock. Le problème
que nous souhaitons attaquer est donc la résolution (théorique et pratique) du
problème (3.25) quand le système moléculaire est immergé dans un solvant.
Tout ce que nous allons faire peut être adapté aux situations plus difficiles
présentées dans les sections précédentes pour un système isolé. Par exemple
on peut très bien faire de la dynamique adiabatique au sein du solvant, et les
techniques qui seront alors utiles sont des excroissances de celle qui va être
présentée.

3.3.1 Le modèle de continuum

Les méthodes de continuum fournissent une alternative à la technique de


la supermolécule. Elles consistent à considérer que l’ensemble des molécules
3.3 Modélisation de la phase liquide 119
H

O H
H
H H
H
H H
O O O O H
O
H H
H H
H
H O
O
H H H
O
H O
H
H
O O H
H
H
O H
O C
H H H
H

O H
O
H
O
O H H
H H O H
H H
O
H H
O H
O
H
H
O O H
H H
H H
O

H
H H
O H
O

O H
H

Fig. 3.4. H2 CO en solution aqueuse : modèle de la supermolécule.

de solvant peut être modélisé par un continuum diélectrique qui agit sur
la molécule de soluté en modifiant les interactions électrostatiques entre les
charges qu’elle porte (charges ponctuelles en dynamique moléculaire, noyaux
et électrons en chimie quantique). Deux modèles, à deux échelles différentes,
sont donc conjointement gérés.
Dans le modèle du continuum standard, la molécule de soluté est ainsi
placée dans une cavité Ω représentant le “volume” qu’elle occupe, le reste de
l’espace étant constitué d’un milieu diélectrique linéaire, homogène et isotrope
de constante diélectrique égale à la constante diélectrique macroscopique du
solvant (qui vaut par exemple 78.6 pour l’eau à température ambiante). On
verra un exemple sur la Figure 3.5.
La présence du continuum polarisable modifie l’interaction entre les dis-
tributions de charge portées par la molécule de soluté et donc sa géométrie
et ses propriétés. En effet, dans le vide, l’énergie d’interaction entre deux
distributions de charge ρ1 et ρ2 est donnée par
  
1
E(ρ1 , ρ2 ) = ρ1 V2 = ρ2 V1 = ∇V1 · ∇V2
IR3 IR3 4π IR3
avec
−∆Vk = 4πρk .
En présence du continuum diélectrique, cette énergie s’écrit
  
1
E s (ρ1 , ρ2 ) = ρ1 V2s = ρ2 V1s = ∇V1s · ∇V2s ,
IR3 IR3 4π IR3
120 3 Simulation moléculaire

ε = εs

ε =1 H

O C

Fig. 3.5. H2 CO en solution aqueuse : modèle du continuum. On définit une ca-


vité occupée par H2 CO dans laquelle les molécules de solvant ne pénètrent pas.
Eventuellement, la surface de cette cavité est régularisée ensuite.

avec cette fois les potentiels Vis définis par

−div (∇Vks ) = 4πρk ,

le champ scalaire  étant défini par



1 si x ∈ Ω,
(x) =
s si x ∈ IR3 \ Ω̄.

Il est utile de décomposer le potentiel V s solution de l’équation

−div ((x)∇V s (x)) = 4πρ(x), (3.53)

en la somme
– du potentiel électrostatique
1
φ := ρ 
|x|
qu’engendrerait la distribution de charge ρ dans le vide,
– et du potentiel de réaction

V r := V s − φ. (3.54)

L’intérêt de cette décomposition réside en ce que le potentiel V r sera ex-


primable en fonction de la solution d’une équation (dite intégrale, voir (3.61)
et (3.63) ci-dessous) plus facile à résoudre.
3.3 Modélisation de la phase liquide 121

En simulation moléculaire, on rencontre exclusivement les cas suivants :


(a) ρ est une masse de Dirac intérieure à la cavité, (b) ρ est une fonction de
L1 (IR3 ) ∩ L∞ (IR3 ), (c) ρ est une combinaison linéaire finie de distributions de
charges de type (a) ou (b). L’équation −∆φ = 4πρ n’a évidemment pas une
solution unique dans D  (IR3 ) : φ est définie à une fonction harmonique près.
La solution “physique” que l’on retient est l’unique solution qui s’annule à
1
l’infini : elle est donnée par le produit de convolution φ = ρ  |x| qui a en
particulier un sens dans D  (IR3 ) dès que ρ est à support compact ou dans
L1 (IR3 ), ce qui couvre tous les cas intervenant en simulation moléculaire. On
admettra de même qu’il existe un bon cadre fonctionnel tel que l’on puisse
définir de manière unique V r et V s .
1 1
En notant G(x, y) = |x−y| le noyau de Green de l’opérateur − 4π ∆,
1
G (x, y) le noyau de Green de l’opérateur − 4π div (∇·) avec (x) = 1 ou
s

(x) = s selon que x est intérieur ou non à la cavité Ω, et Gr (x, y) :=


Gs (x, y) − G(x, y), on a formellement les relations

s
V (x) = Gs (x, y) ρ(y) dy,
IR3

φ(x) = G(x, y) ρ(y) dy,
IR3

V r (x) = Gr (x, y) ρ(y) dy.
IR3

On peut décomposer l’énergie E s (ρ1 , ρ2 ) d’interaction entre les charges ρ1


et ρ2 en présence de solvant en la somme

E s (ρ1 , ρ2 ) = D(ρ1 , ρ2 ) + E r (ρ1 , ρ2 ) (3.55)

où  
ρ1 (x)ρ2 (y)
D(ρ1 , ρ2 ) := dx dy
IR3 IR3 |x − y|
désigne l’énergie d’interaction dans le vide et où
   
E r (ρ1 , ρ2 ) := ρ1 V2r = ρ2 V1r = ρ1 (x) Gr (x, y) ρ2 (y) dx dy
IR3 IR3 IR3 IR3

traduit l’énergie de ρ1 dans le potentiel de réaction engendré par ρ2 , ou vice


versa. Pour coupler un modèle moléculaire à un modèle de continuum, il faut
remplacer dans les termes d’origine électrostatique de l’énergie totale de la
1
molécule dans le vide, le noyau de Green G(x, y) = |x−y| par le noyau de
s
Green G (x, y). Cela traduit la modification de l’interaction électrostatique
entre les distributions de charge correspondant à deux particules différentes.
Il faut en outre tenir compte de l’influence du potentiel de réaction créé par
une particule représentée par la distribution de charge ρ sur cette particule
elle-même, en ajoutant à l’énergie le terme
122 3 Simulation moléculaire
 
1 r 1
E (ρ, ρ) = ρ(x) Gr (x, y) ρ(y) dx dy.
2 2 IR3 IR3

3.3.2 Résolution numérique des modèles de continuum

Pour réaliser le couplage entre un modèle de continuum et un modèle quan-


tique ab initio, il suffit d’être à même de calculer des quantités de la forme


r
E (ρ, ρ ) = ρ V r (3.56)
IR3
1
avec V r = V s − φ et φ = ρ  |x| , V s désignant l’unique solution tendant vers
zéro à l’infini de l’équation (3.53).
En effet, on remarque par exemple dans la fonctionnelle d’énergie de
Hartree-Fock (3.24) qu’on y trouve deux types de termes : le terme d’énergie
cinétique qui se calculera de la même manière que dans le vide puisqu’il n’est
pas directement concerné par la présence du solvant ; et les autres termes qui
peuvent tous se mettre sous la forme (3.55) et dont la détermination se ramène
donc à celle d’un terme de type (3.56).
Le problème du calcul du potentiel de réaction V r présente les ca-
ractéristiques suivantes : il est posé sur IR3 , il comporte une interface, et
de part et d’autre de l’interface, l’équation aux dérivées partielles (3.53) est
linéaire et l’opérateur est à coefficients constants. Ces trois caractéristiques
font qu’il est naturel d’envisager une solution par méthode intégrale : on
ramène ainsi ce problème tridimensionnel posé sur un non-borné (ici IR 3 ) à
un problème bidimensionnel posé sur un borné (ici l’interface Γ = ∂Ω).
Exercice 3.21. Ecrire explicitement les équations de Hartree-Fock en présen-
ce du solvant.

3.3.3 Notions sur les méthodes intégrales

Nous énonçons sans démonstration quelques résultats de base sur les équations
intégrales. Pour plus de détails, le lecteur pourra consulter les références.

Aspects théoriques

Considérons en toute généralité une fonction V vérifiant



⎨ −∆V = 0 dans Ω
−∆V = 0 dans IR3 \ Ω̄,

V −→ 0 à l’infini,
 
et dont les traces intérieures Vi , ∂V  ∂V 
∂n i et extérieures Ve , ∂n e sur Γ = ∂Ω
sont définies et continues. En notant
3.3 Modélisation de la phase liquide 123
   
∂V ∂V  ∂V 
[V ] := Vi − Ve et := − ,
∂n ∂n i ∂n e
on peut écrire les formules de représentation suivantes : la fonction V vérifie
pour tout x ∈ / Γ,
   
1 ∂V ∂ 1
V (x) = (y) dy − [V ](y) dy (3.57)
Γ 4π|x − y| ∂n Γ ∂ny 4π|x − y|
et pour tout x ∈ Γ ,
   
Vi (x) + Ve (x) 1 ∂V ∂ 1
= (y) dy − [V ](y) dy.
2 Γ 4π|x − y| ∂n Γ ∂ny 4π|x − y|
(3.58)
Pour x ∈ Γ , on a en outre formellement
    
1 ∂V  ∂V  ∂ 1 ∂V
+ (x) = (y) dy
2 ∂n i ∂n e Γ ∂nx 4π|x − y| ∂n

∂2 1
− [V ](y) dy. (3.59)
Γ ∂n x ∂ny 4π|x − y|

Revenons maintenant à notre cas précis. Nous cherchons à calculer l’énergie




r
E (ρ, ρ ) = ρ V r ,
IR3
r
le potentiel de réaction V engendré par ρ étant défini par

V r := V s − φ, −div ((x)∇V s (x)) = 4πρ(x), −∆φ = 4πρ, (3.60)

avec (x) = 1 dans la cavité Ω et (x) = s dans le domaine extérieur IR3 \ Ω̄.
On vérifie que V r est de classe C 2 dans Ω̄ et dans IR3 \ Ω, et qu’il satisfait
(étant donné que la fonction ρ est nulle en dehors de la cavité)


⎪ −∆V r = 0 dans Ω

−∆V r = 0 dans IR3 \ Ω̄


r
[V ] = 0 sur Γ
⎩ r
V →0 à l’infini.

Les formules de représentation (3.57)-(3.58) permettent donc d’écrire le


potentiel de réaction V r sous la forme d’un potentiel dit de simple couche

σ(y)
V r (x) = dy, ∀x ∈ IR3 , (3.61)
Γ |x − y|
 
1 ∂V r
avec σ = ∈ H −1/2 (Γ ) (noter qu’on a utilisé la continuité de V r
4π ∂n
pour regrouper les deux formules (3.57)-(3.58) en une seule). Déterminer V r
revient donc à déterminer σ.
124 3 Simulation moléculaire

Pour obtenir σ, il suffit d’écrire la formule de représentation (3.59)


   
1 ∂V r  ∂V r 
+ = D∗ · σ
2 ∂n i ∂n e

où 
∗ ∂ 1
(D · σ)(x) = σ(y) dy, (3.62)
Γ ∂nx |x − y|
et la condition de saut à l’interface issue de (3.60)
 
∂V s  ∂V s 
0= − s
∂n i ∂n e
r
 
∂V  ∂V r  ∂φ
=  −  + (1 − ) ,
∂n i ∂n e ∂n

ce qui conduit immédiatement à écrire que σ est solution de l’équation


intégrale
s + 1 ∂φ
2π − D∗ · σ = . (3.63)
s − 1 ∂n
Voyons comment mettre en oeuvre la résolution numérique de cette
équation.

Aspects numériques

Pour résoudre numériquement une équation intégrale comme (3.63), on


utilise ici une méthode de Galerkin, sur une base d’éléments finis surfaciques.
On raisonne sur une équation intégrale linéaire qui s’écrit formellement

A · σ = g, (3.64)

où l’inconnue σ est dans H s (Γ ) et le second membre g dans H s (Γ ), et

où l’opérateur intégral A ∈ L(H s (Γ ), H s (Γ )) est caractérisé par le noyau
a(x, y) : 
(A · σ)(x) = a(x, y) σ(y) dy, ∀x ∈ Γ.
Γ

Ce cas couvre celui de (3.63). Considérons un maillage (Ti )1≤i≤n de Γ


que nous supposons dans un premier temps effectivement tracé sur la surface
courbe Γ (on n’utilise pas d’approximation de la surface Γ ) et désignons
par xi un point représentatif de l’élément Ti (typiquement son “centre”). La
résolution de (3.64) par méthode de Galerkin avec élément fini P0 fournit
une approximation de σ dans l’espace V des fonctions constantes sur chaque
élément Ti du maillage. On cherche σ ∈ V vérifiant

∀τ ∈ V, A · σ, τ Γ = g, τ Γ .
3.3 Modélisation de la phase liquide 125

ce qui conduit à l’équation matricielle,

[A] · [σ] = [g]

avec   
[A]ij = a(x, y) dx dy, [g]i = g,
Tj Tj Ti

[σ]i désignant la valeur de σ sur Ti sous l’approximation de Galerkin P0 .

Remarque 3.22. La matrice A correspond typiquement à la discrétisation


d’opérateurs de convolution comme celui de la formule (3.62). Du point de vue
algébrique, il s’agit donc d’une matrice, certes de petite taille (car un maillage
de surface est beaucoup plus petit qu’un maillage de volume !), mais pleine (i.e.
avec beaucoup de coefficients non nuls). La situation algébrique est donc radi-
calement différente de celle rencontrée pour un système linéaire type issu d’une
discrétisation éléments finis “habituelle”. La matrice y est alors de grande
taille, mais souvent creuse et même du type “bande”, car elle correspond à la
discrétisation d’un opérateur différentiel, donc local (généralement un lapla-
cien). Les techniques optimales de stockage de la matrice et de résolution du
système linéaire ne sont donc pas les mêmes dans les deux cas. En particulier,
les méthodes directes pour résoudre les systèmes linéaires sont plus volontiers
compétitives dans le cas de petites matrices pleines.

Remarque 3.23. Du point de vue pratique, signalons un point important. Les


surfaces moléculaires utilisées en pratique en simulation moléculaire sont
formées de morceaux de sphères et de tores raccordés et on peut envisager
de mailler directement ces surfaces moléculaires dont on connaı̂t des expres-
sions analytiques simples dans des cartes locales. On peut alors mener à bien
un calcul d’éléments finis surfaciques directement sur la surface Γ . C’est ce
que nous avons décrit ci-dessus. Cependant, il est possible d’avoir recours
alternativement à une approximation polyédrique de la surface, notamment
dans le but d’accélérer les calculs (pour d’autres types de surface, ce recours
est même indispensable). On utilise souvent alors l’approximation polyédrique
Γ̃ de l’interface Γ obtenue en considérant comme plans les éléments Ti consti-
tuant le maillage (Fig. 3.6). L’approximation de la surface Γ par une surface
polyédrique Γ̃ introduit une erreur pour laquelle on dispose d’une estimation
donnée par l’analyse numérique de la méthode.

Connaissant σ à ce stade, il suffit maintenant pour calculer E r (ρ, ρ ), de


remarquer que


r
E (ρ, ρ ) = ρ V r
IR3
 
σ(y)
= ρ (x) dy dx
IR3 Γ |x − y|
126 3 Simulation moléculaire

Surface moléculaire
Points de la surface
moléculaire
Points de Gauss sur Ti

Triangle plan Ti Triangle courbe

Fig. 3.6. Approximation polyédrique d’une surface moléculaire.

 
ρ (x)
= σ(y) dx dy
IR3 |x − y|
 Γ

= σφ (3.65)
Γ

1
avec φ = ρ  |x| .

Sur un plan numérique, le calcul de E r (ρ, ρ ) s’effectue donc selon les


modalités décrites en cinq étapes :
1. maillage de Γ avec approximation polyédrique (on se place dans ce cas)
par des triangles (ou/et des quadrilatères) ;
2. assemblage de la matrice
 
s + 1 ∗
[A]ij = 2π −D
s − 1 ij
 
s + 1 ∂ 1
= 2π aire(Ti )aire(Tj ) − dx dy
s − 1 Tj Ti ∂nx |x − y|

par intégration analytique sur Ti et intégration par points de Gauss sur


Tj ;
3. assemblage du second membre

∂φ
[g]i =
Ti ∂n

par intégration par points de Gauss ;


4. résolution du système linéaire [A] · [σ] = [g] ;
5. évaluation de E r (ρ, ρ ) par la formule approchée

n 
E r (ρ, ρ )  σi φ ,
i=1 Ti
3.4 Bibliographie 127

les intégrales étant calculées par points de Gauss.
Ti

3.4 Bibliographie

Pour la description plus fine des modèles de simulation moléculaire, nous


conseillons la lecture des livres A. Szabo et NS. Ostlund [79], WJ. Hehre,
et al. [44], RM. Dreizler et EKU. Gross [30]. Pour les algorithmes de simu-
lation pour la dynamique moléculaire, on peut se reporter spécifiquement à
D. Frenkel et B. Smit [36], T. Schlick [72], P. Deuflhard et al. [31], le der-
nier décrivant des méthodes et des applications plus avancées. Un survol de
quelques méthodes d’accélération de la dynamique moléculaire est présenté
dans A. Voter [83].
L’analyse numérique pour les méthodes d’intégration pourra se lire dans
M. Crouzeix & A. L. Mignot [26], J.M. Sanz-Serna & M. P. Calvo [71], E.
Hairer, C. Lubich, & G.Wanner [43]. Les modèles pour la phase liquide et
leur couplage avec les modèles quantiques sont exposés dans M.P. Allen et
D.J. Tildesley [5], B.Y. Simkin et II. Sheikhet [76].
La théorie et la pratique numérique des équations intégrales fait l’ob-
jet d’une importante littérature, dont par exemple B. Lucquin et O. Piron-
neau [54].
Sur l’intégralité des sujets abordés dans ce chapitre, on pourra se reporter
soit au cours E. Cancès, C. Le Bris, Y. Maday [20], soit au volume C. Le
Bris [52], et en particulier à la contribution [21].
4
Modèles micro-macro pour les fluides

Nous abordons dans ce chapitre un autre genre de problème multiéchelle. Il


s’agit de la modélisation des fluides polymériques. Ces fluides sont des solu-
tions diluées de polymères (penser à de la colle à papier-peint,...) dont les
propriétés mécaniques à l’échelle macroscopique dépendent crucialement de
la microstructure du fluide à l’échelle microscopique. Pour de tels fluides, il
est très difficile de faire une modélisation purement macroscopique, et il faut
gérer une modélisation conjointe aux deux échelles. La simulation qui s’ensuit
est dans l’esprit de celle du Chapitre 1, mais il s’agit cette fois de problèmes
dépendant du temps (les problèmes stationnaires dans ce cadre n’ont guère
de sens), et de fluides au lieu de solides.

4.1 Eléments de mécanique des fluides incompressibles


Nous commençons par quelques éléments de base sur la modélisation des
fluides incompressibles en termes de mécanique des milieux continus, et sur
leur simulation numérique. Cela nous permettra de souligner ensuite les
différences avec les modélisations micro-macro que nous développerons.
Considérons un fluide visqueux de masse volumique ρ et de vitesse u,
soumis à une densité volumique de forces extérieures f . Soit T le tenseur des
contraintes.
L’équation de conservation de la masse pour ce fluide s’écrit
∂ρ
+ div (ρ u) = 0. (4.1)
∂t
Quant à la conservation de la quantité de mouvement, elle s’écrit
∂(ρ u)
+ div (ρ u ⊗ u) − div T = ρf (4.2)
∂t
Pour un fluide visqueux, le tenseur des contraintes s’exprime comme
130 4 Modèles micro-macro pour les fluides

T = −p Id + τ, (4.3)

où p est la pression et τ le tenseur des contraintes visqueuses. Pour fermer ces
équations, il nous faut une relation constitutive liant le tenseur des contraintes
visqueuses τ et le champ de vitesse u, c’est-à-dire une relation

τ = τ (u, ρ, ...). (4.4)

Remarque 4.1. Bien noter que cette relation est symbolique, dans la mesure
où elle peut aussi faire figurer des dérivées en temps et en espace des quantités
impliquées τ , u, ρ, ...

Sous les hypothèses que τ est une fonction linéaire de u, que τ est inva-
riant par changement de référentiel galiléen, et que le fluide a des propriétés
physiques isotropes, on peut affirmer que la forme de la relation liant τ et u
est nécessairement
τ = λ (div u) Id + 2µ d (4.5)
où λ et µ sont deux coefficients réels (dits les coefficients de Lamé), en toute
généralité fonctions de ρ et de la température, et où d est le tenseur des
déformations linéarisé
1
d = (∇u +t ∇u). (4.6)
2
Sous de telles hypothèses, on parle de fluide newtonien. La théorie cinétique
2
des gaz permet de plus de montrer que λ = − µ, et il est courant de prendre
3
ces coefficients constants.
L’ensemble des équations (4.1)-(4.2)-(4.3)-(4.5)-(4.6) permet alors de décri-
re le mouvement du fluide. Quand on prend en compte les phénomènes liés
à la température, il faut adjoindre à ces équations une équation d’évolution
de l’énergie et une équation d’état reliant la pression p, la masse volumique
ρ et la température T . Ici, nous ferons abstraction de tels phénomènes. Les
équations (4.1)-(4.2)-(4.3)-(4.5)-(4.6) suffisent alors, car la détermination de
la pression se fera via l’hypothèse supplémentaire d’incompressibilité que nous
détaillons maintenant.
Supposons alors de plus que le fluide est incompressible,i.e.

div u = 0 (4.7)

et de masse volumique constante (on parle de fluide homogène)

ρ = ρ0 = 1 (pour fixer les idées).

La conservation du mouvement se récrit alors


∂u
+ (u · ∇) u − µ∆u + ∇p = f, (4.8)
∂t
4.1 Eléments de mécanique des fluides incompressibles 131

équation qui, assortie de la condition div u = 0, forme ce que le lecteur re-


connaı̂t comme l’équation de Navier-Stokes des fluides newtoniens visqueux
incompressibles homogènes.
Cependant, pour un fluide (visqueux incompressible et homogène) qui
n’obéirait pas aux hypothèses simplificatrices menant à (4.5), il faudrait uti-
liser le système

∂u
+ (u · ∇) u − µ∆u + ∇p − div τp = f
∂t (4.9)
div u = 0

où le tenseur des contraintes visqueuses τ a été décomposé selon

τ = τ n + τp (4.10)

avec τn sa partie newtonienne (c’est-à-dire s’exprimant par (4.5)) et τp


(p comme polymère) qui figure la partie du tenseur des contraintes τ qui
n’obéirait pas à la simple modélisation newtonienne, et qui pourrait faire
l’objet d’une relation non standard du type (4.4). C’est un tel fluide que nous
allons étudier désormais.
Pour un tel fluide, il existe des modélisations purement macroscopiques,
c’est-à-dire des modélisations basées uniquement sur la mécanique des mi-
lieux continus (même si la dérivation de tels modélisations peut en fait faire
intervenir des notions autres, il ne reste in fine qu’un modèle en termes de
mécanique du continuum).
L’idée est d’écrire une équation sur l’évolution de la partie non newtonien-
ne τp du tenseur des contraintes, et/ou sur la relation entre τp et les autres
grandeurs caractérisant la dynamique du fluide comme ∇u ou le tenseur des
déformations d. Cette équation s’écrit par exemple
Dτp
= F (τp , ∇u), (4.11)
Dt

où on a noté la dérivée convective du tenseur τ , à savoir
Dt
Dτ ∂τ
= + (u · ∇) τ.
Dt ∂t
Quand on choisit une relation du type (4.11) pour exprimer τp , on dit qu’on
adopte un modèle différentiel pour le fluide non newtonien. Un exemple de
relation (4.11) est l’équation (4.37) dite de Oldroyd B, évoquée à l’Exercice 4.8,
ainsi qu’à la Remarque 4.5.
Une autre option consiste à choisir un modèle dit modèle intégral
 t
τp (t, x) = m(t − t )St dt , (4.12)
−∞
132 4 Modèles micro-macro pour les fluides

où la quantité St désigne une quantité dépendant de ∇u, et où l’intégrale est
prise le long d’une ligne de courant passant par x.
Que ce soit sur l’une ou l’autre des formes (4.11) et (4.12), on constate
que le point crucial est que le tenseur des contraintes τp (t, x) ne dépend pas
seulement de la déformation au point x et au temps t, comme dans une for-
mule du type (4.5), mais dépend de l’histoire de la déformation en tous les
points de la ligne de courant amenant à x pour les instants antérieurs t . C’est
particulièrement explicite sur la forme (4.12), mais ceci se lit aussi sur (4.11).
En pratique, le système global qu’on devra simuler est


⎪ ∂u
⎨ ∂t + (u · ∇) u − µ∆u + ∇p − div τp = f,

div u = 0 (4.13)




Dτp
= F (τp , ∇u),
Dt
Un tel système est appelé problème à trois champs : la vitesse u, la pression p,
la contrainte τp . Il est donc significativement plus compliqué à résoudre que
le “simple” problème newtonien (4.9) avec τp = 0, où figurent seulement deux
champs à déterminer, la vitesse et la pression (le tenseur des contraintes s’en
déduit).
Sa simulation numérique peut s’avérer très lourde. Cependant, le prin-
cipal souci avec ce type de systèmes est une difficulté essentielle liée à la
modélisation : il faut établir une relation du type (4.11) ou (4.12) à partir de
la connaissance (partielle souvent) des propriétés physiques du fluide. Pour de
nombreux fluides, on ne sait pas trouver une bonne loi.
Il est donc utile de disposer d’une approche alternative, basée directement
sur le niveau microscopique. Cette approche permettra d’aborder des cas où
on ne connaı̂t pas nécessairement bien le comportement macroscopique du
fluide. Plus précisément, une telle approche permettra d’éviter de faire des
hypothèses simplificatrices superflues dans le but de vouloir à tout prix ob-
tenir une relation du type (4.11) ou (4.12). De telles hypothèses, appelées
hypothèses de clôture, sont en effet particulièrement dangereuses dans les cas
mal connus, car on ne sait pas bien mesurer leur impact sur la qualité de la
simulation finale. Mieux vaut donc s’en affranchir, et décider de se concentrer
sur l’échelle microscopique en faisant directement passer son information au
niveau macroscopique, sans passer par le biais simplificateur d’une relation
du type (4.11) ou (4.12)
Malheureusement, une telle approche a aussi un prix : la lourdeur des
calculs, et c’est pourquoi dans les simulations numériques actuelles, on uti-
lise alternativement les systèmes du type (4.13) ou les systèmes micro-macro
que nous allons voir. D’un point de vue industriel, les systèmes (4.13) sont
clairement plus employés (et d’ailleurs la littérature qui est consacrée à de
tels modèles est énorme), mais les systèmes micro-macro ont sans doute plus
4.2 Modélisation micro-macro des fluides polymériques 133

d’avenir. Une autre observation qui plaide pour investir dans l’approche micro-
macro est qu’elle constitue aussi un moyen de tester et dériver des approxima-
tions (4.11) ou (4.12) sur des cas d’écoulements simples (mais pour des fluides
ayant une physique complexe), approximations qui seront ensuite injectées
dans des systèmes (4.13) avec lesquels on simulera le cas réel.

4.2 Modélisation micro-macro des fluides polymériques


La modélisation micro-macro consiste à utiliser une expression explicite du
tenseur τp en chaque point et à chaque instant en fonction de la dynamique
microscopique des microstructures qui composent le fluide. Dans le cas que
nous allons considérer dans ce chapitre, le fluide est un fluide polymérique
(en fait, nous le verrons, une solution infiniment diluée de polymères) et ces
microstructures sont donc des chaı̂nes polymériques. Mais bien d’autres cas
de microstructures sont possibles : des cristaux liquides, des flocons dans la
neige, des agrégats mésoscopiques dans de la boue, des granulats dans du
béton, etc...

Avant d’aller plus loin dans la modélisation, il est utile, pour comprendre
le contexte et saisir les objectifs et défis de la simulation numérique, de dire
quelques mots des propriétés mécaniques générales des fluides polymériques.
Un polymère est, par définition, une molécule formée par la répétition
d’un grand nombre de motifs chimiques, appelés monomères, liés entre eux
de manière covalente (c’est-à-dire qu’ils partagent entre eux des électrons).
S’il y a plusieurs motifs de base, on parle de copolymères. Les polymères sont
à la base d’une foule de matériaux naturels (le caoutchouc naturel, le bois, le
cuir,...) ou transformés (le caoutchouc vulcanisé, la laine, les carburants,...).
Ils peuvent se classer par leur degré de polymérisation, c’est-à-dire le nombre
N de monomères constituant le polymère : N = 1 à 4 pour les gaz, N = 5
à 15 pour les carburants, N = 25 pour les solides cassants comme la bou-
gie, N > 2000 pour les films plastiques. Lorsque N croı̂t, la température
de fusion augmente et les propriétés polymériques s’affirment : elles com-
mencent pour N = 100 et deviennent véritables pour N = 1000. Dans tous
les cas, liquides ou solides, ce sont les longues chaı̂nes qui donnent au matériau
ses propriétés mécaniques spécifiques, franchement différentes des propriétés
mécaniques d’un matériau constitué de molécules isolées. Ainsi, la longueur
des chaı̂nes empêche le matériau de s’ordonner parfaitement lors de la solidi-
fication, d’où une souplesse des matériaux solides polymériques à cause des
zones restées désordonnées (penser à un pneu) ; de même, les longues chaı̂nes
confèrent aux polymères liquides une viscosité de 6 à 8 ordres de grandeur
supérieure à d’autres liquides (penser à de l’huile de vidange).
Pour les polymères en solution liquide, on aura le cas des bons solvants
dans lesquels les polymères se gonflent (une peinture dans un dissolvant), et
134 4 Modèles micro-macro pour les fluides

celui des mauvais solvants dans lesquels les polymères se recroquevillent (une
peinture dans de l’eau).
Différents cas se présentent aussi du point de vue de la concentration
de la solution. La solution peut être peu concentrée, et plus précisément, ce
qui est le cas particulier que nous considérerons dans toute la suite, infini-
ment diluée, ce qui signifie que les chaı̂nes polymériques qui “flottent” dans
le solvant n’interagissent pas les unes avec les autres car elles sont loin les
unes des autres. Ceci est clairement une restriction, une immense majorité
des fluides polymériques “intéressants” étant ce qu’on appelle des polymères
fondus, où la densité de polymères est beaucoup plus importante. Dans ce
cas, la solution est suffisamment concentrée pour que les différentes chaı̂nes
s’interpénètrent. Les polymères fondus se comportent comme un plat de spa-
ghettis entrelacés et la dynamique du fluide est alors franchement différente
du cas que nous allons regarder ici. La modélisation d’une telle dynamique
est basée sur le concept de reptation introduit par De Gennes : une chaı̂ne
polymérique rampe dans le tube formé par les chaı̂nes qui l’entourent. Dans
le cas des polymères concentrés, des modèles purement macroscopiques et des
modèles micro-macro existent aussi. Il sont basés sur une physique un peu
différente et certainement plus complexe, mais vont comporter des difficultés
similaires pour la simulation numérique. Il est donc légitime de traiter dans
ce cours introductif des solutions infiniment diluées.
Dans le cas des solutions concentrées, on peut alors éventuellement créer
des liaisons (des ponts) entre les chaı̂nes : on parle de polymères réticulés. Si le
taux de réticulation est suffisant, il se forme alors un véritable réseau qui a une
résistance mécanique et se comporte comme un solide. Le solvant exerce une
pression sur le réseau, le maintenant en l’état, et réciproquement, le réseau
emprisonne le solvant, l’empèchant de couler. Ainsi, un exemple de polymère
modérément réticulé est l’élastomère du matériau caoutchouteux constitutif
des pneus (le solvant est le polymère lui-même), et un exemple de polymère
très réticulé est une résine, un plastique rigide. L’étude des matériaux caou-
tchouteux des pneus peut aussi être abordée par des méthodes micro-macro, à
la fois dans l’esprit de celles décrites dans ce chapitre et se rapprochant aussi
des méthodes du Chapitre 1.
Focalisons-nous maintenant sur la modélisation micromacro d’une solution
polymérique infiniment diluée.
En chaque point macroscopique x du fluide, on regarde donc avec une
“loupe” (voir Figure 4.1), pour tenter d’évaluer la contribution τp au tenseur
des contraintes qu’apporte la présence de chaı̂nes polymériques qui s’agitent
dans le fluide.
Chimiquement, une chaı̂ne polymérique est, on l’a dit, une longue chaı̂ne,
comme par exemple le polyéthylène (CH3 ) − (CH2 )n − (CH3 ). Pour nous,
une chaı̂ne polymérique est modélisée comme un objet de la Figure 4.2. On
la voit donc comme un objet purement mécanique. On oublie ici les subtilités
liées à sa structure électronique, à sa modélisation quantique, etc... toutes
4.2 Modélisation micro-macro des fluides polymériques 135

subtilités qui ne peuvent raisonnablement pas être prises en compte dans


la simulation macroscopique pour des raisons évidentes de coût calcul, et
dont il n’est d’ailleurs pas évident qu’elles aient réellement un impact sur les
phénomènes qu’on regarde dans ce chapitre.

Fig. 4.1. En chaque point de la trajectoire d’une particule fluide se trouve une
collection de chaı̂nes polymériques

u2
θ,φ

u
1
r

Fig. 4.2. Une chaı̂ne polymérique : les uj sont les vecteur de liaisons entre les
différents “atomes”, chacun a un couple d’angles (θi , ϕi ), et fait une longueur a ; le
vecteur bout-à-bout est r.

La configuration d’une chaı̂ne est donc donnée par une collection de posi-
tions des “atomes” qui la composent, ou alternativement par une collection de
longueurs interatomiques et d’angles dans l’espace. Chaque “atome” est com-
posé d’une vingtaine de monomères, et donc de plusieurs centaines d’atomes
au sens chimique du terme.
136 4 Modèles micro-macro pour les fluides

Sous l’effet des forces mécaniques présentes dans le fluide, mais aussi sous
l’effet de l’intense bombardement moléculaire auquel la chaı̂ne est soumise
de la part des molécules qui composent le solvant, la chaı̂ne s’agite et se
déforme. Les angles entre liaisons changent, les liaisons s’allongent, et dans
des situations extrèmes, les chaı̂nes peuvent même se casser.
La contribution au tenseur des contraintes τp (t, x) est la résultante de
la réaction de chaque chaı̂ne à ces sollicitations, sommée sur le nombre
considérable de chaı̂nes polymériques présentes au point macroscopique x.
Explicitons cela.

4.2.1 Le modèle de la chaı̂ne libre

Il n’est pas raisonnable de vouloir traiter explicitement la dynamique de


chaque chaı̂ne et d’ensuite sommer sur toutes les chaı̂nes. Il vaut mieux rai-
sonner en termes de physique statistique, c’est-à-dire choisir un représentant
de l’ensemble des chaı̂nes, regarder son évolution, et effectuer une moyenne.
Autrement dit, en chaque point x on introduit une densité de probabilité ψ
qui est définie sur l’espace

(l1 , l2 , ..., lN −1 , θ1 , ϕ1 , ..., θN −1 , ϕN −1 )

des longueurs atomiques et angles de la chaı̂ne type. Ainsi

ψ(l1 , l2 , ..., lN −1 , θ1 , ϕ1 , ..., θN −1 , ϕN −1 ) (4.14)

sera la probabilité que la chaı̂ne ait pour longueur interatomique entre ses
atomes 1 et 2 la longueur l1 , etc... Nous allons alors écrire une équation
d’évolution sur cette probabilité ψ, équation qui tiendra compte de l’environ-
nement de la chaı̂ne. On exprimera alors la contribution au tenseur des
contraintes comme la somme pondérée par ψ de la réponse de la chaı̂ne dans
chacune de ses configurations. Mettons en oeuvre cela sur un cas simple.
On suppose désormais que la chaı̂ne est un assemblage linéaire de N boules
(ses atomes) reliées entre elles par des tiges sans masse (les liaisons). Signalons
tout de suite que les boules pouvent aussi bien représenter des “atomes” que
des groupes d’ ”atomes” (lesquels sont des groupes de monomères), de sorte
que le nombre N peut être considérablement plus faible que le nombre réel
d’atomes (au sens chimique) composant la chaı̂ne polymérique. On prendra
plus loin N = 2 pour simuler des chaı̂nes de plusieurs milliers d’atomes.
Le modèle est bien sûr phénoménologique. L’assemblage ainsi constitué est
supposé totalement libre, c’est à dire qu’il ne résiste pas aux rotations. La
longueur des liaisons, elle, est supposée fixée définitivement à une valeur a, de
sorte que li = a pour tout i dans (4.14).
On introduit aussi le vecteur r (noté exceptionnellement en gras dans
toute la suite pour qu’on ne confonde pas vecteur et longueur) appelé vecteur
4.2 Modélisation micro-macro des fluides polymériques 137

bout-à-bout (ou connecteur) et qui relie la première boule à la N -ième (voir


Figure 4.2). Ce vecteur peut s’écrire comme la somme


N −1
r= aui (4.15)
i=1

où le vecteur ui est le vecteur unitaire définissant la direction de la i-ème


liaison.
En toute généralité (on extrait pour un instant la chaı̂ne polymérique du
solvant où elle se trouve, et on la regarde à l’équilibre), la probabilité que la
i-ème liaison figure avec le couple d’angles d’Euler (θi , ϕi ) est
1
ψi (θi , ϕi ) = sin θi ,

dans ce modèle simple. Il suffit pour le voir de réaliser qu’on a choisi au hasard
un point sur la sphère unité avec la probabilité uniforme.
Comme chaque liaison est supposée orientée indépendamment de la précé-
dente, la probabilité d’avoir la chaı̂ne complète dans la configuration d’angles

(θ1 , ϕ1 , ..., θN −1 , ϕN −1 )

est le simple produit


N −1 N$
−1
1
ψ(θ1 , ϕ1 , ..., θN −1 , ϕN −1 ) = sin θi . (4.16)
4π i=1

Toute quantité B qui dépend de l’état de conformation de la chaı̂ne pourra


alors être calculée par la moyenne

< B >= B(θ N −1 , ϕN −1 ) ψ(θ N −1 , ϕN −1 ) dθ N −1 dϕN −1 (4.17)

où on a noté θ N −1 = (θ1 , ..., θN −1 ), ϕN −1 = (ϕ1 , ..., ϕN −1 ).


L’exercice suivant illustre l’utilisation de cette formule pour une grandeur
B particulière qui va jouer un rôle dans la suite.

Exercice 4.2. On veut évaluer la moyenne < r2 > du carré du module du


vecteur bout-à-bout r. Utiliser la formule (4.17) pour montrer que

< r2 >= (N − 1)a2 (4.18)

où, on le rappelle, a est la longueur de liaison entre deux boules consécutives.

Dans le but de simplifier le modèle, on va alors se concentrer sur le vecteur


bout-à-bout r. La probabilité qu’il ait précisément la valeur r est
138 4 Modèles micro-macro pour les fluides
 
N −1
P (r) = δ(r − aui )ψ(θ N −1 , ϕN −1 ) dθ N −1 dϕN −1 , (4.19)
i=1

où δ est la masse de Dirac et ui est le vecteur unitaire d’angles d’Euler (θi , ϕi ).
En introduisant alors la valeur de ψ donnée par (4.16), on peut montrer par
un calcul simple mais un peu fastidieux qu’une bonne approximation de P ,
pour N grand, est
3/2
N grand 3 2
/2(N −1)a2
P (r) ≈ e−3r . (4.20)
2π(N − 1)a2

C’est l’approximation que nous adoptons désormais de sorte que la distribu-


tion du vecteur bout-à-bout est une loi gaussienne. L’exercice suivant permet
de montrer qu’on n’a pas fait trop d’erreur par cette approximation.
Exercice 4.3. Calculer de nouveau la moyenne < r2 >, cette fois à l’aide de
la probabilité (4.20). Comparer à (4.18).
L’idée est alors de purement et simplement se débarrasser de la description
des N boules liées par N − 1 liaisons et de ne regarder que le vecteur bout-à-
bout r pour définir la configuration de la chaı̂ne polymérique (voir Figure 4.3).
On parle alors de modèle d’haltère, puisqu’il ne subsiste de la chaı̂ne que deux
boules reliées par une tige.

4.2.2 Le modèle d’haltères

Il nous faut maintenant donner une raideur à la tige r. Cette raideur traduira
le fait que la chaı̂ne polymérique a plus ou moins de configurations possibles
selon que |r| est grand ou petit. En effet, par exemple pour |r| = (N − 1)a, la
chaı̂ne est forcément complètement tendue (tous les angles sont nuls), et donc
il n’y a qu’une seule configuration de la chaı̂ne à N boules qui correspond à
une élongation r telle que |r| = (N − 1)a. En revanche pour |r| < (N − 1)a,
plusieurs configurations bien différentes de la chaı̂ne peuvent aboutir in fine
au même vecteur r. Evaluons cela.

Fig. 4.3. Une chaı̂ne polymérique réelle d’une trentaine d’ ”atomes” et sa


modélisation phénomènologique sous forme d’haltère.
4.2 Modélisation micro-macro des fluides polymériques 139

La mécanique statistique enseigne que pour un système dont la distribution


est définie par la loi (4.20), l’énergie libre est donnée par

A(r) = A0 − kT ln P (r)

où T désigne la température, A0 une constante, et k la constante de Boltz-


mann. Quand la configuration r de la chaı̂ne est donc modifiée de dr, l’énergie
libre est modifiée de

dA = −kT d ln P (r)
3kT
= r · dr, (4.21)
(N − 1)a2
d’après la formule (4.20).
Mais d’autre part, pour une modification de ce type à température
constante, la modification d’énergie libre est reliée à la tension F de la chaı̂ne
par
dA = F (r) · dr. (4.22)
En comparant (4.21) et (4.22), on trouve donc l’expression de la valeur de la
tension
3kT
F (r) = r. (4.23)
(N − 1)a2
La force de rappel est l’opposé de cette tension. Tout se passe donc comme si
3kT
on avait à faire à deux boules reliées par un ressort r de raideur K = .
(N − 1)a2
Il s’agit cependant de bien comprendre que la raideur de ce ressort n’est pas
la conséquence de forces de rappel de nature interatomique qui rappelleraient
un atome près d’un autre. C’est une raideur de nature entropique, due au fait
qu’une chaı̂ne allongée explore moins de configurations qu’une chaı̂ne repliée,
et donc que l’agitation tient à raccourcir une chaı̂ne allongée, pour augmenter
l’entropie du système.
Bref, quoi qu’il en soit, la chaı̂ne polymérique de départ se résume à une
haltère r de raideur K. Attachons nous maintenant à décrire la dynamique de
cette haltère, puis à déterminer la façon dont elle contribue à τp .

4.2.3 Les équations

Notons désormais ψ(t, x, r) la densité de probabilité de r au point macrosco-


pique x au temps t. Cela signifie donc qu’au point x et au temps t, la probabi-
lité de trouver une chaı̂ne polymérique représentative dans l’état d’haltère r
à dr près est ψ(t, x, r)dr. L’évolution de ψ d’un instant à un autre au même
point x doit tenir compte du fait que les chaı̂nes polymériques présentes au
point x sont aussi celles qui ont été amenées par le flot macroscopique à la
∂ψ
vitesse u, donc la variation de ψ n’est pas donnée par seulement, mais
∂t
aussi par le transport u · ∇ψ.
140 4 Modèles micro-macro pour les fluides

∂ψ
La variation totale + u · ∇ψ de ψ est alors la résultante de plusieurs
∂t
phénomènes :
– 1 - une force hydrodynamique : l’haltère est allongée (ou raccourcie) par
un effet dû à une interaction avec le fluide ; chacun des deux bouts de
l’haltère est freiné par le fluide avec une force proportionnelle à la vitesse
(via un coefficient de friction ζ), mais comme cette vitesse diffère de ∇u r
d’un bout à l’autre de l’haltère, il en résulte une force d’élongation ; cette
force subie par l’haltère s’exprime donc en fonction de ζ∇u r ;
– 2- une force intrapolymérique : une autre partie des forces est due à la
“force de rappel entropique ” du “ressort” r ;
– 3 - enfin, une force brownienne : la chaı̂ne est bombardée par les
molécules du solvant, ce qui modifie sa configuration, ici le vecteur r.
Le bilan est formalisé par l’équation d’évolution de ψ qu’on appelle
équation de Fokker-Planck :
∂ψ(t, x, r)  2K
+ u · ∇x ψ(t, x, r) = −divr (∇x u r − r)ψ(t, x, r)
∂t ζ (4.24)
2kB T
+ ∆r ψ(t, x, r),
ζ
où ζ est un coefficient de friction, T est la température, et kB la constante
de Boltzmann. Dans cette équation, on reconnaı̂t au membre de droite, dans
l’ordre, les trois termes de force qui s’appliquent sur la chaı̂ne polymériques.
Pour qu’il n’y ait pas d’ambigüité, on a fait figurer en indice des opérateurs
différentiels la variable par rapport à laquelle on dérivait. Au membre de
gauche, le transport est un transport macroscopique (variable x). Au membre
de droite, on gère l’évolution en la variable de configuration r, donc les
opérateurs divergence divr et laplacien ∆r sont par rapport à cette variable.
Par exemple, la force de rappel entropique fait passer d’un r à un r plus petit,
mais n’a aucun rapport avec la variable de position “géographique” x de la
chaı̂ne au sein du fluide macroscopique.
Une fois ceci fait, il nous reste à exprimer le tenseur des contraintes. Phy-
siquement, la contribution de la chaı̂ne est la suivante. On sait que l’on trouve
la valeur de la contrainte au sein d’un matériau en imaginant qu’on coupe ce
matériau par un plan (de vecteur normal n) et en évaluant la force de réaction
agissant sur chacun des deux plans ainsi obtenus par séparation. Cette force
vaut τ · n. En faisant varier n, on identifie ainsi toutes les composantes du ten-
seur des contraintes τ . Faisons cette expérience mentale ici. En découpant le
fluide, on tranche inévitablement bon nombre de chaı̂nes polymériques, dont
la réaction va contribuer (via τp ) à la force de réaction globale des deux plans
de fluide séparés. La réaction de chaque chaı̂ne dépendra de son orientation r.
L’agrégation de la réponse de toutes les chaı̂nes suivant leur position donnera
la réponse totale (voir Figure 4.4). Un calcul montre que cette contribution
est donnée par la formule de Kramer
4.2 Modélisation micro-macro des fluides polymériques 141

τp (t, x) = −np kT Id + np (r ⊗ F (r)) ψ(t, x, r) dr (4.25)

où np désigne le nombre total de polymères par unité de volume. On peut


remarquer que le premier terme sera simplement une constante additive à la
pression, et peut donc désormais être oublié. Seul compte le second terme. Le
modèle global que nous avons donc obtenu est le suivant (avec un léger abus
de notation, on y oublie le terme −np kT Id dans τp , préférant l’inclure dans
la pression p)
⎧ ∂u

⎪ + (u · ∇) u − µ∆u + ∇p − div τp = f,

⎪ ∂t



⎪ div u = 0 


⎨ τ (t, x) = n (r ⊗ Kr) ψ(t, x, r) dr
p p

⎪ ∂ψ(t, x, r)  2K

⎪ + u · ∇x ψ(t, x, r) = −divr (∇x u r −


r)ψ(t, x, r)

⎪ ∂t ζ

⎪ 2kB T
⎩ + ∆r ψ(t, x, r).
ζ
(4.26)
Bien noter que l’équation de Fokker Planck à la troisième ligne est à résoudre
en chaque point macroscopique x. La valeur du tenseur τp fait appel à ψ
qui contient la mémoire des déformations subies. La nature multiéchelle du
système est évidente.

Fig. 4.4. Formule de Kramer : la contribution des chaı̂nes polymériques au tenseur


des contraintes s’obtient en sommant sur toutes les chaı̂nes “coupées” par le plan
considéré.

Arrêtons-nous un instant sur la forme du système (4.26). Au vu de (4.9)


et (4.11), la modélisation purement macroscopique consiste en un système de
la forme ⎧ Du

⎨ Dt = F(τp , u),

(4.27)


⎩ Dτp = G(τ , u),
p
Dt
où D désigne la dérivée convective, où la première ligne figure symbolique-
ment l’équation de conservation de la quantité de mouvement (Navier-Stokes)
142 4 Modèles micro-macro pour les fluides

et la seconde l’évolution du tenseur des contraintes (on oublie la variable


pression pour alléger, elle ne joue pas de rôle dans l’aspect décrit ici). La
modélisation micro-macro introduit, elle, une étape supplémentaire qui n’écrit
pas d’évolution explicite du tenseur des contraintes τp , mais le calcule “point
par point” en fonction d’une variable microscopique Σ (dans (4.26), la densité
ψ dans l’espace de configuration des chaı̂nes polymériques) dont on modélise
l’évolution en temps,
⎧ Du

⎪ = F(τp , u),

⎪ Dt



τp = τp (Σ) (4.28)






⎩ DΣ = G (Σ, u),
µ
Dt
La forme (4.28) se généralise à tous les systèmes à microstructures (poly-
mères fondus, boues, cristaux liquides, ...) : la variable Σ porte en elle toute
la part de la modélisation microscopique, ou mésoscopique. De ce point de
vue, notre propos va être tout à fait général.

Remarque 4.4. On se souviendra ici des problèmes de minimisation (1.21) au


Chapitre 1 et (2.46) au Chapitre 2.

Le lecteur s’imagine sans peine que la simulation numérique de (4.26) n’est


pas une affaire simple. Même dans ce modèle très simple d’haltères, il faut un
schéma numérique de type éléments finis pour les équations macroscopiques
couplé avec un schéma pour résoudre l’équation (de type parabolique) de
Fokker Planck en chaque point (c’est-à-dire en chaque noeud de quadrature
dans la formulation éléments finis). Nous n’allons donc le faire que dans un
cas ultra simple, celui de l’écoulement de Couette qui est en fait un cas mo-
nodimensionnel. Ceci permettra au lecteur de toucher du doigt les difficultés
posées par la discrétisation de (4.26), et lui montrera une stratégie très efficace
pour simuler l’équation de Fokker-Planck, stratégie basée sur une méthode de
nature stochastique.

Remarque 4.5. En fait, le modèle d’haltère à force de rappel linéaire (on parle
de modèle hookéen) que nous avons décrit ici est équivalent à un modèle pure-
ment macroscopique de type (4.13), connu sous le nom de modèle d’Oldroyd B,
identifié et employé bien avant l’émergence des modèles micro-macro que nous
exposons ici (voir l’Exercice 4.8 sur ce point). Tel quel, le modèle (4.26) n’est
donc jamais simulé dans la pratique. Il l’est seulement à titre pédagogique, et
pour tester des méthodologies numériques. Pourquoi ? Parce que dès que le
modèle d’haltères n’a plus une tension F (r) = Kr, ou dès que le modèle de
chaı̂ne polymérique est plus sophistiqué, l’équivalence avec un modèle pure-
ment macroscopique n’est plus vraie. Pour une force F (r) plus générale par
exemple, les deux dernières lignes de (4.26) sont à changer en
4.3 Simulation numérique de l’Ecoulement de Couette 143

⎪ ∂ψ(t, x, r)  2

⎪ + u · ∇x ψ(t, x, r) = −divr (∇x u r − F (r))ψ(t, x, r)

⎪ ∂t ζ

2kB T
+ ∆r ψ(t, x, r),

⎪  ζ



⎩ τp (t, x) = np (r ⊗ F (r)) ψ(t, x, r) dr
(4.29)
On entre alors dans un champ de modélisation nouveau, non couvert par
les modèles macroscopiques. Avoir préparé le terrain sur le simple modèle
d’haltères linéaires est alors de première utilité.

4.3 Simulation numérique de l’Ecoulement de Couette

Nous nous intéressons ici à la simulation d’un écoulement simple de type “plan
de Couette” (cf. Figure 4.5) : le fluide s’écoule entre deux plans parallèles. A
l’instant initial (t = 0), le fluide est au repos. Le plan inférieur (y = 0) est alors
mis en mouvement avec une vitesse V (t) (qu’on supposera plus loin constante
et égale à V ≡ 1 pour tout t > 0, pour simplifier), tandis que le plan supérieur
(y = L) est maintenu fixe. On parle d’un flot de start-up.
Le fluide polymérique que nous considérons est visqueux, incompressible et
homogène. Son tenseur des contraintes comporte une partie τp due à la contri-
bution des chaı̂nes polymériques. Les équations qui régissent son mouvement
sont les équations (4.9) que nous reproduisons ici :

∂u
+ (u · ∇) u − µ∆u + ∇p − div τp = f
∂t (4.30)
div u = 0

Vu la géométrie particulière de l’écoulement de Couette, il est légitime de


faire l’hypothèse que l’écoulement est laminaire, ce qui signifie qu’en chaque
point de l’écoulement, la vitesse est purement colinéaire au vecteur ex , à savoir
u = ux (x, y, t) ex . La contrainte d’incompressibilité impose alors qu’en fait la
vitesse ne dépende pas de la variable x, d’où u = ux (y, t) ex . Désormais, nous
omettons l’indice inférieur x dans ux . La détermination de la vitesse

u = u(y, t) ex (4.31)

se réduit donc à la détermination du champ scalaire u(y, t).


L’objet de l’exercice suivant est d’étudier le cas plus simple du fluide new-
tonien, i.e. τp ≡ 0 dans les équations ci-dessus.
Exercice 4.6. Montrer que pour un fluide incompressible newtonien, moyen-
nant une hypothèse sur la pression (qu’on justifiera), u(y, t) vérifie
144 4 Modèles micro-macro pour les fluides
y

y=L

y=0
x
V
Fig. 4.5. Ecoulement de type “plan de Couette” ; le profil des vitesses représenté
ici correspond à l’écoulement stationnaire d’un fluide newtonien.



⎪ ∂u ∂2u

⎪ (y, t) = µ (y, t)
⎨ ∂t ∂y 2
u(y, 0) = 0 (4.32)



⎪ u(0, t) = V (t)

u(L, t) = 0

Il faut bien comprendre le “miracle” qui permet de simplifier considérable-


ment le problème dans le cas spécifique de l’écoulement de Couette. Le fait
que u = u(y, t) ex entraı̂ne deux simplifications. Premièrement, la propriété
d’incompressibilité est automatiquement vérifiée, puisqu’elle est inscrite dans
la forme de u. Ceci nous évite d’avoir à gérer explicitement l’incompressibi-
lité comme une contrainte, ce qui conduirait à de grosses difficultés tech-
niques (penser à la résolution du problème de Stokes, qui est beaucoup
plus compliquée que celle du problème de Laplace). Deuxièmement, le terme
(u · ∇) u (dit de Navier ) disparaı̂t pour des raisons algébriques, liées encore
à la forme particulière de u. La disparition de cette non linéarité, qui fait
toute la difficulté théorique et pratique de l’équation de Navier-Stokes, est
particulièrement heureuse.

4.3.1 Le modèle micro-macro

Nous considérons maintenant un fluide non newtonien dont, en toute générali-


té, l’évolution couplée micro-macro est décrite par le système suivant
4.3 Simulation numérique de l’Ecoulement de Couette 145


⎪ ∂u 1
+ (u · ∇)u = −∇p∗ + µ∆u + div τp ,



⎪ ∂t ρs



⎪ div u = 0 



⎪ τp (x, y, t) = np K (r ⊗ r) ψ(t, x, y, r) dr

⎨ IRd
∂ψ

⎪ (t, x, y, r)

⎪ ∂t

⎪ 2K

⎪ + (u(x, y, t) · ∇x ) ψ(t, x, y, r) = −div r (∇x u(x, y, t) · r − r)ψ(t, x, r)

⎪ ζ



⎪ σ 2

⎩ + 2 ∆r ψ(t, x, y, r)
ζ
(4.33)
complémenté des mêmes conditions au bord et initiales :

⎨ u(x, y, 0) = 0
u(x, y = 0, t) = V (t) ex , ∀t > 0 (4.34)

u(x, y = L, t) = 0, ∀t > 0

Il s’agit au niveau microscopique d’un modèle d’haltères linéaire : le vecteur


bout-à-bout r est un vecteur de dimension 2, la force de rappel est propor-
2K
tionnelle à l’élongation (cf. le coefficient ).
ζ
Nous avons fait figurer dans ce système toutes les constantes physiques
du problème (que nous avions souvent “oubliées” précédemment dans ce cha-
pitre). Ainsi, np est la concentration volumique du polymère, i.e. le nombre
de chaı̂nes par unité de volume, µ est la viscosité du solvant, ρs est la densité
du solvant, ζ est un coefficient de frottement visqueux. L’intensité σ de la dif-
fusion dépend de la température du solvant : l’agitation thermique augmente
avec la température. Enfin, K est encore la constante de raideur du ressort
entropique.
Au vu de la géométrie et de l’incompressibilité, nous avons fait l’hypothèse
(4.31) sur la forme du champ de vitesse. L’objectif de l’exercice ci-dessous est
de vérifier que ceci est compatible avec les équations (4.33), et de les simplifier
alors, de sorte d’obtenir le système

⎪ ∂u ∂2u 1 ∂τ

⎪ (y, t) = µ 2 (y, t) + (y, t)

⎪ ∂t ∂y ρ s ∂y




⎨ τ (y, t) = np K P Q ψ(t, y, P, Q) dP dQ
IR2


∂ψ
(t, y, P, Q) = −
∂ ∂u
( (y, t)Q −
2K

⎪ P ) ψ(t, y, P, Q)

⎪ ∂t ∂P ∂y ζ

⎪ 2
∂2 ∂2

⎩ +
∂ 2K
Q ψ(t, y, P, Q) + 2
σ
+ ψ(t, y, P, Q)
∂Q ζ ζ ∂P 2 ∂Q2
(4.35)
où P et Q désignent les composantes du vecteur bout-à-bout r sur les axes x
et y respectivement, et τ (y, t) est la composante xy du tenseur τp .
146 4 Modèles micro-macro pour les fluides

Exercice 4.7. Montrer qu’à cause de la géométrie particulière du problème


considéré et de (4.31), le système (4.33) se récrit sous la forme (4.35) en
vérifiant que la pression p∗ et les coefficients diagonaux du tenseur τp ne
jouent pas de rôle dans la détermination du champ de vitesse, et qu’on peut
à bon droit supposer l’indépendance en x de u, ψ et τ .

Exercice 4.8. L’objectif de cet exercice est de vérifier, sur le cas de l’écoule-
ment de Couette (mais le résultat est vrai pour tout écoulement) que le
modèle micro-macro d’haltères linéaires est en fait équivalent à un modèle
purement macroscopique, comme nous l’avons signalé à la Remarque 4.5.
On se concentre sur les deux dernières équations de (4.35), et on considère
momentanément la vitesse u comme connue. Montrer que si  l’on part, pour
1
l’équation de Fokker-Planck, d’une fonction ψ0 qui vérifie Q2 ψ0 =
 R 2 n p K

et P Qψ0 = τ0 , et si l’on suppose np = 2 alors la fonction τ obtenue est
R2 σ
exactement la solution de
∂τ ∂u
+ λτ = , (4.36)
∂t ∂y
pour la donnée initiale τ0 et un certain λ qu’on identifiera.
Montrer alors que l’équation (4.36) est la simplification dans la géométrie
de Couette de l’équation d’Oldroyd B
∂σ
+ u.∇σ − σ t ∇u − ∇u σ + λσ = λ (∇u +t ∇u). (4.37)
∂t
lorsque la vitesse u = u(y, t)ex et lorsque le tenseur des contraintes σ est
supposé dépendre seulement des variables (y, t). On reliera la fonction τ à un
des termes du tenseur des contraintes σ.

La suite de cette section est consacrée à la description de la discrétisation


du système (4.35). On s’intéresse d’abord à la partie macroscopique des
équations, c’est-à-dire à la détermination de u par la première équation de
(4.35) quand on considère la contrainte τ connue. Puis, on examinera deux
méthodes différentes pour simuler la partie microscopique (lignes suivantes de
(4.35)). Bien sûr, ce découpage est purement pédagogique, car dans la simula-
tion réelle, les deux parties sont couplées (voir la fin de la sous-section 4.3.4).

4.3.2 La discrétisation du problème macroscopique

Dans un premier temps, nous considérons le champ de contraintes τ (y, t)


connu, et nous nous focalisons sur la détermination de la vitesse. Cette
détermination va se faire par une discrétisation en éléments finis (cf. Annexe
A pour des rappels de base). Tout commence par la formulation variationnelle
de l’équation de la première ligne de (4.35) :
4.3 Simulation numérique de l’Ecoulement de Couette 147

∂u ∂2u 1 ∂τ
(y, t) = µ 2 (y, t) + (y, t)
∂t ∂y ρs ∂y
La question est


⎪ Chercher u : [0, T ] −→ H 1 (0, L) tel que



⎪ ∂u ∂2u 1 ∂τ
⎨ (y, t) = µ 2 (y, t) + (y, t)
∂t ∂y ρs ∂y (4.38)

⎪ u(y, 0) = 0



⎪ u(0, t) = V (t)

u(L, t) = 0

Nous en faisons la formulation variationnelle suivante :




⎪ Chercher u : [0, T ] −→ HV1 (t) (0, L) tel que

d 1
∀v ∈ H01 (0, L), (u(t), v)L2 = −µ(∂y u(t), ∂y v)L2 − (τ (t), ∂y v)L2

⎪ dt ρ
⎩ s
u(y, 0) = 0
(4.39)
où on a utilisé la notation
 
HV1 (t) (0, L) = v ∈ H 1 (0, L), v(0) = V (t), v(L) = 0 .

Exercice 4.9. Vérifier qu’une solution de (4.39) est solution de (4.38).


Passons à la discrétisation. Comme annoncé et dans un but de simplifica-
tion, on choisit désormais L = 1 et la condition au bord

 0 si t ≤ 0
V (t) =  (4.40)
1 si t > 0

Il est alors naturel d’effectuer une discrétisation par éléments finis de la


variable d’espace y, qui sera suivie d’une discrétisation par différences finies
de la variable temps t. En d’autres termes, on procède comme suit.
On réalise un maillage du segment [0, 1] par N intervalles de longueur
1
identique h = ∆y = . On discrétise la contrainte τ par éléments finis P 0
N
et la vitesse u par éléments finis P 1. Plus précisément, on introduit pour
0 ≤ i ≤ N, ⎧
⎪1
⎪ si y = Ni



ϕi (y) = affine sur [ i−1 i i i+1
N , N ] et [ N , N ] (4.41)





0 N ] ∪ [ N , 1]
si y ∈ [0, i−1 i+1

(avec les adaptations évidentes pour les cas i = 0 et i = N ) et, pour 1 ≤ i ≤ N ,



1 si y ∈ [ i−1 i
N , N[
χi (y) = (4.42)
0 sinon ,
148 4 Modèles micro-macro pour les fluides

Les familles (ϕi )i=0,...,N , (ϕi )i=1,...,N −1 , (χi )i=1,...,N réalisent asymptotique-
ment (quand N −→ +∞) une base des espaces H 1 (]0, 1[), H01 (]0, 1[), L2 (]0, 1[),
respectivement. On construit alors une approximation de τ et u par la
décomposition

N
τ h (y, t) = (τ h )i (t)χi (y), (4.43)
i=1


N
uh (y, t) = (uh )i (t)ϕi (y).
i=0

En raison de la condition au bord, on voit que l’on a nécessairement (uh )0 (t) =


0 pour tout t ≥ 0, (uh )N (t) = 1 pour tout t > 0 (et (uh )N (0) = 0). Les
inconnues sur la vitesse sont donc seulement les (uh )j , j = 1, ..., N − 1 et on
reconstruit pour t > 0 la vitesse uh par


N −1
h
u (y, t) = (uh )i (t)ϕi (y) + ϕN (y),
i=1
uh (y, 0) = 0. (4.44)

Remarque 4.10. Les conditions aux bords ne sont pas toujours éliminées aussi
simplement que dans la situation présente, où il a suffi d’enlever deux incon-
nues (uh )0 et (uh )N . Cependant, la prise en compte de ces conditions aux
bords reste souvent une difficulté d’ordre secondaire.
A ce stade, on a donc approché le problème (4.39) par le problème


⎪ Chercher les (uh )j : [0, T ] −→ IR pour j = 1, ...N − 1

tels que uh (y, t) donné par (4.44) vérifie

⎪ ∀i = 1, ...N − 1, d (uh , ϕi )L2 = −µ(∂y uh , ∂y ϕi )L2 − 1 (τ h (y, t), ∂y ϕi )L2

dt ρs
(4.45)
Ce système est en fait un système d’équations différentielles ordinaires sur les
inconnues (uh )j , qui sont des fonctions du temps t seulement.
On réalise maintenant une discrétisation par différences finies. Plus préci-
sément, on emploie pour le terme visqueux un schéma d’Euler implicite (voir
au Chapitre 5 une analyse précise de ce schéma), qui consiste à approcher une
d
équation w = f (t, w(t)) par le schéma
dt
wn+1 − wn
= f (tn+1 , wn+1 )
∆t
et pour le terme de contrainte un schéma d’Euler explicite (voir aussi au
Chapitre 5 une analyse précise de ce schéma), qui consiste à approcher une
d
équation w = f (t, w(t)) par le schéma
dt
4.3 Simulation numérique de l’Ecoulement de Couette 149

wn+1 − wn
= f (tn , wn )
∆t
Ici, cela revient à approcher la valeur des fonctions (uh )j (t) aux instants tn =
n∆t par les (uh )nj vérifiant


⎪ Chercher les (uh )nj pour j = 1, ...N − 1 et pour n ≥ 0



⎪ tels que (uh )0j ≡ 0 et ∀i = 1, ...N − 1,

⎪ −1 −1

⎪ 
N 
N

⎨ (u h n+1
) ϕ (y) − (uh )nj ϕj (y)
j j
j=1 j=1

⎪ , ϕi

⎪ ∆t

⎪ L2


⎪ N −1
∂   h n+1

⎪ = −µ −
1
((τ h )n , ∂y ϕi )L2

⎩ (u )j ϕi (y) + ϕN (y) , ∂y ϕi
∂y j=1 L2 ρs
(4.46)
où (τ h )n désigne bien sûr l’approximation par différences finies en temps de
τ h au temps tn .
Cet énoncé est la formulation mathématique de l’équation
un+1 − un ∂2 1 ∂τ n
− µ 2 un+1 = , (4.47)
∆t ∂y ρs ∂y
où on a employé des notations plus compactes évidentes. Sur cette forme (dite
semi-discrétisée en temps), on peut comprendre que le travail de discrétisation
en temps qu’on a effectué revient à ramener le problème d’évolution à une suite
de problème stationnaires. En effet, (4.47) s’écrit aussi

1 ∂2
( − µ 2 ) un+1 = f n ,
∆t ∂y
et est donc formellement analogue à une équation de type Stokes (correspon-
dant à la détermination d’un état stationnaire du fluide)

(1 − ∆) u + ∇p = f,

où l’inconnue est un+1 .


Une fois traduit en termes du vecteur colonne
⎛ h n ⎞
(u )1
⎜ ... ⎟
Un = ⎜ ⎝ ...
⎟.
⎠ (4.48)
(uh )nN −1

le système (4.46) s’écrit sous forme du système algébrique

U n+1 − U n 1
M = −µAU n+1 − GS n + B n , (4.49)
∆t ρs
150 4 Modèles micro-macro pour les fluides

Dans ce système algébrique, le terme de contrainte (dernier terme de (4.46))


apparaı̂t sous la forme du produit matrice× vecteur GS n où S n est le vecteur
colonne des (τ h )nj , j = 1, ..., N et G la matrice de taille N − 1 × N
 1 
G= ∂y ϕi χj . (4.50)
0

Les autres matrices et vecteurs apparaissant dans (4.49) sont faciles à déter-
miner.
Exercice 4.11. Identifier les matrices M et A en termes des fonctions χi et
ϕi , ainsi que le vecteur colonne B n .
Pour résoudre (4.49) et déterminer U n+1 pour chaque n, il nous faut main-
tenant expliquer comment mettre à jour S n en S n+1 , i.e. évaluer (τ h )n+1
j
pour chaque j, ce qui correspond au niveau continu à évaluer le tenseur des
contraintes en un point macroscopique en fonction du niveau microscopique.
Nous allons faire ceci par deux méthodes différentes.

4.3.3 La discrétisation du problème microscopique : Méthode 1

Nous nous intéressons maintenant à la discrétisation de la deuxième équation


d’évolution de (4.35), à savoir

∂ψ ∂ ∂u 2K
(t, y, P, Q) = − ( (y, t)Q − P ) ψ(t, y, P, Q)
∂t ∂P ∂y ζ
2
∂ 2K σ2 ∂ ∂2
+ Q ψ(t, y, P, Q) + 2 + ψ(t, y, P, Q).
∂Q ζ ζ ∂P 2 ∂Q2
(4.51)

Il faut bien comprendre que dans cette équation la variable y est un pa-
ramètre, au sens où il y a (au niveau continu) autant d’équations que de
points y et que les opérateurs différentiels ne portent pas sur cette variable
d’espace physique mais sur les variables d’espace (P, Q) qui sont l’espace de
configuration pour l’haltère.
Plus précisément, au niveau discret, il y a, dans notre cas, N équations de
la forme (4.51), chacune d’entre elles étant associée à un intervalle [ i−1 i
N , N ] (et
donc à une fonction de base χi , i = 1, ..., N ), et fournissant ensuite la valeur
de (τ h )ni au pas de temps courant.
Commençons par remarquer que l’équation (4.51) est de la forme
2
∂ψ ∂ψ ∂ψ ∂ ∂2
(t, P, Q) = f (t, P, Q) + g(t, P, Q) +a + ψ(t, P, Q).
∂t ∂P ∂Q ∂P 2 ∂Q2
(4.52)
4.3 Simulation numérique de l’Ecoulement de Couette 151

Dans (4.52), on a noté a le coefficient constant (positif) devant le Lapla-


cien et on a omis un terme “constant” en ψ (qui ne pose pas de difficulté,
changer mentalement ψ en et ψ), ainsi que la dépendance des fonctions f ,
g, ψ par rapport au paramètre y. Il s’agit donc formellement d’une équation
d’advection-diffusion dans le plan (P, Q). L’advection correspond au terme de
dérivée première et la diffusion au Laplacien en les variables P et Q.
Nous discrétisons cette équation par un schéma aux différences finies (on
pourrait faire aussi une discrétisation par éléments finis). Nous imposons donc
à la fonction ψ d’être nulle pour |P | ou |Q| plus grand qu’une grande constante
M (en pratique, il faut quantifier ce M ) et nous discrétisons l’équation avec
donnée au bord nulle sur le carré [−M, M ]2 . Pour cela, une des techniques
possibles est la technique de séparation d’opérateurs (ou splitting). Cette tech-
nique sera étudiée en plus grand détail dans le Chapitre 5. Elle peut ici être
appliquée à deux niveaux. A un premier niveau, on décompose l’équation
(4.52) en deux équations, l’une d’advection

∂ψ ∂ψ ∂ψ
(t, P, Q) = f (t, P, Q) + g(t, P, Q) . (4.53)
∂t ∂P ∂Q
et l’autre de diffusion

∂ψ ∂2 ∂2
(t, P, Q) = a 2
+ ψ(t, P, Q). (4.54)
∂t ∂P ∂Q2

On fera évoluer sur chaque pas de temps ∆t la fonction ψ successivement par


un schéma aux différences finies pour (4.53) et un schéma aux différences finies
pour (4.54) (pour les détails, le lecteur pourra anticiper sur le Chapitre 5, Sec-
tion 5.4). A un deuxième niveau, pour discrétiser chacune des équations (4.53)
et (4.54), qui sont posées sur le plan (P, Q), on peut utiliser la technique de
décomposition d’opérateurs pour avancer successivement dans la direction P
et dans la direction Q (on parle de méthode des directions alternées). Par
exemple, pour l’équation d’advection (4.53), on peut résoudre successivement

∂ψ ∂ψ
(t, P, Q) = f (t, P, Q) . (4.55)
∂t ∂P
∂ψ ∂ψ
(t, P, Q) = g(t, P, Q) . (4.56)
∂t ∂Q
Bien sûr, aux deux niveaux, d’autres techniques sont possibles. Par exemple,
au deuxième niveau, on peut discrétiser par différences finies directement
l’équation de diffusion (4.54) en deux dimensions (P, Q). La raison pour la-
quelle nous insistons ici sur la technique de décomposition est la suivante. Il
ne faut pas perdre de vue que nous décrivons ici un cas simplissime, où le po-
lymère est modélisé dans un espace de configuration à 2 dimensions (le plan
(P, Q)). Lorsque l’espace de configuration devient plus grand (disons 4), il
n’est plus possible d’attaquer directement la résolution par différences finies,
152 4 Modèles micro-macro pour les fluides

la technique de séparation va s’imposer. En fait, très vite, l’attaque directe


de (4.51) par une méthode de différences finies (ou, le constat serait le même,
par une méthode d’éléments finis) devient impossible. D’où la nécessité d’une
approche alternative, qui sera expliquée dans la sous-section suivante.
Revenons pour le moment à notre simple cas de la dimension 2. Nous avons
donc ramené le problème de la simulation de (4.51) par différences finies à une
succession d’équations d’advection ou de diffusion monodimensionnelles. Il
existe beaucoup de techniques pour réaliser les discrétisations par différences
finies de ces équations. Le lecteur se reportera à la bibliographie. On donne
seulement ici un exercice sur une discrétisation de l’équation de diffusion, puis
on s’intéresse à une spécificité liée à notre modélisation.
Exercice 4.12. On suppose que la solution ψ(t, P ) de l’équation de diffusion

∂ψ ∂2
(t, P ) = a 2 ψ(t, P )
∂t ∂P
(avec donnée initiale ψ0 et donnée au bord nulle) est de classe C 4 . Montrer la
convergence du schéma implicite

ψjn+1 − ψjn n+1


ψj+1 − 2ψjn+1 + ψj−1
n+1
−a = 0.
∆t (∆P )2
Les deux exercices suivants étudient comment une propriété particuliè-
rement importante dans notre cas est ou non assurée par les schémas numé-
riques employés. Cette propriété est la propriété de positivité de ψ. En effet,
par rapport à une situation générique où on résout une équation du type
advection-diffusion, la particularité de notre problème réside en ce que, par
construction, ψ est une densité de probabilité
 (cf. (4.14)), ce qui signifie que,
pour tout temps, ψ ≥ 0 partout et ψ = 1. La discrétisée de ψ doit donc
conserver les deux mêmes propriétés au cours du temps dans la simulation
numérique. C’est à la première exigence que nous nous intéressons. La seconde,
qui est une exigence globale (contrairement à la première qui est locale) est en
fait beaucoup plus dure à assurer de façon rigoureuse, et on procède souvent
par une renormalisation pour l’assurer.
Exercice 4.13. Le schéma de Lax-Wendroff pour l’équation d’advection
linéaire
∂ψ ∂ψ
+c =0
∂t ∂P
s’écrit
ψjn+1 − ψjn n
ψj+1 − ψj−1
n n
∆t ψj+1 − 2ψjn + ψj−1
n
+c − c2 = 0, (4.57)
∆t 2∆P 2 (∆P )2
où ∆P et ∆t désignent respectivement les pas d’espace et de temps de la
discrétisation par différences finies, et ψjn la valeur au noeud Pj = j ∆P au
4.3 Simulation numérique de l’Ecoulement de Couette 153

∆t
temps tn = n ∆t. On introduit le coefficient µ = c , dit nombre de Courant.
∆P
Montrer que le schéma de Lax-Wendroff possède la propriété suivante, dite
principe du maximum discret,

a ≤ ψj0 ≤ b, ∀j implique a ≤ ψjn ≤ b, ∀n ≥ 0, ∀j, (4.58)

(pour deux constantes arbitraires a et b) seulement quand µ = −1, 0, ou


1. Expliquer pourquoi il est naturel d’exiger le principe du maximum discret
pour un schéma ayant pour objectif de simuler l’équation d’advection linéaire.

Exercice 4.14. On s’intéresse à la discrétisation de l’équation de diffusion

∂ψ ∂2
(t, P, Q) = a 2 ψ(t, P, Q).
∂t ∂P
Montrer que le schéma de Richardson

ψjn+1 − ψjn−1 n
ψj+1 − 2ψjn + ψj−1
n
−a = 0, (4.59)
2∆t (∆P )2

ne préserve pas le principe du maximum, alors que le schéma de Dufort-


Frankel
ψjn+1 − ψjn−1 n
ψj+1 − ψjn+1 − ψjn−1 + ψj−1
n
−a =0 (4.60)
2∆t (∆P )2
a∆t 1
le préserve si ≤ .
(∆P )2 2
Remarque 4.15. L’enseignement des exercices ci-dessus n’est pas que nous ne
devons pas ici employer un schéma comme par exemple celui de Lax-Wendroff,
mais plutôt qu’il faudra être vigilant sur la positivité de ψ si on l’emploie.

4.3.4 La discrétisation du problème microscopique : Méthode 2

Comme nous l’avons laissé entendre ci-dessus, les techniques de discrétisation


par différences finies et éléments finis sont très vite mises en échec sur une
équation du type (4.51) quand la dimension ambiante (ici 2) devient égale à 4,
5 ou plus. Elles deviennent inaccessibles au delà de la dimension 6 (certaines
recherches en cours visent à tempérer ce constat). Sur notre cas simple bidi-
mensionnel, nous développons maintenant une méthode de discrétisation qui
est, elle, “insensible” à l’accroissement de la dimension : sa mise en oeuvre
est quasiment indépendante de la dimension, et son coût en termes de temps
calcul est linéaire par rapport à la dimension. En une phrase, disons que cette
méthode consiste à évaluer τ (y, t), non pas via la résolution de l’équation
de Fokker-Planck, mais en simulant le système d’équations différentielles sto-
chastiques associées. Pour décrire cette nouvelle méthode, nous devons donc
faire de brefs rappels de théorie des probabilités. Le lecteur savant sur de tels
154 4 Modèles micro-macro pour les fluides

sujets, ou seulement intéressé par le côté formel et prêt à faire confiance peut
aisément omettre les lignes qui suivent et se reporter directement à la sous
section 4.3.4. Comme d’habitude dans ce cours, on insiste sur le fait que la
sous section 4.3.4 ne se substitue pas à un authentique cours de Probabilités.

Notions rapides de théorie des probabilités

Soit Ω un ensemble (figurant l’espace du hasard), et A un sous-ensemble de


l’ensemble P(Ω) des parties de Ω. On dit que A (qui figure alors l’infor-
mation disponible) est une tribu si A est stable par intersection et réunion
dénombrables, par passage au complémentaire et si elle contient les éléments
∅ et Ω. Sur un ensemble Ω muni d’une tribu A, on peut définir une probabilité
P, c’est-à-dire une mesure positive de masse totale 1 définie sur A. Rappe-
lons qu’une mesure (positive) sur Ω est une fonction de Ω dans IR+ ∪ {+∞}
+∞

telle que P(∅) = 0 et P(∪+∞ A
i=1 i ) = P(Ai ) pour toute famille dénombrable
i=1
d’éléments Ai de A disjoints deux à deux. On dit qu’une propriété est vérifiée
presque sûrement si l’ensemble des ω ∈ Ω pour lesquels elle n’est pas vérifiée
est de mesure nulle pour P. Le triplet (Ω, A, P) s’appelle un espace de proba-
bilité.
On peut alors définir la notion de variable aléatoire (à valeurs réelles) : on
appelle ainsi une application X de Ω dans IR mesurable par rapport à la tribu
A, c’est-à-dire que pour tout borélien B de IR, l’ensemble {ω ∈ Ω/X(ω) ∈ B}
appartient à A. Pour chaque ω ∈ Ω, X(ω) est une réalisation de la variable
aléatoire X. La loi de X est la mesure P ◦ X −1 définie par

IE(f (X)) = f (x)d(P ◦ X −1 )(x),

pour toute f bornée.


L’espérance de la variable aléatoire X (d’abord construite pour les va-
riables aléatoires positives, puis étendue aux variables aléatoires de signe quel-
conque pourvu que l’espérance de leur valeur absolue existe) est définie par

IE(X) = X(ω) dP(ω)

On dit alors que la variable aléatoire X admet (par rapport à la mesure


de Lebesgue) une densité, p(x) (fonction positive intégrable, d’intégrale sur IR
égale à 1), si pour toute fonction bornée mesurable f , on a

IE(f (X)) = f (x) p(x) dx.
IR

La loi de X s’écrit donc p(x) dx. Une des densités les plus célèbres est la
densité gaussienne
4.3 Simulation numérique de l’Ecoulement de Couette 155

1 (x−m)2
p(x) = √ e− 2σ 2
σ 2π
de moyenne m et de variance σ 2 . On dit alors que la variable aléatoire X
est gaussienne. L’espérance vaut IE(X) = m et la variance est Var (X) =
IE((X − IE(X))2 ) = IE(X 2 ) − (IE(X))2 = σ 2 .
En pratique, l’espérance de la variable aléatoire X peut être approchée (on
parle de méthode de Monte-Carlo) en moyennant les valeurs de X, trouvées
par un tirage au sort suivant la loi de X. La fondation de cette pratique est
la Loi forte des grands nombres : si (Xi , i ≥ 1) est une suite de variables
aléatoires indépendantes, toutes de même loi que la variable aléatoire X, et
si IE(|X|) < ∞, alors pour presque tout ω,

X1 (ω) + ... + Xn (ω)


IE(X) = lim .
n−→+∞ n
Le Théorème de la limite centrale précise la qualité de cette convergence
en stipulant que, sous les mêmes conditions et la condition supplémentaire
IE(X 2 ) < ∞, la variable aléatoire définie par

n X1 (ω) + ... + Xn (ω)
− IE(X)
σ n

(où σ désigne la variance de X) converge en loi vers une variable aléatoire G, la


1 x2
loi de G étant la loi gaussienne centrée réduite p(x) = √ e− 2 . Rappelons

qu’une suite de variables aléatoires Yn converge en loi vers G si IE(f (Yn ))
tend vers IE(f (G)) pour toute fonction f continue bornée. Ce résultat ex-
plique évidemment le rôle crucial joué par la loi gaussienne en théorie des
probabilités.
Introduisons maintenant une dépendance en temps des objets ci-dessus.
Un processus stochastique (à temps continu et à valeurs réelles) est une
famille (Xt )t≥0 de variables aléatoires indicées par le temps, définies sur un
espace de probabilité (Ω, A, P).
Une filtration (Ft , t ≥ 0) est une suite croissante, indicée par le temps,
de sous tribus de la tribu A. Un processus stochastique Xt est dit Ft -adapté
si, pour chaque t, Xt est une variable aléatoire mesurable par rapport à Ft .
A l’inverse, un processus stochastique Xt étant fixé, la filtration naturelle
associée à Xt est la filtration Ft formée, pour chaque t ≥ 0, de la plus petite
tribu rendant les applications ω −→ Xs (ω) mesurables pour 0 ≤ s ≤ t.
On peut maintenant définir la notion de mouvement brownien. Un pro-
cessus (à valeurs réelles) Xt est un mouvement brownien si c’est un processus
à trajectoires presque sûrement continues (i.e. en dehors d’un ensemble de
probabilité nulle, les fonctions s −→ Xs (ω) sont continues), à accroissements
indépendants (si s ≤ t, la variable aléatoire Xt − Xs est indépendante de
la tribu “naturelle” Fs , i.e. pour tout A ∈ Fs , et toute fonction f bornée
156 4 Modèles micro-macro pour les fluides

mesurable IE(1A f (Xt − Xs )) = IE(f (Xt − Xs ))P(A)), et à accroissements sta-


tionnaires (si s ≤ t, la loi de Xt − Xs est identique à celle de Xt−s − X0 ).
En fait ces trois propriétés impliquent conjointement (ce n’est pas immédiat)
que la variable aléatoire Xt − X0 suit nécessairement une loi gaussienne de
moyenne rt (pour un certain r) et de variance σ 2 t (pour un certain σ). Il n’est
pas évident qu’un mouvement brownien existe, mais c’est vrai.
La dernière étape des éléments de théorie des probabilités que nous don-
nerons ici concerne les équations différentielles stochastiques, et cette étape
n’est en fait pas un rappel, car le niveau de ces notions dépasse largement le
cadre de ce cours, et d’un cours de deuxième cycle de probabilités.
Considérons un ensemble Ω = Ω1 ×Ω2 (Ω1 sera l’espace du hasard pour la
donnée initiale, Ω2 l’espace du hasard pour les trajectoires browniennes dans le
temps), muni d’une probabilité P (produit de deux probabilités sur Ω1 et Ω2 ).
Considérons aussi une tribu F, une filtration Ft et un mouvement brownien
Ft -adapté, noté Bt . Soit σ > 0 une constante fixée, appelée dispersion. Soit
f (t, x) une fonction régulière, souvent appelée drift (ou dérive en français). Le
cadre mathématique naturel est f mesurable par rapport à t, et lipschitzienne
et à croissance au plus linéaire (i.e. |f (t, x)| ≤ C(1 + |x|) pour tout t, x) par
rapport à x, la constante de Lipschitz et la constante C étant uniforme en
t ∈ [0, T ]. On introduit alors l’équation différentielle stochastique
dXt = f (t, Xt ) dt + σ dBt , (4.61)
avec comme condition initiale la variable aléatoire X0 (ω1 ), définie sur Ω1 .
Cette écriture (4.61) est formelle. Elle a le sens mathématique suivant : on dit
que Xt est solution de (4.61) si
 t
Xt (ω1 , ω2 ) = X0 (ω1 ) + f (s, Xs (ω1 , ω2 )) ds + σ Bt (ω2 ), (4.62)
0

presque sûrement, l’intégrale s’entendant au sens habituel de Lebesgue.


Nous sommes alors (enfin !) en mesure d’énoncer la propriété capitale pour
notre méthode de résolution.
Sous de bonnes hypothèses, si Xt est solution de l’équation différentielle
stochastique (4.61) alors la densité de Xt , notée p(t, x), est solution de
l’équation de Fokker Planck
∂p ∂ σ2 ∂ 2 p
(t, x) + (f (t, x) p(t, x)) − (t, x) = 0. (4.63)
∂t ∂x 2 ∂x2
Bien sûr, pour que ceci ait lieu, il faut que les données initiales des deux
équations se correspondent, à savoir que p(t = 0, x) soit fixée à la valeur p0
densité de la variable aléatoire X0 donnée initiale pour l’équation différentielle
stochastique.
Nous allons utiliser ce changement de point de vue pour bâtir notre
deuxième méthode de discrétisation. La seule petite nuance par rapport au
4.3 Simulation numérique de l’Ecoulement de Couette 157

cadre développé ci-dessus est que nous allons travailler en dimension 2 au lieu
de 1.
Remarque 4.16. S’il est juste (sous les bonnes conditions évoquées ci-dessus,
lesquelles reviennent grosso modo à supposer que la solution de l’équation
de Fokker-Planck est unique) que tout processus Xt solution de l’équation
différentielle stochastique a sa densité qui vérifie l’équation de Fokker-Planck,
la réciproque est fausse, en toute généralité : tout processus qui a pour densité
p n’est pas forcément solution de l’équation différentielle stochastique. Ainsi,
un contrexemple est fourni par l’Exercice 4.19. En fait, ceci se comprend en
gardant à l’esprit qu’il y a plus d’information dans le processus que dans
sa densité, puisqu’on peut avec lui calculer plus que de simples espérances
IE(ϕ(Xt )) (comme par exemple IE(ψ(Xt , Xs ))). Il est donc “normal” qu’à une
densité correspondent beaucoup de processus. Si la densité est une solution
d’une équation de Fokker-Planck, il peut y avoir beaucoup de processus l’ayant
pour densité et n’entretenant aucun rapport avec l’équation différentielle sto-
chastique sous-jacente.
Remarque 4.17. Dans le cas qui nous intéresse, nous sommes seulement intéres-
sés par les espérances figurant dans la définition du tenseur des contraintes.
Elles sont les seules quantités pertinentes du point de vue de la modélisation.
Il y a donc toutes les raisons, au vu de la Remarque qui précède, de se concen-
trer sur le point de vue Fokker-Planck et il peut alors paraı̂tre paradoxal de
faire appel à l’approche équation différentielle stochastique qui privilégie un
processus particulier ayant cette densité, à savoir la solution de l’équation
différentielle stochastique. Seuls des aspects d’efficacité numérique justifient
en fait un tel changement de point de vue.
Remarque 4.18. Nous n’avons volontairement rien dit de l’existence et de l’uni-
cité de la solution Xt de l’équation différentielle stochastique. Il existe bien
sûr tout un cadre théorique qui formalise des théorèmes d’existence et d’uni-
cité pour de telles équations. En fait, pour l’unicité, la bonne notion est le
plus souvent du point de vue pratique la notion d’unicité en loi (aussi ap-
pelée unicité faible), qui est vraie quand toutes les solutions Xt donnent la
même densité p et donc les mêmes espérances calculées. Peu importe en fait
le processus particulier Xt .

En fait, il est utile de signaler que la présentation que nous venons de


faire d’une équation différentielle stochastique est une présentation simplifiée.
Consacrons quelques lignes à une présentation plus générale. Notre motiva-
tion est que pour d’autres modèles de polymères, comme ceux formés d’un
assemblage de barres rigides et non de ressorts, l’objet mathématique obtenu
lors de la modélisation est bien une équation différentielle stochastique mais
pas une de la forme simple (4.61).
A l’aide d’un mouvement brownien standard (de moyenne nulle (r = 0)
et de variance t (σ = 1)), noté Bt , on peut construire la notion d’intégrale
158 4 Modèles micro-macro pour les fluides

d’Itô. Cette intégrale est construite à la manière de l’intégrale de Riemann,


en la définissant d’abord pour les fonctions en escalier puis en approchant
une fonction plus générale par une suite de fonctions en escaliers. Pour un
découpage {s0 = 0, ..., sj , ..., sn = t} de [0, t] et un processus

n
Ys (ω) = Ỹj−1 (ω)1]sj−1 ,sj ] (s)
j=1

bâti avec des variables aléatoires Ỹj (telles que IE(|Ỹj |) < +∞), on pose
 t  n
Ys dBs = Ỹj−1 (Bsj − Bsj−1 ).
0 j=1

Puis, par un procédé dit d’approximation, cela permet de définir un nouveau


processus stochastique, dit intégrale d’Itô du processus (Yt )0≤t≤T
 t
Ys dBs ,
0
 T
dès que Yt (ω)2 dt < +∞, pour presque tout ω (cette condition est par
0
exemple remplie dès que Yt est un processus continu). Dans le cas simple où
Yt ≡ 1, on retrouve bien sûr
 t
dBs = Bt .
0

Reprenons alors l’ensemble Ω = Ω1 × Ω2 introduit ci-dessus, une tribu F,


une filtration Ft et un mouvement brownien Ft -adapté, noté Bt . Considérons
de nouveau un drift régulier f , mais aussi une dispersion qui est main-
tenant une fonction σ régulière (ayant typiquement les mêmes propriétés
mathématiques que celles mentionnées ci-dessus pour f ). On introduit alors
l’équation différentielle stochastique
dXt = f (t, Xt ) dt + σ(t, Xt ) dBt , (4.64)
avec comme condition initiale la variable aléatoire X0 (ω1 ), définie sur Ω1 .
Comme ci-dessus, il s’agit d’une écriture formelle. On dit que Xt est solution
de (4.64) si
 t  t
Xt (ω1 , ω2 ) = X0 (ω1 ) + f (s, Xs (ω1 , ω2 )) ds + σ(s, Xs ) dBs (ω1 , ω2 ),
0 0
(4.65)
presque sûrement, la première intégrale s’entendant au sens habituel de Le-
besgue, et la seconde au sens d’Itô. Les équations différentielles stochastiques
comme (4.65) font aujourd’hui l’objet d’une importante littérature et appa-
raissent dans de nombreux champs de la modélisation (l’un des plus célèbres
étant la finance mathématique).
4.3 Simulation numérique de l’Ecoulement de Couette 159

Exercice 4.19. On considère l’équation différentielle stochastique


1
dXt = − Xt dt + dWt , (4.66)
2
pour la donnée initiale X0 , de loi la gaussienne centrée réduite. Montrer que
sa solution est donnée par
 t
Xt = e −t/2
X0 + e(s − t)/2 dWs ,
0

et vérifier que la loi de Xt est la gaussienne centrée réduite. Montrer aussi que
l’équation de Fokker-Planck associée à (4.66) est

∂p(t, x) 1 ∂ 1 ∂2
− (xp(t, x)) − p(t, x) = 0, (4.67)
∂t 2 ∂x 2 ∂x2
1 2
avec la donnée initiale p(0, x) = √ e−x /2 . Vérifier alors que le processus

constant gaussien centré réduit Yt = G a sa densité qui vérifie (4.67) alors que
bien sûr lui-même ne vérifie pas l’équation différentielle stochastique (4.66).
Conclure.

Application à une méthode alternative de discrétisation

On choisit d’évaluer τ (y, t), non pas via la résolution de l’équation de Fokker-
Planck

∂ψ ∂ ∂u 2K
(t, y, P, Q) = − ( (y, t)Q − P ) ψ(t, y, P, Q)
∂t ∂P ∂y ζ
2
∂ 2K σ2 ∂ ∂2
+ Qψ(t, y, P, Q) + 2 + ψ(t, y, P, Q),
∂Q ζ ζ ∂P 2 ∂Q2
(4.68)

mais en simulant le système d’équations différentielles stochastiques associé,


qui s’écrit
⎧ √

⎪ dP (y, t) = ∂u 2K 2σ
⎨ (y, t)Q(t) − P (y, t) dt + dVt
∂y √ ζ ζ (4.69)

⎪ dQ(t) = − 2K Q(t)dt + 2 σ dW
⎩ t
ζ ζ
où Vt et Wt sont deux mouvements browniens monodimensionnels indépen-
dants.

On peut alors montrer (cf. la section ci-dessus) que la densité ψ(P, Q, t) de


la variable aléatoire (P (t), Q(t)) est solution de (4.68). On rappelle, d’après le
160 4 Modèles micro-macro pour les fluides

paragraphe précédent, que, par définition, à chaque instant t, et pour chaque


y fixé, 
IE(f (P (t), Q(t))) = f (P, Q)ψ(P, Q, t) dP dQ

pour toute fonction f mesurable bornée. On admettra que ceci entraı̂ne aussi,
dans les conditions où nous sommes, en choisissant f (a, b) = ab, que le tenseur
des contraintes s’écrit, pour tout instant t, des deux façons suivantes

τ (y, t) = np K P Q ψ(t, y, P, Q) dP dQ = np K IE(P (y, t)Q(t)). (4.70)
IR2

C’est bien sûr de la seconde façon que nous choisissons maintenant de le


calculer.
Remarque 4.20. Cette seconde vision des choses, qui revient aux processus
stochastiques plutôt qu’à leur loi, est en fait dans notre cas un juste retour
aux sources. Nous revenons à la simulation d’une haltère générique, dont le
vecteur bout-à-bout a pour coordonnées (Pt , Qt ) un couple de processus sto-
chastiques dont l’évolution est régie par une équation différentielle stochas-
tique. Le tenseur des contraintes s’évalue alors par une espérance, c’est-à-dire
dans la discrétisation par une moyenne sur les configurations des différents
polymères en un point de l’espace. Cette vision est tout-à-fait naturelle dans
notre contexte.
On complémente le système (4.69) de conditions initiales homogènes en
y, et on note que Q ne dépend pas de la variable d’espace y. On utilise un
schéma d’Euler explicite pour intégrer les deux EDS. On obtient ainsi un
système discret de la forme
⎧ √

⎪ Uin+1 − Ui−1
n+1
2K ∆t 2∆tσ n
⎨ Pin+1 = ∆t Qn + 1 − Pin + Vi
∆y √ ζ ζ
(4.71)

⎪ 2K ∆t 2∆tσ n
⎩ Qn+1 = 1 − n
Q + W
ζ ζ
pour 1 ≤ i ≤ N , où Vin et W n représentent
√ des variables gaussiennes centrées
réduites indépendantes. Ainsi, ∆tVin est une approximation discrète de la
i−1 i
variable aléatoire accroissement Vtn +∆t − Vtn dans la maille [ , [. On
N N
évalue alors
τin+1 = np K IE(Pin+1 Qn+1 ) (4.72)

Pour évaluer la contrainte (τ h )i , on engendre en pratique J réalisations des


variables aléatoires Pin et Qn :

Uin+1 − Ui−1
n+1
2K ∆t 2∆tσ n
n+1
Pi,j = ∆t Qj + 1 −
n n
Pi,j + Vi,j (4.73)
∆y ζ ζ

2K ∆t 2∆tσ n
Qn+1
j = 1− Qnj + Wj
ζ ζ
4.3 Simulation numérique de l’Ecoulement de Couette 161

pour 1 ≤ j ≤ J (où les variables Vi,j n


et Wjn sont des gaussiennes centrées
réduites indépendantes), et on obtient (τ h )n+1
i en calculant l’espérance empi-
rique (cf. la loi forte des grands nombres) :

np K  n+1 n+1
J
(τ h )n+1
i = P Qj (4.74)
J j=1 i,j

Il reste enfin à préciser les conditions initiales sur P et Q. Le fluide étant au


repos à l’instant initial, on prend naturellement (τ h )0i = 0 pour tout i, et pour
cela on choisit pour Pi0 et Q0 des gaussiennes centrées indépendantes.
A ce stade, on sait donc simuler complètement le système (4.35) sous la
forme (4.49)-(4.73)-(4.74).
Une remarque très importante s’impose alors : comme la contrainte
(τ h )n+1
i discrète s’exprime par une moyenne empirique (4.74), elle est donc
aussi une variable aléatoire, alors que tant qu’on n’a pas discrétisé au niveau
Monte-Carlo, elle est encore une variable déterministe (l’espérance (4.72) est
une variable déterministe). Il s’ensuit que, dans cette deuxième méthode basée
sur une technique stochastique, et contrairement à la première méthode pure-
ment déterministe, la vitesse macroscopique du fluide, qui dépend de (τ h )n+1i
via l’équation macroscopique (4.46), est aussi une variable aléatoire !
Ceci a la conséquence inattendue suivante : pour calculer avec cette se-
conde méthode une vitesse du fluide, ou une champ de contrainte, il faudra
moyenner le résultat sur plusieurs expériences numériques.
Même moyennée, une telle simulation rencontre les habituelles difficultés
des simulations de type Monte-Carlo, comme la présence de bruit. Nous ter-
minons donc cette section par des notions plus avancées sur ce type de simu-
lation, que le lecteur peu attiré par ces aspects peut aisément omettre, sans
préjudice pour la suite du cours.

Si on dispose de J réalisations indépendantes (Xi )1≤i≤J d’une variable


aléatoire X dont on cherche à calculer l’espérance, on a par le théorème de la
limite centrale
  
1
J
σ σ
P Xi ∈ IE(X) − 1.96 √ , IE(X) + 1.96 √ ≈ 0.95
J i=1 J J

où σ 2 = Var (X) = IE((X − IE(X))2 ) désigne la variance de X.


Exercice 4.21. Montrer le résultat suivant, qui donne également une estima-
tion de l’erreur d’approximation, mais cette fois en norme L2 :
⎛ 2 ⎞
1 J
σ2
IE ⎝ Xi − IE(X) ⎠ ≤ .
J i=1 J
162 4 Modèles micro-macro pour les fluides

On voit donc qu’à nombre de réalisations fixé, plus la variance est petite,
meilleure est l’approximation.
Pour réduire la variance et améliorer ainsi la convergence, on peut mettre en
oeuvre des méthodes dites de réduction de variance. En voici deux exemples.
La première méthode consiste à corréler en espace les trajectoires des Pi .
L’idée est de diminuer le bruit dû aux variations du brownien en espace dans
le calcul du tenseur des contraintes. Concrètement, cette méthode consiste à
0
prendre comme condition initiale sur les Pi : Pi,j = Pj0 , Pj0 désignant des
gaussiennes centrées ne dépendant pas de i et à remplacer (4.73) par

U n+1 − Ui−1
n+1
2K ∆t 2∆tσ n
n+1
Pi,j = ∆t i Qj n + 1 − n
Pi,j + Vj . (4.75)
∆y ζ ζ
Noter que Vjn a remplacé Vi,j
n
.

La seconde méthode (de portée plus générale) consiste à utiliser des va-
riables de contrôle. Il s’agit de ne pas calculer directement IE(P Q), mais
séparément chacun des deux termes de la somme

IE(P Q) = IE(P̃ Q̃) + IE(P Q − P̃ Q̃)

où P̃ et Q̃ sont deux processus aléatoires (définis par des EDS) tels que
– IE(P̃ Q̃) soit facile à calculer ”analytiquement” (tout au moins sans si-
mulation stochastique)
– P̃ Q̃ soit proche de P Q de telle sorte que Var(P Q − P̃ Q̃) << Var(P Q).
Les deux choix extrêmes sont les suivants :
– P̃ = Q̃ = 0 auquel cas IE(P̃ Q̃) est très facile à calculer mais on n’a rien
gagné en variance ;
– P̃ = P et Q̃ = Q auquel cas Var(P Q − P̃ Q̃) = 0 mais IE(P̃ Q̃) n’est alors
pas plus facile à calculer que IE(P Q) !
Il s’agit donc de trouver un compromis entre deux exigences incompatibles.
Dans le cas qui nous intéresse, on peut définir P̃ et Q̃ par les EDS vérifiées
par P et Q respectivement en l’absence de cisaillement. On obtient ainsi

2K 2σ
dP̃ (t) = − P̃ (t)dt + dVt
ζ ζ

2K 2σ
dQ̃(t) = − Q̃(t)dt + dWt .
ζ ζ

On observe qu’alors Q̃ et Q vérifient la même EDS et que P̃ ne dépend plus


de y. Par ailleurs, on a évidemment IE(P̃ Q̃) = 0 car P̃ et Q̃ sont indépendants,
et chacun d’espérance nulle (c’est un simple calcul sur l’EDS ci-dessus). Pour
simuler IE(P Q − P̃ Q̃) on utilise le schéma d’Euler explicite. On pose donc,
pour chaque n, Q̃nj = Qnj et
4.3 Simulation numérique de l’Ecoulement de Couette 163

2K 2∆tσ n
n+1
P̃i,j = 1− n
P̃i,j + Vi,j . (4.76)
ζ ζ

Exercice 4.22. Pour obtenir effectivement une réduction de variance, il est


n
nécessaire d’utiliser pour simuler P̃ les mêmes Vi,j que ceux utilisés pour
simuler P . Pour quelle raison ?

Pour calculer (τ h )n+1


i on utilise donc finalement, en lieu et place de (4.74),

(τ h )n+1
i = np KIE(P Q)
= np K(IE(P̃ Q̃) + IE(P Q − P̃ Q̃))
= np K(0 + IE(P Q − P̃ Q̃))
np K  n+1 n+1
J
≈ (P Qj − P̃i,j
n+1 n+1
Q̃j )
J j=1 i,j

np K 
J
≈ ((P n+1 − P̃i,j
n+1
)Qn+1 ) (4.77)
J j=1 i,j j

Avant de passer à un résultat numérique, il est utile de d’abord synthétiser


la démarche en indiquant ce que représente globalement la simulation numé-
rique. A chaque instant tn , connaissant ((uh )n , (τ h )n ), on avance en temps
d’un pas de longueur ∆t de la manière suivante :

(1) connaissant les (τ h )ni pour tous les intervalles indicés par i, on insère
ces valeurs dans la discrétisation éléments finis en espace (y) et dif-
férences finies en temps (4.49) de l’équation macroscopique fluide ; on
en déduit les nouvelles valeurs de la vitesse Uin+1 (1 ≤ i ≤ N − 1).
(2) en chaque intervalle de longueur ∆y,
(2.1) on simule une collection de J réalisations des processus de
Wiener Vi,j n
et Wjn (1 ≤ j ≤ J) (en fait les seconds sont indépendants
de l’intervalle, mais c’est une singularité due à la simplicité du cas
que nous avons choisi) ; si on adopte une méthode de réduction de
variance par variables de contrôle, on met à jour la variable P̃i,j par
(4.76) ;
(2.2) en utilisant les valeurs de Uin+1 (1 ≤ i ≤ N − 1), on réalise
l’avancée d’un pas de temps des schémas aux différences finies (4.73)
discrétisant les équations différentielles stochastiques (4.69), d’où les
n+1
valeurs de Pi,j et Qn+1
j ;
(2.3) en moyennant sur les J réalisations, on obtient la moyenne
empirique (4.74) donnant la valeur du tenseur des contraintes (τ h )n+1 i
au nouveau pas de temps, et on boucle.
164 4 Modèles micro-macro pour les fluides

Remarque 4.23. Il faut bien sûr noter que les sous-étapes (2.1)-(2.2)-(2.3) peu-
vent être effectuées en parallèle (ce qui peut être un gain de temps colossal,
vu le nombre d’intervalles). Dans un gros calcul, sur un gros ordinateur, on
distribue sur chaque processeur un certain nombre de tels intervalles en espace.
Charge à chacun de faire évoluer d’un pas de temps “ses” haltères. De même
(mais le gain est moins important, et on pourrait faire autrement), les étapes
(1) et (2) décrites ci-dessus peuvent être faites simultanément.

Remarque 4.24. On remarquera qu’il y a exactement autant d’équations diffé-


rentielles stochastiques que de dimensions dans l’espace de configuration. Il
est donc clair que le coût du calcul est proportionnel à la dimension, et non
exponentiel comme dans le cas des discrétisations de l’équation de Fokker-
Planck (en effet, s’il faut N points pour une discrétisation différences finies
en 1D, il faudra, pour obtenir la même précision, grosso modo N d points en
dimension d).

Ayant décrit les deux approches Fokker-Planck (méthode 1 de la Sec-


tion 4.3.3) et Equations différentielles Stochastiques (méthode 2 de la Sec-
tion 4.3.4), il est utile de commenter leurs intérêts respectifs.
La méthode 1 est pour l’instant restreinte aux cas de petites dimensions,
vu les questions de complexité évoquées dans la Remarque 4.24. Cependant,
quand elle est possible, elle est plus rapide que la méthode 2 (dans cette
dernière, la génération du hasard, plus la gestion des différentes réalisations
des processus prennent du temps), et ceci se comprend d’un point de vue
heuristique si on se souvient de la Remarque 4.17 : la méthode 1 ne calcule
que ce qui est requis par le modèle, à savoir la densité, alors que la méthode 2
calcule plus que cela, à savoir le processus. Le bilan actuel de la recherche
en ce domaine est donc : on utilise la méthode 1 dès que cela est possible, à
savoir pour les cas de petite dimension, et la méthode 2 pour traiter les plus
grandes dimensions. Les efforts portent à la fois sur des tentatives d’extension
de la méthode 1 à des plus grandes dimensions, et des accélérations de la
méthode 2 en grandes dimensions. Bien entendu, cela n’empèche pas de tester
et améliorer la méthode 2 dès la petite dimension, c’est ce que nous avons fait
ici.

4.3.5 Un résultat numérique

Le résultat ci-dessus met en évidence l’effet d’overshoot : lorsqu’on met en


mouvement un fluide viscoélastique dans un plan de Couette par un échelon
de vitesse (4.40), la vitesse peut prendre localement des valeurs supérieures à
la vitesse d’équilibre asymptotique
y
u(y) = 1 − ,
H
4.4 A lire après le Chapitre 5 : notions de base d’analyse numérique des EDS 165
I=100 N=20
1.5

0
0 1
x

Fig. 4.6. Evolution du profil de vitesse au cours du temps. I désigne le nombre de


pas de discrétisation en espace et N le nombre de pas de temps.

ce qui n’arrive jamais avec un fluide newtonien.


L’interprétation est la suivante. Quand les polymères ne sont pas orientés
dans le sens de l’écoulement, le gradient de vitesse les réoriente, tout en les
étirant. Les ressorts stockent alors de l’énergie. Une fois qu’ils sont orientés,
les ressorts peuvent se détendre (ils ne sentent plus de gradients de vitesse)
et ils libèrent alors de l’énergie dans le fluide qui s’accélère au-delà de la
vitesse asymptotique. Ce phénomène a par exemple l’application suivante :
on rajoute parfois des polymères dans l’eau des lances d’incendie pour qu’à
puissance égale leur jet porte plus loin.

4.4 A lire après le Chapitre 5 : notions de base d’analyse


numérique des EDS
Nous donnons ici quelques éléments d’analyse numérique pour les schémas de
discrétisation des équations différentielles stochastiques. Comme l’indique son
titre, cette section est à lire en deuxième lecture, quand le Chapitre 5, où fi-
gurent notamment les notions de base pour l’analyse numérique des équations
différentielles ordinaires, c’est-à-dire déterministes, aura été étudié.
Pour notre exposé, nous allons prendre comme prototype d’équation
différentielle stochastique l’équation suivante

dXt = f (Xt ) dt + σ(Xt ) dBt , (4.78)

de donnée initiale X0 , pour des données f et σ suffisamment régulières (i.e.


lipschitziennes et à croissance au plus linéaire). Des extensions à de telles
166 4 Modèles micro-macro pour les fluides

fonctions f et σ dépendant explicitement du temps (i.e. f (t, Xt ) et σ(t, Xt ))


peuvent être envisagées, mais elles ne le seront pas ici. De même que ne le
seront pas le cas de données f et σ moins régulières.
Comme d’habitude, on rappelle que (4.78) n’est qu’une notation pour
l’équation  
t t
Xt = X 0 + f (Xs ) ds + σ(Xs ) dBs , (4.79)
0 0
vraie presque sûrement, et pour tout temps t. Pour l’approximation de la
solution Xt de cette équation aux temps tn = n∆t par une variable aléatoire
en temps discret Xn , le schéma le plus simple est le schéma dit schéma d’Euler-
Maruyama suivant, très intuitif,

Xn+1 = Xn + f (Xn ) ∆t + σ(Xn ) (Btn+1 − Btn ). (4.80)

C’est en fait le schéma que nous avons spontanément utilisé en (4.71). Dans
la pratique, comme l’accroissement Btn+1 − Btn est une variable aléatoire
gaussienne centré de variance tn+1 − tn = ∆t, on simulera

Xn+1 = Xn + f (Xn ) ∆t + σ(Xn ) ∆tN (0, 1), (4.81)

où N (0, 1) est une variable aléatoire gaussienne centrée réduite.


Comme Xtn , solution exacte de (4.78) au temps tn = n∆t, et Xn sont
des variables aléatoires, toutes les normes ne sont pas équivalentes pour
évaluer leur différence. Il s’ensuit différentes notions de convergence du schéma
numérique.

4.4.1 Convergence forte du schéma

La première notion de convergence est la suivante.


Définition 4.25. Le schéma numérique pour la simulation de l’équation
différentielle stochastique est dit avoir l’ordre α > 0 de convergence forte
s’il existe une constante C, éventuellement dépendant de l’intervalle [0, T ] de
simulation, telle que, pour toute discrétisation de pas ∆t, on a, pour tout n,
 
IE Xn − Xtn  ≤ C (∆t)α . (4.82)

A l’aide de cette définition, regardons en détail la discrétisation que nous


avons effectuée en (4.71). Nous avons écrit une approximation du type
 tn+1  tn+1
Xn+1 − Xn = f (Xt ) dt + dBt
tn tn
≈ f (Xn ) ∆t + (Btn+1 − Btn ) (4.83)

pour une équation différentielle stochastique en fait de la forme (4.61) i.e.

dXt = f (t, Xt ) dt + σ dBt .


4.4 A lire après le Chapitre 5 : notions de base d’analyse numérique des EDS 167

Il est intuitif de voir (et ceci peut évidemment se montrer rigoureusement)


que l’ordre de cette approximation est ∆t, puisque l’erreur d’approximation
est entièrement due au premier terme d’intégrale et est celle de l’habituel
schéma d’Euler explicite. Cependant, cette situation simplifiée où σ ≡ 1 (la
dispersion est constante devant le brownien) est une situation trompeuse. En
fait, en toute généralité, on peut montrer que le schéma d’Euler-Maruyama
est fortement convergent d’ordre α = 1/2 seulement.
On peut en fait interpréter cet écart d’un demi-ordre entre le schéma et
son analogue déterministe comme une “erreur de calcul” dans l’établissement
du schéma d’Euler-Maruyama. D’une certaine manière, on a mené pour écrire
le schéma (4.80) à partir de l’équation (4.78) un calcul différentiel habituel
(c’est-à-dire déterministe) alors qu’on aurait dû faire un calcul différentiel
particulier, dit calcul d’Itô, tenant compte du fait que le mouvement brownien
n’est pas à variation quadratique bornée (ou, en termes plus simples, que
(dBt )2 est d’ordre dt).
Une manière de faire percevoir l’erreur commise est la suivante. Pour
l’intégrale de Lebesgue, il est évident que
N  
 −1 tn+1  
N −1
 2
 (σ(t) − σ(tn )) dt ≤ σ  L∞ tn+1 − tn = O(dt). (4.84)

n=0 tn n=0

Mais pour l’intégrale d’Itô, la même stratégie de majoration donne formelle-


ment
N −1  tn+1  −1
  
N
 2
 (σ(B ) − σ(B )) dB  ≤ σ  L∞ Btn+1 − Btn = O(1),
 t tn t 
n=0 tn n=0
 (4.85)
en vertu de la loi forte des grands nombres (les variables aléatoires Btn+1 −
2
Btn sont indépendantes et toutes d’espérance tn+1 − tn = dt). Approcher la
fonction par la fonction en escalier “naturelle” ne conduit donc pas à la qualité
d’approximation voulue. Alternativement, au niveau continu, cela correspond
au fait que la loi de dérivation des fonctions composées n’est pas celle du cadre
déterministe (on parle de formule d’Itô pour une telle loi).
Précisons un peu cela. Avec un calcul différentiel classique, on écrit à partir
de (4.78), c’est-à-dire de la forme intégrée (4.79),
 tn+1  tn+1
Xn+1 − Xn = f (Xt ) dt + σ(Xt ) dBt
tn tn
≈ f (Xn ) ∆t + σ(Xn ) (Btn+1 − Btn ) (4.86)

où l’approximation de la seconde intégrale est simplement


 tn+1  tn+1
σ(Xt ) dBt ≈ σ(Xn ) dBt = σ(Xn ) (Btn+1 − Btn ) (4.87)
tn tn
168 4 Modèles micro-macro pour les fluides

d’où le schéma (4.80). Cette approximation (4.87) n’est pas exacte à l’ordre
∆t, mais à l’ordre (∆t)1/2 parce qu’elle consiste à négliger la dérivée de σ(Xs )
(ce qui n’a aucune influence dans le cas où σ est constant, conformément à
ce qu’on a vu ci-dessus). On a en fait oublié un terme d’ordre supérieur à ∆t,
rendant impossible d’obtenir un schéma fortement convergent d’ordre 1.
En fait, la bonne façon de procéder est de faire un calcul d’Itô sur σ(Xt )
qui s’écrit (on l’admet)
 t
σ(Xt ) = σ(Xtn ) + σ(Xs )σ  (Xs ) dBs
tn
 t
1
+ σ  (Xs )f (Xs ) + σ  (Xs )σ 2 (Xs ) ds.
tn 2

Cette relation est la forme mathématique de


1
d(σ(Xt )) = σ  (Xt ) dXt + σ  (Xt )σ 2 (Xt )dt,
2
qui est une loi des fonctions composées différente du cas déterministe. Elle
conduit donc à approcher σ(Xt ) selon
 t
σ(Xt ) ≈ σ(Xtn ) + σ(Xs )σ  (Xs ) dBs ≈ σ(Xtn ) + σ(Xn )σ  (Xn ) (Bt − Btn )
tn

En insérant cela dans l’intégrale (4.87), on obtient donc


 tn+1
σ(Xt ) dBt
tn
 tn+1
≈ σ(Xtn ) (Btn+1 − Btn ) + σ(Xn )σ  (Xn ) (Bt − Btn ) dBt
tn

= σ(Xtn ) (Btn+1 − Btn ) + σ(Xn )σ  (Xn ) (Btn+1 − Btn )2 − ∆t

En regroupant, on a introduit le schéma dit schéma d’Euler-Milstein

Xn+1 − Xn = f (Xn ) ∆t + σ(Xn ) (Btn+1 − Btn )


1  (4.88)
+ σ(Xn )σ  (Xn ) (Btn+1 − Btn )2 − ∆t
2
Ce schéma est, lui, fortement convergent d’ordre 1 pour la discrétisation
de (4.78) (avec des données f et σ assez régulières), comme son analogue
déterministe, le schéma d’Euler explicite. On notera bien sûr que, quand le
terme σ devant le brownien est une fonction constante, ce qui est le cas dans
notre simulation de fluides polymériques, les deux schémas d’Euler-Maruyama
et Euler-Milstein sont identiques.
4.4 A lire après le Chapitre 5 : notions de base d’analyse numérique des EDS 169

4.4.2 Convergence faible du schéma

La notion d’ordre de convergence forte mesure l’écart entre simulation numéri-


que et solution exacte en termes d’espérance, c’est-à-dire en moyenne. Elle a
notamment une implication sur l’écart pour chaque réalisation, puisque dès
que les variables aléatoires |Xn − Xn∆t | sont d’espérance bornée, on peut
affirmer
1
IP(|Xn − Xtn | ≥ a) ≤ IE(|Xn − Xtn |), (4.89)
a
et donc, dans la situation d’un schéma d’ordre 1/2,

IP |Xn − Xtn | ≥ (∆t)1/4 ≤ C(∆t)1/4 , (4.90)

ce qui donne une évaluation, réalisation par réalisation, de l’erreur numérique


réalisée.
On peut être moins exigeant que la convergence forte, qui demande la
convergence en moyenne, et introduire la.
Définition 4.26. Dans les mêmes conditions que la Définition précédente, on
dit que le schéma a l’ordre β de convergence faible, s’il existe une constante
C telle que  
   
IE ϕ(Xn ) − IE ϕ(Xn∆t )  ≤ C (∆t)β , (4.91)
 
pour toute fonction ϕ de classe C ∞ , telle qu’elle-même et toutes ses dérivées
soient à croissance polynômiale à l’infini.
Cette définition se justifie en ce que, dans la plupart des situations pratiques,
on ne cherche pas à calculer véritablement le processus Xt lui-même, mais
seulement une espérance bâtie à partir de ce processus, ne faisant donc inter-

venir que la densité de ce processus, ou en d’autres termes des IE ϕ(Xn∆t ) ,
dont la précision est précisément régie par cette notion de convergence faible.
Ceci est exactement la situation pour notre simulation de fluides polymèriques,
puisque les équations différentielles stochastiques sont alors utilisées pour
calculer le tenseur des contraintes par la formule (4.70), c’est-à-dire une
espérance.
On peut montrer que le schéma d’Euler-Maruyama est faiblement conver-
gent d’ordre β = 1 pour l’approximation de l’équation différentielle stochas-
tique (4.78) avec des données f et σ suffisamment régulières. La notion de
convergence faible permet donc de retrouver le résultat d’ordre du cadre
déterministe.
170 4 Modèles micro-macro pour les fluides

4.4.3 Stabilité asymptotique du schéma

Introduisons une dernière notion. Pour juger de la qualité d’un schéma de


discrétisation numérique sur les longs temps d’intégration, nous avons intro-
duit pour les équations différentielles ordinaires la notion de stabilité, mesuré
sur l’équation prototype (5.22) à savoir

y  (t) = λ y(t)

pour λ ∈ C | . Nous mesurions alors la capacité d’un schéma à reproduire la

convergence en temps long vers zéro, lorsque λ a une partie réelle négative.
Ici, pour notre cadre stochastique, nous introduisons de même l’équation
différentielle stochastique

dXt = λ Xt dt + µ Xt dBt , (4.92)

où λ et µ sont deux complexes fixés. Il est facile de voir que selon la position
de λ et µ dans le plan complexe, on a le comportement suivant de la solution
de (4.92) quand t −→ +∞,
1 2
lim IE(Xt2 ) = 0 si et seulement si Re(λ) + |µ| < 0 (4.93)
t−→+∞ 2
ce qu’on appelle stabilité en moyenne et

limt−→+∞ |Xt | = 0 avec probabilité 1


1
si et seulement si Re(λ −µ2 ) < 0
2
(4.94)
ce qu’on appelle stabilité asymptotique. Noter que les deux notions de stabilité
coı̈ncident dans le cas déterministe µ = 0, et redonnent ce qui est connu. De
là, la double définition suivante.
Définition 4.27. On appelle domaine de stabilité en moyenne, et respective-
ment domaine de stabilité asymptotique, d’un schéma numérique donné les
domaines des valeurs de (∆t, λ, µ) dans IR+ × C | 2 pour lesquelles le schéma

numérique reproduit pour la solution discrète les comportements des membres


de gauche de (4.93) et (4.94).
Pour le schéma d’Euler-Maruyama, on peut montrer

lim IE(Xn2 ) = 0 si et seulement si |1 + ∆t λ|2 + ∆t |µ|2 < 1


n−→+∞
(4.95)
et
limn−→+∞ |Xn | = 0 avec probabilité 1
(4.96)
 √ 
si et seulement si IE Log 1 + ∆t λ + ∆t µ N (0, 1) <0
4.5 Bibliographie 171

En conclusion de cette section sur les équations différentielles stochas-


tiques, soulignons le fait que l’on ne doit pas s’étonner du fait que les résultats
d’analyse numérique sur la simulation de ces équations sont beaucoup plus
pauvres que leurs analogues sur les équations déterministes. La raison est es-
sentiellement que les difficultés sont plus grandes, et le sujet plus jeune (il a
à peine 50 ans alors que la convergence du schéma d’Euler a été utilisée par
Cauchy pour sa preuve constructive de solution).

4.5 Bibliographie

Les modèles standards de fluides newtoniens incompressibles, ainsi que leur si-
mulation numérique peuvent être lus respectivement dans Y. Bamberger [10],
B. Lucquin et O. Pironneau [54] M. Gunzburger [40] par ordre de difficulté.
Pour la simulation des fluides non newtoniens par des modèles purement ma-
croscopiques on pourra se reporter à R. Keunings [48].
La physique et la rhéologie des polymères font l’objet d’une littérature
importante. Les propriétés basiques des polymères que nous avons décrites
sont extraites du cours de F. Devreux [32]. Pour les modèles micro-macro pour
les fluides polymériques, les références les plus pédagogiques, avec lesquelles
ont été écrites les pages qui précèdent sont constituées par les traités de M.
Doi [28], M. Doi et SF. Edwards [29], R. Bird, Ch. Curtiss, C. Armstrong, O.
Hassager [14], HC. Ottinger [62]. Une autre excellente référence est le livre de
R. Owens et T. Phillips [63].
On pourra lire aussi dans [62] des éléments de théorie des probabilités
adaptés aux modèles étudiés. Pour une introduction très pédagogique à la
simulation des équations différentielles stochastiques, on recommande l’article
de D. J. Higham [45].
Enfin, signalons que l’analyse mathématique et numérique de modèles
micro-macro abordés rapidement ici fait l’objet d’une série de travaux récents
par B. Jourdain, T. Lelièvre et C. Le Bris initiés dans [47]. On pourra lire
aussi des travaux effectués par d’autres groupes (notamment celui de Weinan
E à Princeton, celui de Felix Otto à Bonn, et celui de Pingwen Zhang à Pékin)
sur les mêmes sujets ou des sujets reliés.
5
Cinétique chimique

Nous allons voir dans ce dernier chapitre un exemple de systèmes multiéchelles


en temps, les équations de la cinétique chimique. Ces équations décrivent
l’évolution des concentrations d’espèces chimiques dans un réacteur chimique,
ou dans l’atmosphère par exemple. Elles font intervenir plusieurs échelles
de temps, parfois différentes de plusieurs ordres de grandeur. Les simuler
numériquement est donc particulièrement difficile. On peut certes choisir un
pas de temps numérique de l’ordre de la plus petite des échelles de temps,
mais alors on n’aura aucune chance de simuler le système sur un intervalle
de temps suffisamment grand pour voir évoluer significativement les espèces
les plus lentes. On ne peut pas non plus choisir un pas de temps grand,
dans l’idée d’atteindre une plus grande efficacité, car alors il serait impos-
sible de suivre l’évolution des petites échelles de temps. Donc il faut trouver
une solution numérique adaptée. Nous en présentons ici trois : l’adoption
de schémas numériques efficaces, la décomposition en sous-étapes adaptées à
chaque échelle de temps, et la réduction du système qui consiste à éliminer
les échelles de temps les plus courtes.

5.1 Modélisation de la cinétique chimique


On considère un système réactif comportant Ne espèces chimiques Yi , dans
lequel Nr réactions peuvent avoir lieu. Ces réactions s’écrivent


Ne 
Ne
− k +
νir Yi −→
r
νir Yi ,
i=1 i=1

− +
où kr désigne le taux de réaction de la réaction r, les coefficients νir et νir étant
les coefficients stoechiométriques de l’espèce Yi comme réactif et produit de la
réaction r. L’équation différentielle qui donne la variation de la concentration
yi de l’espèce Yi est donc :
174 5 Cinétique chimique

dyi 
Nr $
Ne
ν−
+ −
= kr (νir − νir ) yj jr .
dt i=1 j=1

Si pour simplifier on ne prend par exemple que trois espèces et trois réactions
k
3 2 k 1 k
Y3 −→ Y2 −→ Y1 −→ Y2 ,

on voit que le système s’écrit



⎪ dy1

⎪ = −k1 y1 +k2 y2
⎪ dt





dy2
= k1 y1 −k2 y2 +k3 y3 (5.1)

⎪ dt






⎩ dy3 = −k3 y3
dt
Pour certains triplets (k1 , k2 , k3 ) le système différentiel ci-dessus va s’avérer
très difficile à simuler, ceci se produisant dès que les taux de réaction kr
présentent des ordres de grandeur très différents. Nous allons voir pourquoi,
et présenter des solutions. Signalons que les techniques que nous allons décrire
non seulement s’appliquent aux systèmes linéaires comme (5.1), mais aussi
s’adaptent à des systèmes non linéaires (présence de termes du type y1 y2 par
exemple au membre de droite de (5.1)). Commençons par une introduction ra-
pide à l’analyse numérique des méthodes utilisées pour simuler numériquement
un système d’équations différentielles ordinaires comme (5.1). Comme d’ha-
bitude dans ce cours, on donne cette introduction dans le but de faciliter la
tâche du lecteur, mais une telle introduction ne se substitue pas à un vrai
cours centré sur le sujet.

5.2 Notions rapides d’analyse numérique des EDO


Fixons un intervalle I de la droite réelle de la forme [0, T ] où T > 0 vaut
éventuellement +∞. On se donne y0 ∈ IRm et une fonction f définie sur
I × IRm à valeurs dans IRm , et on cherche à trouver une fonction y continue
et dérivable sur I, à valeurs dans IRm telle que,
 
y = f (t, y(t)) pour tout t ∈ I,
(5.2)
y(t = 0) = y0 .

Ce problème s’appelle un problème de Cauchy. La valeur y0 est sa donnée


initiale, aussi appelée condition de Cauchy. Dans toute la suite, une fonction
y continue et dérivable sur I, à valeurs dans IRm , qui vérifie (5.2) est dite
solution du problème de Cauchy (5.2).
5.2 Notions rapides d’analyse numérique des EDO 175

5.2.1 Généralités et schéma d’Euler explicite

Nous supposons que le problème de Cauchy (5.2) admet une unique solution
sur un intervalle [0, T ] (T fini), ce qui va en particulier être assuré par la
condition de Lipschitz suivante : on suppose que la fonction f est continue
sur I × IRm et de plus qu’il existe un réel L (dit constante de Lipschitz de la
fonction f ) tel que

∀t ∈ I, ∀y, z ∈ IRm , |f (t, y) − f (t, z)| ≤ L|y − z|. (5.3)

Une variante de (5.3) est : il existe une fonction l ∈ L1 (I) telle que

∀t ∈ I, ∀y, z ∈ IRm , (f (t, y) − f (t, z), y − z) ≤ l(t)|y − z|2 . (5.4)

Pour simplifier, nous supposons désormais que y est à valeurs réelles (m = 1),
sauf mention explicite du contraire.
Pour résoudre numériquement (5.2), la méthode naturelle est de découper
l’intervalle [0, T ] en N intervalles, de longueurs non nécessairement identiques
0 = t0 < t1 < t2 < ... < tN −1 < tN = T , de poser hn = tn+1 − tn ,
h = max0≤n≤N −1 hn , et d’utiliser le schéma dit schéma d’Euler explicite

yn+1 = yn + hn f (tn , yn ), 0 ≤ n ≤ N − 1 (5.5)

avec la donnée initiale y0 figurant dans (5.2).


L’objectif de l’analyse numérique in fine est de savoir à quel point la so-
lution numérique yn (0 ≤ n ≤ N ) sera une approximation convenable de
la solution exacte y(t) prise aux instants t0 , t1 , ..., tN correspondants. Nous
définissons donc l’erreur au temps tn par

en = y(tn ) − yn . (5.6)

Le schéma définit une approximation numérique convergente (voir la Défini-


tion 5.10 plus loin) si lim max0≤n≤N |en | = 0.
h−→0

A l’instant tn+1 , l’erreur en+1 , qui représente la différence entre la solution


exacte y(tn+1 ) et la solution approchée yn+1 , peut être décomposée de la façon
suivante :
• l’erreur qui vient juste d’être faite sur le pas de temps [tn , tn+1 ]
• et l’erreur qui venait de tous les pas de temps antérieurs.
Pour quantifier la première erreur, on peut imaginer la situation où on aurait
calculé de façon parfaite jusqu’à l’instant tn : on aurait donc la valeur exacte
y(tn ) à l’instant tn . En insérant cette valeur dans le schéma numérique, on
ferait, sur le pas de temps [tn , tn+1 ], une erreur liée seulement au schéma
numérique lui-même qui serait
 
εn = y(tn+1 ) − y(tn ) + hn f (tn , y(tn )) .
176 5 Cinétique chimique

Cette erreur, commise spécifiquement sur le pas de temps [tn , tn+1 ], est ap-
pelée erreur locale de troncature au temps tn , et est mesurée par la notion
de précision du schéma. En particulier, le schéma sera dit consistant si cette
erreur décroit strictement plus vite que h, en un sens que nous préciserons
plus loin.
Quant à la seconde erreur, elle n’est pas locale, mais globale. Elle a comme
origine l’accumulation des erreurs locales de troncature à tous les pas de temps
précédents. Cette erreur peut être contrôlée par une notion dite de stabilité.
Si on arrive à construire un schéma permettant de maı̂triser à la fois le
premier type d’erreur et le second, il y a toutes les chances que ce schéma
fournisse une approximation convergente. Nous verrons que c’est effectivement
le cas à l’Exercice 5.11 (pour l’exemple des schémas à un pas).

solution exacte y(t)

εn

en
solution numérique y
n

y
0

t t n+1 t
n

Fig. 5.1. L’erreur de troncature εn et l’erreur globale en .

Dans le cadre du schéma (5.5), l’erreur de troncature s’écrit


 tn+1
 
εn = y(tn+1 ) − y(tn ) + hn f (tn , y(tn )) = (y  (t) − y  (tn )) dt (5.7)
tn

et peut donc être contrôlée, dès que la solution exacte y est de classe C 2 (ce
qui est le cas dès que la fonction f est C 1 ) par
 tn+1
|εn | ≤ hn |y  (t)| dt, (5.8)
tn

ce qui montre en particulier que la méthode est donc consistante. On contrôle


alors l’accumulation des erreurs en examinant l’erreur en+1 , qu’on décompose
5.2 Notions rapides d’analyse numérique des EDO 177

sous la forme

en+1 = en + hn (f (tn , y(tn )) − f (tn , yn )) + εn .

Si f vérifie la condition de Lipschitz (5.3), on en déduit |en+1 | ≤ (1+Lh)|en |+


|εn |. A l’aide d’un raisonnement par récurrence sur n, avec e0 = 0, il est
basique de voir que ceci implique l’estimation suivante, qui exprime en fait la
stabilité du schéma :

n−1
|en | ≤ |εk |eL(tn −tk+1 ) , (5.9)
k=0

On déduit de (5.8) et (5.9) :


n−1  tk+1
|en | ≤ h eL(tn −tk+1 ) |y  (t)| dt
k=0 tk

  tk+1
n−1
≤h |y  (t)|eL(tn −t) dt
k=0 tk
 tn
≤h |y  (t)|eL(tn −t) dt.
0

Nous avons prouvé le résultat suivant.

Théorème 5.1. Quand la fonction f vérifie la condition de Lipschitz (5.3),


le schéma d’Euler explicite est convergent. Si la solution exacte y est de plus
de classe C 2 , on peut estimer l’erreur par
 tn
|en | ≤ h |y  (t)|eL(tn −t) dt. (5.10)
0

Le coût d’une méthode comme (5.5) est seulement déterminé par les
évaluations de la fonction f à chaque pas de temps. Economiser du temps
de calcul nécessite donc de réduire le nombre de pas de temps, ou, ce qui
revient au même, d’augmenter les hn . L’idée motrice est de se dire que quand
on remarque que l’erreur qu’on commet est tolérable, on s’autorise pour les
quelques pas de temps qui suivent un pas de temps plus large, et quand au
contraire, on décèle une erreur devenant dangereusement grande, on raffine
localement le pas de temps. On parle d’une stratégie de contrôle du pas, la-
quelle peut être très difficile à mettre en oeuvre, surtout sur les problèmes
multiéchelles qui nous occuperont plus loin.

Exercice 5.2. L’objet de l’exercice est de montrer que le schéma d’Euler


explicite nécessite de petits pas de temps. On considère
 
y = −20 y pour tout t ∈ [0, 1],
(5.11)
y(t = 0) = 1.
178 5 Cinétique chimique

Comme la solution exacte est y(t) = e−20t , on s’attend à ce que, même sur le
segment [0,1], la solution s’écrase vite vers 0. Calculer (à la main !) la solution
numérique obtenue via le schéma d’Euler explicite pour le pas de temps ∆t =
1/10, puis pour ∆t = 1/20. Commenter.
Programmer la résolution pour ∆t = 1/40.

5.2.2 Schéma d’Euler implicite

On introduit le schéma suivant, dit schéma d’Euler implicite

yn+1 = yn + hn f (tn+1 , yn+1 ), 0 ≤ n ≤ N − 1 (5.12)

pour la résolution du système (5.2).


La dénomination implicite est claire : yn+1 est une fonction implicite
de yn , et cela justifie rétrospectivement la dénomination explicite pour le
schéma (5.5). En pratique, il ne sera pas forcément facile de calculer yn+1
à partir de yn via la relation (5.12). Ceci peut par exemple nécessiter un
algorithme de résolution de type Newton, lequel nécessitera lui-même une
résolution de système linéaire à chaque itération. Dans l’évaluation du coût
d’une méthode implicite, on devra tenir compte, non seulement comme dans
le cas des méthodes explicites du nombre de pas de temps, mais du coût de
chacun des pas de temps.
L’erreur de troncature du schéma d’Euler implicite est la même que pour
le schéma d’Euler explicite, mais la différence cruciale entre les deux schémas
se situe dans l’analyse de la stabilité. Nous rappellerons la définition exacte
de la stabilité ci-dessous (stabilité et stabilité absolue, respectivement aux
Définitions 5.8 et 5.12). Regardons ici un critère lié à cette notion de stabilité,
à savoir le fait de pouvoir affirmer sur la résolution de
 
y = −λy,
(5.13)
y(0) = y0

avec λ > 0, que |yn | est uniformément borné en n.


Il est immédiat de vérifier que le schéma (5.12) s’écrit alors (1+λhn )yn+1 =
yn , d’où
$n
1
yn+1 = y0 . (5.14)
1 + λhk
k=0

On déduit de (5.14) que |yn | reste borné (par |y0 | ici) pour tout n,
indépendamment d’ailleurs du choix des pas hk . Il est instructif de faire la
comparaison avec le schéma d’Euler explicite qui donne :
$
n
yn+1 = (1 − λhk )y0 , (5.15)
k=0

et qui donc ne fournira une solution bornée pour tout n que sous une contrainte
sur les pas hk . Pour un schéma comme le schéma d’Euler implicite on pourra
5.2 Notions rapides d’analyse numérique des EDO 179

donc économiser du temps calcul en choisissant un pas de temps plus grand,


contrepartie du fait que chaque itération “implicite” est plus coûteuse.
Remarque 5.3. On ne doit pas penser pour autant que le schéma d’Euler impli-
cite est parfait ! Pour l’équation (5.13) avec λ < 0, il fournit une approximation
yn qui tend vers 0 quand n −→ +∞ alors que la solution exacte explose vers
+∞.
Nous avons le résultat suivant, que nous admettons (voir cependant un cas
particulier en exercice) :
Théorème 5.4. On suppose que la fonction f vérifie la condition (5.4) et que
pour tout n, hn l(tn+1 ) < 1. Alors, la formule de récurrence (5.12) définit bien
une valeur unique de yn+1 et la méthode d’Euler implicite est convergente.
Exercice 5.5. On applique le schéma d’Euler implicite sur l’équation (5.13),
avec λ > 0 grand. Montrer que l’erreur s’écrit pour tout n
 n−1
n−1 $
1
en = εl . (5.16)
1 + λhk
l=0 k=l+1

En déduire une estimation de |en | quand le pas h est constant. Comparer avec
le cas du schéma d’Euler explicite. Montrer que le schéma d’Euler implicite
est convergent pour l’équation (5.13).
On peut en fait remarquer que prouver la convergence d’un schéma im-
plicite quand le pas h tend vers zéro est un peu une coquetterie. En effet,
cela revient à montrer que quand le pas de temps tend vers zéro, les choses se
passent bien, alors que dans la pratique tout l’intérêt d’un schéma implicite
est de pouvoir prendre un pas de temps grand, même quand les constantes de
Lipschitz sont grandes ! A cela, deux réponses au moins :
- il est utile de vérifier la convergence quand h −→ 0 pour avoir une idée de
la qualité du schéma ;
- il existe d’autres études de convergence des schémas implicites, valables
précisément dans un contexte où on n’a pas h petit à L grand donné, mais
par exemple hL −→ +∞, ce qui est plus proche de la réalité ; ces études
sont le fait des “professionnels” de la résolution numérique des équations
différentielles ordinaires difficiles (“raides”, au sens d’une définition que
nous verrons plus loin), et dépassent largement, par leur technicité, le
cadre de ce cours. Nous verrons cependant des idées dans la même direc-
tion à la section 5.3.

5.2.3 Précision, stabilité et convergence

Nous rappelons maintenant dans le cadre simplifié qui est le nôtre ici les
notions de précision, consistance, stabilité d’une méthode que nous avons in-
troduites ci-dessus dans le cas des schémas d’Euler.
180 5 Cinétique chimique

Définition 5.6. Nous appelons ordre du schéma

yn+1 = yn + hn Φ(tn , yn ; hn ), (5.17)

le plus grand entier p tel que l’erreur locale de troncature vérifie



y(t + h) − y(t) − hΦ(t, y(t); h) = O h p+1
. (5.18)

pour toute fonction f qui est p fois continûment dérivable et toute solution
y(t) de (5.2). Nous dirons de façon équivalente qu’il est précis à l’ordre p + 1.
Le schéma sera dit consistant s’il est d’ordre p ≥ 1.

Noter qu’avec Φ(t, y; h) = f (t, y) on retrouve ci-dessus le schéma d’Euler


explicite. Le schéma d’Euler implicite (5.12) se met aussi sous la forme ci-
dessus en choisissant hΦ(t, y; h) = Ψ (t, y; h) − y, où Ψ (t, y; h) est (sous réserve
de bonnes conditions sur la fonction f ) l’unique solution z de z = y + hf (t +
h, z).

Remarque 5.7. On pourrait se poser  la question suivante


: pourquoi la pro-
priété minimale exigée est-elle O h2 et pas O h ? ou, en d’autres termes,
pourquoi la consistance est-elle associée à p = 1 et non à p = 0 pour l’erreur
de troncature ? La raison est qu’on ne s’intéresse pas tant à une erreur de
troncature, mais à la somme d’entre elles. Si on impose (5.18) avec p ≥ 1, on
voit que

 −1 −1
N
  N 
y(t + h) − y(t) − hΦ(t, y(t); h) ≤ O h2
n=0 n=0
−1
N  
= h O h = T O h −→ 0,
n=0

ce qui ne serait pas vrai pour (5.18) avec seulement p = 0. Certains auteurs
choisissent ainsi de définir la consistance de manière un peu différente, mais
avec le même objectif.

Passons maintenant à la stabilité.

Définition 5.8. Le schéma (5.17) est dit stable si il existe h∗ > 0 et une
T
constante M indépendante de h∗ et de N (mais dépendant éventuel-
n=1 hn
lement de T ) telle que, pour toutes les suites hn ≤ h∗ , yn , zn , δn vérifiant,
pour 0 ≤ n < N , yn+1 = yn +hn Φ(tn , yn ; hn ), zn+1 = zn +hn Φ(tn , zn ; hn )+δn ,
on a   
max0≤n≤N |zn − yn | ≤ M |y0 − z0 | + |δn | . (5.19)
0≤n<N
5.2 Notions rapides d’analyse numérique des EDO 181

Le lecteur comparera cette définition de stabilité “discrète” portant sur le


schéma numérique avec la formulation “continue” de stabilité suivante portant
sur l’équation elle-même, qu’il connaı̂t sans doute et que nous rappelons ici.

Définition 5.9. Un problème de Cauchy du type (5.2) est dit stable si il existe
une constante C telle que pour tout ε > 0 fixé et pour toute perturbation δ 0 ∈
IRm et δ(t) ∈ C 0 (I, IRm ) des données satisfaisant |δ0 | ≤ ε, |δ(t)| ≤ ε, ∀t ∈ I,
la solution z du problème de Cauchy perturbé
 
z = f (t, z) + δ(t) pour tout t ∈ I,
(5.20)
z(t = 0) = y0 + δ0 ,

vérifie |z(t) − y(t)| ≤ Cε ou, ce qui est une variante1 ,


 t
|z(t) − y(t)| ≤ C|δ0 | + C |δ(s)| ds, ∀t ∈ I.
0

Pour T < +∞, et f continue vérifiant la condition de Lipschitz (5.3),


on peut montrer que le problème de Cauchy (5.2) est stable (au sens de la
définition ci-dessus). De même, sous des conditions raisonnables sur Φ (Φ
est lipschitzienne par rapport à la variable y, et ce uniformément en h et
t ∈ [0, T ]), le schéma (5.17) est stable. Reste à définir la convergence.

Définition 5.10. Le schéma (5.17) est dit convergent si

lim max0≤n≤N |en | = 0. (5.21)


h−→0

Exercice 5.11. Montrer qu’un schéma de type (5.17) consistant et stable est
convergent. On exprime souvent ceci en disant stabilité + consistance =⇒
convergence

L’exercice précédent montre donc que les propriétés de consistance et de


stabilité sont suffisantes pour assurer la convergence du schéma. La consis-
tance exprime que le schéma est, pas par pas, proche de l’équation, la stabilité
exprime que “la dérivée du résultat par rapport à des perturbations répétées”
est bornée, et donc, quand h tend vers zéro, on obtient asymptotiquement la
solution exacte. Certes. Mais on se souvient que le schéma d’Euler explicite est
consistant, stable et convergeant, au sens des définitions ci-dessus, ce qui ne
l’empèche pas d’être peu efficace dans les situations difficiles. Par ces notions,
nous sommes donc rassurés sur les propriétés théoriques du schéma, mais peu
renseignés sur ses réelles performances dans la pratique, notamment en ce qui
concerne les temps longs d’intégration. Il nous faut donc une autre définition.
Pour poser cette définition, qui sera celle de la stabilité absolue d’une méthode,
nous aurons besoin d’un problème de Cauchy de référence. Ce problème sera
le problème linéaire du type (5.13) que nous récrivons ici de la façon suivante.
1
non rigoureusement équivalente mais utilisée en pratique
182 5 Cinétique chimique

On considère le problème de Cauchy linéaire


 
y (t) = λ y(t) pour tout t > 0,
(5.22)
y(0) = 1,
où λ ∈ C et y est à valeurs dans C. Bien sûr, sa solution est y(t) = eλ t . En
particulier, pour Re(λ) < 0, cette solution tend vers zéro quand le temps tend
vers l’infini. Il est courant de juger d’une méthode numérique en constatant si
oui ou non elle sait reproduire ce comportement. Pour cela, on a la définition
suivante.
Définition 5.12. Soit yn la solution fournie par une méthode numérique
donnée sur l’équation (5.22) pour un certain λ ∈ C fixé, et en prenant un
pas constant h. Nous nous intéressons à la propriété
lim |yn | = 0, (5.23)
n−→+∞

que nous appelerons propriété de stabilité absolue pour l’accroissement hλ.


Nous définissons l’ensemble
D = {z = hλ ∈ C ; (5.23) est vraie}.
Cet ensemble est appelé le domaine de stabilité absolue de la méthode. Lorsque
ce domaine contient C− = {z ∈ C; Re(z) ≤ 0}, la méthode est dite incondi-
tionnellement absolument stable.
Avec cette définition, le schéma d’Euler explicite, dont on rappelle qu’il est
stable, n’est pas inconditionnellement absolument stable alors que le schéma
d’Euler implicite est, lui, inconditionnellement absolument stable.

5.3 Les problèmes raides


Pour l’essentiel des problèmes de Cauchy apparaissant naturellement en Calcul
Scientifique, on rencontre des difficultés quand on utilise une méthode de
discrétisation explicite. L’exemple de l’exercice suivant met en scène de telles
difficultés (qu’on a en fait déjà rencontrées à l’Exercice 5.2 ci-dessus).
Exercice 5.13. On veut résoudre
⎧ 
⎨ y = 100y pour tout t ∈ [0, 1],
y(t = 0) = 1, (5.24)
⎩ 
y (t = 0) = −10.
Identifier la solution exacte. Pour calculer cette solution, nous mettons (5.24)
sous la forme
d y 0 1 y
 = 
dt y 100 0 y
Vérifier, en programmant le schéma d’Euler explicite pour les pas de temps
∆t = 1/10, ∆t = 1/10000 que le comportement est celui de la Figure 5.2.
Comparer à la solution exacte.
5.3 Les problèmes raides 183

20
schéma d’Euler 10 pas
schéma d’Euler 10 000 pas
10 solution exacte

-10

-20

-30

0 0.5 1

Fig. 5.2. Résultats pour l’Exercice 5.13 avec le schéma d’Euler explicite.

De même que dans l’Exercice, un exemple d’une situation difficile est le


suivant. On cherche à résoudre le système différentiel du premier ordre suivant
⎧ 

⎪ u = 998 u + 1998 v,
⎨ 
v = −999 u − 1999 v,
(5.25)

⎪ u(0) = 1,

v(0) = 0.
La solution exacte peut être déterminée par un astucieux changement de
variable et vaut : 
u = 2e−t − e−1000t ,
v = −e−t + e−1000t .
Evidemment, aucun ordinateur ne calcule à une précision telle qu’on puisse
espérer détecter le terme en e−1000t (une échelle de temps très très rapide
cachée dans le système) et donc on s’attend raisonnablement2 à trouver grosso
modo, pour tout t > 0,
u = 2e−t , v = −e−t .
Ces deux fonctions sont des fonctions a priori bien inoffensives. Pourtant,
en intégrant le système (5.25) par le schéma d’Euler explicite, on trouve les
résultats indiqués dans la figure 5.3. On a représenté la fonction u, qui devrait
ressembler à 2e−t . Les trois courbes ont été obtenues pour ∆t = 1/400, ∆t =
1/500, ∆t = 1/1000. On a représenté les solutions numériques sur l’intervalle
de temps [0, 0.1], et encore ! On a dû tronquer la première courbe car elle
explosait. La seconde oscille autour de ce qui semble être la bonne solution ;
la troisième semble bonne, au moins sur cet intervalle de temps.
2
encore qu’il y ait un piège, qu’on découvrira en examinant les conditions initiales
de (5.25)
184 5 Cinétique chimique

10 schéma d’Euler 400 pas


schéma d’Euler 500 pas
schéma d’Euler 1000 pas

0 0.05 0.1

Fig. 5.3. Résultats pour le système (5.25)

Notre analyse d’un tel cas débute par une définition, assez heuristique, des
problèmes raides.

Définition 5.14. On dira qu’un problème de Cauchy est raide si l’exigence


de stabilité de la méthode numérique employée (si on se restreint à un inter-
valle de temps [0, T ] pas trop grand, ou alternativement l’exigence de stabilité
absolue si on s’intéresse à un intervalle de temps [0, T ] grand ou à [0, +∞[)
induit sur le pas de temps une contrainte beaucoup plus forte que l’exigence
de précision.

Remarque 5.15. Evidemment, un système peut en pratique être raide dans


certains intervalles de temps et pas dans d’autres, et donc la définition ci-
dessus doit être modulée de sorte de s’adapter au cas que le lecteur a en
tête.

Explicitons un peu cela sur deux exemples.


Regardons d’abord l’exemple du problème (5.2), dans le cas scalaire (m =
1) sur l’intervalle [0, T ], T fini, pour une fonction f lipschitzienne, avec une
constante de Lipschitz L moralement grande. Pour simplifier encore plus, on
se restreint au problème linéaire
 
y = −Ly
(5.26)
y(0) = 1

On choisit de discrétiser l’équation avec le schéma d’Euler explicite, et hn ≡ h.


L’erreur de troncature est contrôlée via la formule (5.8), qui peut ici s’écrire
 tn+1
|εn | ≤ h |y  | ≤ h2 L2 e−Ltn .
tn
5.3 Les problèmes raides 185

Parallèlement, l’erreur |en | est contrôlée par la relation (5.10), qui donne pour
tn = T :  T
1
|eN | ≤ h y  (s)eL(T −s) ds ≤ hLeLT .
0 2
Dès lors, on constate le fait suivant. Si L est raisonnablement grand mais si e LT
est énorme, alors, bien qu’on ait un bon contrôle de l’erreur de troncature,
on contrôle très mal l’erreur globale. A contrario, pour contrôler très bien
|eN |, il faut imposer au pas h d’être formidablement petit par rapport à la
relativement faible contrainte imposée par le contrôle de l’erreur de troncature.
La différence vient bien sûr de la contrainte de stabilité très forte dans le cas
du schéma d’Euler explicite appliqué à cette équation.
Examinons maintenant le cas d’un système linéaire

y  = Ay, (5.27)

où la matrice A est choisie, encore pour simplifier, diagonale


⎛ ⎞
−λ1
⎜ −λ2 ⎟
A=⎜ ⎝
⎟.

...
−λN

On suppose que les −λi sont N réels strictement négatifs, classés comme suit :
0 > −λ1 > ... > −λN . On se place alors dans la situation où λN est très grand
devant λ1 . On discrétise encore par la méthode d’Euler explicite. L’erreur de
troncature peut s’estimer de la façon suivante :
 tn +h  tn +h 
N

|εn | ≤ h |y (s)| ds = h λ2i e−sλi ds,
tn tn i=1

et donc

N
|εn | ≤ h2 λ2i e−tn λi .
i=1

Comme tous les rapports λi /λ1 sont strictement plus grands que 1, on en
déduit que dès que le temps tn est grand, seul compte dans cette somme le
terme d’indice 1, et l’erreur de troncature est donc grosso modo contrôlée par

|εn | ≤ h2 λ21 e−tn λ1 .

La contrainte de stabilité absolue est quant à elle obtenue en écrivant que |y n |


doit tendre vers 0 pour les grands indices de n. Comme yn = (1 + hA)n y0 ,
on voit que ceci est équivalent à |1 − hλi | < 1 pour tous les indices i, ce
qui est équivalent dans notre situation à la contrainte |1 − hλN | < 1 (qui
est la plus exigeante de toutes), c’est-à-dire à hλN < 2. Comparons alors
186 5 Cinétique chimique

les deux contraintes de précision et de stabilité absolue : comme le rap-


port λN /λ1 est très grand, la seconde est énormément plus exigeante. On
est bien dans le cas d’un problème raide au sens de notre définition. Le lec-
teur comprendra aisément que le raisonnement que nous avons mené serait
encore valable pour une matrice diagonale faite de valeurs propres complexes
dont les parties réelles sont négatives, ou encore pour une matrice quelconque
(quitte à la rendre triangulaire) vérifiant la même propriété, ou encore pour
un système quelconque dont la linéarisation (locale en temps) partagerait ces
caractéristiques. Ceci permet donc d’isoler une catégorie de systèmes qui sont
nécessairement raides : Un système différentiel (i.e. m > 1 dans (5.2)) est
raide au moins dans la situation suivante : sur au moins une partie de l’in-
 ∂fi
tervalle de temps qu’on considère, la matrice jacobienne (t, y) ij a ses
∂yj
valeurs propres λi vérifiant pour tout temps

0 ≥ Re(λ1 ) ≥ ... ≥ Re(λN ),

avec |Re(λN )| grand devant |Re(λ1 )|.

Exercice 5.16. Expliquer les difficultés rencontrées aux Exercices 5.2 et 5.13.

La raideur d’un problème est essentiellement due à la présence dans le


problème de Cauchy de plusieurs échelles de temps radicalement différentes.
Dans le cas du système différentiel ci-dessus, les λi peuvent typiquement
représenter des constantes de temps de l’évolution des différentes variables
du système physique, et la raideur signifie qu’une des variables évolue incom-
parablement plus vite qu’une autre. On repensera bien sûr au système de
cinétique chimique (5.1). La variété des échelles de temps est claire. Pour le
cas d’une équation (et non d’un système), il faut comprendre que la variété
des échelles de temps s’inscrit plus séquentiellement que parallèlement comme
dans le cas du système : au début (cf. l’Exercice 5.2) la “pente” est grande,
ceci étant lié au fait que L est grand, autrement dit la variable varie vite,
puis, quand le temps devient grand, la variable varie plus lentement. Là est la
variété des échelles de temps. Quoi qu’il en soit, la raideur est intrinsèquement
liée à un comportement dynamique.
Une solution technique adaptée sera donc de laisser de côté toute méthode
explicite et d’adopter systématiquement une méthode implicite, par exemple
le schéma d’Euler implicite vu ci-dessus. Ce schéma est en fait un cas par-
ticulier simple d’une famille générale, connue sous le nom de méthodes de
différentiation rétrograde, ou plus couramment méthode BDF, d’après son
acronyme anglais pour Backward Differentiation Formulae.


p
yn+1 = aj yn−j + hb−1 f (tn+1 , yn+1 ). (5.28)
j=0
5.4 Méthodes de séparations d’opérateurs 187

Une telle méthode est dite multipas puisque la valeur de yn+1 est bâtie à partir
non seulement de la valeur de yn , mais aussi de celles de yn−1 , yn−2 ,...
Le coefficient b−1 , supposé par construction non nul (il faut bien tenir
compte au moins une fois de f !), et les aj sont choisis de la manière suivante :
on fait l’approximation de la fonction t −→ y(t) par le polynôme prenant aux
p + 2 noeuds tn−p = tn − ph, tn−p+1 = tn − (p − 1)h, ..., tn+1 les valeurs
respectives yn−p , yn−p+1 , ..., yn+1 ; on en déduit par simple dérivation de ce
polynôme une approximation de la dérivée y  (tn+1 ). On pose ensuite que cette
valeur est égale à f (tn+1 , yn+1 ) en vertu de ce que y est solution du problème
de Cauchy.
Le cas p = 0 redonne la méthode d’Euler implicite, et en prenant par
exemple p = 2, on trouve
1  6
yn+1 = 18yn − 9yn−1 + 2yn−2 + hf (tn+1 , yn+1 ). (5.29)
11 11
L’analyse numérique générale de ces méthodes nous emmènerait trop loin.
Il s’agit seulement de retenir ici que les notions de précision, stabilité et conver-
gence introduites ci-dessus peuvent être étendues au cas plus complexe comme
(5.28). Cette analyse montre la très bonne stabilité de telles méthodes, et donc
leur aptitude à simuler les systèmes raides.

5.4 Méthodes de séparations d’opérateurs

Nous avons vu à la section précédente une stratégie pour simuler numérique-


ment les systèmes multiéchelles en temps du type de ceux de la cinétique
chimique. On pourrait brièvement résumer cette stratégie par utiliser des
schémas implicites, et non des schémas explicites.
La difficulté est alors la suivante. Chaque pas de temps coûte cher
puisque l’on doit déterminer yn+1 à partir de yn (et éventuellement des itérés
précédents dans le cadre d’une méthode multipas) via la résolution d’une
équation (comme par exemple (5.12) ou (5.29)). Ceci peut être très consom-
mateur en temps calcul. On pensera au cas où l’équation d’évolution est en
fait un énorme système d’équations différentielles. Un tel cas n’est pas rare
en cinétique chimique où on va traiter parfois des centaines d’espèces et des
milliers de réactions. Chaque pas de temps coûtera alors une résolution d’un
gros système linéaire.
Il est donc utile dans un tel cas de disposer d’une stratégie permettant de
découpler un certain nombre d’équations ou de variables pour ne pas avoir
à les traiter dans une lourde résolution implicite. L’une des techniques est la
technique de séparation d’opérateurs.
L’idée est de réaliser l’intégration en temps en plusieurs étapes. Typi-
quement, chaque pas de temps ∆t ne sera pas une avancée globale pour le
système complet mais 2 avancées pour les deux sous-systèmes constitués l’un
188 5 Cinétique chimique

par les variables évoluant lentement, l’autre par les variables évoluant rapi-
dement. Chaque sous-système sera alors traité par une méthode d’intégration
numérique spécifique, où le sous-pas de temps pourra être choisi de façon
adaptée. Ainsi, le pas de temps ∆t sera choisi grand ; on intégrera une par-
tie du système (la partie raide) par une méthode implicite en un seul pas de
temps ∆t et l’autre partie pourra être intégrée avec un schéma explicite en
découpant le pas ∆t en plus petits pas δt. Détaillons ceci.

5.4.1 Le cas simple

Pour l’analyse, nous considérons d’abord le cas où les opérateurs corres-
pondent à des vitesses de même ordre. Considérons l’exemple suivant
dz
= Cz = Az + Bz (5.30)
dt
assorti de la condition initiale z(0) = z0 . Dans cette équation, z est un vecteur
de IRN , A, B et C sont trois matrices de taille N . Les matrices A et B sont
issues d’un découpage de la matrice originale C et figurent deux parties de
l’opérateur d’évolution (on pensera bientôt à une partie qui figure l’évolution
des espèces rapides, l’autre celle des espèces lentes, mais ce n’est pas le cas
tout de suite).
La méthode de séparation la plus naturelle est de résoudre sur chaque pas
de temps de longueur [n∆t, (n + 1)∆t] les deux systèmes
 ∗
dz
= Az ∗
dt (5.31)

z (n∆t) = z(n∆t),

(ce qui fournit z ∗ ((n + 1)∆t) et permet d’enchaı̂ner avec)


 ∗∗
dz
= Bz ∗∗
dt (5.32)
z ∗∗ (n∆t) = z ∗ ((n + 1)∆t),

et de poser à l’issue z((n + 1)∆t) = z ∗∗ ((n + 1)∆t).


Chacun des deux systèmes (5.31) et (5.32) sera simulé numériquement par
une méthode adéquate, du type de celles introduites à la section précédente.
Le gain provient évidemment du fait que si l’on a bien partitionné C
selon A + B (l’une des deux matrices ne contient que des évolutions lentes
et l’autre que des évolutions rapides), on va pouvoir traiter différemment les
deux systèmes (5.31) et (5.32).
D’un autre côté, il y a un prix à payer pour cette simplification. En
découpant chaque pas de temps du problème (5.30) en deux sous-problèmes,
on a introduit une erreur dite erreur de décomposition.
Evaluons cette erreur dans notre cas simple. La valeur exacte de z((n +
1)∆t) obtenue en partant de z(n∆t) est
5.4 Méthodes de séparations d’opérateurs 189

z((n + 1)∆t) = exp ((A + B)∆t)z(n∆t).

D’autre part, la valeur obtenue via la décomposition d’opérateurs est

z ∗∗ ((n + 1)∆t) = exp (B∆t) exp (A∆t)z(n∆t).

L’erreur faite au cours du pas de temps est donc


1
z ∗∗ ((n + 1)∆t) − z((n + 1)∆t) = − (AB − BA) (∆t)2 z(n∆t) + O((∆t)3 ),
2
(5.33)
sans bien sûr parler de l’erreur issue des discrétisations numériques de cha-
cun des systèmes. On s’intéresse ici seulement à l’erreur induite par la
décomposition, tous les autres calculs étant supposés faits de manière exacte.
L’exercice suivant montre comment obtenir à peu de frais une meilleure
précision.
Exercice 5.17. Au lieu de décomposer en les deux sous-étapes (5.31) et
(5.32), on décompose en les trois sous-étapes suivantes :

dz ∗
= Bz ∗ sur [n∆t, (n + 21 )∆t]
dt (5.34)
z ∗ (n∆t) = z(n∆t),

dz ∗∗
= Az ∗∗ sur [n∆t, (n + 1)∆t]
dt (5.35)
z ∗∗ (n∆t) = z ∗ ((n + 21 )∆t),

dz ∗∗∗
= Bz ∗∗∗ sur [(n + 21 )∆t, (n + 1)∆t]
dt (5.36)
∗∗∗ 1 ∗∗
z ((n + 2 )∆t) = z ((n + 1)∆t),
Montrer que l’erreur induite par cette décomposition est d’ordre 3, et non 2
comme dans (5.33).

Exercice 5.18. Expliquer pourquoi, à une opération près sur le premier des
pas de temps et sur le dernier, les deux schémas (5.31)-(5.32) et (5.34)-(5.35)-
(5.36) sont en fait les mêmes. Quelle analyse de précision est la bonne ? Com-
menter.

5.4.2 Le cas raide

Appliquons maintenant la technique ci-dessus au cas précis d’un système de


type (5.30) qui exhibe deux échelles de temps radicalement différentes. Une
façon de formaliser cela est de supposer que le système s’écrit
dz B
= Az + z (5.37)
dt ε
190 5 Cinétique chimique

où ε est un coefficient très petit, et où les matrices A et B sont du même
B
ordre de grandeur. La matrice A figure donc l’évolution lente et la matrice
ε
l’évolution rapide. Plus concrètement, prenons le système à deux dimensions

d x −1 0 x −1 0 x 0 0 x
= 1 1 = + 1 1 . (5.38)
dt y ε − ε y 0 0 y ε − ε y

On reconnaı̂t que x est la variable lente et y la variable rapide. Le découplage


B
en les opérateurs A et correspond donc à l’évolution séparée de la variable
ε
lente et de la variable rapide.

Nous avons dans l’idée d’utiliser un pas de temps ∆t grand pour simuler
numériquement ce système, au sens où ce pas de temps doit être calibré sur
les échelles de temps lentes présentes dans ce système (ici 1) et non les échelles
rapides (ici ε). Dans la suite, nous avons donc ∆t >> ε.
La solution exacte pour le passage du temps n∆t au temps (n + 1)∆t est
bien sûr :

x((n + 1)∆t) = e−∆t xn
xn −∆t xn −∆t (5.39)
y((n + 1)∆t) = e + (yn − )e ε .
1−ε 1−ε
Nous allons montrer dans ce qui suit que le fait que ∆t soit “grand” met
en défaut l’analyse numérique faite ci-dessus sur la décomposition pour le
système (5.30).
D’abord, remarquons que si l’analyse numérique précédente était encore
vraie ici (i.e. encore vraie pour un ∆t grand), alors l’erreur locale admettrait
un développement du type (5.33), c’est-à-dire ici
B B
(A − A) O((∆t)2 ) + O((∆t)3 ).
ε ε
Ceci semblerait dire que plus ε est petit, plus l’erreur de décomposition com-
mise est importante. Ceci n’est pas conforme à l’intuition selon laquelle on
a d’autant plus intérêt à utiliser une méthode de découplage que les échelles
de temps sont vraiment différentes. Vérifions maintenant quelle est la bonne
analyse numérique.
Sur l’exemple (5.37), on peut d’abord imaginer de réaliser la décomposition
B
où on intègre d’abord puis A. On obtient alors
ε
 −∆t
yn+1 = xn + (yn − xn ) e ε
(5.40)
xn+1 = e−∆t xn

La variable lente x est donc correctement intégrée, et l’erreur sur la variable


y rapide est
5.4 Méthodes de séparations d’opérateurs 191

ε −∆t 1 −∆t
yn+1 − y((n + 1)∆t) = xn (1 + e ε − e ),
1−ε 1−ε
ε ∆t
= xn (− + )
1−ε 1−ε
+termes d’ordres supérieurs et transitoires
(5.41)
∆t
ce qui est d’ordre ∆t (on rappelle >> 1). Cependant, il faut remarquer
ε
que si on change les données (xn , yn ) au temps tn en des données perturbées
(xn + αn , yn + βn ), alors la valeur obtenue au temps tn+1 est
 −∆t
yn+1 = xn + αn + (yn + βn − xn − αn ) e ε
(5.42)
xn+1 = e−∆t (xn + αn )

et l’on constate donc que l’erreur βn sur la composante rapide y est rapi-
dement amortie (elle est seulement dans le second terme, et donc tuée par
−∆t
l’exponentielle e ε ).
B
Alternativement, si on commence par appliquer l’opérateur A puis , on
ε
obtient la valeur au temps suivant

xn+1 = e−∆t xn
−∆t (5.43)
yn+1 = xn+1 + (yn − xn+1 ) e ε

Cette fois, l’erreur sur y est


−ε −∆t 1 −∆t
yn+1 − y((n + 1)∆t) = xn ( e − (e−∆t + )e ε )
1−ε 1−ε
−ε −∆t
= xn e
1−ε
+ termes d’ordres supérieurs et transitoires.
(5.44)

On peut remarquer que cette erreur est d’ordre ε (donc d’ordre << ∆t),
contrairement à l’erreur (5.41).
A l’issue de ces deux calculs d’erreur, on peut remarquer
– que l’erreur n’est dans aucun des deux cas d’ordre 2 en ∆t, ce qui aurait
été prévu par l’analyse d’erreur du cas standard,
– que l’erreur n’est pas la même selon qu’on intègre d’abord l’opérateur
B
A ou l’opérateur (alors que dans le cas standard, elle est la même en
ε
valeur absolue, cf. la relation (5.33)),
– que l’analyse montre qu’il vaut mieux intégrer d’abord l’opérateur lent
puis l’opérateur rapide, pour avoir une meilleure borne sur l’erreur.
192 5 Cinétique chimique

Exercice 5.19. Montrer que quand on l’applique à l’équation (5.37), le


schéma de l’Exercice 5.17 n’est pas d’ordre trois.

On concluera donc que dans les cas difficiles comme le cas des systèmes
raides, il faut mener une analyse numérique très particulière, bien moins naı̈ve
que la simple analyse numérique ∆t −→ 0. Ceci est bien naturel puisque ce
sont des schémas implicites qu’on a alors en tête d’exploiter. Une fois cette
analyse numérique faite, on a en particulier une fidèle estimation du coût en
précision de la technique de décomposition d’opérateurs. Cette technique per-
mettra de réduire avantageusement la taille du système résolu implicitement.
Voyons maintenant une autre technique pour là aussi réduire le coût.

5.5 Réduction de systèmes


Dans cette section, on a en tête deux observations :
– beaucoup de systèmes d’équations de la cinétique chimique mettent en
jeu des centaines d’équations et des centaines d’espèces alors que in fine
on est seulement intéressé à connaı̂tre l’évolution de quelques espèces
parmi elles,
– si le système global est raide on devra résoudre d’énormes systèmes, en
majeure partie pour rien.
L’idée est donc de réduire le système en éliminant un certain nombre
d’équations et de variables. Il s’agit des variables qui évoluent rapidement
et/ou atteignent rapidement un état d’équilibre. Typiquement, on s’attend
à observer d’abord une évolution des variables rapides, jusqu’à un état
d’équilibre, puis seules subsistent dans l’évolution du système les variables
lentes. Il suffira alors de considérer seulement ces dernières. Bien sûr, au lieu
d’employer le mot “réduire” qui est d’usage dans ce contexte, on pourrait
tout aussi bien, pour souligner le parallèle avec le Chapitre 2, employer le mot
“homogénéiser”, puisqu’ici aussi on fait disparaı̂tre les petites échelles. Avant
de mettre en oeuvre cette idée, revenons de manière générale sur un système
raide.
L’approche la plus féconde pour comprendre le phénomène de raideur est
probablement l’approche systèmes dynamiques. Bien que ce soit une approche
qui mériterait un long exposé, nous nous contentons d’en décrire les grandes
lignes.
Une façon de reconsidérer (5.26) avec L grand est de regarder cette
évolution comme la convergence rapide vers un état stationnaire (ou perma-
nent) du système physique, ici l’état y = 0. Nous avons constaté que dans la
phase de convergence rapide vers cet état (intuitivement les temps tn petits),
la contrainte de précision et celle de stabilité étaient comparables. C’est seule-
ment pour les temps grands qu’on avait disparité de ces deux contraintes. De
5.5 Réduction de systèmes 193

la même manière, dans le cas du système différentiel (5.27), la valeur propre


−λ1 de petit module régit le comportement à long terme de la solution, et
fournit la contrainte de précision, alors que la valeur propre −λN de grand
module domine seulement le comportement à court terme, mais pourtant régit
la contrainte de stabilité. Autrement dit, il est numériquement facile de s’ap-
procher de l’état stationnaire, mais rester ensuite longtemps à son voisinage
est une gageure. Cette observation est générale. La convergence vers un régime
permanent est typiquement le cas où on rencontre la raideur.

Exercice 5.20. On considère le problème de Cauchy suivant sur l’intervalle


[0, +∞[

dy 1
= − (y − g(t)) + g  (t)
dt ε (5.45)
y(0) = y0
où g(t) est une fonction C 1 donnée.
1 - Ecrire la solution exacte de (5.45). Que se passe-t-il si y0 = g(0) ?
2 - On discrétise l’équation par le schéma d’Euler explicite. Montrer que la
contrainte de précision est très forte sur le segment [0, ε]. Montrer que la
contrainte de stabilité est très forte sur [ε, +∞[. En déduire que le problème
(5.45) n’est pas raide sur [0, ε] (alors que pourtant la “pente” y est grande)
mais seulement sur [ε, +∞[ où pourtant la “pente” est faible.

Dans l’exercice ci-dessus, la fonction g figure le régime permanent du


système physique. Trouver le comportement à long terme du système requiert
de s’approcher aussi près que possible de cette fonction g et de rester à son
voisinage. Un peu caricaturalement, on pourrait dire que peu importe la façon
dont on converge vers cette fonction, il faut y arriver le plus vite possible : c’est
de toute façon indifférent pour ce qui se passera aux temps longs. Si on re-
garde l’évolution du système comme une courbe tracée dans l’espace des états
y, l’ensemble {y = g(t); t ≥ 0} est une courbe vers laquelle les trajectoires
convergent rapidement. En termes de systèmes dynamiques, cette courbe est
un attracteur. Une bonne façon de résoudre le problème de la raideur est de
se débarrasser du comportement transitoire (donc des variables qui régissent
ce comportement transitoire) pour ne garder que le comportement en temps
long, ce qui revient à identifier ex nihilo sur le problème de Cauchy lui-même
les variables intéressantes parmi l’ensemble des variables de départ. Une fois
ce tri fait, le système dynamique est exempt de sa raideur : on se “promène”
sur la variété qui décrit le régime permanent, et on n’en sort plus. Dès lors,
toutes les techniques numériques peuvent être adoptées sans crainte. C’est la
problèmatique de la réduction de systèmes.
194 5 Cinétique chimique
y

y(t)

g(t)

données initiales y(0)

régime permanent

ESPACE DES ETATS


Fig. 5.4. Convergence du système dynamique vers un régime permanent

L’outil mathématique qui va nous permettre de formaliser la réduction des


systèmes raides est la théorie de la perturbation singulière, que nous verrons
seulement via le résultat suivant
Théorème 5.21. - dit Théorème de Tikhonov
On considère le système d’évolution


⎨ dx = f0 (x, y) + ε f1 (x, y),
dt (5.46)

⎩ε
dy
= g0 (x, y) + ε g1 (x, y),
dt
où x ∈ IRn−p , y ∈ IRp , complémenté des conditions initiales

x(0) = x0 ,
(5.47)
y(0) = y0 .

Dans ces équations, ε est un petit paramètre décrivant comme d’habitude le


rapport entre les échelles de temps rapides et les échelles de temps lentes. Les
fonctions f0 , f1 , g0 , g1 sont supposées régulières (de classe C 1 par exemple).
5.5 Réduction de systèmes 195

On suppose que la fonction g0 vérifie


∂g0
est inversible, pour tout (x, y) vérifiant g0 (x, y) = 0, (5.48)
∂x
ce qui entraı̂ne qu’il existe une fonction h telle que

{(x, y) /g0 (x, y) = 0} = {(x, y) / y = h(x)}. (5.49)

Alors, pour t > 0, le système (5.46)-(5.47) peut être approché au premier


ordre en ε par le système suivant, dit système réduit

dx
= f0 (x, y) + ε f1 (x, y)
dt (5.50)
0 = g0 (x, y)

complémenté des conditions initiales



x(0) = x0 ,
(5.51)
y(0) = h(x0 )

Heuristiquement, ce résultat signifie que, après une couche limite petite


à droite de t = 0, et dont le seul but est de fournir une “nouvelle condi-
tion initiale” (5.51), tout se passe comme si la variable rapide y avait atteint
son équilibre, et que la dynamique du système soit entièrement donnée par
l’évolution de la variable lente x. C’est bien d’un tel résultat dont nous avions
besoin.
Le lecteur rapprochera utilement ce résultat
– d’une part de l’approximation adiabatique pour l’évolution d’un système
moléculaire,
– d’autre part des études de couche limite en espace que nous avons menées
antérieurement.
Bien sûr, nous ne démontrerons pas ce théorème et nous contenterons de
le mettre en oeuvre sur des cas simples.
Commençons par une application directe dans l’exercice suivant.

Exercice 5.22. On considère le système différentiel suivant




⎨ dy1 = −y1 ,
dt (5.52)
⎪ dy
⎩ ε 2 = εy1 − y2
dt
de données initiales y1 (0) = y10 , y2 (0) = y20 . Le paramètre ε est supposé
petit. Ce système modélise la cinétique chimique
1 1/ε
Y1 −→ Y2 −→ Y3 ,
196 5 Cinétique chimique

où on oublie l’espèce Y3 .


1 - Calculer la solution exacte.
2 - Montrer que ce système différentiel est raide pour ε > 0 petit.
3 - Montrer qu’à part pour t petit, la solution est approchable, à un ordre en
ε qu’on précisera, par celle du système dit algébro-différentiel suivant

⎪ dy
⎨ 1 = −y1 ,
dt (5.53)


y2 = εy1

Vérifier qu’on peut sans difficulté approcher ce problème par un schéma d’Eu-
ler explicite par exemple.
4 - Montrer que l’espèce Y2 devient rapidement négligeable. Quelle est la
solution du système (5.52) si l’on substitue y2 = 0 pour tout temps à la
seconde équation différentielle. Cette approximation est-elle aussi satisfaisante
que celle de la question précédente ?
5 - Montrer qu’on peut retrouver directement (5.53) à partir de (5.52) et d’une
dy2
hypothèse sur . En déduire une stratégie (parmi d’autres !) pour supprimer
dt
la raideur pour des systèmes du type (5.52).

Un commentaire s’impose : tous les systèmes que l’on veut réduire n’appa-
raissent pas spontanément sous la forme (5.46), et un certain travail préli-
minaire peut être nécessaire. Ainsi, considérons le système :


⎨ ε dx = M g0 (x, y) + ε f1 (x, y),
dt (5.54)

⎩ε
dy
= g0 (x, y) + ε g1 (x, y),
dt
Ici, les espèces x et y respectivement de dimension n − p et p sont supposées
gouvernées par une dynamique de même vitesse a priori, et on ne sait pas
discriminer qui est rapide et qui est lent. Ce qui est identifiable ici est le
couplage rapide entre les deux espèces via la fonction g0 qui apparaı̂t aux deux
membres de droite (diviser les deux équations par ε pour s’en rendre compte).
On veut éliminer ce couplage rapide grâce à une réduction du système. Pour
cela, on introduit la variable

u = x − M y, (5.55)

de sorte que, en ne gardant que les variables (u, y), le système s’écrit de façon
équivalente :


⎨ du = −M g1 (u + M y, y) + f1 (u + M y, y),
dt (5.56)

⎩ε
dy
= g0 (u + M y, y) + ε g1 (u + M y, y),
dt
5.5 Réduction de systèmes 197

où u apparaı̂t comme une variable lente. On reconnaı̂t la forme (5.46). On


peut donc remplacer ce système (5.56) par le système réduit

du
= −M g1 (u + M y, y) + f1 (u + M y, y)
dt (5.57)
0 = g0 (u + M y, y)

et résoudre ce nouveau système (la deuxième ligne définit y comme fonction


de u, et on l’insère dans la première ligne).
Regardons un dernier exemple, explicite en termes de chimie.
On étudie le schéma de cinétique atmosphérique
⎧ 1

⎨ O + O2 −→ O3 ,
2
N O2 + lumière −→ N O + O , (5.58)

⎩ 3
N O + O3 −→ N O2 + O2 ,

En plus des espèces ci-dessus, on note par c le vecteur concentration de


toutes les autres espèces présentes. On suppose que les trois réactions écrites
ci-dessus sont rapides et que toutes les autres réactions possibles soit entre
les espèces chimiques ci-dessus, soit entre ces espèces et les espèces c d’autre
part, sont lentes.
On pose alors    
NO N O2
x= , y=
O3 O
L’évolution du système est alors régie par

⎪ dc

⎪ = a(c, x, y)

⎨ dt
dx
ε = f0 (x, y) + ε f1 (c, x, y), (5.59)

⎪ dt

⎪ dy
⎩ε = g0 (x, y) + ε g1 (c, x, y),
dt
où a, f1 et g1 modélisent les termes de réaction lents alors que f0 et g0
modélisent les rapides. Ces derniers valent précisément :
   
ω2 − ω 3 −ω2 + ω3
f0 (x, y) = , g0 (x, y) =
ω1 − ω 3 ω2 − ω 1
ωi
et où l’on désigne par le taux de réaction de la réaction rapide numéro i
ε
de (5.58).
En notant  
−1 0
M=
−1 −1
et en posant
198 5 Cinétique chimique
 
N O + N O2
u = x − My =
O3 + N O2 + O
on retrouve exactement le cadre académique précédent. La considération de
telles combinaisons d’espèces chimiques pour réduire la complexité du système
original était une technique bien identifiée dans le monde de la cinétique chi-
mique, avant l’introduction de la théorie d’analyse numérique indiquée ici.
Terminons par deux commentaires.
Dans tout ce qui précède on a supposé avoir déjà identifié les espèces lentes
et les espèces rapides (ou les réactions lentes et les réactions rapides), et que
bien sûr dans la pratique ce n’est pas nécessairement le cas. Il faut donc
des algorithmes particuliers pour discriminer entre les différentes variables de
sorte de pouvoir ensuite utiliser la technologie de la réduction de système.
La détermination et la résolution du système réduit (5.50) conduit en
général à une simulation numérique bien plus efficace que celle du système
original (5.46). Cependant, les cas ne sont pas rares où, en termes de temps
calcul, la résolution est seulement un peu meilleure, mais pas forcément mira-
culeusement meilleure. Il faut en effet tenir compte notamment de la résolution
numérique de l’équation algébrique de la seconde ligne de (5.50), laquelle doit
se faire à chaque pas de temps. Dans de tels cas, c’est surtout du point de
vue qualitatif que le système réduit présente des avantages sur le système
original. On va pouvoir lui appliquer des techniques plus sophistiquées, com-
prendre beaucoup plus profondément les phénomènes numériques observés,
donc mieux savoir remédier aux difficultés rencontrées.

5.6 Bibliographie

L’analyse numérique des équations différentielles ordinaires peut être lue dans
les traités A. Quarteroni, R. Sacco & F. Saleri [65], M. Crouzeix & A. L.
Mignot [26], E. Hairer, S. P. Norsett & G. Wanner [41] (une des références pour
les spécialistes, suivi d’un deuxième tome [42] plus particulièrement consacré
aux systèmes raides), ces traités étant cités par ordre de difficulté croissante.
Pour l’application à la simulation numérique de la cinétique des réactions
chimiques, une bonne référence est constituée par les travaux de B. Sportisse et
de ses collaborateurs sur la modélisation de la pollution atmosphérique. Pour
la réduction de systèmes, on pourra par exemple consulter l’article B. Sportisse
et R. Djouad [77], et pour la décomposition d’opérateurs B. Sportisse [78].
6
Vers une unité des approches

L’objet de ce court chapitre est de rétablir une unité dans ce qui est peut-être
apparu, malgré nos efforts pour lier les chapitres les uns aux autres, comme une
mosaı̈que de problèmes et de techniques tous décorrélés. Un objectif secondaire
est de montrer à quel point ce que nous avons vu ensemble est proche du front
de la recherche en calcul scientifique.

6.1 Des classifications des problèmes rencontrés


Une idée naturelle serait de séparer les problèmes multiéchelles que nous avons
vus en ceux dépendant du temps et en ceux statiques, mais ceci n’est pas le
bon point de vue. L’ensemble des problèmes multiéchelles que nous avons vu
peut être plus avantageusement classé en deux catégories :
i les problèmes où les deux (ou plus) échelles sont présentes dans tout le
domaine de calcul
ii ceux où les deux échelles ne coexistent que sur le(s) bord(s) du domaine de
calcul, l’intérieur du domaine ne présentant pas de caractère multiéchelle.
Par domaine de calcul, et donc par bord, on entend aussi bien la variable
d’espace que la variable de temps. Ainsi, dans la catégorie (i), on peut classer
a le problème micromacro pour les solides cristallins du Chapitre 1,
b le problème d’homogénéisation périodique elliptique du Chapitre 2,
c la simulation ab initio adiabatique pour la dynamique moléculaire du Cha-
pitre 3,
d la modélisation micromacro pour les fluides polymériques du Chapitre 4,
D’un autre côté, on peut classer dans la catégorie (ii)
a les problèmes de couche limite le long de parois rugueuses du Chapitre 2,
b le problème de dynamique des espèces rapides convergeant vers un régime
permanent du chapitre 5,
200 6 Vers une unité des approches

Dans chacune de ces deux catégories, le choix est, comme nous l’avons dit
en Introduction
- soit d’attaquer le système tel quel, ce qui n’est pas possible si la petite
échelle est trop petite (ce qui est le cas pour les problèmes du Chapitre 1
ou 4)
- soit de faire disparaı̂tre la petite échelle en l’homogénéisant de sorte d’ob-
tenir un problème à l’échelle macroscopique seulement (cf. le Chapitre 2,
ou la réduction des sytèmes dynamiques au Chapitre 5)
- soit de la traiter conjointement avec l’échelle macroscopique (cf. les Cha-
pitres 1 et 4)

6.2 L’unité des approches


Concentrons-nous ici sur les problèmes multiéchelles où petite et grande
échelles coexistent sur tout le domaine. Qu’on décide de “supprimer” la petite
échelle (i.e. de faire ε = 0) ou de la traiter conjointement avec l’échelle ma-
croscopique, le problème final obtenu possède sensiblement la même forme, à
savoir ⎧

⎪ Equation régissant l’échelle MACRO






⎨ Expression d’une (ou plus) des variables
(6.1)



⎪ MACRO en fonction de l’échelle micro





Equation régissant l’échelle micro
Ainsi, au Chapitre 1,
⎧   


⎪ inf E(ϕ) − fϕ− gϕ ϕ vérifie les conditions au bord imposées



⎪ Ω ∂Ω

⎨ 

⎪ E(ϕ) = W (ϕ)(x) dx







W (ϕ)(x) = énergie du réseau cristallin placé en x et déformé par ∇ϕ(x)

et aussi les techniques rapidement évoquées autour des méthodes de relaxation


et des mesures de Young (cf. la Remarque 1.33), puis au Chapitre 2,
  
1
inf inf (∇v(y) , A(y) · ∇v(y)) dy dx − f u,
2 Ω Y Ω
u ∈ H01 (Ω) ∇v
 périodique
∇v = ∇u(x)
Y
6.2 L’unité des approches 201

puis, au Chapitre 3,


⎪ d2 x̄k

⎪ m (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t))
⎨ k
dt2  zk zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) +

⎪ |x̄ − x̄l |

⎪ 1≤k<l≤M
k
⎩ U (x̄ , · · · , x̄ ) = inf {ψ , H (x̄ , · · · , x̄ ) · ψ , ψ ∈ H , ψ = 1}
1 M e e 1 M e e e e

et au Chapitre 4
⎧ Du

⎪ = F(τp , u),

⎪ Dt



τp = τp (Σ)






⎩ DΣ = G (Σ, u),
µ
Dt
On constate que les problèmes micro et macro qui coexistent alors peuvent
être
- issus ou non du même type de modélisation physique (le plus souvent ils
ne le sont pas, comme par exemple dans le couplage de la mécanique
quantique pour les électrons et de la mécanique classique pour les noyaux
dans la dynamique moléculaire du Chapitre 3)
- formalisés ou non par une équation mathématique de même nature (le plus
souvent encore ils ne le sont pas, comme par exemple le cas des fluides
polymériques où peuvent être couplées une équation aux dérivées partielles
déterministe et des équations différentielles stochastiques).
Quand la nature des deux problèmes n’est pas, pour quelque raison que
ce soit, la même, ceci a pour conséquence que les techniques mathématiques
à employer sont radicalement différentes, et que le traitement d’un problème
multiéchelle demande des compétences mathématiques variées.
On peut aussi mieux comprendre la logique de la démarche (6.1) et mesurer
sa généralité si l’on change légèrement le vocabulaire. Changeons en effet le
mot “micro” en le mot local et le mot “macro” en le mot global. Le schéma
devient un couplage du type


⎪ Schéma de résolution GLOBALE






⎨ Opération pour obtenir certains éléments du
(6.2)



⎪ GLOBAL en fonction du local





Schéma de résolution locale

où le couplage entre global et local se fait souvent par moyennisation de la


variable locale pour n’en retenir qu’une information globale.
202 6 Vers une unité des approches

Remarque 6.1. On pourrait aussi parler de schéma grossier et de schéma fin,


pour élargir encore le débat.

Sous cette forme (6.2), on peut reconnaı̂tre beaucoup de schémas numé-


riques bien connus. Par exemple, le lecteur est peut-être familier avec le
schéma de Godunov pour les équations hyperboliques. En deux mots, ce
schéma (de type volumes finis) consiste à faire évoluer, sur chaque intervalle
de temps ∆t, une fonction constante sur chaque maille [xi , xi+1 ]. A chaque
discontinuité xi , on résout alors un problème local, le problème de Riemann,
pour obtenir le flux moyen (ou global) passant par la discontinuité. Cette
résolution locale, requise pour faire avancer d’un pas de temps la résolution
globale, peut se faire de manière complètement différente que la résolution
globale : analytiquement, ou par un schéma numérique qui peut reposer sur
la même physique ou sur une physique différente (schémas de type Boltzmann,
dynamique moléculaire,..).
On pourrait ainsi multiplier les exemples (techniques multigrille, ...). D’un
certain point de vue, de telles similitudes montrent pourquoi le monde des
systèmes multiéchelles est proche de celui des techniques multiéchelles. Les
premiers sont intrinsèquement multiéchelles à cause de la physique sous ja-
cente. Dans les secondes, la nature multiéchelle peut être issue d’un découpage
“artificiel” du problème dans un but d’efficacité. Elle peut même être un pur
artefact : c’est la technique numérique elle-même, qui, bâtie pour accroı̂tre
l’efficacité, a ipso facto introduit de nouvelles échelles (par exemple une dis-
continuité locale) qui doivent alors être traitées.

6.3 Sur le front de la recherche

Ce que nous avons décrit dans les pages qui précèdent ne recouvre bien sûr
pas l’intégralité des problèmes multiéchelles qui se posent, et des techniques
qu’on emploie pour les analyser puis les simuler numériquement.
Ainsi, même sur les sujets que nous avons abordés, par exemple la science
des matériaux, nous aurions pu parler des approches, employées par exemple
par M. Luskin [55, 56], où l’échelle macroscopique est couplée non pas
avec l’échelle atomistique (comme au Chapitre 1), mais avec une échelle
mésoscopique décrivant les microstructures apparaissant dans le matériau
(dans l’esprit des microstructures de la Figure 2.1 du Chapitre 2, penser à des
lamelles de matériaux différents à une échelle intermédiaire du micromètre
par exemple). De même, nous aurions pu introduire l’immense champ de
l’homogénéisation stochastique défriché il y a plusieurs décennies par A. Ben-
soussan, J-L. Lions et G. Papanicolaou [12], mais encore en pleine évolution.
x
Dans cette théorie, le coefficient a( ) de l’équation modèle (2.1) du Chapitre 2
ε
est aléatoire. Plutôt par exemple que de partir d’une fonction a(x) périodique
de période 1, e.g. (2.14), on a une fonction a(x, ω) prenant aléatoirement sur
6.3 Sur le front de la recherche 203

Α∗=...

−div(Α∗(x) grad u*)= f

Fig. 6.1. Petite et grande échelle dans chacun des problèmes des Chapitres 1,2,3 et
4. Pour chacun d’eux, on insère une information calculée à l’échelle microscopique
dans le modèle macroscopique.

chaque intervalle [p, p+1/2[ et [p+1/2, p+1[ (p entier) la valeur α ou β. Ce “ha-


sard” est en fait typiquement lié (comme c’est quasiment toujours le cas) à une
méconnaissance du matériau (le matériau est bel et bien déterministe, mais on
n’en a pas une connaissance suffisante pour savoir déterminer en chaque maille
la valeur de a, on ne sait que probabiliser cette valeur). On parle typiquement
de milieu aléatoire ou de milieu mal connu. Dans la même veine, nous au-
rions aussi pu parler de méthodes comme la méthode Virtual Internal Bond
de [37], qui réalise en quelque sorte une alliance entre les méthodes type QCM
du Chapitre 1 et la simulation des matériaux polymériques du Chapitre 4.
Dans une telle méthode, on s’intéresse à la déformation microscopique d’un
matériau qui n’est pas si bien ordonné qu’un cristal, à savoir un matériau
plus amorphe. Nous aurions pu décrire la méthodologie générale introduite
pour ces problèmes multiéchelles par E et Engquist [34]. De même encore,
lorsque nous avons décrit les systèmes multiéchelles en temps au Chapitre 5,
nous n’avons pas abordé ceux où l’échelle de temps rapide reste présente tout
au long de la simulation, préférant nous concentrer sur le cas typique de la
204 6 Vers une unité des approches

cinétique chimique où l’échelle rapide amenait une couche limite en temps,
à savoir une phase transitoire, laissant ensuite le système converger vers un
régime permanent régi par les échelles lentes. Nous aurions pu alternativement
aborder les questions d’oscillations rapides couplées avec des oscillations lentes
(ce qui est en fait le cas de la dynamique moléculaire du Chapitre 3, certains
liaisons interatomiques vibrant plusieurs ordres de grandeur fois vite que leurs
voisines) et montrer les techniques pour les traiter1 .
Au-delà, il y a beaucoup de problèmes dont nous n’avons absolument pas
parlé : ainsi la simulation de la dynamique des dislocations est un enjeu co-
lossal en science des matériaux. Une dislocation est ainsi un défaut dans la
maille cristalline qui se propage d’un bout à l’autre d’un solide métallique
(par exemple). Le comportement du matériau est alors dicté par le mou-
vement de ces dislocations, qui sont des défauts de grande taille devant
l’échelle atomique, et qui interagissent entre eux à longue distance à tra-
vers la déformation élastique du cristal. Il s’agit précisément d’un problème
multiéchelle, dépendant du temps, où beaucoup de choses restent à faire. De
même pour la dynamique des joints de grain, ces interfaces qui séparent les
cristaux parfaits entre eux. Cette dynamique conduit ensuite à la dynamique
de la fracture, et donc à la simulation de l’endommagement et de l’usure des
matériaux. Voici des champs de la science où la simulation numérique n’a pas
encore donné sa pleine puissance.
Du point de vue de l’analyse mathématique, et de toutes les problématiques
de changement d’échelle, que nous avons abordées au Chapitre 1 en expli-
quant comment dériver une loi constitutive à partir de l’échelle atomique,
l’effort porte actuellement (entre autres sujets) sur les problèmes dépendant
du temps : nous savons comment déduire l’état d’équilibre d’un matériau à
partir de l’état d’équilibre des atomes qui le composent (et encore...), mais
nous sommes loin de savoir déduire la dynamique du matériau de celle de ses
atomes.
Pour en savoir plus sur toutes ces questions et découvrir plus en détail les
questions sur lesquelles les chercheurs de ce domaine travaillent aujourd’hui,
on pourra par exemple consulter les ouvrages suivants, qui rassemblent beau-
coup de contributions, émanant de groupes de chercheurs aux compétences et
aux intérêts variés : Antonic et al. [6], T. J. Barth et al. [11], VV. Bulatov et
coll. [18], P. Deák et al [27] (y lire en particulier R. E. Rudd & J. Q. Brough-
ton [68]), O. Kirchner et al. [49], et bien d’autres.

1
D’un autre point de vue, on peut dire que nous avons abordé les systèmes
dissipatifs, et laissé de côté ceux du type ondes
Références

1. Y. Achdou, O. Pironneau, F. Valentin, Effective boundary conditions for laminar


flows over periodic rough boundaries., J. Comput. Phys. 147, No.1, 187-218,
(1998).
2. G. Allaire, Analyse numérique et optimisation, Cours à l’Ecole Polytech-
nique.
3. G. Allaire, Shape optimization by the homogenization method, Springer,
2001,
4. G. Allaire, Homogenization and two-scale convergence., SIAM J. Math. Anal.
23, No.6, 1482-1518 (1992).
5. M.P. Allen et D.J. Tildesley, Computer simulation of liquids, Oxford Science
Publications, 1987.
6. N. Antonic, C.J. van Duijn, W. Jäger, A. Mikelic, Multiscale problems in
science and technology. Challenges to mathematical analysis and pers-
pectives, Springer, 2002.
7. A. Askar, Lattice dynamical foundations of continuum theories, World
Scientific.
8. J. M. Ball, Singularities and computation of miminizers for variational problems,
In : Foundations of Computational Mathematics, R. DeVore , A. Iserles and E.
Suli Eds., London Mathematical Society Lecture Note Series, Vol. 284, pp 1-20.
Cambridge University Press , 2001.
9. J. M. Ball, Some open problems in elasticity, in Geometry, Mechanics, and
Dynamics, pp 3-59, Springer, 2002.
10. Y. Bamberger, Mécanique de l’ingénieur, Hermann.
11. T. J. Barth et al., Multiscale and multiresolution methods, Editeurs, Lec-
ture notes in computational science and engineering, volume 20, Springer, 2002.
12. A. Bensoussan, JL. Lions, G. Papnicolaou, Asymptotic analysis for perio-
dic structures, Studies in Mathematics and its Applications. Vol. 5., North-
Holland, 1978.
13. F. Bethuel, G ; Huisken, S. Müller, K. Steffen, Variational models for micro-
structures and phase transition, Calculus of variations and geometric evolution
problems, Springer Lecture notes in Mathematics, volume 1713, 1999, p 85-210.
206 Références

14. R. Bird, Ch. Curtiss, C. Armstrong, O. Hassager, Dynamics of polymeric


liquids, 2 tomes, Wiley, 1987.
15. X. Blanc, C. Le Bris et P.L. Lions, From molecular models to continuum me-
chanics, Archives for Rational Mechanics and Analysis, 164, pp 341-381, 2002.
16. H. Brézis, Analyse Fonctionnelle, 2ème Edition, Masson, 1994.
17. F. Brezzi, D. Marini Augmented spaces, two-level methods, and stabilising sub-
grids, Int. J. Numer. Meth. Fluids, 40, 31-46, 2002.
18. VV. Bulatov et coll., Multiscale modelling of materials, MRS, 1999
19. G. Buttazzo, M. Giaquinta, S. Hildebrandt, One-dimensional variational
problems. An introduction, Oxford Lecture Series in Mathematics and its
Applications, volume 15, 1998.
20. E. Cancès, C. Le Bris, Y. Maday, Modèles mathématiques et ana-
lyse numérique pour la simulation en chimie, à paraı̂tre dans la série
Mathématiques et Applications, Springer.
21. E. Cancès, M. Defranceschi, W. Kutzelnigg, C. Le Bris, Y. Maday, Computa-
tional Chemistry : a primer, dans [52].
22. A. Cangiani and E. Süli, Enhanced RFB method, NA-03/17, Oxford University
Computing Laboratory, 2003.
23. C. Carstensen Numerical Analysis of Microstructure, Chapter II of Theory and
Numerics of Differential Equations, Editors J.F. Blowey, J.P. Coleman and A.W.
Craig, 59-126, Springer, 2001.
24. M. Chipot, Elements of nonlinear analysis, Birkhäuser Advanced Texts,
2000.
25. Ph. G. Ciarlet, Elasticité tridimensionnelle, Masson, 1986, et Mathemati-
cal elasticity, volume 1, North Holland, 1993. .
26. M. Crouzeix & A. L. Mignot, Analyse numérique des équations dif-
férentielles, Masson, 1989.
27. P. Deák, Th. Frauenheim, M. R. Pederson, Editeurs, Computer simulation
of materials at atomic level, Wiley, 2000.
28. M. Doi, Introduction to polymer physics, Oxford Science publications,
1992.
29. M. Doi et SF. Edwards, The theory of polymer dynamics, Oxford science
publications, 1986.
30. RM. Dreizler et EKU. Gross, Density functional theory of atoms and
molecules, Springer, 1990.
31. P. Deuflhard et al., Editeurs, Computational molecular dynamics : chal-
lenges, methods, ideas, Lecture Notes in computational science and enginee-
ring, volume 4, Springer, 1999.
32. F. Devreux, Matière et désordre :polymères, gels, verres, cours de l’Ecole
Polytechnique, Palaiseau.
33. A. Ern & J.L. Guermond, Eléments finis : théorie, applications, mise en
oeuvre, Springer, 2002.
34. W. E, B. Engquist, The Heterogeneous Multi-Scale Methods, Comm. Math. Sci.,
volume 1, 1, p 87-132, 2003.
Références 207

35. L.C. Evans, Weak convergence methods for nonlinear PDE, Conference
Board of the Mathematical Sciences, Regional Conference Series in Mathema-
tics, 74, American Mathematical Society, 1988.
36. D. Frenkel et B. Smit, Understanding molecular simulation : from algo-
rithms to applications, 2ème Edition, Academic Press, 2002,
37. H. Gao, P. Klein, Numerical simulation of crack growth in an isotropic solid
with randomized internal cohesive bonds, J. Mech. Phys. solids, volume 46, 2,
p 187-218, 1998.
38. E. Giusti, Direct methods in the calculus of variations, World Scientific,
2003.
39. F. Golse, Particle transport in nonhomogeneous media, Mathematical aspects of
fluid and plasma dynamics, Lecture Notes in Maths. vol 1460, p 152-170, 1991.
40. M. Gunzburger, Finite element methods for viscous incompressible
flows, Academic press, 1989,
41. E. Hairer, S. P. Norsett & G. Wanner, Solving ordinary differential equa-
tions, tome 1, Springer, 1993.
42. E. Hairer & G. Wanner, Solving ordinary differential equations, tome 2,
Springer, 1996.
43. E. Hairer, C. Lubich, & G.Wanner, Geometric numerical integration, Sprin-
ger, 2002.
44. WJ. Hehre, et al., Ab initio molecular orbital theory, Wiley, 1986.
45. D. J. Higham, An algorithmic introduction to numerical simulation of stochastic
differential equations, SIAM Review 43, No.3, 525-546 (2001).
46. Th. Y. Hou, Xiao-Hui Wu, A multiscale finite element method for elliptic pro-
blems in composite materials and porous media. J. Comput. Phys. 134, No.1,
169-189 (1997),
47. B. Jourdain, T. Lelièvre et C. Le Bris, Numerical analysis of micro-macro si-
mulations of polymeric fluid flows : a simple case, Mathematical Models and
Methods in Applied Sciences, volume 12, 9, pp 1205-1243, 2002.
48. R. Keunings, Simulation of viscoelastic fluid flow dans le livre Computer mo-
delling for polymer processing, Ch. Tucker III, Hanser, 1989.
49. O. Kirchner, LP. Kubin, V. Pontikis, Editeurs, Computer simulation in ma-
terials science, Kluwer, 1996.
50. H. Kitagawa et al., Editeurs, Mesoscopic dynamics of fracture, Advances
in Materials research, Springer, 1998.
51. J. Knap, M. Ortiz, An Analysis of the QuasiContinuum Method, J. Mech. Phys.
Solids 49, 9 (2001), p1899
52. C. Le Bris (Editeur), Computational Chemistry, Handbook of numerical
analysis, volume X, Ph. G. Ciarlet, Editeur, North-Holland 2003,
53. P. Le Tallec, Numerical methods for nonlinear tridimensional elasticity,
dans le livre Handbook of numerical analysis, Ph. G. Ciarlet et J.-L. Lions
Editeurs, Tome 5, North Holland.
54. B. Lucquin et O. Pironneau, Introduction au calcul scientifique, Masson,
1996.
208 Références

55. M. Luskin, Computational modeling of microstructure, dans Proceedings of the


International Congress of Mathematicians, ICM 2002, Beijing, p 707–716.
56. M. Luskin, On the computation of crystalline microstructure, Acta Numerica,
volume 5, p 191-258, 1996.
57. A.M. Matache et Ch. Schwab, Two scale FEM for homogenization problems,
Math. Mod. Num. An., 36, 4, pp 537-572 (2002).
58. A.M. Matache et Ch. Schwab, Generalized FEM for homogenization problems,
pages 197-237 dans [11].
59. R. Miller, E.B. Tadmor, R. Phillips, M. Ortiz, Quasicontinuum simulation of
fracture at the atomic scale, Modelling Simul. Mater. Sci. Eng. 6 (1998), p607
60. F. Murat et L. Tartar, Calculus of variations and homogenization, dans le livre
Topics in the mathematical modelling of composite materials, Cher-
kaev, Andrej (ed.) et al., Birkhäuser. Prog. Nonlinear Differ. Equ. Appl. 31,
139-173, 1997.
61. G. Nguetsen, A general convergence result for a functional related to the theory
of homogenization, SIAM J. Math. Anal. 20, No.3, 608-623, 1989.
62. H-C. Ottinger, Stochastic processes in polymeric fluids, Springer, 1996.
63. R. G. Owens and T. N. Phillips, Computational Rheology, Imperial College
Press, 2002.
64. P. Pedregal, Variational methods in nonlinear elasticity., SIAM, 2000.
65. A. Quarteroni, R. Sacco & F. Saleri, Analyse numérique, Springer, 1999.
66. D. Raabe, Computational material science, Wiley, 1998.
67. P.A. Raviart & J.M. Thomas, Introduction à l’analyse numérique des
équations aux dérivées partielles, Masson, 1992.
68. R. E. Rudd & J. Q. Broughton, Concurrent coupling of length scales in solid
state system, pages 251-291, dans [27].
69. J. Salençon, Mécanique des milieux continus, Cours à l’Ecole Polytech-
nique.
70. J. Sanchez-Hubert et E. Sanchez-Palencia, Introduction aux méthodes
asymptotiques et à l’homogénéisation, Masson, 1992.
71. J.M. Sanz-Serna & M. P. Calvo, Numerical Hamiltonian Problems, Chap-
man and Hall, 1994.
72. T. Schlick, Molecular modeling and simulation ; an interdisciplinary
guide, Springer, 2002,
73. Ch. Schwab, Two scale FEM for homogenization problems, dans Mathemati-
cal modeling and numerical simulation in continuum mechanics, I. Ba-
buska et al., Editeurs, Lecture notes in computational science and engineering,
volume 19, Springer, 2002, pages 92-107,
74. V.B. Shenoy, R. Miller, E.B. Tadmor, R. Phillips, M. Ortiz, Quasicontinuum
Models of Interfacial Structure and Deformation, Phys. Rev. Letters 80, 4
(1998), p742
75. V.B. Shenoy, R. Miller, E.B. Tadmor, D. Rodney, R. Phillips, M. Ortiz, An adap-
tative finite element approach to atomic-scale mechanics - the QuasiContinuum
Method, J. Mech. Phys. Solids 47 (1999), p611
Références 209

76. B.Y. Simkin et II. Sheikhet, Quantum chemical and statistical theory of
solutions, 1995.
77. B. Sportisse et R. Djouad, Reduction of chemical kinetics in air pollution mo-
delling, Journal of Computational Physics, 164, pp 354-376, 2000.
78. B. Sportisse, An analysis of operator splitting techniques in the stiff case, Journal
of Computational Physics, 161, pp 140-168, 2000.
79. A. Szabo et NS. Ostlund, Modern quantum chemistry : an introduction,
Macmillan, 1982.
80. E.B. Tadmor, G.S. Smith, N. Bernstein, E. Kaxiras, Mixed finite element and
atomistic formulation for complex crystals, Phys. Rev. B 59, 1 (1999), p235,
81. E.B. Tadmor, R. Phillips, Mixed Atomistic and Continuum Models of Deforma-
tion in Solids, Langmuir 12 (1996), p4529
82. E.B. Tadmor, M. Ortiz, R. Phillips, Quasicontinuum analysis of defects in solids,
Phil. Mag. A., 1996, 73, pp 1529-1563.
83. A. Voter & M. R. Sorensen, Accelerating atomistic simulations of defect dy-
namics : hyperdynamics, parallel replica dynamics and temperature-accelerated
dynamics, Mat. Res. Soc. Symp. Proc, volume 538, 1999, pp 427-439.
84. V.V. Zhikov, S.M. Kozlov, O.A. Olejnik, Homogenization of differential
operators and integral functionals, Springer-Verlag (1994).
Index

ab initio (modèles), 89 Elasticité


adiabatique (approximation -), 95 corps élastique, 3
Ansatz, 53 densité d’énergie élastique, 3
Aufbau (principe -), 107 hyperélasticité, 3
linéaire, 4
bases réduites, 106 Equation différentielle stochastique,
BDF (méthodes), 186 156, 158
Born-Oppenheimer Equation intégrale, 124
approximation de -, 92, 95 erreur numérique
surface de -, 95 pour une EDO, 175
erreur locale de troncature
Car-Parrinello (méthode de -), 97 d’un schéma à un pas, 180
Cauchy (problème de), 174 du schéma d’Euler explicite, 176
coefficients de Lamé, 130 espérance d’une variable aléatoire, 154
configuration Euler explicite (schéma d’), 175
électronique, 99 Euler implicite (schéma d’), 178
nucléaire, 93 extensivité, 7
consistant
schéma à un pas, 180 flot
continuum (modèle de -), 118 d’un système, 109
convergence faible, 21 numérique, 111
convergence forte, 22 Fokker-Planck (équation de), 140
convergent fondamental (état), 91
schéma numérique, 181 formulation
convergente (approximation faible, 16
numérique), 175 faible discrète, 16
variationnelle, 16
déformation, 1 variationnelle discrète, 16
déplacement, 1
densité d’une variable aléatoire, 154 Gamma-convergence, 61
domaine de stabilité absolue, 182
haltères (modèle d’), 138
Echange Hamiltonien
terme d’-, 100 électronique, 92
212 Index

de coeur, 102 polymères, 133


moléculaire, 91 fondus, 134
Hartree-Fock infiniment dilués, 134
dépendant du temps, 101 potentiel de réaction, 120
méthode de -, 98 principe du maximum discret, 152
homogénéisé(e) processus stochastique, 155
équation, 39, 42
coefficient, 42 quasi-statique, 20
hypothèses de clôture, 132 quasiconvexe (enveloppe), 35
quasiconvexité, 35
indentation, 13
infimum, 26 réduction de systèmes dynamiques, 193
intégrale biélectronique, 104 raide
intensivité, 7 problème de Cauchy, 184
système différentiel, 186
Kohn-Sham (approximation de), 100 relation constitutive, 2
Kramer (formule de), 140 reptation, 134
Roothaan (algorithme de -), 106
Lax-Wendroff (schéma de), 152
Lipschitz (constante de), 175 SCF (algorithme -), 106
loi de comportement, 2 Schrödinger (équation de -), 90
loi de paroi, 75 Slater
Loi forte des grands nombres, 155 déterminant de, 98
orbitale de, 104
Matrice densité, 104 sous-maille (problème), 55
minimiseur, 26 spin, 90
minimum, 26 stable
monomères, 133 problème de Cauchy, 181
Monte-Carlo cinétique, 115 schéma à un pas, 180
mouvement brownien, 155 supermolécule, 118
symplectique
newtonien (fluide), 130 application, 112
non adiabatique (approximation -), 95 schéma numérique, 112
synthèse modale, 105
Opérateur
de Fock, 103 tenseur des contraintes, 2
densité, 103 transition de phase, 25
Optimisation de géométrie, 93
orbitale variable aléatoire, 154
atomique, 104 variance (d’une variable aléatoire), 154
moléculaire, 99 vecteur bout-à-bout, 137
ordre Verlet (algorithme de), 111
d’un schéma à un pas, 180 viscoélasticité, 5
viscoplasticité, 5
plasticité, 5
poids (d’une formule de quadrature), 18 Young (mesure de), 33
Déjà parus dans la même collection

1. T. Cazenave, A. Haraux 17. G. Barles


Introduction aux problèmes d’évolution Solutions de viscosité des équations
semi-linéaires. 1990 de Hamilton-Jacobi. 1994

2. P. Joly 18. Q. S. Nguyen


Mise en œuvre de la méthode des Stabilité des structures élastiques. 1995
éléments finis. 1990
19. F. Robert
3/4. E. Godlewski, P.-A. Raviart Les systèmes dynamiques discrets.
Hyperbolic systems of conservation 1995
laws. 1991 20. O. Papini, J. Wolfmann
Algèbre discrète et codes correcteurs.
5/6. Ph. Destuynder
1995
Modélisation mécanique des milieux
continus. 1991 21. D. Collombier
Plans d’expérience factoriels. 1996
7. J. C. Nedelec
Notions sur les techniques d’éléments 22. G. Gagneux, M. Madaune-Tort
finis. 1992 Analyse mathématique de modèles non
linéaires de l’ingénierie pétrolière.
8. G. Robin 1996
Algorithmique et cryptographie. 1992
23. M. Duflo
9. D. Lamberton, B. Lapeyre Algorithmes stochastiques. 1996
Introduction au calcul stochastique
appliqué. 1992 24. P. Destuynder, M. Salaun
Mathematical Analysis of Thin Plate
10. C. Bernardi, Y. Maday Models. 1996
Approximations spectrales de
problèmes aux limites elliptiques. 1992 25. P. Rougee
Mécanique des grandes transformations.
11. V. Genon-Catalot, D. Picard 1997
Eléments de statistique asymptotique.
26. L. Hörmander
1993
Lectures on Nonlinear Hyperbolic
Differential Equations. 1997
12. P. Dehornoy
Complexité et décidabilité. 1993 27. J. F. Bonnans, J. C. Gilbert,
C. Lemaréchal, C. Sagastizábal
13. O. Kavian Optimisation numérique. 1997
Introduction à la théorie des points
critiques. 1994 28. C. Cocozza-Thivent
Processus stochastiques et fiabilité des
14. A. Bossavit systèmes. 1997
Électromagnétisme, en vue de la
modélisation. 1994 29. B. Lapeyre, É. Pardoux, R. Sentis
Méthodes de Monte-Carlo pour les
15. R. Kh. Zeytounian équations de transport et de diffusion.
Modélisation asymptotique en 1998
mécanique des fluides newtoniens. 1994
30. P. Sagaut
16. D. Bouche, F. Molinet Introduction à la simulation des grandes
Méthodes asymptotiques en échelles pour les écoulements de fluide
électromagnétisme. 1994 incompressible. 1998
Déjà parus dans la même collection

31. E. Rio 41. A. Tsybakov


Théorie asymptotique des processus Introdution à l’estimation
aléatoires faiblement dépendants. non-paramétrique. 2003
1999
42. J. Abdeljaoued, H. Lombardi
32. J. Moreau, P.-A. Doudin, Méthodes matricielles – Introduction à
P. Cazes (Eds.) la complexité algébrique. 2004
L’analyse des correspondances et les
techniques connexes. 1999 43. U. Boscain, B. Piccoli
Optimal Syntheses for Control Systems
33. B. Chalmond on 2-D Manifolds. 2004
Eléments de modélisation pour
l’analyse d’images. 1999 44. L. Younes
Invariance, déformations et
34. J. Istas reconnaissance de formes. 2004
Introduction aux modélisations
mathématiques pour les sciences du 45. C. Bernardi, Y. Maday, F. Rapetti
vivant. 2000 Discrétisations variationnelles de
problèmes aux limites elliptiques.
35. P. Robert 2004
Réseaux et files d’attente: méthodes
probabilistes. 2000 46. J.-P. Françoise
Oscillations en biologie: Analyse
36. A. Ern, J.-L. Guermond qualitative et modèles. 2005
Eléments finis: théorie, applications,
mise en œuvre. 2001 47. C. Le Bris
Systèmes multi-échelles: Modélisation
37. S. Sorin et simulation. 2005
A First Course on Zero-Sum Repeated
Games. 2002 48. A. Henrot, M. Pierre
Variation et optimisation de formes:
38. J. F. Maurras Une analyse géometrique. 2005
Programmation linéaire, complexité.
2002 49. B. Bidégaray-Fesquet
Hiérarchie de modèles en optique
39. B. Ycart quantique: De Maxwell-Bloch à
Modèles et algorithmes Markoviens. Schrödinger non-linéaire. 2005
2002
40. B. Bonnard, M. Chyba
Singular Trajectories and their Role in
Control Theory. 2003
Printing and Binding: Strauss GmbH, Mörlenbach

Vous aimerez peut-être aussi