Académique Documents
Professionnel Documents
Culture Documents
&
APPLICATIONS
Directeurs de la collection:
G. Allaire et M. Benaïm
47
MATHÉMATIQUES & APPLICATIONS
Comité de Lecture / Editorial Board
Directeurs de la collection:
G. Allaire et M. Benaïm
Instructions aux auteurs:
Les textes ou projets peuvent être soumis directement à l’un des membres du comité de lecture avec
copie à G. Allaire ou M. Benaïm. Les manuscrits devront être remis à l’Éditeur
sous format LaTEX 2e.
Claude Le Bris
Systèmes
multi-échelles
Modélisation et simulation
With 35 Figures
123
Claude Le Bris
École Nationale des Ponts et Chaussées
avenue Blaise Pascal 6-8
77455 Marne La Vallée Cedex 2, France
lebris@cermics.enpc.fr
ISSN 1154-483X
ISBN-10 3-540-25313-0 Springer Berlin Heidelberg New York
ISBN-13 978-3-540-25313-6 Springer Berlin Heidelberg New York
Tous droits de traduction, de reproduction et d’adaptation réservés pour tous pays.
La loi du 11 mars 1957 interdit les copies ou les reproductions destinées à une utilisation collective.
Toute représentation, reproduction intégrale ou partielle faite par quelque procédé que ce soit, sans le consentement
de l’auteur ou de ses ayants cause, est illicite et constitue une contrefaçon sanctionnée par les articles 425 et suivants
du Code pénal.
Springer est membre du Springer Science+Business Media
© Springer-Verlag Berlin Heidelberg 2005
springeronline.com
Imprimé en Allemagne
Imprimé sur papier non acide 41/3142/YL - 5 4 3 2 1 0 -
Préface
1
ou au moins dans le champ de compétence de ses collègues les plus proches !
VI Préface
2 Techniques d’homogénéisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.1 Le cas monodimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2 Deux cas bidimensionnels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.1 Les matériaux lamellés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.2 Le résultat général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.2.3 Un vrai cas 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.3 Des cas plus compliqués : la convergence à deux échelles . . . . . . 52
2.3.1 L’Ansatz et le développement à deux échelles . . . . . . . . . 53
2.3.2 L’interprétation énergétique . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.3 Retour sur le cas monodimensionnel . . . . . . . . . . . . . . . . . 62
2.3.4 Retour sur le cadre général . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.4 A lire en 2ème lecture : Vers des méthodes multiéchelles
avancées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
2.5 Questions de couche limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.5.1 Deux cas simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.5.2 Couche limite rugueuse . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
2.6 Quand ça se passe mal ... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2.7 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
X Table des matières
3 Simulation moléculaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1 Modélisation d’un système moléculaire . . . . . . . . . . . . . . . . . . . . . 89
3.1.1 Les modèles complets . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.1.2 Découplage des échelles pour le problème statique . . . . . 92
3.1.3 Découplage des échelles pour le problème dynamique . . . 93
3.1.4 Approximation du problème électronique . . . . . . . . . . . . . 98
3.2 Simulation numérique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.2.1 Discrétisation du problème Hartree-Fock . . . . . . . . . . . . . 102
3.2.2 Discrétisation de la dynamique newtonienne . . . . . . . . . . 108
3.2.3 Méthodes d’accélération de la dynamique moléculaire . . 114
3.3 Modélisation de la phase liquide . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.3.1 Le modèle de continuum . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.3.2 Résolution numérique des modèles de continuum . . . . . . 122
3.3.3 Notions sur les méthodes intégrales . . . . . . . . . . . . . . . . . . 122
3.4 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
Références . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
1
Modèles micro-macro pour les solides
Commençons par quelques rappels rapides sur la mécanique des milieux conti-
nus et l’élasticité tridimensionnelle. Nous ne donnons ici qu’une présentation
courte et donc un peu approximative, et renvoyons à la bibliographie pour
une présentation plus rigoureuse et plus étoffée.
Pour décrire la déformation d’un corps solide remplissant le domaine de
référence Ω, on utilise une fonction ϕ : Ω −→ IR3 , dite déformation. Il est
utile aussi d’introduire la fonction u(x) = ϕ(x) − x définissant le déplacement.
Le gradient de déformation est bien sûr la fonction
2 1 Modèles micro-macro pour les solides
F = ∇ϕ : Ω −→ M3 ,
e e
e
Τ>0 Τ=0
Fig. 1.3. Un véritable solide est l’agrégation de grains de cristaux parfaits agencés
dans différentes directions (la flèche figure symboliquement l’orientation du réseau
cristallin à l’intérieur de chaque grain)
où V (r) = V (|r|) est un potentiel d’interaction supposé régulier (de classe
C ∞ (IR3 )) et à support compact. Expliquons d’où vient l’énergie (1.9).
1.2 De l’échelle atomique à l’énergie élastique 7
Pour cela, il ne faut pas perdre de vue que l’énergie est une grandeur
extensive, c’est-à-dire une grandeur qui dépend linéairement de la quantité
de matière considérée (contrairement à une grandeur intensive comme la
température, qui n’en dépend pas). Comme un cristal périodique est par
définition infini, la seule grandeur énergétique qui a un sens est l’énergie par
atome constituant le cristal. Autrement dit, chaque atome placé en xi inter-
agissant avec ses voisins placés en les xj par le potentiel V (xi − xj ), l’énergie
qui a un sens est
1 1
lim 3
V (xi − xj ),
P −→+∞ (2P + 1) 2
xi = (i1 , i2 , i3 ) ∈ Z3 , xj = (j1 , j2 , j3 ) ∈ Z3 ,
−P ≤ i1 , i2 , i3 ≤ P −P ≤ j1 , j2 , j3 ≤ P,
xj = xi
(1.10)
3 3 1
où le nombre d’atomes considérés est N = (2P +1) . Le facteur est présent
2
pour éviter de compter deux fois l’interaction entre les atomes en xi et xj . En
utilisant la périodicité du réseau cristallin, on peut montrer que cette limite
a bien un sens, et qu’elle vaut (1.9). On peut aussi montrer qu’elle ne dépend
pas de la manière dont l’ensemble limite Z3 est approché (ici le grand cube
[−P, P ]3 ).
Exercice 1.3. Montrer dans le détail que la formule (1.10) est bien définie et
donne (1.9) dans le cas d’un réseau périodique monodimensionnel.
Revenons maintenant à notre matériau. En chaque point x macroscopique,
nous savons qu’il existe un matériau cristallin parfait microscopique (toujours
le même d’un point x à un autre dans ce modèle simplifié) dont l’énergie est
décrite par (1.9). Pour trouver une expression de l’énergie du matériau macro-
scopique ainsi formé, qui plus est quand ce matériau subit une déformation ϕ,
nous allons raisonner comme suit.
Nous remplissons le domaine Ω avec un réseau cristallin parfait de maille
cubique de côté ε = N1 de sorte que nous avons N = 2P + 1 points par dimen-
sion. Pour simplifier Ω est supposé être de taille 1, égal au cube [− 21 , + 12 ]3
centré en 0, et nous prenons un nombre impair de points par dimension, mais
tout ceci n’est qu’une affaire technique. Le nombre d’atomes contenus dans
Ω est alors N 3 = (2P + 1)3 et l’énergie du système ainsi constitué est, par
atome,
1 1
V (xi − xj ),
N3 2
xi = ε(i1 , i2 , i3 ) xj = ε(j1 , j2 , j3 )
(i1 , i2 , i3 ) ∈ Z3 (j1 , j2 , j3 ) ∈ Z3 ,
−P ≤ i1 , i2 , i3 ≤ P −P ≤ j1 , j2 , j3 ≤ P
xj = xi
Une modification s’impose alors. Comme les positions des sommets du
réseau périodique sont sensées refléter les positions d’équilibre du matériau
8 1 Modèles micro-macro pour les solides
où pour alléger la formule on n’a pas répété le détail sur les sommations en
xi et xj . Appliquons alors notre déformation ϕ. L’énergie devient
ϕ 1 1 ϕ(xi ) − ϕ(xj )
EN = V . (1.11)
N3 2 x ε
i xj xi
ϕ(xi ) − ϕ(xj ) i j j
= N ϕ( ) − ϕ( ) = ∇ϕ( ) · (i − j) (1.12)
ε N N N
i
en négligeant les termes d’ordre supérieur et en notant le multi-indice
N
i1 i2 i3 j
( , , ) et de même pour . L’énergie de notre matériau est donc
N N N N
1 1 j
lim 3
V ∇ϕ( ) · (i − j) .
N −→+∞ N 2 N
i j
A quelques termes de bord près dont le lecteur pourra vérifier qu’ils sont
négligeables asymptotiquement, on peut changer i − j en k de sorte que l’on
a affaire à
1 1 j
lim V ∇ϕ( ) · k .
N −→+∞ N 3 2 N
(j1 , j2 , j3 ) ∈ Z3 , (k1 , k2 , k3 ) = 0 ∈ Z3
−P ≤ j1 , j2 , j3 ≤ P −P ≤ k1 , k2 , k3 ≤ P
(1.13)
Pour une fonction Ψ qui vaut asymptotiquement
1
Ψ (x) = V ∇ϕ(x) · k ,
2
k=0∈ZZ3
1
lim Ψ (yj ),
card {yj }−→+∞ card {yj } y j
où les yj sont équirépartis sur un domaine de volume unité. La formule (1.13)
n’est donc rien d’autre qu’une somme de Riemann qui converge quand N tend
vers l’infini vers
1
V ∇ϕ(x) · k dx (1.14)
2 Ω 3
k=0∈ZZ
Notre but est donc atteint. Nous avons bien déterminé la fonction de den-
sité d’énergie élastique W à insérer dans (1.8) :
1
W (F )(x) = W (∇ϕ(x)) = V ∇ϕ(x) · k (1.15)
2
k=0∈ZZ3
Cette formule (1.15) est l’exacte analogue de (1.9) pour le réseau déformé par
l’application linéaire ∇ϕ(x). En chaque point x, cette fonction ne dépend que
de la valeur ponctuelle du gradient de déformation F (x) = ∇ϕ(x) (en fait de
t
F F , voir l’Exercice 1.6) et bien sûr de la nature du matériau considéré, ici un
réseau cristallin parfait dont les interactions sont régies par le potentiel V . Au
moins dans ce cadre, nous avons donc démontré que l’hypothèse d’élasticité
(1.3) était fondée.
Remarque 1.4. Rappelons ici que, pour simplifier, nous avons supposé que Ω
était le cube de taille unité et que, dans leur configuration d’équilibre, les
atomes étaient aussi espacés de 1 sur chaque dimension (avant changement
d’échelle). Cela explique pourquoi la formule (1.15) peut apparaı̂tre comme
non homogène (une densité d’énergie à gauche, une énergie à droite). Il est
instructif de rétablir les unités. Soit a l’unité de longueur à l’échelle atomique,
de sorte que la maille du réseau à l’équilibre est le cube de côté a, et que Ω
est (par exemple) le cube de côté N a. Alors, après changement d’échelle, les
Na
N 3 atomes sont espacés de sur chaque dimension. On obtient alors à la
N
place de (1.14) l’énergie par nombre de particules
1 1
3
V ∇ϕ(x) · k a dx (1.16)
(N a) 2 Ω 3
k=0∈ZZ
Remarque 1.7. A l’inverse, la stratégie que nous venons de décrire peut être
vue comme un moyen explicite de calculer l’énergie au niveau microscopique.
Prenons en effet le point de vue suivant. Nous modélisons l’énergie du matériau
(déformé par ϕ) entièrement à l’échelle microscopique, c’est-à-dire atomique,
par une formule du type (1.11), récrite ici sous la forme compacte (se reporter
à (1.11) pour l’expression exacte)
ϕ 1 1 ϕ(xi ) − ϕ(xj )
EN = V , (1.22)
N3 2 ε
xi ∈ AN xj = xi ∈ AN ,
1 1 ϕ(xi ) − ϕ(xi−1 )
N
ϕ
EN = V , (1.23)
N 2 i=1 ε
Fig. 1.4. Expérience dite d’indentation : on appuie une pointe sur une table : les
déformations attendues à l’impact (à l’intérieur du cercle) sont fortes.
1.3.1 Le modèle
où on a noté W la densité d’énergie. Un point important est à noter ici. Comme
on a pour objectif d’attaquer les situations difficiles, on ne se restreint pas au
cas de l’élasticité où W dépend de ϕ à travers ∇ϕ seulement. On autorise W
à dépendre explicitement de ϕ lui-même, et de ses dérivées, comme dans la
forme générale (1.2). Deux situations sont alors possibles pour chaque point
macroscopique x :
1 soit le point x se situe dans une zone, notée Ωreg (comme “régulière”),
où la déformation ϕ attendue est régulière, c’est-à-dire ne présente
pas de variations fortes à petite échelle. On s’attend alors à ce que
le développement de Taylor (1.12) et le processus limite effectués à la
section précédente soient valables localement autour de x, et il est alors
raisonnable de poser
1
W (ϕ)(x) = W (∇ϕ(x)) = V (∇ϕ(x) · εk) (1.27)
2
k=0∈ZZ2
où ε désigne la taille de la maille cristalline (voir la Remarque 1.4 et, ci-
dessous, la Remarque 1.11 ; pour alléger on oublie dans (1.27) et (1.28) le
coefficient de normalisation). Tout se passe dans une telle zone comme si
le réseau cristallin microscopique présent en x était déformé linéairement
en un autre réseau cristallin par l’application linéaire ∇ϕ(x),
2 soit le point x se situe dans une zone critique, notée Ωsing (comme “sin-
gulière”), où la déformation ϕ est attendue comme hétérogène. Rien ne
dit alors que le calcul de la section précédente soit correct (et en fait tout
dit même le contraire), et il est indispensable de regarder explicitement
comment se déforme le réseau cristallin. Une façon de faire est de choisir
un atome représentatif de ce réseau (celui placé à l’origine par exemple)
et de poser
1
W (ϕ)(x) = V (ϕ(x + εk) − ϕ(x)). (1.28)
2
k=0∈ZZ2
Remarque 1.10. Dans l’un comme l’autre des cas, il faut noter que si V est un
potentiel d’interaction à support compact, les deux sommes (1.27) et (1.28)
sont en fait finies. Si V est seulement un potentiel qui décroit vite à l’infini,
il faudra en pratique réaliser des troncatures pour calculer ces sommes.
petit paramètre ε tend vers zéro) et pratique numérique (où le même petit
paramètre est petit mais non nul) dans la suite de ce cours.
Remarque 1.12. Bien noter que dans ce modèle, les zones Ωreg et Ωsing
dépendent de la fonction ϕ. On ne détaille d’ailleurs pas cette dépendance (on
dit seulement de façon floue que Ωreg est la zone où ϕ est “assez régulière”).
L’état de l’art n’est encore pas clair sur ce point. Il s’agit quoi qu’il en soit
d’un modèle hautement non linéaire, difficile à mettre en oeuvre quand les
zones Ωreg et Ωsing ne sont pas fixées a priori.
Zone macroscopique
Fig. 1.6. On traite différemment les différentes zones : dans la zone grisée centrale
on s’attend à une déformation irrégulière ; dans une couronne autour, on s’attend à
une déformation régulière. Dans une zone périphérique plus large, où la déformation
est tout à fait standard, on peut même envisager, par souci d’économie, d’utiliser
une relation de fermeture du type (1.2).
1.3.2 La discrétisation
où
= 1 sur le triangle Tj
ψj = (1.31)
= 0 ailleurs.
Ici, la dimension N est bien sûr le nombre de triangles dans le maillage.
De même, l’approximation P1 consiste à choisir l’espace de dimension finie
des polynômes de degré 1 par maille triangulaire. On en construit une base
en considérant les noeuds yi de la triangulation (les sommets des triangles) et
les fonctions “pyramidales”, linéaires par morceau
= 1 au noeud yk
φk = (1.32)
= 0 en tous les autres noeuds.
Supposons alors que le problème à résoudre est une équation aux dérivées
partielles sur le domaine Ω du type
−∆u = f
(1.34)
u|∂Ω = 0
où les ωj sont les poids de la formule de quadrature. Nous prenons ici la
formule de quadrature la plus simple qui consiste à choisir un seul noeud dans
chaque triangle Tj , précisément son barycentre ξj , et à lui affecter le poids
ωj = |Tj |. Nous utilisons donc la formule de quadrature
ψ(x) dx ≈ |Tj | ψ(ξj ) (1.41)
Ω
ξj barycentre de Tj
cela des stratégies automatiques que nous n’exposerons pas ici. De même,
la partition du domaine Ω en les parties Ωreg et Ωsing pourra évoluer au
cours des itérations selon les inhomogénéités constatées sur ϕk . Que le lecteur
retienne simplement que la partie spécifiquement de nature multiéchelle du
travail est maintenant connue de lui. Il ne reste après que des techniques
standard de calcul scientifique.
Cependant, un point capital demeure. Bien qu’on sache effectivement at-
taquer en pratique la minimisation du problème (1.42), de nombreux progrès
restent à faire, notamment car on ne dispose pas à ce jour d’une analyse
numérique du problème (1.42), et ce, d’abord, parce qu’on ne dispose pas non
plus d’une analyse mathématique. Certes, de récents efforts de recherche dans
ce domaine visent à combler ce manque, mais dans l’état actuel des connais-
sances, on a peu d’éléments d’analyse, et donc on paie un inévitable prix dans
la technique numérique.
Faute de pouvoir faire l’analyse de (1.42), ou de (1.21), on peut donner
quelques éléments d’analyse pour un problème purement macroscopique du
type
inf W (ϕ(x), ∇ϕ(x)) dx − fϕ− g ϕ. (1.43)
ϕ∈A Ω Ω ∂Ω
Il est clair qu’un problème comme (1.42) ou même sa forme simplifiée (1.21)
(pour laquelle Ω = Ωreg ), contient au moins les difficultés mathématiques du
problème (1.43). Et nous allons voir que ces difficultés sont énormes.
Les deux prochaines sections sont consacrées à l’étude mathématique (in-
troductive) des problèmes de type (1.43). La Section 1.5 peut être omise en
première lecture, notamment par le lecteur qui n’est pas un “fana maths”. La
lecture de la Section 1.4 est en revanche indispensable car on y présente un
outil capital pour l’étude des problèmes multiéchelles, la topologie faible.
qui converge faiblement vers la fonction nulle sur le segment ]0, 1[. Le lecteur
sait en effet que par une simple intégration par parties, il est facile de montrer
22 1 Modèles micro-macro pour les solides
que (1.44) est vraie avec u = 0 pour toute fonction v de classe C 1 par exemple.
On procède ensuite par densité pour étendre le résultat à toutes les fonctions
de L2 (]0, 1[).
Exercice 1.15. Formaliser le raisonnement précédent.
Il est clair que pour autant cette suite ne converge pas vers zéro pour
la topologie habituelle de L2 (]0, 1[), celle définie par : un tend vers u si et
seulement si 1
lim |un − u|2 = 0 (1.46)
n−→0 0
0 0
1.4 Introduction à la topologie faible 23
pour indiquer la convergence faible, tandis que la convergence forte est dénotée
par l’habituel
n→∞
un −→ u. (1.50)
Proposition 1.19. Toute suite un bornée dans Lp (Ω), 1 < p < +∞, (res-
pectivement p = ∞) admet une sous suite convergente pour la topologie faible
(respectivement la topologie faible-).
Remarque 1.20. Noter que le cas p = 1 est exclu et que le cas p = ∞ requiert
un traitement spécial. Cette remarque vaudra dans toute la suite.
Remarque 1.21. Cette proposition est en fait la raison d’être de la topologie
faible, qui crée des objets (les limites) en étant moins exigeante sur la notion
de convergence. Charge ensuite au mathématicien de montrer que cette limite
faible est éventuellement une limite pour la topologie forte si tel est le cas.
La preuve de cette proposition sera admise. Cependant, la preuve du cas
particulier p = 2 fait l’objet de l’exercice suivant.
Exercice 1.22. On se place sur L2 (]0, 1[). Soit ek une base hilbertienne de cet
espace. Soit un une suite de L2 (]0, 1[) qu’on suppose bornée. On décompose un
+∞
selon la base des ek en un = un,k ek où, pour chaque n, un,k ∈ l2 . Montrer
k=1
que pour chaque k, la suite des coefficients un,k est bornée dans R. En déduire
qu’à extraction près, la suite un converge faiblement.
La dernière propriété que nous allons mentionner ici est un résultat de
compacité que nous ne sommes pas en mesure de démontrer et que nous
admettrons (voir par exemple la référence [2] à la fin de ce chapitre pour une
démonstration).
Proposition 1.23. dit Théorème de Rellich On suppose que le domaine
Ω est un borné régulier de IRN . Alors une suite faiblement convergente dans
H 1 (Ω) est à extraction près fortement convergente dans L2 (Ω).
Remarque 1.24. Au vu des deux propositions précédentes, le lecteur peut faire
l’observation suivante. Si une suite de fonctions un de L2 (]0, 1[) (par exemple)
est bornée, alors une de ses sous suites converge faiblement. Si de plus la suite
des dérivées un est bornée dans L2 (]0, 1[), alors une sous suite de un converge
fortement.
De nombreuses autres propriétés permettent de relier convergence faible et
convergence forte. Nous ne nous y attarderons pas plus et renvoyons le lecteur
à la bibliographie de ce chapitre pour une étude plus approfondie.
Ce problème est ici représentatif des bien plus complexes problèmes de type
(1.21), et au-delà encore de type (1.42). Il nous arrivera aussi de ne garder
que la dépendance en ∇ϕ, pour nous restreindre au cas de l’élasticité, et donc
de traiter
inf W (∇ϕ(x)) dx. (1.53)
ϕ∈A Ω
Quelle est la difficulté dans les problèmes (1.52) et (1.53) ? Elle tient en
deux mots : la non convexité de W .
Déjà, quand la fonctionnelle d’énergie est convexe, un problème de mini-
misation peut ne pas être trivial, au sens où il peut ou non admettre un mi-
nimiseur (minimiser t2 , ou au contraire, e−t sur la droite réelle), mais quand
elle est non convexe, les difficultés deviennent terribles.
Pourquoi W est-elle par nature non convexe (sauf dans le cas très simple de
l’élasticité linéarisée, où on est en train de minimiser une “parabole”) ? Pour le
comprendre, il suffit par exemple de regarder la densité d’énergie W que nous
avons construite plus haut en (1.20) et qui provient de l’échelle atomique :
Comme on peut le voir sur la Figure 1.9, le potentiel W (ϕ ) = (ϕ (x)2 −
2
1) est un potentiel à deux puits. Phénoménologiquement, on doit penser les
points -1 et 1 qui sont les points où sont localisés les deux puits comme
les transformations linéaires (les ∇ϕ) qui font passer du réseau de réference
à deux configurations différentes d’énergie minimale, ou autrement dit aux
deux phases du matériau à l’échelle microscopique.
En effet, la fonction
x si 0 ≤ x ≤ 1/2,
ϕ1 (x) =
1 − x si 1/2 ≤ x ≤ 1
a pour énergie zéro et vérifie bien les conditions aux limites. Ceci montre que
l’infimum (1.54) vaut zéro. Il existe en fait une infinité de fonctions donnant
l’énergie zéro (voir de telles fonctions sur la Figure 1.10), d’où une infinité de
minimiseurs.
A B
Fig. 1.9. Potentiel à deux puits modélisant une éventuelle transition entre deux
phases (2 configurations cristallines d’énergie minimale).
0 1
Définissons maintenant
3
les anglophones parlent de toy-model, littéralement modèle-jouet.
28 1 Modèles micro-macro pour les solides
1
inf ((ϕ (x)2 − 1)2 dx, ϕ ∈ W 1,4 ([0, 1]), ϕ(0) = 0, ϕ(1) = 1 , (1.56)
0
En effet, la fonction ϕ(x) ≡ x sur [0, 1] a pour énergie zéro, donc l’infimum
(1.56) vaut toujours zéro. Un minimiseur quelconque vérifie donc ϕ (x)2 = 1
d’où
1 1
1 = ϕ(1) − ϕ(0) = ϕ (x) dx ≤ dx = 1
0 0
4
Il y a autant de débats sur l’espace variationnel que sur la forme de la fonction-
nelle elle-même.
1.5 Vers le calcul des variations 29
1
Ip = inf (ϕ(x)3 − x)2 (ϕ (x))6 dx, / ϕ ∈ W 1,p ([0, 1]), ϕ(0) = 0, ϕ(1) = 1
0
où W 1,p ([0, 1]) est défini comme dans (1.55), vérifie
3
En d’autres termes, pour p = 1 (et en fait pour tout p < ) l’infimum est
2
1/3
zéro (considérer la fonction ϕ0 (x) = x ), mais si on prescrit une régularité
à peine plus forte, alors l’infimum augmente strictement.
ce qui montre que l’infimum défini par (1.57) vaut zéro. Mais alors, s’il existait
un minimiseur ϕ0 de ce problème on aurait
1 1
2 2
((ϕ0 (x) − 1) dx + ϕ0 (x)2 dx = 0,
0 0
et
1 1
inf ((ϕ (x)2 − 1)2 dx + η 2 (ϕ (x))2 dx, /
0 0
ϕ ∈ W 1,4 ([0, 1]), ϕ ∈ L2 ([0, 1]),
ϕ(0) = ϕ(1) = 0 , (1.59)
Exercice 1.29. Sur les problèmes (1.58) et (1.59), formaliser avec rigueur
le raisonnement ci-dessus (on utilisera sans nécessairement la démontrer la
propriété suivante : la norme L2 est semi continue inférieurement pour la
topologie faible).
1.5 Vers le calcul des variations 31
Remarque 1.30. Noter qu’on pourrait aussi bien, pour cet exemple (1.57), sup-
primer la condition au bord ϕ(0) = ϕ(1) = 0 et minimiser sur toutes les
fonctions de W 1,4 ([0, 1]) tout en obtenant la même situation. On pourrait
aussi raisonner sur d’autres conditions de Dirichlet, an amendant légèrement
le raisonnement.
0 1
En fait,
- d’un côté, ces oscillations infiniment petites sont un artefact de la modéli-
sation, car pour des raisons physiques elles devraient être bornée inférieure-
32 1 Modèles micro-macro pour les solides
ment (et donc on peut insérer cela “au forceps” dans le modèle par exemple
par l’introduction d’un terme de viscosité comme dans (1.59) 5 )
- mais d’un autre côté, du point de vue de la modélisation (et aussi surtout du
point de vue du calcul scientifique), même si ces oscillations sont bornées
à une échelle très fine, cette dernière peut s’avérer tellement fine qu’il vaut
mieux la considérer en pratique comme nulle. Ainsi, quelques Angströms
valent zéro à l’échelle du mètre car gérer 10−10 numériquement n’est pas
facile.
Il ressort de cela qu’une stratégie tout à fait raisonnable peut être de
délibérément attaquer ces problèmes avec microstructures infiniment fines,
plutôt que de traiter explicitement la petite échelle. Nous prenons ici le contre-
pied de l’approche que nous prendrons dans d’autres chapitres de ce cours.
Certes. Mais comment traiter de tels problèmes, et que faut-il calculer
dans de telles situations pour obtenir la “mécanique” des choses ? Nous allons
le voir maintenant.
une mesure de probabilité dνx (appelée une mesure de Young générée par la
suite (un )) telle que pour toute fonction f continue sur IRp , on ait
n−→+∞
f (un ) f (λ) dνx (λ) (1.60)
IRp
Montrer que cet infimum vaut zéro, en en construisant une suite minimisante
particulière. Expliquer (sans démonstration) pourquoi il est naturel que la
mesure de Young
1
dνx,y (λ, µ) = dν(λ, µ) = δλ=−1,µ=0 + δλ=1,µ=0
2
apparaisse à la limite.
ce qui, on l’a mentionné ci-dessus peut être une tâche insurmontable à cause
de l’apparition de microstructures très fines, et de kyrielles de minimiseurs
locaux pour le problème discrétisé, on attaquera la minimisation de
inf W (A) dνx (A) dx (1.63)
ν, ϕ telles que Ω M3
∀x
∈Ω
A dνx (A) = ∇ϕ(x)
M3
Pour terminer ce chapitre, abordons une autre notion très importante pour
les problèmes variationnels de la mécanique que nous traitons ici, la quasicon-
vexité.
Nous l’avons dit, la difficulté provient du fait que la densité d’énergie W
dans (1.53) n’est pas convexe. Il s’agit donc d’affaiblir la notion de convexité
pour comprendre.
Enfin, signalons que les deux techniques, mesure de Young d’une part et
quasiconvexité d’autre part, sont reliées, puisque le minimiseur ϕ0 de (1.65)
(ou un des minimiseurs de (1.65)) a son gradient donné par (1.62). En parti-
culier, la relaxation par les mesures de Young conserve plus d’information au
niveau microscopique que la relaxation par quasiconvexification.
1.6 Bibliographie
Pour des éléments sur la mécanique des milieux continus, nous renvoyons
aux livres de J. Salençon [69], Ph. G. Ciarlet [25], Y. Bamberger [10]. La
discrétisation par éléments finis en général est exposée dans le cours de G. Al-
laire [2], et par exemple dans les livres [33], et [67]. Pour son adaptation
spécifique aux problèmes d’élasticité on renvoie à l’ouvrage de P. Le Tal-
lec [53]. Des informations sur la façon de dériver des modèles macroscopiques
à partir d’informations à l’échelle atomique peuvent être par exemple trouvées
dans le livre d’A. Askar [7].
La dérivation mathématique rigoureuse de densités d’énergie mécanique
peut se lire dans le récent article X. Blanc, C. Le Bris et P.L. Lions [15].
La méthode numérique exposée dans la Section 1.3 est connue sous le nom
de Quasi continuum method et a été introduite, et successivement amendée,
dans E.B. Tadmor, R. Phillips [81], E.B. Tadmor, M. Ortiz, R. Phillips [82],
V.B. Shenoy, R. Miller, E.B. Tadmor, D. Rodney, R. Phillips, M. Ortiz [75],
J. Knap, M. Ortiz [51]. Pour des exemples d’application, on pourra voir
E.B. Tadmor, G.S. Smith, N. Bernstein, E. Kaxiras [80], V.B. Shenoy, R.
Miller, E.B. Tadmor, R. Phillips, M. Ortiz [74], R. Miller, E.B. Tadmor, R.
Phillips, M. Ortiz [59]. Nous en avons présenté ici la version “historique”, es-
sentiellement pour des raisons pédagogiques. La version “actuelle” est un peu
différente à la fois dans son esprit (tout à fait dans la veine de la Remarque 1.7)
et dans sa réalisation. On renvoie bien évidemment à la bibliographie.
Pour plus de détails sur les simulations multiéchelles en science des
matériaux, on pourra consulter les ouvrages “professionnels” : P. Deák, Th.
Frauenheim, M. R. Pederson [27] (et en particulier l’article R. E. Rudd &
J. Q. Broughton [68] des pages 251-291 de [27]), D. Raabe [66], O. Kirchner,
LP. Kubin, V. Pontikis [49], VV. Bulatov et coll. [18].
Pour en savoir plus sur la notion de topologie faible et ses multiples pro-
priétés, on pourra consulter, dans l’ordre croissant de difficulté, le cours de
G. Allaire [2], le livre de H. Brézis [16] ou le remarquable petit fascicule de
L.C. Evans [35]. L’analyse mathématique des problèmes de calcul des varia-
tions du type de ceux abordés dans la Section 1.5 fait l’objet d’une littérature
de recherche abondante. L’essentiel de ce qui a été exposé ci-dessus est tiré
38 1 Modèles micro-macro pour les solides
d’un article de J. Ball [8] (voir aussi [9] pour une mise en perspective). On a
aussi utilisé le livre de M. Chipot [24], les excellentes notes de S. Müller et
coll. [13], les livres de G. Buttazzo et coll. [19], de E. Giusti [38], de P. Pedre-
gal [64]. Une référence pour les aspects numériques est C. Carstensen [23].
A la frontière de ce que nous avons exposé ici se trouve la mécanique de la
fracture, qui, elle aussi, fait un usage grandissant des simulations multiéchelles.
On pourra par exemple se faire une idée en consultant H. Kitagawa et al. [50].
2
Techniques d’homogénéisation
Nous allons dans ce chapitre présenter sous une forme simple une stratégie
courante pour attaquer les problèmes multiéchelles à savoir la stratégie de l’ho-
mogénéisation. Nous la verrons aussi bien sous ses aspects de technique d’ana-
lyse mathématique que sous ses aspects de technique d’analyse numérique (on
parle dans ce second cas d’homogénéisation numérique).
En termes simples, le constat est le suivant. Prenons comme support un
problème aux limites monodimensionnel. Nous considérons une fonction a de
la variable réelle, supposée périodique de période 1, minorée par une constante
strictement positive, et pour une constante ε supposée petite, nous cherchons
la fonction uε , de [0, 1] dans IR, solution de l’équation différentielle
d x d
− (a( ) uε ) = f, (2.1)
dx ε dx
vérifiant les conditions aux limites uε (0) = uε (1) = 0. Dans l’équation ci-
dessus, f est une fonction régulière fixe donnée, supposée telle que (2.1) ait
une solution unique. Il est clair qu’on peut s’attendre à ce que la solution u ε
varie à l’échelle ε, et donc si on veut résoudre numériquement l’équation (2.1),
par exemple par un schéma aux différences finies, il nous faudra prendre un
pas de taille h au moins plus petit que ε. Sinon, en effet, on ne verra rien
·
des oscillations de la fonction a( ) qui se produisent à l’échelle ε, et donc a
ε
fortiori nous ne pourrons pas nous attendre à calculer uε correctement. Cela
risque donc de coûter cher.
Une stratégie envisageable est de chercher si quand ε tend vers zéro notre
équation converge vers une équation limite, dite alors équation homogénéisée.
On pourra alors tenter de résoudre l’équation ainsi obtenue, dans laquelle ε
aura disparu. La solution u
du problème homogénéisé aura de bonnes chances
(et c’est bien sûr en fait le cas) de ressembler à uε pour ε petit, la fonction
uε oscillant en effet autour de u
. Son approximation numérique pourra se
calculer avec un maillage de taille h (pour les éléments finis), ou un pas h
(pour la méthode des différences finies) qui ne sera plus nécessairement aussi
petit que ε.
40 2 Techniques d’homogénéisation
Nous mènerons ce travail à bien sur l’équation (2.1) dans la Section 2.1
ci-dessous.
Ensuite, nous enchaı̂nerons sur des situations en dimension 2, et sur des
cas beaucoup plus compliqués. Nous verrons aussi (Section 2.5) que ce qui a
été employé sur les équations peut l’être aussi sur les conditions aux bords, et
ce sera pour nous l’occasion d’aborder les problèmes dits de couche limite qui
sont eux aussi à ranger dans la classe des problèmes multiéchelles. Enfin, en
Section 2.6, nous constaterons, sur un exemple, que toutes les équations ne se
plient pas à l’homogénéisation avec autant de “simplicité” que les équations
de type (2.1) (qu’on appelle elliptiques).
Nous supposons que f ∈ L2 (]0, 1[). Toutes ces hypothèses peuvent être lar-
gement relaxées au prix de complications mathématiques inutiles pour cet
exposé introductif.
Soit uε la solution de (2.1). Nous ne détaillons pas les raisons pour
lesquelles une telle fonction uε existe. Il suffit par exemple d’appliquer le
Théorème de Lax-Milgram, ou de montrer l’existence 1 d’un minimiseur
1 dans
1 x dv
H01 (]0, 1[) à la fonctionnelle fortement convexe a( )| |2 − f v. Nous
2 0 ε dx 0
renvoyons pour les détails à la bibliographie.
Qui peut le plus peut le moins ! Si on veut déterminer la “forme” de uε
solution de (2.1) pour ε petit, et sa “limite” u
quand ε tend vers 0, il faut
au moins que nous sachions
·
(a) d’abord définir avec précision le comportement de a( ) pour ε petit,
ε
(b) ensuite résoudre le même problème (déterminer la “forme” de uε pour ε
petit) quand il n’y a pas d’opérateur différentiel dans (2.1)1 .
1
Contrairement au point (a), ce point (b) n’est pas stricto sensu nécessaire pour
la suite du raisonnement. Mais il va bigrement nous aider à comprendre.
2.1 Le cas monodimensionnel 41
Preuve :
Il s’agit de montrer que pour toute fonction v ∈ L1 (IR), on a
1
x
a( )v(x) dx −→ a v.
ε 0
On montre en fait cela pour v une fonction caractéristique, puis il suffira d’uti-
liser la densité des fonctions en escalier dans l’espace L1 (IR). Nous sommes
donc ramenés à montrer que pour α < β, on a
β 1
x
a( ) dx −→ (β − α) a.
α ε 0
d d
− (< a > u ) = f,
dx dx
puisqu’il “suffit” de remplacer a par sa moyenne. Pour tester si les choses sont
aussi spontanées que cela, nous allons maintenant attaquer le point (b).
Effaçons par la pensée l’opérateur différentiel dans (2.1) de sorte que uε
devient la solution de
x
−a( ) uε = f, (2.4)
ε
42 2 Techniques d’homogénéisation
c’est-à-dire
f (x)
uε = − x .
a( )
ε
1
A la limite ε −→ 0, en vertu de la Proposition 2.1 appliquée à la fonction ,
a
on sait donc que
1
uε u
= − < > f
a
faiblement (dans L2 ). L’équation limite (on dira bientôt homogénéisée) obte-
nue à partir de (2.4) est donc
1
− 1 u
= f, (2.5)
< a >
En d’autres termes, ce n’est pas < a > qui va compter, comme l’aurait fait
1
croire l’approche naı̈ve, mais l’inattendu (qui est bien sûr différent, sauf
< a1 >
miracle, de < a >, voir l’Exercice 2.2). Autrement dit encore, la connaissance
de la statistique de la fonction a ne suffit pas à connaı̂tre le comportement
moyen de uε . Que la statistique de l’entrée a ne suffise pas à connaı̂tre celle
de la sortie uε est en fait naturel car (2.4), comme (2.1), est un problème
non linéaire (a multiplie uε ). Dans le cas (2.4), et aussi nous le verrons dans
le cas (2.1) où l’opérateur différentiel est rétabli, l’analyse montre qu’il faut
1
connaı̂tre la statistique de . Bizarre ! C’est pourtant le cas le plus simple pos-
a
sible, et, dans des cas à peine plus compliqués, avoir l’intuition du coefficient
1
homogénéisé, le qui va apparaı̂tre, est une tâche impossible.
< a1 >
Exercice 2.2. Soit a une fonction périodique telle que 0 < m ≤ a ≤ M pour
1
deux constantes m et M . Montrer que =< a > si et seulement si a est
< a1 >
constante.
− ( 1 u ) = f, (2.6)
dx < a > dx
2.1 Le cas monodimensionnel 43
extraire une sous-suite, ce que nous faisons sans changer de notation, nous
pouvons donc supposer que uε converge fortement dans L2 vers une certaine
d ε d
fonction u
, alors que u converge faiblement dans L2 vers u . Par
dx dx
construction, la limite u
appartient aussi à H01 (]0, 1[).
Intégrons alors (2.1) :
x
x d
−a( ) uε = f + cε , (2.7)
ε dx 0
où à cause des bornes sur a et sur uε qu’on vient de montrer, la suite de réels
cε est une suite de réels bornée. A extraction près, on peut donc sans perte
de généralité supposer que cε converge vers un certain c. Récrivons alors
d 1 x x
− uε = ( ) f + cε . (2.8)
dx a ε 0
1
Comme la suite est aussi dans L∞ et périodique (en vertu des propriétés
a
de a), on peut lui appliquer la Proposition 2.1, et on sait donc
que la suite
d ε 2 1 x
− u converge faiblement dans L vers la fonction < > f + c , d’où
dx a 0
44 2 Techniques d’homogénéisation
d
1 x
− u =< > f +c . (2.9)
dx a 0
La limite u
de la suite uε solution de (2.1) est donc solution de
d 1 d
− ( u ) = f, (2.10)
dx < a1 > dx
Exercice 2.6. Montrer que toute fonction de H 1 (]0, 1[) admet un représentant
continu qui s’écrit x
du
u(x) = u(0) + .
0 dx
En déduire qu’il existe une constante C telle qu’on ait l’inégalité de Poincaré :
1 1
du
u2 ≤ C | |2 pour tout u ∈ H01 (]0, 1[).
0 0 dx
Remarque 2.7. Il faut bien noter que l’étape 1 peut se faire avant l’étape 2
1
car le coefficient homogénéisé ne dépend pas de la fonction f . Nous
< a1 >
retrouverons ce point capital à la Proposition 2.12 et dans les remarques qui
la suivent.
Fig. 2.1. Matériau lamellé (on dit aussi “laminé”) : la structure est invariante selon
x2 et périodique de période ε selon x1 .
a( x1 ) 0
− div ε x1 ∇u (x1 , x2 ) = f
ε
(2.12)
0 a( )
ε
qui s’écrit aussi
x1 ∂ ε ∂ ε
−div (a( ) u (x1 , x2 )e1 + u (x1 , x2 )e2 ) = f. (2.13)
ε ∂x1 ∂x2
On a noté (e1 , e2 ) la base canonique de vecteurs unitaires du plan. On
considère cette équation sur le carré Q = [0, 1]2 et on lui adjoint des conditions
nulles au bord de ce carré. Ici et dans toute la suite de ce chapitre, la fonction
uε prend ses valeurs dans IR.
Dans cette équation, la fonction a est encore une fonction périodique de
période 1, vérifiant la propriété (2.2). Le point important est qu’elle dépend
seulement de la première coordonnée x1 du point x = (x1 , x2 ). Typiquement,
elle figure un coefficient qui dépend de la nature du matériau modélisé. Par
exemple, il s’agit d’une conductivité thermique, u étant alors la température
et f la source de chaleur, ou d’une conductivité électrique, et u est alors le
potentiel électrique, et f la charge. Dans tous les cas, on considère un matériau
bidimensionnel dont les propriétés ne dépendent que de x1 . Par exemple, si a
est la fonction
α si 0 ≤ x1 ≤ 1/2
a(x1 ) = (2.14)
β si 1/2 < x1 ≤ 1
alors on peut penser à (2.12) comme un modèle pour un matériau fait d’un
assemblage de lamelles de coefficient α et β, chacune d’épaisseur ε/2 et as-
semblées dans le sens x1 (voir Figure 2.1).
Le problème obtenu à partir de (2.12) en laissant ε tendre vers 0 est énoncé
dans la proposition suivante :
Proposition 2.11. Quand ε tend vers 0, la solution uε du problème (2.12)
tend vers la solution u
de
1
1 0
− div < a > ∇u
=f (2.15)
0 <a>
c’est-à-dire de
1 ∂
∂
−div ( 1 u (x1 , x2 )e1 + < a > u (x1 , x2 )e2 ) = f.
< a > ∂x1 ∂x2
que sa “réponse” dans cette direction soit la moyenne (au sens habituel, soit
< a >) des réponses des matériaux constitutifs.
Nous ne sommes pas en mesure de présenter ici tous les détails techniques
de la preuve de cette proposition. Cependant, nous en indiquons les grandes
lignes, en admettant un ou deux points au cours de la preuve.
Preuve de la Proposition 2.11 :
Comme dans la section précédente, les bornes sur a permettent de montrer
∂ ε
facilement que la suite uε et les suites u sont bornées dans L2 (Q), ou
∂xi
ce qui revient au même, que uε est bornée dans H01 (Q). A extraction près,
nous pouvons donc supposer la convergence faible de ces suites respectivement
∂
vers u
et les u . Mieux, à cause du théorème de Rellich (Proposition 1.23),
∂xi
nous pouvons même supposer que la convergence de uε vers u
dans L2 (Q)
est forte.
Notons maintenant, pour i = 1, 2,
x1 ∂ ε
σiε = a( ) u (x1 , x2 ).
ε ∂xi
Il est clair que
1 ∂ ε ∂
σε = u u . (2.16)
a( xε1 ) 1 ∂x1 ∂x1
∂ ε
D’autre part, en utilisant les bornes sur a et celles sur u , nous avons
∂x1
ε 2
facilement σ1 bornée dans L (Q). De plus, à cause de l’équation,
∂ ε ∂ ε
− σ =f+ σ
∂x1 1 ∂x2 2
est bornée indépendamment de ε dans un certain espace fonctionnel, à savoir
L2x1 (Hx−1
2
). On admet que les deux propriétés d’avoir σ1ε bornée dans L2 (Q)
∂ ε
et σ bornée dans L2x1 (Hx−1 ) impliquent qu’à extraction près σ1ε converge
∂x1 1 2
1 ∂
σ1 = 1 u .
< a > ∂x1
48 2 Techniques d’homogénéisation
x1 ∂ ε ∂ x1 ε
σ2ε = a( ) u = a( )u .
ε ∂x2 ∂x2 ε
H01 (Ω) de
−div Aε ∇uε = f, (2.18)
alors on ait les convergences
uε u
, Aε ∇uε A
∇u
, Aε ∇uε · ∇uε A
∇u
· ∇u
(2.19)
où u
est la solution dans H01 (Ω) de
−div A
∇u
= f, (2.21)
2.2 Deux cas bidimensionnels 49
et u
.
Á Á Ç Á Ç É Ç É Ï É Ï Ñ Ï Ñ × Ñ × Ù × Ù ß Ù ß á ß á ç á ç é ç é ï é ï ï
Â Â Â È Ê È Ê Ê Ð Ò Ð Ò Ò Ø Ú Ø Ú Ú à â à â â è ê è ê ê ð ð
Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï
È È Ð Ð Ø Ø à à è è ð ð
Ã Ã Ã Ë Ë Ë Ó Ó Ó Û Û Û ã ã ã ë ë ë
Ä Ä Ì Ì Ô Ô Ü Ü ä ä ì ì
Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï
Á Á Á É É É Ñ Ñ Ñ Ù Ù Ù á á á é é é
È È Ð Ð Ø Ø à à è è ð ð
Â Â Â Ê Ê Ê Ò Ò Ò Ú Ú Ú â â â ê ê ê
Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î
Ç Ç Ç Ï Ï Ï × × × ß ß ß ç ç ç ï ï ï
È È Ð Ð Ø Ø à à è è ð ð
Å Å Ã Å Ã Í Ã Í Ë Í Ë Õ Ë Õ Ó Õ Ó Ý Ó Ý Û Ý Û å Û å ã å ã í ã í ë í ë ë
Æ Æ Æ Ä Î Ä Î Î Ì Ö Ì Ö Ö Ô Þ Ô Þ Þ Ü æ Ü æ æ ä î ä î î ì ì
Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î
Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Ã Ã Ã Ë Ë Ë Ó Ó Ó Û Û Û ã ã ã ë ë ë
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î
Ä Ä Ì Ì Ô Ô Ü Ü ä ä ì ì
Å Å Å Í Í Í Õ Õ Õ Ý Ý Ý å å å í í í
Æ Æ Æ Î Î Î Ö Ö Ö Þ Þ Þ æ æ æ î î î
# # # + + +
$ $ , ,
% % % - - -
& & & . . .
% % # % # - # - + - + +
& & & $ . $ . . , ,
% % % - - -
1 1 1 9 9 9 A A A I I I Q Q Q Y Y Y
2 2 2 : : : B B B J J J R R R Z Z Z
% % % - - -
# # # + + +
& & & . . .
$ $ , ,
7 7 7 ? ? ? G G G O O O W W W _ _ _
8 8 @ @ H H P P X X ` `
% % % - - -
& & & . . .
1 1 7 1 7 9 7 9 ? 9 ? A ? A G A G I G I O I O Q O Q W Q W Y W Y _ Y _ _
2 2 2 8 : 8 : : @ B @ B B H J H J J P R P R R X Z X Z Z ` `
7 7 7 ? ? ? G G G O O O W W W _ _ _
8 8 @ @ H H P P X X ` `
7 7 7 ? ? ? G G G O O O W W W _ _ _
1 1 1 9 9 9 A A A I I I Q Q Q Y Y Y
8 8 @ @ H H P P X X ` `
2 2 2 : : : B B B J J J R R R Z Z Z
7 7 7 ? ? ? G G G O O O W W W _ _ _
8 8 @ @ H H P P X X ` `
5 5 3 5 3 = 3 = ; = ; E ; E C E C M C M K M K U K U S U S ] S ] [ ] [ [
6 6 6 4 > 4 > > < F < F F D N D N N L V L V V T ^ T ^ ^ \ \
5 5 5 = = = E E E M M M U U U ] ] ]
a a a i i i q q q y y y
b b b j j j r r r z z z
5 5 5 = = = E E E M M M U U U ] ] ]
3 3 3 ; ; ; C C C K K K S S S [ [ [
6 6 6 > > > F F F N N N V V V ^ ^ ^
4 4 < < D D L L T T \ \
g g g o o o w w w
h h p p x x
5 5 5 = = = E E E M M M U U U ] ] ]
6 6 6 > > > F F F N N N V V V ^ ^ ^
a a g a g i g i o i o q o q w q w y w y y
b b b h j h j j p r p r r x z x z z
g g g o o o w w w
h h p p x x
g g g o o o w w w
a a a i i i q q q y y y
h h p p x x
b b b j j j r r r z z z
g g g o o o w w w
h h p p x x
e e c e c m c m k m k u k u s u s } s } { } {
{
f f f d n d n n l v l v v t ~ t ~ ~ | |
e e e m m m u u u } } }
f f f n n n v v v ~ ~ ~
¡ ¡ ¡ © © © ± ± ± ¹ ¹ ¹
¢ ¢ ¢ ª ª ª ² ² ² º º º
e e e m m m u u u } } }
c c c k k k s s s { { {
f f f n n n v v v ~ ~ ~
d d l l t t | |
§ § § ¯ ¯ ¯ · · · ¿ ¿ ¿
¨ ¨ ° ° ¸ ¸ À À
e e e m m m u u u } } }
f f f n n n v v v ~ ~ ~
¡ ¡ § ¡ § © § © ¯ © ¯ ± ¯ ± · ± · ¹ · ¹ ¿ ¹ ¿ ¿
¢ ¢ ¢ ¨ ª ¨ ª ª ° ² ° ² ² ¸ º ¸ º º À À
§ § § ¯ ¯ ¯ · · · ¿ ¿ ¿
¨ ¨ ° ° ¸ ¸ À À
§ § § ¯ ¯ ¯ · · · ¿ ¿ ¿
¡ ¡ ¡ © © © ± ± ± ¹ ¹ ¹
¨ ¨ ° ° ¸ ¸ À À
¢ ¢ ¢ ª ª ª ² ² ² º º º
§ § § ¯ ¯ ¯ · · · ¿ ¿ ¿
¨ ¨ ° ° ¸ ¸ À À
¥ ¥ £ ¥ £ £ « « µ « µ ³ µ ³ ½ ³ ½ » ½ » »
¦ ¦ ¦ ¤ ® ¤ ® ® ¬ ¶ ¬ ¶ ¶ ´ ¾ ´ ¾ ¾ ¼ ¼
¥ ¥ ¥ µ µ µ ½ ½ ½
¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾
¥ ¥ ¥ µ µ µ ½ ½ ½
£ £ £ « « « ³ ³ ³ » » »
¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾
¤ ¤ ¬ ¬ ´ ´ ¼ ¼
¥ ¥ ¥ µ µ µ ½ ½ ½
¦ ¦ ¦ ® ® ® ¶ ¶ ¶ ¾ ¾ ¾
Fig. 2.2. Matériau périodique bidimensionnel : il est clair que le volume de chaque
phase est le même que dans le matériau lamellé de la Figure 2.1. Pourtant l’équation
homogénéisée est différente.
A
< v >=< A v > . (2.25)
On écrit alors
A
< v > = < Av > en vertu de (2.25)
= < (Av) ◦ σ(x) > car σ ne change pas la moyenne
Or
et
rot (A(σ(x))v(σ(x))) = div (A(x)v(x)) = 0,
par un calcul simple (exploitant le fait que l’on travaille en dimension 2 ) donc
la fonction w(x) = A(σ(x))v(σ(x)) peut s’écrire w(x) = ∇h(x)+ < w > où h
est périodique et vérifie div (Aw) = 0. Donc la relation (2.25) établie ci-dessus
pour v peut s’appliquer aussi à w pour avoir :
52 2 Techniques d’homogénéisation
A
< A(σ(x))v(σ(x)) >=< A(x)(A(σ(x))v(σ(x)) >= αβ < v(σ(x)) > .
Donc
A
< v > = αβ(A
)−1 < v(σ(x)) >
= αβ(A
)−1 < v > car σ ne change pas la moyenne.
On a donc obtenu A
λ = αβ(A
)−1 λ pour tout λ ∈ IR2 , ce qui impose
A
= αβ(A
)−1 ,
2
√ matrice vérifiant (A x, x) ≥ c1 x pour tout x et c1 > 0 ,
impose A = αβId. ♦
où ε est une petite constante. Plutôt que d’attaquer directement la résolution
numérique de (2.26) qui pourrait coûter trop cher, nous nous proposons comme
ci-dessus de déterminer un problème dont la résolution donnera une bonne idée
de la solution uε de (2.26) pour ε petit.
Pour cela, nous commençons par postuler une forme de uε (en analyse
numérique comme en physique, un tel postulat s’appelle parfois un Ansatz ).
Il s’agit d’écrire uε comme le développement en ε suivant :
x x x
uε (x) = u0 (x, ) + εu1 (x, ) + ε2 u2 (x, ) + ..., (2.27)
ε ε ε
où la fonction uk apparaissant à l’ordre k en ε a été supposée dépendre de deux
x
variables, l’une macroscopique x, l’autre microscopique . Cette fonction est
ε
x
de plus supposée être périodique de sa seconde variable y = , c’est-à-dire
ε
y −→ uk (x, y) est périodique de cellule Y = [0, 1]N . (2.28)
+O(ε). (2.30)
1
Imposer (2.26) revient donc à exiger d’abord que le coefficient de 2 soit nul,
ε
i.e.
divy (A(y) · ∇y u0 (x, y)) = 0. (2.31)
Ceci impose
∇y u0 (x, y) = 0. (2.32)
En effet, on a
c ∇y u0 (x, y)2 ≤ (A(y)∇y u0 (x, y), ∇y u0 (x, y)) dy
Y Y
par coercivité de A
=− divy (A(y) · ∇y u0 (x, y)) u0 (x, y) dy
Y
où le premier terme est nul à cause de (2.31) et le second terme est nul en
raison de la périodicité de u0 (x, y) par rapport à y. Dans la formule ci-dessus,
n désigne bien sûr la normale unitaire sortante sur ∂Y .
La formule (2.32) signifie que la fonction u0 ne dépend en fait que de la
variable macroscopique x :
u0 = u0 (x). (2.33)
1
A l’ordre maintenant, on obtient, en utilisant l’information précédente :
ε
2.3 Des cas plus compliqués : la convergence à deux échelles 55
N
∂u0
u1 (x, y) = (x)wi (y), (2.35)
i=1
∂xi
Donc l’intégrale du membre de droite de (2.37) est aussi nulle ce qui se traduit
par
−divx A(y) · (∇y u1 (x, y) + ∇x u0 (x)) dy = f (x)
Y
puisque l’intégrale en la variable y “traverse” la dérivation en x.
Compte-tenu de la valeur déterminée (2.35) de u1 en fonction des wi , on
obtient
3
Et ceci est normal car, à l’échelle microscopique, le domaine macroscopique est
immense !
2.3 Des cas plus compliqués : la convergence à deux échelles 57
N
∂u0
−divx A(y) · (x)(∇y wj (y) + ej ) dy = f (x). (2.38)
Y j=1
∂xj
A ce stade, on remarque
N
∂u0
A(y) · (x)(∇y wj (y) + ej ) dy
Y j=1
∂xj
N
= A(y) · (∇u0 (x))j (∇y wj (y) + ej ) dy
Y j=1
N
= (∇u0 (x))j A(y) · (∇y wj (y) + ej ) dy
j=1 Y
N
N
N
= Aik (y)(∇y wj (y) + ej )k dy (∇u0 (x))j ei
i=1 j=1 k=1 Y
N
N
= A
ij (∇u0 (x))j ei
i=1 j=1
= A · ∇u0 (x)
peuvent s’écrire
A
ij = A(y)(ei + ∇y wi ), (ej + ∇y wj ) dy. (2.40)
Y
Notons que les étapes [i] et [ii] sont les précalculs qui permettent comme
dans les cas plus simples des sections ci-dessus de déterminer les termes de
la matrice homogénéisée A
. On voit que, cette fois, ce précalcul est en fait
la résolution d’un ensemble de problèmes aux limites (en fait autant que de
dimensions) et pas seulement un “simple” calcul de moyenne d’une fonction
périodique. De tels calculs, plus l’assemblage de la matrice A
, ne sont pas
gratuits ! Il faudra bien en être conscient avant d’entamer cette stratégie de
passage à la limite.
Remarque 2.23. On reviendra utilement à la Remarque 2.17.
Remarque 2.24. En fait, on est ici dans un cas simple car l’hypothèse de
périodicité faite sur A entraı̂ne que la détermination de A
ne dépend en
fait pas du point macroscopique x. Dans un milieu plus compliqué où on au-
rait une matrice A(x, xε ), on devrait résoudre les problèmes de type (2.36) en
chaque point x macroscopique4 . Ce qui est bien sûr beaucoup plus cher, même
si on peut en fait faire cela en parallèle, et une seule fois pour tous les seconds
membres f .
Il est utile de remarquer que ce que nous avons obtenu à la limite est en
fait une hiérarchie d’équations
⎧
⎪
⎪ u0 en fonction de f et A
via (2.41)
⎨
u1 en fonction de u0 via (2.34)
⎪
⎪ u2 en fonction de u1 et u0 via (2.37)
⎩
...
L’intérêt pratique est clair (même si on le répète tout n’est pas gratuit
dans cette approche) : on n’a pas à discrétiser le domaine de départ avec une
échelle aussi fine que ε dans un calcul couplé avec l’échelle 1. Il s’agit d’un
précalcul (la résolution de (2.36) à une échelle fine) qui est ensuite injecté
dans le calcul avec maillage grossier (2.41) via la formule (2.40).
En résumé, en résolvant d’abord les N problèmes (2.36) sur la maille, on
est en mesure d’obtenir pour tous les seconds membres f , une bonne approxi-
mation de la solution uε de (2.26) rien qu’en résolvant (2.41) à l’échelle 1.
4
En un certain sens, cette observation prépare ce que nous verrons au Chapitre 4.
2.3 Des cas plus compliqués : la convergence à deux échelles 59
Α∗=...
d 1 d
− ( u ) = f,
dx < a1 > dx
et où la fonction w (il n’y en a qu’une ici puisqu’on travaille en une dimension)
est solution de (2.36), ici
⎧
⎨ d d
− (a(y)(1 + w(y))) = 0, dans [0, 1],
dy dy
⎩ w périodique de période 1.
d 1
a(y)(1 + w(y)) = . (2.51)
dy < a1 >
2.3 Des cas plus compliqués : la convergence à deux échelles 63
de dérivée
1 1
w (y) = −1 + 1 . (2.53)
< a > a(y)
En injectant (2.53) dans (2.50), on trouve la valeur du coefficient homogénéisé
1 1
1 1 1
a
= a(y)(1 + w (y))2 dy = a(y) 1 2 dy =
0 0 < a > a(y) 2 < a1 >
qui est bien la valeur trouvée à la Section 2.1. Il s’ensuit évidemment que
la fonction u
est bien égale à u0 , et donc la Section 2.1 prouve que le
développement à deux échelles est au moins correct pour son ordre zéro, à sa-
voir que uε converge faiblement vers u0 dans H 1 ([0, 1]). C’est le seul exemple
où nous pourrons effectivement prouver cela dans ce cours.
Soyons curieux. La convergence de uε vers u0 est-elle forte dans H 1 ? Cela
revient à se poser la question suivante : la dérivée (uε ) tend-elle fortement
vers (u0 ) dans L2 ([0, 1]) ?
L’intérêt de la dimension 1 est que nous pouvons tout calculer explicite-
ment. Ainsi, il est possible en suivant la démarche de la preuve de la Propo-
sition 2.3, de résoudre (2.1) pour chaque ε > 0 et de trouver
x
x x t
1 t 1 t
u (x) = − cε +
ε
f (t) dt ( ) dt + ( ) dt f (t) dt (2.54)
0 0 a ε 0 0 a ε
où la constante cε (celle de (2.7)) vaut
1 1 1 t
1 t 1 t
− ( ) dt f (t) dt + ( ) dt f (t) dt
0 a ε 0 0 0 a ε
cε = 1 . (2.55)
1 t
( ) dt
0 a ε
Le second terme du membre de droite est une constante réelle qui tend vers 0
avec ε. En effet, nous remarquons alors que
64 2 Techniques d’homogénéisation
1 1
t
1 t 1 t
1 1 ( ) dt − t ( ) dt f (t) dt
0 0 a ε 0 a ε
cε + f (t) dt − tf (t) dt = 1 ,
0 0 1 t
( ) dt
0 a ε
(uε ) − (u0 )
et est donc une fonction qui tend vers zero en norme L2 en O(ε) par le même
raisonnement que pour (2.56). Et l’on peut donc récrire, en tenant compte de
la valeur de 1 + w ,
x 1 1
(uε (x)) − u0 (x) + εu0 (x)w( ) = (uε (x)) − u (x) + OL2 (ε)
ε < a > a( xε ) 0
1
1 1
1 x
= − ( ) cε + f (t) dt − tf (t) dt
a ε 0 0
+OL2 (ε). (2.59)
Remarque 2.26. Nous retrouverons à la Section suivante le fait qu’il est im-
portant d’obtenir une telle convergence forte.
Exercice 2.27. En reprenant le détail des calculs précédents pour une fonc-
tion w s’écrivant y
1 1
w(x, y) = h(x) − y + 1
<a> 0 a
(où h(x) est arbitraire), montrer que le fait qu’on ait pris dans la définition
de w la “constante” d’intégration h(x) nulle ne modifie en rien la convergence
(2.60).
où chacun des deux termes est un O(ε) en norme L∞ (et donc en norme
L2 ([0, 1])) en vertu de raisonnements déjà effectués ci-dessus.
Nous avons donc
x
ε
u (x) − (u0 (x) + εu0 (x)w( )) 1 = O(ε). (2.61)
ε H
le terme d’ordre 1 cache en fait un terme d’ordre 0 pour la dérivée (à cause de
x
l’argument dans w). La convergence à l’ordre o(1) pour la convergence H 1
ε
est donc en fait le résultat naturel que l’on peut attendre, et une convergence
à l’ordre O(ε) est donc un résultat non trivial5 .
5
On pourrait cependant attendre O(ε2 ) pour la norme L2 .
2.3 Des cas plus compliqués : la convergence à deux échelles 67
qui n’est pas exactement zéro en général mais est un O(ε) (encore par le même
raisonnement que ci-dessus).
Exercice 2.30. Montrer que si on avait une convergence o(ε) pour la norme
H 1 alors la condition au bord devrait au moins être vérifiée à l’ordre o(ε) près.
Vérifier que ce n’est pas le cas en général.
Dans la section 2.3.1, nous avons seulement travaillé par conditions néces-
saires, de manière formelle, sans nous préoccuper de notre bon droit quand
nous utilisions des dérivées. Nous avons montré que si uε admet un dévelop-
pement limité du type (2.27) alors les premiers termes sont nécessairement
donnés par les u0 et u1 déterminés ci-dessus. Dans le cadre monodimensionnel,
nous avons pu fournir la preuve, mais en toute généralité, il reste à fonder ceci
mathématiquement. Nous ne sommes malheureusement pas en mesure de faire
ceci ici, préférant nous consacrer à d’autres aspects. En fait, sous de bonnes
conditions sur les données, on peut montrer que le développement (2.27) est
·
légitime, au sens où uε − u0 (·) − εu1 (·, ) tend effectivement fortement vers
ε
0 dans H 1 .
Cependant, dès l’ordre 1 en ε, et a fortiori pour les ordres suivants, la
situation n’est pas simple, notamment car des couches limites aux bords du
domaine rentrent en jeu. Ceci peut déjà se comprendre de la façon suivante.
Comme indiqué en fin de Section précédente, un point est passé relativement
inaperçu dans notre analyse de la section 2.3.1 : la condition au bord uε = 0
68 2 Techniques d’homogénéisation
est certes vérifiée par u0 , mais pas par u1 (voir la formule (2.35)), et donc pas
·
par u0 (·) + εu1 (·, ). Ainsi, en dimension 1, nous avons vu que la condition
ε
au bord n’était en général vérifiée qu’à l’ordre O(ε). Il s’ensuit notamment
(une preuve précise peut être faite) que la vitesse en ε pour la convergence
·
dans H 1 de la fonction uε − u0 (·) − εu1 (·, ) vers 0 n’est pas forcément celle
ε
attendue6 . Rappelons en effet que, par exemple, à cause des propriétés de
l’application Trace, la norme H 1 (Ω) sur le domaine majore (à constante mul-
tiplicative près) la norme L2 (∂Ω), et donc si la convergence au bord n’est pas
bonne, la convergence de la dérivée sur tout le domaine ne peut pas l’être non
plus. Un terme parasite dû aux conditions aux limites apparaı̂t ainsi dans le
développement limité (2.27), qu’il faut ainsi corriger. Aux ordres supérieurs,
on anticipe de façon analogue des difficultés certaines pour montrer la validité
du développement (et il arrive effectivement qu’il soit faux).
Quoi qu’il en soit, la convergence à deux échelles développée ci-dessus est
un moyen explicite de rendre forte une convergence faible H 1 , celle de uε vers
u0 . De ce point de vue, il s’agit d’un cas particulier d’un résultat général
que nous citons maintenant, et qui, comme annoncé, prolonge et complète les
résultats de la Proposition 2.12. Dans cette dernière, la convergence H 1 de
uε vers u
est faible (voir Figure 2.4), et donc on n’a pas convergence forte
des dérivées, en particulier dans L1 et donc presque partout. Pour améliorer
la situation, il faut adjoindre des termes correctifs à u
, comme nous l’avons
fait en adjoignant εu1 à u0 dans le développement à deux échelles.
et
ε −→0
−div Aε ei + ∇ziε −→ 0, fortement dans H −1 (Ω), (2.63)
telles que
ε −→0
∇uε − Id + ∇z ε ∇u
−→ 0, fortement dans (L1 (Ω))N . (2.64)
Les fonctions zi sont dites les correcteurs, au sens où, grâce à leur présence,
la formule (2.64) permet d’obtenir la convergence forte de la dérivée de u ε
vers celle de u .
6 √
Typiquement, on peut obtenir un ordre O( ε).
2.3 Des cas plus compliqués : la convergence à deux échelles 69
avec ziε ∈ H01 (Ω), puis à vérifier que de tels ziε tendent effectivement faiblement
vers 0 dans H 1 (Ω).
En fait, les correcteurs permettent mieux que simplement corriger la
convergence, car ils permettent aussi d’obtenir une expression de la matrice
homogénéisée et donc de déterminer u
. C’est l’objet du
Corollaire 2.32. Toujours sous les conditions de la Proposition 2.12, la ma-
trice homogénéisée A
s’exprime par
A
= lim Aε Id + ∇z ε . (2.66)
faible dans (L2 (Ω))N ×N
Remarque 2.33. La convergence (2.64) est bien sûr la généralisation de (2.60),
laquelle est basée sur (2.58).
Remarque 2.34. De même, (2.66) généralise (2.50) et aussi (2.39)-(2.39).
A ce stade, nous savons donc que grâce à la résolution préalable des N
problèmes du type (2.65), nous obtiendrons, pour chaque fonction f une bonne
approximation de uε par la seule résolution du problème homogénéisé. Ceci
est tout à fait la situation constatée pour la convergence à deux échelles.
Pour autant, il ne faut pas sombrer dans l’euphorie. En fait, l’expression
(2.66) n’est pas vraiment explicite, car calculer cette limite n’est pas simple :
il y a un produit de fonctions au membre de droite. Dans le cas périodique, la
convergence à deux échelles pour le cas périodique rend cette formule vraiment
explicite et indépendante de l’extraction. C’est ce que nous avons vu plus haut.
On obtient d’un seul coup le correcteur et la matrice homogénéisée. En toute
généralité, tout reste à faire !
Remarque 2.35. Pour être rigoureux, nous devrions préciser que l’expression
(2.66) est bien une définition au sens où la valeur ne dépend pas du correcteur
choisi, c’est-à-dire que quelles que soient les fonctions zi remplissant les condi-
tions de la Proposition 2.31 le résultat sera le même. C’est en fait le cas, nous
l’admettons en toute généralité, et l’exercice ci-dessous éclaircira la situation
sur le cas de la dimension 1.
Exercice 2.36. Sur le cas de la dimension 1, montrer que (2.66) est bien une
définition légitime.
Exercice 2.37. Reprendre le cas de la convergence à deux échelles sur le
cas périodique de la Section 2.3.1 largement exploré ci-dessus : contruire des
correcteurs, et montrer que l’expression (2.66) coı̈ncide bien avec l’expression
(2.40).
70 2 Techniques d’homogénéisation
uε
u*
u ε’
u*’
N
∂u0 x
uε (x) = u0 (x) + ε (x)wi ( ).
i=1
∂xi ε
Brièvement dit, une des techniques consiste à mailler le domaine selon des
mailles grossières (i.e. à l’échelle 1, par exemple en dimension 2 par des carrés
(de sommets notés xj ) ce qui est bien adapté à la cellule de périodicité Y =
[0, 1]2 ), et considérer comme espace d’éléments finis un espace de fonctions
qui sont somme de deux types de fonctions : d’une part, les fonctions Q1
habituelles (notées ψi et vérifiant ψi (xj ) = δij ) et d’autre part des fonctions
tests qui oscillent à l’échelle ε. Par exemple, on peut déterminer les fonctions
ηiε solutions de
−div (A( xε ) · ∇(ηεi + ψ i )) = 0, dans la maille de taille 1,
ηεi = 0, au bord de la maille,
et utiliser la base des ϕiε comme base d’éléments finis. Cette base contient
des oscillations à l’ordre ε, à cause de la présence des ηεi ( ce sont elles qui
·
jouent en fait, pour ε = 0, le rôle des fonctions wi ( ) de la section précédente,
ε
avec cet avantage supplémentaire qu’elles vérifient les bonnes conditions aux
bords).
La résolution numérique du problème original se présente alors encore en
deux étapes : un précalcul où on évalue les ϕiε sur chaque maille, puis un calcul
sur le maillage à l’échelle 1 de la solution uε de l’équation développée sur les
ϕiε .
Une alternative, dans le même esprit mais avec une réalisation pratique
un peu différente, est de considérer des fonctions de base à l’échelle ε qui sont
périodiques.
Plus précisément, on définit la solution φ(y, ε, t) de
−e−iεty divy (A(y) · ∇y (eiεty φ(y, ε, t))) = ε2 , sur la maille périodique Y,
φ(y, ε, t) périodique au bord.
Fig. 2.5. Couche limite en 0+ : il s’agit pour bâtir une discrétisation efficace de
déplacer le bord du domaine de calcul (ici le bord gauche en 0) pour éliminer la
couche limite ; mais il faut aussi trouver la “nouvelle” condition à imposer sur le
“nouveau” bord. On parle de condition équivalente.
sur la demie-droite x > 0. Pour éviter de devoir résoudre dans la couche limite
au voisinage de 0+ , on veut trouver une condition équivalente. L’établir.
Ω0
ε xY Ω
ε
Γε
Γ0
∂u0 1 ∂ 2 u0
u0 (x1 , x2 ) = u0 (x1 , 0) + x2 (x1 , 0) + x22 (x1 , ζ(x1 , x2 )x2 )2 ,(2.77)
∂x2 2 ∂x22
∂ 2 u0
pour un certain ζ(x1 , x2 ) ∈]0, 1[. Nous avons u0 (x1 , 0) = 0, et x22 = O(ε)
∂x22
dès que x2 est de l’ordre ε (ce qui est le cas pour (x1 , x2 ) ∈ Γε ) au vu de l’hy-
∂u0
pothèse (2.73). De plus, comme u0 est nul sur Γ0 , on sait (x1 , 0) = 0,
∂x1
0
et en utilisant le caractère à divergence nulle de u qui se traduit par
∂u02 ∂u0
(x1 , 0) = − 1 = 0, cela entraı̂ne donc
∂x2 ∂x1
∂u0 ∂u01
(x1 , 0) = (x1 , 0)e1 .
∂x2 ∂x2
∂u01
u0 (x1 , x2 ) = (x1 , 0) x2 e1 + O(ε), (2.78)
∂x2
pour tout (x1 , x2 ) placé sur Γε . C’est au premier ordre en ε l’erreur que nous
avons commise en remplaçant uε par u0 .
2.5 Questions de couche limite 79
∂u01 x x
−µε∆u0 + ∇p0 + (x1 , 0) [−µ∆v( ) + ∇q( ) ]
∂x2 ε ε
∂ 2 u01 x
−2µε (x1 , 0), 0 · ∇ v( )
∂x1 ∂x2 ε
x 2 0
∂ u1 ∂ 3 u0 x
+εq( ) (x1 , 0), 0 − µε 2 1 (x1 , 0) v( )− < v > = f.
ε ∂x1 ∂x2 ∂x1 ∂x2 ε
(2.81)
−µε∆u0 + ∇p0 = f,
∂u01 1
(x1 , 0) est exactement d’ordre √ , (2.82)
∂x2 ε
1
au lieu d’être seulement O( √ ) selon l’hypothèse (2.73). De même, on
ε
considère que
∂ 2 u01 ∂ 3 u0 ∂ ∂ 2 u01
(x1 , 0) et 2 1 (x1 , 0) = (x1 , 0), 0
∂x1 ∂x2 ∂x1 ∂x2 ∂x1 ∂x1 ∂x2
1
sont exactement d’ordre √ . (2.83)
ε
On notera que la dernière quantité est une dérivée tangentielle le long de Γ0
et hérite donc des propriétés de la fonction sur cette même frontière. Ensuite,
on admet que v, q, et leurs dérivées sont essentiellement tous du même ordre,
de sorte que par leur multiplication, ils ne perturbent pas l’ordre en ε des
quantités précédentes. En étudiant tous les termes restants de (2.81), on réalise
alors bien que c’est le deuxième terme qui domine quand ε −→ 0. On choisit
donc naturellement (v, q) tels que
−µ∆v + ∇q = 0. (2.84)
div u0 + ε divx uc = 0,
c’est-à-dire
∂u01 x ∂ 2 u01 x
div u0 + (divy v)( ) + ε (x1 , 0) (v1 ( )− < v >1 ) = 0.
∂x2 ε ∂x1 ∂x2 ε
∂u01
u0 + ε uc = −ε < v > (x1 , 0) + O(ε), (2.87)
∂x2
√
ce qui, on le notera, est un développement
√ en puissance de ε puisque le
premier terme est précisément d’ordre ε.
Si l’on résume les conditions imposées sur (v, q), nous avons exigé (2.84),
(2.85), (2.86), ce qui donne bien (2.75). Nous admettons qu’il existe un unique
couple (v, q) et une unique moyenne < v > tels que v, q soient solutions du
système (2.75), avec les propriétés de décroissance et de périodicité annoncées
dans la Proposition 2.40. Nous admettons de plus que nécessairement nous
avons alors
< v >= v e1 .
L’idée est alors la suivante. Pour compenser le terme d’ordre ε dans (2.87),
nous remplaçons le couple (u0 , p0 ) dans le développement (2.76) par le couple
(u1 , p1 ) solution de la même équation de Stokes (2.74) à savoir
−µε∆u1 + ∇p1 = f, dans Ω0
(2.88)
div u1 = 0, dans Ω0
u1 + ε uc = O(ε), (2.90)
√
ce qui gagne un ordre en ε.
Le programme de travail est à ce stade le suivant : on résout le problème
de Stokes (2.71) pour trouver (u0 , p0 ), puis le problème (2.75) sur la cellule
de périodicité, et enfin le problème de Stokes (2.88)-(2.89) pour déterminer
(u1 , p1 ). C’est clairement un peu trop lourd. Donc une astuce est de remplacer
u0 par u1 dans les membres de droite de (2.89) et de (2.80), ce qui s’écrit
∂u11
u1 = ε v (x1 , 0) e1 sur Γ0 , (2.91)
∂x2
ou encore comme la troisième ligne de (2.74). L’intérêt est que cette fois
on peut oublier complètement le problème (2.71), et ne résoudre donc qu’en
deux étapes au lieu de trois : la résolution du problème (2.75) sur la cellule
de périodicité, puis la résolution du problème de Stokes (2.74) avec la bonne
condition au bord. Ceci conclut la “preuve” de la proposition. ♦.
82 2 Techniques d’homogénéisation
Remarque 2.41. Encore une fois, le lecteur peut constater qu’on suit les
désormais habituelles deux étapes pour la résolution.
−div (A
· ∇u
) = f, (2.94)
où v ∈ L2 ([0, 1]) est fixée, et a est une fonction périodique de la variable
réelle, de période 1, vérifiant 0 < c1 ≤ a(x) ≤ c2 pour deux constantes ci ne
dépendant pas de x quelconque dans IR.
La solution de cette équation est connue et vaut
x
ε
−ta( )
u (t, x) = v(x) e ε , (2.96)
de sorte que
u
(t, x) = lim uε (t, x) = v(x) b(t),
ε−→0
où
x
−ta( )
b(t) = lim e ε =< e−ta >
ε−→0
uniformément en t > 0, et c’est d’ailleurs faux dès que a n’est pas une fonction
constante. Et donc il n’est pas possible que la limite u
vérifie une équation de
même type que (2.95). En passant à la limite ε −→ 0, la forme de l’équation
a changé. Nous allons montrer (ici sur un cas simple de fonction a) que u
pour la même donnée initiale que (2.95), et pour une certaine fonction K = 0
que l’on peut déterminer explicitement d’après a (voir la formule (2.112) ci-
dessous). Pour mener le calcul avec les outils les plus simples possibles (mais en
fait le résultat qualitatif menant de (2.95) à (2.98) est plus général que cela),
nous allons choisir comme fonction a la fonction constante par morceaux
a1 si x ∈ [0, α1 ],
a(x) = (2.99)
a2 si x ∈]α1 , 1],
où a1 , a2 sont deux constantes strictement positives, α1 ∈]0, 1[, et on note
désormais α2 = 1 − α1 .
Remarque 2.44. Pour montrer que l’équation (2.98) est vérifiée par u
, on
pourrait tout simplement calculer u
, compte-tenu de l’expression (2.99) :
u
(t, x) = v(x) α1 e−ta1 + α2 e−ta2 ,
puis insérer brutalement ceci dans (2.98) et vérifier qu’il existe un K conve-
nable (et qui est bien sûr celui qu’on va trouver en (2.112)). La démarche
qu’on va employer ici est plus générale.
Nous procédons de la façon suivante. Vue l’expression (2.96), la suite
uε (t, x) est bornée dans L∞ ([0, +∞[, L2 ([0, 1])) (ce qui signifie que la norme
L2 en x de uε (t, ·) est bornée indépendamment de t ∈ [0, ∞[ et de ε). On
peut donc supposer, quitte à en extraire une sous-suite, qu’elle converge vers
une certaine fonction u
pour la topologie faible de cet espace fonctionnel,
c’est-à-dire la topologie L∞ faible- en temps, et L2 faible en espace.
Exercice 2.45. En fait, il n’y a pas besoin de l’expression (2.96) pour mon-
trer que la suite uε (t, x) est bornée dans L∞ ([0, +∞[, L2 ([0, 1])). On peut
en effet établir directement à partir de (2.95), ce qu’il est d’usage d’appeler
une estimation a priori, c’est-à-dire montrer que la suite uε est bornée dans
une certaine norme, sans pour autant calculer explicitement u . En intégrant
(2.95) contre une fonction bien choisie, mener à bien cette estimation a priori.
Nous intégrons alors l’équation (2.95) contre e−pt pour p > 0, faisant ainsi
apparaı̂tre la transformée de Laplace
∞
Luε (p, x) = e−pt uε (t, x) dt, pour x ∈ [0, 1], p > 0, (2.100)
0
ε
de la fonction u .
2.6 Quand ça se passe mal ... 85
Nous avons
∞ ∞
∂ ε x
e−pt u (t, x) dt + a( ) e−pt uε (t, x) dt = 0,
0 ∂t ε 0
ε−→0 1
Luε (p, x) < > v(x). (2.102)
p+a
Mais par ailleurs, nous savons déjà que uε converge faiblement vers u
, et
il s’ensuit que Luε converge faiblement vers Lu
. En effet, si ϕ(x) est une
fonction fixée de L2 ([0, 1]), nous avons
1 1 ∞
(Luε − Lu
)(p, x) ϕ(x) dx = e−pt ϕ(x) (uε − u
)(t, x) dt dx
0 0 0
ε−→0
−→ 0,
où α et β sont deux constantes et où nous supposons β > 0. Effectuons alors
une transformée de Laplace de (2.98) ; nous trouvons
∞ t
−v(x) + (p+ < a >) Lu
(p, x) = α e−β(t−s) e−pt u
(s, x) ds dt
0 0
A ce stade, nous utilisons le fait que a est la fonction constante par morceaux
donnée par (2.99), d’où la valeur de la moyenne
1 α1 α2
< >= + , (2.109)
p+a p + a1 p + a2
est l’unique valeur rendant exactement l’égalité possible pour tout p > 0. Il
est facile de voir (c’est l’objet de l’Exercice 2.48 ci-dessous) que cette valeur
est bien strictement positive, ce qui est compatible avec l’hypothèse faite plus
haut.
Ceci marque la fin du raisonnement par conditions nécessaires. On conclut
alors de la façon suivante. On fixe β par (2.111) et ensuite α selon (2.107).
On fixe
< a2 > − < a >2
K(t) = (< a2 > − < a >2 ) exp − t . (2.112)
1
<a>− 1
<a>
Exercice 2.47. Montrer dans le détail que (2.110) est possible pour tout
p > 0 si et seulement si β est donné par (2.111).
Exercice 2.48. Montrer que β donné par (2.111) est strictement positif. En
déduire que le calcul menant de (2.98) à (2.106) a bien un sens.
2.7 Bibliographie
La théorie de l’homogénéisation dont on a montré le B.A.BA et la conver-
gence à deux échelles peuvent être lues dans le premier chapitre du livre G.
Allaire [3], dans le livre d’E. Sanchez-Palencia [70], et dans F. Murat et L.
Tartar [60], ces deux derniers auteurs étant deux des “pères fondateurs” de
cette théorie. La convergence à deux échelles, initialement introduite dans
[61], peut être lue pour le cas périodique dans l’article G. Allaire [4]. Pour la
Proposition 2.16, et d’autres points de ce chapitre, on renvoie aussi au livre
de V.V. Zhikov, S.M. Kozlov, O.A. Olejnik [84].
Pour les méthodes multiéchelles de la Section 2.4, on renvoie à Hou,
Thomas Y. ; Wu, Xiao-Hui [46], A.M. Matache et Ch. Schwab [57], Ch.
9
on admet que cette solution existe pour v suffisamment régulière, ce qui peut
être montré soit directement, soit en utilisant précisément la transformée de Laplace
inverse de Lu
88 2 Techniques d’homogénéisation
Schwab [73], A.M. Matache et Ch. Schwab [58]. La section 2.5 s’inspire
fidèlement d’une étude récente effectuée dans Y. Achdou, O. Pironneau, et
F. Valentin [1] sur un cas plus compliqué que le problème de Stokes. Enfin,
l’exemple de la Section 2.6 est classique, et par exemple tiré des travaux de
F. Golse, voir [39] et ses références.
3
Simulation moléculaire
description les noyaux atomiques et les électrons. La plus grande des échelles
d’espace pertinentes est l’Angström (10−10 mètre), taille typique d’un nuage
électronique, alors que la plus petite est de l’ordre de 10−15 mètre, taille
du noyau. La plus grande des échelles de temps est la femtoseconde (10 −15
seconde), échelle de la vibration d’une liaison moléculaire, alors qu’une struc-
ture électronique se met à jour en mille fois moins de temps. Ces modèles ab
initio ne font intervenir que les constantes fondamentales de la physique et
ne comportent donc aucun paramètre empirique. Ils permettent aujourd’hui
d’effectuer des calculs sur l’état stationnaire de systèmes moléculaires com-
portant jusqu’à 100 ou même 1000 atomes. Les calculs sur la dynamique sont
très lourds mais deviennent accessibles ; ils restent cependant limités à des
échelles de temps très courtes, de l’ordre de la picoseconde (10−12 s). Pour
aller au-delà et atteindre des échelles de temps plus longues (pour la biologie
par exemple), on fait appel à des modèles moins sophistiqués (qui ne seront
pas abordés ici).
Considérons un système moléculaire isolé formé de M noyaux et de N
électrons. En mécanique quantique non relativiste, ce système est complète-
ment décrit par une fonction d’onde
M
1 N
1 N M
zk
H=− ∆x̄k − ∆xi − (3.2)
2 mk i=1
2 i=1 k=1
|x i − x̄k |
k=1
1 zk zl
+ +
|xi − xj | |x̄k − x̄l |
1≤i<j≤N 1≤k<l≤M
3.1 Modélisation d’un système moléculaire 91
M
px̄2 k N
p2xi
N M
zk
Hcl := + −
2mk i=1 2 i=1 k=1
|xi − x̄k |
k=1
1 zk zl
+ +
|xi − xj | |x̄k − x̄l |
1≤i<j≤N 1≤k<l≤M
H Ψ = E Ψ, (3.4)
E désignant l’énergie de Ψ .
La recherche du fondamental d’un système moléculaire isolé est le problème
central de la chimie quantique. C’est notamment un problème clé car il consti-
tue souvent une étape préliminaire incontournable à la détermination des pro-
priétés physico-chimiques du système.
Il est difficile d’attaquer directement le problème dépendant du temps (3.1)
ou le problème stationnaire (3.3) (éventuellement sous sa forme (3.4)), et ce
pour deux raisons
[i] l’espace des fonctions d’onde est trop gros,
[ii] le Hamiltonien couple les différentes variables entre elles,
les deux points augurant d’une impossible discrétisation du problème. Nous al-
lons donc faire une série d’approximations, qui vont rendre ces deux problèmes
traitables numériquement.
Remarque 3.1. D’un point de vue théorique, ces deux problèmes sont trai-
tables. C’est d’un point de vue pratique pour la simulation qu’ils sont insur-
montables.
92 3 Simulation moléculaire
inf {Ψ, HΨ , Ψ = ψ n ψe , ψn ∈ Hn , ψn = 1, ψe ∈ He , ψe = 1} .
dx̄k
où x̄k (t) et (t) désignent respectivement la position et la vitesse du noyau
dt
k et ψe (t) la fonction d’onde électronique à l’instant t. Le mouvement des
électrons est décrit par l’équation de Schrödinger électronique
94 3 Simulation moléculaire
∂ψe
i = He (t) ψe , (3.10)
∂t
où l’hamiltonien électronique s’écrit
N
1
N
M
zk 1
He (t) = − ∆xi − + .
2 |xi − x̄k (t)| |xi − xj |
i=1 i=1 k=1 1≤i<j≤N
d2 x̄k
mk (t) = −∇x̄k W (t; x̄1 (t), · · · x̄M (t)) (3.11)
dt2
avec
M
zk ρ(t, x) zk zl
W (t; x̄1 , · · · , x̄M ) = − dx + . (3.12)
IR3 |x − x̄k | |x̄k − x̄l |
k=1 1≤k<l≤M
où
ρ(t, x) = N |ψe |2 (t; x, σ1 ; x2 , σ2 ; · · · ; xN , σN ) dx2 · · · dxN
σ1 ,σ2 ,···,σN IR3(N −1)
Fig. 3.1. Dynamique non adiabatique : les noyaux sont gérés par la dynamique
newtonienne, et les états électroniques évoluent par l’équation de Schrödinger.
3.1 Modélisation d’un système moléculaire 95
L’approximation adiabatique
En règle générale, on suppose que les électrons sont dans leur état fonda-
mental et U est alors donné par (3.8).
où Uk (x̄1 , · · · , x̄M ) désigne l’énergie du k-ième état excité électronique (le
(k + 1)-ième état propre de l’hamiltonien He ) pour les positions x̄1 , · · · , x̄M
des noyaux. Tout ce qui sera dit plus bas peut s’adapter à un tel cas.
d2 x̄k
mk (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t)). (3.15)
dt2
L’approximation adiabatique est valable dans beaucoup de situations et en
particulier quand on cherche à calculer des propriétés physiques comme par
exemple les diagrammes de phase qui indique l’état physique (liquide, solide,
gazeux) d’un composé en fonction des conditions externes (température,...),
ainsi que pour la simulation de la plupart des réactions chimiques. En re-
vanche, il existe des situations importantes (comme des collisions) où plusieurs
états électroniques du système jouent simultanément un rôle déterminant et
où l’approximation adiabatique est mise en défaut.
Fig. 3.2. Dynamique adiabatique : les noyaux sont gérés par la dynamique newto-
nienne, et pour chaque nouvelle position, on calcule l’état électronique.
L’espace variationnel choisi est He donné par (3.6), où par souci de simplicité
on oublie désormais la variable de spin (ceci ne change quasiment rien à la
suite, à part des détails techniques)
N
He = L2 (IR3 , C
| ). (3.19)
i=1
Le Hamiltonien est
N
1
N 1
He = − ∆xi + V (xi ) +
2 |xi − xj |
i=1 i=1 1≤i<j≤N
M
zk
V (x) = −
|x − x̄k |
k=1
3
les x̄k étant ici des paramètres de IR fixés. Il s’agit de bien comprendre que les
x̄k sont en fait typiquement une position de noyaux au cours d’une dynamique
newtonienne, ou une itération d’un algorithme d’optimisation de géométrie.
Ce que nous regardons ici est donc une “sous-boucle” d’un algorithme.
En raison de la taille de l’ensemble des fonctions d’onde admissibles, on ne
peut encore pas attaquer directement la résolution numérique de ce problème
de minimisation pour des molécules intéressantes (on peut seulement le faire
pour des molécules ridiculement petites). En effet, le lecteur sait que réaliser
une approximation de dimension finie d’un espace de fonctions comme L2 (IR3 )
n’est déjà pas simple (penser aux méthodes d’éléments finis, qui sont beaucoup
plus dures à mettre en oeuvre en 3D qu’en 2D). Il peut alors s’imaginer la
tâche insurmontable en pratique de tenter d’approcher un espace comme H e
(voir (3.6)) qui est en fait un sous-ensemble de L2 (IR3N ) (aux variables de
spin près), pour un entier N de l’ordre de 100.
Il va donc nous falloir encore simplifier le problème.
La méthode de Hartree-Fock est une approximation variationnelle du
problème électronique (3.18) consistant à restreindre l’ensemble de minimi-
sation
{ψe ∈ He , ψe = 1}
aux seules fonctions d’onde ψe qui s’écrivent comme un déterminant de Slater
3.1 Modélisation d’un système moléculaire 99
1
ψe = √ det(φi (xj )) (3.20)
N!
de N fonctions d’onde monoélectroniques orthonormées φi appelées orbitales
moléculaires, en se basant sur l’idée qu’un prototype d’une fonction anti-
symétrique de N variables est un produit antisymétrisé de fonctions d’une
variable. On note
(φi , φj ) = φi (x)∗ φj (x) dx = δij , 1 ≤ i, j ≤ N } (3.21)
IR3
inf {ψe , He ψe , ψe ∈ SN } .
N
ρΦ (x) := ρψe (x) = |φi (x)|2 , (3.23)
i=1
E HF (Φ) = ψe , He ψe
N
1
= |∇φi |2
i=1
2 IR 3
1 ρΦ (x) ρΦ (x )
+ ρΦ V + dx dx
IR3 2 IR3 IR3 |x − x |
1 |τΦ (x; x )|2
− dx dx . (3.24)
2 IR3 IR3 |x − x |
⎧
⎪ d2 x̄k
⎪
⎪ mk 2 (t) = −∇x̄k W (t; x̄1 (t), · · · x̄M (t))
⎪
⎪ dt
⎪
⎪ M
⎪
⎪ zk ρ(t, x) zk zl
⎪
⎪ W (t; x̄ , · · · , x̄ ) = − dx +
⎨ 1 M
3 |x − x̄k | |x̄k − x̄l |
k=1 IR 1≤k<l≤M (3.30)
⎪
⎪
N
⎪
⎪ φ∗i φi
⎪
⎪ ρ(t, x) =
⎪
⎪
⎪
⎪ i
⎪
⎩ ∂φi
i = F(DΦ )φi
∂t
102 3 Simulation moléculaire
Avant tout, nous allons récrire le problème Hartree-Fock sous une forme plus
compacte, celle fournie par le formalisme des matrices densités.
Le formalisme matrices-densités
N
D(x, y) = φ∗i (x)φi (y). (3.31)
i=1
On a ainsi
ψe , He ψe = E HF (Φ) = E HF (DΦ ),
avec
1
E HF (D) := Tr(hD) + Tr(G(D) · D)
2
où
1
h := − ∆ + V
2
désigne le hamiltonien de coeur du système moléculaire et où pour tout φ ∈
H 1 (IR3 , C
| ) et tout x ∈ IR3
3.2 Simulation numérique 103
1 τΦ (x; x )
(G(D) · φ)(x) := ρΦ (x) φ(x) − φ(x ) dx ,
|y| IR3 |x − y|
où
F(D) := h + G(D) (3.34)
N
est l’opérateur de Fock associé à l’opérateur densité D = i=1 (φi , ·)φi , ce qui
donne de façon plus explicite
1 1
(F(D) · φ)(x) = − ∆φ(x) + V (x)φ(x) + ρD (x) φ(x)
2 |y|
τD (x; x )
− φ(x ) dx , (3.35)
IR3 |x − y|
en notant ρD et τD au lieu de ρΦ et τΦ .
L’espace de discrétisation
avec
W̃N (V) = Φ = {φi } , φi ∈ V, φi φ∗j = δij 1 ≤ i, j ≤ N ,
IR3
avec
⎧
⎪
⎪ E HF (C) = Tr(hD) + 21 Tr(G(D)D) = h : D + 21 D : A : D
⎪
⎪ ∗
⎪
⎪ D = CC
⎪
⎪
⎨ hij =
1 ∗
∇χi · ∇χj + V χ∗i χj
2 IR3 IR3
⎪
⎪
⎪
⎪ G(D) =A :D avec Aijkl = (ij|kl) − (ik|jl)
⎪
⎪ ∗
χk (x )∗ χl (x ))
⎪
⎪ χ (x)χ (x)
dx dx
i j
⎩ (ij|kl) =
IR3 IR3 |x − x |
d
2
k ηk γk −δk |x|
χi (x) = ck xα
1 x2 x3 e
k=1
où les αk , ηk , γk sont des entiers positifs et les δk des réels positifs, l’en-
semble étant optimisé de sorte d’approcher au mieux des orbitales de Slater.
L’intérêt de telles fonctions est double. D’abord, parce qu’elles approchent les
orbitales de Slater, elles représentent avec précision les singularités des orbi-
tales monoélectroniques. Ensuite, parce que ce sont des gaussiennes, elles se
prêtent facilement au calcul des n4 intégrales biélectroniques
χi (x)χj (x)∗ χk (x )∗ χl (x )
(ij|kl) = dx dx , (3.38)
IR3 IR3 |x − x |
Remarque 3.9. Le fait que la base d’orbitales de Slater soit une base efficace
(et donc avec elle la base de gaussiennes contractées, lesquelles ne sont qu’un
habillage numérique supplémentaire pour ensuite pouvoir rapidement calculer
les intégrales biélectroniques) est à relier à l’idée suivante. Pour un problème
donné, arbitraire, on ne peut pas espérer qu’une base de fonctions passe-
partout (penser à des éléments finis par exemple) donne le meilleur résultat.
La généricité est contradictoire avec l’optimalité. Au contraire, il faut pour
approcher l’optimalité, choisir une base de fonctions qui ont un rapport avec
le problème donné lui-même. Idéalement, la meilleure base est celle constituée
d’un seul élement, la solution ! Cette idée est celle de la synthèse modale, ou
106 3 Simulation moléculaire
au-delà celle des bases réduites. On construit dans un premier temps une base
de fonctions adaptées au problème (par exemple les solutions d’un problème
simplifié, ici les solutions du problème de l’atome hydrogénoı̈de), et dans un
second temps on développe sur cette base. Cette méthodologie s’applique à
beaucoup de champs du calcul scientifique.
Il est défini par Fn = F(Dn ) et par le principe aufbau qui consiste à
prendre pour Dn+1 un minimiseur du problème
inf Tr(Fn D), D ∈ PN . (3.39)
Tel quel, cet algorithme présente certains défauts techniques, qu’on sait
très bien corriger en amendant un peu la construction de l’algorithme ci-
dessus. Mais dans la mesure où ces algorithmes plus sophistiqués sont basés
sur le même type d’idées, nous n’en dirons pas plus ici et renvoyons à la
bibliographie.
A ce stade, nous savons donc, au moins dans le principe, comment
discrétiser les équations de Hartree-Fock et les résoudre, de sorte d’obtenir
pour une configuration donnée de noyaux le potentiel U à insérer dans (3.29).
Remarque 3.11. En fait, le lecteur attentif aura remarqué que ce n’est pas
réellement de U dont nous avons besoin mais de ∇xi U pour pouvoir calculer
∇xi W et l’insérer au membre de droite de l’équation de Newton. Il se trouve
que le calcul de ce gradient peut être fait très rapidement quand on connaı̂t
U . Ceci fait l’objet de l’exercice suivant.
Exercice 3.12. - Dérivées analytiques
1 - Montrer que, une fois discrétisé, le potentiel W de la formule (3.29)
s’écrit sous la forme
1
W = U + Vnuc = h : D + D : A : D + Vnuc
2
zk z l
où on identifiera les termes h, D, A, et où Vnuc = désigne
|x̄k − x̄l |
1≤k<l≤M
le potentiel de répulsion internucléaire. Soit alors λ un paramètre qui peut
être une coordonnée nucléaire. Montrer que
∂W ∂h 1 ∂A ∂D ∂Vnuc
= :D+ D: : D + F (D) : + .
∂λ ∂λ 2 ∂λ ∂λ ∂λ
2 - En utilisant l’équation de Hartree-Fock F (D)C = SCE, montrer
108 3 Simulation moléculaire
∂D ∂C ∂C ∗
F (D) : = Tr(E(C ∗ S + SC)).
∂λ ∂λ ∂λ
3 - Utiliser alors la condition d’orthonormalité C ∗ SC = IN , et en déduire
∂W ∂h 1 ∂A ∂S ∂Vnuc
= :D+ D: : D − Tr(CEC ∗ )+ (3.41)
∂λ ∂λ 2 ∂λ ∂λ ∂λ
4 - Expliquer alors pourquoi le calcul de ∇xi W est “gratuit”.
Nous allons voir ici un exemple de schéma numérique mis en oeuvre pour
résoudre les équations de la dynamique newtonienne (3.15), et tenter de
faire sentir au lecteur pourquoi ce schéma présente des propriétés spécifiques
intéressantes.
Que ce soit dans le cas adiabatique ou dans le cas non adiabatique, on
doit simuler la dynamique newtonienne. Nous examinons le cas adiabatique
sous la forme académique suivante (le cas non adiabatique nécessite quelques
adaptations mineures).
Il s’agit de déterminer l’évolution des positions de N particules dans IR3 .
Les positions des N particules sont notées x̄1 , x̄2 , ..., x̄N , et sont donc des
variables de IR3 . Les N particules interagissent par un potentiel d’interaction
V (x̄1 , ..., x̄N ), ce qui veut dire que −∇x̄1 V (x̄1 , ..., x̄N ) désigne la force exercée
par l’ensemble des N particules sur la particule numéro 1. Dans le cadre
de la mécanique newtonienne, les équations qui régissent le mouvement des
particules sont donc :
⎧ 2
⎪
⎪ d x̄i
⎪ 2
⎨ = −∇x̄i V (x̄1 , ..., x̄N ), 1 ≤ i ≤ N,
dt
x̄i (0) = x̄i0 , 1 ≤ i ≤ N, (3.42)
⎪
⎪
⎪
⎩ dx̄
(0) = x1i0 ,
i
1 ≤ i ≤ N,
dt
Pour simplifier l’expression de la loi de Newton, on a normalisé les masses des
particules.
En introduisant la notation q = (x̄1 , ..., x̄N ) ∈ IR3N , et
dx̄1 dx̄N
p=( , ..., ) ∈ IR3N
dt dt
et la fonction H(p, q), dite Hamiltonien du système, définie par
p2
H(p, q) = + V (q), (3.43)
2
on voit facilement que le système (3.42) se récrit sous la forme
3.2 Simulation numérique 109
⎧
⎪ dp ∂H
⎪
⎪ =− ,
⎪
⎪ dt ∂q
⎨ dq ∂H
= , (3.44)
⎪
⎪ dt ∂p
⎪
⎪ 0
⎪
⎩
p(0) = p ,
q(0) = q 0
Exercice 3.13. Montrer que le système (3.44) a une solution pour tout t > 0
sous des conditions raisonnables sur V qu’on précisera.
intégrale dont on suppose qu’elle existe pour tout temps. On a alors la pro-
priété
VΨ (t) = VΨ (0) pour tout t > 0 si et seulement si f est à divergence nulle
(3.47)
En effet, on peut écrire, pour t petit,
∂Ψ (t)i 0
dy1 ... dyM = 0
det ∂y 0 dy1 ... dyM
D(t)=Ψ (t)(D(0)) D(0) j
= det (IdM + t ∇f + o(t)) dy10 ... dyM
0
D(0)
= (1 + t div f + o(t)) dy10 ... dyM
0
D(0)
où (p(t), q(t)) est une trajectoire en temps du système. D’où la nécessité de
calculer cette trajectoire en temps long, et les questions soulevées dans cette
section. Mais, à partir de là, on peut remarquer que le point de vue change sen-
siblement : on ne s’intéresse pas vraiment à la précision dans la détermination
d’une trajectoire donnée (dont la condition initiale est d’ailleurs mal connue,
voire arbitraire et de toute façon indifférente), mais plutôt à la reproduction
en temps long du flot de l’équation. Il y a une certaine “globalisation” du point
de vue : la notion de flot, ensemble de toutes les trajectoires, se substitue à la
notion de trajectoire. C’est cette modification du point de vue qui conduit à
prendre en compte des propriétés de nature géométrique, comme la symplec-
ticité. Nous verrons plus en détail au Chapitre 5 des questions de précision
sur les schémas de résolution des équations différentielles ordinaires, dans le
contexte plus classique où l’on cherche à déterminer précisément une évolution
particulière. Dans une certaine mesure, notre ignorance de telles questions à
ce stade du cours ne nous pénalise pas ici, où l’objectif est différent.
Le lecteur mesure sans peine la lourdeur d’une telle simulation. Il est ce-
pendant possible d’encore compliquer les choses ! On peut par exemple cou-
pler de telles simulations de dynamique moléculaire avec des simulations de
type éléments finis pour atteindre des tailles macroscopiques. Ceci se fait
dans l’esprit de ce qui a été montré, dans un cadre stationnaire, au Cha-
pitre 1. Ainsi, il existe des simulations couplées chimie quantique/dynamique
moléculaire/éléments finis de dynamique de fracture au sein des matériaux
par exemple.
Dans cette courte section, nous voudrions aborder une des difficultés cru-
ciales de la dynamique moléculaire : la nature multiéchelle en temps de ce
problème. En effet, aussi efficaces soient-elles, les techniques exposées à la
Section précédente (schémas symplectiques pour les temps longs) restent en-
core parfois (voire souvent, suivant les domaines d’application) incapables de
simuler des phénomènes se déroulant sur quelques millisecondes.
Qu’on y pense en effet. Typiquement, sans même parler du problème
électronique qui évolue à une vitesse mille fois supérieure voire plus, l’échelle
caractéristique de la vibration d’une courte liaison atomique est de l’ordre de
la femtoseconde. Dans une molécule biologique vont figurer des liaisons qui
3.2 Simulation numérique 115
vibrent à cette vitesse, d’autres à des vitesses mille à cent mille fois inférieures.
La simulation devra s’accommoder de telles disproportions. Mais malheureu-
sement, il y a pire. La simulation devra en plus porter sur un temps physique
de l’ordre de la milliseconde ou de la seconde (par exemple, un phénomène
capital de la biologie, à savoir le repliement d’une protéine, s’effectue dans une
fourchette allant de la milliseconde à la seconde). Si un pas de temps est de
l’ordre de la femtoseconde, ou de la picoseconde, il faut donc envisager 109 pas
de temps, au bas mot, 1012 ou 1015 souvent. Ce n’est pas possible. Si on oublie
le monde de la biologie et qu’on regarde celui de la science des matériaux, on
trouve des disproportions analogues (questions de sauts de lacunes dans des
matériaux irradiés, ou dynamique de dislocations dans des matériaux qui se
dégradent, par exemple).
Bref, les techniques d’équations différentielles ordinaires les meilleures du
moment, comme celles de la Section précédente, ne suffisent pas à couvrir
les besoins en simulation en temps long 1 . Quelles sont donc les alternatives
possibles ?
Commençons par l’observation suivante. Dans la plupart des situations
d’évolution d’un système moléculaire (par exemple), si un phénomène prend
“beaucoup” de temps, c’est parce que la majeure partie du temps, le système
ne fait rien, ou pas grand chose. Typiquement, l’évolution d’un système est la
suivante : le système passe son temps à osciller au voisinage d’états métastables
(on baptise ainsi les états du système qui “vivent” lontemps), le passage d’un
état à un autre étant un phénomène rapide, mais qu’il faut attendre longtemps
(on parle d’un évènement rare). Petit à petit, le système atteint ainsi son
état final. Cette succession de longues plages d’immobilité entrecoupées de
transitions quasi immédiates est un drame pour la simulation numérique (voir
Figure 3.3). Elle fait accroı̂tre le nombre de pas de temps, tout en interdisant
d’en sauter, faute de rater l’évènement important.
Cette observation est à la base d’un certain nombre de techniques dites
d’accélération de la dynamique moléculaire. Nous en citerons une comme
exemple, celle connue sous le nom de technique de Monte-Carlo cinétique.
Elle a pour base un substantiel changement de point de vue. Plutôt que
de regarder l’évolution du système, on va regarder le paysage énergétique.
Imaginons par exemple que l’état du système soit régi par le Hamiltonien
(3.43) de la section précédente
p2
H(p, q) = + V (q).
2
Alors on peut bien sûr suivre l’état du système au cours du temps par une
dynamique. C’est l’approche de la Section précédente. Mais on peut aussi
chercher dans l’espace des positions q du système les états métastables ou
1
encore une fois, par “en temps long”, on entend “long par rapport à l’échelle
de temps élémentaire présente dans le problème”. On ne se méprendra pas sur le
vocabulaire “long”, “court”, “rapide”, ... employé dans toute cette section.
116 3 Simulation moléculaire
stables (les cuvettes du potentiel V (q)), les seuils de réactions (les points-selles
de V (q)), et de cette façon imaginer quelle serait la dynamique du système
pour aller d’une position à une autre.
On procède donc comme suit. On se place en un état stable (ou métastable),
disons A0 .
On commence par identifier d’abord, à la proximité de A0 , les fonds de
cuvette de potentiel et dans un second temps les points-selles qui séparent
ces cuvettes. Ceci requiert d’effectuer un grand nombre de simulations de
dynamique moléculaires assez courtes : on part d’un point et on regarde où
on aboutit. Nous ne décrivons pas de telles techniques qui requièrent elles
aussi beaucoup d’ingéniosité, préférant esquisser l’approche complète. Il suffit
en fait de savoir que c’est dans cette phase que l’on va utiliser les techniques
habituelles de simulation d’équations différentielles de la Section précedente,
mais aussi d’autres techniques, complémentaires, de localisation de points-
selles.
Ceci étant fait, on a alors la liste de tous les états stables voisins de A0 ,
disons les N états Ai , et de leur barrière de potentiel ∆Ei > 0, compte tenu
des points-selles qui y conduisent. On emploie alors un modèle pour évaluer
le taux de réaction probable de A0 vers Ai , par exemple la loi d’Arrhénius
−∆Ei
ri = exp
kT
1
le temps horloge de N (on peut aussi, pour cette seconde étape, tirer
j=1 rj
N
au sort le temps de sortie suivant la loi exponentielle de paramètre rj au
j=1
lieu de prendre simplement comme valeur de temps l’espérance) . On continue
ensuite en revenant à l’étape préliminaire de détermination des points selles et
des états stables voisins du nouvel état courant. Ainsi, on peut déterminer la
trajectoire en temps long, et, si nécessaire, calculer une moyenne d’opérateur
le long de cette trajectoire en pondérant la valeur de cet opérateur sur chaque
état stable Ai par le temps passé dans cet état (ou en réalité au voisinage de
cet état).
Remarque 3.19. On peut le voir ci-dessus, le travail devient plus facile quand
la température est plus élevée, car alors le système visite spontanément plus
de puits de potentiel (les barrières énergétiques sont moins hautes, cf. l’ex-
ponentielle). Beaucoup de techniques d’accélération, complémentaires de la
précédente ou alternatives directes, consistent donc à chauffer artificiellement
le système, simuler alors son évolution, et en déduire (c’est la phase la plus
“acrobatique”) ce que cette évolution aurait été à la bonne température. On
peut aussi, par exemple, utiliser des techniques stochastiques pour s’échapper
des cuvettes de minima plus facilement.
Fig. 3.3. Une trajectoire de dynamique moléculaire reste longtemps dans le puits
A, avant de passer rapidement, via le point-selle C, vers le puits B.
118 3 Simulation moléculaire
O H
H
H H
H
H H
O O O O H
O
H H
H H
H
H O
O
H H H
O
H O
H
H
O O H
H
H
O H
O C
H H H
H
O H
O
H
O
O H H
H H O H
H H
O
H H
O H
O
H
H
O O H
H H
H H
O
H
H H
O H
O
O H
H
de solvant peut être modélisé par un continuum diélectrique qui agit sur
la molécule de soluté en modifiant les interactions électrostatiques entre les
charges qu’elle porte (charges ponctuelles en dynamique moléculaire, noyaux
et électrons en chimie quantique). Deux modèles, à deux échelles différentes,
sont donc conjointement gérés.
Dans le modèle du continuum standard, la molécule de soluté est ainsi
placée dans une cavité Ω représentant le “volume” qu’elle occupe, le reste de
l’espace étant constitué d’un milieu diélectrique linéaire, homogène et isotrope
de constante diélectrique égale à la constante diélectrique macroscopique du
solvant (qui vaut par exemple 78.6 pour l’eau à température ambiante). On
verra un exemple sur la Figure 3.5.
La présence du continuum polarisable modifie l’interaction entre les dis-
tributions de charge portées par la molécule de soluté et donc sa géométrie
et ses propriétés. En effet, dans le vide, l’énergie d’interaction entre deux
distributions de charge ρ1 et ρ2 est donnée par
1
E(ρ1 , ρ2 ) = ρ1 V2 = ρ2 V1 = ∇V1 · ∇V2
IR3 IR3 4π IR3
avec
−∆Vk = 4πρk .
En présence du continuum diélectrique, cette énergie s’écrit
1
E s (ρ1 , ρ2 ) = ρ1 V2s = ρ2 V1s = ∇V1s · ∇V2s ,
IR3 IR3 4π IR3
120 3 Simulation moléculaire
ε = εs
ε =1 H
O C
en la somme
– du potentiel électrostatique
1
φ := ρ
|x|
qu’engendrerait la distribution de charge ρ dans le vide,
– et du potentiel de réaction
V r := V s − φ. (3.54)
où
ρ1 (x)ρ2 (y)
D(ρ1 , ρ2 ) := dx dy
IR3 IR3 |x − y|
désigne l’énergie d’interaction dans le vide et où
E r (ρ1 , ρ2 ) := ρ1 V2r = ρ2 V1r = ρ1 (x) Gr (x, y) ρ2 (y) dx dy
IR3 IR3 IR3 IR3
Nous énonçons sans démonstration quelques résultats de base sur les équations
intégrales. Pour plus de détails, le lecteur pourra consulter les références.
Aspects théoriques
avec (x) = 1 dans la cavité Ω et (x) = s dans le domaine extérieur IR3 \ Ω̄.
On vérifie que V r est de classe C 2 dans Ω̄ et dans IR3 \ Ω, et qu’il satisfait
(étant donné que la fonction ρ est nulle en dehors de la cavité)
⎧
⎪
⎪ −∆V r = 0 dans Ω
⎨
−∆V r = 0 dans IR3 \ Ω̄
⎪
⎪
r
[V ] = 0 sur Γ
⎩ r
V →0 à l’infini.
où
∗ ∂ 1
(D · σ)(x) = σ(y) dy, (3.62)
Γ ∂nx |x − y|
et la condition de saut à l’interface issue de (3.60)
∂V s ∂V s
0= − s
∂n i ∂n e
r
∂V ∂V r ∂φ
= − + (1 − ) ,
∂n i ∂n e ∂n
Aspects numériques
A · σ = g, (3.64)
où l’inconnue σ est dans H s (Γ ) et le second membre g dans H s (Γ ), et
où l’opérateur intégral A ∈ L(H s (Γ ), H s (Γ )) est caractérisé par le noyau
a(x, y) :
(A · σ)(x) = a(x, y) σ(y) dy, ∀x ∈ Γ.
Γ
∀τ ∈ V, A · σ, τ Γ = g, τ Γ .
3.3 Modélisation de la phase liquide 125
avec
[A]ij = a(x, y) dx dy, [g]i = g,
Tj Tj Ti
Surface moléculaire
Points de la surface
moléculaire
Points de Gauss sur Ti
ρ (x)
= σ(y) dx dy
IR3 |x − y|
Γ
= σφ (3.65)
Γ
1
avec φ = ρ |x| .
3.4 Bibliographie
T = −p Id + τ, (4.3)
où p est la pression et τ le tenseur des contraintes visqueuses. Pour fermer ces
équations, il nous faut une relation constitutive liant le tenseur des contraintes
visqueuses τ et le champ de vitesse u, c’est-à-dire une relation
Remarque 4.1. Bien noter que cette relation est symbolique, dans la mesure
où elle peut aussi faire figurer des dérivées en temps et en espace des quantités
impliquées τ , u, ρ, ...
Sous les hypothèses que τ est une fonction linéaire de u, que τ est inva-
riant par changement de référentiel galiléen, et que le fluide a des propriétés
physiques isotropes, on peut affirmer que la forme de la relation liant τ et u
est nécessairement
τ = λ (div u) Id + 2µ d (4.5)
où λ et µ sont deux coefficients réels (dits les coefficients de Lamé), en toute
généralité fonctions de ρ et de la température, et où d est le tenseur des
déformations linéarisé
1
d = (∇u +t ∇u). (4.6)
2
Sous de telles hypothèses, on parle de fluide newtonien. La théorie cinétique
2
des gaz permet de plus de montrer que λ = − µ, et il est courant de prendre
3
ces coefficients constants.
L’ensemble des équations (4.1)-(4.2)-(4.3)-(4.5)-(4.6) permet alors de décri-
re le mouvement du fluide. Quand on prend en compte les phénomènes liés
à la température, il faut adjoindre à ces équations une équation d’évolution
de l’énergie et une équation d’état reliant la pression p, la masse volumique
ρ et la température T . Ici, nous ferons abstraction de tels phénomènes. Les
équations (4.1)-(4.2)-(4.3)-(4.5)-(4.6) suffisent alors, car la détermination de
la pression se fera via l’hypothèse supplémentaire d’incompressibilité que nous
détaillons maintenant.
Supposons alors de plus que le fluide est incompressible,i.e.
div u = 0 (4.7)
τ = τ n + τp (4.10)
où la quantité St désigne une quantité dépendant de ∇u, et où l’intégrale est
prise le long d’une ligne de courant passant par x.
Que ce soit sur l’une ou l’autre des formes (4.11) et (4.12), on constate
que le point crucial est que le tenseur des contraintes τp (t, x) ne dépend pas
seulement de la déformation au point x et au temps t, comme dans une for-
mule du type (4.5), mais dépend de l’histoire de la déformation en tous les
points de la ligne de courant amenant à x pour les instants antérieurs t . C’est
particulièrement explicite sur la forme (4.12), mais ceci se lit aussi sur (4.11).
En pratique, le système global qu’on devra simuler est
⎧
⎪
⎪ ∂u
⎨ ∂t + (u · ∇) u − µ∆u + ∇p − div τp = f,
⎪
div u = 0 (4.13)
⎪
⎪
⎪
⎩
Dτp
= F (τp , ∇u),
Dt
Un tel système est appelé problème à trois champs : la vitesse u, la pression p,
la contrainte τp . Il est donc significativement plus compliqué à résoudre que
le “simple” problème newtonien (4.9) avec τp = 0, où figurent seulement deux
champs à déterminer, la vitesse et la pression (le tenseur des contraintes s’en
déduit).
Sa simulation numérique peut s’avérer très lourde. Cependant, le prin-
cipal souci avec ce type de systèmes est une difficulté essentielle liée à la
modélisation : il faut établir une relation du type (4.11) ou (4.12) à partir de
la connaissance (partielle souvent) des propriétés physiques du fluide. Pour de
nombreux fluides, on ne sait pas trouver une bonne loi.
Il est donc utile de disposer d’une approche alternative, basée directement
sur le niveau microscopique. Cette approche permettra d’aborder des cas où
on ne connaı̂t pas nécessairement bien le comportement macroscopique du
fluide. Plus précisément, une telle approche permettra d’éviter de faire des
hypothèses simplificatrices superflues dans le but de vouloir à tout prix ob-
tenir une relation du type (4.11) ou (4.12). De telles hypothèses, appelées
hypothèses de clôture, sont en effet particulièrement dangereuses dans les cas
mal connus, car on ne sait pas bien mesurer leur impact sur la qualité de la
simulation finale. Mieux vaut donc s’en affranchir, et décider de se concentrer
sur l’échelle microscopique en faisant directement passer son information au
niveau macroscopique, sans passer par le biais simplificateur d’une relation
du type (4.11) ou (4.12)
Malheureusement, une telle approche a aussi un prix : la lourdeur des
calculs, et c’est pourquoi dans les simulations numériques actuelles, on uti-
lise alternativement les systèmes du type (4.13) ou les systèmes micro-macro
que nous allons voir. D’un point de vue industriel, les systèmes (4.13) sont
clairement plus employés (et d’ailleurs la littérature qui est consacrée à de
tels modèles est énorme), mais les systèmes micro-macro ont sans doute plus
4.2 Modélisation micro-macro des fluides polymériques 133
d’avenir. Une autre observation qui plaide pour investir dans l’approche micro-
macro est qu’elle constitue aussi un moyen de tester et dériver des approxima-
tions (4.11) ou (4.12) sur des cas d’écoulements simples (mais pour des fluides
ayant une physique complexe), approximations qui seront ensuite injectées
dans des systèmes (4.13) avec lesquels on simulera le cas réel.
Avant d’aller plus loin dans la modélisation, il est utile, pour comprendre
le contexte et saisir les objectifs et défis de la simulation numérique, de dire
quelques mots des propriétés mécaniques générales des fluides polymériques.
Un polymère est, par définition, une molécule formée par la répétition
d’un grand nombre de motifs chimiques, appelés monomères, liés entre eux
de manière covalente (c’est-à-dire qu’ils partagent entre eux des électrons).
S’il y a plusieurs motifs de base, on parle de copolymères. Les polymères sont
à la base d’une foule de matériaux naturels (le caoutchouc naturel, le bois, le
cuir,...) ou transformés (le caoutchouc vulcanisé, la laine, les carburants,...).
Ils peuvent se classer par leur degré de polymérisation, c’est-à-dire le nombre
N de monomères constituant le polymère : N = 1 à 4 pour les gaz, N = 5
à 15 pour les carburants, N = 25 pour les solides cassants comme la bou-
gie, N > 2000 pour les films plastiques. Lorsque N croı̂t, la température
de fusion augmente et les propriétés polymériques s’affirment : elles com-
mencent pour N = 100 et deviennent véritables pour N = 1000. Dans tous
les cas, liquides ou solides, ce sont les longues chaı̂nes qui donnent au matériau
ses propriétés mécaniques spécifiques, franchement différentes des propriétés
mécaniques d’un matériau constitué de molécules isolées. Ainsi, la longueur
des chaı̂nes empêche le matériau de s’ordonner parfaitement lors de la solidi-
fication, d’où une souplesse des matériaux solides polymériques à cause des
zones restées désordonnées (penser à un pneu) ; de même, les longues chaı̂nes
confèrent aux polymères liquides une viscosité de 6 à 8 ordres de grandeur
supérieure à d’autres liquides (penser à de l’huile de vidange).
Pour les polymères en solution liquide, on aura le cas des bons solvants
dans lesquels les polymères se gonflent (une peinture dans un dissolvant), et
134 4 Modèles micro-macro pour les fluides
celui des mauvais solvants dans lesquels les polymères se recroquevillent (une
peinture dans de l’eau).
Différents cas se présentent aussi du point de vue de la concentration
de la solution. La solution peut être peu concentrée, et plus précisément, ce
qui est le cas particulier que nous considérerons dans toute la suite, infini-
ment diluée, ce qui signifie que les chaı̂nes polymériques qui “flottent” dans
le solvant n’interagissent pas les unes avec les autres car elles sont loin les
unes des autres. Ceci est clairement une restriction, une immense majorité
des fluides polymériques “intéressants” étant ce qu’on appelle des polymères
fondus, où la densité de polymères est beaucoup plus importante. Dans ce
cas, la solution est suffisamment concentrée pour que les différentes chaı̂nes
s’interpénètrent. Les polymères fondus se comportent comme un plat de spa-
ghettis entrelacés et la dynamique du fluide est alors franchement différente
du cas que nous allons regarder ici. La modélisation d’une telle dynamique
est basée sur le concept de reptation introduit par De Gennes : une chaı̂ne
polymérique rampe dans le tube formé par les chaı̂nes qui l’entourent. Dans
le cas des polymères concentrés, des modèles purement macroscopiques et des
modèles micro-macro existent aussi. Il sont basés sur une physique un peu
différente et certainement plus complexe, mais vont comporter des difficultés
similaires pour la simulation numérique. Il est donc légitime de traiter dans
ce cours introductif des solutions infiniment diluées.
Dans le cas des solutions concentrées, on peut alors éventuellement créer
des liaisons (des ponts) entre les chaı̂nes : on parle de polymères réticulés. Si le
taux de réticulation est suffisant, il se forme alors un véritable réseau qui a une
résistance mécanique et se comporte comme un solide. Le solvant exerce une
pression sur le réseau, le maintenant en l’état, et réciproquement, le réseau
emprisonne le solvant, l’empèchant de couler. Ainsi, un exemple de polymère
modérément réticulé est l’élastomère du matériau caoutchouteux constitutif
des pneus (le solvant est le polymère lui-même), et un exemple de polymère
très réticulé est une résine, un plastique rigide. L’étude des matériaux caou-
tchouteux des pneus peut aussi être abordée par des méthodes micro-macro, à
la fois dans l’esprit de celles décrites dans ce chapitre et se rapprochant aussi
des méthodes du Chapitre 1.
Focalisons-nous maintenant sur la modélisation micromacro d’une solution
polymérique infiniment diluée.
En chaque point macroscopique x du fluide, on regarde donc avec une
“loupe” (voir Figure 4.1), pour tenter d’évaluer la contribution τp au tenseur
des contraintes qu’apporte la présence de chaı̂nes polymériques qui s’agitent
dans le fluide.
Chimiquement, une chaı̂ne polymérique est, on l’a dit, une longue chaı̂ne,
comme par exemple le polyéthylène (CH3 ) − (CH2 )n − (CH3 ). Pour nous,
une chaı̂ne polymérique est modélisée comme un objet de la Figure 4.2. On
la voit donc comme un objet purement mécanique. On oublie ici les subtilités
liées à sa structure électronique, à sa modélisation quantique, etc... toutes
4.2 Modélisation micro-macro des fluides polymériques 135
Fig. 4.1. En chaque point de la trajectoire d’une particule fluide se trouve une
collection de chaı̂nes polymériques
u2
θ,φ
u
1
r
Fig. 4.2. Une chaı̂ne polymérique : les uj sont les vecteur de liaisons entre les
différents “atomes”, chacun a un couple d’angles (θi , ϕi ), et fait une longueur a ; le
vecteur bout-à-bout est r.
La configuration d’une chaı̂ne est donc donnée par une collection de posi-
tions des “atomes” qui la composent, ou alternativement par une collection de
longueurs interatomiques et d’angles dans l’espace. Chaque “atome” est com-
posé d’une vingtaine de monomères, et donc de plusieurs centaines d’atomes
au sens chimique du terme.
136 4 Modèles micro-macro pour les fluides
Sous l’effet des forces mécaniques présentes dans le fluide, mais aussi sous
l’effet de l’intense bombardement moléculaire auquel la chaı̂ne est soumise
de la part des molécules qui composent le solvant, la chaı̂ne s’agite et se
déforme. Les angles entre liaisons changent, les liaisons s’allongent, et dans
des situations extrèmes, les chaı̂nes peuvent même se casser.
La contribution au tenseur des contraintes τp (t, x) est la résultante de
la réaction de chaque chaı̂ne à ces sollicitations, sommée sur le nombre
considérable de chaı̂nes polymériques présentes au point macroscopique x.
Explicitons cela.
sera la probabilité que la chaı̂ne ait pour longueur interatomique entre ses
atomes 1 et 2 la longueur l1 , etc... Nous allons alors écrire une équation
d’évolution sur cette probabilité ψ, équation qui tiendra compte de l’environ-
nement de la chaı̂ne. On exprimera alors la contribution au tenseur des
contraintes comme la somme pondérée par ψ de la réponse de la chaı̂ne dans
chacune de ses configurations. Mettons en oeuvre cela sur un cas simple.
On suppose désormais que la chaı̂ne est un assemblage linéaire de N boules
(ses atomes) reliées entre elles par des tiges sans masse (les liaisons). Signalons
tout de suite que les boules pouvent aussi bien représenter des “atomes” que
des groupes d’ ”atomes” (lesquels sont des groupes de monomères), de sorte
que le nombre N peut être considérablement plus faible que le nombre réel
d’atomes (au sens chimique) composant la chaı̂ne polymérique. On prendra
plus loin N = 2 pour simuler des chaı̂nes de plusieurs milliers d’atomes.
Le modèle est bien sûr phénoménologique. L’assemblage ainsi constitué est
supposé totalement libre, c’est à dire qu’il ne résiste pas aux rotations. La
longueur des liaisons, elle, est supposée fixée définitivement à une valeur a, de
sorte que li = a pour tout i dans (4.14).
On introduit aussi le vecteur r (noté exceptionnellement en gras dans
toute la suite pour qu’on ne confonde pas vecteur et longueur) appelé vecteur
4.2 Modélisation micro-macro des fluides polymériques 137
N −1
r= aui (4.15)
i=1
(θ1 , ϕ1 , ..., θN −1 , ϕN −1 )
où δ est la masse de Dirac et ui est le vecteur unitaire d’angles d’Euler (θi , ϕi ).
En introduisant alors la valeur de ψ donnée par (4.16), on peut montrer par
un calcul simple mais un peu fastidieux qu’une bonne approximation de P ,
pour N grand, est
3/2
N grand 3 2
/2(N −1)a2
P (r) ≈ e−3r . (4.20)
2π(N − 1)a2
Il nous faut maintenant donner une raideur à la tige r. Cette raideur traduira
le fait que la chaı̂ne polymérique a plus ou moins de configurations possibles
selon que |r| est grand ou petit. En effet, par exemple pour |r| = (N − 1)a, la
chaı̂ne est forcément complètement tendue (tous les angles sont nuls), et donc
il n’y a qu’une seule configuration de la chaı̂ne à N boules qui correspond à
une élongation r telle que |r| = (N − 1)a. En revanche pour |r| < (N − 1)a,
plusieurs configurations bien différentes de la chaı̂ne peuvent aboutir in fine
au même vecteur r. Evaluons cela.
A(r) = A0 − kT ln P (r)
dA = −kT d ln P (r)
3kT
= r · dr, (4.21)
(N − 1)a2
d’après la formule (4.20).
Mais d’autre part, pour une modification de ce type à température
constante, la modification d’énergie libre est reliée à la tension F de la chaı̂ne
par
dA = F (r) · dr. (4.22)
En comparant (4.21) et (4.22), on trouve donc l’expression de la valeur de la
tension
3kT
F (r) = r. (4.23)
(N − 1)a2
La force de rappel est l’opposé de cette tension. Tout se passe donc comme si
3kT
on avait à faire à deux boules reliées par un ressort r de raideur K = .
(N − 1)a2
Il s’agit cependant de bien comprendre que la raideur de ce ressort n’est pas
la conséquence de forces de rappel de nature interatomique qui rappelleraient
un atome près d’un autre. C’est une raideur de nature entropique, due au fait
qu’une chaı̂ne allongée explore moins de configurations qu’une chaı̂ne repliée,
et donc que l’agitation tient à raccourcir une chaı̂ne allongée, pour augmenter
l’entropie du système.
Bref, quoi qu’il en soit, la chaı̂ne polymérique de départ se résume à une
haltère r de raideur K. Attachons nous maintenant à décrire la dynamique de
cette haltère, puis à déterminer la façon dont elle contribue à τp .
∂ψ
La variation totale + u · ∇ψ de ψ est alors la résultante de plusieurs
∂t
phénomènes :
– 1 - une force hydrodynamique : l’haltère est allongée (ou raccourcie) par
un effet dû à une interaction avec le fluide ; chacun des deux bouts de
l’haltère est freiné par le fluide avec une force proportionnelle à la vitesse
(via un coefficient de friction ζ), mais comme cette vitesse diffère de ∇u r
d’un bout à l’autre de l’haltère, il en résulte une force d’élongation ; cette
force subie par l’haltère s’exprime donc en fonction de ζ∇u r ;
– 2- une force intrapolymérique : une autre partie des forces est due à la
“force de rappel entropique ” du “ressort” r ;
– 3 - enfin, une force brownienne : la chaı̂ne est bombardée par les
molécules du solvant, ce qui modifie sa configuration, ici le vecteur r.
Le bilan est formalisé par l’équation d’évolution de ψ qu’on appelle
équation de Fokker-Planck :
∂ψ(t, x, r) 2K
+ u · ∇x ψ(t, x, r) = −divr (∇x u r − r)ψ(t, x, r)
∂t ζ (4.24)
2kB T
+ ∆r ψ(t, x, r),
ζ
où ζ est un coefficient de friction, T est la température, et kB la constante
de Boltzmann. Dans cette équation, on reconnaı̂t au membre de droite, dans
l’ordre, les trois termes de force qui s’appliquent sur la chaı̂ne polymériques.
Pour qu’il n’y ait pas d’ambigüité, on a fait figurer en indice des opérateurs
différentiels la variable par rapport à laquelle on dérivait. Au membre de
gauche, le transport est un transport macroscopique (variable x). Au membre
de droite, on gère l’évolution en la variable de configuration r, donc les
opérateurs divergence divr et laplacien ∆r sont par rapport à cette variable.
Par exemple, la force de rappel entropique fait passer d’un r à un r plus petit,
mais n’a aucun rapport avec la variable de position “géographique” x de la
chaı̂ne au sein du fluide macroscopique.
Une fois ceci fait, il nous reste à exprimer le tenseur des contraintes. Phy-
siquement, la contribution de la chaı̂ne est la suivante. On sait que l’on trouve
la valeur de la contrainte au sein d’un matériau en imaginant qu’on coupe ce
matériau par un plan (de vecteur normal n) et en évaluant la force de réaction
agissant sur chacun des deux plans ainsi obtenus par séparation. Cette force
vaut τ · n. En faisant varier n, on identifie ainsi toutes les composantes du ten-
seur des contraintes τ . Faisons cette expérience mentale ici. En découpant le
fluide, on tranche inévitablement bon nombre de chaı̂nes polymériques, dont
la réaction va contribuer (via τp ) à la force de réaction globale des deux plans
de fluide séparés. La réaction de chaque chaı̂ne dépendra de son orientation r.
L’agrégation de la réponse de toutes les chaı̂nes suivant leur position donnera
la réponse totale (voir Figure 4.4). Un calcul montre que cette contribution
est donnée par la formule de Kramer
4.2 Modélisation micro-macro des fluides polymériques 141
τp (t, x) = −np kT Id + np (r ⊗ F (r)) ψ(t, x, r) dr (4.25)
Remarque 4.5. En fait, le modèle d’haltère à force de rappel linéaire (on parle
de modèle hookéen) que nous avons décrit ici est équivalent à un modèle pure-
ment macroscopique de type (4.13), connu sous le nom de modèle d’Oldroyd B,
identifié et employé bien avant l’émergence des modèles micro-macro que nous
exposons ici (voir l’Exercice 4.8 sur ce point). Tel quel, le modèle (4.26) n’est
donc jamais simulé dans la pratique. Il l’est seulement à titre pédagogique, et
pour tester des méthodologies numériques. Pourquoi ? Parce que dès que le
modèle d’haltères n’a plus une tension F (r) = Kr, ou dès que le modèle de
chaı̂ne polymérique est plus sophistiqué, l’équivalence avec un modèle pure-
ment macroscopique n’est plus vraie. Pour une force F (r) plus générale par
exemple, les deux dernières lignes de (4.26) sont à changer en
4.3 Simulation numérique de l’Ecoulement de Couette 143
⎧
⎪ ∂ψ(t, x, r) 2
⎪
⎪ + u · ∇x ψ(t, x, r) = −divr (∇x u r − F (r))ψ(t, x, r)
⎪
⎪ ∂t ζ
⎨
2kB T
+ ∆r ψ(t, x, r),
⎪
⎪ ζ
⎪
⎪
⎪
⎩ τp (t, x) = np (r ⊗ F (r)) ψ(t, x, r) dr
(4.29)
On entre alors dans un champ de modélisation nouveau, non couvert par
les modèles macroscopiques. Avoir préparé le terrain sur le simple modèle
d’haltères linéaires est alors de première utilité.
Nous nous intéressons ici à la simulation d’un écoulement simple de type “plan
de Couette” (cf. Figure 4.5) : le fluide s’écoule entre deux plans parallèles. A
l’instant initial (t = 0), le fluide est au repos. Le plan inférieur (y = 0) est alors
mis en mouvement avec une vitesse V (t) (qu’on supposera plus loin constante
et égale à V ≡ 1 pour tout t > 0, pour simplifier), tandis que le plan supérieur
(y = L) est maintenu fixe. On parle d’un flot de start-up.
Le fluide polymérique que nous considérons est visqueux, incompressible et
homogène. Son tenseur des contraintes comporte une partie τp due à la contri-
bution des chaı̂nes polymériques. Les équations qui régissent son mouvement
sont les équations (4.9) que nous reproduisons ici :
∂u
+ (u · ∇) u − µ∆u + ∇p − div τp = f
∂t (4.30)
div u = 0
u = u(y, t) ex (4.31)
y=L
y=0
x
V
Fig. 4.5. Ecoulement de type “plan de Couette” ; le profil des vitesses représenté
ici correspond à l’écoulement stationnaire d’un fluide newtonien.
⎧
⎪
⎪ ∂u ∂2u
⎪
⎪ (y, t) = µ (y, t)
⎨ ∂t ∂y 2
u(y, 0) = 0 (4.32)
⎪
⎪
⎪
⎪ u(0, t) = V (t)
⎩
u(L, t) = 0
Exercice 4.8. L’objectif de cet exercice est de vérifier, sur le cas de l’écoule-
ment de Couette (mais le résultat est vrai pour tout écoulement) que le
modèle micro-macro d’haltères linéaires est en fait équivalent à un modèle
purement macroscopique, comme nous l’avons signalé à la Remarque 4.5.
On se concentre sur les deux dernières équations de (4.35), et on considère
momentanément la vitesse u comme connue. Montrer que si l’on part, pour
1
l’équation de Fokker-Planck, d’une fonction ψ0 qui vérifie Q2 ψ0 =
R 2 n p K
2ζ
et P Qψ0 = τ0 , et si l’on suppose np = 2 alors la fonction τ obtenue est
R2 σ
exactement la solution de
∂τ ∂u
+ λτ = , (4.36)
∂t ∂y
pour la donnée initiale τ0 et un certain λ qu’on identifiera.
Montrer alors que l’équation (4.36) est la simplification dans la géométrie
de Couette de l’équation d’Oldroyd B
∂σ
+ u.∇σ − σ t ∇u − ∇u σ + λσ = λ (∇u +t ∇u). (4.37)
∂t
lorsque la vitesse u = u(y, t)ex et lorsque le tenseur des contraintes σ est
supposé dépendre seulement des variables (y, t). On reliera la fonction τ à un
des termes du tenseur des contraintes σ.
∂u ∂2u 1 ∂τ
(y, t) = µ 2 (y, t) + (y, t)
∂t ∂y ρs ∂y
La question est
⎧
⎪
⎪ Chercher u : [0, T ] −→ H 1 (0, L) tel que
⎪
⎪
⎪
⎪ ∂u ∂2u 1 ∂τ
⎨ (y, t) = µ 2 (y, t) + (y, t)
∂t ∂y ρs ∂y (4.38)
⎪
⎪ u(y, 0) = 0
⎪
⎪
⎪
⎪ u(0, t) = V (t)
⎩
u(L, t) = 0
Les familles (ϕi )i=0,...,N , (ϕi )i=1,...,N −1 , (χi )i=1,...,N réalisent asymptotique-
ment (quand N −→ +∞) une base des espaces H 1 (]0, 1[), H01 (]0, 1[), L2 (]0, 1[),
respectivement. On construit alors une approximation de τ et u par la
décomposition
N
τ h (y, t) = (τ h )i (t)χi (y), (4.43)
i=1
N
uh (y, t) = (uh )i (t)ϕi (y).
i=0
N −1
h
u (y, t) = (uh )i (t)ϕi (y) + ϕN (y),
i=1
uh (y, 0) = 0. (4.44)
Remarque 4.10. Les conditions aux bords ne sont pas toujours éliminées aussi
simplement que dans la situation présente, où il a suffi d’enlever deux incon-
nues (uh )0 et (uh )N . Cependant, la prise en compte de ces conditions aux
bords reste souvent une difficulté d’ordre secondaire.
A ce stade, on a donc approché le problème (4.39) par le problème
⎧
⎪
⎪ Chercher les (uh )j : [0, T ] −→ IR pour j = 1, ...N − 1
⎨
tels que uh (y, t) donné par (4.44) vérifie
⎪
⎪ ∀i = 1, ...N − 1, d (uh , ϕi )L2 = −µ(∂y uh , ∂y ϕi )L2 − 1 (τ h (y, t), ∂y ϕi )L2
⎩
dt ρs
(4.45)
Ce système est en fait un système d’équations différentielles ordinaires sur les
inconnues (uh )j , qui sont des fonctions du temps t seulement.
On réalise maintenant une discrétisation par différences finies. Plus préci-
sément, on emploie pour le terme visqueux un schéma d’Euler implicite (voir
au Chapitre 5 une analyse précise de ce schéma), qui consiste à approcher une
d
équation w = f (t, w(t)) par le schéma
dt
wn+1 − wn
= f (tn+1 , wn+1 )
∆t
et pour le terme de contrainte un schéma d’Euler explicite (voir aussi au
Chapitre 5 une analyse précise de ce schéma), qui consiste à approcher une
d
équation w = f (t, w(t)) par le schéma
dt
4.3 Simulation numérique de l’Ecoulement de Couette 149
wn+1 − wn
= f (tn , wn )
∆t
Ici, cela revient à approcher la valeur des fonctions (uh )j (t) aux instants tn =
n∆t par les (uh )nj vérifiant
⎧
⎪
⎪ Chercher les (uh )nj pour j = 1, ...N − 1 et pour n ≥ 0
⎪
⎪
⎪
⎪ tels que (uh )0j ≡ 0 et ∀i = 1, ...N − 1,
⎪
⎪ −1 −1
⎪
⎪
N
N
⎪
⎨ (u h n+1
) ϕ (y) − (uh )nj ϕj (y)
j j
j=1 j=1
⎪
⎪ , ϕi
⎪
⎪ ∆t
⎪
⎪ L2
⎪
⎪ N −1
∂ h n+1
⎪
⎪ = −µ −
1
((τ h )n , ∂y ϕi )L2
⎪
⎩ (u )j ϕi (y) + ϕN (y) , ∂y ϕi
∂y j=1 L2 ρs
(4.46)
où (τ h )n désigne bien sûr l’approximation par différences finies en temps de
τ h au temps tn .
Cet énoncé est la formulation mathématique de l’équation
un+1 − un ∂2 1 ∂τ n
− µ 2 un+1 = , (4.47)
∆t ∂y ρs ∂y
où on a employé des notations plus compactes évidentes. Sur cette forme (dite
semi-discrétisée en temps), on peut comprendre que le travail de discrétisation
en temps qu’on a effectué revient à ramener le problème d’évolution à une suite
de problème stationnaires. En effet, (4.47) s’écrit aussi
1 ∂2
( − µ 2 ) un+1 = f n ,
∆t ∂y
et est donc formellement analogue à une équation de type Stokes (correspon-
dant à la détermination d’un état stationnaire du fluide)
(1 − ∆) u + ∇p = f,
U n+1 − U n 1
M = −µAU n+1 − GS n + B n , (4.49)
∆t ρs
150 4 Modèles micro-macro pour les fluides
Les autres matrices et vecteurs apparaissant dans (4.49) sont faciles à déter-
miner.
Exercice 4.11. Identifier les matrices M et A en termes des fonctions χi et
ϕi , ainsi que le vecteur colonne B n .
Pour résoudre (4.49) et déterminer U n+1 pour chaque n, il nous faut main-
tenant expliquer comment mettre à jour S n en S n+1 , i.e. évaluer (τ h )n+1
j
pour chaque j, ce qui correspond au niveau continu à évaluer le tenseur des
contraintes en un point macroscopique en fonction du niveau microscopique.
Nous allons faire ceci par deux méthodes différentes.
Il faut bien comprendre que dans cette équation la variable y est un pa-
ramètre, au sens où il y a (au niveau continu) autant d’équations que de
points y et que les opérateurs différentiels ne portent pas sur cette variable
d’espace physique mais sur les variables d’espace (P, Q) qui sont l’espace de
configuration pour l’haltère.
Plus précisément, au niveau discret, il y a, dans notre cas, N équations de
la forme (4.51), chacune d’entre elles étant associée à un intervalle [ i−1 i
N , N ] (et
donc à une fonction de base χi , i = 1, ..., N ), et fournissant ensuite la valeur
de (τ h )ni au pas de temps courant.
Commençons par remarquer que l’équation (4.51) est de la forme
2
∂ψ ∂ψ ∂ψ ∂ ∂2
(t, P, Q) = f (t, P, Q) + g(t, P, Q) +a + ψ(t, P, Q).
∂t ∂P ∂Q ∂P 2 ∂Q2
(4.52)
4.3 Simulation numérique de l’Ecoulement de Couette 151
∂ψ ∂ψ ∂ψ
(t, P, Q) = f (t, P, Q) + g(t, P, Q) . (4.53)
∂t ∂P ∂Q
et l’autre de diffusion
∂ψ ∂2 ∂2
(t, P, Q) = a 2
+ ψ(t, P, Q). (4.54)
∂t ∂P ∂Q2
∂ψ ∂ψ
(t, P, Q) = f (t, P, Q) . (4.55)
∂t ∂P
∂ψ ∂ψ
(t, P, Q) = g(t, P, Q) . (4.56)
∂t ∂Q
Bien sûr, aux deux niveaux, d’autres techniques sont possibles. Par exemple,
au deuxième niveau, on peut discrétiser par différences finies directement
l’équation de diffusion (4.54) en deux dimensions (P, Q). La raison pour la-
quelle nous insistons ici sur la technique de décomposition est la suivante. Il
ne faut pas perdre de vue que nous décrivons ici un cas simplissime, où le po-
lymère est modélisé dans un espace de configuration à 2 dimensions (le plan
(P, Q)). Lorsque l’espace de configuration devient plus grand (disons 4), il
n’est plus possible d’attaquer directement la résolution par différences finies,
152 4 Modèles micro-macro pour les fluides
∂ψ ∂2
(t, P ) = a 2 ψ(t, P )
∂t ∂P
(avec donnée initiale ψ0 et donnée au bord nulle) est de classe C 4 . Montrer la
convergence du schéma implicite
∆t
temps tn = n ∆t. On introduit le coefficient µ = c , dit nombre de Courant.
∆P
Montrer que le schéma de Lax-Wendroff possède la propriété suivante, dite
principe du maximum discret,
∂ψ ∂2
(t, P, Q) = a 2 ψ(t, P, Q).
∂t ∂P
Montrer que le schéma de Richardson
ψjn+1 − ψjn−1 n
ψj+1 − 2ψjn + ψj−1
n
−a = 0, (4.59)
2∆t (∆P )2
sujets, ou seulement intéressé par le côté formel et prêt à faire confiance peut
aisément omettre les lignes qui suivent et se reporter directement à la sous
section 4.3.4. Comme d’habitude dans ce cours, on insiste sur le fait que la
sous section 4.3.4 ne se substitue pas à un authentique cours de Probabilités.
La loi de X s’écrit donc p(x) dx. Une des densités les plus célèbres est la
densité gaussienne
4.3 Simulation numérique de l’Ecoulement de Couette 155
1 (x−m)2
p(x) = √ e− 2σ 2
σ 2π
de moyenne m et de variance σ 2 . On dit alors que la variable aléatoire X
est gaussienne. L’espérance vaut IE(X) = m et la variance est Var (X) =
IE((X − IE(X))2 ) = IE(X 2 ) − (IE(X))2 = σ 2 .
En pratique, l’espérance de la variable aléatoire X peut être approchée (on
parle de méthode de Monte-Carlo) en moyennant les valeurs de X, trouvées
par un tirage au sort suivant la loi de X. La fondation de cette pratique est
la Loi forte des grands nombres : si (Xi , i ≥ 1) est une suite de variables
aléatoires indépendantes, toutes de même loi que la variable aléatoire X, et
si IE(|X|) < ∞, alors pour presque tout ω,
cadre développé ci-dessus est que nous allons travailler en dimension 2 au lieu
de 1.
Remarque 4.16. S’il est juste (sous les bonnes conditions évoquées ci-dessus,
lesquelles reviennent grosso modo à supposer que la solution de l’équation
de Fokker-Planck est unique) que tout processus Xt solution de l’équation
différentielle stochastique a sa densité qui vérifie l’équation de Fokker-Planck,
la réciproque est fausse, en toute généralité : tout processus qui a pour densité
p n’est pas forcément solution de l’équation différentielle stochastique. Ainsi,
un contrexemple est fourni par l’Exercice 4.19. En fait, ceci se comprend en
gardant à l’esprit qu’il y a plus d’information dans le processus que dans
sa densité, puisqu’on peut avec lui calculer plus que de simples espérances
IE(ϕ(Xt )) (comme par exemple IE(ψ(Xt , Xs ))). Il est donc “normal” qu’à une
densité correspondent beaucoup de processus. Si la densité est une solution
d’une équation de Fokker-Planck, il peut y avoir beaucoup de processus l’ayant
pour densité et n’entretenant aucun rapport avec l’équation différentielle sto-
chastique sous-jacente.
Remarque 4.17. Dans le cas qui nous intéresse, nous sommes seulement intéres-
sés par les espérances figurant dans la définition du tenseur des contraintes.
Elles sont les seules quantités pertinentes du point de vue de la modélisation.
Il y a donc toutes les raisons, au vu de la Remarque qui précède, de se concen-
trer sur le point de vue Fokker-Planck et il peut alors paraı̂tre paradoxal de
faire appel à l’approche équation différentielle stochastique qui privilégie un
processus particulier ayant cette densité, à savoir la solution de l’équation
différentielle stochastique. Seuls des aspects d’efficacité numérique justifient
en fait un tel changement de point de vue.
Remarque 4.18. Nous n’avons volontairement rien dit de l’existence et de l’uni-
cité de la solution Xt de l’équation différentielle stochastique. Il existe bien
sûr tout un cadre théorique qui formalise des théorèmes d’existence et d’uni-
cité pour de telles équations. En fait, pour l’unicité, la bonne notion est le
plus souvent du point de vue pratique la notion d’unicité en loi (aussi ap-
pelée unicité faible), qui est vraie quand toutes les solutions Xt donnent la
même densité p et donc les mêmes espérances calculées. Peu importe en fait
le processus particulier Xt .
bâti avec des variables aléatoires Ỹj (telles que IE(|Ỹj |) < +∞), on pose
t n
Ys dBs = Ỹj−1 (Bsj − Bsj−1 ).
0 j=1
et vérifier que la loi de Xt est la gaussienne centrée réduite. Montrer aussi que
l’équation de Fokker-Planck associée à (4.66) est
∂p(t, x) 1 ∂ 1 ∂2
− (xp(t, x)) − p(t, x) = 0, (4.67)
∂t 2 ∂x 2 ∂x2
1 2
avec la donnée initiale p(0, x) = √ e−x /2 . Vérifier alors que le processus
2π
constant gaussien centré réduit Yt = G a sa densité qui vérifie (4.67) alors que
bien sûr lui-même ne vérifie pas l’équation différentielle stochastique (4.66).
Conclure.
On choisit d’évaluer τ (y, t), non pas via la résolution de l’équation de Fokker-
Planck
∂ψ ∂ ∂u 2K
(t, y, P, Q) = − ( (y, t)Q − P ) ψ(t, y, P, Q)
∂t ∂P ∂y ζ
2
∂ 2K σ2 ∂ ∂2
+ Qψ(t, y, P, Q) + 2 + ψ(t, y, P, Q),
∂Q ζ ζ ∂P 2 ∂Q2
(4.68)
pour toute fonction f mesurable bornée. On admettra que ceci entraı̂ne aussi,
dans les conditions où nous sommes, en choisissant f (a, b) = ab, que le tenseur
des contraintes s’écrit, pour tout instant t, des deux façons suivantes
τ (y, t) = np K P Q ψ(t, y, P, Q) dP dQ = np K IE(P (y, t)Q(t)). (4.70)
IR2
np K n+1 n+1
J
(τ h )n+1
i = P Qj (4.74)
J j=1 i,j
On voit donc qu’à nombre de réalisations fixé, plus la variance est petite,
meilleure est l’approximation.
Pour réduire la variance et améliorer ainsi la convergence, on peut mettre en
oeuvre des méthodes dites de réduction de variance. En voici deux exemples.
La première méthode consiste à corréler en espace les trajectoires des Pi .
L’idée est de diminuer le bruit dû aux variations du brownien en espace dans
le calcul du tenseur des contraintes. Concrètement, cette méthode consiste à
0
prendre comme condition initiale sur les Pi : Pi,j = Pj0 , Pj0 désignant des
gaussiennes centrées ne dépendant pas de i et à remplacer (4.73) par
√
U n+1 − Ui−1
n+1
2K ∆t 2∆tσ n
n+1
Pi,j = ∆t i Qj n + 1 − n
Pi,j + Vj . (4.75)
∆y ζ ζ
Noter que Vjn a remplacé Vi,j
n
.
La seconde méthode (de portée plus générale) consiste à utiliser des va-
riables de contrôle. Il s’agit de ne pas calculer directement IE(P Q), mais
séparément chacun des deux termes de la somme
où P̃ et Q̃ sont deux processus aléatoires (définis par des EDS) tels que
– IE(P̃ Q̃) soit facile à calculer ”analytiquement” (tout au moins sans si-
mulation stochastique)
– P̃ Q̃ soit proche de P Q de telle sorte que Var(P Q − P̃ Q̃) << Var(P Q).
Les deux choix extrêmes sont les suivants :
– P̃ = Q̃ = 0 auquel cas IE(P̃ Q̃) est très facile à calculer mais on n’a rien
gagné en variance ;
– P̃ = P et Q̃ = Q auquel cas Var(P Q − P̃ Q̃) = 0 mais IE(P̃ Q̃) n’est alors
pas plus facile à calculer que IE(P Q) !
Il s’agit donc de trouver un compromis entre deux exigences incompatibles.
Dans le cas qui nous intéresse, on peut définir P̃ et Q̃ par les EDS vérifiées
par P et Q respectivement en l’absence de cisaillement. On obtient ainsi
√
2K 2σ
dP̃ (t) = − P̃ (t)dt + dVt
ζ ζ
√
2K 2σ
dQ̃(t) = − Q̃(t)dt + dWt .
ζ ζ
(τ h )n+1
i = np KIE(P Q)
= np K(IE(P̃ Q̃) + IE(P Q − P̃ Q̃))
= np K(0 + IE(P Q − P̃ Q̃))
np K n+1 n+1
J
≈ (P Qj − P̃i,j
n+1 n+1
Q̃j )
J j=1 i,j
np K
J
≈ ((P n+1 − P̃i,j
n+1
)Qn+1 ) (4.77)
J j=1 i,j j
(1) connaissant les (τ h )ni pour tous les intervalles indicés par i, on insère
ces valeurs dans la discrétisation éléments finis en espace (y) et dif-
férences finies en temps (4.49) de l’équation macroscopique fluide ; on
en déduit les nouvelles valeurs de la vitesse Uin+1 (1 ≤ i ≤ N − 1).
(2) en chaque intervalle de longueur ∆y,
(2.1) on simule une collection de J réalisations des processus de
Wiener Vi,j n
et Wjn (1 ≤ j ≤ J) (en fait les seconds sont indépendants
de l’intervalle, mais c’est une singularité due à la simplicité du cas
que nous avons choisi) ; si on adopte une méthode de réduction de
variance par variables de contrôle, on met à jour la variable P̃i,j par
(4.76) ;
(2.2) en utilisant les valeurs de Uin+1 (1 ≤ i ≤ N − 1), on réalise
l’avancée d’un pas de temps des schémas aux différences finies (4.73)
discrétisant les équations différentielles stochastiques (4.69), d’où les
n+1
valeurs de Pi,j et Qn+1
j ;
(2.3) en moyennant sur les J réalisations, on obtient la moyenne
empirique (4.74) donnant la valeur du tenseur des contraintes (τ h )n+1 i
au nouveau pas de temps, et on boucle.
164 4 Modèles micro-macro pour les fluides
Remarque 4.23. Il faut bien sûr noter que les sous-étapes (2.1)-(2.2)-(2.3) peu-
vent être effectuées en parallèle (ce qui peut être un gain de temps colossal,
vu le nombre d’intervalles). Dans un gros calcul, sur un gros ordinateur, on
distribue sur chaque processeur un certain nombre de tels intervalles en espace.
Charge à chacun de faire évoluer d’un pas de temps “ses” haltères. De même
(mais le gain est moins important, et on pourrait faire autrement), les étapes
(1) et (2) décrites ci-dessus peuvent être faites simultanément.
0
0 1
x
C’est en fait le schéma que nous avons spontanément utilisé en (4.71). Dans
la pratique, comme l’accroissement Btn+1 − Btn est une variable aléatoire
gaussienne centré de variance tn+1 − tn = ∆t, on simulera
√
Xn+1 = Xn + f (Xn ) ∆t + σ(Xn ) ∆tN (0, 1), (4.81)
d’où le schéma (4.80). Cette approximation (4.87) n’est pas exacte à l’ordre
∆t, mais à l’ordre (∆t)1/2 parce qu’elle consiste à négliger la dérivée de σ(Xs )
(ce qui n’a aucune influence dans le cas où σ est constant, conformément à
ce qu’on a vu ci-dessus). On a en fait oublié un terme d’ordre supérieur à ∆t,
rendant impossible d’obtenir un schéma fortement convergent d’ordre 1.
En fait, la bonne façon de procéder est de faire un calcul d’Itô sur σ(Xt )
qui s’écrit (on l’admet)
t
σ(Xt ) = σ(Xtn ) + σ(Xs )σ (Xs ) dBs
tn
t
1
+ σ (Xs )f (Xs ) + σ (Xs )σ 2 (Xs ) ds.
tn 2
y (t) = λ y(t)
convergence en temps long vers zéro, lorsque λ a une partie réelle négative.
Ici, pour notre cadre stochastique, nous introduisons de même l’équation
différentielle stochastique
où λ et µ sont deux complexes fixés. Il est facile de voir que selon la position
de λ et µ dans le plan complexe, on a le comportement suivant de la solution
de (4.92) quand t −→ +∞,
1 2
lim IE(Xt2 ) = 0 si et seulement si Re(λ) + |µ| < 0 (4.93)
t−→+∞ 2
ce qu’on appelle stabilité en moyenne et
4.5 Bibliographie
Les modèles standards de fluides newtoniens incompressibles, ainsi que leur si-
mulation numérique peuvent être lus respectivement dans Y. Bamberger [10],
B. Lucquin et O. Pironneau [54] M. Gunzburger [40] par ordre de difficulté.
Pour la simulation des fluides non newtoniens par des modèles purement ma-
croscopiques on pourra se reporter à R. Keunings [48].
La physique et la rhéologie des polymères font l’objet d’une littérature
importante. Les propriétés basiques des polymères que nous avons décrites
sont extraites du cours de F. Devreux [32]. Pour les modèles micro-macro pour
les fluides polymériques, les références les plus pédagogiques, avec lesquelles
ont été écrites les pages qui précèdent sont constituées par les traités de M.
Doi [28], M. Doi et SF. Edwards [29], R. Bird, Ch. Curtiss, C. Armstrong, O.
Hassager [14], HC. Ottinger [62]. Une autre excellente référence est le livre de
R. Owens et T. Phillips [63].
On pourra lire aussi dans [62] des éléments de théorie des probabilités
adaptés aux modèles étudiés. Pour une introduction très pédagogique à la
simulation des équations différentielles stochastiques, on recommande l’article
de D. J. Higham [45].
Enfin, signalons que l’analyse mathématique et numérique de modèles
micro-macro abordés rapidement ici fait l’objet d’une série de travaux récents
par B. Jourdain, T. Lelièvre et C. Le Bris initiés dans [47]. On pourra lire
aussi des travaux effectués par d’autres groupes (notamment celui de Weinan
E à Princeton, celui de Felix Otto à Bonn, et celui de Pingwen Zhang à Pékin)
sur les mêmes sujets ou des sujets reliés.
5
Cinétique chimique
Ne
Ne
− k +
νir Yi −→
r
νir Yi ,
i=1 i=1
− +
où kr désigne le taux de réaction de la réaction r, les coefficients νir et νir étant
les coefficients stoechiométriques de l’espèce Yi comme réactif et produit de la
réaction r. L’équation différentielle qui donne la variation de la concentration
yi de l’espèce Yi est donc :
174 5 Cinétique chimique
dyi
Nr $
Ne
ν−
+ −
= kr (νir − νir ) yj jr .
dt i=1 j=1
Si pour simplifier on ne prend par exemple que trois espèces et trois réactions
k
3 2 k 1 k
Y3 −→ Y2 −→ Y1 −→ Y2 ,
Nous supposons que le problème de Cauchy (5.2) admet une unique solution
sur un intervalle [0, T ] (T fini), ce qui va en particulier être assuré par la
condition de Lipschitz suivante : on suppose que la fonction f est continue
sur I × IRm et de plus qu’il existe un réel L (dit constante de Lipschitz de la
fonction f ) tel que
Une variante de (5.3) est : il existe une fonction l ∈ L1 (I) telle que
Pour simplifier, nous supposons désormais que y est à valeurs réelles (m = 1),
sauf mention explicite du contraire.
Pour résoudre numériquement (5.2), la méthode naturelle est de découper
l’intervalle [0, T ] en N intervalles, de longueurs non nécessairement identiques
0 = t0 < t1 < t2 < ... < tN −1 < tN = T , de poser hn = tn+1 − tn ,
h = max0≤n≤N −1 hn , et d’utiliser le schéma dit schéma d’Euler explicite
en = y(tn ) − yn . (5.6)
Cette erreur, commise spécifiquement sur le pas de temps [tn , tn+1 ], est ap-
pelée erreur locale de troncature au temps tn , et est mesurée par la notion
de précision du schéma. En particulier, le schéma sera dit consistant si cette
erreur décroit strictement plus vite que h, en un sens que nous préciserons
plus loin.
Quant à la seconde erreur, elle n’est pas locale, mais globale. Elle a comme
origine l’accumulation des erreurs locales de troncature à tous les pas de temps
précédents. Cette erreur peut être contrôlée par une notion dite de stabilité.
Si on arrive à construire un schéma permettant de maı̂triser à la fois le
premier type d’erreur et le second, il y a toutes les chances que ce schéma
fournisse une approximation convergente. Nous verrons que c’est effectivement
le cas à l’Exercice 5.11 (pour l’exemple des schémas à un pas).
εn
en
solution numérique y
n
y
0
t t n+1 t
n
et peut donc être contrôlée, dès que la solution exacte y est de classe C 2 (ce
qui est le cas dès que la fonction f est C 1 ) par
tn+1
|εn | ≤ hn |y (t)| dt, (5.8)
tn
sous la forme
n−1 tk+1
|en | ≤ h eL(tn −tk+1 ) |y (t)| dt
k=0 tk
tk+1
n−1
≤h |y (t)|eL(tn −t) dt
k=0 tk
tn
≤h |y (t)|eL(tn −t) dt.
0
Le coût d’une méthode comme (5.5) est seulement déterminé par les
évaluations de la fonction f à chaque pas de temps. Economiser du temps
de calcul nécessite donc de réduire le nombre de pas de temps, ou, ce qui
revient au même, d’augmenter les hn . L’idée motrice est de se dire que quand
on remarque que l’erreur qu’on commet est tolérable, on s’autorise pour les
quelques pas de temps qui suivent un pas de temps plus large, et quand au
contraire, on décèle une erreur devenant dangereusement grande, on raffine
localement le pas de temps. On parle d’une stratégie de contrôle du pas, la-
quelle peut être très difficile à mettre en oeuvre, surtout sur les problèmes
multiéchelles qui nous occuperont plus loin.
Comme la solution exacte est y(t) = e−20t , on s’attend à ce que, même sur le
segment [0,1], la solution s’écrase vite vers 0. Calculer (à la main !) la solution
numérique obtenue via le schéma d’Euler explicite pour le pas de temps ∆t =
1/10, puis pour ∆t = 1/20. Commenter.
Programmer la résolution pour ∆t = 1/40.
On déduit de (5.14) que |yn | reste borné (par |y0 | ici) pour tout n,
indépendamment d’ailleurs du choix des pas hk . Il est instructif de faire la
comparaison avec le schéma d’Euler explicite qui donne :
$
n
yn+1 = (1 − λhk )y0 , (5.15)
k=0
et qui donc ne fournira une solution bornée pour tout n que sous une contrainte
sur les pas hk . Pour un schéma comme le schéma d’Euler implicite on pourra
5.2 Notions rapides d’analyse numérique des EDO 179
En déduire une estimation de |en | quand le pas h est constant. Comparer avec
le cas du schéma d’Euler explicite. Montrer que le schéma d’Euler implicite
est convergent pour l’équation (5.13).
On peut en fait remarquer que prouver la convergence d’un schéma im-
plicite quand le pas h tend vers zéro est un peu une coquetterie. En effet,
cela revient à montrer que quand le pas de temps tend vers zéro, les choses se
passent bien, alors que dans la pratique tout l’intérêt d’un schéma implicite
est de pouvoir prendre un pas de temps grand, même quand les constantes de
Lipschitz sont grandes ! A cela, deux réponses au moins :
- il est utile de vérifier la convergence quand h −→ 0 pour avoir une idée de
la qualité du schéma ;
- il existe d’autres études de convergence des schémas implicites, valables
précisément dans un contexte où on n’a pas h petit à L grand donné, mais
par exemple hL −→ +∞, ce qui est plus proche de la réalité ; ces études
sont le fait des “professionnels” de la résolution numérique des équations
différentielles ordinaires difficiles (“raides”, au sens d’une définition que
nous verrons plus loin), et dépassent largement, par leur technicité, le
cadre de ce cours. Nous verrons cependant des idées dans la même direc-
tion à la section 5.3.
Nous rappelons maintenant dans le cadre simplifié qui est le nôtre ici les
notions de précision, consistance, stabilité d’une méthode que nous avons in-
troduites ci-dessus dans le cas des schémas d’Euler.
180 5 Cinétique chimique
pour toute fonction f qui est p fois continûment dérivable et toute solution
y(t) de (5.2). Nous dirons de façon équivalente qu’il est précis à l’ordre p + 1.
Le schéma sera dit consistant s’il est d’ordre p ≥ 1.
−1 −1
N
N
y(t + h) − y(t) − hΦ(t, y(t); h) ≤ O h2
n=0 n=0
−1
N
= h O h = T O h −→ 0,
n=0
ce qui ne serait pas vrai pour (5.18) avec seulement p = 0. Certains auteurs
choisissent ainsi de définir la consistance de manière un peu différente, mais
avec le même objectif.
Définition 5.8. Le schéma (5.17) est dit stable si il existe h∗ > 0 et une
T
constante M indépendante de h∗ et de N (mais dépendant éventuel-
n=1 hn
lement de T ) telle que, pour toutes les suites hn ≤ h∗ , yn , zn , δn vérifiant,
pour 0 ≤ n < N , yn+1 = yn +hn Φ(tn , yn ; hn ), zn+1 = zn +hn Φ(tn , zn ; hn )+δn ,
on a
max0≤n≤N |zn − yn | ≤ M |y0 − z0 | + |δn | . (5.19)
0≤n<N
5.2 Notions rapides d’analyse numérique des EDO 181
Définition 5.9. Un problème de Cauchy du type (5.2) est dit stable si il existe
une constante C telle que pour tout ε > 0 fixé et pour toute perturbation δ 0 ∈
IRm et δ(t) ∈ C 0 (I, IRm ) des données satisfaisant |δ0 | ≤ ε, |δ(t)| ≤ ε, ∀t ∈ I,
la solution z du problème de Cauchy perturbé
z = f (t, z) + δ(t) pour tout t ∈ I,
(5.20)
z(t = 0) = y0 + δ0 ,
Exercice 5.11. Montrer qu’un schéma de type (5.17) consistant et stable est
convergent. On exprime souvent ceci en disant stabilité + consistance =⇒
convergence
20
schéma d’Euler 10 pas
schéma d’Euler 10 000 pas
10 solution exacte
-10
-20
-30
0 0.5 1
Fig. 5.2. Résultats pour l’Exercice 5.13 avec le schéma d’Euler explicite.
0 0.05 0.1
Notre analyse d’un tel cas débute par une définition, assez heuristique, des
problèmes raides.
Parallèlement, l’erreur |en | est contrôlée par la relation (5.10), qui donne pour
tn = T : T
1
|eN | ≤ h y (s)eL(T −s) ds ≤ hLeLT .
0 2
Dès lors, on constate le fait suivant. Si L est raisonnablement grand mais si e LT
est énorme, alors, bien qu’on ait un bon contrôle de l’erreur de troncature,
on contrôle très mal l’erreur globale. A contrario, pour contrôler très bien
|eN |, il faut imposer au pas h d’être formidablement petit par rapport à la
relativement faible contrainte imposée par le contrôle de l’erreur de troncature.
La différence vient bien sûr de la contrainte de stabilité très forte dans le cas
du schéma d’Euler explicite appliqué à cette équation.
Examinons maintenant le cas d’un système linéaire
y = Ay, (5.27)
On suppose que les −λi sont N réels strictement négatifs, classés comme suit :
0 > −λ1 > ... > −λN . On se place alors dans la situation où λN est très grand
devant λ1 . On discrétise encore par la méthode d’Euler explicite. L’erreur de
troncature peut s’estimer de la façon suivante :
tn +h tn +h
N
|εn | ≤ h |y (s)| ds = h λ2i e−sλi ds,
tn tn i=1
et donc
N
|εn | ≤ h2 λ2i e−tn λi .
i=1
Comme tous les rapports λi /λ1 sont strictement plus grands que 1, on en
déduit que dès que le temps tn est grand, seul compte dans cette somme le
terme d’indice 1, et l’erreur de troncature est donc grosso modo contrôlée par
Exercice 5.16. Expliquer les difficultés rencontrées aux Exercices 5.2 et 5.13.
p
yn+1 = aj yn−j + hb−1 f (tn+1 , yn+1 ). (5.28)
j=0
5.4 Méthodes de séparations d’opérateurs 187
Une telle méthode est dite multipas puisque la valeur de yn+1 est bâtie à partir
non seulement de la valeur de yn , mais aussi de celles de yn−1 , yn−2 ,...
Le coefficient b−1 , supposé par construction non nul (il faut bien tenir
compte au moins une fois de f !), et les aj sont choisis de la manière suivante :
on fait l’approximation de la fonction t −→ y(t) par le polynôme prenant aux
p + 2 noeuds tn−p = tn − ph, tn−p+1 = tn − (p − 1)h, ..., tn+1 les valeurs
respectives yn−p , yn−p+1 , ..., yn+1 ; on en déduit par simple dérivation de ce
polynôme une approximation de la dérivée y (tn+1 ). On pose ensuite que cette
valeur est égale à f (tn+1 , yn+1 ) en vertu de ce que y est solution du problème
de Cauchy.
Le cas p = 0 redonne la méthode d’Euler implicite, et en prenant par
exemple p = 2, on trouve
1 6
yn+1 = 18yn − 9yn−1 + 2yn−2 + hf (tn+1 , yn+1 ). (5.29)
11 11
L’analyse numérique générale de ces méthodes nous emmènerait trop loin.
Il s’agit seulement de retenir ici que les notions de précision, stabilité et conver-
gence introduites ci-dessus peuvent être étendues au cas plus complexe comme
(5.28). Cette analyse montre la très bonne stabilité de telles méthodes, et donc
leur aptitude à simuler les systèmes raides.
par les variables évoluant lentement, l’autre par les variables évoluant rapi-
dement. Chaque sous-système sera alors traité par une méthode d’intégration
numérique spécifique, où le sous-pas de temps pourra être choisi de façon
adaptée. Ainsi, le pas de temps ∆t sera choisi grand ; on intégrera une par-
tie du système (la partie raide) par une méthode implicite en un seul pas de
temps ∆t et l’autre partie pourra être intégrée avec un schéma explicite en
découpant le pas ∆t en plus petits pas δt. Détaillons ceci.
Pour l’analyse, nous considérons d’abord le cas où les opérateurs corres-
pondent à des vitesses de même ordre. Considérons l’exemple suivant
dz
= Cz = Az + Bz (5.30)
dt
assorti de la condition initiale z(0) = z0 . Dans cette équation, z est un vecteur
de IRN , A, B et C sont trois matrices de taille N . Les matrices A et B sont
issues d’un découpage de la matrice originale C et figurent deux parties de
l’opérateur d’évolution (on pensera bientôt à une partie qui figure l’évolution
des espèces rapides, l’autre celle des espèces lentes, mais ce n’est pas le cas
tout de suite).
La méthode de séparation la plus naturelle est de résoudre sur chaque pas
de temps de longueur [n∆t, (n + 1)∆t] les deux systèmes
∗
dz
= Az ∗
dt (5.31)
∗
z (n∆t) = z(n∆t),
Exercice 5.18. Expliquer pourquoi, à une opération près sur le premier des
pas de temps et sur le dernier, les deux schémas (5.31)-(5.32) et (5.34)-(5.35)-
(5.36) sont en fait les mêmes. Quelle analyse de précision est la bonne ? Com-
menter.
où ε est un coefficient très petit, et où les matrices A et B sont du même
B
ordre de grandeur. La matrice A figure donc l’évolution lente et la matrice
ε
l’évolution rapide. Plus concrètement, prenons le système à deux dimensions
d x −1 0 x −1 0 x 0 0 x
= 1 1 = + 1 1 . (5.38)
dt y ε − ε y 0 0 y ε − ε y
Nous avons dans l’idée d’utiliser un pas de temps ∆t grand pour simuler
numériquement ce système, au sens où ce pas de temps doit être calibré sur
les échelles de temps lentes présentes dans ce système (ici 1) et non les échelles
rapides (ici ε). Dans la suite, nous avons donc ∆t >> ε.
La solution exacte pour le passage du temps n∆t au temps (n + 1)∆t est
bien sûr :
x((n + 1)∆t) = e−∆t xn
xn −∆t xn −∆t (5.39)
y((n + 1)∆t) = e + (yn − )e ε .
1−ε 1−ε
Nous allons montrer dans ce qui suit que le fait que ∆t soit “grand” met
en défaut l’analyse numérique faite ci-dessus sur la décomposition pour le
système (5.30).
D’abord, remarquons que si l’analyse numérique précédente était encore
vraie ici (i.e. encore vraie pour un ∆t grand), alors l’erreur locale admettrait
un développement du type (5.33), c’est-à-dire ici
B B
(A − A) O((∆t)2 ) + O((∆t)3 ).
ε ε
Ceci semblerait dire que plus ε est petit, plus l’erreur de décomposition com-
mise est importante. Ceci n’est pas conforme à l’intuition selon laquelle on
a d’autant plus intérêt à utiliser une méthode de découplage que les échelles
de temps sont vraiment différentes. Vérifions maintenant quelle est la bonne
analyse numérique.
Sur l’exemple (5.37), on peut d’abord imaginer de réaliser la décomposition
B
où on intègre d’abord puis A. On obtient alors
ε
−∆t
yn+1 = xn + (yn − xn ) e ε
(5.40)
xn+1 = e−∆t xn
ε −∆t 1 −∆t
yn+1 − y((n + 1)∆t) = xn (1 + e ε − e ),
1−ε 1−ε
ε ∆t
= xn (− + )
1−ε 1−ε
+termes d’ordres supérieurs et transitoires
(5.41)
∆t
ce qui est d’ordre ∆t (on rappelle >> 1). Cependant, il faut remarquer
ε
que si on change les données (xn , yn ) au temps tn en des données perturbées
(xn + αn , yn + βn ), alors la valeur obtenue au temps tn+1 est
−∆t
yn+1 = xn + αn + (yn + βn − xn − αn ) e ε
(5.42)
xn+1 = e−∆t (xn + αn )
et l’on constate donc que l’erreur βn sur la composante rapide y est rapi-
dement amortie (elle est seulement dans le second terme, et donc tuée par
−∆t
l’exponentielle e ε ).
B
Alternativement, si on commence par appliquer l’opérateur A puis , on
ε
obtient la valeur au temps suivant
xn+1 = e−∆t xn
−∆t (5.43)
yn+1 = xn+1 + (yn − xn+1 ) e ε
On peut remarquer que cette erreur est d’ordre ε (donc d’ordre << ∆t),
contrairement à l’erreur (5.41).
A l’issue de ces deux calculs d’erreur, on peut remarquer
– que l’erreur n’est dans aucun des deux cas d’ordre 2 en ∆t, ce qui aurait
été prévu par l’analyse d’erreur du cas standard,
– que l’erreur n’est pas la même selon qu’on intègre d’abord l’opérateur
B
A ou l’opérateur (alors que dans le cas standard, elle est la même en
ε
valeur absolue, cf. la relation (5.33)),
– que l’analyse montre qu’il vaut mieux intégrer d’abord l’opérateur lent
puis l’opérateur rapide, pour avoir une meilleure borne sur l’erreur.
192 5 Cinétique chimique
On concluera donc que dans les cas difficiles comme le cas des systèmes
raides, il faut mener une analyse numérique très particulière, bien moins naı̈ve
que la simple analyse numérique ∆t −→ 0. Ceci est bien naturel puisque ce
sont des schémas implicites qu’on a alors en tête d’exploiter. Une fois cette
analyse numérique faite, on a en particulier une fidèle estimation du coût en
précision de la technique de décomposition d’opérateurs. Cette technique per-
mettra de réduire avantageusement la taille du système résolu implicitement.
Voyons maintenant une autre technique pour là aussi réduire le coût.
y(t)
g(t)
régime permanent
Vérifier qu’on peut sans difficulté approcher ce problème par un schéma d’Eu-
ler explicite par exemple.
4 - Montrer que l’espèce Y2 devient rapidement négligeable. Quelle est la
solution du système (5.52) si l’on substitue y2 = 0 pour tout temps à la
seconde équation différentielle. Cette approximation est-elle aussi satisfaisante
que celle de la question précédente ?
5 - Montrer qu’on peut retrouver directement (5.53) à partir de (5.52) et d’une
dy2
hypothèse sur . En déduire une stratégie (parmi d’autres !) pour supprimer
dt
la raideur pour des systèmes du type (5.52).
Un commentaire s’impose : tous les systèmes que l’on veut réduire n’appa-
raissent pas spontanément sous la forme (5.46), et un certain travail préli-
minaire peut être nécessaire. Ainsi, considérons le système :
⎧
⎪
⎨ ε dx = M g0 (x, y) + ε f1 (x, y),
dt (5.54)
⎪
⎩ε
dy
= g0 (x, y) + ε g1 (x, y),
dt
Ici, les espèces x et y respectivement de dimension n − p et p sont supposées
gouvernées par une dynamique de même vitesse a priori, et on ne sait pas
discriminer qui est rapide et qui est lent. Ce qui est identifiable ici est le
couplage rapide entre les deux espèces via la fonction g0 qui apparaı̂t aux deux
membres de droite (diviser les deux équations par ε pour s’en rendre compte).
On veut éliminer ce couplage rapide grâce à une réduction du système. Pour
cela, on introduit la variable
u = x − M y, (5.55)
de sorte que, en ne gardant que les variables (u, y), le système s’écrit de façon
équivalente :
⎧
⎪
⎨ du = −M g1 (u + M y, y) + f1 (u + M y, y),
dt (5.56)
⎪
⎩ε
dy
= g0 (u + M y, y) + ε g1 (u + M y, y),
dt
5.5 Réduction de systèmes 197
5.6 Bibliographie
L’analyse numérique des équations différentielles ordinaires peut être lue dans
les traités A. Quarteroni, R. Sacco & F. Saleri [65], M. Crouzeix & A. L.
Mignot [26], E. Hairer, S. P. Norsett & G. Wanner [41] (une des références pour
les spécialistes, suivi d’un deuxième tome [42] plus particulièrement consacré
aux systèmes raides), ces traités étant cités par ordre de difficulté croissante.
Pour l’application à la simulation numérique de la cinétique des réactions
chimiques, une bonne référence est constituée par les travaux de B. Sportisse et
de ses collaborateurs sur la modélisation de la pollution atmosphérique. Pour
la réduction de systèmes, on pourra par exemple consulter l’article B. Sportisse
et R. Djouad [77], et pour la décomposition d’opérateurs B. Sportisse [78].
6
Vers une unité des approches
L’objet de ce court chapitre est de rétablir une unité dans ce qui est peut-être
apparu, malgré nos efforts pour lier les chapitres les uns aux autres, comme une
mosaı̈que de problèmes et de techniques tous décorrélés. Un objectif secondaire
est de montrer à quel point ce que nous avons vu ensemble est proche du front
de la recherche en calcul scientifique.
Dans chacune de ces deux catégories, le choix est, comme nous l’avons dit
en Introduction
- soit d’attaquer le système tel quel, ce qui n’est pas possible si la petite
échelle est trop petite (ce qui est le cas pour les problèmes du Chapitre 1
ou 4)
- soit de faire disparaı̂tre la petite échelle en l’homogénéisant de sorte d’ob-
tenir un problème à l’échelle macroscopique seulement (cf. le Chapitre 2,
ou la réduction des sytèmes dynamiques au Chapitre 5)
- soit de la traiter conjointement avec l’échelle macroscopique (cf. les Cha-
pitres 1 et 4)
puis, au Chapitre 3,
⎧
⎪
⎪ d2 x̄k
⎪
⎪ m (t) = −∇x̄k W (x̄1 (t), · · · , x̄M (t))
⎨ k
dt2 zk zl
W (x̄1 , · · · , x̄M ) = U (x̄1 , · · · , x̄M ) +
⎪
⎪ |x̄ − x̄l |
⎪
⎪ 1≤k<l≤M
k
⎩ U (x̄ , · · · , x̄ ) = inf {ψ , H (x̄ , · · · , x̄ ) · ψ , ψ ∈ H , ψ = 1}
1 M e e 1 M e e e e
et au Chapitre 4
⎧ Du
⎪
⎪ = F(τp , u),
⎪
⎪ Dt
⎪
⎪
⎨
τp = τp (Σ)
⎪
⎪
⎪
⎪
⎪
⎪
⎩ DΣ = G (Σ, u),
µ
Dt
On constate que les problèmes micro et macro qui coexistent alors peuvent
être
- issus ou non du même type de modélisation physique (le plus souvent ils
ne le sont pas, comme par exemple dans le couplage de la mécanique
quantique pour les électrons et de la mécanique classique pour les noyaux
dans la dynamique moléculaire du Chapitre 3)
- formalisés ou non par une équation mathématique de même nature (le plus
souvent encore ils ne le sont pas, comme par exemple le cas des fluides
polymériques où peuvent être couplées une équation aux dérivées partielles
déterministe et des équations différentielles stochastiques).
Quand la nature des deux problèmes n’est pas, pour quelque raison que
ce soit, la même, ceci a pour conséquence que les techniques mathématiques
à employer sont radicalement différentes, et que le traitement d’un problème
multiéchelle demande des compétences mathématiques variées.
On peut aussi mieux comprendre la logique de la démarche (6.1) et mesurer
sa généralité si l’on change légèrement le vocabulaire. Changeons en effet le
mot “micro” en le mot local et le mot “macro” en le mot global. Le schéma
devient un couplage du type
⎧
⎪
⎪ Schéma de résolution GLOBALE
⎪
⎪
⎪
⎪
⎪
⎪
⎨ Opération pour obtenir certains éléments du
(6.2)
⎪
⎪
⎪
⎪ GLOBAL en fonction du local
⎪
⎪
⎪
⎪
⎩
Schéma de résolution locale
Ce que nous avons décrit dans les pages qui précèdent ne recouvre bien sûr
pas l’intégralité des problèmes multiéchelles qui se posent, et des techniques
qu’on emploie pour les analyser puis les simuler numériquement.
Ainsi, même sur les sujets que nous avons abordés, par exemple la science
des matériaux, nous aurions pu parler des approches, employées par exemple
par M. Luskin [55, 56], où l’échelle macroscopique est couplée non pas
avec l’échelle atomistique (comme au Chapitre 1), mais avec une échelle
mésoscopique décrivant les microstructures apparaissant dans le matériau
(dans l’esprit des microstructures de la Figure 2.1 du Chapitre 2, penser à des
lamelles de matériaux différents à une échelle intermédiaire du micromètre
par exemple). De même, nous aurions pu introduire l’immense champ de
l’homogénéisation stochastique défriché il y a plusieurs décennies par A. Ben-
soussan, J-L. Lions et G. Papanicolaou [12], mais encore en pleine évolution.
x
Dans cette théorie, le coefficient a( ) de l’équation modèle (2.1) du Chapitre 2
ε
est aléatoire. Plutôt par exemple que de partir d’une fonction a(x) périodique
de période 1, e.g. (2.14), on a une fonction a(x, ω) prenant aléatoirement sur
6.3 Sur le front de la recherche 203
Α∗=...
Fig. 6.1. Petite et grande échelle dans chacun des problèmes des Chapitres 1,2,3 et
4. Pour chacun d’eux, on insère une information calculée à l’échelle microscopique
dans le modèle macroscopique.
cinétique chimique où l’échelle rapide amenait une couche limite en temps,
à savoir une phase transitoire, laissant ensuite le système converger vers un
régime permanent régi par les échelles lentes. Nous aurions pu alternativement
aborder les questions d’oscillations rapides couplées avec des oscillations lentes
(ce qui est en fait le cas de la dynamique moléculaire du Chapitre 3, certains
liaisons interatomiques vibrant plusieurs ordres de grandeur fois vite que leurs
voisines) et montrer les techniques pour les traiter1 .
Au-delà, il y a beaucoup de problèmes dont nous n’avons absolument pas
parlé : ainsi la simulation de la dynamique des dislocations est un enjeu co-
lossal en science des matériaux. Une dislocation est ainsi un défaut dans la
maille cristalline qui se propage d’un bout à l’autre d’un solide métallique
(par exemple). Le comportement du matériau est alors dicté par le mou-
vement de ces dislocations, qui sont des défauts de grande taille devant
l’échelle atomique, et qui interagissent entre eux à longue distance à tra-
vers la déformation élastique du cristal. Il s’agit précisément d’un problème
multiéchelle, dépendant du temps, où beaucoup de choses restent à faire. De
même pour la dynamique des joints de grain, ces interfaces qui séparent les
cristaux parfaits entre eux. Cette dynamique conduit ensuite à la dynamique
de la fracture, et donc à la simulation de l’endommagement et de l’usure des
matériaux. Voici des champs de la science où la simulation numérique n’a pas
encore donné sa pleine puissance.
Du point de vue de l’analyse mathématique, et de toutes les problématiques
de changement d’échelle, que nous avons abordées au Chapitre 1 en expli-
quant comment dériver une loi constitutive à partir de l’échelle atomique,
l’effort porte actuellement (entre autres sujets) sur les problèmes dépendant
du temps : nous savons comment déduire l’état d’équilibre d’un matériau à
partir de l’état d’équilibre des atomes qui le composent (et encore...), mais
nous sommes loin de savoir déduire la dynamique du matériau de celle de ses
atomes.
Pour en savoir plus sur toutes ces questions et découvrir plus en détail les
questions sur lesquelles les chercheurs de ce domaine travaillent aujourd’hui,
on pourra par exemple consulter les ouvrages suivants, qui rassemblent beau-
coup de contributions, émanant de groupes de chercheurs aux compétences et
aux intérêts variés : Antonic et al. [6], T. J. Barth et al. [11], VV. Bulatov et
coll. [18], P. Deák et al [27] (y lire en particulier R. E. Rudd & J. Q. Brough-
ton [68]), O. Kirchner et al. [49], et bien d’autres.
1
D’un autre point de vue, on peut dire que nous avons abordé les systèmes
dissipatifs, et laissé de côté ceux du type ondes
Références
35. L.C. Evans, Weak convergence methods for nonlinear PDE, Conference
Board of the Mathematical Sciences, Regional Conference Series in Mathema-
tics, 74, American Mathematical Society, 1988.
36. D. Frenkel et B. Smit, Understanding molecular simulation : from algo-
rithms to applications, 2ème Edition, Academic Press, 2002,
37. H. Gao, P. Klein, Numerical simulation of crack growth in an isotropic solid
with randomized internal cohesive bonds, J. Mech. Phys. solids, volume 46, 2,
p 187-218, 1998.
38. E. Giusti, Direct methods in the calculus of variations, World Scientific,
2003.
39. F. Golse, Particle transport in nonhomogeneous media, Mathematical aspects of
fluid and plasma dynamics, Lecture Notes in Maths. vol 1460, p 152-170, 1991.
40. M. Gunzburger, Finite element methods for viscous incompressible
flows, Academic press, 1989,
41. E. Hairer, S. P. Norsett & G. Wanner, Solving ordinary differential equa-
tions, tome 1, Springer, 1993.
42. E. Hairer & G. Wanner, Solving ordinary differential equations, tome 2,
Springer, 1996.
43. E. Hairer, C. Lubich, & G.Wanner, Geometric numerical integration, Sprin-
ger, 2002.
44. WJ. Hehre, et al., Ab initio molecular orbital theory, Wiley, 1986.
45. D. J. Higham, An algorithmic introduction to numerical simulation of stochastic
differential equations, SIAM Review 43, No.3, 525-546 (2001).
46. Th. Y. Hou, Xiao-Hui Wu, A multiscale finite element method for elliptic pro-
blems in composite materials and porous media. J. Comput. Phys. 134, No.1,
169-189 (1997),
47. B. Jourdain, T. Lelièvre et C. Le Bris, Numerical analysis of micro-macro si-
mulations of polymeric fluid flows : a simple case, Mathematical Models and
Methods in Applied Sciences, volume 12, 9, pp 1205-1243, 2002.
48. R. Keunings, Simulation of viscoelastic fluid flow dans le livre Computer mo-
delling for polymer processing, Ch. Tucker III, Hanser, 1989.
49. O. Kirchner, LP. Kubin, V. Pontikis, Editeurs, Computer simulation in ma-
terials science, Kluwer, 1996.
50. H. Kitagawa et al., Editeurs, Mesoscopic dynamics of fracture, Advances
in Materials research, Springer, 1998.
51. J. Knap, M. Ortiz, An Analysis of the QuasiContinuum Method, J. Mech. Phys.
Solids 49, 9 (2001), p1899
52. C. Le Bris (Editeur), Computational Chemistry, Handbook of numerical
analysis, volume X, Ph. G. Ciarlet, Editeur, North-Holland 2003,
53. P. Le Tallec, Numerical methods for nonlinear tridimensional elasticity,
dans le livre Handbook of numerical analysis, Ph. G. Ciarlet et J.-L. Lions
Editeurs, Tome 5, North Holland.
54. B. Lucquin et O. Pironneau, Introduction au calcul scientifique, Masson,
1996.
208 Références
76. B.Y. Simkin et II. Sheikhet, Quantum chemical and statistical theory of
solutions, 1995.
77. B. Sportisse et R. Djouad, Reduction of chemical kinetics in air pollution mo-
delling, Journal of Computational Physics, 164, pp 354-376, 2000.
78. B. Sportisse, An analysis of operator splitting techniques in the stiff case, Journal
of Computational Physics, 161, pp 140-168, 2000.
79. A. Szabo et NS. Ostlund, Modern quantum chemistry : an introduction,
Macmillan, 1982.
80. E.B. Tadmor, G.S. Smith, N. Bernstein, E. Kaxiras, Mixed finite element and
atomistic formulation for complex crystals, Phys. Rev. B 59, 1 (1999), p235,
81. E.B. Tadmor, R. Phillips, Mixed Atomistic and Continuum Models of Deforma-
tion in Solids, Langmuir 12 (1996), p4529
82. E.B. Tadmor, M. Ortiz, R. Phillips, Quasicontinuum analysis of defects in solids,
Phil. Mag. A., 1996, 73, pp 1529-1563.
83. A. Voter & M. R. Sorensen, Accelerating atomistic simulations of defect dy-
namics : hyperdynamics, parallel replica dynamics and temperature-accelerated
dynamics, Mat. Res. Soc. Symp. Proc, volume 538, 1999, pp 427-439.
84. V.V. Zhikov, S.M. Kozlov, O.A. Olejnik, Homogenization of differential
operators and integral functionals, Springer-Verlag (1994).
Index