Vous êtes sur la page 1sur 232

École Centrale Paris

Mathématiques 2
D. Verwaerde et P. Laurent-Gengoux

Analyse des équations aux dérivées


partielles

P. Laurent-Gengoux

Année 2006-2007
2 Analyse des équations aux dérivées partielles

ECP 2006-2007 2
Table des matières

1 Rappels et prérequis 11
1.1 Quelques formules utiles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.1 Notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.1.2 Formule d’intégration par parties en dimension N . . . . . . . . . . . . . . 11
1.1.3 Formule de Stokes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Systèmes d’équations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.1 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.2.2 Systèmes d’équations non linéaires . . . . . . . . . . . . . . . . . . . . . . 13
1.2.3 Résolution d’un système non linéaire par déformation . . . . . . . . . . . . 17
1.3 Systèmes différentiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Le problème de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3.2 Systèmes différentiels linéaires homogènes . . . . . . . . . . . . . . . . . . 19
1.4 Principes de construction d’équations aux dérivées partielles . . . . . . . . . . . . . 22
1.4.1 Les lois de conservation ou d’équilibre . . . . . . . . . . . . . . . . . . . . 22
1.4.2 Les principes d’extrémalité . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Exemples d’équations aux dérivées partielles 25


2.1 Les problèmes linéaires canoniques . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.1.1 Un problème aux limites elliptique linéaire : l’équation de Poisson . . . . . 25
2.1.2 Un problème d’évolution, parabolique linéaire : l’équation de la diffusion . . 29
2.1.3 Une équation linéaire du premier ordre : l’équation d’advection . . . . . . . 31
2.1.4 Un problème d’évolution, hyperbolique linéaire : l’équation des ondes . . . . 33
2.2 Les problèmes classiques de la physique mathématique . . . . . . . . . . . . . . . . 38
2.2.1 Les équations de transport ou de convection avec réaction et diffusion . . . . 38
2.2.2 La diffusion avec rayonnement . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.2.3 L’élasticité linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.2.4 L’écoulement des fluides . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2.5 Les phénomènes vibratoires . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.6 Les équations de Maxwell . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.2.7 Exemples de problèmes plus complexes . . . . . . . . . . . . . . . . . . . . 45

3
4 Analyse des équations aux dérivées partielles

3 Quelques outils d’analyse des E.D.P. 49


3.1 Propriétés des opérateurs linéaires aux dérivées partielles . . . . . . . . . . . . . . . 49
3.1.1 Opérateurs linéaires aux dérivées partielles . . . . . . . . . . . . . . . . . . 49
3.1.2 Opérateurs du premier et second ordre . . . . . . . . . . . . . . . . . . . . . 50
3.1.3 Symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.1.4 Fonctions propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.5 Noyau des opérateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.6 Transformation de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.7 Transformation de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 Application de la linéarité de l’opérateur . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.1 Découplage des données . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2.2 Décomposition à l’aide de fonctions spéciales . . . . . . . . . . . . . . . . . 60
3.3 Formulation faible des équations aux dérivées partielles . . . . . . . . . . . . . . . . 65
3.3.1 Équivalence des formulations . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.3.2 Formulation au sens des distributions . . . . . . . . . . . . . . . . . . . . . 67
3.3.3 Utilisation des formulations faibles . . . . . . . . . . . . . . . . . . . . . . 67
3.3.4 Interprétation des formulations faibles . . . . . . . . . . . . . . . . . . . . . 68
3.4 Calcul des variations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.2 Le théorème d’Euler-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.4.3 Généralisations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.5 Système du premier ordre équivalent à un système donné . . . . . . . . . . . . . . . 75
3.5.1 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.5.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Le théorème de Cauchy-Kovalevska . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.6.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.6.2 Le théorème de Cauchy-Kovalevska : forme canonique . . . . . . . . . . . . 80
3.6.3 Commentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.6.4 Surface caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.6.5 Système quasi-linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4 Les problèmes aux limites 91


4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.1.2 Définition des problèmes aux limites . . . . . . . . . . . . . . . . . . . . . . 92
4.1.3 Systèmes d’équations elliptiques . . . . . . . . . . . . . . . . . . . . . . . . 93
4.2 Problème associé à un potentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.2.2 Equation dérivant d’un potentiel . . . . . . . . . . . . . . . . . . . . . . . . 96
4.2.3 Potentiel coercif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2.4 Potentiel convexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2.5 Analyse des conditions aux limites . . . . . . . . . . . . . . . . . . . . . . . 98
4.3 Exemples d’analyse de problèmes aux limites . . . . . . . . . . . . . . . . . . . . . 100
4.3.1 Équation elliptique linéaire du second ordre générale . . . . . . . . . . . . . 100

ECP 2006-2007 4
TABLE DES MATIÈRES 5

4.3.2 Diffusion et membrane . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101


4.3.3 Diffusion non homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.3.4 Importance des signes : Vibration forcée . . . . . . . . . . . . . . . . . . . . 102
4.3.5 Une équation faiblement non-linéaire . . . . . . . . . . . . . . . . . . . . . 103
4.3.6 Une équation fortement non linéaire . . . . . . . . . . . . . . . . . . . . . . 103
4.3.7 Une équation conditionnellement elliptique . . . . . . . . . . . . . . . . . . 104
4.3.8 Quelles lois linéaires de diffusion impliquent l’ellipticité ? . . . . . . . . . . 105
4.3.9 Quelles lois non linéaires de diffusion impliquent l’existence et l’unicité ? . . 106
4.3.10 Cas non convexe 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.11 Cas non convexe 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.12 Cas non convexe 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
4.3.13 Cas non convexe 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
4.3.14 Un exemple sans potentiel : la convection diffusion . . . . . . . . . . . . . . 108
4.4 Exemples en mécanique du solide . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4.1 Élasticité linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
4.4.2 Élasticité non linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

5 Les équations d’évolution 113


5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.1.1 Quelques définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
5.1.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.1.3 Position du problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.1.4 Classification de problèmes élémentaires . . . . . . . . . . . . . . . . . . . 114
5.1.5 Equation parabolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.1.6 Équation hyperbolique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
5.2 Equation du premier ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2.1 Equation linéaire du premier ordre . . . . . . . . . . . . . . . . . . . . . . . 120
5.2.2 Equation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121
5.2.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.2.4 Equation quasi-linéaire du premier ordre . . . . . . . . . . . . . . . . . . . 124
5.3 Système linéaire strictement hyperbolique à deux variables (x, t) . . . . . . . . . . . 125
5.3.1 Système linéaire strictement hyperbolique homogène à coefficients constants
à deux variables (x, t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
5.3.2 Système général d’équations linéaires aux dérivées partielles à deux variables
(x, t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.4 Système linéaire et quasi-linéaire général . . . . . . . . . . . . . . . . . . . . . . . 136
5.5 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.5.1 Burgers, sans viscosité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.5.2 Dynamique des fluides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
5.5.3 Equation de convection diffusion . . . . . . . . . . . . . . . . . . . . . . . . 136

5 Mathématiques 2
6 Analyse des équations aux dérivées partielles

6 Le cadre fonctionnel 139


6.1 Formulations faibles et distributions . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.1.1 Notion de distributions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.1.2 Distributions sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2 Le problème de l’existence des solutions . . . . . . . . . . . . . . . . . . . . . . . . 144
6.2.1 Rappel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.2.2 Le théorème de Lax-Milgram . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.2.3 Application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.2.4 Le cadre fonctionnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
6.2.5 Exemple d’utilisation du cadre fonctionnel . . . . . . . . . . . . . . . . . . 147

7 L’approximation des problèmes aux limites 149


7.1 Le problème . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.1.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.1.2 Le problème général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
7.1.3 Un problème modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2 Principes généraux d’approximation . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2.1 Méthode des différences finies . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.2.2 Méthode de Ritz-Galerkin . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.2.3 Approximation par des fonction affines par morceaux . . . . . . . . . . . . . 158
7.2.4 L’espace Wh des fonctions continues affines par morceaux . . . . . . . . . . 159
7.2.5 Algorithmes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
7.3 Quelques extensions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
7.3.1 Conditions aux limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
7.3.2 Généralisation de l’équation . . . . . . . . . . . . . . . . . . . . . . . . . . 175
7.3.3 Éléments finis de degré supérieur . . . . . . . . . . . . . . . . . . . . . . . 176
7.3.4 Dimension 1 et 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
7.4 Étude de l’erreur dans la méthode des éléments finis . . . . . . . . . . . . . . . . . . 177
7.5 Maillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7.5.1 Propriétés nécessaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7.5.2 Méthodes de maillage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
7.5.3 Triangulation de Delaunay . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

8 L’approximation des problèmes d’évolution 185


8.1 Approximation de problèmes modèles . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.1.1 Problèmes modèles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.1.2 Approximation par la méthode des différences finies . . . . . . . . . . . . . 186
8.1.3 Analyse des approximations . . . . . . . . . . . . . . . . . . . . . . . . . . 192
8.1.4 Analyse de l’erreur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
8.1.5 Critères de stabilité des schémas . . . . . . . . . . . . . . . . . . . . . . . . 202
8.1.6 Analyse et extensions de la méthode des différences finies . . . . . . . . . . 206
8.2 Approximation par la méthode des éléments finis . . . . . . . . . . . . . . . . . . . 207
8.2.1 Équation de la diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
8.2.2 Équation des ondes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

ECP 2006-2007 6
TABLE DES MATIÈRES 7

8.2.3 Analyse et extensions de la méthode des éléments finis . . . . . . . . . . . . 214


8.3 Approximation des équations hyperboliques . . . . . . . . . . . . . . . . . . . . . . 214
8.3.1 Un problème modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
8.3.2 Approximation par la méthode des différences finies . . . . . . . . . . . . . 217
8.3.3 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

7 Mathématiques 2
8 Analyse des équations aux dérivées partielles

ECP 2006-2007 8
Présentation

Objectifs de ce document
Ce document est un document de référence pour le cours d’analyse et d’approximation des équa-
tions aux dérivées partielles. Il est complémentaire des documents décrivant chaque séance qui ont été
distribués à part. Il contient quelques rappels et de nombreux passages qui ne sont pas au programme,
(le programme est défini par les documents décrivant chaque séance). En complément du programme,
axé sur l’analyse qualitative et numérique des équations aux dérivées partielles, nous présentons dans
ce document :
– des résumés des méthodes classiques de calcul de solutions d’équations aux dérivées partielles.
– quelques compléments pour aller plus loin dans l’étude des équations aux dérivées partielles.
– de nombreux exemples non traités en cours.
Nous nous sommes efforcés de maintenir un équilibre entre la généralité et la complication des énon-
cés : les théorèmes ne sont pas énoncés sous la forme la plus générale chaque fois que cela complique
trop les notations ou que cela les rend trop abstraites ; c’est a fortiori vrai pour les démonstrations.
Nous avons évité au maximum de recourir à des notions non élémentaires de calcul différentiel et
surtout d’intégration et d’analyse fonctionnelle. Notamment nous n’utilisons pas le cadre des espaces
de Sobolev ni la théorie des distributions, nous leur consacrons cependant un court chapitre pour
en expliquer l’intérêt. Cette simplification est possible parce que nous ne traitons pas la question de
l’existence des solutions d’une équation aux dérivées partielles, nous nous limitons à l’étude qualita-
tive des solutions.

Position du problème
Nous présentons dans ce document quelques idées pour comprendre les problèmes, en général
d’origine physique, dans lesquels on cherche une ou plusieurs fonctions vérifiant des équations aux
dérivées partielles et des conditions supplémentaires, par exemple les valeurs en certains points de la
fonction inconnue ou de ses dérivées. Le sujet est évidemment très vaste, puisque les équations aux
dérivées partielles modélisent l’ensemble des phénomènes physiques, certains domaines sont encore
mal connus et beaucoup de problèmes sont l’objet de conjectures. Nous n’avons donc pas l’ambition
dans ce court document de faire une synthèse des connaissances actuelles mais nous essayons d’in-
troduire quelques idées simples pour comprendre les problèmes élémentaires.

Prenons l’exemple des équations linéaires ; les solutions d’une équation aux dérivées partielles
linéaire forment un espace de dimension infinie, elles dépendent linéairement, par exemple, des co-

9
10 Analyse des équations aux dérivées partielles

efficients d’une série, ou encore de la donnée d’une ou de plusieurs fonctions arbitraires. “Résoudre
ces équations”, c’est, au mieux, obtenir des représentations de la solution sous forme de séries et
d’intégrales dépendant de fonctions arbitraires. Mais les représentations ainsi obtenues de la solution
générale de l’équation sont peu manipulables, sauf dans quelques cas particuliers, et ne permettent
pas de comprendre quelles conditions supplémentaires déterminent la solution. Le plus souvent on ne
pourra calculer que des approximations des solutions.

Dans le cas général, on peut essayer de déterminer des solutions d’une équation aux dérivées par-
tielles en posant des problèmes de Cauchy, c’est à dire la détermination locale de la solution à partir
de certaines de ses valeurs sur une courbe (si on est en dimension 2). Mais d’une part ce problème,
quand il a une solution (théorème de Cauchy-Kovalevska), n’est pas toujours bien posé : la solution
ne dépend pas toujours de façon stable de ses valeurs sur une courbe et elle dépend d’une infinité
de paramètres (les valeurs sur la courbe). D’autre part les conditions supplémentaires sont aussi en
nombre infini, la détermination des paramètres est donc un problème non trivial.

C’est pourquoi nous ne présenterons pas, comme cela a été fait pour les équations différentielles,
“une théorie générale” reposant sur les propriétés des solutions d’une équation. Nous étudierons de
préférence des problèmes complètement posés ayant en général une solution bien déterminée, pour
lesquels on peut s’appuyer sur l’interprétation physique, pour comprendre les propriétés du problème.
Et nous étudierons des principes généraux qui permettent de comprendre pourquoi un problème est
bien posé, quelles sont les propriétés de ses solutions et comment on peut construire des approxima-
tions des solutions.

ECP 2006-2007 10
Chapitre 1

Rappels et prérequis

1.1 Quelques formules utiles


1.1.1 Notations
On note hx, yi = i xi yi le produit scalaire canonique de RN . Soit u(x) et v(x) des fonctions
P
définies sur un domaine Ω ⊂ RN ; Φ(x) est un champ de vecteur sur Ω, ~n = (n1 , · · · , nN ) est le
vecteur normal unitaire extérieur en un point du bord Γ de Ω.

1.1.2 Formule d’intégration par parties en dimension N


Z Z Z
∂u(x) ∂v(x)
v(x) dΩ = − u dΩ + u v ni dΓ (1.1)
Ω ∂xi Ω ∂xi Γ
On en déduit diverses formules très utiles.

1.1.3 Formule de Stokes


Z Z Z
hΦ, ∇vi dΩ = −∇ . Φ v dΩ + Φn v dΓ (1.2)
Ω Ω Γ
où Φn = hΦ, ~ni. Avec v = 1 on obtient la formule de Green
Z Z
∇ . Φ dΩ = Φn dΓ (1.3)
Ω Γ

En prenant Φ = ∇u on obtient
Z Z Z
∂u
h∇u, ∇vi dΩ = −∆u v dΩ + v dΓ (1.4)
Ω Ω Γ ∂n
∂u
où ∂n = h∇u, ~ni est la dérivée de u dans la direction ~n.

11
12 Analyse des équations aux dérivées partielles

1.2 Systèmes d’équations


1.2.1 Systèmes linéaires
Introduction
Dans l’approximation des équations aux dérivées partielles nous aurons à considérer des systèmes
linéaires de très grande dimension qui auront le plus souvent la propriété d’avoir une matrice “creuse”
(i.e. la plupart des éléments sont nuls) et symétrique. Soit A une matrice (n, n) et b ∈ Rn .
Définition 1 Une matrice symétrique A est définie positive si x 6= 0 ⇒ hAx, xi > 0
Le résultat suivant est à la base de l’étude des systèmes linéaires :
Proposition 1 Le système linéaire
Ax = b (1.5)
admet une solution et une seule si le système homogène associé admet pour seule solution x = 0, ce
qui est équivalent à det A 6= 0
La deuxième partie de la proposition n’est pas d’un grand intérêt pratique pour les systèmes de grande
dimension : le déterminant d’une matrice de grande dimension est le plus souvent un nombre sans
signification ( numériquement infini ou nul). La première partie de la proposition peut être complétée
par une condition suffisante qui nous sera très utile :
Théorème 1 Si la matrice A a sa partie symétrique qui est définie positive alors le système linéaire
admet une solution et une seule
t
En effet Ax = 0 implique hAx, xi = h A+A t
2 x, xi = 0 ce qui implique x = 0 si A + A est définie
positive.

Notion de conditionnement
Dans ce paragraphe nous n’utilisons que la norme euclidienne, qui conduit à des calculs simples,
mais il peut être nécessaire de faire la même étude pour d’autres norme, notamment la norme kxk∞ .
Un système linéaire peut avoir une solution et une seule sans que cette solution soit stable vis à
vis des données. Considérons une perturbation δb du second membre b de (1.5), elle implique une
perturbation δx = A−1 δb de la solution et donc une erreur relative
kδxk2 kA−1 k2 kδbk2

kxk2 kxk2
Or b = Ax implique kbk2 ≤ kAk2 kxk2 et donc
kbk2
kxk2 ≥
kAk2
Il vient
kδxk2 kAk2 kA−1 k2 kδbk2

kxk2 kbk2
Le coefficient d’amplification de l’erreur relative est donc majoré par C(A) = kAk2 kA−1 k2 . D’où
la définition :

ECP 2006-2007 12
CHAPITRE 1. RAPPELS ET PRÉREQUIS 13

Définition 2 Le conditionnement d’une matrice A est le nombre

C(A) = kAk2 kA−1 k2

Si la matrice A est symétrique définie positive on a kAk2 = λn , où λ1 ≤ ... ≤ λn sont les valeurs
propres de A et kA−1 k2 = λ11 , donc

Proposition 2 Si la matrice A est symétrique définie positive le conditionnement de la matrice

λn
C(A) =
λ1

est un majorant du coefficient d’amplification de l’erreur relative sur la solution du système (1.5).

Noter que ce majorant est atteint si b et δb sont les vecteurs propres associés à λn et λ1 .

Résolution numérique

Pour résoudre numériquement un système linéaire on utilise deux grandes classes de méthode :
− Les méthodes dites directes qui sont des variantes de la méthode d’élimination de Gauss (dites
aussi méthode du pivot) différent essentiellement par l’ordre des éliminations ce qui revient à définir
une renumérotation des inconnues et des équations.
− Les méthodes itératives, appliquées surtout aux matrices de grande dimension et creuses, sont,
pour les plus efficaces, dérivées de la méthode du gradient conjugué qui est étudiée dans le cours
d’optimisation. Ces méthodes sont des méthodes d’optimisation qui utilisent l’équivalence suivante :

Proposition 3 Soit A une matrice symétrique définie positive. Soit F (x) = 21 hAx, xi − hb, xi. La
fonction F (x) est strictement convexe, tend vers l’infini quand kxk tend vers l’infini, et ∇F (x) =
Ax − b.
Un vecteur x̄ est solution du système linéaire Ax = b si et seulement si x̄ réalise le minimum (unique)
de la fonction F (x) sur Rn .

1.2.2 Systèmes d’équations non linéaires


On note
A(x) = 0 (1.6)

un système de n équations non linéaires à n inconnues, où A(x) est une application C 1 de Rn dans
lui-même. Un tel système peut être très difficile à analyser et à résoudre numériquement. La théorie
la plus générale qui couvre l’existence des solutions de (1.6) est la “théorie du degré topologique” qui
dépasse le cadre de cette introduction. Nous allons voir quelques conditions suffisantes qui facilitent
l’étude de ce système.

13 Mathématiques 2
14 Analyse des équations aux dérivées partielles

Existence d’un potentiel


Dans ce paragraphe nous supposons qu’il existe une fonction “potentielle” F (x) telle que

A(x) = ∇F (x)

Les solutions du système sont alors les points stationnaires de F (x). Or l’étude de la fonction F (x)
permet sous certaines conditions d’affirmer l’existence d’au moins un extrémum, son éventuelle uni-
cité ou la présence d’un nombre minimal d’extrémums. Pour l’existence on utilisera la proposition

Proposition 4 Si F (x) tend vers +∞ quand kxk tend vers l’infini alors F (x) admet au moins un
minimum et le système A(x) = 0 admet donc au moins une solution.

et

Proposition 5 Si F (x) est strictement convexe alors F (x) admet au plus un minimum et le système
A(x) = 0 admet donc au plus une solution.

Noter que l’existence locale d’une fonction potentielle équivaut à la symétrie de la matrice jacobienne
et qu’il existe des situations plus générales où l’on peut étudier le nombre d’extrémums de la fonction
F (x) et leur nature, voir le cours d’optimisation, chapitre 1.

Méthode du point fixe


On réécrit le système A(x) = 0 sous la forme

x = x − ρA(x)

et on pose f (x) = x − ρA(x). Trouver une solution du système non linéaire équivaut à trouver un
point fixe de l’application f (x).
Rappelons le théorème du point fixe pour les applications contractantes, sous une forme adaptée :

Théorème 2 (Point fixe) Si une fonction f (x) laisse invariante une partie fermée C de Rn et si elle
est lipschitzienne de constante k < 1 pour une norme quelconque, i.e.

kf (x) − f (y)k < kkx − yk

alors elle admet un point fixe x̄ et un seul sur C. De plus si x0 est un point quelconque de C la suite
définie par la récurrence
x0 ∈ C quelconque
et
xn = f (xn−1 )
converge vers x̄

Ce théorème fournit un résultat d’existence et un algorithme pour déterminer la solution.


Un théorème beaucoup plus général, le théorème de Brouwer, est moins précis

ECP 2006-2007 14
CHAPITRE 1. RAPPELS ET PRÉREQUIS 15

Théorème 3 (Brouwer) Si une fonction continue f (x) laisse invariant un convexe compact C de Rn
elle admet (au moins) un point fixe x̄ sur C.
Le plus souvent le convexe C est une boule de Rn . Si le champ de vecteur A(x) est dirigé vers l’ex-
térieur de la boule quand x est sur la sphère frontière, on vérifie que l’application f (x) = x − λA(x)
applique la sphère sur l’intérieur de la boule pour λ assez petit. Au prix d’une petite complication
technique1 on peut appliquer le théorème de Brouwer et on en déduit la proposition :
Proposition 6 (Poincaré) Si il existe r ∈ Rn tel que

kxk2 = r ⇒ hA(x), xi > 0

le système (1.6) admet au moins une solution.

Applications monotones
Nous allons voir des conditions pratiques d’application du théorème (2)
Définition 3 Une application A(x) d’un convexe C ⊂ Rn dans Rn est monotone si

hA(x) − A(y), x − yi ≥ 0

Une application A(x) est uniformément monotone si il existe une constante α > 0 telle que

hA(x) − A(y), x − yi ≥ αhx − y, x − yi

Si A(x) = ∇F (x) la monotonie de A(x) équivaut à la convexité de F (x), voir le cours d’optimisa-
tion, chapitre 2. Dans le cas général on a le théorème :
Théorème 4 Si une application A(x) de Rn dans Rn est uniformément monotone et lipschitzienne,
le système
A(x) = 0
admet une solution et une seule.
On peut étendre ce théorème à une boule de Rn .
Ce théorème est une conséquence immédiate du lemme :
Lemme 1 Si une application A(x) de Rn dans Rn est uniformément monotone, de constante α et
lipschitzienne de constante M , l’application
α2
f (x) = x − (1 − )A(x)
M2
q
α2
est lipchitzienne de constante k = (1 − M2
) < 1 ; elle vérifie donc les condition du théorème de
point fixe (2).
1
Considérer l’application f (x) = Π(x−λA(x)) où Π(x) est la projection sur la boule, cette application envoie la boule
C dans elle-même par construction, elle admet donc un point fixe. Or un point fixe x̄ de f (x) est dans la boule ; si x̄ est
strictement à l’intérieur il n’est pas l’image par Π d’un point extérieur, donc x = x−λA(x), si x̄ est sur la sphère, x̄−λA(x̄)
est à l’intérieur de la boule par définition de λ et donc Π(x̄−λA(x̄)) = x̄−λA(x̄) ; d’où x̄ = Π(x̄−λA(x̄)) = x̄−λA(x̄).

15 Mathématiques 2
16 Analyse des équations aux dérivées partielles

Les points fixes de f (x) sont les solutions de A(x) = 0, ce qui démontre le théorème.
Démonstration du lemme : Rappelons que A(x) est lipschitzienne en norme euclidienne si

∃k > 0 / kA(x) − A(y)k2 ≤ kkx − yk2

(ce qui sera vrai sur tout borné si A(x) est une application C 1 ).
Définissons f (x) = x − λA(x) et montrons que f (x) est une application contractante

hf (x) − f (y), f (x) − f (y)i = h(x − y) − λ(A(x) − A(y)), (x − y) − λ(A(x) − A(y))i

et en développant

hf (x)−f (y), f (x)−f (y)i = hx−y, x−yi−2λhA(x)−A(y), x−yi+λ2 hA(x)−A(y), A(x)−A(y))i

et puisque A(x) est une application monotone et lipschitzienne

hf (x) − f (y), f (x) − f (y)i ≤ (1 − 2λα + λ2 k 2 )hx − y, x − yi

Choisissons
α
λ=
M2
il vient
α2
hf (x) − f (y), f (x) − f (y)i ≤ (1 − )hx − y, x − yi
M2

Méthodes de calcul numérique


− Si le théorème de point fixe (2) s’applique on peut utiliser la méthode d’itération pour calculer
la solution du système.

− Si le système est associé à un potentiel on peut calculer les solutions qui sont des extrémums
par des méthodes d’optimisation, voir le chapitre 3 du cours d’optimisation.

− Dans le cas général on peut utiliser la méthode de Newton (voir le chapitre 3 du cours d’op-
timisation). La méthode de Newton est une méthode itérative générale de résolution d’un système
non-linéaire A(x) = 0 : connaissant une approximation xk de la solution, on détermine xk+1 en
linéarisant, localement autour de xk ; l’équation A(x) = 0. On a, en développant A(x) à l’ordre 1
autour de xk
A(x) = A(xk ) + DA(xk ).(x − xk ) + (x − xk )kx − xk k
Si on veut que A(xk+1 ) = 0, en négligeant les termes du d’ordre 2, il vient

xk+1 = xk − DA(xk )−1 .A(xk )

L’application linéaire DA(x) a pour matrice dans la base canonique de Rn la jacobienne JA(x) .
L’algorithme peut donc s’écrire, en mettant en évidence la résolution du système linéaire de matrice
JA(xk ),

ECP 2006-2007 16
CHAPITRE 1. RAPPELS ET PRÉREQUIS 17

Faire :
Mk = JA(xk )
g k = A(xk )
Mk δ k = −g k
xk+1 = xk + δ k
Tant que kg k k ≥ epskg 0 k

On montre que, si A(x) est deux fois différentiable et si x0 est assez proche d’une solution, les
itérations convergent vers cette solution. On montre de plus que la convergence est quadratique

kxk+1 − xk ≤ Ckxk − xk2

ce qui fait que, dès que la convergence est amorcée, elle devient très rapide.
En pratique la méthode est souvent instable et le choix d’un point de départ x0 assurant la convergence
peut s’avérer très délicat. La mise oeuvre exige la résolution d’un système linéaire, dont la matrice
JA(xk ) change à chaque itération, ce qui peut être très coûteux si la matrice est pleine et de grande
dimension.

− La méthode de Newton peut être complétée par une stratégie de “déformation par homotopie” :
on introduit un paramètre λ et un système A(x, λ) tel que A(x) = A(x, 1) et que le système A(x, 0) =
0 soit simple à résoudre (par exemple linéaire). On choisit une suite de valeur λ1 = 0 ≤ λk ≤ λp = 1.
De proche en proche on détermine la solution de A(x, λk ) = 0 en initialisant la méthode de Newton
par la solution de A(x, λk−1 ) = 0 jusqu’à atteindre λp = 1. Nous développons cette méthode dans le
paragraphe suivant.

1.2.3 Résolution d’un système non linéaire par déformation


Nous étudions dans ce paragraphe des méthodes de calcul pour des systèmes non linéaires, dites
méthodes incrémentales ou de déformation par homotopie. Ces méthodes de calcul, sont utilisées
notamment en mécanique du solide pour les modèles élastoplastiques, de grandes déformations ou
de contact. Avec des notations un peu différentes du paragraphe précédent et qui sont usuelles en
mécanique, on écrit le système non linéaire sous la forme

K(U) = F (1.7)

où l’inconnue U et la donnée F sont des vecteurs de Rn et K(U) une application de Rn dans Rn .


Pour déterminer une solution, on construit un chemin de solutions en faisant varier continûment le
vecteur F, qui devient F(t), à partir d’une valeur pour laquelle la solution est connue (0 par exemple)
et on suit pas à pas la solution U(t). En mécanique on dit que l’on a défini un chemin de chargement.
Dérivons (1.7), il vient :
K0 (U(t))U0 (t) = F0 (t) (1.8)
où K0 (U(t)) est une matrice (n, n). On obtient un système différentiel non linéaire sous forme im-
plicite pour U(t).
On peut intégrer numériquement cette équation différentielle par une méthode simple, la méthode
d’Euler implicite ou explicite avec un pas de temps τ :

17 Mathématiques 2
18 Analyse des équations aux dérivées partielles

– Euler explicite :
(Uk+1 − Uk )
K0 (Uk ) = F0 (tk )
τ
– Euler implicite :
(Uk+1 − Uk )
K0 (Uk+1 ) = F0 (tk+1 )
τ
que l’on peut réécrire sous la forme :
– Euler explicite :
K0 (Uk )Uk+1 = K0 (Uk )Uk + τ F0 (tk )
– Euler implicite :
K0 (Uk+1 )(Uk+1 − Uk ) = τ F0 (tk )
Pour le schéma explicite il suffit de résoudre à chaque pas un système linéaire dont la matrice K0 (Uk )
peut être explicitement calculée. Dans un problème obtenu par une approximation par éléments finis
d’un problème continu cette matrice est celle d’un problème “linéarisé”, elle sera calculée par les
méthodes étudiées pour les équations linéaires. Pour le schéma implicite (qui est plus stable et permet
des pas plus grands) la matrice fait partie des inconnues, on détermine Uk+1 par une méthode de
point fixe :
V0 = Uk (1.9)
0 i i+1 0 i k 0
K (V )V = K (V )U + τ F (tk ) (1.10)
la suite Vi converge, si le pas τ n’est pas trop grand, vers Uk+1 . On préfère s’assurer à chaque pas
que Uk+1 est solution de :
K(U) = F(tk+1 ) (1.11)
en appliquant localement la méthode de Newton à cette équation :
V0 = Uk (1.12)
0 i i+1 0 i i i
K (V )V = K (V )V − (K(V ) − F(tk+1 )) (1.13)
la suite Vi converge, si le pas τ n’est pas trop grand, vers Uk+1 .
Remarque : La matrice K0 (Uk ) peut ne pas être inversible, ce sera le cas si Uk est point de bifurcation
(i.e. plusieurs branches de solution passent par ce point). En mécanique, par exemple, cette situation
correspond à certaines propriétés du système : passage par une valeur limite du chargement (en cas
d’augmentation de celui-ci il n’y a plus d’équilibre possible) ou encore au phénomène de flambement
(voir le chapitre 1 du cours d’Optimisation).

1.3 Systèmes différentiels


Voir le cours d’analyse 1 pour plus de détails. Rappelons que tout système différentiel comprenant
des dérivées d’ordre p est équivalent à un système du premier ordre en introduisant des variables
supplémentaires pour les dérivées jusqu’à l’ordre p − 1. Par exemple, en dynamique du point, les
équations de Newton, qui sont du second ordre quand l’inconnue est la position, s’écrivent sous la
forme d’un système du premier ordre dans “l’espace des phases”, c’est à dire en prenant la position
et la vitesse comme inconnues.

ECP 2006-2007 18
CHAPITRE 1. RAPPELS ET PRÉREQUIS 19

1.3.1 Le problème de Cauchy


Soit f (t, x) une application continue de [0, T ] × Rn dans Rn et x(t) ∈ C 1 ([0, T ] → Rn ).

Définition 4 On appelle problème de Cauchy ou à valeurs initiales le problème différentiel


 0
x (t) = f (t, x(t))
(1.14)
x(0) = x0

Les hypothèses peuvent être adaptée à des fonctions définies sur un ouvert de Rn . Énonçons le théo-
rème fondamental d’existence locale d’une solution de (1.14) sous une forme simplifiée

Théorème 5 (Cauchy-Lipschitz) Si f (t, x) est une fonction continue par rapport à (t, x) et C 1 par
rapport à x, alors le problème (1.14) admet au plus une solution et il existe θ ≤ T tel qu’il existe une
solution sur [0, θ[.

On peut compléter cet énoncé par la proposition :

Proposition 7 () Si la solution x(t) de (1.14) est bornée sur [0, θ], cette solution peut être prolongée
sur [0, θ0 [ avec θ0 > θ.

(intuitivement, ou bien la solution explose en θ ou bien elle peut être prolongée) on en déduit le
théorème :

Théorème 6 () Si f (t, x) est continue par rapport à (t, x), C 1 par rapport à x, et à croissance au
plus linéaire en x (i.e. ∃M, c / kf (t, x)k ≤ M kxk + c), alors le problème (1.14) admet une solution
et une seule sur [0, T ].

On montre également que la solution de (1.14) dépend continûment de x0 ainsi que de tout paramètre
par rapport auquel f (t, x) est continu. Autrement dit la solution de(1.14) est stable vis à vis des
données du problème.
La solution “générale” d’un système différentiel dans Rn existe donc localement sous des hypothèses
très faibles et elle dépend de n paramètres que l’on peut choisir comme les valeurs initiales d’un
problème de Cauchy. Le théorème (6) est un outil puissant pour montrer l’existence globale de la
solution. Nous n’aurons pas de résultat aussi général pour les équations aux dérivées partielles.

1.3.2 Systèmes différentiels linéaires homogènes


Solution générale
Soit x(t) ∈ C 1 ([0, T ] → Rn ). Considérons un système différentiel linéaire homogène à coeffi-
cients constants  0
x (t) = Ax(t)
(1.15)
x(0) = x0
où A est une matrice (n, n).
La solution de ce système peut s’écrire formellement

x(t) = exp (tA)x0

19 Mathématiques 2
20 Analyse des équations aux dérivées partielles

où nous avons posé


X t k Ak
exp (tA) =
k!
k

Si la matrice A est diagonalisable sous la forme A = P −1 DP où D est une matrice diagonale dont
les coefficients sont les valeurs propres λi de A ; on en déduit l’écriture plus explicite de exp (tA)

exp (tA) = P −1 exp (tD)P

où exp (tD) est la matrice diagonale dont les coefficients sont exp (tD)i,i = exp (tλi ). Le théorème
suivant est une conséquence immédiate de cette expression, et il s’étend à des matrices non diagona-
lisables :

Théorème 7 Toutes les solutions du système différentiel (1.15) tendent vers 0 quand t ↔ +∞ si et
seulement si la partie réelle des valeurs propres de la matrice A est négative.

Analyse qualitative
Définition 5 Soit un produit scalaire h., .i sur Rn . Un système différentiel est conservatif si les solu-
tions du système homogène conservent le carré scalaire hx(t), x(t)i.
Un système différentiel est dissipatif si le carré scalaire hx(t), x(t)i tend vers 0.

Le carré scalaire abstrait que nous introduisons représente souvent une grandeur physique concrète,
une énergie ou une entropie. Nous utiliserons la proposition

Proposition 8 Soit un produit scalaire h., .i sur Rn . Le système (1.15) est dissipatif si et seulement si
la matrice A est définie négative. Le système (1.15) est conservatif si et seulement si la matrice A est
antisymétrique.

Preuve
De (1.15) on déduit
hx, x0 (t)i = hAx, xi
et donc
d 1
hx, xi = hAx, xi
dt 2
Le résultat en découle car A est définie négative si x 6= 0 ⇔ hAx, xi < 0 et A est antisymétrique2 si
et seulement si ∀x hAx, xi = 0.

2
L’antisymétrie de la matrice A, hAx, yi = −hAy, xi, équivaut à

∀x ∈ R2N hAx, xi = 0

En effet si ∀x, hAx, xi = 0 alors ∀x, y hA(x + y), (x + y)i = 0 = hAx, xi + hAy, yi + hAx, yi + hAy, xi =
hAx, yi + hAy, xi, donc hAx, yi = −hAy, xi

ECP 2006-2007 20
CHAPITRE 1. RAPPELS ET PRÉREQUIS 21

Autres problèmes
Si on cherche une solution d’un système différentiel vérifiant d’autres types de conditions que
(1.14) (conditions aux deux extrémités d’un intervalle, condition de périodicité...) , il n’existe pas
de résultat aussi simple d’existence d’une solution. Mais on peut ramener, grace au théorème (6), le
problème à l’étude d’un système d’équations sur Rn par la méthode de “tir” : par exemple si on veut
fixer p < n composantes de x(0) et n − p composantes de x(T ), on considère la solution du problème
(1.14) avec un point de départ x(0) = x0 où p composantes de x0 prennent les valeurs fixées et les
n − p autres composantes prennent des valeurs λ1 , ..., λp libres ; la valeur de la solution x(t) en T
doit vérifier n − p conditions, ce qui fait n − p équations pour les n − p paramètres λi .
Présentons un exemple d’application de cette méthode : on considère un problème aux limites pour
une équation du second ordre

−x00 (t) + c(t) x(t) = f (t) pour t ∈ [0, 1]



(1.16)
x(0) = x(1) = 0

où ∀t ∈ [0, 1], c(t) > 0 ∈ C([0, 1]), f (t) ∈ C([0, 1]). On introduit le problème auxiliaire de Cauchy
00

 −x (t) + c(t) x(t) = f (t) pour t ∈ [0, 1]
x(0) = 0 (1.17)
 0
x 0) = λ

Ce problème de Cauchy admet une solution unique sur [0, 1] d’après le théorème (6). Pour que (1.16)
ait une solution, nous devons montrer qu’il existe λ tel que (1.17) a une solution x(t) telle que x(1) =
0. En notant x1 (t) la solution de (1.17) pour λ = 1 et f (t) = 0, et x2 (t) la solution de (1.17) pour
λ = 0, on vérifie immédiatement que la solution générale x(t) de (1.17) s’écrit

x(1) = x1 (1)λ + x2 (1)

Pour montrer qu’il existe λ tel que x(1) = 0, il suffit de montrer que x1 (1) 6= 0.
Raisonnons par l’absurde : si x1 (1) = 0 le problème
00

 −x (t) + c(t)x(t) = 0 pour t ∈ [0, 1]
x(0) = 0 (1.18)
x(1) = 0

admet comme solution x1 (t) par définition de cette fonction, et cette solution est non nulle puisque
x01 (0) = 1. Or
Z 1 Z 1
00
−x1 (t)x1 (t) dt + c(t)x21 (t) dt = 0
0 0
et, après intégration par parties du premier terme on obtient
Z 1 Z 1
x01 (t)2 dt + c(t)x21 (t) dt = 0
0 0

ce qui implique x1 (t) = 0 puisque c(t) > 0 par hypothèse. Ce qui contredit le fait que x01 (0) = 1.

21 Mathématiques 2
22 Analyse des équations aux dérivées partielles

Calcul numérique de la solution


Voir le cours d’analyse 1.

1.4 Principes de construction d’équations aux dérivées partielles


1.4.1 Les lois de conservation ou d’équilibre
Principe
Les grands principes de la physique sont souvent des lois de conservation ou des lois d’équilibre
qui se traduisent par des équations aux dérivées partielles. Soit Ω ⊂ Rn un domaine. Soit Φ(x) ∈ Rn
un champ de vecteur défini sur Ω. La nullité du flux de Φ à travers un contour quelconque Γ s’écrit
Z
Φn ds = 0
Γ

Si on prend pour Γ le bord d’un domaine quelconque ω ⊂ Ω, on en déduit en utilisant la formule de


Green (1.3) Z
∇ . Φ(x) dω = 0
ω
et donc, le domaine ω étant quelconque

∇ . Φ(x) = 0

Dans un problème d’évolution, si la variation d’une grandeur définie par une densité ρ(x, t) se traduit
par un flux Φ(x, t), le flux de ce champ à travers le bord de ω vérifie
Z Z
∂ρ
Φn ds + dω = 0
Γ ω ∂t

et donc Z
∂ρ
+ ∇ . x Φ dω = 0
ω ∂t
d’où
∂ρ
+ ∇ . xΦ = 0
∂t
Noter que cette équation s’écrit aussi
∇ . x,t Φ = 0

Exemples
− Soit un fluide de concentration c(x) qui diffuse dans un corps poreux. La diffusion est repré-
sentée par un flux de matière Φ(x). La loi empirique de la diffusion (Loi de Fick) suppose que le
flux Φ est proportionnel au gradient de concentration Φ = −k∇c. La conservation de la matière en
régime permanent implique la nullité du flux total à travers un contour quelconque et s’écrit donc

∇ . Φ = ∇ . (−k∇c) = 0

ECP 2006-2007 22
CHAPITRE 1. RAPPELS ET PRÉREQUIS 23

− Soit un fluide de masse volumique ρ(x, t) dont le mouvement est décrit par le champ de vitesse
u(x, t) ∈ R3 . Le flux de matière est Φ = ρu. La conservation de la masse dans le mouvement se
traduit par
∂ρ
+ ∇ . ρu = 0
∂t

1.4.2 Les principes d’extrémalité


Problème de statique
Limitons nous à l’étude d’un système mécanique, mais il existe de tels principes dans tous les
domaines de la physique. Les problèmes de statique peuvent s’écrire sous la forme d’un principe de
minimum, en l’absence de frottement et si le champ de force dérive d’un potentiel :
Théorème 8 (Principe du minimum de l’énergie) La position u d’un système est un minimum de
l’intégrale
J(u) = E(u) − W (u)
est l’énergie potentielle totale, E(u) est l’énergie interne, W (u) le potentiel des forces appliquées. .
Si le système est un solide élastique occupant un domaine Ω les grandeurs comme l’énergie interne
sont des intégrales de fonctions des dérivées de la position u. Nous verrons au chapitre 3, en étudiant
le calcul des variations que le minimum de
J(u)
est alors solution d’une équation aux dérivées partielles du second ordre : l’équation d’Euler.

Problème de dynamique
De même limitons nous à l’étude de l’évolution d’un système mécanique. Les problèmes de dy-
namique peuvent s’écrire sous forme “lagrangienne”, en l’absence de frottement et si le champ de
force dérive d’un potentiel :
Théorème 9 (Lagrange) La trajectoire q(t) d’un système est une extrémale de l’intégrale
Z T
A(q) = L(q, q 0 ) dt
0

où A(q) est l’action lagrangienne,et

L(q, v) = T (q, v) − W (q, v)


le lagrangien du problème, T (q, v) est l’énergie cinétique, W (q, v) le potentiel dont dérive le champ
de force.
Notons qu’ici l’extrémum n’est pas toujours un minimum. Si le système est un milieu continu occu-
pant un domaine Ω l’énergie cinétique est une intégrale du carré de la vitesse et donc de fonctions des
dérivées de l’état u. Nous verrons (chapitre 3) que cela implique que la trajectoire est une solution
d’une équation aux dérivées partielles du second ordre, l’équation d’Euler-Lagrange.

23 Mathématiques 2
24 Analyse des équations aux dérivées partielles

ECP 2006-2007 24
Chapitre 2

Exemples d’équations aux dérivées


partielles

Objectifs
Nous présentons dans ce chapitre les “problèmes modèles” pour l’étude des équations aux déri-
vées partielles ainsi que les grands problèmes de la physique mathématique.

2.1 Les problèmes linéaires canoniques


2.1.1 Un problème aux limites elliptique linéaire : l’équation de Poisson
L’équation de Poisson
On considère :
− un domaine borné Ω ⊂ R2 de bord Γ “régulier”1 .
− une fonction f (x) ∈ C 1 (Ω) et une fonction g ∈ C(Γ) ;
On cherche une fonction u ∈ C 2 (Ω) solution du problème aux limites

−k∆u(x) = f (x) si x ∈ Ω
(2.1)
u(x) = g si x ∈ Γ

− C’est un“problème aux limites” car la solution est déterminée par des conditions en tous les points
du bord du domaine.
− C’est un problème linéaire car l’opérateur aux dérivées partielles −∆ est linéaire.
− Nous verrons au chapitre 4 la définition d’un opérateur elliptique, elle est liée à la proposition (13)
ci-dessous.
Ce problème se retrouve dans tous les domaines de la physique, citons en particulier :
− Si g = 0, (2.1) est l’équation qui détermine la flèche u(x) des membranes tendues, chargées par
1
Nous ne préciserons pas cette notion, les domaines formés par l’intérieur d’une courbe C 1 et sans point double
conviennent...

25
26 Analyse des équations aux dérivées partielles

une densité f et fixées au bord (cf. séance 2).


− Si f (x) = ρ(x)0 , (2.1) est l’équation qui détermine le potentiel électrostatique u(x) créé par une
densité de charge ρ(x) dans un domaine où le potentiel est connu sur le bord.
− L’équation (2.1) est l’équation de la diffusion de la chaleur dans une plaque mince en régime per-
manent, u(x) est la température au point x, f est la densité de chaleur fournie en chaque point et g
étant une température connue sur le bord (cf. séance 4).
− Si f = 0, (2.1) est l’équation des écoulements irrotationnels et incompressibles, u(x) est alors le
potentiel des vitesses.
− Le Laplacien ∆ est le seul opérateur du second ordre invariant par rotation des axes, c’est ce qui
explique sa présence dans les équations de milieux isotropes.
Nous verrons au chapitre 4 que la propriété fondamentale du problème (2.1) est le principe du mini-
mum de Dirichlet :
soit
U0 = {v ∈ C 2 (Ω) / v|Γ = g}
définissons la fonction énergie potentielle :
Z
k
J (v) = k∇vk22 − f v dΩ (2.2)
Ω 2
La solution u de (2.1) est aussi solution du problème d’optimisation

∀v ∈ U0 J (u) ≤ J (v) (2.3)

On en déduit (cf. chapitre 4 et 6) la proposition :


Proposition 9 Le problème (2.1) admet une solution u et une seule.
Les conditions mises sur f et g sont beaucoup trop restrictives, mais pour les étendre il nous faudra
aussi étendre le sens donné à une solution du problème : si f est simplement continue il n’existe pas
toujours de solution dérivable en tout point.

Cas particulier : l’équation de Laplace


Si f = 0, on obtient une équation de Laplace :

−k∆u(x) = 0 si x ∈ Ω
(2.4)
u(x) = g si x ∈ Γ

La fonction u vérifie ∆u = 0, c’est une fonction harmonique, le problème est donc de déterminer
une fonction harmonique en connaissant ces valeurs aux bords. La théorie des fonctions harmoniques
est très développée, rappelons la propriété essentielle (cf Cours Analyse 1) :
Proposition 10 Une fonction harmonique est localement la partie réelle d’une fonction analytique.
Une fonction u(x) est harmonique si et seulement si elle vérifie la propriété de la moyenne
Z 2π
1
u(x) = u(x + r exp iθ) dθ
2π 0

ECP 2006-2007 26
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 27

− Noter que l’équation ∆u(x) = 0 qui est du second ordre est formellement équivalente, après
élimination de v, au système du premier ordre
∂u ∂v

 ∂x = ∂y


(2.5)
 ∂u ∂v

 =−
∂y ∂x
Ces équations forment les conditions de Cauchy reliant les parties réelles et imaginaires d’une fonc-
tion analytique.
− En utilisant les propriétés des fonctions analytiques on construit des solutions particulières de (2.4)
dans des domaines simples. Par exemple si Ω est le disque {x / kxk ≤ 1} on a
Z 2π
1 g(φ)(1 − r2 )
u(r, θ) = 2

2π 0 (r − 2r cos(θ − φ) + 1)
− On retrouve, en appliquant la formule précédente au centre d’un petit disque quelconque, qu’une
fonction harmonique vérifie la propriété de la moyenne (proposition 10).
− Une fonction harmonique sur Ω est C ∞ dans l’intérieur de Ω et même localement développable en
séries entières puisqu’elle est la partie réelle d’une fonction analytique. On en déduit qu’une solution
de (2.4) est régulière.
− Parce qu’elle est localement développable en séries entières, une solution de (2.4) ne peut être
localement nulle sans être partout nulle ; on en déduit qu’une perturbation locale de la donnée au bord
g entraîne une perturbation de la solution sur tout le domaine Ω : il n’y a pas d’effet à distance finie.
− Une fonction harmonique vérifie le principe du maximum :
Proposition 11 Les extrémums d’une fonction harmonique sur Ω sont atteints sur le bord de Ω.
C’est une conséquence de la formule de la moyenne. Cela implique
kuk∞ ≤ kgk∞
et donc la continuité, pour la norme infinie, de la solution u du problème de Laplace par rapport à
la donnée g sur le bord. Une fonction harmonique nulle sur le bord de Ω est donc nulle partout. On
en déduit l’unicité de la solution de (2.4) car si on a deux solutions leur différence est une fonction
harmonique nulle sur le bord et donc nulle partout.
Remarque : pour un domaine Ω de forme quelconque, il n’y a pas de solution explicite de (2.4), ex-
primée à l’aide d’intégrales ou de séries de fonctions usuelles. La dépendance de la solution d’un
problème aux dérivées partielles par rapport à la forme du domaine est non linéaire et elle trop com-
plexe pour s’exprimer par une formule : c’est une des difficultés majeure de la théorie des équations
aux dérivées partielles.
Résumons les propriétés de l’équation de Laplace
Proposition 12 Propriétés de l’équation de Laplace :
− la solution vérifie le principe du maximum (Proposition 11),
− la solution est régulière,
− une perturbation locale est à distance d’influence infinie,
− la solution vérifie le principe du minimum de Dirichlet (2.3).

27 Mathématiques 2
28 Analyse des équations aux dérivées partielles

Cas particulier : le problème aux limites homogènes

Si g = 0 le problème (2.1) est dit aux limites homogènes



−k∆u(x) = f si x ∈ Ω
(2.6)
u(x) = 0 si x ∈ Γ

Nous verrons en détail au chapitre 4 la proposition

Proposition 13 Soit
V0 = {u ∈ C 2 (Ω) / u|Γ = 0}

L’opérateur −∆, considéré comme un opérateur de L2 (Ω) dans lui même de domaine V0 , est symé-
trique défini positif.

Les propriétés des opérateurs symétrique définis positifs seront essentielles pour analyser ce pro-
blème.
– On montre que la solution de (2.6) est C ∞ dans tout disque où f est C ∞ (on dit que l’opérateur
∆ est hypo-elliptique).
– On montre que, si f ≥ 0 on a u ≥ 0 sur Ω, et de même, si f ≤ 0 on a u ≤ sur Ω. Ce qui
implique que si f1 ≥ f2 on a u1 ≥ u2 , ou, en d’autre termes, l’opérateur qui à une fonction f
associe la solution u de (2.6) est croissant au sens de l’ordre naturel sur les fonctions.
– Si Ω est R2 tout entier, si f est à support compact et si on astreint u à être nulle à l’infini alors
on a pour la solution une expression explicite bien connue en électrostatique
Z
1
u= ln kx − ykf (y) dΩ
2π R2

– Si Ω = [0, π] × [0, π] est un carré on obtient une solution explicite sous la forme d’un dévelop-
pement en série de Fourier2

X fn,p
u= sin nx sin py (2.7)
n,p
n2 + p2


Z π Z π
4
fn,p = 2 f (x, y) sin nx sin py dxdy
π 0 0

2
La convergence de cette série dépend de la vitesse de convergence vers 0 des coefficients de Fourier fn,p de la fonction
f , qui est d’autant plus rapide que la fonction f est plus régulière. Si la fonction f est très régulière la série converge
ponctuellement et peut être dérivée deux fois termes à termes, ce qui permet de justifier son expression et de justifier
l’existence d’une solution C 2 au problème (2.6). Si la fonction f est seulement continue, la série ne converge pas toujours
ponctuellement : en fait le problème n’admet pas toujours de solution au sens ordinaire, il faut utiliser les formulations
faibles ou les distributions pour donner un sens à (2.7), voir le chapitre 6

ECP 2006-2007 28
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 29

2.1.2 Un problème d’évolution, parabolique linéaire : l’équation de la diffusion


L’équation de la diffusion
On cherche une fonction u(x, t) du point d’abscisse x, au temps t, u ∈ C 2 ([0, 1]×[0, T ]) solution
du problème  2
 ∂u = c ∂ u
 x ∈]0, 1[
 ∂t ∂x2

(2.8)


 u(x, 0) = u 0 (x)
u(0, t) = u(1, t) = 0

Ce problème modélise les phénomènes de diffusion unidimensionnel : la diffusion de la chaleur


(u(x, t) est la température du point x au temps t) ou la diffusion d’un fluide dans un milieu poreux
(u(x, t) est alors la concentration du fluide au point x et au temps t). Il est proche d’un problème
classique de mathématiques financières, l’équation de Black et Scholes ( cf. séance 5 et 6).
C’est un problème de Cauchy, ou à valeur initiale : au temps t = 0, l’état initial est donné, le problème
est de déterminer l’évolution ultérieure. La détermination de la solution est complétée par la donnée
de conditions aux limites sur x. Nous verrons la définition des équations paraboliques au chapitre 5,
elle est liée au caractère dissipatif de l’évolution que nous montrerons ci-dessous.

Expression de la solution
Développement en séries de Fourier
On peut obtenir une expression de la solution de (2.8) sous la forme d’un développement en série de
Fourier
X
u(x, t) = ak (t) sin (kπx) (2.9)
k
Les conditions aux limites sont automatiquement vérifiées. En reportant dans l’équation (2.8), il vient

a0k (t) = −k 2 π 2 cak (t)

d’où l’on déduit, en introduisant un coefficient ak ,

ak (t) = ak exp (−k 2 π 2 ct)

et donc X
u(x, t) = ak exp (−k 2 π 2 ct) sin (kπx) (2.10)
k

où la constante ak est définie par la condition initiale comme un coefficient de Fourier de u0 (x)
Z 1
ak = 2 u0 (x) sin (kπx) dx
0

Noter que la série converge très vite, elle est dérivable terme à terme autant de fois que l’on veut, cela
implique que la solution est C ∞ quelle que soit la régularité de la donnée initiale.

29 Mathématiques 2
30 Analyse des équations aux dérivées partielles

Forme intégrale
Si on remplace dans (2.8) l’intervalle ]0, 1[ par R on peut trouver une expression intégrale de la
solution de (2.8) Z +∞
1 y2
u(x, t) = u0 (x − y) p exp(− ))dy
−∞ (4πct) 4ct
Au paragraphe (3.1.6) du chapitre 3 nous verrons comment on peut utiliser la transformation de
Fourier pour trouver cette expression. Nous allons en donner une justification intuitive. Posons

1 x2
G(x, t) = p exp(− )
(4πct) 4ct

Il est immédiat de vérifier que G(x, t) est une solution de (2.8). Cette solution est d’intégrale constante3
Z
G(x, t) dx = 1
R

Et quand t → 0 la fonction G(x, t) se concentre autour du point 0, elle s’interprète donc physique-
ment comme la diffusion d’une densité concentrée au point 0, elle correspond à une condition initiale
de type Dirac en 0 (cf. chapitre 6).
On en déduit intuitivement que la solution générale de (2.8), toujours dans le cas où on a remplacé
l’intervalle [0, 1] par R, est obtenue par superposition des solutions associées à des densités concen-
trées u0 (y) placées en un point y quelconque
Z +∞
u(x, t) = u0 (y)G(x − y, t)dy (2.11)
−∞

On vérifie directement par dérivation sous l’intégrale que u(x, t) est bien solution de (2.8). De plus
quand t → 0, l’intégrale définie par (2.11) tend4 vers u0 .

Propriétés de la solution
− L’expression (2.11) montre qu’une perturbation localisée au temps t = 0 est non nulle pour
tout t > 0, autrement dit la vitesse de propagation d’une perturbation est infinie (mais on peut noter
x2
que l’effet est négligeable si 4ct est grand).

− Les expressions (2.10) et (2.11), montrent que la solution est C ∞ pour tout temps t > 0 quelle
que soit la régularité de la valeur initiale : l’équation est régularisante. On notera que la solution a un
R √
R
3 +∞ 2
Rappelons la formule : −∞ exp(− t2 ) dt = 2π.
4 +∞
Intuitivement, pour étudier la limite quand t → 0 de −∞
G(x, t)φ(x)dx où φ ∈ D(R) est = φ(0) ; on découpe

Z Z Z Z
l’intégrale en trois partie :
+∞ − + +∞
G(x, t)φ(x)dx = G(x, t)φ(x)dx + G(x, t)φ(x)dx + G(x, t)φ(x)dx

R
−∞ −∞ − 

+
La première et la troisième intégrales tendent vers 0 tandis que la deuxième vaut à peu près φ(0) −
G(x, t) dx = φ(0)
pour t petit, par continuité de φ(x) en 0 et parce que G(x, t) est concentré autour de 0 pour t petit.

ECP 2006-2007 30
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 31

sens même pour des données initiales u0 (x) très irrégulières.

− La présence d’une exponentielle décroissante montre que la solution, ainsi que toute perturba-
tion de la solution, tend rapidement vers 0.

− Ces mêmes expressions montrent que la solution n’a pas de sens si on inverse le temps : pour
t < 0 les expressions “explosent”, ce qui traduit l’instabilité fondamentale du “problème inverse” de
la diffusion : trouver l’état initial connaissant l’état à un temps t > 0.

− On a
d 1 2
Z 1 Z 1
∂2u
Z
∂u
u dx = 2u dx = c 2u 2 dx (2.12)
dt 0 0 ∂t 0 ∂t
d’où en intégrant par parties la dernière intégrale et en notant que le “crochet” est nul
d 1 2 ∂u 2
Z Z 1
u dx = −c 2 dx < 0
dt 0 0 ∂t
On en déduit la décroissance de kuk22 : nous dirons que l’équation est dissipative.

− La solution de (2.8) vérifie le principe du maximum : le maximum de u, à t fixé, est décroissant


par rapport à t, le minimum est croissant.
2
Intuitivement en un point où u est maximum, ∂∂xu2 est négatif, donc u décroissant (cet argument est
2
formellement insuffisant, car ∂∂xu2 peut être nul). Noter que cette propriété n’apparaît pas du tout sur
la forme (2.10) de la solution par développement en série de Fourier : ce qui montre qu’avoir une
“expression analytique” de la solution n’est pas une panacée !
Ces deux dernières propriétés montrent la grande stabilité du problème de la diffusion. Résumons les
propriétés de la solution :
Proposition 14 L’équation de la diffusion est :
− dissipative,
− irréversible,
− à vitesse de propagation infinie,
− régularisante.

2.1.3 Une équation linéaire du premier ordre : l’équation d’advection


L’équation d’advection
C’est le plus simple de tous les problèmes aux dérivées partielles et un des rares problèmes dont
la solution est explicite. On cherche une fonction u(x, t) du point d’abscisse x, au temps t, u ∈
C 1 ([0, 1] × [0, T ]) solution du problème
 ∂u ∂u
 +a =0
 ∂t ∂x



u(x, 0) = u0 (x) (2.13)





u(0, t) = g(t)

31 Mathématiques 2
32 Analyse des équations aux dérivées partielles

a est un réel positif, u0 et g sont des fonction C 1 quelconques, mais compatible à l’origine : u0 (0) =
g(0), u00 (0) = g 0 (0).
Ce problème modélise, comme nous le mettrons en évidence par l’expression de la solution, des
phénomènes de transport. C’est un problème de Cauchy, ou à valeur initiale : au temps t = 0 l’état
initial u0 est donné, le problème est de déterminer l’évolution ultérieure. Notons que la détermination
de la solution est complétée par la donnée d’une seule condition aux limites sur x. Nous verrons que
les conditions aux limites nécessaires à la détermination de la solution dépendent ici des valeurs des
coefficients de l’équation.

Solution du problème
Définissons les droites caractéristiques :

Définition 6 Les droites caractéristiques dans le plan (x, t) de l’équation (2.13) sont les droites x −
at = Cte

Les droites caractéristiques forment donc une famille de droites parallèles.

Proposition 15 Une fonction u(x, t) ∈ C 1 est solution de (2.13) si et seulement si u est une fonction
constante sur les droites caractéristiques.

En effet , sur une droite caractéristique on a x(t) = Cte + at, donc si u est solution de (2.13)

du(x(t), t) ∂u 0 ∂u ∂u ∂u
= x (t) + =a + =0
dt ∂x ∂t ∂x ∂t
On en déduit que la solution est déterminée en un point (x, t) dès qu’elle est connue en un point de la
droite caractéristique passant par ce point. Si on considère toutes les droites caractéristiques passant
par les points (x, 0) avec x ∈ [0, 1] ou par les points (0, t) la solution est déterminée en tous points
de ces droites. Remarquons que si a est négatif, une droite caractéristique passant par un point (x, 0)
recouperait l’axe (0, t), on ne pourrait pas définir indépendamment des conditions sur l’axe (x, 0) et
sur l’axe (0, t) : la possibilité de fixer des conditions aux limites dépend ici du signe de a.
On en déduit l’expression de la solution

Proposition 16 La solution u(x, t) de (2.13) est définie par :

u(x, t) = u0 (x − at) si x ≥ at (2.14)


x
u(x, t) = g(t − ) si x ≤ at (2.15)
a
Interprétation physique : L’équation d’advection modélise un simple phénomène de transport :
u(x, t) représente une grandeur transportée par un fluide de vitesse a dans un tube de longueur 1,
u0 (x) est l’état initial du tube, tandis que g(t) est l’état en entrée du tube, “entrée” devant être pris au
sens de l’écoulement, si a > 0 l’entrée est le point 0, si a < 0 l’entrée est le point 1. Selon la vitesse
il faut donc fixer une condition à gauche ou à droite.
Remarque 1 : Si x = at il y a deux définitions pour u(x, t) rendue compatible par les conditions

ECP 2006-2007 32
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 33

u0 (0) = g(0), u00 (0) = g 0 (0) précisées dans les données et qui rendent u(x, t) continûment dé-
rivable. Notons que d’un point de vue physique la solution correspondant à un transport a un sens
même si ces conditions ne sont pas vérifiées : dans certains problèmes l’hypothèse que les solutions
sont C 1 n’est qu’une exigence mathématique, la solution physique n’est pas nécessairement conti-
nue ; mais alors comment donner un sens à l’équation ? Nous verrons qu’il faut l’interpréter au sens
des distributions.
Remarque 2 : On voit que dans ce problème, quoique très simple, la possibilité de fixer des valeurs au
bord est un problème délicat : c’est général dans les problèmes hyperboliques.

2.1.4 Un problème d’évolution, hyperbolique linéaire : l’équation des ondes


L’équation des ondes

On cherche une fonction u(x, t) du point d’abscisse x, au temps t, u ∈ C 2 ([0, 1]×[0, T ]), solution
du problème
 2 2
∂ u 2∂ u
= c


∂t2 ∂x2







 u(x, 0) = u (x)
0
(2.16)
 ∂u

 (x, 0) = 0
∂t






u(0, t) = u(1, t) = 0

où u0 (x) ∈ C 2 ([0, L]) est la position initiale. Ce problème se retrouve dans tous les domaines de la
physique, pour modéliser des phénomènes vibratoires unidimensionnels : les cordes vibrantes (u(x, t)
est la position du point x au temps t), les ondes sonores dans un tuyau.... C’est un problème de Cauchy,
ou à valeur initiale : au temps t = 0 l’état initial est donné (position u0 et vitesse nulle pour les cordes
vibrantes), le problème est de déterminer l’évolution ultérieure. Notons que la détermination de la
solution est complétée par la donnée de conditions aux limites sur x. Nous verrons la définition de
l’hyperbolicité au chapitre 5.

Formes équivalentes de l’équation

Système du premier ordre


2 2
L’équation ∂∂t2u = c2 ∂∂xu2 qui est du second ordre est formellement équivalente au système du premier
ordre
∂u ∂v


 =c
∂t ∂x (2.17)
 ∂v = c ∂u

∂t ∂x
Le problème apparaît naturellement sous cette forme dans l’étude des ondes sonores dans un tuyau
(cf. 2.39).

33 Mathématiques 2
34 Analyse des équations aux dérivées partielles

Réduction par changement de variables


Effectuons le changement de variables

X = x + ct, Y = x − ct

Il vient
X +Y X −Y
u(x, y) = u( , ) = ũ(X, Y )
2 2c
On en déduit
∂ 2 ũ
=0
∂X∂Y
∂2u 2
L’équation ∂t2
= c2 ∂∂xu2 est donc formellement équivalente à l’équation

∂ 2 ũ
=0 (2.18)
∂X∂Y
dont la solution, obtenue par deux intégrations successives, a la forme

ũ(X, Y ) = g(X) + h(Y )

(cf. au paragraphe suivant (2.21)).

Décomposition de l’opérateur
En conservant les variables initiales, (2.18) équivaut à écrire l’opérateur aux dérivées partielles dans
équation (2.16) sous la forme :

∂ ∂ ∂ ∂
( + c )( − c )u = 0 (2.19)
∂t ∂x ∂t ∂x
Posons
∂u ∂u
v(x, t) = ( −c )
∂t ∂x
L’équation (2.19) implique
∂v ∂v
(
+c )
∂t ∂x
v est donc solution d’une équation d’advection, et d’après (15) cela implique que v est constante sur
les droites d’équation x − ct = Cte.
De même en posant
∂u ∂u
w(x, t) = ( +c )
∂t ∂x
et en permutant les deux opérateurs aux dérivées partielles dans (2.19) on montre que que w(x, t)
est constante sur les droites d’équation x + ct = Cte. Les droites d’équation x − ct = Cte et
x + ct = Cte sont appelées les caractéristiques, tandis que les fonctions v et w, qui sont constantes
sur les caractéristiques, sont les invariants de Riemann. La détermination des deux invariants permet
de calculer la solution comme nous le détaillerons plus bas.

ECP 2006-2007 34
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 35

Solutions particulières
Définition 7 On appelle harmoniques les solutions de l’équation des ondes qui représentent des mou-
vements dont tous les points oscillent en phase

u(x, t) = u(x)v(t)

Les harmoniques sont de la forme

uk (x, t) = ak sin kπx cos (kπct + φk )

Noter que les fonctions vk (x) = ak sin kπx qui définissent la forme des harmoniques sont par
construction les fonctions propres du problème de statique associé au problème de vibration
2

 − d vk = k 2 π 2 vk

dx2 (2.20)

u(0, t) = u(1, t) = 0

Développement en séries de Fourier


On a une expression de la solution sous la forme d’une superposition d’harmoniques, i.e. d’un déve-
loppement en série de Fourier
X
u(x, t) = ak cos (kπct) sin (kπx)
k

où Z 1
ak = 2 u0 (x) sin (kπx) dx
0

Noter que la convergence de la série peut être lente (comparer avec (2.10)), elle est de l’ordre de la
série de terme général ak , qui est le coefficient de Fourier de u0 : or si u0 (x) est une fonction irrégu-
lière, sa série de Fourier converge lentement.

Ondes planes
Si le domaine est R on peut trouver des solutions particulières sous la forme d’ondes planes, i.e. de
fonctions de la forme u(x, t) = f (x − at), il vient

∂2u 2
2∂ u
− c = (a2 − c2 )f 00 (x + at)
∂t2 ∂x2

Le second membre est nul si a = ±c. Ce qui montre que, si f (x), g(x) sont deux fonctions C 2
quelconques, les fonctions
u(x, t) = f (x − ct)
et
u(x, t) = g(x + ct)

35 Mathématiques 2
36 Analyse des équations aux dérivées partielles

sont des solutions particulières de (2.16).


On retrouve ce résultat en intégrant l’équation (2.18), il vient

∂ ũ(X, Y ) ∂ ũ(0, Y )
=
∂Y ∂Y
puis
Z Y
∂ ũ(0, z)
ũ(X, Y ) = dz + ũ(X, 0)
0 ∂Y
RY ∂ ũ(0,z)
d’où en posant h(Y ) = 0 ∂Y dz et g(X) = ũ(X, 0)

ũ(X, Y ) = g(X) + h(Y )

ou, en revenant aux variables initiales,

u(x, t) = g(x + ct) + h(x − ct) (2.21)

où g et h sont deux fonctions C 2 quelconques.

Expression de la solution

En utilisant (2.21) on peut obtenir une expression de la solution de (2.16). Il suffit de déterminer
g et h de façon que u(x, 0) = u0 (x) et ∂u
∂t (x, 0) = 0, il vient

1
g(x) = h(x) = u0 (x)
2
et donc
(u0 (x + ct) + u0 (x − ct))
u(x, t) = (2.22)
2
Si nous considérons que dans (2.22) u0 (x) est prolongé par antisymétrie sur [−1, 1] puis rendue pério-
dique de période 2 sur tout R, l’expression (2.22) est valable pour tout couple (x, t) et les conditions
aux limites sont vérifiées
u(0, t) = u0 (ct) + u0 (−ct) = 0

et
u(1, t) = u0 (1 + ct) + u0 (1 − ct) = u0 (−1 + ct) + u0 (1 − ct) = 0

Donc (2.22) définit bien une solution du problème (2.16). Nous avons donc montré la proposition :

Proposition 17 Le problème (2.16) admet une solution et une seule

u0 (x + ct) + u0 (x − ct)
u(x, t) =
2

ECP 2006-2007 36
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 37

Propriétés de la solution

− Les conditions de régularité que nous avons posées sur u0 sont beaucoup trop restrictives, mais
pour les étendre il nous faudra aussi étendre le sens donné à une solution du problème : si u0 est
simplement continue mais non dérivable la solution (2.22) de (2.16) a bien un sens mathématique et
physique mais elle n’est pas dérivable ! Comme pour l’équation d’advection les solutions physiques
ont un sens qui dépasse le cadre mathématique des fonctions C 1 . Nous verrons qu’il faut poser l’équa-
tion aux dérivées partielles au sens des distributions.

− La forme (2.22) de la solution fait apparaître celle-ci comme la superposition de deux ondes
planes se propageant dans chaque sens à la vitesse c ; en utilisant la linéarité de l’équation on en déduit
que toute perturbation de la solution a encore cette propriété : le problème est à vitesse de propagation
finie. Plus précisément, la solution à l’instant t ne dépend que des valeurs antérieures sur les droites
caractéristiques x + ct = Cte et x − ct = Cte.

− A la différence de l’équation de la diffusion qui est dissipative, l’équation des ondes est conser-
vative : on montre par la même méthode que (2.12) la proposition :

Proposition 18 conservation de l’énergie totale


Une solution de l’équation des ondes conserve l’énergie totale

ZL
∂u 2 ∂u
( ) + c2 ( )2 dx = Cte (2.23)
∂t ∂x
0

On en déduit directement l’unicité de la solution. Cette propriété est essentielle car la conservation de
l’énergie garantit que la solution est stable vis à vis d’une perturbation des données.

− La forme 2.22 de la solution fait apparaître que les singularités de la solution (i.e. les points
où elle n’est pas C ∞ ) se propagent : contrairement à l’équation de la diffusion, l’équation des ondes
n’est pas régularisante.

− Nous avons cherché une solution de (2.16) pour t > 0 mais la solution calculée a un sens pour
t < 0 : le problème inverse, retrouver l’état initial à partir de l’état à un temps t > 0, a un sens pour
l’équation des ondes, contrairement à l’équation de la diffusion.
Résumons les propriétés de la solution que nous avons obtenues :

Proposition 19 L’équation des ondes est :


− conservative : les invariants de Riemann sont conservés sur les caractéristiques, l’énergie totale
est constante.
− à vitesse de propagation finie,
− réversible,
− non régularisante.

37 Mathématiques 2
38 Analyse des équations aux dérivées partielles

2.2 Les problèmes classiques de la physique mathématique


2.2.1 Les équations de transport ou de convection avec réaction et diffusion
On se propose d’étudier un problème de convection ou transport avec réaction diffusion, c’est à
dire un modèle simplifié de réaction chimique dans un fluide en mouvement avec prise en compte de
la diffusion de la chaleur. Un gaz est envoyé dans une enceinte remplie d’un métal en poudre et il
crée avec celui-ci une réaction chimique fortement exothermique. La température d’entrée du gaz est
choisie pour activer la réaction. On se propose de déterminer l’évolution de la température du gaz.

Γ
2

Γ V(x) Ω Γ
0 1
+
Γ
2

Γ
2

F IG . 2.1 – Un problème de convection réaction diffusion

Données et hypothèses
Nous étudions un modèle très simplifié en négligeant de nombreux phénomènes.
– Le domaine dans lequel a lieu l’écoulement est Ω ⊂ R2 (pour simplifier) de bord Γ formé de
trois parties Γ0 , Γ1 , Γ2 (voir schéma (2.1)).
– On note u(x, t) la température du gaz (translatée par une température de référence), au point x
et au temps t.
– On note c (resp. k) la chaleur spécifique (resp. la conductivité) du gaz.
– La vitesse du gaz est définie par un champ de vitesse V ~ . On suppose que les débits totaux sur
l’entrée Γ0 et la sortie Γ1 sont égaux et que la masse volumique est constante. On a Vn = 0 sur
les parois (Γ2 ). On suppose que les parois sont thermiquement isolées.
– La réaction produit un dégagement de chaleur par unité de volume de gaz λf (u(x)) avec
u
f (u) = exp( 1+µu ) où λ est un paramètre et µ est une constante qui peut être assez petite.
– La température initiale u0 (x) est connue.
Le problème est essentiellement un transport d’énergie dans un fluide en mouvement avec diffusion
et production de chaleur. On note Φ le vecteur flux de chaleur provenant de la convection et de la
diffusion. On a
Φ = c (V u) − k∇u

ECP 2006-2007 38
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 39

le premier terme représentant le flux de chaleur transporté, le deuxième le flux de chaleur diffusé. La
loi de conservation de l’énergie s’écrit
 ∂u
c + ∇ . Φ = λf (u)
 ∂t


u = u0 sur Γ0
(2.24)

 u = u1 sur Γ1
Φn = 0 sur Γ2

On en déduit que u est solution du problème non linéaire


 ∂u

 c ∂t + c ∇ . (V u) − k∆u − λf (u) = 0
 u = u0 sur Γ0


u = u1 sur Γ1 (2.25)
k ∂u = 0 sur Γ2


 ∂n


u(x, 0) = u0 (x) sur Ω
C’est un “problème de Cauchy”, c’est à dire un problème d’évolution dont la solution se calcule de
proche en proche à partir d’un état initial donné.

Analyse de l’équation
− Si k 6= 0, V = 0 et λ = 0, on retrouve une équation de diffusion de la chaleur, avec les mêmes
propriétés que dans l’équation (2.8).

− Si k = 0 l’équation est une équation de transport, nous verrons au chapitre 5 qu’elle est hyper-
bolique. La solution a des propriétés semblables à celle de l’équation d’advection étudiée ci-dessus,
notamment il est nécessaire de retirer la condition aux limites en sortie, i.e. sur le bord Γ1 , pour que
le problème soit cohérent.

− Noter que le terme source λf (u) influence l’étude asymptotique de la solution pour t → +∞ :
par exemple si k = 0, V = 0 et µ = 0 ,on a f (u) = exp u et on obtient une équation différentielle
que l’on peut intégrer
λ
u(x, t) = − ln(exp (−u0 (x)) − t)
c
Il y a une explosion de la température en un temps fini tc = λc exp u0 (x). Si V 6= 0 le phénomène ne
se produit que si la vitesse n’est pas trop grande, sinon le fluide est sorti de l’enceinte avant l’explo-
sion. Si µ 6= 0 est petit, il n’y a pas d’explosion mais une forte élévation de température.

− Si k 6= 0 et si les températures en entrée u0 et en sortie u1 sont fixées, la solution atteint un état


limite solution de (2.25) avec ∂u
∂t = 0. Pour µ = 0 cet état limite n’existe pas pour λ grand : il peut y
avoir explosion.

2.2.2 La diffusion avec rayonnement


On considère un solide occupant un domaine Ω ⊂ R3 . On étudie la répartition de la chaleur en
régime permanent en prenant en compte les échanges de chaleur sur le bord par convection sur le

39 Mathématiques 2
40 Analyse des équations aux dérivées partielles

bord Γ0 et par rayonnement sur le bord Γ1 . Ce qui se modélise de la façon suivante :




 Φ = −k ∇T Loi de Fourier
 ∇. Φ=0 Conservation de l’énergie
(2.26)

 Φ.n = c0 (T − T0 ) sur le bord Γ0 Échange convectif
Φ.n = c1 (T 4 − Te4 ) sur le bord Γ1 Échange par rayonnement

On remplace la fonction T (x) par u(x) et on pose q(x) = c0 T0 sur Γ0 et q(x) = c1 Te4 , il faut donc
trouver la solution u(x) du problème :

 −k∆u = 0
∂u
−k ∂n = c0 u − q sur le bord Γ0 (2.27)
∂u 4
−k ∂n = c1 u − q sur le bord Γ1

avec q(x) ≥ 0, c1 , c2 , T0 > 0. L’équation aux dérivées partielles est linéaire, c’est une équation
de Laplace (cf. 2.4), mais il y a une condition non linéaire sur un bord, ce qui rend le problème
globalement non linéaire. Nous étudierons ce type de problème au chapitre 4. Nous verrons que
l’équivalence de ce problème avec un problème d’optimisation permet de montrer l’unicité de la
solution car la fonction potentielle est strictement convexe.

2.2.3 L’élasticité linéaire


Mise en équation
La principale difficulté est dans les notations : nous manipulons des scalaires, vecteurs, matrices,
tenseurs... Suivant un usage courant en mécanique du solide, nous notons entre crochets [σ], [] les
matrices de contraintes et de déformations. Nous notons en gras les vecteurs contraintes σi ou σn et
déplacements v.
On considère un solide déformable occupant un domaine Ω ⊂ R3 , fixé sur une partie Γ0 de son
bord, laissé libre sur le bord Γ1 et soumis à une densité de force f . Sous l’hypothèse des petites
déformations on peut écrire les conditions d’équilibre sur la position non déformée, c’est à dire le
domaine Ω, les équations d’équilibre s’écrivent alors

 −∇ . [σ] = f sur Ω
u = 0 sur Γ0 (2.28)
σn = [σ]~n = 0 sur Γ1

où u(x) est le déplacement d’un point x, et [σ] la matrice des contraintes (noter que l’opérateur
divergence ici appliquée à une matrice, consiste en la divergence de chaque ligne).
Il faut compléter ces équations par la loi de comportement qui relie les contraintes et les déformations ;
un solide est élastique linéaire si cette loi s’écrit

[σ] = D[(u)] (2.29)


∂ui ∂u
où i,j (u) = 12 ( ∂xj
+ ∂xji ) définit la matrice des déformations, D définissant la loi de comportement
linéaire, soit en développant :
σi,j = Di,j,k,l k,l (2.30)

ECP 2006-2007 40
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 41

en sommant sur les indices répétés. En substituant (2.29) dans (2.28) on obtient un système de 3
équations aux dérivées partielles du second ordre. Pour un matériau isotrope on obtient les équation
de Navier

−(λ + µ)Grad(Divu) − 2µ∆u = f~ (2.31)

On complète ces équations par les conditions de fixation ou les chargement au bord du solide. Ces
conditions peuvent être variées, les plus simples sont :
− la fixation des déplacements d’un point du bord Γ0 (bord encastré) se traduit par u = 0,
− l’absence de toute force sur un bord, ce qui implique la nullité des contraintes normales sur le bord
Γ1 : σn = 0.
En conclusion les équations d’équilibre s’écrivent sous la forme d’un système linéaire de trois équa-
tions aux dérivées partielles du second ordre avec trois fonctions inconnues (u1 , u2 , u3 ) et trois condi-
tions aux limites en chaque point du bord portant sur les fonctions inconnues et leurs dérivées. Nous
montrerons que c’est un système elliptique. La complexité du problème n’est qu’apparente : nous
montrerons, à l’aide du principe de minimum de l’énergie, que le problème est équivalent à la mini-
misation d’un potentiel quadratique strictement convexe, ce qui implique l’unicité de la solution et
rend le problème formellement semblable au problème de Poisson (2.1).

Extension du modèle

– Pour des solides dont une dimension est très petite on construit des modèles limites : modèles
de coques et modèles de poutres. Dans ces modèles on ajoute des variables (les rotations)
et donc des équations, mais on réduit la dimension du problème (de volumique à surfacique
si on considère un solide mince comme une coque). Dans certains cas on peut éliminer les
variables supplémentaires, on obtient alors des équations aux dérivées partielles d’ordre 4 sur
les déplacements. Pour tous ces modèles le problème est équivalent à la minimisation d’un
potentiel quadratique strictement convexe.
– Pour des déformations importantes les équations d’équilibre doivent s’écrire sur le solide dé-
formé ce qui rend les équations non linéaires : c’est notamment nécessaire pour mettre en
évidence un phénomène comme le flambement ou la perte de stabilité d’une position d’équi-
libre.
– L’éventuelle non linéarité de la loi élastique ne modifie pas essentiellement le problème : il
suffit d’introduire un potentiel non quadratique dans les principes de minimum, la difficulté
vient de ce que les lois naturelles ne conduisent pas à des potentiels convexes. En revanche la
non réversibilité, notamment la plasticité, qui est un phénomène essentiel dans les problèmes de
l’ingénieur, oblige à poser différemment le problème et à considérer l’histoire du chargement :
on obtient un problème d’évolution. La plasticité se traduit par l’existence de seuil sur les
contraintes qui a pour conséquence la possibilité d’apparition de lignes de discontinuité des
déformations.

41 Mathématiques 2
42 Analyse des équations aux dérivées partielles

2.2.4 L’écoulement des fluides


Données et notations
Nous étudions un problème modèle dont les hypothèses seront discutées et modifiées ultérieure-
ment.
– Le domaine dans lequel a lieu l’écoulement est Ω ⊂ R2 de bord Γ.
– On note u(x, t) (resp. p(x, t)) la vitesse du fluide (resp. la pression), au point x et au temps t.
– On note µ le coefficient de viscosité du fluide, ρ sa masse volumique.
– La vitesse du fluide est supposée nulle sur les parois, notées Γ2 , égale à u0 (resp. u1 ) sur l’entrée
Γ0 (resp. la sortie Γ1 ). On suppose que les débits totaux sur Γ0 et Γ1 sont égaux.
∂ui
– On note σ (resp. ) la matrice des contraintes (resp. des vitesses de déformation i,j = 12 ( ∂x j
+
∂uj
∂xi )).
La loi de viscosité traduit le fait que les contraintes de cisaillement sont proportionnelles aux vitesses
de distorsions, i.e. le déviateur des contraintes est proportionnel aux déviateurs des vitesses :

σ = −pId + 2µ (2.32)

(Id est la matrice identité de dimension 2)

Fluides incompressibles
Les équations de la dynamique, jointes aux autres hypothèses, permettent de poser le problème
sous la forme
ρ ∂t + ρ∇ hu,ui
 ∂u

 2 −∇.σ =f
∇ . u = 0


u = u0 sur Γ0 (2.33)



 u = u1 sur Γ1

u = 0 sur Γ2
où f et un champ de forces et (∇ . σ est le vecteur obtenu en calculant la divergence de chaque ligne
de la matrice σ. On en déduit les équations de Navier-Stokes :

ρ ∂t + ρ∇ hu,ui
 ∂u

 2 − µ∆u + ∇p = f
∇ . u = 0


u = u0 sur Γ0 (2.34)

 u = u1 sur Γ1



u = 0 sur Γ2
où ∆u est le vecteur obtenu en calculant le laplacien de chaque composante de u. Notons que les
conditions aux limites que nous imposons sont assez arbitraires : il peut être plus naturel de fixer en
entrée et en sortie des valeurs de la pression ou de fixer une condition de non glissement un = 0 sur
les parois. L’incompressibilité implique une vitesse de propagation infinie des perturbations localisées
(intuitivement un fluide incompressible est la limite d’un fluide faiblement compressible ; or dans un
fluide compressible la vitesse relative de propagation, c’est à dire la vitesse du son, est d’autant plus
grande que le fluide est peu compressible).

ECP 2006-2007 42
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 43

C’est un système d’équations non linéaires que l’on peut écrire sous différentes formes équivalentes
notamment en introduisant le vecteur tourbillon ω = rotu.
Ce système est “parabolique” si µ 6= 0 et, si le coefficient de viscosité µ est “grand” relativement à
la vitesse et aux longueurs caractéristiques du modèle, sa solution a de bonnes propriétés de régula-
rité. Mais la viscosité est très faible pour des fluides comme l’eau ou l’air et les propriétés de cette
équation sont alors très complexes du fait de l’apparition de couches limites, de tourbillons et surtout
de la turbulence. L’existence globale, l’unicité et la régularité de la solution sont encore l’objet de
conjectures.

Modèles simplifiés
Si on néglige la viscosité, on obtient un modèle limite, les équations d’Euler incompressibles
ρ ∂t + ρ∇ hu,ui
 ∂u

 2 + ∇p = f
∇ . u = 0


un = u0 sur Γ0 (2.35)

 un = u1 sur Γ1



un = 0 sur Γ2
Notons que nous avons dû relâcher les conditions sur le vitesse : on montre que l’on ne peut pas fixer
toutes les composantes de la vitesse en un point du bord.
Le problème est toujours non linéaire mais les équations sont du premier ordre. Ce modèle a l’avan-
tage de permettre de trouver certaines solutions explicites et de simplifier certains phénomènes, les
couches limites devenant des discontinuités de la solution ; en contrepartie l’apparition de discontinui-
tés oblige à poser le problème en un sens étendu. L’hypothèse que le fluide est de plus irrotationnel,
i.e. rotu = 0, que l’on peut justifier aux petites vitesses, entraîne l’existence d’un potentiel Φ tel que
u = ∇Φ qui vérifie donc
∆Φ = 0
du fait de la condition d’incompressibilité. Compte tenu des conditions aux limites, Φ est solution
d’un problème de Laplace, que l’on peut (curieusement) résoudre directement sans utiliser les équa-
tions de la dynamique qui permettent de calculer a posteriori la pression.
Aux petites vitesses, si on néglige le terme en u2 dans les équations de Navier-Stokes, ce qui revient
à identifier l’accélération totale avec ∂u
∂t , on obtient un système d’équation linéaire du second ordre,
dont nous verrons qu’il est parabolique
 ∂u

 ρ ∂t − µ∆u + ∇p = f
∇ . u = 0


u = u0 sur Γ0 (2.36)
u = u sur Γ

1 1



u = 0 sur Γ2

Dans l’hypothèse d’un régime permanent on obtient le système d’équations de Stokes




 −µ∆u + ∇p = f
∇ . u = 0


u = u0 sur Γ0 (2.37)
u = u1 sur Γ1




u = 0 sur Γ2

43 Mathématiques 2
44 Analyse des équations aux dérivées partielles

Ce problème est un problème auxiliaire dans la résolution numérique des équations de Navier-Stokes.
La principale difficulté vient de l’approximation numérique de la condition d’incompressibilité. Ici
encore le problème peut être analysé à l’aide d’un principe du minimum comme pour l’équation de
Poisson (2.1), mais on a un problème d’optimisation sous contraintes, voir le chapitre 4.

Fluides compressibles
Nous négligeons la viscosité, nous notons e l’énergie totale et  l’énergie interne. Nous écrivons
comme ci-dessus les équations de la dynamique, qui sont aussi des équations de la conservation de
la quantité de mouvement, de la masse et de l’énergie (d’où le qualificatif de système de lois de
conservation). On obtient les équations d’Euler pour un fluide compressible appelées aussi équations
de la dynamique des gaz
 ∂ρ

 ∂t + ∇ . ρu = 0
 ρ ∂u + ρ∇ hu,ui + ∇p = f



 ∂t 2
 ∂(ρe)


∂t + ∇(ρe + p)u) = 0
u = u 0 sur Γ0
(2.38)

u = u1 sur Γ1




u = 0 sur Γ2



 2
avec p = p(ρ, ) et e =  + u2

C’est un système d’équations non linéaires. Nous verrons que c’est un système hyperbolique non li-
néaire pour des gaz parfaits. Comme pour tout système hyperbolique une perturbation se propage à
différentes vitesses toujours finies (aux vitesses du fluide presque nulles c’est la vitesse du son), mais
nous verrons que la non linéarité implique l’apparition de discontinuités appelées ondes de chocs. Les
solutions de ce système, comme celui des fluides incompressibles, ont des propriétés très complexes
(tourbillon, turbulence, chocs...) qui font toujours l’objet de conjectures.

Modèles simplifiés
Ce système admet de nombreuses simplifications.
– On construit des linéarisations des équations, notamment, en négligeant aux petites vitesses
l’énergie cinétique et en supposant que les grandeurs varient peu, on obtient l’équation des
ondes sonores
∂ρ ∂u


 + ρ0 =0
∂t 2
∂x (2.39)
∂u c ∂ρ

 + =0
∂t ρ0 ∂x
Les valeurs initiales et au bord sont connues. C’est un système d’équations linéaires du premier
ordre, hyperbolique. En éliminant ρ on retrouve l’équation des ondes. Voir dans le chapitre 5
l’utilisation des caractéristiques pour intégrer l’équation.
– En considérant un écoulement unidimensionnel et en négligeant l’effet de la pression on obtient
l’équation de Riemann ou Burgers, sans viscosité Voir la séance 7.
∂u 1 ∂u2
+ =0 (2.40)
∂t 2 ∂x

ECP 2006-2007 44
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 45

Ce n’est pas un modèle très réaliste mais il permet de mettre en évidence sur une équation
très simple quelques propriétés des écoulements réels. Nous verrons (chapitre 5) que c’est une
équation hyperbolique non linéaire. Voir dans la séance 7 l’utilisation des caractéristiques pour
intégrer cette équation, on en déduit les propriétés remarquables suivantes :
1. Il y a conservation de la valeur de la solution u le long des droites caractéristiques.
2. Le croisement des droites caractéristiques implique l’apparition de lignes de discontinui-
tés (qui représentent physiquement des ondes de choc) même pour des conditions initiales
très régulières.

2.2.5 Les phénomènes vibratoires


Principe
On étudie par exemple l’évolution de la déformation d’une membrane tendue, comme la peau d’un
tambour, dont la forme définit au repos un domaine Ω ⊂ R2 ; on suppose que la membrane est fixée
sur le bord. Si on considère que la membrane est lâchée sans vitesse initiale à partir d’une position
connue u0 (x) le problème se modélise sous la forme d’une équation du second ordre, l’équation des
ondes 
∂2u
ρ 2 = σ∆u(x) si x ∈ Ω






 ∂t

u(x, 0) = 0 si x ∈ Γ (2.41)
u(x, 0) = u0 (x) si x ∈ Ω





 ∂u

 (x, 0) = 0 si x ∈ Ω
∂t
La même équation en dimension deux ou trois modélise la plupart des phénomènes vibratoires.
On obtient un modèle simplifié en dimension 1, l’équation des cordes vibrantes qui a été étudiée
ci-dessus (2.16)

Analyse
L’analyse de l’équation des cordes vibrantes ainsi que les méthodes que nous avons présentées
ci-dessus pour cette équation s’étendent à l’équation générale des ondes.

2.2.6 Les équations de Maxwell


non rédigé

2.2.7 Exemples de problèmes plus complexes


Nous avons vu dans les paragraphes précédents les équations qui modélisent les principales théo-
ries de la physique dans un cadre idéalisé. Dans les problèmes réels, il est souvent difficile de rester
dans ce cadre à cause de difficultés géométriques, de problèmes d’échelle et du couplage de différents
modèle.
Dans un calcul numérique, ces difficultés sont souvent découplées par des algorithmes adéquats et on

45 Mathématiques 2
46 Analyse des équations aux dérivées partielles

se ramène à la résolution itérée de problèmes standards, d’où la nécessité de disposer de méthodes


sûres et performantes pour calculer des solutions numériques de ces problèmes standards.

Problèmes géométriques

Nous avons considéré plus haut que les équations étaient posées dans un domaine fixé a priori.
Dans de nombreux problèmes ce domaine est variable, on dit que ce sont des problèmes à surface
libre, comme dans les exemples suivant :
− Étude des mouvements d’un liquide, notamment les vagues ou le mouvement de l’eau dans un
réservoir. Quand la variation de la forme du domaine n’est pas trop grande on peut définir le domaine
inconnu comme l’image d’un domaine fixe par une certaine fonction Φ(x). Cette fonction devient
alors une inconnue du problème qui se ramène à une équation plus complexe que l’équation initiale
mais sur un domaine fixe. Mais le domaine peut même se fragmenter comme dans le cas de la forma-
tion de gouttes...
− Grande déformation d’un solide : voir le paragraphe sur l’élasticité.
− Fusion de la glace dans l’eau : la frontière entre la glace et l’eau est alors une inconnue du pro-
blème.

Problèmes d’échelle

− Dans l’écoulement d’un fluide la turbulence est un phénomène qui fait apparaître des mou-
vements à très petite échelle, la complexité de ces mouvements rend nécessaire, dans un calcul nu-
mérique, le remplacement des valeurs exactes des champs inconnus par leur moyenne, en un sens à
préciser. Cela conduit à des modèles de turbulence qui se différencient par les hypothèses supplémen-
taires qui sont faites.

− Une excitation à très haute fréquence crée une onde de longueur très petite. Or une longueur
d’onde très petite ne peut pas être prise en compte dans un calcul numérique à grande échelle. La
prise en compte de ce phénomène dans l’équation des ondes conduit à des modèles asymptotiques
dans lesquels l’étude des ondes se ramène à la théorie de l’optique géométrique plus ou moins enri-
chie pour tenir compte de phénomènes comme la diffraction. Mais si la longueur d’onde est proche
des longueurs des variations géométriques du bord du domaine d’étude il faut revenir à l’équation
des ondes pour étudier l’effet de ces variations géométriques. On peut donc être amener à coupler
l’optique géométrique et une étude directe de l’équation des ondes.

− les hétérogénéïtés d’un milieu continu quand elles sont à très petite échelle, peuvent empêcher
la prise en compte exacte de celles-ci, au moins dans une approximation numérique : c’est le cas des
solides formés de matériaux composites, des fluides comme l’air chargé de gouttelettes d’eau ou de
l’eau contenant des bulles de vapeur. On est conduit à définir des modèles limites dits homogénéï-
sés dans lesquels on remplace les grandeurs usuelles (vitesse, masse volumique), qui ont une forte
variation locale, par leur valeur moyenne. Les équations obtenues peuvent avoir la même forme que
les équations initiales comme dans le cas de la théorie élastique des matériaux composites (le seul
problème est de calculer constantes élastiques du matériau homogénéïsé) ou bien, quand les para-

ECP 2006-2007 46
CHAPITRE 2. EXEMPLES D’ÉQUATIONS AUX DÉRIVÉES PARTIELLES 47

mètres des hétérogénéïtés (la densité de bulles par exemple) dépendent de la solution, ces paramètres
s’ajoutent aux grandeurs inconnues initiales et le nombre d’équations peut donc s’accroître.

Couplage géométrique
De nombreux problèmes impliquent la prise en compte de plusieurs modèles selon le point consi-
déré, c’est le cas de l’interaction d’un fluide et d’une structure (l’écoulement d’un fluide par exemple
peut faire vibrer une structure qui en retour fait vibrer le fluide). Une des difficultés vient de ce que
les inconnues utilisées dans la modélisation de chacun des milieux sont de nature différentes : les
déplacements dans le solide et les vitesses dans le fluide.

Couplage intrinsèque
L’étude de la convection naturelle d’un fluide, pour la météorologie par exemple, se modélise par
le couplage des équations de la dynamique des fluides d’une part, de la diffusion et du transport de la
chaleur d’autre part : ce sont en effet les variations de température qui créent les variations de densité
responsables du mouvement de l’air, mais ce mouvement lui-même entraîne un transport de chaleur
responsable de variations de la température. Même si on considère un modèle simplifié linéarisé pour
modéliser l’écoulement du fluide, le couplage fait apparaître une non linéarité.

L’étude des plasmas oblige à coupler les équations de dynamiques des fluides et les équations de
Maxwell puisque ce sont les forces électromagnétiques qui font se mouvoir les particules chargées
mais leur mouvement est lui même la cause d’un champ électromagnétique induit.

47 Mathématiques 2
48 Analyse des équations aux dérivées partielles

ECP 2006-2007 48
Chapitre 3

Quelques outils d’analyse des E.D.P.

Objectifs
Nous résumons dans ce chapitre quelques méthodes classiques de résolution ou d’analyse des
équations aux dérivées partielles. Dans certaines parties un peu difficiles nous nous limitons à des
arguments heuristiques.

3.1 Propriétés des opérateurs linéaires aux dérivées partielles


Pour simplifier nous nous limitons aux opérateurs agissant sur une seule fonction, avec des ap-
plications aux équations à une fonction inconnue, mais l’extension des méthodes présentées dans ce
paragraphe aux systèmes d’équations ne pose pas de problème. On suppose que toutes les fonctions
u(x) sont définies sur Rn avec x = (x1 , ..., xn ) ou sur un domaine Ω de bord Γ. On note V0 l’espace
des fonctions de C 1 (Ω) nulles sur le bord Γ.

3.1.1 Opérateurs linéaires aux dérivées partielles


Définition 8 Soit P (y1 , ..., yn ) un polynôme à n variables yi dont les coefficients sont des fonctions
du point x . On note P (D) l’opérateur aux dérivées partielles obtenu en remplaçant les variables yi

par les dérivées partielles ∂x i
.
− Le degré du polynôme est l’ordre de l’opérateur.
− Le polynôme P (y1 , ..., yn ) est le symbole de l’opérateur linéaire aux dérivées partielles à coeffi-
cients constants.
− L’opérateur est homogène si son symbole est un polynôme homogène.
− L’opérateur est à coefficients constants si les coefficients de P (y1 , ..., yn ) ne dépendent pas du
point x.

Par exemple si P (y1 , ..., yn ) = i yi2 on a P (D) = ∆.


P
Remarque : Un opérateur aux dérivées partielles n’est presque jamais un opérateur interne sur les
espaces de fonctions usuelles (sauf C ∞ ), on peut le considérer de façon naturelle comme un opérateur

49
50 Analyse des équations aux dérivées partielles

d’un espace de Banach dans un autre (par exemple de C 2 dans C 1 ) ou, c’est souvent plus pratique,
on considère qu’il opère de façon interne à un espace mais qu’il n’est pas partout défini, par exemple

on considère que ∂x i
opère sur L2 (Rn ) avec un domaine de définition qui est C 1 (Rn ).

3.1.2 Opérateurs du premier et second ordre

P Un opérateur aux dérivées partielles du premier ordre linéaire et homogène s’écrit P (D)(u) =
∂u t
i bj (x) ∂xj . Définissons le champ de vecteurs V (x) = (b1 (x), ..., bn (x)) . On peut écrire de façon
plus synthétique
P (D)(u) = hV, ∇ui

Proposition 20 Un opérateur aux dérivées partielles linéaire du premier ordre s’écrit

P (D)(u) = hV, ∇ui

− Un opérateur aux dérivées partielles linéaire et homogène du second ordre à coefficients constants
s’écrit
X ∂2u
P (D)(u) = ai,j
∂xi ∂xj
i,j

∂2u ∂2u
Compte tenu de l’égalité des dérivées croisées ∂xi ∂xj = on peut supposer que ai,j = aj,i . Soit
∂xj ∂xi
P ∂u
A la matrice symétrique de coefficients ai,j . Le vecteur A ∇u a pour composantes j ai,j ∂x i
. On
peut donc écrire de façon plus synthétique

P (D)(u) = ∇ . (A ∇u)

On en déduit pour un opérateur du second ordre à coefficients constants une écriture synthétique :

Proposition 21 Un opérateur du second ordre à coefficients constants s’écrit donc

P (D) = Div(A ∇u)

Nous verrons plus loin (paragraphe 3.1.3) une forme canonique pour les opérateurs linéaires du se-
cond ordre quelconques.

3.1.3 Symétrie
Nous allons mettre en évidence une propriété fondamentale pour la compréhension des équations
aux dérivées partielles : la symétrie ou l’antisymétrie des opérateurs sur des espaces de fonctions
nulles à l’infini ou nulles sur le bord d’un domaine.


Antisymétrie de l’opérateur ∂xi

Les propriétés des opérateurs aux dérivées partielles dépendent des espace de fonctions sur les-
quels on les fait opérer ou de leur domaine de définition. On considère ici que les opérateurs agissent

ECP 2006-2007 50
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 51

sur L2 (Rn ), avec pour domaine D(Rn ), l’espace des fonctions C ∞ à support compact sur Rn , ou sur
l’espace L2 (Ω) avec pour domaine V0 , ce que nous choisissons pour fixer les idées. Notons
Z
hu, vi = uv dΩ

le produit scalaire de L2 (Ω).


La formule d’intégration par parties dans un domaine borné (cf (1.1))
Z Z Z
∂u ∂v
v dΩ = − u dΩ + u v ni d∂Ω (3.1)
Ω ∂xi Ω ∂xi ∂Ω
∂u
exprime l’antisymétrie de l’opérateur ∂x i
... au terme de “bord” près. On voit que le terme de bord
s’annule si u et v sont dans des espaces de fonctions nulles sur le bord, . On peut réécrire (3.1), pour
u, v ∈ V0 , sous la forme
∂u ∂v
h , vi = −hu, i (3.2)
∂xi ∂xi

L’opérateur ∂x i
est antisymétrique sur V0 pour le produit scalaire de L2 (Ω). Il en est donc de même
P ∂
de toute combinaison i ai ∂x i
à coefficients constants de ces opérateurs, c’est à dire des opérateurs
du premier ordre à coefficients constants. D’où la proposition

Proposition 22 L’opérateur ∂x i
est antisymétrique sur V0 pour le produit scalaire de L2 (Ω). Il en
est de même des opérateurs du premier ordre à coefficients constants.
Remarque : Une variante de cette propriété est bien connue dans le formalisme de la mécanique quan-

tique : l’opérateur i ∂x i
est hermitien sur l’espace complexe L2 (Rn ) avec pour domaine de définition
1
les fonctions C nulles à l’infini.

Symétrie des opérateurs du second ordre


Le produit de deux opérateurs antisymétriques qui commutent est symétrique, donc les opérateurs
2
du second ordre ∂x∂i ∂xj sont symétriques et il en est de même de leurs combinaisons, c’est à dire des
opérateurs linéaires homogènes du second ordre à coefficients constants. Vérifions directement cette
assertion, la formule de Stokes (1.2) nous donne en utilisant l’écriture synthétique (21)
Z Z Z
hP (D)(u), vi = ∇ . (A ∇u) v dΩ = − hA ∇u, ∇vi dΩ + (A ∇u)n v dΓ (3.3)
Ω Ω Γ

Le terme de bord est nul comme les fonctions u, v (noter que c’est encore vrai si (A ∇u)n = 0).
Définissons la forme bilinéaire
Z
a(u, v) = hA ∇u, ∇vi dΩ

Il vient
hP (D)(u), vi = −a(u, v)
La symétrie de l’opérateur résulte de la symétrie de la forme a(u, v). Plutôt que d’avoir un signe “−”
devant la forme bilinéaire, on préfère le mettre devant l’opérateur

51 Mathématiques 2
52 Analyse des équations aux dérivées partielles

Proposition 23 Un opérateur linéaire du second ordre homogène et à coefficients constants

P (D)(u) = −∇ . (A ∇u)

est symétrique sur V0 pour le produit scalaire de L2 (Ω). La forme bilinéaire symétrique associée est
Z
a(u, v) = hP (D)(u), vi = hA ∇u, ∇vi dΩ

Le laplacien ∆ est un opérateur symétrique, avec


Z
a(u, v) = h∇u, ∇vi dΩ

ainsi que l’opérateur des ondes


∂2
− c2 ∆
∂t2
∂u ∂v
− c2 h∇u, ∇vi dΩ, mais le premier est en outre défini positif1 contrairement
R
avec a(u, v) = Ω ∂t ∂t
au second.

Cette propriété de symétrie s’étend à d’autres espaces de fonctions quand les fonctions vérifient
certaines conditions aux limites sur des domaines bornés (voir chapitre 4).

Calcul du transposé
Ce paragraphe peut être laissé de côté en première lecture. La formule d’intégration par parties
permet de calculer le transposé d’un opérateur aux dérivées partielles, nous allons présenter deux
exemples classiques.

1) Soit V un champ de vecteur C 1 dans un domaine Ω de bord Γ et

V0 = {u ∈ C 1 (Ω) / u = 0 si x ∈ Γ}

Considérons sur L2 (Ω), l’opérateur


L(u) = ∇ . (uV )
de domaine V0 . On a Z
hL(u), vi = ∇ . (uV )v dΩ

De la formule d’intégration par parties on déduit la formule de Stokes (cf. (1.2))
Z Z Z
∇ . Φ v dΩ = − Φ . ∇v dΩ + Φn v d∂Ω (3.4)
Ω Ω Γ

~
Appliquons (3.4) en remplaçant Φ par uV
Z Z Z
∇ . (uV )v dΩ = − uV . ∇v dΩ + uv Vn d∂Ω
Ω Ω ∂Ω
1
D’où l’usage de considérer −∆ et non ∆ qui est défini négatif, on préfère toujours le positif au négatif...

ECP 2006-2007 52
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 53

Le terme de bord est nul comme u (mais on pourrait aussi supposer Vn nul et avoir u quelconque)
donc Z Z
hL(u), vi = ∇ . (uV )v dΩ = − uV . ∇v dΩ = hu, Lt (v)i
Ω Ω
Il vient
Proposition 24 L’opérateur Lt (v) = −V . ∇v opérant sur les fonctions C 1 est le transposé de
l’opérateur L(u) = ∇ . (uV ) opérant sur les fonctions C 1 nulles sur le bord.
Cette formule nous servira pour l’étude de l’équation de convection-diffusion.

2) Considérons dans ce paragraphe un champ de vecteurs u(x) = (..., ui (x1 , x2 , x3 ), ...)t et une
fonction scalaire v(x1 , x2 , x3 ), définie sur un domaine Ω . Considérons la divergence “∇ . ” comme
un opérateur de L2 (Ω)3 dans L2 (Ω) de domaine C 1 (Ω) et le gradient “∇” comme un opérateur de
L2 (Ω) dans L2 (Ω)3 de domaine V0 . Si u ∈ C 1 (Ω) et v ∈ V0 la formule (3.4) a bien un sens et
l’intégrale de bord est nulle
Z Z Z
∇ . u v dΩ = − u ∇v dΩ + un v dΓ (3.5)
Ω Ω Γ

d’où Z Z
u ∇v dΩ = − ∇ . u v dΩ (3.6)
Ω Ω
La formule (3.6) exprime que le transposé du gradient, opérant sur les fonctions C 1 nulles sur le bord,
est l’opposé de la divergence opérant sur les champs de vecteurs C 1 .
Nous aurions pu aussi considérer des champs de vecteurs tels que un est nul sur le bord (donc tan-
gents au bord) et des fonctions quelconques : la formule (3.5) exprime alors que le transposé de la
divergence, opérant sur les champs de vecteurs C 1 tangents au bord d’un domaine, est l’opposé du
gradient opérant sur les fonctions C 1 . Elle s’applique par exemple au système d’équations de Stokes
(chapitre 2) qui modélise des fluides incompressibles et montre que l’opérateur aux dérivées partielles
dans ce système est symétrique. Il vient :
Proposition 25 Le transposé de l’opérateur L(u) = ∇u opérant sur les fonctions C 1 nulles sur le
bord est l’opérateur Lt (v) = −∇ . v opérant sur les champs de vecteurs C 1 .
Le transposé de l’opérateur L(v) = ∇ . v opérant sur les champs de vecteurs C 1 tangents au bord
est l’opérateur Lt (u) = −∇u opérant sur les fonctions C 1 .

Noter que on retrouve la symétrie de l’opérateur homogène du second ordre (23) car

P (D)(u) = −∇ . (A ∇u) = ∇t A ∇

Forme canonique des opérateurs linéaires du second ordre


Considérons un opérateur linéaire du second ordre général
X X
P (D)(u) = ai,j (x)uxi xj + bj (x)uxj + c(x)u
i,j j

53 Mathématiques 2
54 Analyse des équations aux dérivées partielles

Noter que l’on peut supposer ai,j = aj,i du fait que uxi xj = uxj xi . Notons A(x) la matrice symétrique
de coefficient ai,j (x) On vérifie en développant la divergence que
P (D)(u) = ∇ . (A(x) ∇u) + 2hV (x), ∇ui + c(x)u
P ∂a
où nous avons posé 2βj (x) = bj − i ∂xi,ji et nous avons noté V (x) = (β1 , ..., βn )t . Or nous avons
vu (24) que le transposé de l’opérateur L(u) = hV (x), ∇ui est l’opérateur Lt (u) = −∇ . (V (x)u) ;
décomposons donc l’opérateur L(u) en sa partie symétrique
L(u) + Lt (u) = hV (x), ∇ui − ∇ . V (x)u)
et antisymétrique
L(u) − Lt (u) = (hV (x), ∇ui + ∇ . (V (x)u))
Or
∇ . (V (x)u) = ∇ . V (x)u + hV (x), ∇ui
d’où
L(u) + Lt (u) = −∇ . V (x)u
Il vient
P (D)(u) = ∇ . (A(x) ∇u) − ∇ . V (x)u + (hV (x), ∇ui + ∇ . (V (x)u)) + c(x)u
ou encore
P (D)(u) = ∇ . (A(x) ∇u) + γ(x)u + (hV (x), ∇ui + ∇ . (V (x)u))
où on a posé γ(x) = (c(x) − ∇ . V (x)). Considérons que l’opérateur P (D) opère sur L2 (Ω) avec
pour domaine V0 . On vérifie que :
− l’opérateur
P (D)S (u) = ∇ . (A(x) ∇u) + γ(x)u
est symétrique, car en appliquant la formule de Stokes (3.4)
Z Z Z Z
hP (D)S (u), vi = ∇ . (A(x) ∇u)v dΩ + γ(x)uv dΩ = − hA(x) ∇u, vi dΩ + γ(x)uv dΩ
Ω Ω Ω Ω
et cette expression est symétrique en u et v (cette propriété reste vraie dans des espaces plus généraux
que V0 ).
− l’opérateur
P (D)A (u) = hV (x), ∇ui + ∇ . (V u)
est antisymétrique par construction. La forme bilinéaire associée s’écrit
Z Z
hP (D)A (u), vi = (hV (x), ∇ui + ∇ . (V (x)u))v dΩ = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ
Ω Ω
R
en utilisant la formule de Stokes (3.4) pour transformer le premier terme, le terme de bord Γ V (x).~nuvds
étant nul (noter que le résultat reste vrai si V (x).~n = 0 aux point du bord où u, v sont non nuls). La
forme est clairement antisymétrique.
Nous préférons changer2 A en −A et énoncer le théorème :
2
Cela permet d’énoncer le résultat suivant : si A est définie positive l’opérateur −∇ . (A(x) ∇u est défini positif ; pour
le mathématicien il faut toujours positiver.

ECP 2006-2007 54
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 55

Théorème 10 Un opérateur linéaire aux dérivées partielles quelconque peut s’écrire sous la forme
canonique

P (D)(u) = (−∇ . (A(x) ∇u) + γ(x)u) + (hV (x), ∇ui + ∇ . (V (x)u)

où A(x) est une matrice symétrique et V (x) un champ de vecteurs. Sur l’espace V0 des fonctions
de C 1 (Ω) nulles sur le bord Γ le premier opérateur est symétrique et associé à la forme bilinéaire
symétrique Z Z
a(u, v) = − hA(x) ∇u, ∇vi dΩ + γ(x)uv dΩ
Ω Ω
et le deuxième antisymétrique associé à la forme bilinéaire
Z
b(u, v) = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ

Nous verrons que cette forme canonique est bien préférable à la forme développée : elle permet de
donner un sens physique à l’équation et elle permet de définir de façon cohérente des approximations
conservant ces propriétés de symétrie.

3.1.4 Fonctions propres


La connaissance des éléments propres d’une matrice détermine toutes les propriétés intrinsèques
de celle-ci et simplifie de nombreux calculs. D’où l’importance de trouver de façon analogue les élé-
ments propres d’un opérateur aux dérivées partielles ; quand on fait opérer ceux-ci sur des espaces de
fonctions de C k (Ω) nulles sur le bord de Ω les éléments propres peuvent être difficiles à déterminer,
mais si Ω = Rn et pour quelques domaines simples les fonctions propres sont connues.

Rappelons que les dérivées partielles d’une fonction commutent


∂ ∂ ∂ ∂
=
∂xi ∂xj ∂xj ∂xi
On en déduit que deux opérateurs aux dérivées partielles à coefficients constants commutent aussi.

Les fonctions X
exp ihk, xi = exp (i kj xj )
j

(“ondes planes harmoniques”), avec k ∈ Rn , sont les fonctions propres des opérateurs dérivées par-

tielles ∂x i
(en fait toutes les fonctions exponentielles le sont, mais nous nous limitons aux fonctions
bornées)

exp ihk, xi = iki exp ihk, xi
∂xi
La valeur propre iki est imaginaire pure. On en déduit :
Proposition 26 Les fonctions exp ihk, xi (“ondes planes sinusoïdales”) sont des fonctions propres
bornées de tout opérateur linéaire aux dérivées partielles à coefficients constants P (D) avec pour
valeur propre P (ik1 , ..., ikn ).

55 Mathématiques 2
56 Analyse des équations aux dérivées partielles

En particulier ce sont des fonctions propres des opérateurs linéaires aux dérivées partielles du se-
P ∂ ∂
cond ordre, homogènes et à coefficients constants, i,j ai,j ∂x i ∂xj
, avec une valeur propre réelle
P
− i ai,j ki kj .
En recombinant convenablement les parties réelles et imaginaires des ondes planes on obtient des
produits de fonctions trigonométriques, et on vérifie directement que les fonctions produits

sin k1 x1 cos k2 x2 ... sin kn xn

formées indifféremment de fonctions sinus ou cosinus sont


P des fonctions propres de l’opérateur du
P ∂ ∂
second ordre i,j ai,j ∂xi ∂xj
pour les valeurs propres − i ai,j ki kj .

Proposition 27 Les fonctions sin k1 x1 cos k2 x2 ... sin kn xn sont des fonctions propres bornées des
opérateurs linéaires aux dérivées partielles du second
P ordre, homogènes et à coefficients constants,
P ∂ ∂
i,j ai,j ∂xi ∂xj , avec une valeur propre réelle − i ai,j ki kj ..

3.1.5 Noyau des opérateurs


Les éléments du noyau d’un opérateur P (D) à coefficients constants sont les solutions de l’équa-
tion homogène P (D)(u) = 0. Ce sont des vecteurs propres associés à la valeur propre 0. Nous ne
nous limitons pas aux fonctions propres bornées, nous considérons donc les fonctions exp ihk, xi ,
avec k ∈ Cn ; D’après (26) elles sont dans le noyau de P (D) si

P (ik1 , ..., ikn ) = 0

3.1.6 Transformation de Fourier


Définition et propriétés
Nous choisissons la transformée de Fourier d’une fonction v(k), k = (k1 , ..., kn ) définie sur Rn
avec la normalisation suivante
Z
F(v)(x) = v(k) exp −ihk, xi dk
Rn

Rappelons quelques propriétés de la transformation de Fourier à une variable (x, y ∈ R) (Voir le


cours d’analyse de première année pour la définition du produit de convolution et les propriétés de la
transformée de Fourier).

1
Si u, v ∈ L1 (R) v = F(u) ⇔ u = F̄(v)

Si u, v ∈ L1 (R) F(u ∗ v) = F(u)F(v)
du
F( ) = iyF(u)(y)
dx
−ax2 ) 1 √ −x2 )
F(exp ( )(y) = √ 2π exp (
2 a 2a

ECP 2006-2007 56
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 57

Utilisation

On cherche la solution u d’une équation aux dérivées partielles à coefficients constants P (D)u =
f sous la forme d’une transformée de Fourier (ce qui revient à écrire comme une superposition de
modes propres), on cherche donc u sous la forme3

u(x) = F(û(k))

après avoir posé


f = F(fˆ)

On a

F(û) = F(iki û)
∂xi
et donc
P (D)(u) = F(P (ik1 , ..., ikn )û)

Pour vérifier l’équation P (D)(u) = f il suffit donc d’avoir

P (ik1 , ..., ikn )û = fˆ

puisque la transformée de Fourier est injective. On a donc la proposition

Proposition 28 Le passage à la transformée de Fourier transforme un opérateur linéaire aux déri-


vées partielles à coefficients constants en un opérateur “multiplication par un polynôme”.

On en déduit

û =
P (ik1 , ..., ikn )

puis on remonte à la solution u par une transformation de Fourier inverse et comme la transformée
de Fourier d’un produit est un produit de convolution4 , on trouve une expression de u sous la forme
d’un produit de convolution. En pratique c’est plus compliqué car le polynôme P (ik1 , ..., ikn ) peut
1
s’annuler, la transformée de Fourier de la fonction P (ik1 ,...,ik n)
n’est donc pas toujours définie. Pour
donner un sens précis à ces opérations il faut alors se placer dans le cadre des distributions.
On peut souvent se limiter à des transformées de Fourier partielles, i.e. sur une partie des variables,
de façon à garder un sens aux opérations, c’est ainsi qu’a été calculée la solution de l’équation de la
diffusion donnée en (2.11). Développons cet exemple, en laissant au lecteur la justification précise
des différentes opérations.
3
Avec ces notations nous faisons apparaître que si une fonction u(x) est la transformée de Fourier d’une fonction v(k),
alors u est une superposition d’ondes planes de direction k ∈ Rn et d’amplitude v(k) (il est équivalent, et plus usuel,
d’appliquer la transformée de Fourier aux deux termes de l’équation)
4
voir le cours d’Analyse 1

57 Mathématiques 2
58 Analyse des équations aux dérivées partielles

Exemple
On cherche une fonction u(x, t), u ∈ C 2 (R × [0, ∞]), qui tend vers 0 à l’infini en x, solution du
problème
2

 ∂u = c ∂ u

∂t ∂x2 (3.7)

u(x, 0) = u0 (x)

où u0 (x) est une fonction qui tend vers 0 à l’infini. Appelons y la variable notée k plus haut et posons

u(x, t) = Fy (û(y, t))

où la transformée de Fourier est prise en y seulement. En particulier

u0 (x) = Fy (û(y, 0)) (3.8)

. Il vient
∂u ∂ û(y, t)
= Fy ( )
∂t ∂t
et
∂2u
= Fy (−y 2 û(y, t))
∂x2
d’où, en reportant dans (3.7),
∂ û(y, t)
Fy ( ) = Fy (−y 2 cû(y, t))
∂t
et, puisque la transformée de Fourier est injective,
∂ û(y, t)
= −y 2 cû(y, t)
∂t
d’où, en intégrant cette équation différentielle en t

û(y, t) = û(y, 0) exp (−y 2 ct)

et
u(x, t) = Fy (û(y, t)) = Fy (û(y, 0)) ∗ Fy (exp (−y 2 ct))
Or, d’après (3.8)
Fy (û(y, 0)) = u0 (x)
D’autre part la transformée de Fourier de exp (−y 2 ) est un résultat classique

1 x2
F(exp (−ay 2 )) = p exp(− )
(4πa) 4a

On en déduit
+∞
x2 y2
Z
1 1
u(x, t) = u0 (x) ∗ p exp(− )= u0 (x − y) p exp(− ))dy
(4πct) 4ct −∞ (4πct) 4ct

ECP 2006-2007 58
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 59

3.1.7 Transformation de Laplace


La transformée de Laplace d’une fonction v(t) définie sur R+ est
Z ∞
L(v)(p) = v(t) exp −pt dt
0

Son principal intérêt est d’être définie pour des fonctions beaucoup plus générales que la transformée
de Fourier, puisque l’exponentielle exp −pt rend l’intégrale convergente pour des fonctions v à crois-
sance polynômiale, tout en ayant les mêmes propriétés fonctionnelles (elle transforme un opérateur
différentiel en la multiplication par un polynôme). Rappelons la formule

L(v 0 (t))(p) = pL(v(t))(p) − v(0)

et, si la fonction v(t) dépend d’un paramètre x,


∂v ∂v
L( )(p) = L(v)
∂x ∂x
La transformée de Laplace est particulièrement utile pour résoudre des problèmes de Cauchy pour des
équations linéaires, comme dans son usage est classique dans le cadre des équations différentielles.

3.2 Application de la linéarité de l’opérateur


La linéarité d’un opérateur u → L(u) justifie le classique principe de superposition qui permet
de décomposer un problème linéaire en problèmes plus simples

L(u1 ) = f1 et L(u2 ) = f2 ⇒ L(u1 + u2 ) = f1 + f2

Nous allons en voir quelques exemples d’application.

3.2.1 Découplage des données


Nous présentons un exemple caractéristique de découplage d’un problème utilisant la linéarité.
Pour faire la théorie mathématique des équations aux dérivées partielles linéaires avec des conditions
aux limites non homogènes, on se ramène souvent à un problème à conditions aux limites nulles
(“homogènes”). Prenons un exemple simple, l’équation de Poisson (cf. 2.1)

−k∆u = f si x ∈ Ω
(3.9)
u=g si x ∈ Γ

On peut chercher d’abord u1 (g) solution d’une équation de Laplace avec f = 0 puis u2 (f ) d’un
problème homogène avec g = 0, on obtient la solution du problème général sous la forme u(f, g) =
u1 (g) + u2 (f ).
En fait il n’est pas nécessaire de résoudre une équation de Laplace ; soit ḡ une fonction C 2 qui pro-
longe g au domaine Ω, on pose ū = u − ḡ et f¯ = f − ∆ḡ ; ū est solution du problème homogène
−k∆u = f¯ si x ∈ Ω

(3.10)
u=0 si x ∈ Γ

59 Mathématiques 2
60 Analyse des équations aux dérivées partielles

La principale difficulté théorique est de caractériser les fonctions g qui se prolongent en une fonction
régulière sur Ω. Cette idée est utilisée pour la recherche de solutions faibles dans le cadre des espaces
de Sobolev (cf. chapitre 6), où le traitement des conditions non homogènes est un problème délicat.

3.2.2 Décomposition à l’aide de fonctions spéciales


Pour résoudre un problème pour une équation aux dérivées partielles linéaires on peut chercher
des solutions particulières, vérifiant tout ou une partie des conditions supplémentaires puis chercher
la solution générale sous la forme d’une série de ces fonctions. Nous présentons dans ce paragraphe
quelques exemples.

Développement en séries de Fourier


Nous avons vu au chapitre 2 (voir (2.7) et (2.10)) des développements en série de Fourier de
l’équation de Poisson et de la diffusion. Plus généralement compte tenu de la proposition (27) il est
naturel de chercher des solutions d’une équation à coefficients constants sous la forme d’un dévelop-
pement en séries de produits de fonctions trigonométriques. La difficulté est de vérifier les conditions
supplémentaires, notamment les conditions aux limites. Dans des domaines simples, par exemple un
carré, il est possible de faire en sorte que ces conditions soient vérifiées directement par les produits
de fonctions trigonométriques. Ainsi l’expression (2.7) de la solution de l’équation de Poisson avec
condition aux limites homogène est obtenue en considérant des fonctions sin πk1 x1 sin πk2 x2 qui
sont nulles sur le bord du carré [0, 1] × [0, 1]. En utilisant des fonctions sin πk1 x1 cos πk2 x2 on ob-
tiendrait de même une base convenable pour construire des solutions du problème de Poisson avec
∂u ∂u
des conditions aux limites u(0, x2 ) = u(1, x2 ) = 0 et ∂x 2
(x1 , 0) = ∂x2
(x1 , 1) = 0.

Utilisation d’une décomposition spectrale


Une idée plus générale que les précédentes est de chercher des solutions particulières d’une équa-
tion linéaire aux dérivées partielles à l’aide des fonctions propres de l’opérateur aux dérivées partielles
ou d’un opérateur associé à l’équation. Il y a de nombreuses applications théoriques ou numériques
de cette idée, notamment la “synthèse spectrale” pour l’étude des phénomènes vibratoires. Prenons
comme exemple l’équation des ondes pour une membrane (cf.(2.41) avec une position initiale connue
et une vitesse initiale nulle 
∂2u
 ∂t2 = σ∆u(x) si x ∈ Ω


 ρ




u(x, 0) = 0 si x ∈ Γ (3.11)
u(x, 0) = u (x) si x ∈ Ω



 0

 ∂u

 (x, 0) = 0 si x ∈ Ω
∂t
Cherchons des solutions particulières de la forme de vibrations harmoniques5 , c’est à dire d’un pro-
duit à variables séparées
u(x, t) = g(t)v(x)
5
Une vibration est harmonique si tous les points suivent le même mouvement en temps, à l’amplitude près

ECP 2006-2007 60
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 61

d’amplitude v(x). Il vient


σ∆v(x) g 00 (t)
− =
ρv(x) g(t)
En prenant une valeur particulière pour x puis pour t on en déduit que les fonctions des deux membres
sont constantes, et donc d’une part
−σ∆v(x) = µρv(x)
et d’autre part
g 00 (t) = µg(t)
L’amplitude v est donc une fonction propre de l’opérateur Laplacien. Soit l’espace

V0 = {v ∈ C 2 (Ω), / v|Γ = 0}

On impose à la solution particulière de vérifier les conditions aux limites, ce qui revient à poser que
v ∈ V0 . L’amplitude v doit être un vecteur propre du Laplacien −∆ opérant sur V0 . L’opérateur
−∆ admet dans cet espace une base de fonctions propres vk , k ∈ N, orthonormales pour le produit
scalaire de L2 (Ω), associées à des valeurs propres positives λk . On peut donc chercher une solution
particulière sous la forme
u(x, t) = gk (t)vk (x)
00 σλk
avec gk (t) + µk gk (t) = 0 et µk = ρ > 0. D’où en posant
r
σµk
ωk =
ρ

il vient 0
g (0)
gk (t) = gk (0) cos ωk t + k sin ωk t
ωk
Toute superposition de ces vibrations harmoniques est une solution de l’équation des ondes qui vérifie
les conditions aux limites. On cherche donc la solution générale u(x, t) sous la forme
X
u(x, t) = gk (t)vk (x)
k

Il reste à vérifier les conditions initiales, vitesse initiale nulle


∂u
(x, 0) = 0
∂t
0
qui est vérifiée si gk (0) = 0 et position initiale connue

u(x, 0) = u0 (x)

ce qui implique X
u0 (x) = gk (0)vk (x)
k

61 Mathématiques 2
62 Analyse des équations aux dérivées partielles

et donc, puisque la base vk est orthonormale pour le produit scalaire de L2 (Ω)


Z
gk (0) = u0 (x)vk (x) dΩ

Finalement, la solution s’écrit comme une superposition d’harmoniques sinusoïdales


X
u(x, t) = gk (0) cos(ωk t)vk (x)
k

Remarque :
La détermination des fonctions propres du Laplacien ne peut se faire en général que numériquement
de manière approchée, mais pour des domaines de forme simple (carré, disque...) on peut déterminer
les fonctions propres par la méthode des solutions à variables séparées.
Cette méthode est très utilisée pour étudier les phénomènes vibratoires tant d’un point de vue théo-
rique pour démontrer l’existence de la solution de (3.11), que d’un point de vue numérique ( on se
limite alors à un nombre fini de termes dans le développement en série). Étendue à une équation avec
une excitation au second membre cette méthode permet d’étudier les phénomènes de résonance.

Utilisation des solutions à “variables séparées”


Quand le domaine est Rn , un carré, un disque ou une boule, on peut chercher des solutions parti-
culières d’une équation linéaire, sous la forme d’un produit de fonctions d’une variable vérifiant des
conditions supplémentaires pour chaque variable. Ces fonctions sont alors solutions d’équations dif-
férentielles plus ou moins découplées. Ensuite si on a trouvé suffisamment de solutions particulières
on peut chercher une solution sous la forme d’une combinaison de ce fonctions.
Pour un domaine carré [0, 1] × [0, 1] et des conditions aux limites u = 0 au bord, on peut chercher des
solutions sous la forme u(x, y) = f (x)g(y), f (x) et g(y) vérifiant des conditions aux limites nulles
en 0 et 1. On trouve des équations différentielles sur f et g. L’utilisation des fonctions trigonomé-
triques dans les paragraphes précédents entre dans ce cadre.
Pour un domaine qui est un disque de rayon 1 on cherchera en coordonnées polaires des fonctions
particulières de la forme f (r)g(θ) avec g(θ) une fonction 2π périodique et f (r) une fonction bornée
en 0 et nulle en 1. Cette technique s’applique bien aux équations invariantes par rotation.

Cette méthode se couple avec la méthode de décomposition spectrale quand il s’agit de déterminer
les fonctions propres d’un opérateur aux dérivées partielles. Considérons l’exemple de la recherche
des fonctions propres du laplacien opérant sur les fonction nulles sur le bord d’un disque. Il faut donc
trouver les solutions non nulles de l’équation

1 ∂ ∂u 1 ∂2u
−∆u == − (r ) − 2 2 = λu, u(1, θ) = 0
r ∂r ∂r r ∂θ
Cherchons ces fonctions propres sous la forme u(r, θ) = f (r)g(θ). On impose f (1) = 0, pour la
condition aux limites, et g(θ) périodique pour la cohérence de la définition. Il vient
1 1
− (rf 0 (r))0 g(θ) − 2 f (r)g 00 (θ) = λf (r)g(θ)
r r

ECP 2006-2007 62
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 63

ou
r(rf 0 (r))0 g 00 (θ)
− − λr2 =
f (r) g(θ)
ce qui implique l’existence d’une constante C telle que

r(rf 0 (r))0
− − λr2 = C
f (r)

g 00 (θ)
=C
g(θ)
ou encore
−r(rf 0 (r))0 − λr2 f (r) = Cf (r)

g 00 (θ) = Cg(θ)
La périodicité de g implique C < 0. Posons C = −n2 n ∈ N, il vient

g(θ) = a cos nθ + b sin nθ

f est solution de l’équation différentielle du second ordre écrite sous la forme canonique

r2 f 00 (r) + rf 0 (r) + (λr2 − n2 )f (r) = 0



En posant x = λr elle se réécrit

x2 f 00 (x) + xf 0 (x) + (x2 − n2 )f (x) = 0

C’est l’“équation de Bessel”, qui n’a, à facteur près, qu’une solution bornée, notée Jn (x), qui ne
s’exprime pas à l’aide des fonctions usuelles mais dont les propriétés sont bien connues (cf. par
exemple [13] ou tout ouvrage sur les “fonctions spéciales”). On montre√ que Jn (x) a une infinité de
zéros µkn > 0, k = 1, ..., ∞. La condition f (1) = 0 impose Jn ( λ) = 0, donc λ ne peut être
quelconque si on veut des solutions non nulles6 : λ = (µkn )2 . Finalement on trouve pour λ = (µkn )2
des solutions de la forme
u(r, θ) = Jn (µkn r)(a cos nθ + b sin nθ)
On peut montrer que l’on a obtenu ainsi toutes les fonctions propres.

Utilisation des solutions fondamentales


Nous utilisons dans ce paragraphe la théorie des distributions, voir le chapitre 6.

Principe
Pour résoudre un système linéaire en dimension finie A u = f on peut calculer la matrice inverse
On montre que si λ 6= (µkn )2 il n’y a pas de solution non nulle. Les valeurs propres forment un ensemble discret décrit
6

ici sous la forme une suite double.

63 Mathématiques 2
64 Analyse des équations aux dérivées partielles

A−1 colonne par colonne en résolvant les système Aui = ei où ei est un vecteur d’une base , ui est
alors la ième colonne de A−1 . Et on a X
u= ui fi
i
L’équivalent pour une équation linéaire aux dérivées partielles L(u(x)) = f est de résoudre, au sens
des distributions, les équations
L(uy (x)) = δ(y)
où δ(y) est la distribution de Dirac en y (c’est la“réponse” à une charge concentrée), la solution de
L(u(x)) = f est donnée par le principe de superposition sous la forme
Z
u(x) = uy (x)f (y) dy

(en considérant intuitivement


R qu’une charge quelconque de densité f est la somme des charges
concentrée : f (x) = uy (x)δ(y) dy).

Cas des équations à coefficients constants


Si le domaine d’étude Ω est Rn et si l’opérateur L(u) = P (D)(u) est à coefficients constants, l’in-
variance du problème par translation implique que uy (x) = u0 (x − y), les fonctions u0 (x), solution
de l’équation P (D)(u) = δ0 sont les solutions fondamentales de l’opérateur souvent calculables ex-
plicitement. Si le domaine est quelconque mais que les fonctions doivent vérifier certaines conditions
aux limites, les fonction uy sont des fonctions de Green qui ne sont en général pas calculables expli-
citement.

Calcul des solutions fondamentales


Les solutions fondamentales peuvent être calculée par transformation de Fourier avec les difficultés
que nous avons signalées au paragraphe (3.1.6) : les calculs doivent être fait au sens des distribu-
tions et les solutions fondamentales ne sont pas toujours des fonctions. Un calcul direct des solutions
fondamentales est souvent possible en tenant compte des groupes d’invariants du problème : si l’opé-
rateur est invariant par rotation on pourra chercher u0 (x) sous la forme u0 (r) avec r = kxk2 qui sera
solution d’une équation différentielle (voir ci-dessous le cas de l’équation de Laplace). Les propriétés
des solutions fondamentales sont évidemment fondamentales ( !) pour déterminer les propriétés des
solutions d’une équation. Par exemple si ce sont des fonctions C ∞ cela implique des résultats de
régularité sur la solution de l’équation.

Exemple
L’application de la méthode des solutions fondamentales à l’équation de Poisson dans R3
ρ
−∆u = pour x ∈ R3 (3.12)
0
est classique si on interprète ce problème comme la détermination du potentiel électrostatique u(x)
associée à une densité de charge ρ(x). La solution fondamentale du Laplacien dans R3 , i.e. une
solution de l’équation aux dérivées partielles
1
−∆u0 = δ0 (3.13)
0

ECP 2006-2007 64
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 65

prise au sens des distributions de D0 (R3 ), est donnée par l’expression bien connue du potentiel asso-
ciée à une charge 1
1 1
u0 (x) =
4π0 kxk2
Si ρ(x) est fonction continue à support compact, la fonction
Z
u(x) = u0 (x − y)ρ(y)dy
R3
est solution de (3.12).

Applications
Les solutions fondamentales sont à la base des méthodes dites intégrales ou d’éléments frontières
pour l’approximation numérique des équations linéaires à coefficients constants ; l’exemple de l’élec-
trostatique est bien connu : pour trouver le potentiel dans un domaine sans charge répartie mais avec
un potentiel connu V0 (s) sur le bord, on cherche une répartition de “charges” q0 (s) sur le bord qui
crée ce potentiel connu V0 (s) sur le bord. Le potentiel à l’intérieur s’obtient alors par une intégrale
sur le bord Z
1 q0 (s)
V (x) = ds
s 4π0 kx − x(s)k
Le potentiel q0 (s) sur le bord est solution d’une équation intégrale à noyau singulier
Z
1 q0 (s)
ds = V0 (t)
s 4π0 kx(t) − x(s)k
qu’il faut résoudre numériquement après approximation par une méthode d’éléments finis. En pra-
tique on procède de façon un peu différente. La méthode est spécialement intéressante pour les pro-
blèmes “extérieurs”, c’est à dire dont le domaine est le complémentaire d’un domaine borné. Elle
peut s’appliquer chaque fois que la solution fondamentale est connue.

3.3 Formulation faible des équations aux dérivées partielles


Pour une introduction aux formulations faibles voir les séances d’exercice 3,4,5. Dans ce para-
graphe nous analysons le passage aux formulations faibles de façon plus synthétique.
Nous considérons un problème aux limites pour une équation de Poisson ; soit Ω un domaine borné du
plan dont le bord Γ est la réunion de deux frontières Γ0 et Γ1 . Soit u une fonction de C 2 (Ω) solution
du problème
−k∆u = f

 sur Ω

u = u0 sur Γ0 (3.14)
 −k
 ∂u
=g sur Γ1
∂n
où u0 et g sont des fonctions données sur le bord. Multiplions les deux membres de l’équation (3.14)
par une fonction v quelconque, choisie dans un espace V de fonctions que nous préciserons plus loin ;
il vient :
Z Z
∀v ∈ V −k ∆u v dΩ = f v dΩ (3.15)
Ω Ω

65 Mathématiques 2
66 Analyse des équations aux dérivées partielles

d’où d’après la formule de Stokes :


Z Z Z
∂u
∀v ∈ V k∇u . ∇v dΩ + k v ds = f v dΩ (3.16)
Ω Γ ∂n Ω

Pour justifier l’usage de la formule de Stokes il faut que v ait des propriétés suffisantes de dérivabilité,
nous choisissons ici V = C 1 (Ω).
∂u ∂u
Le terme de bord k ∂n v est connu sur la partie du bord notée Γ1 puisque −k ∂n = g sur ce bord.
Si on choisit la fonction v nulle sur le bord Γ0 le terme de bord s’annule sur Γ0 . On note V0 l’espace
des fonctions de V nulles sur la partie Γ0 du bord.

Définition 9 Nous appellerons espace de fonctions tests l’espace V0 dans lequel on choisit la fonction
v.

Il vient :
u ∈ C 2 (Ω)



u = u0 surZ Γ0

Z Z (3.17)
∂u
 ∀v ∈ V k ∇u . ∇v dΩ = f v dΩ + k v ds


Ω Ω Γ1 ∂n
On obtient ainsi une première formulation variationnelle du problème, dite aussi formulation faible,
nous allons montrer qu’elle est équivalente à la formulation initiale.

3.3.1 Équivalence des formulations


Un lemme

Soit V0 un sous-espace de fonctions continues sur un domaine Ω. Définissons la propriété (P)


suivante :
Pour tout point x ∈ Ω et pour tout petit disque B (x) inclus dans Ω il existe une fonction v ∈ V0
positive sur B (x) et nulle en dehors de ce disque.
On a le lemme :

Lemme 2 Si un espace de fonctions V0 a la propriété (P) et si h ∈ C(Ω), alors


Z
∀v ∈ V0 h v dΩ = 0 =⇒ h = 0 (3.18)

Preuve : si h 6= 0, il existe un point x ∈ Ω et un petit disque B (x) tel que h soit de signe constant sur
ce disque (par exemple > 0) ; choisissons vR ∈ V0 positive R sur B (x) et nulle en dehors de ce disque,
alors on a hv > 0 sur ce disque tandis que Ω hv dΩ = B (x) hv dΩ = 0, ce qui est contradictoire.

Noter que l’on peut prendre comme fonctions test l’espace D(Ω) des fonctions C ∞ à support com-
pact, voir le paragraphe ci-dessous, mais que si l’on prend l’espace des fonctions C 1 d’intégrale nulle
sur Ω la propriété (P) n’est pas vérifiée.

ECP 2006-2007 66
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 67

Démonstration de l’équivalence
Il y a dans l’équivalence des formulations (3.14) et (3.17) deux propriétés distinctes :
1. La formulation (3.17) implique l’équation aux dérivées partielles (3.14).
Supposons que u soit solution de (3.17) alors, en appliquant la formule de Stokes, on montre
que u est solution de (3.15) pour toute fonction v ∈ C01 (Ω) nulle sur tout le bord Γ de Ω (car
alors l’intégrale de bord disparaît). Comme l’espace C01 (Ω) des fonction C 1 nulles sur le bord
a la propriété (P) on en déduit que −∆u − f = 0.
∂u
2. La formulation faible (3.17) implique que u vérifie la condition aux limites −k ∂n = g sur le
bord Γ1 .
Il suffit en effet d’appliquer à nouveau la formule de Stokes à (3.17) mais cette fois pour une
fonction v quelconque dans V0 , on obtient R une intégrale sur Ω qui est nulle puisque u est
∂u
solution de (3.14) et une intégrale de bord Γ1 (−k ∂n − g) vds qui doit donc être nulle. On en
∂u
déduit que cela implique que ∂n = 0 en utilisant la propriété (P) sur C(Γ1 ).

Choix de l’espace fonctionnel


De la démonstration ci-dessus nous déduisons une règle pour choisir l’espace fonctionnel V0 des
fonctions tests quand on veut définir une formulation faible :
Proposition 29 (Informelle) Si, dans la construction d’une formulation faible, on prend pour espace
de fonctions tests le sous ensemble des fonctions nulles aux points du bord où les valeurs de la fonction
sont fixées (condition de Dirichlet) mais quelconques aux points du bord où les conditions portent sur
la dérivée (conditions de Neuman) on rend implicite les conditions sur la dérivée.

3.3.2 Formulation au sens des distributions


Prenons comme espace de fonctions test l’espace D(Ω) des fonctions C ∞ à support compact.
Appliquons deux fois la formule de Stokes à (3.17), les différentes intégrales de bord sont toutes
nulles et l’on obtient : Z Z
∀v ∈ D(Ω) −u ∆v dΩ = f v dΩ (3.19)
Ω Ω
Cette formulation faible est la formulation au sens des distributions de l’équation (3.14). Pour une
fonction deux fois dérivables, cette formulation équivaut à l’équation aux dérivées partielles initiale.
Mais dans cette formulation les dérivées de l’inconnue u n’apparaissent plus, ce qui autorise à poser
un problème sur des fonctions u a priori très irrégulières (en fait il suffit que u soit intégrable). Nous
allons en voir ci-dessous l’intérêt.

3.3.3 Utilisation des formulations faibles


Dans la formulation faible (3.17) du problème de Poisson n’apparaissent que les dérivées pre-
mières de u, et dans la formulation au sens des distributions aucune dérivée n’est utilisée. Toute
solution régulière de l’équation de Poisson est une solution des formulations faibles par construction.
En sens inverse on montre que pour des données assez régulières (i.e. par exemple f ∈ C 1 (Ω) ) toute
solution continue des formulations faibles est régulière. Ce qui montre l’équivalence des formulations

67 Mathématiques 2
68 Analyse des équations aux dérivées partielles

dans les situations où elles sont simultanément définies.


L’intérêt des formulations faibles, en plus de l’utilisation numérique étudiée aux séances 2,3,4, est
qu’elles gardent un sens dans des situations plus générales, qui fait que l’on doit les considérer comme
des extensions des formulations usuelles. Ainsi la formulation (3.17) garde un sens quand le coeffi-
cient de conductivité k est constant par morceaux sur Ω (elle équivaut à vérifier l’équation (3.14) sur
chaque morceau et à ajouter sur les frontières une condition de raccord qui est la continuité des flux
normaux) tandis que la formulation au sens des distributions (3.19) garde un sens lorsque l’on fait
tendre la fonction f (physiquement c’est une densité) vers une charge ponctuelle ( L(v) définit alors
une distribution de Dirac) alors même que la formulation usuelle (3.14) n’a pas alors de sens.
Nous avons vu que les formulations faibles permettent de définir les approximations du problème par
la méthode des éléments finis. De manière très générale (mais pas toujours pertinente !) elles per-
mettent de définir des approximations : il suffit de choisir un sous espace de dimension finie N de
fonctions qui peuvent approcher la solution, et de poser N équations dans ce sous-espace en écrivant
la formulation faible pour N fonctions v = wi , i = 1, ..., N d’une base de ce sous-espace. C’est la
méthode dite de Ritz Galerkin. Cette description très générale n’assure cependant pas la cohérence
du procédé, c’est à dire la convergence de l’approximation quand on fait tendre la dimension du
sous-espace vers l’infini.

3.3.4 Interprétation des formulations faibles


Nous avons présenté les formulations faibles dans les séances d’exercice à partir de leur signifi-
cation mécanique : elles représentent diverses formes du principe des travaux virtuels. On peut en
donner d’autres interprétations très générales.

Considérons la formulation (3.15) en prenant pour fonction test v une fonction positive et d’inté-
grale égale à 1, on a :
Z
∀v ∈ V (−k∆u − f ) v dΩ = 0 (3.20)

que l’on peut interprêter en considérant que les conditions d’équilibre ou de conservation locale
−k∆u − f = 0 sont vérifiées en moyenne pondérée par v. En particulier si v est une des fonctions de
base wi d’une approximation par éléments finis de (3.14) on voit que les équations construites dans
l’approximation traduisent une moyenne locale des équations ponctuelles d’équilibre ou de conserva-
tion .

Considérons la formulation (3.17) et posons


 Z
 a(u, v) =
 k∇u . ∇v dΩ
Z Ω (3.21)
 L(v) =
 f v dΩ

le problème s’écrit :
∀v ∈ V0 , a(u, v) = L(v) (3.22)

ECP 2006-2007 68
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 69

La forme bilinéaire a(u, v) est symétrique définie positive et elle définit donc un produit scalaire sur
l’espace V0 tandis que L(v) définit une forme linéaire sur cet espace. On obtient ainsi une interpréta-
tion géométrique du problème : la solution u est le vecteur de V0 qui représente la forme linéaire L
à l’aide du produit scalaire a(u, v). Sur un espace de dimension finie on sait que toute forme linéaire
peut être ainsi représentée ; en dimension infinie ce résultat reste vrai dans un espace de Hilbert pour
des formes linéaires continues. Mais V0 n’est pas un espace complet pour la norme déduite du pro-
duit scalaire a(u, v). Cela complique singulièrement
p le raisonnement car il faut introduire l’espace
1
de Sobolev H0 , complété de V0 pour la norme a(u, u) (voir chap. 6), dont l’utilisation pose de
nombreux problèmes techniques, mais c’est cependant ainsi que l’on obtient le cadre le plus général
pour l’étude mathématique des équations aux dérivées partielles de type elliptique. Les formulations
faibles permettent donc de démontrer les résultats mathématiques d’existence et d’unicité de la so-
lution du problème, voir au chapitre 6 plus de détails sur la théorie mathématique de l’existence des
solutions.

Enfin les formulations faibles sont des conséquences directes des principes énergétiques quand
ceux-ci existent, comme nous le verrons ci-dessous.

3.4 Calcul des variations


3.4.1 Position du problème
Rappel

Nous avons vu au chapitre 1 que les principes du minimum sont à la base des principales théories
de la physique mathématique. On appelle traditionnellement en mathématique calcul des variations
l’étude des extrémums des fonctions J (v) dont la variable v est une fonction7 et dont l’expression
est l’intégrale d’une fonction de v et de ses dérivées.
Nous allons montrer de manière générale que le minimum d’une fonctionnelle doit vérifier une équa-
tions aux dérivées partielles, l’équation d’Euler.

Un problème de “calcul des variations”

Soit Ω ⊂ Rn , on note encore V0 l’espace des fonctions C 1 nulles sur le bord Γ de Ω. Soit
h(x, u, u1 , ..., un ) une fonction C 2 de x ∈ Ω et de n + 1 variables où (u, u1 , ..., un ) ∈ Rn+1 . On
pose, pour u ∈ V0 : Z
J(u) = h(x, u, ∇u) dΩ

Nous voulons caractériser les minimums ū de la fonction J(u) sur V0

∀u ∈ V0 J(ū) ≤ J(u) (3.23)


7
On dit aussi traditionnellement dans ce cas que J (v) est une fonctionnelle, usage que nous respecterons parfois quand
cela clarifie l’expression de distinguer les fonctions sur Rn des “fonctions de telles fonctions”.

69 Mathématiques 2
70 Analyse des équations aux dérivées partielles

3.4.2 Le théorème d’Euler-Lagrange


Formulation faible des équations d’Euler
La différentielle au sens de Gateaux de la fonction J(u) au point u est, par définition, la forme
linéaire DJ(u).v obtenue en dérivant la fonction dans la direction v. Soit v ∈ V0 , on a donc
d
DJ(u).v = J (u + λv)|λ=0

On dérive sous l’intégrale, il vient :
Z
∂h X ∂h ∂v
DJ(u).v = v+ dΩ
Ω ∂u ∂uj ∂xi
j

Posons
∂h ∂h t
∇ ui h = ( , ..., )
∂u1 ∂un
On en déduit le théorème
Théorème 11 Si fonction ū est un minimum de la fonctionnelle J(u), la différentielle DJ(ū).v est
nulle, i.e. ū vérifie Z
∂h
∀v ∈ V0 v + h∇ui h, ∇vi dΩ = 0 (3.24)
Ω ∂u

Nous allons voir que cette condition est la formulation faible d’une équation aux dérivées partielles.

Formulation classique des équations d’Euler

R Appliquons la formule de Stokes (1.2) avec Φ(x) = ∇ui h(u(x)) sur le domaine Ω à l’intégrale
Ω h∇ ui h, ∇vi dΩ, il vient (en supposant toutes les expressions suffisamment dérivables)
Z Z Z
hΦ, ∇vi dΩ = − ∇ . Φ v dΩ + Φn v dΓ
Ω Ω Γ

d’où Z Z Z
∂h
DJ(u).v = v dΩ − ∇ . Φ v dΩ + Φn v dΓ
Ω ∂u Ω Γ
Et, puisque v est nulle sur le bord
Z
∂h
DJ(u).v = ( − ∇ . Φ) v dΩ
Ω ∂u
En notant Z
hf, gi = f g dΩ

le produit scalaire de L2 (Ω), il vient


∂h
DJ(u).v = h( − ∇ . Φ), vi
∂u

ECP 2006-2007 70
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 71

Si u est un minimum de J(u) on a

∂h
∀v ∈ V0 DJ(u).v = h( − ∇ . Φ), vi = 0
∂u
et donc, puisque l’espace V0 a la propriété “P” du paragraphe (3.3.1)

∂h
−∇ . x (∇ui h)(x) + =0 (3.25)
∂u
où nous avons noté ∇ . x la divergence pour insister sur le fait qu’elle est prise par rapport au vecteur
x = (x1 , ..., xn ).

Le théorème d’Euler-Lagrange

On peut donc énoncer le théorème :

Théorème 12 ( Euler-Lagrange : condition nécessaire) Si une fonction ū ∈ V0 ∩ C 2 est un mini-


mum de la fonction Z
J(u) = h(x, u, ∇u) dΩ

elle vérifie les équations d’Euler-Lagrange

∂h
−∇ . x (∇ui h) + =0 (3.26)
∂u
où l’on a posé
∂h ∂h t
∇ ui h = ( , ..., )
∂u1 ∂un
L’équation aux dérivées partielles (3.26) s’appelle l’équation d’Euler associée au problème (3.23).

L’équation d’Euler-Lagrange est une condition nécessaire mais pas suffisante, elle est équivalente
au fait que la différentielle DJ(u) est nulle. L’équivalence du problème (3.23) et du problème aux
dérivées partielles ne sera facile à établir que si la fonction J (u) est convexe, voir le cours d’optimi-
sation pour la démonstration du théorème suivant :

Théorème 13 ( Euler-Lagrange : condition suffisante) Si la fonction J(u) est une fonction convexe
alors l’équation d’Euler (3.26) est une condition nécessaire et suffisante pour que ū soit un minimum
de la fonction J(u). Ce minimum est unique si la fonction J(u) est strictement convexe.

L’équation d’Euler est une équation aux dérivées partielles du second ordre que l’on peut écrire
aussi sous forme développée

X ∂2h ∂2u ∂h
− + =0 (3.27)
∂ui ∂uj ∂xi ∂xj ∂u
i,j

71 Mathématiques 2
72 Analyse des équations aux dérivées partielles

L’équation est linéaire vis à vis des dérivées secondes. Anticipons sur la section suivante : la condi-
tion d’ellipticité (voir ci-dessous la définition (13)) équivaut au caractère défini positif de la forme
quadratique
X ∂2h
Φ(ξ) = ξi ξj
∂ui ∂uj
i,j

qui implique que le hessien de la fonction h(x, u, u1 , ..., un ) considérée comme fonction de (u1 , ..., un )
seulement est défini positif et donc (cf. chapitre 1 du cours d’optimisation) que la fonction h(x, u, u1 , ..., un )
est strictement convexe par rapport au vecteur (u1 , ..., un ). On en déduit un théorème (qui n’est pas
le plus général)

Théorème 14 Si la fonction h = h(x, u, u1 , ..., un ) ne dépend pas de u et si l’équation d’Euler est


elliptique, sa solution dans V0 est l’unique minimum de la fonctionnelle strictement convexe
Z
J(u) = h(x, ∇u) dΩ

Exemples
Nous verrons de nombreux exemples d’équations aux dérivées partielles qui sont des équations
d’Euler-Lagrange au chapitre 4. Les plus élémentaires sont :

Equation de Laplace
Si
X 1 ∂u
h(x, u, ∇u) = ( )2
2 ∂xi
i
on a
∂u ∂u t
∇ ui h = ( , ..., )
∂x1 ∂xn
et l’équation d’Euler est l’équation de Laplace

−∆u = 0

Equation des ondes


Soit u = u(t, x1 , ..., xn ). Si

1 ∂u c2 X ∂u 2
h(t, x, u, ∇u) = ( )2 − ( )
2 ∂t 2 ∂xi
i

on a
∂u ∂u ∂u t
∇ ui h = ( , −c2 , ..., −c2 )
∂t ∂x1 ∂xn
et l’équation d’Euler est l’équation des ondes

∂2u
− c2 ∆u = 0
∂t2

ECP 2006-2007 72
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 73

Opérateur symétrique du second ordre


Plus généralement si
1 u2
h(x, u, ∇u) = hA(x) ∇u, ∇ui + γ(x)
2 2
où A(x) est une matrice symétrique,

∇ui h = A(x) ∇u

et l’équation d’Euler s’écrit


−∇ . (A(x) ∇u) + γ(x)u = 0
Le premier membre de l’équation est la partie symétrique d’un opérateur linéaire du second ordre
général (cf. théorème (10)).

Théorème 15 Une fonction u ∈ V0 qui est un extrémum de la fonctionnelle

u2
Z
1
J(u) = hA(x) ∇u, ∇ui + γ(x)
Ω 2 2
est solution de l’équation aux dérivées partielles du second ordre écrite sous la forme canonique

−∇ . (A(x) ∇u) + γ(x)u = 0

3.4.3 Généralisations
Fonctions vectorielles
Si u = (u1 , . . . , uk , . . . , up ) est une fonction vectorielle, autrement dit si la fonctionnelle

J(u) = J(u1 , . . . , uk , . . . , up )

dépend de plusieurs fonctions inconnues,

(u1 (x1 , ..., xn ), . . . , uk (x1 , ..., xn ), . . . , up (x1 , ..., xn ))

une fonction ū est un minimum de J(u) si, pour 1 ≤ k ≤ p, ūk est le minimum de la fonction
v → J(ū1 , . . . , v, . . . , ūp ) ; la formule (3.25) reste valide pour chaque fonction uk en considérant que
le gradient ∇uj h de h est en fait un gradient partiel ∇uk h de h par rapport à (uk1 , . . . , ukj , . . . , ukn ), le
j
minimum ū de J(u) doit donc vérifier le système d’équations aux dérivées partielles
∂h
pour 1 ≤ k ≤ p − ∇ . x (∇uk h) + =0 (3.28)
j ∂uk
où l’on a posé
∂h ∂h
∇ uk h = ( k
, ..., k )t
j ∂u1 ∂un
∂h
Définissons la matrice [σ] de coefficients [σ]k,j = ∂ukj
et notons ∇ . [σ] le vecteur dont la composante
k est la divergence de la k ième ligne de [σ]. On peut écrire de façon synthétique

73 Mathématiques 2
74 Analyse des équations aux dérivées partielles

Théorème 16 ( Euler-Lagrange) Si une fonction ū ∈ (V0 )n ∩ C 2 est un minimum de la fonction


Z
J(u) = h(x, u, ∇u) dΩ

elle vérifie le système d’équations d’Euler-Lagrange

−∇ . x [σ](x) + ∇u h(u) = 0 (3.29)


∂h
où [σ](x) est la matrice de coefficients [σ]k,j = ∂ukj

Nous verrons que les équations de l’élasticité sont un exemple de système d’équations d’Euler, la
fonctionnelle associée étant l’énergie potentiel totale.

Conditions aux limites


Voir au chapitre 4 le traitement des conditions aux limites générales.

Une équation avec des dérivées d’ordre supérieur


(Calculs laissés au lecteur) On généralise sans difficulté la théorie conduisant aux équations d’Eu-
ler à des intégrales qui dépendent des dérivées d’ordre supérieur à 1. On note vx , vxx , ... les dérivées
successives d’une fonction v(x). Considérons le problème
 RL
M in J(v) = 0 h(x, v, vx , vxx ) dx
(3.30)
v ∈ V0

avec V0 = {v tel que v(0) = v(L) = v 0 (0) = v 0 (L) = 0}.


Soit v ∈ V0 , on a donc
d
DJ(u).v = J (u + λv)|λ=0

La différentielle de la fonction J(v) s’obtient alors par dérivation sous l’intégrale (cf. Cours d’Opti-
misation Chapitre 1)
Z L
∂h ∂h ∂h
DJ(u).v = v+ vx + vxx dx
0 ∂u ∂u x ∂u xx
transformons cette intégrale par intégration par parties
Z L
∂h ∂ ∂h ∂ 2 ∂h ∂h L ∂h ∂ ∂h L
DJ(u).v = ( +− + 2 )v dx + [ v]0 + [ vx ]L
0 −[ v]
0 ∂u ∂x ∂ux ∂x ∂uxx ∂ux ∂uxx ∂x ∂uxx 0
Les crochets sont nuls du fait des conditions aux bord vérifiées par les fonctions de V0 . Donc
Z L
∂h ∂ ∂h ∂ 2 ∂h
∀h ∈ V0 , DJ(u).v = ( +− + 2 )v dx = 0
0 ∂u ∂x ∂ux ∂x ∂uxx
On obtient une conditions nécessaire, l’équation d’Euler-Lagrange :
d2 ∂h d ∂h ∂h
2
( 00 ) − ( 0) + =0 (3.31)
dx ∂u dx ∂u ∂u

ECP 2006-2007 74
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 75

Si on minimise sur l’espace des fonctions v qui vérifient seulement : v(0) = v(L) = 0, on montrera
que le minimum u vérifie de plus la condition aux limites u00 (0) = u00 (L) = 0.

Exemple : poutre en flexion


L’équation d’équilibre d’une poutre en flexion8 , sous une charge f (x), en appui simple s’écrit

d4 u
EI =f (3.32)
dx4
où u(x) est la flèche au point x avec u(0) = u(L) = 0 et EIu00 (0) = EIu00 (L) = 0 (i.e. les moments
de flexion aux extrémités sont nuls). La solution de ce probème est aussi solution du principe du
minimum de l’énergie Z
1 dv
Min J(v) = EI( )2 − f v dΩ (3.33)
Ω 2 dx
où l’espace des déplacements cinématiquement admissibles pour un appui simple est défini par v(0) =
v(L) = 0, (Noter que v 0 (0) et v 0 (L), i.e. les rotations des sections, sont libres). Les conditions de mo-
ment nul aux extrémités, EIu00 (0) = EIu00 (L) = 0, sont alors des conséquences du principe du
minimum.

3.5 Système du premier ordre équivalent à un système donné


3.5.1 Principe
Nous avons vu au chapitre 2 que l’équation le Laplace ou l’équation des ondes sont équivalentes
à des systèmes du premier ordre (2.5) et (2.17). On peut très généralement transformer des systèmes
d’équations d’ordre quelconque en systèmes du premier ordre.
Montrons le principe de cette transformation sur un problème de Cauchy. Nous utilisons la notation
∂u 2
uxi , uxi xj ... pour les dérivées partielles ∂x , ∂ u . On considère un problème de Cauchy pour une
i ∂xi ∂xj
équation aux dérivées partielles du second ordre sur Rn , écrite de façon explicite par rapport à la
dérivée uxn xn (x), avec deux conditions initiales en xn = 0 sur la valeur de la fonction et de la
dérivée normale 
 uxn xn (x) = g(u, uxi ..., uxi xj ...)
u(x1 , ..., xn−1 , 0) = h(x1 , ..., xn−1 ) (3.34)
uxn (x1 , ..., xn−1 , 0) = h1 (x1 , ..., xn−1 )

(la variable uxn ,xn n’apparaît pas à droite dans l’équation). On introduit des variables supplémentaires
pour les dérivées
u i = u xi
on a
uxi xi = ui xi , uxj xj = uj xj ,
et pour les dérivées croisées
uxi xj = ui xj
8
De module de Young E et de moment d’inertie I

75 Mathématiques 2
76 Analyse des équations aux dérivées partielles

ou bien
u xi xj = u j xi

L’équation (3.34) implique le système à n + 1 équations du premier ordre

= ui , i = 1, ..., n

u xi
(3.35)
u n xn = f (u, ui ..., ui xj ...)

Mais ce système n’est pas du tout explicite, il faudrait que n’apparaissent à gauche que des dérivées
par rapport à xn . Nous allons faire autrement : remarquons que la symétrie des dérivées secondes
d’une fonction implique
uixj = ujxi

On en déduit un problème de Cauchy pour un système à n + 1 équations du premier ordre pour n + 1


inconnues
= un

 uxn (x)
i
= unxi i = 2, ..., n

 uxn (x)


un xn (x) = f (u, ui ..., ui xj ...) (3.36)
n
u (x , ..., x , 0) = h (x , ..., x )

 i 1 n−1 1 1 n−1



u (x1 , ..., xn−1 , 0) = hxi (x1 , ..., xn−1 ) 2 ≤ i ≤ n

Ce problème est bien équivalent au problème initial car il implique

uixn = uxn xi

d’où en intégrant par rapport à xn

ui (x1 , ..., xn ) = uxi (x1 , ..., xn ) + C(x1 , ..., xn−1 )

Or, en faisant xn = 0

C(x1 , ..., xn−1 ) = ui (x1 , ..., 0) − uxi (x1 , ..., 0) = ui (x1 , ..., 0) − hxi (x1 , ..., 0) = 0

et donc
u i = u xi

Remarques :
Si u n’apparaît pas dans l’équation initiale on peut supprimer la première équation qui ne sert qu’à
retrouver u une fois les autres variables déterminées par le système des n autres équations.
Nous avons montré l’équivalence de l’équation initiale et du système d’équations pour un problème
de Cauchy, pour un autre type de problèmes il faut vérifier cette équivalence qui sera dépendante des
conditions supplémentaires posées dans ce problème.

ECP 2006-2007 76
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 77

3.5.2 Exemples
L’équation des ondes
Appliquons ce principe à l’équation des ondes en dimension 2, avec x = (x1 , x2 )
 2
∂ u
= c2 ∆u




 ∂t 2




 u(x, 0) = h(x)
(3.37)
 ∂u

 (x, 0) = 0
∂t






u(0, t) = u(1, t) = 0

En supprimant l’équation qui ne sert qu’à retrouver u, on obtient le système du premier ordre
 1
 ut = u3x1



u2t = u3x2







u3t = c2 (u1x1 + u2x2 ) (3.38)



i
 u (x, 0) = hxi (x), 1≤i≤2






 3
u (x, 0) = 0

Ou encore sous forme matricielle, en posant U (x, t) = (u1 , u2 , u3 )t


   
0 0 1 0 0 0
∂U ∂U ∂U
=  0 0 0 + 0 0 1
∂t ∂x1 ∂x2
c2 0 0 0 c2 0

Un changement de variables supplémentaires u1 → cu1 et u2 → cu2 , rend les composantes u1 , u2 , u3


homogènes (en dimension) et permet d’obtenir des matrices symétriques
   
0 0 c 0 0 0
∂U ∂U ∂U
= 0 0 0 + 0 0 c (3.39)
∂t ∂x1 ∂x2
c 0 0 0 c 0

Equation générale du second ordre


Appliquons la transformation du paragraphe précédent à l’équation générale quasi-linéaire aux
dérivées partielles du second ordre, c’est à dire qui est linéaire par rapport aux dérivées secondes, on
peut l’écrire sous la forme
X
ai,j (x, u, ∇u)uxi xj + c(x, u, ∇u) = 0 (3.40)
i,j

77 Mathématiques 2
78 Analyse des équations aux dérivées partielles

On obtient le système quasi-linéaire du premier ordre


 X

 ai,j uixj + c(u)

 i,j


(3.41)

 uixn = unxi 1≤i≤n−1



u xn = u n

Ou encore sous forme matricielle, en posant U (x) = (u1 , ..., un , u)t


X ∂U
Aj (x, U ) + f (x, U ) = 0 (3.42)
∂xj
j

avec ( pour n = 3, c’est plus simple...)


 
a1,1 a1,2 a1,3 0
 0 0 −1 0
A1 (x, U ) = 
 0

0 0 0
0 0 0 0
 
a2,1 a2,2 a2,3 0
 0 0 0 0
A2 (x, U ) =  
 0 0 −1 0
0 0 0 0
 
a3,1 a3,2 a3,3 0
 1 0 0 0
A3 (x, U ) = 
 0

1 0 0
0 0 0 1
et  
c(u)
 0 
A0 (x, U ) = 
 0 

un

3.6 Le théorème de Cauchy-Kovalevska


Cette section n’est pas indispensable à la compréhension du cours mais elle permet de prendre un
peu de recul dans la compréhension des équations aux dérivées partielles.

3.6.1 Position du problème


Le théorème de Cauchy-Lipschitz (5) résout le problème de la détermination des solutions géné-
rales d’un système différentiel à n inconnues : la solution du système dépend de n paramètres réels
qui peuvent être les valeurs de la solution en un point. Une autre façon de résoudre ce problème est

ECP 2006-2007 78
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 79

classique9 pour des équations linéaires mais elle se généralise au équations quelconques : on suppose
que toutes les données sont analytiques et on cherche par substitution une fonction analytique solution
de l’équation ; ou, plutôt, on remarque qu’en dérivant les équations du système x0 = f (x) on obtient
des relations de récurrence entre les dérivées en un temps t et que, donc, la connaissance de la valeur
x(0) de la solution détermine toutes les dérivées de la solution en t = 0 et détermine finalement le
développement en séries entières de la solution.
Nous nous posons dans ce paragraphe la question :

De quoi dépend la solution “générale” d’un système d’équations aux dérivées partielles ?

∂u ∂ u 3
Nous utilisons la notation uxi , uxi xj xk ... pour les dérivées partielles ∂x ,
i ∂xi ∂xj ∂xk
... et uxk xl
1 2
pour abréger les répétitions d’indices. Nous appelons fonctions analytiques les fonctions analytiques
réelles, c’est à dire localement développables en série entière.
Considérons pour fixer les idées une équation non linéaire du second ordre à une fonction inconnue
u(x) avec x ∈ R2
f (u, ux1 , ux2 , ux1 x1 , ux1 x2 , ux2 x2 ) = 0 (3.43)
où f est une fonction analytique sur R6 . Nous cherchons une solution analytique u(x1 , x2 ) de (3.43).
L’équation (3.43) est une relation entre les dérivées de la fonction u en un point. Mais en dérivant
l’équation (3.43) nous obtenons d’autres équations entre les dérivées d’ordre supérieur. Ainsi une
équation aux dérivées partielle implique tout un ensemble de relations entre les dérivées partielles en
un point. Nous posons une question plus précise :

Quelles dérivées partielles peut-on fixer en un point (x1 , x2 ) ?

Pour fixer les idées supposons que ce point est (0, 0). Supposons que l’on puisse exprimer dans
l’équation (3.43) ux2 x2 en fonction des autres dérivées d’ordre 0, 1, 2

ux2 x2 = g(u, ux1 , ux2 , ux1 x1 , ux1 x2 ) (3.44)

D’après le théorème des fonctions implicites (cours d’Optimisation, chapitre 1) c’est localement pos-
sible en un point où
∂2f
6= 0 (3.45)
∂ux2 x2
et g est alors une fonction analytique. L’équation (3.44) est équivalente à (3.43). En dérivant (3.44) on
peut exprimer successivement toutes les dérivées d’ordre supérieur à 2 en x2 en fonction des dérivées
d’ordre inférieur à 2 en x2 ; on en déduit que l’on peut au plus fixer les dérivées d’ordre 0 et 1 par
rapport à x2 , c’est à dire au point (0, 0) : uxk (0, 0) et ux2 xk (0, 0). Toutes les dérivées uxk xl (0, 0) sont
1 1 1 2
alors déterminées et une fonction u(x1 , x2 ) est localement déterminée par le développement en série
entière, si ce développement converge
X
u(x1 , x2 ) = uxk xl (0, 0)xk1 xl2
1 2
k,l
9
C’est d’ailleurs la méthode originelle de Cauchy qui utilisait le cadre des fonctions analytiques, le théorème énoncé
aujourd’hui dans le cadre des fonction C 1 , et démontré par une méthode de point fixe, est postérieur.

79 Mathématiques 2
80 Analyse des équations aux dérivées partielles

Noter que fixer les dérivées uxk (0, 0) et ux2 xk (0, 0) revient à fixer localement autour de 0 les fonctions
1 1
u(x1 , 0) et ux2 (x1 , 0). Plus précisément, si on considère le problème de Cauchy

 ux2 x2 = g(u, ux1 , ux2 , ux1 x1 , ux1 x2 )
u(x1 , 0) = u0 (x1 ) (3.46)
ux2 (x1 , 0) = u1 (x1 )

alors les dérivées uxk (0, 0) et ux2 xk (0, 0) sont déterminées par
1 1

uxk (0, 0) = u0 ,xk (0)


1 1

ux2 xk (0, 0) = u1 ,xk (0)


1 1

Le problème de Cauchy admet donc une solution analytique et une seule (mais nous avons admis
la convergence de la série !). Le théorème de Cauchy-Kovalevska affirme que le développement
converge et que sa somme est une solution de (3.46).

3.6.2 Le théorème de Cauchy-Kovalevska : forme canonique


On considère dans ce paragraphe des systèmes généraux d’équations aux dérivées partielles. Soit
u(x) une fonction de Rn dans Rp . Considérons un système d’équations aux dérivées partielles écrit
sous la forme explicite
uxkn = g(u, uxi ..., uxi xj , ...) (3.47)

Définition 10 Le système (3.47) est dit Kovalevskien si les dérivées qui interviennent à droite sont
toutes d’ordre inférieur ou égal à k.

L’équation des ondes (2.16) est donc Kovalevskienne mais pas l’équation de la diffusion (2.8). Les
équations de Navier Stokes (2.34) ne forment pas un système Kovalevskien (à cause du terme de
viscosité) ni les équations d’Euler (2.35) pour les fluides incompressibles (à cause de la condition
d’incompressibilité), mais les équations de la dynamique des gaz (2.38) forment un système Kova-
levskien.
Nous admettrons le théorème :

Théorème 17 (Cauchy-Kovalevska) Le problème de Cauchy

si x ∈ Rn

 uxkn = g(u, uxi ..., uxi xj , ...)
(3.48)
n−1 , 0) = uj (x) pour 0 ≤ j ≤ k − 1
 u j (x , ..., x
xn 1

où les fonctions g, uj (x), 0 ≤ j ≤ k − 1 sont analytiques, admet, localement en temps et en espace,


une unique solution analytique.

ECP 2006-2007 80
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 81

3.6.3 Commentaires
Le théorème de Cauchy-Kovalevska répond à la question que nous avons posée plus haut dans
le cas des systèmes Kovalevskien avec des données analytiques : la solution générale du système
dépend des données initiales du problème de Cauchy, c’est à dire de k − 1 fonctions de n − 1 va-
riables. Ce résultat est loin de résoudre la question de la détermination locale d’une solution générale
d’un système d’équations aux dérivées partielles comme le fait le théorème de Cauchy-Lipschitz
pour les systèmes différentiels. En effet l’hypothèse d’analyticité des conditions initiales est très forte
(elle interdit en particulier de considérer des données initiales à support compact) et on montre par
des contre-exemples qu’il n’est pas possible d’étendre le théorème, même à des fonctions C ∞ . Plus
précisément, dans la situation générale, on montre que la solution définie par le théorème (3.48) ne
dépend continûment des données initiales pour aucune norme raisonnable. Considérons par exemple
l’équation de Laplace en dimension 2, que nous écrivons ici sous la forme explicite Kovalevskienne

si x ∈ R2


 uyy = −ux,x


u(x, 0) = f (x) (3.49)



uy (x, 0) = g(x)

Les fonctions √
uk (x, y) = exp (− k) sin kx exp ky
sont des solutions particulières analytiques de (3.49) avec pour condition initiales
√ √
f (x) = exp (− k) sin kx et g(x) = k exp (− k) sin kx

Quand k → ∞ les conditions initiales tendent vers 0 ainsi que toutes leurs dérivées en tous les sens
raisonnables : pourtant pour y > 0 les fonctions x → uk (x, y) explosent quand k → ∞.
Ce contre-exemple, dû à Hadamard10 , montre que le problème de Cauchy pour le Laplacien est in-
tuitivement mal posé quoique toutes les hypothèses du théorème (3.48) soient vérifiées. De fait une
équation de Laplace ne se rencontre en physique que pour des problèmes aux limites mais jamais pour
un problème à valeur initiale de Cauchy. Nous verrons au chapitre 5 que les systèmes hyperboliques
sont les systèmes Kovalevskiens pour lesquels le problème de Cauchy est bien posé, i.e. continû-
ment dépendant des conditions initiales pour des normes raisonnables, ce qui permet d’étendre les
conditions initiales dans (3.48) à des fonctions de classe C k .

3.6.4 Surface caractéristique


Analyse de la situation générale
Dans ce paragraphe nous voulons étudier la situation générale d’un système écrit sous forme
implicite, mais pour alléger les écritures, nous considérons une équation du second ordre sur R2 à
une fonction inconnue u(x1 , x2 ), comme nous l’avons fait au paragraphe (3.6.1),

f (u, ux1 , ux2 , ux1 x1 , ux1 x2 , ux2 x2 ) = 0 (3.50)


10
Ancien professeur de mathématiques à l’Ecole Centrale Paris, mais il a d’autres titres de gloire !

81 Mathématiques 2
82 Analyse des équations aux dérivées partielles

Nous avons écrit l’équation (3.43) sous une forme explicite Kovalevskienne (3.44), sous la condition
(3.45)
∂f
6= 0
∂ux2 x2
Une fois l’équation mise sous forme explicite Kovalevskienne, le théorème de Cauchy-Kovalevska
répond à la question posée initialement. Mais cette opération n’a rien d’intrinsèque, elle dépend de la
variable et du système de coordonnées choisis, aussi nous posons nous la question générale :

Peut-on mettre le système sous forme explicite Kovalevskienne dans un système de coordonnées
quelconque ?

Fixons un point, par exemple (0, 0) et effectuons autour de ce point un changement de variables
quelconque définie par des fonctions analytiques

y = φ(x), i.e. y1 = φ1 (x1 , x2 ), y2 = φ2 (x1 , x2 )

(on peut supposer φ(0) = 0) et posons u = v(φ(x)). Le changement de variables étant analytique
l’équation, écrite en fonction de v, est toujours définie par des fonctions analytiques. Cherchons à
quelle condition l’équation (3.50), écrite en fonction des nouvelles variables, est Kovalevskienne par
rapport à la variable y2 , c’est à dire à quelle condition
∂f
6= 0
∂vy2 y2
On a, en effectuant des calculs fastidieux mais sans autres astuces que les règles usuelles des dérivées
des fonctions composées


 u = v(φ(x))



 u x1 = vy1 φ1,x1 + vy2 φ2,x1
 u x2

 = vy1 φ1,x2 + vy2 φ2,x2
ux1 ,x1 = vy1 ,y1 φ21,x1 + vy1 ,y2 φ1,x2 φ2,x1 + vy2 ,y1 φ1,x2 φ2,x1








+ vy2 ,y2 φ22,x1 + vy1 φ1,x1 x1 + vy2 φ2,x1 x1

(3.51)


 ux2 ,x2 = vy1 ,y1 φ21,x2 + vy1 ,y2 φ1,x2 φ2,x2 + vy2 ,y1 φ2,x2 φ1,x2


+ vy2 ,y2 φ22,x2 + vy1 φ1,x2 x2 + vy2 φ2,x2 x2





ux1 ,x2 = vy1 ,y1 φ1,x2 φ1,x1 + vy1 ,y2 φ1,x2 φ2,x1 + vy2 ,y1 φ2,x1 φ1,x2








+ vy2 ,y2 φ2,x1 φ2,x2 + vy1 φ1,x1 x2 + vy2 φ2,x1 x2

Et donc
∂f ∂f ∂f ∂f
= φ22,x1 + φ2,x1 φ2,x1 + φ2 (3.52)
∂vy2 y2 ∂ux1 x1 ∂ux1 x2 ∂ux2 x2 2,x2
L’équation peut donc se mettre sous forme explicite Kovalevskienne (par rapport à vy2 y2 ) si
∂f ∂f ∂f
φ2 + φ2,x1 φ2,x1 + φ2 6= 0 (3.53)
∂ux1 x1 2,x1 ∂ux1 x2 ∂ux2 x2 2,x2

ECP 2006-2007 82
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 83

Sous cette condition l’équation, écrite en fonction de v de façon explicite par rapport à vy2 y2 , vérifie
les conditions du théorème de Cauchy-Kovalevska et le problème de Cauchy associé admet locale-
ment une solution autour, par exemple, du point y1 = 0, y2 = 0 avec des conditions initiales posées
sur la courbe y2 = 0.
Introduisons la définition

Définition 11 Soit une courbe définie implicitement par l’équation S(x1 , x2 ) = 0 (où S(x1 , x2 ) est
analytique) et (y1 , y2 ) un paramètrage local du plan tel que y2 = S(x1 , x2 ) et que y1 paramètre la
courbe. On appelle problème de Cauchy le problème

 f (u, ux1 , ux2 , ux1 x1 , ux1 x2 , ux2 x2 ) = 0

u = u0 (y1 ) si y2 = S(x1 , x2 ) = 0 (3.54)
 ∂u
 y2 = u1 (y1 )

Nous avons donc montré la proposition

Proposition 30 Soit la courbe définie implicitement par l’équation

S(x1 , x2 ) = φ2 (x1 , x2 ) = 0

Sous la condition (3.53) que nous récrivons sous la forme


∂f ∂S 2 ∂f ∂S ∂S ∂f ∂S 2
( ) + + ( ) 6= 0 (3.55)
∂ux1 x1 ∂x1 ∂ux1 x2 ∂x1 ∂x2 ∂ux2 x2 ∂x2
le problème de Cauchy (3.54) admet une solution analytique et une seule.

Courbe caractéristique
Nous étudions les courbes sur lesquelles le problème de Cauchy ne peut pas être posé.

Définition 12 On appelle courbe caractéristique associée à l’équation (3.50) une courbe d’équation
implicite
S(x1 , x2 ) = Cte
où la fonction S(x1 , x2 ) est une solution de l’équation caractéristique
∂f ∂S 2 ∂f ∂S ∂S ∂f ∂S 2
( ) + + ( ) =0 (3.56)
∂ux1 x1 ∂x1 ∂ux1 x2 ∂x1 ∂x2 ∂ux2 x2 ∂x2
Sur une courbe caractéristique la condition (3.55) n’est donc pas vérifiée. Supposons qu’il existe
localement une famille de courbes caractéristiques d’équation S(x1 , x2 ) = Cte. Montrons que sur
ces courbes le problème de Cauchy ne peut pas être posé pour des données initiales quelconques.
Notons φ2 (x1 , x2 ) la fonction S(x1 , x2 ). On peut définir un changement de variables en prenant
y2 = φ2 (x1 , x2 ) et y1 = φ1 (x1 , x2 ) où φ1 (x1 , x2 ) une fonction quelconque indépendante de φ2 . On
pose φ(x) = (φ1 (x), φ2 (x)) et on note v la fonction telle que u(x) = v(φ(x)). L’équation (3.50)
s’écrit en fonction de v
f (v, vy1 , vy2 , vy1 y1 , vy1 y2 , vy2 y2 ) = 0

83 Mathématiques 2
84 Analyse des équations aux dérivées partielles

mais avec par hypothèse


∂f
=0
∂vy2 y2
autrement dit vy2 y2 n’apparaît pas explicitement dans l’équation. Ce qui implique que l’on ne peut
pas fixer le long d’une courbe (i.e. en faisant varier y1 ) la fonction v et la dérivée transverse vy2 car
l’équation (3.50) définit une relation entre les dérivées de ces fonctions par rapport à y1 .

Proposition 31 Le long d’une courbe caractéristique le problème de Cauchy ne peut pas être posé
pour des données quelconques.

Existence des courbes caractéristiques


L’équation (3.55) est définie par une forme quadratique. Soit
 ∂f 1 ∂f 
,
 ∂u 1 x1 2 ∂ux1 x2 
A =  1 x∂f ∂f 
,
2 ∂ux1 x2 ∂ux2 x2
la matrice de cette forme quadratique
∂f ∂f ∂f
Φ(ξ1 , ξ2 ) = ξ12 + ξ1 ξ2 + ξ2 (3.57)
∂ux1 x1 ∂ux1 x2 ∂ux2 x2 2

Soit P (x) le polynôme caractéristique de cette matrice

P (x) = det A − xId

− Si le polynôme P (x) a deux zéros de même signe, la forme quadratique est définie positive ou
négative et l’équation (3.56 n’a pas de solutions non nulles, il n’y a donc pas de surfaces caractéris-
tiques.

− Si polynôme P (x) a deux zéros non nuls et de signes opposés, alors la forme quadratique
Φ(ξ1 , ξ2 ) admet deux directions isotropes11 d’équation ξ1 = λi ξ2 ou λi est un zéro du polynôme12
Q(x) = Φ(x, 1). On déduit alors de (3.56) deux équations

∂S ∂S
= λi (x1 , x2 ) i = 1 ou i = 2 (3.58)
∂x1 ∂x2
On peut choisir l’équation implicite de la courbe sous une forme qui la rend explicite

S(x1 , x2 ) = x1 − f (x2 ) = 0
11
i.e. telle que Φ(ξ2 , ξ2 ) = 0
12
On peut définir en dimension 2 un autre polynôme Q(x) associés à une forme quadratique : Q(x) = Φ(x, 1) =
a1,1 x2 + 2a1,2 x + a2,2 , ce polynôme n’a pas de sens en dimension supérieure. Le lecteur vérifiera que si P (x) a deux
racines de même signe, Q(x) n’a pas de racine réelle, et que si P (x) a deux racines de signes opposés, Q(x) a deux racines
réelles. Ce qui fait que parfois les définitions que nous donnons ci-dessous utilisent le caractère réel ou non des racines du
polynôme Q(x), c’est plus naturel ici, mais ces définitions ne s’étendent pas en dimension supérieure

ECP 2006-2007 84
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 85

en reportant dans (3.58) on voit que la courbe x1 = f (x2 ) est définie par l’équation différentielle
1 = −λi (f (x2 ), x2 )f 0 (x2 )
ou encore , puisque λi 6= 0
1
f 0 (x2 ) = −
λi (f (x2 ), x2 )
Cette équation admet, pour chaque valeur de i, une solution unique telle que f (0) = 0. Il existe donc
deux courbes caractéristiques passant par chaque point.

− Laissons de côté le cas des formes quadratiques dégénérées (voir chapitre 5), notons que si la
forme quadratique est nulle l’équation est en fait une équation aux dérivées partielles d’ordre 1 qui
sera étudiée au chapitre 5.
Nous pouvons conclure :
Proposition 32 Si le polynôme caractéristique P (x) de la matrice de la forme quadratique (3.57) a
deux zéros de même signe, la forme quadratique est définie positive ou négative, l’équation n’admet
pas de courbe caractéristique, on peut donc poser un problème de Cauchy sur toutes les courbes.
Si le polynôme P (x) a deux zéros non nuls de signes opposés, il existe deux familles de courbes
caractéristiques telles que par chaque point il passe exactement deux courbes caractéristiques, le
long desquels le problème de Cauchy ne peut pas être posé pour des données quelconques.
Cela conduit à poser les définitions :
Définition 13 Une équation aux dérivées partielles du second ordre telle que la forme quadratique
(3.57) est définie positive est une équation elliptique.
Une équation aux dérivées partielles du second ordre telle que le polynôme caractéristique de la
forme quadratique (3.57) a deux zéros réels distincts non nuls est une équation hyperbolique.
Les définitions d’équation elliptique ou hyperbolique ne font intervenir que les dérivées d’ordre 2 ;
ces définitions sont locales vis à vis des valeurs de la fonction u et de ses dérivées : selon ces valeurs
l’équation peut changer de type, c’est le cas dans certaines équations de la mécanique des fluides où
le changement de type correspond au passage subsonique/supersonique.

Exemples
Le Laplacien −∆ définit des équations elliptiques
−∆u = 0
−∆u + u = f
~ .∇u = f
−∆u + V
Nous verrons au chapitre 4 des conditions naturelles qui impliquent l’ellipticité d’équations non li-
néaires.
On vérifie que l’équation des ondes (2.16) est hyperbolique.

Pour les opérateurs linéaires nous posons directement les définitions suivantes, cohérentes avec la
définition générale (13) :

85 Mathématiques 2
86 Analyse des équations aux dérivées partielles

Définition 14 Soit un opérateur linéaire aux dérivées partielles du second ordre P (D) pour un po-
lynôme
P (x1 , x2 ) = a + a1 x1 + a2 x2 + a1,1 x21 + 2a1,2 x1 x2 + a2,2 x22
Soit P1 (λ) le polynôme caractéristique de la matrice
 
a1,1 a1,2
A=
a2,1 a2,1

− si le polynôme caractéristique a deux racines réelles strictement positive, l’opérateur est elliptique,
− si le polynôme caractéristique a deux racines réelles non nulles de signes opposés, l’opérateur est
hyperbolique,
− si le polynôme caractéristique a une racine nulle, l’opérateur est parabolique, nous étudierons cette
situation au chapitre 5.

Si l’opérateur est à coefficients constants, les caractéristiques sont des droites, on montre facilement
qu’un changement de variables linéaire ramène l’opérateur aux formes canoniques suivantes :
− si l’équation est elliptique
−∆u
− si l’équation est hyperbolique
∂2u ∂2u

∂x21 ∂x22
∂2u
c’est à dire l’opérateur de l’équation des ondes, ou aussi ∂x1 ∂x2 ,
− si l’équation est parabolique
∂u ∂2u
− 2
∂x1 ∂x2
c’est à dire l’opérateur de l’équation de la diffusion.

Discontinuités et courbes caractéristiques


Les arguments de ce paragraphe sont très heuristiques. Nous allons montrer que certains type de
discontinuité de la solution d’une équation aux dérivées partielles du second ordre ne sont possibles
que le long d’une courbe caractéristique. La présence de discontinuité peut paraître contradictoire
puisque nous avons supposé les solutions régulières, mais le passage aux formulations faibles telles
que (3.17) permet de chercher des solutions qui sont a priori C 1 par morceaux et le passage aux
formulations au sens des distributions (3.19), quand il a un sens, permet de chercher des solutions
discontinues.
Soit Γ la courbe le long de laquelle se raccordent les parties u− et u+ de la solution et y2 une variable
transverse à la courbe Γ. Supposons la solution analytique de part et d’autre de cette courbe et suf-
fisamment régulière sur Γ, par exemple C 1 . Si cette courbe n’est pas caractéristique le théorème de
Cauchy-Kovalevska implique l’unicité d’une solution analytique dès lors que u et uy2 sont détermi-
nées sur Γ ; or ces deux fonctions sont parfaitement déterminées si la solution est C 1 , donc u− et u+
se raccordent parfaitement le long de Γ. Autrement dit une discontinuité de ce type n’est possible que
sur une courbe caractéristique.

ECP 2006-2007 86
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 87

Supposons que la variable x2 représente le temps et que le phénomène physique que modélise cette
équation a une vitesse de propagation finie (par exemple l’équation des ondes). Si on considère un
état initial à support compact, la solution u(x1 , x2 ) est donc, par hypothèse, pour tout t à support
compact. Soit Γ la courbe le long de laquelle se raccordent les parties nulles u− et non nulles u+
de la solution. L’argument précédent montre que la courbe de raccord doit être une caractéristique et
donc que la pente de la caractéristique détermine la vitesse de propagation, ce que nous verrons plus
en détail au chapitre 5.

3.6.5 Système quasi-linéaire


Nous reprenons dans ce paragraphe l’étude du problème de Cauchy dans la cadre des systèmes
quasi-linéaires du premier ordre.

Le problème de Cauchy

Nous considérons un système d’équations du premier ordre linéaires par rapport aux dérivées par-
tielles (nous avons vu ci-dessus que tout système d’équations aux dérivées partielles pouvait s’écrire
sous la forme d’un système du premier ordre, mais comme cette écriture n’est pas unique les proprié-
tés des différents systèmes obtenus peuvent différer). Soit donc un système de p équations linéaire du
premier ordre à p inconnues que nous écrivons sous la forme
X ∂u
Aj (x, u) = f (x, u) (3.59)
∂xj
j

où u(x) est une fonction C 1 de Ω ⊂ Rn dans Rp , les matrices Aj (x, u) sont carrées de dimension
(p, p) et le vecteur f (x, u) ∈ Rp .
Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec ∇S(x1 , ..., xn ) 6= 0,
et u0 (x) une fonction définie sur cette surface.

Définition 15 Un problème de Cauchy pour le système (3.59) consiste à trouver localement autour
de Σ une solution de (3.59) qui soit égale à u0 sur Σ
X ∂u
Aj (x, u) = f (x, u)
∂xj (3.60)
j
u(x) = u0 (x) si x ∈ Σ

Analyse

Nous allons étudier à quelle condition le problème Cauchy (15) admet une solution analytique. On
∂S
peut toujours supposer ∂x 1
6= 0 quitte à permuter les variables. Choisissons pour nouvel ensemble
de variables y = (y1 , x2 , ..., xn ), avec y1 = S(x1 , ..., xn ). C’est, localement, un changement de
∂S
variables propre car on peut l’inverser : d’après le théorème des fonctions implicites si ∂x 1
6= 0
il existe φ(y1 , x2 , ..., xn ) tel que y1 = S(x1 , ..., xn ) implique x1 = φ(y1 , x2 , ..., xn ). On notera

87 Mathématiques 2
88 Analyse des équations aux dérivées partielles

x = Φ(y) ce changement de variables


Soit v(y) = v(y1 , x2 , ..., xn ) la fonction telle que u = v(S(x1 , ..., xn ), x2 , ..., xn ). On a

∂u ∂v ∂S ∂v
= +
∂xj ∂y1 ∂xj ∂xj

et
∂u ∂v ∂S
=
∂x1 ∂y1 ∂x1
On en déduit par substitution
X ∂u X ∂S ∂v X ∂v
Aj (x, u) = Aj (x, u) + Aj (x, u)
∂xj ∂xj ∂y1 ∂xj
j j j>1

Posons
X ∂S
A(x, u) = Aj (x, u)
∂xj
j

Il vient
∂v X ∂v
A(x, u) = f (x, u) − Aj (x, u) (3.61)
∂y1 ∂xj
j>1

Si A(x, u) est inversible pour tout x et pour toutes les fonctions u qui sont dans un voisinage de u0 ,
on peut en déduire pour v, après le changement de variables x = Φ(y), un système aux dérivées
partielles explicite et donc un problème de Cauchy explicite équivalent à (15)
  
 ∂v X ∂v 
= A(Φ(y), v(Φ(y))−1 f (Φ(y), v(Φ(y))) −


 Aj (Φ(y), v(Φ(y)))
∂y1 ∂yj (3.62)
j>1




u(0, y2 , ..., yn ) = u0 (y2 , ..., yn )

Si toutes les données, ainsi que la surface, sont définies par des fonction analytiques on en déduit
que toutes les fonctions du second membre sont analytiques et donc, par le théorème de Cauchy-
Kovalevska (3.48), l’existence et l’unicité d’une solution analytique locale. D’où le théorème :

Théorème 18 Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec
∇S(x1 , ..., xn ) 6= 0 et S(x) analytique, et soit u0 (x) une fonction définie sur cette surface. Si

X ∂S
det Aj (x, u) 6= 0
∂xj
j

pour tous les points x ∈ Σ et pour toutes les fonctions u d’un voisinage de u0 , le problème de Cauchy
(3.60) admet localement une solution analytique.

ECP 2006-2007 88
CHAPITRE 3. QUELQUES OUTILS D’ANALYSE DES E.D.P. 89

Caractéristiques
Pour caractériser les surfaces sur lesquelles le problème de Cauchy n’a pas en général de solutions,
nous posons la définition :

Définition 16 Soit Σ une (hyper)surface dans Rn d’équation implicite S(x1 , ..., xn ) = 0, avec
∇S(x1 , ..., xn ) 6= 0 et S(x) analytique. Si pour une fonction u donnée,
X ∂S
det Aj (x, u) = 0
∂xj
j

en tout point x, Σ est une surface caractéristique pour l’équation aux dérivées partielles (15).

Si le système est non linéaire en u et donc si les matrice Aj (x, u) dépendent de u les surfaces ca-
ractéristiques dépendent des valeurs de u, mais pour les systèmes linéaires en u, même à coefficients
variables, la notion de surface caractéristique ne dépend que de l’équation.
Si pour tous réels (ξ1 , ..., ξn ) non tous nuls on a
X
det ξj Aj (x, u) 6= 0
j

le problème de Cauchy admet localement une solution analytique sur toutes les surfaces analytiques ;
nous poserons donc la définition

Définition 17 Un opérateur aux dérivées partielles du premier ordre, linéaires par rapport aux déri-
vées
X ∂u
Aj (x, u) − f (x, u)
∂xj
j

est elliptique si
X
∀(ξ1 , ..., ξn ) ∈ Rn , ∀u ∈ R det ξj Aj (x, u) = 0 ⇒ ∀j ξj = 0
j

Pour un problème elliptique le problème de Cauchy admet donc toujours une solution analytique.
Mais, et c’est très important, on montre que cette solution est toujours instable par rapport aux don-
nées : le problème de Cauchy est toujours mal posé.

Propriétés des surfaces caractéristiques


1) L’équation qui définit les caractéristiques (16) est définie par un polynôme homogène de degré
p en les variables ξj . Si on veut exprimer dans cette équation une variable, par exemple ξ1 , en fonction
des autres il faut chercher les zéros d’un polynôme de degré p. Si ce polynôme a des zéros réels on en
∂S
déduit par continuité que ξ1 peut être représenté par des fonctions des ξj , j > 1 et donc que ∂x 1
peut
∂S
s’écrire en fonction des ∂xj , j > 1, ce qui définit une équation aux dérivées partielles du premier
ordre qui permet de déterminer une surface caractéristique.

89 Mathématiques 2
90 Analyse des équations aux dérivées partielles

2) Cherchons des solutions au sens classique d’un système d’équations linéaires qui soient conti-
nues partout et dérivables partout sauf éventuellement sur une surface qui serait une surface de dis-
continuité des dérivées normales. Si cette surfaces n’est pas caractéristique les dérivées normales sont
déterminées par les dérivées tangentielles qui sont continues sur la surface comme l’est la solution,
les dérivées normales sont donc aussi continues. Ainsi les surfaces de discontinuité des dérivées sont
nécessairement des surfaces caractéristiques. Un système elliptique n’admet donc pas de telles dis-
continuité.

3) Supposons ici que les matrices Aj (x, u) ne dépendent pas de u. Soit Σ une surface caractéris-
tique. Sur cette surface, définie par y1 = 0, on a l’identité (3.61)

∂v X ∂v
A(y) = f (y, v) − Aj (y)
∂y1 ∂xj
j>1

où nous avons substitué y et v à x et u sans changer les notations des matrices pour ne pas alourdir
les notations. Soit V (y) un vecteur normalisé qui définit le noyau de At (y), on a sur Σ

At (y) V (y) = 0

et donc, pour y1 = 0
X ∂v
hV (y), f (y, v)i − hAtj (y) V (y), i=0
∂xj
j>1

Nous avons obtenu une équation aux dérivées partielles du premier ordre que doivent vérifier les
fonctions vi (0, x2 , ..., xn ). Ce qui montre que v ne peut être choisi arbitrairement sur Σ.

ECP 2006-2007 90
Chapitre 4

Les problèmes aux limites

Objectifs
Ce chapitre est une introduction aux problèmes aux limites, c’est à dire en général les problèmes
de statique ou de régime permanent. Nous avons vu les exemples les plus classiques de problèmes
aux limites au chapitre 2. Nous verrons que ce sont aussi en général les problèmes associés à des
opérateurs aux dérivées partielles elliptiques. Voir [11] ou [12] pour un exposé plus complet.

4.1 Introduction
4.1.1 Quelques définitions
Voir le chapitre 2 du cours d’optimisation pour plus de détail. On note J(v) une fonction définie
sur un espace normé V , de norme ||v||.
Définition 18 La fonction J(v) est coercive si
∀v ∈ V lim J(v) = +∞
kvk→∞

Définition 19 La fonction J(v) est convexe si


∀u, v ∈ V ∀t, t ∈ [0, 1] ⇒ J(tu + (1 − t)v) ≤ tJ(u) + (1 − t)J(v)
Définition 20 La fonction J(v) est strictement convexe si
∀u, v ∈ V ∀t ∈]0, 1[ J(tu + (1 − t)v) < tJ(u) + (1 − t)J(v)
Définition 21 On suppose que V est un espace préhilbertien (c’est à dire muni d’un produit scalaire).
Une application f (u) de V dans V est monotone (resp. uniformément monotone) si
hf (v) − f (u), v − ui ≥ 0
(resp. s’il existe un réel α > 0 tel que
hf (v) − f (u), v − ui ≥ αhv − u, v − ui

91
92 Analyse des équations aux dérivées partielles

La monotonie de la différentielle caractérise les fonctions convexes :


Théorème 19 Sur un espace de Hilbert une fonction J(v) différentiable est convexe si et seulement
si f (v) = ∇J(v) est monotone.

4.1.2 Définition des problèmes aux limites


Les problèmes qui nous intéressent ici modélisent l’état d’un système représenté par p fonction
ui (x) qui dépendent de la position d’un point x. L’état du système est déterminé par un système
d’équations aux dérivées partielles, et par les échanges éventuels du système avec l’extérieur. Tradui-
sons cela en termes mathématiques :
soit Ω un domaine de Rn de bord Γ ; on note ~n le vecteur normal unitaire extérieur en un point du
bord, ~t le vecteur tangent.

Problème aux limites pour une équation du second ordre à une inconnue
Commençons par le cas particulier d’une équation du second ordre à une fonction inconnue. Le
problème de référence est le problème de Poisson (cf. (2.1)). L’inconnue est une fonction u(x) de
n variables x = (x1 , ..., xn ) et, bien sûr, on aura normalement n = 2 ou n = 3 ! Nous utilisons
∂u 2
parfois la notation uxi , uxi xj ... pour les dérivées partielles ∂x , ∂ u .... Nous écrivons l’équation
i ∂xi ∂xj
aux dérivées partielles générale du second ordre sous la forme

f (u, ..., uxi , ..., uxi xj , ...) = 0 (4.1)

Nous définissons un problème aux limites sous la forme



f (u, ..., uxi , ..., uxi xj , ...) = 0 si x ∈ Ω
(4.2)
g(u, ...uxi ...) = 0 si x ∈ Γ

où g(u, ...uxi ...) est une fonction connue. La condition sur le bord la plus générale fait intervenir
toutes les dérivées mais elle s’exprime souvent en fonction de la dérivée normale d’une fonction
auxiliaire. En pratique l’expression de la condition aux limites peut différer entre les parties du bord.
Définissons certaines conditions aux limites particulières :
Définition 22 Les conditions de Dirichlet sont les conditions aux limites du type u = u0 .
∂u
Les conditions de Neumann sont les conditions aux limites du type k ∂n = g0 où g0 est fixé.
∂u
Les conditions mixte ou de Robin sont les conditions aux limites du type k ∂n + αu = g0 .
Si les constantes u0 et g0 sont nulles les conditions aux limites sont dites homogènes.
Nous essaierons dans ce chapitre de répondre aux questions suivantes :

Résumé 1 − Pourquoi le problème aux limites (4.2) est-il bien posé ?


− Quelles conditions aux limites rendent le problème (4.2) bien posé ?
− Le problème (4.2) a-t-il une solution unique ?
− Comment construire une approximation de la solution du problème (4.2) ?
La dernière question est étudiée au chapitres 7.

ECP 2006-2007 92
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 93

Problème aux limites pour un système d’équations du second ordre


Nous nous limitons aux systèmes quasi-linéaires, c’est à dire linéaires par rapport aux dérivées.
Les notations pour définir un système général d’équations aux dérivées partielles sont assez lourdes.
L’inconnue est une fonction u(x) à valeurs dans Rp ou, si l’on préfère, il y a p fonctions inconnues
uk (x), k = 1, ..., p de n variables x = (x1 , ..., xn ). Nous utilisons la notation ukxi , ukxi xj ... pour
k 2 k
les dérivées partielles ∂u ∂ u
∂xi , ∂xi ∂xj .... Nous nous restreindrons aux systèmes quasi-linéaires du second
ordre, c’est à dire linéaires par rapport aux dérivées secondes, que nous pouvons écrire sous la forme
X
∀l, 1 ≤ l ≤ p Ri,j,k,l (u)ukxi xj + Fl (u) = 0 (4.3)
i,j,k

où le tenseur à 4 indices Ri,j,k,l (u) et le vecteur Fl ne dépendent que des dérivées partielles d’ordre
inférieur à 1.
Le système de l’élasticité non linéaire (2.28) s’écrit par exemple sous cette forme, le tenseur Ri,j,k,l
vérifiant certaines conditions de symétrie.
Nous définissons un problème aux limites en ne considérant que les conditions aux limites les plus
usuelles. Comme pour l’élasticité on définit une matrice [σ] analogue aux contraintes par la relation
X
σi,j = Ri,j,k,l (u)ukxl
k,l

Les conditions aux limites peuvent mélanger en un même point des conditions aux limites portant sur
une composante de la fonction u
un = hu, ~ni = u0
ou sur les dérivées
σn,n = h[σ]~n, ~ni = g0
σn,t = h[σ]~n, ~ti = g0
En élasticité ces conditions sont naturelles : un appui sans frottement sur une surface se traduit par
un = 0 (contact avec l’appui) et σn,t = 0 (la nullité des cisaillements dans deux directions tangentes
au bord).

4.1.3 Systèmes d’équations elliptiques


La définition générale de l’ellipticité est la non existence d’une surface caractéristique (cf. para-
graphe (13). Nous précisons cette définition dans les situations usuelles. Nous verrons a posteriori
(théorème (22)) qu’elle est liée à la convexité de la fonction potentielle quand cette fonction existe.

Cas d’une équation non linéaire du second ordre à une inconnue


On définit la forme quadratique caractéristique
X ∂f
Φ(ξ1 , ..., ξi , ..., ξn ) = ξi ξj (4.4)
∂uxi xj
i,j

Ce qui nous permet de poser la définition :

93 Mathématiques 2
94 Analyse des équations aux dérivées partielles

Définition 23 Une équation aux dérivées partielles du second ordre est une équation elliptique si la
forme quadratique (4.4) est définie positive ou définie négative. .

Noter que cette définition ne fait dépendre l’ellipticité que des termes du second ordre et que, quitte à
tout multiplier par −1, on s’arrange en général pour rendre la forme positive.

Cas particulier d’une équation linéaire du second ordre à une inconnue

Considérons l’équation générale du second ordre écrite sous la forme développée

X ∂2u X ∂u
− ai,j (x) + bi (x) + cu = d (4.5)
∂xi ∂xj ∂xi
i,j i

où, quitte à multiplier l’équation par −1, on a fixé les signes de façon que a1,1 ≥ 0.

Définition 24 Une équation linéaire aux dérivées partielles du second ordre (4.5) est elliptique si la
forme quadratique caractéristique
X
ai,j (x)ξi ξj
i,j

est définie positive, autrement dit si la matrice A de coefficient ai,j est définie positive. .

Rappelons le résultat établi au chapitre 3, théorème (10) :

Théorème 20 Un opérateur linéaire aux dérivées partielles quelconque peut s’écrire sous la forme
canonique

P (D)(u) = (−∇ . (A(x) ∇u) + γ(x)u) + (hV (x), ∇ui + ∇ . (V (x)u))

où A(x) est une matrice symétrique et V (x) un champ de vecteurs. Sur l’espace V0 des fonctions de
C 1 (Ω) nulles sur le bord Γ, le premier opérateur est symétrique associé à la forme bilinéaire
Z Z
a(u, v) = hA(x) ∇u, ∇vi dΩ + γ(x)uv dΩ
Ω Ω

et le deuxième antisymétrique associé à la forme bilinéaire


Z
b(u, v) = ∇ . (V (x)u)v − ∇ . (V (x)v)u dΩ

On peut préciser : si l’opérateur est elliptique et si γ(x) ≥ 0 on a

Proposition 33 Si l’équation linéaire aux dérivées partielles du second ordre (4.5) est elliptique et
si γ(x) ≥ 0 la forme a(u, v) est symétrique définie positive sur V0 .

ECP 2006-2007 94
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 95

Cas d’un système d’équations linéaires du second ordre

La définition générale de l’ellipticité est ici aussi la non existence d’une surface caractéristique.
Le système général de p équations linéaires du second ordre à p fonctions inconnues uk s’écrit

X ∂ 2 uk X ∂uk X
∀l 1 ≤ l ≤ p : − Ri,j,k,l + bj,k,l + ck,l uk = dl (4.6)
∂xi ∂xj ∂xj
i,j,k j,k k

On fixe l’ambiguïté sur les signes en supposant R1,1,1,1 > 0

Définition 25 Le système d’équations linéaires aux dérivées partielles du second ordre (4.6) est el-
liptique si la forme quadratique caractéristique
X
Ri,j,k,l ξji ξlk
i,j,k,l

est définie positive.

Cela implique :

Proposition 34 Si le système d’équations linéaires aux dérivées partielles du second ordre (4.6) est
elliptique la forme bilinéaire symétrique

∂uk ∂v l
Z X
a(u, v) = Ri,j,k,l
Ω i,j,k,l ∂xi ∂xj

est semi-définie positive sur C 1 (Ω)p .

La forme a(u, v) est définie positive sur des sous-espaces de fonctions de C 1 (Ω)p nulles sur certaines
parties du bord.

4.2 Problème associé à un potentiel


4.2.1 Position du problème
Nous avons vu au chapitre 2 et 3 que les grandes théories de la physique mathématique s’ex-
primaient sous la forme de principe de minimum d’une certaine fonction potentielle. Cela explique
que les problèmes de statique modélisés par des systèmes d’équations aux dérivées partielles, sont
des équations d’Euler-Lagrange (cf. (3.27)) d’une fonctionnelle J(v) et cela permet de comprendre
pourquoi les problèmes aux limites qui leur sont associés sont des problèmes bien posés. Nous allons
voir ci-dessous que les propriétés de la fonctionnelle permettent notamment de comprendre les ques-
tions d’existence, d’unicité ou de multiplicité, et de stabilité de la solution. Elles fournissent de plus
un cadre d’étude de l’approximation et des méthodes numériques de résolution.

95 Mathématiques 2
96 Analyse des équations aux dérivées partielles

4.2.2 Equation dérivant d’un potentiel


Existence du potentiel

L’existence d’un potentiel est équivalente à l’existence d’un principe de conservation (le travail ne
dépend pas du chemin suivi), ainsi en mécanique ce potentiel n’existe pas en présence de frottements.
Mathématiquement l’opérateur aux dérivées partielles vérifie une condition de symétrie (Voir le cours
d’Optimisation chapitre 1), que nous n’expliciterons pas dans le cas général, mais qui explique la
symétrie de la forme bilinéaire a(u, v) dans les formulations faibles de ces problèmes. Le problème
de convection-diffusion ou les écoulements de Navier Stokes en régime permanent sont des exemples
de problème de statique qui ne sont pas associés à des potentiels.

Equation d’Euler associée à un potentiel

Nous considérons dans ce paragraphe des problèmes avec une seule fonction inconnue et nous
nous limitons aux conditions aux limites de type Dirichlet homogène. Nous considérons une fonction
potentielle de la forme Z
J(u) = h(x, u, ∇u) dΩ (4.7)

Soit V0 l’espace des fonctions C 1 nulles sur le bord Γ de Ω. Nous avons vu (théorème (12)) qu’un
extrémum de la fonction J(u) sur l’espace V0 vérifie les équations d’Euler sous forme faible, c’est à
dire Z
∂h
∀v ∈ V0 v + h∇ui h, ∇vi dΩ = 0 (4.8)
Ω ∂u

où l’on a posé
∂h ∂h t
∇ uj h = ( , ..., )
∂uj 1 ∂un
On en déduit l’équation d’Euler (cf. (3.27)) écrite sous la forme canonique

∂h
−∇ . x (∇uj h) + =0 (4.9)
∂u
et en développant les dérivées (cf. (3.27))

X ∂2h ∂h
f (u, ..., uxi , ..., uxi xj , ...) = − u xi xj + =0 (4.10)
∂uxj ∂uxi ∂u
i,j

à laquelle il faut ajouter, puisque u ∈ V0 la condition uΓ = 0 qui définit un problème aux limites.
L’équation d’Euler (4.10) est une équation quasi-linéaire du second ordre (i.e. elle est linéaire par
rapport aux dérivées secondes).Donc :

Proposition 35 Une condition nécessaire d’extrémalité de la fonction J(u) sur l’espace V0 est que
u vérifie un problème aux limites homogènes pour l’équation d’Euler Edp4FFEulerFort qui est une
équation quasi-linéaire du second membre

ECP 2006-2007 96
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 97

Remarque importante : Les équations aux dérivées partielles peuvent s’écrire sous un grand nombre
de formes équivalentes. Il est notamment tentant, en développant toutes les dérivées, d’obtenir la
forme (4.10) qui parait canonique et qui fait apparaître toutes les dérivées. Pourtant, quand on sait
que l’équation peut être obtenue par un principe de minimum, il est bien préférable d’utiliser la forme
( 4.9) :
− Elle conserve la signification physique des différents termes.
− Elle permet de construire directement les formulations faibles à la base des approximations numé-
riques par la méthode des éléments finis.
− Elle permet de construire de façon cohérente des formules d’approximation aux différences finies.

4.2.3 Potentiel coercif


Nous avons vu au chapitre 2 du cours d’optimisation le théorème

Théorème 21 Une fonction continue et coercive sur un espace de dimension finie admet un minimum.

Ce théorème est faux sur un espace de Hilbert ou de Banach de dimension infinie. Il ne s’applique
donc pas directement à la fonction potentielle (4.7). Néanmoins nous pouvons nous en servir comme
d’un principe heuristique pour s’assurer de l’existence de la solution d’un problème car si la fonc-
tionnelle est coercive, on pourra souvent en déduire l’existence d’au moins un minimum “dans le
bon espace fonctionnel”. Cela sera vrai en particulier si la fonctionnelle est convexe et continue sur
un espace de Banach dit “réflexif” (comme les espaces Lp (Ω), 1 < p < +∞), mais cette théorie
dépasse le cadre de ce cours.

− Si la fonction potentielle (4.7) est une somme de termes d’ordre de grandeur différent, la coer-
civité de cette fonction va dépendre du terme de l’ordre le plus élevé.

− Quand on construit une approximation numérique du problème par la méthode des éléments
finis, on restreint le principe du minimum à un sous-espace de dimension finie si bien que le théorème
(21) s’applique.

− Quand une fonction dépend d’un paramètre, elle peut être coercive ou non selon les valeurs du
paramètre ; la perte de coercivité pour une valeur d’un paramètre sera ainsi le signe d’une “catastro-
phe” par perte de stabilité ou par disparition complète d’une solution (voir le cours d’Optimisation
chapitre 1 pour un exemple).

4.2.4 Potentiel convexe


La convexité de la fonction potentielle (4.7) est une conséquence de la convexité de la fonction h
(Voir le cours d’Optimisation chapitre 2). Pour démontrer la proposition suivante on écrit l’inégalité
de convexité pour h(...uk , ..., ..., ukj , ...) et on intègre sur Ω.

Proposition 36 Si la fonction h(x, u, ∇u) est une fonction strictement convexe de (u, ..., uj , ...) alors
la fonction potentielle J(u) définie par (4.7) est une fonction strictement convexe de C 1 (Ω]) dans R.
Elle admet alors au plus un minimum.

97 Mathématiques 2
98 Analyse des équations aux dérivées partielles

Supposons que la fonction h(x, u, ∇u) ne dépende pas de u, mais seulement de x et ∇u : h =


h(x, ∇u). Par définition l’équation d’Euler (4.10) est elliptique si la forme quadratique (4.4) est défi-
nie positive ou définie négative. Or
∂f ∂2h
=−
∂uxi xj ∂uxi ∂uxj
ce qui fait que la forme quadratique (4.4) est la forme associée au Hessien de la fonction h, à x
fixé, qui est donc défini positif ou négatif. Nous avons vu (Cours d’optimisation, chapitre 2) que si
le Hessien d’une fonction est défini positif, la fonction est strictement convexe. Nous en déduisons le
théorème :
Théorème 22 Si l’équation d’Euler
−∇ . x (∇uj h) = 0
associée à un potentiel Z
J(u) = h(x, ∇u) dΩ

est elliptique, la fonction h(∇u) est strictement convexe ou strictement concave. La fonction poten-
tielle J(u) est alors strictement convexe ou strictement concave.
Ce résultat est essentiel pour la théorie mathématique de l’existence de la solution comme pour la
construction d’une approximation numérique par la méthode des éléments finis et enfin pour définir
un algorithme de calcul d’une approximation. On en déduit en particulier que la fonction J(u) a au
plus un extrémum et que l’équation a donc au plus une solution. Nous verrons ci-dessous de nombreux
exemples vérifiant ces hypothèses.

4.2.5 Analyse des conditions aux limites


Position du problème
Les propriétés d’une solution dun problème aux limites dépendent non seulement de l’équation
aux dérivées partielles mais aussi des conditions aux limites qui déterminent complètement la solu-
tion. Dans le paragraphe (4.2.2) nous avons étudié les conditions d’optimalité d’une fonctionnelle
J(u) sur l’espace V0 des fonctions C 1 nulles sur le bord. Une condition nécessaire est que u soit
solution d’un problème aux limites pour l’équation d’Euler, avec des conditions aux limites de type
Dirichlet homogène. Nous allons voir dans ce paragraphe que, pour une équation d’Euler, on peut
considérer des conditions aux limites plus générales tout en ayant une interprétation de la solution du
problème aux limites comme un extrémum d’un potentiel. Cela nous permettra d’analyser l’effet de
ces conditions aux limites sur les propriétés des solutions.

Cas des problèmes associés à un potentiel


Nous étudions les conditions d’optimalité d’une fonctionnelle J(u) sur l’espace des fonctions C 1
quelconques et nous ajoutons au potentiel une intégrale de bord, nous définissons donc
Z Z
J(u) = h(x, u, ∇u) dΩ + G(u) dΓ (4.11)
Ω Γ

ECP 2006-2007 98
CHAPITRE 4. LES PROBLÈMES AUX LIMITES 99

où G(u) ∈ C 1 (R). Nous allons établir les conditions nécessaires que doit vérifier un extrémum de
J(u) sur l’espace C 1 (Ω).
En procédant comme pour le théorème (12), on montre que un extrémum de la fonction J(u) sur
l’espace C 1 (Ω) vérifie
Z X Z
∂h ∂h
1
∀v ∈ C (Ω), DJ(u).v = vx + v dΩ + G0 (u)v dΓ = 0 (4.12)
Ω ∂ui i ∂u Γ
i

Posons
∂h ∂h t
Φ = ∇ ui h = ( , ..., )
∂u1 ∂un
ce qui permet d’écrire plus synthétiquement
Z Z
∂h
DJ(u).v = hΦ, ∇vi dΩ + v dΩ + G0 (u)v dΓ
Ω ∂u Γ

Appliquons la formule de Stokes (1.2) aux intégrales


Z Z Z
hΦ, ∇vi dΩ = − ∇ . Φv dΩ + Φn v dΓ
Ω Ω Γ

On en déduit Z Z
∂h
DJ(u).v = (−∇ . Φ + )v dΩ + (Φn + G0 (u)) v dΓ
Ω ∂u Γ

Un extrémum de J(u) sur C 1 (Ω) doit donc vérifier


 ∂h
 Φ = (...,
 , ...)t
∂uxZi Z (4.13)
∂h
 ∀v ∈ C 1 (Ω)
 (−∇ . Φ + )v dΩ + (Φn + G0 (u)) v dΓ = 0
Ω ∂u Γ

En procédant comme au paragraphe (3.3.1) on en déduit le théorème :

Théorème 23 Un extrémum de la fonction J(u) définie par (4.11) est la solution du problème aux
limites suivant pour une équation aux dérivées partielles du second ordre

∂h
 −∇ . x (∇ui h) +
 =0 si x ∈ Ω
∂u (4.14)
0

h∇ui h, ni = g(u) = G (u) si x ∈ Γ

Interprétation
On peut utiliser ce résultat pour analyser le problème aux limites (4.14). La fonction (4.11) est
la somme de deux termes, la coercivité ou(stricte) convexité de chacun de ces termes assurera, par
exemple, l’existence et l’unicité de la solution de (4.14) ; par contre si le second terme est concave et
tend vers −∞ à l’infini, la coercivité de J(u) n’est pas assurée et la situation peut être complexe pour
ce qui est de l’existence de la solution ou de sa multiplicité.

99 Mathématiques 2
100 Analyse des équations aux dérivées partielles

4.3 Exemples d’analyse de problèmes aux limites


4.3.1 Équation elliptique linéaire du second ordre générale
Les hypothèses

Nous étudions dans ce paragraphe un problème elliptique linéaire du second ordre qui généralise
tous les exemples du chapitre 2 comme ceux des séances d’exercices.
Soit Ω ⊂ Rn un domaine de bord Γ où nous distinguons deux parties Γ0 et Γ1 . Considérons, pour une
équation aux dérivées partielles linéaires générale du second ordre, le problème aux limites

u ∈ C 2 (Ω)



(−∇ . (A(x) ∇u) + γ(x)u) + (hV (x), ∇ui + ∇ . (V (x)u)) = f si x ∈ Ω

(4.15)

 u = u0 si x ∈ Γ0
−(A(x) ∇u) · ~n = C(u − u1 ) si x ∈ Γ1

où :
− A(x) est une matrice symétrique,
− V (x) un champ de vecteurs tel que V (x) · ~n = 0 sur Γ1 ,
− f ∈ C(Ω), u0 et u1 sont deux fonctions définies sur le bord, C est une constante positive.
L’opérateur aux dérivées partielles est l’opérateur linéaire du second ordre le plus général, écrit sous la
forme canonique (théorème (20)). On suppose que l’opérateur est elliptique, i.e. que la matrice A est
définie positive, et que γ(x) ≥ 0. Nous nous plaçons sous des hypothèses un peu plus générales que
dans les paragraphes précédents pour ce qui est des conditions aux limites. Noter que ces hypothèses
sont les hypothèses naturelles, notamment dans l’interprétation du problème comme un problème de
convection-diffusion. (cf. paragraphe 4.3.14).

Formulation faible

Soit
V0 = {v ∈ C 1 (Ω) / v|Γ0 = 0}

Posons (cf. paragraphe (3.1.3))


Z
a(u, v) = hA(x) ∇u, ∇vi + γ(x)uv dΩ

Z
b(u, v) = ∇ . (V (x)u))v − ∇ . (V (x)v))u dΩ

Z Z
L(v) = f v dΩ + Cu1 v ds
Ω Γ1
Z
a1 (u, v) = Cuv ds
Γ1

ECP 2006-2007 100


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 101

Théorème 24 Le problème aux limites (4.15) est équivalent à la formulation faible

u ∈ C 2 (Ω), u = u0 sur Γ0

(4.16)
∀v ∈ V0 a(u, v) + a1 (u, v) + b(u, v) = L(v)

Les formes bilinéaires a(u, u) et a1 (u, v) sont symétriques définies positives sur V0 . La forme b(u, v)
est antisymétrique.
La démonstration de l’équivalence est la même que celle qui a été faite au paragraphe (3.3). Les
propriétés des formes bilinéaires ont été établies au paragraphe (3.1.3)

Analyse du problème
On déduit de la formulation faible l’unicité de la solution de (4.15) car s’il existait deux solutions
u1 et u2 on aurait
∀v ∈ V0 a(u1 − u2 , v) + b(u1 − u2 , v) = 0
et donc en particulier, puisque u1 − u2 ∈ V0 ,

a(u1 − u2 , u1 − u2 ) + b(u1 − u2 , u1 − u2 ) = 0

or b(u1 − u2 , u1 − u2 ) = 0 puisque la forme b(u, v) est antisymétrique, d’où

a(u1 − u2 , u1 − u2 ) = 0

et donc u1 − u2 = 0 puisque a(u, u) est définie positive.

Si V (x) = 0, la formulation faible (3.3) n’est autre que l’expression de la nullité de la différen-
tielle de la fonction potentielle J(u) (i.e. DJ(u).v = 0) définie par
Z Z
1 2
J(u) = (hA(x) ∇u, ∇ui + γ(x)u ) dΩ + Cuv ds − L(u)
Ω 2 Γ1
1 1
= a(u, u) + a1 (u, u) − L(u)
2 2
Nous en avons déduit (cf. (4.9)) que le problème (4.15) est l’équation d’Euler-Lagrange associée à la
fonctionnelle J(u). La fonction J(u) est strictement convexe, donc la solution u de (4.15), que nous
supposons existée, est l’unique minimum de J(u).

La formulation faible servira à construire des approximations du problème, voir le chapitre 7.

4.3.2 Diffusion et membrane


Nous avons étudié dans les séances 2, 3, 4 sur la membrane et la diffusion linéaire des problèmes
qui sont des cas particuliers du problème suivant

−k∆u + cu = f si x ∈ Ω
(
∂u (4.17)
k + c1 (u − u0 ) = 0 si x ∈ Γ
∂n

101 Mathématiques 2
102 Analyse des équations aux dérivées partielles

avec k, c, c1 > 0. Soit V l’espace des fonctions C 1 sur Ω. Ce problème aux limites pour une équation
elliptique est du type (4.14). Il est équivalent au problème d’optimisation

k∇vk2 v2 v2
Z Z
Minv∈V J(v) = k + c − f v dΩ + c1 − u0 v dΓ (4.18)
Ω 2 2 Γ 2
L’équivalence vient de la convexité (voir le cours d’Optimisation chapitre 2) de la fonction J(v) qui
s’écrit aussi sous la forme
1
J(v) = a(v, v) − L(v)
2
où Z Z
a(u, v) = (∇u.∇v + c u v) dΩ + c1 u v dΓ
Ω Γ
est une forme bilinéaire symétrique définie positive et
Z Z
L(v) = u0 v dΓ + f v dΩ
Γ Ω

une forme linéaire. Noter que la condition aux limites devient entièrement implicite dans la formu-
lation variationnelle. La fonctionnelle J(v) est strictement convexe et coercive, le problème admet
au plus une solution (La démonstration mathématique de l’existence suppose de préciser le cadre
fonctionnel et la régularité des données, voir chapitre 6).

4.3.3 Diffusion non homogène


Les coefficients du problème (4.17) peuvent être variables sans que la formulation variationnelle
doive changer.
−∇ . (k(x)∇u) + c(x)u = f (x) (4.19)
avec k(x), c(x) > 0 et des conditions aux limites standards. Ce problème aux limites pour une équa-
tion elliptique est du type (4.14). Ce problème équivaut à :

k∇vk2 v2
Z
Minv∈V J(v) = k(x) + c − f v dΩ (4.20)
Ω 2 2
La variation des coefficients ne crée donc pas de problème particulier. La résolution numérique se
fait avec les mêmes méthodes que celles que nous avons développées pour l’étude de la diffusion
homogène. Noter que si k est discontinu sur des frontières intérieures, la formulation variationnelle
reste valable mais c’est l’équation (4.19) qu’il faut modifier (u n’est plus dérivable sur cette frontière)
en ajoutant une condition de continuité des flux sur la frontière intérieure.

4.3.4 Importance des signes : Vibration forcée


On considère les vibrations sinusoïdales, i.e. de la forme u(x, t) = u(x)eiωt , d’une membrane
pour une excitation sinusoïdale f (x, t) = f (x)eiωt de pulsation ω (cf. 2.41 )

−k∆u − ω 2 u = f si x ∈ Ω

(4.21)
u=0 si x ∈ Γ

ECP 2006-2007 102


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 103

Noter en comparaison avec l’exemple précédent que c = −ω 2 est négatif dans (4.17). Soit V0 l’espace
des fonctions C 1 sur Ω nulles sur le bord Γ. Ce problème aux limites pour une équation elliptique est
du type (4.9). La solution de ce problème est un extrémum sur V0 de la fonction
Z
k
J(v) = ( k∇vk2 − ω 2 v 2 − f v) dΩ (4.22)
Ω 2

La fonctionnelle J(v) n’est pas en général convexe, (noter qu’elle est la différence de deux fonctions
convexes).
On peut montrer que si ω 2 < ω02 où ω0 est la pulsation associée à la fréquence fondamentale, J(v) est
encore strictement convexe et coercive, elle a encore un minimum ; mais si ω 2 > ω02 La fonctionnelle
n’est ni convexe ni coercive et la solution u de l’équation d’Euler n’est plus un minimum mais un
point “col”, le problème n’admet pas toujours une solution (Les valeurs de ω pour lesquelles il n’y a
pas de solution sont, à 2π près, les pulsations correspondant aux fréquences de résonance).

4.3.5 Une équation faiblement non-linéaire


Considérons le problème aux limites

−k∆u + c(u) = f si x ∈ Ω
(4.23)
u = u0 si x ∈ Γ
avec k > 0 et c(u) = V 0 (u) où c(u) est une fonction strictement croissante et V (u) est donc une
fonction d’une variable réelle strictement convexe. La solution de (4.23) est le minimum sur l’espace
V0 de la fonctionnelle strictement convexe
Z
k
J(v) = ( ∇v 2 + V (v) − f v) dΩ
Ω 2

Un problème de ce type permet de modéliser la diffusion avec rayonnement. Dans ce cas on a


5
c(u) = u4 , et donc V (u) = u5 (cf. 2.27). Mais il y a une difficulté : la fonction V (v) n’est pas
convexe. Sachant que u(x) est la température absolue donc toujours positive, la solution de (2.27)
est aussi solution du problème (4.23) avec c(u) = signe(u)u4 qui est le minimum de la fonction
5
J(u) avec V (u) = |u|5 , qui est strictement convexe. Or on montre que la solution de (4.23) avec
c(u) = signe(u)u4 est toujours positive, c’est donc aussi une solution positive de (2.27). Les deux
problèmes avec c(u) = u4 et c(u) = signe(u)u4 ont donc les mêmes solutions positives et, avec
cette petite astuce, on se ramène à un problème strictement convexe.

Il n’est pas difficile sous ces hypothèses de construire un cadre fonctionnel assurant l’existence
et l’unicité de la solution. La résolution numérique d’un problème quasi-linéaire n’est donc pas très
difficile, puisqu’elle se ramène à un problème d’optimisation standard.

4.3.6 Une équation fortement non linéaire


L’équation de la diffusion en régime permanent

−k∆u = q
(4.24)
u = u0 sur le bord Γ

103 Mathématiques 2
104 Analyse des équations aux dérivées partielles

où q est la densité de chaleur échangée, est la conséquence de la loi linéaire de Fourier

Φ = −k∇u

où Φ est le flux de chaleur, et de la conservation de l’énergie

∇.Φ+q =0

Si les variations de température sont fortes on considère une loi de diffusion non linéaire du type

Φ(u) = −kk∇ukp−2 ∇u avec p ≥ 1 (4.25)

On en déduit un problème aux limites :

−k∇ . k∇ukp−2 ∇u = q

(4.26)
u = u0 sur le bord Γ

Ce problème est du type (4.9), avec une équation elliptique. Soit V0 l’espace (affine) des fonctions
C 1 , telles que u = u0 sur Γ. Ce problème équivaut au problème d’optimisation convexe

k∇vkp
Z
Minv∈V0 J(v) = k − qv dΩ (4.27)
Ω p

On montre que c’est un problème d’optimisation pour une fonction strictement convexe coercive pour
une norme convenable. Des difficultés mathématiques apparaissent pour p = 1 (la fonction n’est plus
coercive, ni convexe) et des difficultés numériques pour p proche de 1.

4.3.7 Une équation conditionnellement elliptique


On considère, en régime stationnaire, un écoulement irrotationnel d’un gaz parfait dans une
tuyère, en supposant que l’on peut négliger les effets de viscosité et de diffusion thermique. Noter
que l’hypothèse que l’écoulement est irrotationnel ne sera vérifiée que dans des situations très parti-
culières. On utilise une représentation plane de l’écoulement dans un domaine Ω. On note u(x) (resp.
p(x) et ρ(x)) la vitesse (resp. la pression et la densité) en un point x. On suppose connue la compo-
sante normale ρu.n = g du flux de matière sur le bord Γ. On a l’équation d’état p = Cργ d’où l’on
déduit, en supposant l’écoulement uniforme à l’aval, sur les lignes de courant

kuk2 γ1
ρ = ρ0 (K − ) 1 (4.28)
2
La conservation de la matière dans tout sous-domaine se traduit par l’équation ∇ . (ρu) = 0. L’écou-
1
lement étant irrotationnel, il existe un potentiel Ψ tel que u = ∇Ψ. On pose q = γ−1 . Le potentiel
Ψ est donc solution du problème aux limites

 ∇ . (K − 1 k∇Ψk22 )q ∇Ψ) = 0 sur Ω

2 (4.29)
1 ∂Ψ
 ρ0 (K − k∇Ψk22 )q
 = g sur Γ
2 ∂n

ECP 2006-2007 104


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 105

Ce problème est du type (4.9). L’équation est elliptique si


1
(K − k∇Ψk22 ) > 0
2
La solution de (4.29) est aussi un extrémum de la fonctionnelle
Z Z
1 1
J(v) = − (K − k∇vk22 )q+1 dΩ − g v ds (4.30)
q+1 Ω 2 Γ

Cette fonctionnelle est convexe si la norme de la vitesse k∇vk2 n’est pas trop grande ( ce qui corres-
pond à des vitesses “subsoniques”), elle ne l’est plus pour des vitesses plus grandes qui correspondent
à la zone supersonique (l’équation est hyperbolique dans cette zone).

4.3.8 Quelles lois linéaires de diffusion impliquent l’ellipticité ?


On considère un problème de diffusion comme au paragraphe (4.3.6). Supposons une loi de dif-
fusion linéaire mais anisotrope :
Φ = −M (x)∇u (4.31)
où u (resp. Φ) est la température (resp. le flux) tandis que M est une matrice symétrique. La tempé-
rature est solution d’un problème aux limites du type

−∇ . (M (x)∇u) = f sur Ω
(4.32)
u = u0 sur Γ

La forme quadratique caractéristique (cf. définition 24) s’écrit


X
Φ(ξ1 , ξ2 , ξ3 ) = Mi,j ξi ξj
i,j

L’équation est donc elliptique si et seulement si la matrice M est définie positive (M définie négative
est impossible pour des raisons thermodynamiques évidentes). La solution u est alors un extrémum
de la fonction Z
1
J(v) = < M ∇v, ∇v > −f v dΩ (4.33)
Ω 2
– Cas M (x) définie positive
< M ∇v, ∇v > est alors une forme définie positive et J(v) est donc une fonction strictement
convexe coercive, le problème admet une solution et une seule.
– Cas M semi-définie positive en certains points
La fonction reste convexe, mais pour certaines directions de fonctions v il est possible que
J(v) → −∞ , l’existence n’est plus assurée ; quand la solution existe on montre que celle-ci
peut admettre des lignes de discontinuité de la dérivée. .
– Cas M non définie positive
Nous avons dit ci-dessus que cette situation est ici physiquement incohérente : elle signifie
que la chaleur s’écoule dans le sens des températures croissantes ce qui est contraire aux prin-
cipes de la thermodynamique. La fonction J(v) est dans ce cas convexe sur certaines droites et

105 Mathématiques 2
106 Analyse des équations aux dérivées partielles

concave sur d’autres, la solution est un point “col” pour J(v) dont l’existence n’est pas du tout
assurée. En fait cette situation se présentera dans un cadre tout à fait différent dela diffusion,

1 0
dans les problèmes de vibrations où l’une des variables est le temps. Soit M =
0 −c2
et si on note les variables (t, x) le problème s’écrit sous la forme :

∂2u ∂2u
− c =0 (4.34)
∂t2 ∂x2
et nous posons u = 0 sur le bord. C’est l’équation des cordes vibrantes. Si l’on considère que
le domaine est un carré de côté 1, cela revient à étudier les vibrations d’une corde de longueur
1 dont la position au temps 0 et 1 est horizontale. On montre qu’il y a une infinité de solutions
(par exemple pour c = 1, si f (x) est une fonction arbitraire paire et de période 1, toute fonction
de la forme f (x + t) − f (x − t) est solution).

4.3.9 Quelles lois non linéaires de diffusion impliquent l’existence et l’unicité ?


On considère un problème de diffusion comme au paragraphe (4.3.6). Supposons une loi de dif-
fusion non linéaire, dans laquelle le coefficient de diffusion varie avec le flux

∇u
φ(u) = −g(k∇uk) (4.35)
k∇uk

où g(t) est une fonction dont nous notons G(t) une primitive. Le problème s’écrit sous la forme d’un
problème aux limites Ce problème est du type (4.9)

 −∇ . (g(k∇uk) ∇u ) = f sur Ω
k∇uk (4.36)
 u = u sur Γ
0

Ce problème est du type (4.9)avec


q
h(..., ui , ...) = G( u21 + u22 + u23 ) = G(k∇uk)

Une solution de (4.36) est donc un extrémum de la fonction


Z
Min J(v) = G(k∇vk) − f v dΩ (4.37)

Nous avons vu (cf. théorème 22) que l’équation (4.36) est elliptique si la fonction h(..., uj , ...) est une
fonction strictement convexe de (u, ..., uj , ...) (ici encore le cas concave est exclu pour des raisons
thermodynamique). c’est à dire si la fonction G(t) est strictement convexe et donc si la fonction
g(t) = G0 (t) est monotone.
– Si la fonction g(t) est croissante et si elle croît au moins linéairement en x à l’infini, G(t) est
convexe coercive et on montre facilement que J(v) est convexe et tend vers l’infini si k∇vk
tend vers l’infini : on pourra montrer l’existence d’une solution et d’une seule.

ECP 2006-2007 106


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 107

– Si la fonction g(t) définit une loi de diffusion à “seuil” (i.e. si g(t) tend vers une limite finie
quand t tend vers l’infini, correspondant physiquement à une saturation pour les flux élevés),
G(t) est alors linéaire à l’infini, il n’est pas sûr que J(v) tende vers l’infini quand k∇vk tend
vers l’infini (J(v) est différence de deux fonctions linéaires à l’infini), l’existence d’un mini-
mum et donc de la solution n’est pas assurée : intuitivement si la densité de chaleur fournie
f (x) est trop grande le flux qui ne peut dépasser la valeur de seuil ne peut toujours l’évacuer.
On trouve des phénomènes de ce type dans les problèmes de diffusion, en électrocinétique et
en mécanique (plasticité et endommagement).

4.3.10 Cas non convexe 1


Un exemple un peu formel

−k∆u − u3 = 0 sur Ω

(4.38)
u = 0 sur Γ

Ce problème aux limites équivaut à chercher un extrémum sur l’espace V0 de la fonctionnelle

k∇vk2 v 4
Z
J(v) = k − dΩ (4.39)
Ω 2 4

Ici J(v), différence de deux fonctions convexes, n’est pas convexe. On montre qu’il y a une infinité
de solutions, dont “l’aspect” est proche des modes propres de la membrane.

4.3.11 Cas non convexe 2


Un exemple formel plus complexe, qui est l’analogue continu d’un problème traité au chapitre 1
du cours d’Optimisation :
−k∆u − λu + u3 = 0 sur Ω

(4.40)
u = 0 sur Γ
où λ > 0. Ce problème aux limites équivaut à chercher un extrémum sur l’espace V0 de la fonction-
nelle
k∇vk2 v2 v4
Z
J(v) = k −λ + dΩ (4.41)
Ω 2 2 4
On montre que si λ est inférieur à une valeur critique λc la partie quadratique de la fonction J(v)
reste définie positive, la fonction J(v) est donc une somme de fonctions strictement convexes et elle
a donc au plus un minimum qui est u = 0. Si λ > λc la fonction J(v) n’est plus convexe, le point
u = 0 devient un point “col” et il existe un minimum non nul. Pour des valeurs croissantes de λ le
nombre de points stationnaires s’accroît.

4.3.12 Cas non convexe 3


Dans le problème de la diffusion (4.17), les différents termes dans la fonctionnelle sont des fonc-
tions convexes qui s’ajoutent parce que tous ces termes représentent des pertes. Si une augmentation

107 Mathématiques 2
108 Analyse des équations aux dérivées partielles

de température crée de la chaleur (par réaction chimique ...), le signe du terme correspondant est
dans le mauvais sens et le potentiel J(v) est la différence de deux fonctions convexes. Le cas suivant
(réaction chimique, équilibre d’une étoile...) est caractéristique de ce type de comportement :

−k∆u = exp(λu)
(4.42)
u = 0 sur Γ
Ce problème est équivalent à la recherche d’un extrémum de la fonction
k∇vk22 exp(λv)
Z
J(v) = k − dΩ (4.43)
Ω 2 λ
La fonction J(v) n’est ni convexe ni coercive, On montre qu’il y a en général une infinité de solution.

4.3.13 Cas non convexe 4


On considère une poutre fléchie par une compression aux extrémités qui peuvent tourner librement
(comme une réglette que l’on fléchit entre de deux doigts). L’étude de la position d’équilibre conduit
au problème suivant où l’inconnue φ(s) est ici l’angle de la tangente avec l’axe de la poutre (et non
pas la flèche)
d2 φ
EI 2 − F sin φ(s) = 0 (4.44)
ds
avec φ0 (0) = φ0 (L) = 0 Ce problème est équivalent à chercher, sur l’espace V = C 1 ([0, L]), un
extrémum de la fonction
EI dφ 2
Z L
J(v) = + F cos φ(s) ds (4.45)
0 2 ds
(E est le module de Young, I la moment d’inertie d’une section). Voir l’exemple analogue, mais dis-
crétisé, d’un système de barres reliées par des ressorts spirales, au chapitre 1 du cours d’optimisation.
2 4
Si on développe pour de petites déformations, cos φ = 1− φ2 + φ4 . On vérifie alors que la fonction
reste convexe au voisinage de 0 si F est petit, sinon il y a perte de convexité. C’est le problème du
flambement eulérien :
Si F est inférieur à une valeur critique Fc , dont on montre qu’elle est une valeur propre du problème
linéarisé, la seule solution est la solution nulle représentée par une poutre droite. Si F > Fc il existe
1, 2, 3... solutions suivant les valeurs de F . Une seule (à une symétrie près) est stable.

4.3.14 Un exemple sans potentiel : la convection diffusion


On étudie la répartition de la température dans un fluide incompressible s’écoulant dans une
“tuyère” (cf. figure(4.1)) en régime permanent.
– La domaine d’étude est Ω ⊂ R2 . Le bord Γ de Ω est la réunion de trois parties Γ0 , Γ1 , Γ2 .
– On note u(x) la température, Φ(x) le vecteur flux au point x.
– On note c la capacité volumique et k la conductivité.
~ (x). On a V
– La vitesse du fluide est définie par le champ de vecteur V ~ ~n = 0 sur le bord Γ2
et l’incompressibilité du fluide se traduit mathématiquement par la condition ∇ . V~ = 0 et la
~
présence d’une paroi par V ~n = 0.

ECP 2006-2007 108


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 109

Γ
2

Γ V(x) Ω Γ
0 1
+
Γ
2

Γ
2

F IG . 4.1 – Convection et diffusion

– La température du fluide sur le bord d’entrée Γ0 est connue, égale à T0 , et on suppose que la
température sur le bord de sortie Γ1 est connue et fixée à T1 (cette hypothèse qui n’est pas
naturelle sera discutée plus loin).
– On suppose que la température extérieure Te est nulle et, pour simplifier, on suppose que

u = 0 sur Γ2

Soit :
− V l’espace des fonctions continues sur Ω, qui sont “C 1 par morceaux” ;
− V0 ⊂ V le sous espace des fonctions nulles sur Γ ;
~ ) = ∇u. V
On notera que, en utilisant l’incompressibilité du fluide, on a : ∇ . (uV ~.

On introduit un artifice mathématique pour simplifier la théorie. Soit ū la solution du problème et


u0 ∈ U0 une fonction arbitraire telle que

u0 |Γ0 = T0 , u0 |Γ1 = T1 , u0 |Γ2 = 0

On pose u = ū − u0 qui est donc dans V0 . La fonction u est solution du problème canonique :
~ ) = f sur Ω

 −k ∆u + c ∇ . (uV
u=0 sur Γ0 et Γ1 ) (4.46)
u = 0 sur Γ2


~)
f = k ∆u0 − c : ∇ . (u0 V
On pose  Z
a(u, v) = k ∇u ∇v dΩ





 Ω

 Z
b(u, v) = ~ )v dΩ
c ∇ . (uV (4.47)
ZΩ





 L(v) = f v dΩ


109 Mathématiques 2
110 Analyse des équations aux dérivées partielles

Ce problème est un cas particulier couvert par le théorème 20, où l’opérateur du second ordre est
elliptique. On a donc la proposition :
Proposition 37 L’équation (4.46) est une équation elliptique si la conductivité k est différente de 0,
elle est hyperbolique du premier ordre si k = 0.
Une formulation faible équivalente est
u ∈ V0 et ∀v ∈ V0 a(u, v) + b(u, v) = L(v) (4.48)
où la forme a(u, v) est une forme bilinéaire symétrique définie positive sur l’espace V0 et b(u, v) est
une forme bilinéaire antisymétrique.
L’application v → a(u, v) − L(v) est la différentielle de la fonction J(v) = 21 a(v, v) − L(v). La
non-symétrie de la forme b(u, v) fait que l’application v → b(u, v) ne peut pas être une différentielle.
L’application v → a(u, v) + b(u, v) − L(v) n’est donc pas la différentielle d’une fonction, l’équation
ne dérive pas naturellement de la recherche d’un extrémum d’un potentiel.

On peut néanmoins démontrer ici l’unicité de la solution : si u1 et u2 sont deux solutions, u1 − u2


est solution du problème homogène associé et on a donc
∀v ∈ V0 a(u1 − u2 , v) + b(u1 − u2 , v) = 0
d’où a(u1 −u2 , u1 −u2 )+b(u1 −u2 , u1 −u2 ) = 0, or b(u1 −u2 , u1 −u2 ) = 0 du fait de l’antisymétrie
de b(u, v) et donc a(u1 − u2 , u1 − u2 ) = 0 d’où u1 − u2 = 0. L’existence de la solution dans le cadre
des espaces de Sobolev découle de la forme générale du théorème de Lax-Milgram (cf. chapitre 6).

Si k = 0 l’équation est hyperbolique, c’est une équation d’advection (cf. (2.13)) il n’est plus pos-
sible de fixer une condition aux limites en chaque point du bord on fixera par exemple une condition
en entrée et rien en sortie. Si k > 0 et k est petit, l’équation est elliptique et il faut une condition en
entrée et en sortie mais il apparaît une “couche limite” en sortie mais aussi des instabilités dans les
résultats numériques qu’il faut corriger par des méthodes adéquates.

4.4 Exemples en mécanique du solide


(très résumé, voir [4])

4.4.1 Élasticité linéaire


Voir (2.28). Pour modéliser les déformations d’un solide élastique, on a 3 fonctions inconnues,
les déplacements d’un point : u = u(t) avec u(t) = (u1 (t), u2 (t), u3 (t))
Les équations d’équilibre sont pour un matériau isotrope les équation de Navier
−(λ + µ)Grad( Divu) − 2µ∆u = f~ (4.49)
Le potentiel associé est (on somme les indices répétés) :
Z Z
1
J(v) = 2µij (v)ij (v) + (λ + µ)ii dΩ − fj vj dΩ (4.50)
2 Ω Ω
∂vi
avec ij (v) = ∂xj

ECP 2006-2007 110


CHAPITRE 4. LES PROBLÈMES AUX LIMITES 111

4.4.2 Élasticité non linéaire


On a toujours 3 fonctions inconnues, les déplacements d’un point : u = u(t) avec u(t) =
(u_1(t), u_2(t), u_3(t))).
Les équations d’équilibres s’écrivent, en petites déformation,

−∇ . D((u)) = f~ (4.51)

où la relation contrainte / déformation est non linéaire. Pour des lois convenables, on montre l’exis-
tence d’une densité d’énergie E((v)) et on a une formulation variationnelle du problème
Z Z
Min J(v) = E((v)) dΩ − fj vj dΩ (4.52)
Ω Ω

La fonction énergie potentielle sera coercive pour des matériaux dont le module de Young augmente
avec la déformation, donc des matériaux durcissant. C’est plutôt l’inverse qui est fréquent. Ce qui fait
que l’on a souvent une perte de coercivité. On s’attendra donc à rencontrer les phénomènes suivants :
– perte de stricte convexité et de coercivité (ligne de glissement, ruine plastique).
– ou même perte de convexité (plusieurs états d’équilibre).

111 Mathématiques 2
112 Analyse des équations aux dérivées partielles

ECP 2006-2007 112


Chapitre 5

Les équations d’évolution

Objectifs

Ce chapitre est une introduction aux problèmes d’évolution, qui sont des problèmes de Cauchy
pour un système d’équations aux dérivées partielles. Nous avons vu les exemples les plus classiques
de problèmes d’évolution au chapitre 2. Nous verrons que ce sont aussi en général les problèmes
associés à des opérateurs aux dérivées partielles paraboliques ou hyperboliques.

5.1 Introduction
5.1.1 Quelques définitions
Les problèmes qui nous intéressent modélisent l’état d’un système représenté par p fonction ui (x)
qui dépendent de la position d’un point x et du temps t. L’état du système est déterminé par un sys-
tème d’équations aux dérivées partielles, par un état initial et par les échanges éventuels du système
avec l’extérieur. Traduisons cela en termes mathématiques.

Soit Ω un domaine de Rn (avec bien sûr n = 1, 2, 3) de bord Γ. On note u(x, t) une fonction de
∂2u
Ω × R dans Rp . On utilisera parfois la notation ut , uxi ,t pour les dérivées ∂u
∂t , ∂xi ∂t . Nous définissons
un problème de Cauchy pour un système d’équations aux dérivées partielles sous la forme générale
 k
∂ u


k
= g(u, uxi ..., uxi xj , ...) x ∈ Ω, t > 0
 ∂tj



∂ u (5.1)
(x, 0) = uj (x) x ∈ Ω, pour 0 ≤ j ≤ k − 1
 ∂tj





+ des conditions "aux limites" en différents points du bord.

où g(u, uxi ..., uxi xj , ...) est une fonction des dérivées à valeur dans Rp et les fonctions uj (x) défi-
nissent l’état initial.

113
114 Analyse des équations aux dérivées partielles

5.1.2 Exemples
Voir au chapitre 2, les problèmes de diffusion, d’écoulement d’un fluide ou d’un gaz et les pro-
blèmes de vibration.

5.1.3 Position du problème


Nous avons vu au chapitre 3 (cf. (3.49)) un exemple de problème de Cauchy “mal posé”, aussi
allons nous spécialement étudier les questions suivantes :

Résumé 2 − Combien de conditions initiales sont-elles nécessaires pour que le problème ait un
sens ?
− Quelles conditions aux limites rendent le problème cohérent ?
− Quelles conditions rendent l’évolution du système “stable” ?
− Comment construire une approximation de la solution ?

Rappelons la définition (10) du chapitre 3 :

Définition 26 Le système (5.1) est dit Kovalevskien si les dérivées qui interviennent à droite sont
toutes d’ordre inférieur ou égal à k.

Nous avons admis le théorème :

Théorème 25 (Cauchy-Kovalevska) Si le système (5.1) est Kovalevskien, le problème de Cauchy


(5.1) où les fonctions g, uj (x), 0 ≤ j ≤ k − 1 sont analytiques, admet, localement en temps et en
espace une unique solution analytique.

La première question est résolue partiellement par ce théorème pour les systèmes Kovalevskiens, mais
c’est un résultat qu’il faudra confirmer pour des données plus naturelles que des fonctions analytiques.
Pour les systèmes non Kovalevskiens nous pouvons suivre la démarche du paragraphe (3.6.1) et cher-
cher quelles conditions permettent de déterminer toutes les dérivées en un point.
Les autres questions sont trop difficiles pour être traitées de manière générale. La construction des ap-
proximations est le sujet du chapitre 8. Nous allons distinguer des classes importantes de problèmes.

5.1.4 Classification de problèmes élémentaires


Dans ce paragraphe, informel, nous allons étudier comment une analyse de Fourier permet une
première classification des opérateurs linéaires aux dérivées partielles : elle permet de comprendre
pourquoi certains problèmes de Cauchy n’ont pas de sens physique (ou plutôt sont très rares) et de
comprendre quelques propriétés des autres. Cette classification reprend des résultats présentés sous
une autre forme au chapitre 2 et 3 et se limite aux opérateurs à deux variables (x, t).
Considérons les problèmes suivants dans lesquels on pose un problème de Cauchy par rapport à la
variable t avec une ou plusieurs conditions initiales posées en t = 0. On cherche une fonction u(x, t)

ECP 2006-2007 114


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 115

solution d’une des équations suivantes sur R × [0, T ]

∂u ∂2u


 Equation de la diffusion : =


 ∂t ∂x2
∂2u


 ∂u
Equation inverse de la diffusion : = − 2


∂t ∂x




∂u ∂u


Equation d’advection : = −a





 ∂t ∂x
∂2u 2
2∂ u

Equation des ondes : = c (5.2)

 ∂t2 ∂x2
∂2u ∂2u


−c2 2

Equation elliptique : =


∂t2 ∂x




∂u ∂3u


Equation d’ordre 3 : = c 3





 ∂t ∂x
∂2u ∂4u


−c2 4

 Equation des ondes de flexion : =
∂t2 ∂x
Conformément à ce que nous avons vu au paragraphe 3.1.4, on peut trouver des solutions particulières
de ces équations sous la forme

u(x, t, ω) = exp (k(ω)t + iωx) = exp (k(ω)t) exp (iωx)


ω
avec ω ∈ R, k ∈ C, c’est à dire intuitivement sous la forme “d’harmoniques de fréquence 2π en x”,
modulées par des fonction du temps t appelées aussi ondes planes (c’est le langage de la théorie des
ondes) ; c’est le principe de la méthode de Fourier (3.1.6). On obtient par superposition des solutions
(plus ou moins) “générales” sous la forme
Z
u(x, t) = u0 (ω)u(x, t, ω) dω
R

Equation de la diffusion :
Les solutions particulières ont la forme

u(x, t, ω) = exp (−ω 2 t) exp (iωx)

Ce sont des fonctions décroissantes par rapport au temps, d’autant plus vite que la fréquence est
élevée. L’équation de la diffusion est dissipative et régularisante (cf. 2.8). Nous retrouverons ces
propriétés dans les équations paraboliques.
Equation rétrograde de la diffusion :
C’est l’équation que l’on obtient en inversant le temps dans l’équation de la diffusion. Les solutions
particulières ont la forme
u(x, t, ω) = exp (ω 2 t) exp (iωx)
Ce sont des fonctions croissantes par rapport au temps, qui explosent d’autant plus vite que la fré-
quence est élevée. Pour une position initiale quelconque le problème de Cauchy est mal posé. Cela
montre le caractère irréversible de l’évolution dans l’équation de la diffusion.

115 Mathématiques 2
116 Analyse des équations aux dérivées partielles

Equation d’advection :
Les solutions particulières ont la forme
u(x, t, ω) = exp (−aiωt + iωx) = exp iω(x − at)
Toutes les harmoniques sont translatées à la vitesse a. Cette propriété est donc conservée par la solu-
tion générale (cf. 2.13).
Equation des ondes :
Les solutions particulières ont la forme
u(x, t, ω) = exp (±icωt + iωx) = exp iω(x ± ct)
Les harmoniques sont translatées à la vitesse ±c, c’est à dire dans les deux sens, et ne s’amortissent
pas : pour une position initiale quelconque l’équation est conservative et non régularisante. L’équation
des ondes admet donc une propagation symétrique à vitesse constante : la “vitesse du son”. Elle est
équivalente à un système d’équation du premier ordre et l’existence d’une vitesse de propagation finie
est une propriété qui s’étend aux systèmes hyperboliques (cf. 2.16).
Equation elliptique :
Ce n’est qu’une réécriture l’équation de Laplace −∆u = 0. Les solutions particulières ont la forme
u(x, t, ω) = exp (±cωt + iωx)
Les harmoniques donnent deux types de solutions ; pour les unes, les harmoniques de fréquence
élevée s’amortissent très vite, pour les autres elles explosent : le problème de Cauchy est mal posé
pour les équations elliptiques (cf. 3.49), ce qui ne les empêche pas d’avoir des solutions très régulières
(correspondant aux exponentielles décroissantes).
Equation d’ordre 3 :
Les solutions particulières ont la forme
u(x, t, ω) = exp (−icω 3 t + iωx) = exp iω(x − cω 2 t)
Les harmoniques sont translatées vers la droite, mais à une vitesse qui croît avec la fréquence ; l’équa-
tion est conservative mais dispersive : pour une position initiale quelconque une partie du signal s’en
va à l’infini d’autant plus vite que la fréquence est élevée et, comme les hautes fréquences repré-
sentent les irrégularités locales, le signal se régularise.
Equation des ondes de flexion :
C’est l’équation des vibrations d’une poutre en flexion. Les solutions particulières ont la forme
u(x, t, ω) = exp (±icω 2 t + iωx) = exp iω(x ± cωt)
Les harmoniques sont translatées dans les deux sens, mais à une vitesse qui croît avec la fréquence :
il n’y a pas de “vitesse du son”. L’équation est conservative mais dispersive : une partie du signal
s’en va à l’infini et comme les hautes fréquences représentent les irrégularités locales, le signal se
régularise.

L’analyse précédente doit être corrigée si le domaine d’étude est bornée en x et qu’il faut tenir
compte de conditions aux limites : intuitivement les ondes planes se réfléchissent sur les bords et
reviennent perturber la solution. On peut généraliser cette méthode d’analyse et utiliser le comporte-
ment des harmoniques et notamment des harmoniques hautes fréquences pour comprendre certaines
propriétés des équations.

ECP 2006-2007 116


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 117

5.1.5 Equation parabolique


Définition

Nous n’allons pas donner la définition la plus générale, nous nous limitons aux équations linéaires
du second ordre : soit u(x, t) une fonction avec x ∈ Ω ⊂ Rn ,

Définition 27 L’équation du second ordre

∂u
= ∇ . (A(x) ∇u) + hV (x), ∇ui + f (u)
∂t

où A(x) est une matrice symétrique et V (x) un champ de vecteurs, est parabolique si la matrice A
est symétrique définie positive.

Exemples

Voir le problème modèle de la diffusion (2.8) et plus généralement le problème de réaction-


diffusion (2.25).

Propriétés

Nous retrouvons pour les équations paraboliques les propriétés de l’équation de la diffusion ;
considérons les problème à valeurs initiales

∂u

 ∂t = ∇ . (A(x) ∇u) + hV (x), ∇ui + f (u)


 x ∈ Ω ⊂ Rn , t > 0
(5.3)


 u(x, 0) = u0 (x)
u(x) = 0 sur ∂Ω

Une équation parabolique générale a les propriétés que nous avons établies pour l’équation de la
diffusion :
− l’évolution est dissipative en l’absence de termes sources et avec ∇ . V (x) = 0, en effet
Z Z
∂ 2
u dΩ = − hA(x) ∇u, ∇ui dΩ < 0 (5.4)
∂t Ω Ω

Nous admettrons que :


− l’évolution est irréversible (on ne peut pas inverser le temps sans faire exploser la solution),
− l’évolution est à vitesse de propagation infinie (une perturbation locale s’étend instantanément à
tout le domaine),
− l’évolution est régularisante (la solution est C ∞ quelle que soit la régularité de la condition initiale
u0 (x)).

117 Mathématiques 2
118 Analyse des équations aux dérivées partielles

5.1.6 Équation hyperbolique


Nous supposons1 que le problème s’écrit sous la forme d’un système du premier ordre
∂u X ∂u

 A0 (x, t, u)
 = Aj (x, t, u) + f (x, t, u)

 ∂t ∂xj
 j
(5.5)
u(x, 0) = u0 (x)




+ des conditions "aux limites" en différents points du bord.

où u(x, t) est une fonction C 1 de Ω ⊂ Rn dans Rp , les matrices Aj (x, t, u) sont carrées de dimension
(p, p), A0 (x, t, u) est inversible et le vecteur f (x, t, u) ∈ Rp . Nous posons la définition

Définition 28 Le système (5.5) est hyperbolique (resp. strictement) si le polynôme


X
P (λ) = det ( ξj Aj (x, t, u) − λ A0 )
j

a n racines réelles (resp. distinctes) pour toutes les valeurs, non toutes nulles, des réels (ξ1 , ..., ξn ) et
pour tout u ∈ Rp .

Si le système s’écrit
∂u X ∂u
A0 (x, t, u) = Aj (x, t, u) + f (x, t, u)
∂t ∂xj
j

avec A0 symétrique définie positive et toutes les matrices Aj symétriques, on peut inverser A0 et
mettre le système sous la forme explicite en remplaçant Aj par A−1 0 Aj . Or ces matrices
P sont symé-
triques par rapport au produit scalaire défini par A0 , il en est de même de la matrice j ξj Aj (x, t, u).
P (λ) est alors le polynôme caractéristique de cette matrice, il a donc toutes ses racines réelles. On
définit un cas particulier de systèmes hyperboliques :

Définition 29 Le système (5.5) est hyperbolique au sens de Friedrichs si toutes les matrices Aj sont
symétriques et A0 définie positive.

Exemples
− Si on a p = 1 on obtient une équation aux dérivées partielles du premier ordre pour une fonc-
tion inconnue. Le polynôme P (λ) est de degré 1 et a donc toujours une racine réelle. Un système du
premier ordre est toujours hyperbolique.

− L’équation des ondes mises sous la forme d’un système du premier ordre (cf. (3.39)) est un
système hyperbolique de Friedrich.

1
Nous supposons donc en particulier dans ce paragraphe que le système est Kovalevskien (cf. définition 10). Nous avons
vu au paragraphe (3.5) qu’un système quasi-linéaire Kovalevskien d’ordre quelconque pouvait s’écrire de façon équivalente
sous la forme d’un système quasi-linéaire du premier ordre.

ECP 2006-2007 118


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 119

− Une équation linéaire du second ordre peut s’écrire sous la forme d’un système du premier
ordre (voir (3.41)). Avec les notations de (3.41)), supposons n = 3 et que x3 est le temps t. Le
polynôme caractéristique du système du premier ordre associé est, en remplaçant λ par ξ3 ,
P P P 
i ai,1 ξi i ai,2 ξi i ai,3 ξi 0
 ξ3 0 −ξ1 0
P (ξ3 ) = det  
 0 ξ3 −ξ2 0
0 0 0 ξ3

En développant le déterminant, on obtient


X
P (ξ3 ) = ξ32 ( ai,j ξi ξj )
i,j

Ce polynôme n’admet que la racine réelle ξ3 = 0 si l’opérateur est elliptique. Il admet trois racine
réelles si l’opérateur est hyperbolique.

− Deux classes de problèmes hyperboliques ont une grande importance pratique :

Les problèmes de propagation d’ondes dans un milieu solide, ces problèmes s’écrivent de manière
naturelle sous la forme d’équations du second ordre

∂2u
ρ = L(u) (5.6)
∂t2
où L(u) + f = 0 est l’équation d’équilibre statique d’un système, la force extérieure étant replacée
ici par les force d’inertie. Dans ce type de problème u(x, t) est la position au temps t d’un point dont
la position au repos est x. L’opérateur L(u) est linéaire elliptique. Il peut de façon naturelle dépendre
de x si le solide n’est pas homogène. Le plus souvent il n’est pas utile de calculer la solution de ce
problème. La méthode de décomposition spectrale permet à l’ingénieur de déterminer les propriétés
importantes du système par la connaissance des “modes propres”, c’est à dire des vecteurs propres,
de l’opérateur L(u). Le calcul approché de la solution, si nécessaire, peut être fait par la méthode de
la synthèse harmonique .

Les problèmes d’écoulement d’un fluide (cf. chapitre 2), en l’absence de dissipation, s’écrivent
le plus souvent directement sous la forme d’un système hyperbolique du premier ordre, dérivé d’un
ensemble de lois de conservation. Dans ce type de problème u(x, t) est un vecteur dont les compo-
santes sont : la vitesse de la particule qui passe au point x au temps t (formulation dite “eulerienne”),
la masse volumique et différentes grandeurs caractérisant l’état du fluide. Ces problèmes sont naturel-
lement non linéaires vis à vis de u, notamment à cause de l’expression non linéaire de l’accélération,
tout en restant linéaires par rapport aux dérivées partielles ; en revanche les opérateurs ne dépendent
pas du point x, car dans un fluide en mouvement la position n’a pas de propriété particulière.

Surfaces caractéristiques
En adaptant la définition (16) (car ici une variable t est mise à part) nous posons la définition

119 Mathématiques 2
120 Analyse des équations aux dérivées partielles

Définition 30 Soit Σ une (hyper)surface dans Rn d’équation implicite S(t, x1 , ..., xn ) = 0, avec
∇S(t, x1 , ..., xn ) 6= 0 et S(t, x) analytique. Si, pour une fonction u donnée,
 
X ∂S ∂S
det  Aj (x, u) − A0 (x, u) = 0
∂xj ∂t
j

en tout point, Σ est une surface caractéristique pour l’équation aux dérivées partielles (5.5).
La définition de l’hyperbolicité (cf. Définition 28) signifie donc qu’il y a n équations aux dérivées
partielles du premier ordre explicites
∂S ∂S ∂S
= Φk ( , ..., )
∂t ∂x1 ∂xn
qui déterminent ces surfaces caractéristiques. Nous verrons que cela implique qu’il y a n surfaces
caractéristiques passant par chaque point.

5.2 Equation du premier ordre


Nous étudions dans cette partie les équations aux dérivées partielles du premier ordre à une fonc-
tion inconnue.

5.2.1 Equation linéaire du premier ordre


Définitions
Dans ce paragraphe nous ne particularisons pas la variable t. Quand nous parlons de “surface”,
ce peut être une courbe si n = 2, ou une hypersurface si n > 3. Une équation linéaire aux dérivées
partielles du premier ordre s’écrit
X ∂u
ai (x) + c(x)u = f (x)
∂xi
j

Définissons le champ de vecteurs

V (x) = (a1 (x), ..., an (x))t

Le problème s’écrit
hV (x), ∇ui + c(x)u = f (x) (5.7)
Les surfaces caractéristiques sont définies implicitement par S(x) = Cte où S(x) est solution de
l’équation homogène associée à (5.7)

hV (x), ∇S(x)i = 0 (5.8)

Le champ de vecteurs V (x) est donc tangent aux surfaces caractéristiques, ce qui veut aussi dire que
les surfaces caractéristiques sont engendrées par les courbes intégrales de ce champ de vecteurs. Nous
allons voir que l’équation (5.7) est étroitement liée au champ de vecteurs V (x).

ECP 2006-2007 120


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 121

Résolution de l’équation
Définition 31 Le système caractéristique associé à l’équation linéaire du premier ordre (5.7) est le
système différentiel  0
x (t) = V (x(t))
(5.9)
x(0) = x0
et les (courbes) caractéristiques sont les courbes intégrales de ce système.
Soit x(t) une courbe solution du système différentiel (5.9), on a
u(x(t))0 = h∇u, x0 (t)i = h∇u, V (x)i
Il vient, en utilisant (5.7) :
Proposition 38 Une fonction u est solution de (5.7) si et seulement si, sur chaque caractéristique, la
fonction h(t) = u(x(t)) est solution de l’équation différentielle ordinaire
h0 (t) + c(x(t))h(t) = f (x(t)) (5.10)
En conclusion, si on sait intégrer le système caractéristique2 (5.9) et intégrer l’équation différentielle
ordinaire3 (5.10), on sait intégrer l’équation (5.7). Plus précisément, si on se donne les valeurs de
u(x) = u0 (x), sur une surface, on calcule les courbes caractéristiques qui partent de la surface (i.e.
on choisit x(0) sur la surface) et on résout l’équation (5.10) avec pour condition initiale u0 (x(0)).

5.2.2 Equation homogène


Si c et f sont nulles, une solution de (5.7) est d’après (5.10) constante sur les caractéristiques. On
appelle intégrale première une fonction constante sur les solutions d’un système différentiel, on peut
donc énoncer (5.10) sous la forme
Proposition 39 Une fonction u est solution de l’équation homogène aux dérivées partielles
hV (x), ∇ui = 0 (5.11)
si et seulement si elle est une intégrale première du système différentiel caractéristique.
Considérons un problème de Cauchy pour une équation linéaire du premier ordre homogène, écrit
sous la forme
∂u
(
+ hv(x), ∇ui = 0
∂t (5.12)
u(x, 0) = u0 (x)
où u(x, t) ∈ C 1 (Rn × R) et v(x) est un champ de vecteur dans Rn . Avec les notations précédentes
on a V (x) = (v(x), 1)t . Le système caractéristique s’écrit
 0
 x (θ) = v(x(θ))
 0

t (θ) = 1
(5.13)

 x(0) = x0
t(0) = 0

2
En général ce n’est pas possible “analytiquement”.
3
Toujours possible par quadrature.

121 Mathématiques 2
122 Analyse des équations aux dérivées partielles

On en déduit t = θ et on peut donc exprimer l’équation des courbes caractéristiques sous la forme
x = x(t), le système caractéristique s’écrit alors :

x0 (t) = v(x(t))

(5.14)
x(0) = x0

On peut expliciter la solution de (5.12) si on sait calculer le groupe à un paramètre gt (x) associé au
système différentiel caractéristique (5.14) ( i.e. l’application qui a x0 associe la solution x(t) = gt (x0 )
de (5.14)). En effet, étant donné un point (x, t), la solution u(x, t) étant constante sur la caractéristique
passant par ce point, il suffit de “remonter” le long de cette caractéristique pour trouver le point x0 tel
que gt (x0 ) = x ; ce point est x0 = g−t (x), donc u(x, t) = u0 (x0 , t) = u0 (g−t (x)).

Proposition 40 La solution de (5.12) s’écrit

u(x, t) = u0 (g−t (x))

Intuitivement u(x, t) est donc un transport d’une fonction u0 (x) le long du “flot” engendré par le
champ de vecteur v(x).

5.2.3 Exemples
Voir la séance 6 et le chapitre 3.

Une équation homogène à coefficients constants


X ∂u
ai =0
∂xi
j

Les “ondes planes”, solution de l’équation, sont de la forme


X
u(x) = u0 ( bj xi )
i

où (b1 , ..., bn )t est un vecteur perpendiculaire au vecteur v = (a1 , ..., an )t et u0 est une fonction d’une
variable réelle.
Les solutions du système caractéristique sont les droites

xk (t) = ak t + xk (0)

La solution “générale” s’écrit

u(x) = f (an x1 − a1 xn , ... , an xn−1 − an−1 xn )

où f (x1 , ..., xn−1 ) est une fonction C 1 de n − 1 variables. En particulier, nous utiliserons le résultat
suivant :

ECP 2006-2007 122


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 123

Proposition 41 La solution générale de l’équation


∂u ∂u
+λ =0
∂t ∂x
est
u(x, t) = f (x − λt)
où f (x) est une fonction C 1 .
Une équation homogène

∂u ∂u ∂u
x2 − x1 + =0 (5.15)
∂x1 ∂x2 ∂x3
Le système caractéristique est linéaire, il s’écrit
 0
x = x2
 10


x2 = −x1
(5.16)
x0 = 1
 3


x(0) = x0
Il s’intègre facilement 
 x1 (t) = x1 (0) cos t + x2 (0) sin t
x2 (t) = −x1 (0) sin t + x2 (0) cos t (5.17)
x3 (t) = t + x3 (0)

Les courbes caractéristiques sont des hélices circulaires verticales, le groupe gt fait un “vissage” (une
rotation sur (x1 , x2 ) et une translation sur x3 ). Pour définir la solution générale de (5.15) fixons

u(x1 , x2 , 0) = f (x1 , x2 )

Choisissons de faire partir les courbes caractéristiques du plan x3 = 0, cela revient à poser x3 (0) = 0
dans (5.17), on a donc x3 = t et en inversant les formules (5.17)

x1 (0) = x1 cos x3 − x2 sin x3
(5.18)
x2 (0) = x1 sin x3 + x2 cos x3
Comme la solution u est constante sur les caractéristiques, il vient

u(x1 , x2 , x3 ) = f (x1 (t) cos x3 − x2 (t) sin x3 , x1 (t) sin x3 + x2 (t) cos x3 )

Pour déterminer rapidement la solution “générale” de (5.15) on peut utiliser la méthode suivante :
on trouve par des astuces deux intégrales premières indépendantes S1 (x) et S2 (x) de (5.15) ; or trois
intégrales premières sont liées (i.e. leurs gradients sont liés puisque tous orthogonaux à V (x)) ; on
montre, nous l’admettrons, que cela implique qu’il existe une fonction f telle que

u(x) = f (S1 (x), S2 (x))

Appliquons cela à l’équation


∂u ∂u ∂u
x2 − x1 + (x1 + x2 ) =0 (5.19)
∂x1 ∂x2 ∂x3

123 Mathématiques 2
124 Analyse des équations aux dérivées partielles

de système caractéristique  0
x = x2
 10


x2 = −x1
(5.20)
x0 = x1 + x2
 3


x(0) = x0

Des deux premières équations du système caractéristique (5.16) on tire x1 x01 + x2 x02 = 0 d’où (x21 +
x22 )0 = 0 et l’intégrale première S1 (x) = x21 + x22 . La troisième implique x03 + x02 − x01 = 0 et donc
(x3 + x2 − x1 )0 = 0 et l’intégrale première S2 (x) = x3 + x2 − x1 . La solution “générale” s’écrit
donc
u(x1 , x2 , x3 ) = f (x21 + x22 , x3 + x2 − x1 )
où f est une fonction C 1 quelconque de deux variables.

5.2.4 Equation quasi-linéaire du premier ordre


Définition
Dans ce paragraphe nous ne particularisons pas la variable t. Une équation quasi-linéaire aux
dérivées partielles du premier ordre s’écrit
n
X ∂u
ai (x, u) + c(x, u) = 0 (5.21)
∂xi
j=1

Résolution locale
Nous n’allons pas résoudre directement cette équation mais chercher une équation implicite des
surfaces intégrales. Soit Ψ(x, u) une fonction de n + 1 variables telle que la solution u = u(x), si
elle existe, de l’équation
Ψ(x, u) = 0
soit une solution de (5.21). Rappelons que localement u existe d’après le théorème des fonctions
implicites si ∂Ψ
∂u 6= 0 et que
∂Ψ
∂u ∂x
= − ∂Ψi
∂xi ∂u

En reportant dans l’équation (5.21), il vient


n
X ∂Ψ ∂Ψ
ai (x, u) + c(x, u) =0
∂xi ∂u
j=1

La fonction Ψ(u, x) est donc solution d’une équation linéaire homogène dont nous étudié la solution
générale dans le paragraphe précédent. Si on sait résoudre le système différentiel caractéristique aura
une expression de Ψ(x, u), et si on sait résoudre analytiquement l’équation Ψ(x, u) = 0, on aura une
expression de la solution u(x).

ECP 2006-2007 124


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 125

5.3 Système linéaire strictement hyperbolique à deux variables (x, t)


5.3.1 Système linéaire strictement hyperbolique homogène à coefficients constants à
deux variables (x, t)
Définitions
Nous cherchons une fonction u(x, t), x, t ∈ R à valeurs dans Rp . solution du système

∂u ∂u
+A =0 (5.22)
∂t ∂x
Compte tenu de l’importance de ces systèmes pour l’étude locale des systèmes hyperboliques géné-
raux, nous allons en faire une étude directe, indépendante des résultats antérieurs.
On peut ici calculer analytiquement toutes les solutions du système, ce que nous allons faire.
D’après la définition générale (28) on peut poser la définition

Définition 32 Le système (5.22) est un système hyperbolique (resp. strictement) si la matrice A est à
valeurs propres réelles (resp. distinctes) et diagonalisable.

On note λk , Uk (resp. Vk ), valeurs propres et les vecteurs propres normalisés de la matrice A (resp.
At ).

Exemples
L’équation des ondes mises sous la forme d’un système du premier ordre (cf. (3.39)) est un sys-
tème strictement hyperbolique à coefficients constants. Le système (2.4) associé à l’équation de La-
place ∆u = 0 n’est pas hyperbolique, la matrice A est antisymétrique : elle n’a pas de valeurs propres
réelles.

Interprétation
On peut interpréter les systèmes hyperboliques comme les systèmes qui admettent “beaucoup”
d’ondes planes, i.e. des solutions particulières de la forme u(x, t) = U (x − ωt) où U est une fonction
de R dans Rp .

Proposition 42 Le système (5.22) est hyperbolique s’il admet p familles indépendantes d’ondes
planes

Preuve
En effet si on reporte u(x, t) = U (x − ωt) dans (5.22) il vient

−ωU 0 (x − ωt) + cAU 0 (x − ωt) = 0

u(x, t) est une solution si U 0 est un vecteur propre de A et ω la valeur propre associée. U 0 (θ) reste
proportionnel à un vecteur propre normalisé Uk de A. D’où U (θ) = ck (t)Uk . Il y a donc n familles
d’ondes planes
u(x, t) = ck (x − λk t)Uk

125 Mathématiques 2
126 Analyse des équations aux dérivées partielles

s’il existe n vecteurs propres indépendants.



Noter que parmi ces ondes planes on a en particulier les ondes planes harmoniques

u(x, t) = exp i(x − λk t)Uk

On peut ensuite construire la solution générale comme une superposition d’ondes planes.

Résolution, première manière


On peut retraduire l’idée introduite au paragraphe précédent en termes algébriques : la matrice A
est diagonalisable, soit D la matrice diagonale, de diagonale di,i = λi , semblable à A et P la matrice
formée par les vecteurs propres, on a
A = P −1 DP
de (5.22) on déduit en posant v = P −1 u

∂v ∂v
+ P −1 AP =0 (5.23)
∂t ∂x
et donc
∂v ∂v
+D =0 (5.24)
∂t ∂x
Ce système est découplé puisque la matrice D est diagonale, on en déduit p équations scalaires aux
dérivées partielles sur les composantes vk de v

∂vk (x, t) ∂vk (x, t)


+ λk =0
∂t ∂x
et donc (cf. (41)) il existe une fonction ck (τ ) telle que

vk (x, t) = ck (x − λk t)

Finalement, on obtient l’expression de u = P v comme superposition d’ondes planes, puisque les


colonnes de P sont les vecteurs propres Uk de A
X
u(x, t) = ck (x − λk t)Uk
k

Si on suppose u(x, 0) = u0 (x) connu, les fonctions ck (x) sont les composantes de u0 (x) dans la base
Uk . En supposant les vecteurs propres Uk et Vk de A et At normalisés4 par les conditions hUk , Vk i =
1, il vient
ck (x) = hu0 (x), Vk i
d’où le théorème
4
Rappelons que hUk , Vl i = 0 si k 6= l : les vecteurs propres d’une matrice et de sa transposée pour des valeurs propres
distinctes sont orthogonales

ECP 2006-2007 126


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 127

Théorème 26 La solution u(x, t), avec x ∈ R, du problème de Cauchy



∂u ∂u

 +A =0
∂t ∂x (5.25)

u(x, 0) = u0 (x)

est X
u(x, t) = hu0 (x − λk t), Vk iUk
k

On retrouve la décomposition en ondes planes annoncée au paragraphe précédent. Cette expression


montre qu’un signal très localisé se propage à des vitesses finies et que si l’état initial est une fonction
u0 à support compact [a, b], cette fonction est décomposée en p ondes planes de même support qui
seront translatées dans le temps à la vitesse λk ; il en résulte au temps t un état qui est la superposition
de p ondes de support translaté [a + λk t, b + λk t], la réunion de ces supports est incluse dans l’inter-
valle [a + min λk t, b + max λk t]. On peut considérer que le “signal” initial se propage à une vitesse
minimale vm = min λk et maximale vM = max λk , ce qui met en évidence deux “fronts” d’ondes à
l’extérieur desquelles l’état est inchangé. Les deux fronts d’ondes sont des droites caractéristiques du
système.

Dans le cas de l’équation des ondes ces deux vitesses sont de même module et de sens opposé :
on “voit” donc deux fronts se propageant à la même vitesse dans les deux sens.

Proposition 43 Une perturbation localisée d’une solution du système (5.22) se propage à des vitesses
finies. Les différentes vitesses sont les valeurs propres de la matrice A.

Dans le cas de l’équation des ondes la vitesse de propagation est la “vitesse du son”. Nous verrons que
l’existence de deux fronts de propagation est une propriété générale des systèmes hyperboliques5 . Par
contre ce qui se passe à l’intérieur du front (pour les système à coefficients constants il peut y avoir des
zones “calmes”) est plus complexe que dans le cas des équations homogènes à coefficients constants.

Résolution, deuxième manière

Nous allons présenter autrement la méthode d’intégration du système (5.22) du paragraphe pré-
cédent, d’une manière qui se généralise plus facilement aux système à coefficients variables. Intro-
duisons la définition des caractéristiques, cohérentes avec (30) :

Définition 33 Les droites xk (t) = λk t + xk (0) sont les caractéristiques du système (5.22)

Ce sont les intégrales du système différentiel trivial :

dx
= λk (5.26)
dt
5
qui d’ailleurs les caractérise, en un sens à préciser. Les problèmes elliptiques et les systèmes non kovalevskiens ont une
vitesse de propagation infinie

127 Mathématiques 2
128 Analyse des équations aux dérivées partielles

Soit Vk un vecteur propre de la matrice At . En multipliant scalairement le système (5.22) par Vk , il


vient
∂u ∂u
hVk , i + hVk , A i = 0
∂t ∂x
d’où
∂u ∂u
hVk , i + hAt Vk , i=0
∂t ∂x
et donc puique Vk est un vecteur propre de At
∂u ∂u
hVk , i + λk hVk , i=0
∂t ∂x
c’est à dire puisque Vk est constant
∂ ∂
hVk , ui + λk hVk , ui = 0
∂t ∂x
La fonction fk (x, t) = hVk , u(x, t)i est donc solution de l’équation aux dérivées partielles scalaire
∂fk ∂fk
+ λk =0
∂t ∂x
et elle est donc constante sur les droites caractéristiques xk (t) = λk t.

Proposition 44 Il existe p fonctions de u, fk (u) = hVk , ui, où Vk est un vecteur propre de At qui
sont invariantes sur les droites caractéristiques xk (t) = λk t + xk (0). Les fonctions fk sont appelées
invariants de Riemann .

En conclusion pour intégrer (5.22) on calcule les p familles de droites caractéristiques et les invariants
de Riemann le long des caractéristiques, d’où l’on peut déduire la solution u. Supposant connu l’état
initial u(x, 0) en t = 0 pour tout x, il faut donc :
1. construire les caractéristiques passant par un point (x, t),
2. déterminer les invariants de Riemann en t = 0,
3. retrouver le point d’intersection de ces caractéristiques avec l’axe t = 0 et calculer les invariants
en ces points ;
4. on connaît alors la valeur de p invariants en (x, t) ce qui permet de retrouver la valeur de u en
résolvant un système linéaire de p équations à p inconnues.

Quelles conditions aux limites peut-on poser ?


Considérons un problème de Cauchy pour l’équation (5.25) posé sur un intervalle [0, L] avec des
conditions au bord  ∂u ∂u
 +A =0
 ∂t ∂x



u(x, 0) = u0 (x) (5.27)





+ des conditions en x = 0 et x = L

ECP 2006-2007 128


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 129

Nous avons vu deux exemples :


− Pour p = 1, si on considère l’équation d’advection (2.13), dont la solution consiste en un transport,
on ne peut poser une condition au bord que d’un côté : concrètement on posera une condition du côté
de “l’entrée”.

− Pour p = 2, dans l’exemple du problème des cordes vibrantes modélisée par l’équation des
ondes (2.16) : on peut, et on doit, poser une condition de chaque côté, on pose u1 (0, t) = u1 (L, t) = 0
qui correspond à une fixation de la corde aux deux bouts.

Nous allons analyser plus précisément la situation dans le problème des ondes sonores.

Ondes sonores dans un tuyau : analyse des conditions aux limites


Considérons le problème des (petites) vibrations d’un gaz qui s’écoule dans un tuyau avec une
vitesse moyenne ū > 0 et une masse volumique moyenne ρ0 . Le modèle s’obtient en linéarisant
l’équation de l’écoulement d’un gaz parfait autour de ū et ρ0 et en négligeant les termes petits sous
l’hypothèse |(u − ū|  |ū|. Il s’écrit, en fonction de la vitesse u et la masse volumique ρ, après
élimination de la pression

∂ρ ∂ρ ∂u


 + ū + ρ0 ( ) = 0


 ∂t ∂x ∂x
2 ∂ρ


 ∂u ∂u c
+ ū + =0


∂t ∂x ρ0 ∂x (5.28)


+ des conditions initiales







+ des conditions en x = 0 et x = L

où la constante c2 est définie par l’équation d’état p = p(ρ) et vaut c2 = p0 (ρ0 ).


On peut donner une expression de la solution de ce problème par développement en séries de Fourier,
mais l’expression obtenue ne met pas en évidence certaines propriétés remarquables de la solution.
Par rapport au problème (5.25), où x varie sur tout R, la difficulté vient des conditions aux limites.
Localement, la méthode des caractéristiques convient, mais quand les caractéristiques, ou les ondes
planes, rencontrent les bords il faut adapter la méthode.
La matrice du système est  
0 ρ0
A= c 2 + ū Id
ρ0 0
qui a pour valeurs propres ū ± c, on en déduit la proposition

Proposition 45 Le système d’équations aux dérivées partielles (5.28) est strictement hyperbolique.
Les valeurs propres de la matrice du système sont ū ± c.
Si c > ū l’écoulement est dit subsonique et il y a une droite caractéristique xk (t) = λk t + xk (0) dans
chaque sens.
Si c < ū l’écoulement est dit supersonique et toutes les caractéristiques vont vers “l’aval”, i.e. dans
le sens de l’écoulement.

129 Mathématiques 2
130 Analyse des équations aux dérivées partielles

A une caractéristique xk (t) = λk t + xk (0) est associée une onde plane vk (x − λk t)Uk , on peut donc
remplacer, dans la discussion informelle qui suit, le mot “caractéristique” par “onde plane”. On dit
qu’une caractéristique va vers “l’aval” si la fonction xk (t) est croissante, sinon on dit qu’elle va vers
“l’amont”. En un point (x, t) avec 0 < x < L la détermination de la solution en fonction de l’état
antérieur en τ < t se fait sans problème : si la vitesse est subsonique il faut remonter (dans le temps)
une caractéristique dans chaque sens (une caractéristique vient de l’amont et l’autre vient de l’aval de
l’écoulement) sinon, si la vitesse est supersonique, il faut remonter deux caractéristiques qui viennent
l’amont : dans les deux cas en “remontant dans le temps” ces deux caractéristiques on trouve des va-
leurs connues des deux invariants de Riemann, ce qui permet de déterminer la solution. La différence
étant qu’en écoulement supersonique la solution en un temps t ne dépend que de l’amont.

Quand on est sur un bord :

− En x = 0 si la vitesse ū est subsonique une caractéristique arrive sur ce point et une autre en
part ; un seul invariant de Riemann est donc connu par les instants antérieurs, il faut une seule condi-
tion supplémentaire pour déterminer complètement la solution : on peut fixer u ou ρ.

− En x = 0 si la vitesse ū est supersonique, deux caractéristiques partent de ce point, la valeur


de la solution ne dépend pas des temps antérieurs, il faut fixer deux conditions pour la déterminer, on
peut fixer u et ρ.

− En x = L si la vitesse est subsonique une caractéristique arrive sur ce point et une autre en
part ; un seul invariant de Riemann est donc connu par les instants antérieurs, il faut une condition
supplémentaire pour déterminer la solution : on peut fixer u ou ρ.

− En x = L si la vitesse ū est supersonique deux caractéristiques arrivent sur ce point, la valeur


de la solution est fixée par les temps antérieurs, on ne peut pas fixer de conditions sur u et ρ.

Cas général : analyse des conditions aux limites

Supposons que la matrice A a q valeurs propres positives et p − q valeurs propres négatives et que
les conditions imposées au bord sont toutes des conditions linéaires. Considérons la décomposition
en ondes planes (cf. 5.25).
Au point 0 à un temps t “arrivent”, i.e. provenant des temps τ < t, q ondes planes vk (x, t) =
ck (x − λk t) correspondant aux λk négatif. Les valeurs de ces fonctions vk ne peuvent donc être
fixées, elle sont déterminées par les valeurs antérieures de la solution. Mais pour déterminer les p − q
ondes planes qui partent il faut fixer p − q conditions qui d’ailleurs ne peuvent pas être complètement
arbitraires ( nous laisserons de côté ce problème...).
Au point L c’est le contraire, p − q ondes planes arrivent et q ondes planes partent, on doit fixer q
conditions.
En conclusion, on obtient la proposition

Proposition 46 Le nombre de conditions aux limites que l’on doit fixer en chaque point du bord est
égal au nombre de caractéristiques “entrantes” en ce point.

ECP 2006-2007 130


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 131

Noter que nous avons laissé de côté le cas particulier des valeurs propres nulles, correspondant aux
caractéristiques parallèles au bord.

Principe énergétique
Dans ce paragraphe nous présentons un autre point de vue, global cette fois, pour analyser les
problèmes hyperboliques : la conservation de grandeurs “globales”. Considérons un système à coef-
ficients constants. Supposons A symétrique 6 .

Si le domaine est R
Considérons le problème de Cauchy, posé sur R
∂u ∂u


 +A =0



 ∂t ∂x
u(x, 0) = u0 (x) (5.29)




 lim u(x, t) = 0

x→±∞

Nous avons vu (cf. théorème 22) que l’opérateur ∂x est antisymétrique pour le produit scalaire de
2
L (R) quand cet opérateur agit sur l’espace des fonctions nulles au bord, ici à l’infini. On en déduit

l’antisymétrie de l’opérateur A ∂x pour le produit scalaire de L2 (R)p quand cet opérateur agit sur
l’espace des fonctions vectorielles nulles à l’infini. Montrons ce résultat directement
∂u XZ ∂uj
hA , vi = ai,j vi dx
∂x R ∂x
i,j

Appliquons la formule d’intégration par parties à chaque intégrale, il vient


Z X
∂u ∂vi
hA , vi = − ai,j uj dx (5.30)
∂x R ∂x
i,j

et donc
∂u ∂v
, vi = −hA , ui
hA
∂x ∂x
Proposition 47 Le problème (5.27) est “conservatif” en ce sens que, une perturbation de la solution
δu, à support compact, vérifie Z
kδu(x, t)k22 dx = Cte
R
preuve :
En multipliant scalairement l’équation (5.27) par u, le produit scalaire est celui de L2 (R)p que nous
notons comme celui de Rp , autrement dit
Z
hu, vi = hu(x), v(x)i dx
R
6
Ce qui est toujours vrai après un changement de variables quand la matrice du système est diagonalisable : il suffit de
se placer dans la base qui diagonalise A, la matrice est diagonale donc symétrique pour le produit scalaire canonique de
cette base !

131 Mathématiques 2
132 Analyse des équations aux dérivées partielles

il vient
∂u ∂u
h , ui + hA , ui = 0
∂t ∂x
et donc puisque l’opérateur A ∂u 2
∂x est antisymétrique sur L (R)
p

∂u
hA , ui = 0
∂x
d’où
d 1 ∂u
( hu, ui) = h , ui = 0
dt 2 ∂t
d’où le résultat.

Si le domaine est borné


Le résultat peut être différent sur un intervalle borné [0, L], calculons la variation dans le temps de
l’intégrale
d 1 ∂u XZ L ∂uj
( hu, ui) = h , ui = ai,j ui dx (5.31)
dt 2 ∂t 0 ∂x
i,j

Appliquons la formule d’intégration par parties à chaque intégrale, il vient


Z L
∂u X ∂vi X
hA , vi = − ai,j uj dx + [ ai,j vi uj ]L
0 (5.32)
∂x 0 ∂x
i,j i,j

et donc Z L
d 1 X ∂ui X
( hu, ui) = − ai,j uj dx + [ ai,j ui uj ]L
0 (5.33)
dt 2 0 ∂x
i,j i,j

Et donc en additionnant (5.31) et (5.33) :

d X
hu, ui = [ ai,j ui uj ]L
0 (5.34)
dt
i,j

Si on applique ce résultat de conservation à une perturbation localisée, le crochet est nul tant que la
perturbation n’a pas atteint les bords de l’intervalle. “L’énergie” de la perturbation reste donc conser-
vée pour des temps petits. Ensuite tout dépend des conditions aux limites : dans certains cas le “cro-
chet” peut être toujours nul, dans d’autres cas le crochet peut être dissipatif ou faire entrer de l’énergie.

Lorsque l’énergie est conservée on en déduit l’unicité de la solution (car la différence


R L de deux so-
lutions de (5.22) est une solution de (5.22) nulle en t = 0, donc toujours nulle puisque 0 ku(x, t)k22 dx =
0). Et surtout on en déduit la stabilité, en norme L2 , de la solution vis à vis d’une perturbation δu(x, 0)
initiale, puisque
Z L Z L
kδu(x, t)k22 dx = kδu(x, 0)k22 dx
0 0

ECP 2006-2007 132


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 133

5.3.2 Système général d’équations linéaires aux dérivées partielles à deux variables
(x, t)
Les systèmes d’équations linéaires aux dérivées partielles plus généraux, même à coefficients
constants, ne sont pas intégrables aussi facilement que l’exemple précédent. Ils ont toujours la pro-
priété d’avoir une vitesse de propagation finie mais la solution n’est plus une somme finie d’ondes
planes ce qui fait qu’une perturbation locale peut remplir le domaine à l’intérieur duquel la perturba-
tion se propage.

Système linéaire non homogène à coefficients constants


Nous cherchons une fonction u(x, t), x, t ∈ R à valeurs dans Rp . solution du système strictement
hyperbolique
∂u ∂u
+A + Bu = 0 (5.35)
∂t ∂x
où A est une matrice à valeurs propres distinctes et B une matrice quelconque.

Un système de ce type vient par exemple de l’équation des ondes (2.16) si on ajoute un terme de
rappel élastique c1 u ou un terme de frottement c2 ∂u
∂t

∂2u 2
2∂ u ∂u
2
= c 2
− c1 u − c2
∂t ∂x ∂t
Le système correspondant, construit comme ( 3.37) avec pour variables (u, ut , ux ), a pour matrices
 
0 0 0
A =  0 0 −c2 
0 1 0
et  
0 1 0
B =  c1 c2 0
0 0 0
Noter que les deux termes ajoutés modélisent des phénomènes bien différents, l’un étant conservatif
en énergie et l’autre dissipatif.

Le changement de variables u = P v par passage dans une base de vecteurs propres (cf. 5.24)
donne
∂v ∂v
+D + P −1 BP v = 0 (5.36)
∂t ∂x
où D est la matrice diagonale telle que dk,k = λk . Il ne permet plus de découpler le système, sauf
dans le cas particulier où la matrice B est diagonalisable dans la même base que A, c’est à dire si A
et B commutent. On n’obtiendra pas ici de formules explicites générales de la solution.

Comme pour tous les systèmes hyperboliques une perturbation localisée a une vitesse de propa-
gation finie :

133 Mathématiques 2
134 Analyse des équations aux dérivées partielles

Proposition 48 Une perturbation d’une solution du système (5.35) localisée au temps t = 0 à un


intervalle [a, b] se propage à des vitesses finies. Plus précisément au temps t le support de la pertur-
bation est inclus dans l’intervalle [a + λ1 t, b + λp t] où λ1 et λp sont les plus petites et plus grande
valeurs propres de la matrice A.

La proposition découle immédiatement de l’application à des intervalles complémentaires de [a, b] du


lemme :

Lemme 3 Soit (X, T ) un point du plan. Les caractéristiques passant par ce point coupent l’axe t = 0
au point xk = X − λk T . Soit [α, β] un intervalle qui contient tous les points xk . Si u0 (x) est nulle
sur [α, β] alors u(X, T ) = 0.

Démonstration : Le principe de la démonstration est d’utiliser la relation différentielle qui existe sur
chaque caractéristique pour obtenir une inégalité qui implique la nullité de la solution. Cette démons-
tration se généralise à des situations plus compliquées, notamment pour les systèmes à coefficients
variables. Utilisons la forme (5.36) de l’équation que nous écrivons

∂v ∂v
+D + B0v = 0
∂t ∂x

avec B 0 = P −1 BP . Soit C le “domaine de dépendance” du point (X, T )

C = {(x, t) / X − λp (T − t) ≤ x ≤ X − λ1 (T − t), 0≤t≤T

Notons que si un point (x, t) est dans C, le domaine de dépendance de (x, t) est inclus dans C. Posons

kv(., t)k = sup kv(x, t)k∞


x/(x,t)∈C

et c = kB 0 k∞ . On a kB 0 v(., t)k∞ ≤ ckv(., t)k∞ . De (5.36) nous déduisons d’abord sur la caractéris-
tique associée à la valeur propre λk

∂vk ∂vk
vk (xk (t), t)0 = + λk = −(B 0 v)k
∂t ∂x
d’où, puisque pour t = 0, v est nulle comme u0 , en intégrant
Z t
vk (xk (t), t) = −(B 0 v(xk (τ ), τ )k dτ
0

on en déduit une inégalité sur chaque caractéristique


Z t Z t Z t
|vk (xk (t), t)| ≤ k(B 0 v(xk (τ ), τ )k k∞ dτ ≤ kB 0 v(., τ )k dτ ≤ c kv(., τ )k dτ
0 0 0

d’où Z t
kvk (xk (t), t)k∞ ≤ c kv(., τ )k dτ
0

ECP 2006-2007 134


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 135

Considérons un point (x, t) quelconque de C. L’inégalité précédente est vraie sur chacune des carac-
téristiques xk (τ ) passant par ce point (i.e. telle que xk (t) = x), donc, pour k = 1, ..., p
Z t
|vk (x, t)| ≤ c kv(., τ )k dτ
0

d’où Z t
kv(x, t)k∞ = sup |vk (x, t)| ≤ c kv(., τ )k dτ
k 0

et, puisque le point (x, t) est quelconque dans C


Z t
kv(., t)k = sup sup |vk (x, t)| ≤ c kv(., τ )k dτ
x/(x,t)∈C k 0

Posons M = sup(x,t)∈C kv(x, t)k∞ on a donc en majorant la fonction sous l’intégrale par M :
Rt
kv(., t)k ≤ cM t. En itérant l’inégalité kv(., t)k ≤ c 0 kv(., τ )k dτ , on en déduit

cM tn
∀n ∈ N kv(., t)k ≤
n!
et donc kv(., t)k = 0 car le second membre tend vers 0 quand n tend vers l’infini. ♦

Système homogène à coefficients variables


Nous étudions dans ce paragraphe les fonctions u(x, t), x, t ∈ R à valeurs dans Rp . solution du
système strictement hyperbolique
∂u ∂u
+ A(x) =0 (5.37)
∂t ∂x
où A(x) est une matrice à valeurs propres distinctes, qui est une fonction C 1 de x.
Un exemple simple est une équation des ondes dans un milieu hétérogène ou par exemple une corde
dont la densité linéïque est variable.

La matrice A(x) est diagonalisable, les valeurs propres λk (x) et les vecteurs propres Uk (x) de
A(x) et Vk (x) de At (x) dépendent du point (x). Les caractéristiques ne sont plus ici des droites, mais
des courbes solutions de l’équation différentielle
dx
= λk (x(t)) (5.38)
dt
Il y a p familles de caractéristiques, une pour chaque valeur propre, chaque famille formant un ré-
seau de courbes sans intersection d’après le théorème d’unicité de Cauchy-Lipschitz (5). Mais sans
condition supplémentaire ces courbes peuvent exploser en un temps fini (si λk (x) = 1 + x2 une
caractéristique est x(t) = tan (t) qui explose pour t = π2 ).

Intuitivement, dans un milieu hétérogène, une onde initialement plane subit diverses réflexions et
se décompose en une famille continue d’ondes dont la vitesse parait variable : le milieu est dispersif.

135 Mathématiques 2
136 Analyse des équations aux dérivées partielles

Il n’y a donc pas en général “d’invariant de Riemann” (qui signifie qu’une onde ne se disperse pas),
comme dans les systèmes à coefficients constants, qui permettrait d’intégrer le système explicitement.

Comme pour tous les systèmes hyperboliques une perturbation localisée a une vitesse de propa-
gation finie :
Proposition 49 Une perturbation d’une solution du système (5.35) localisée au temps t = 0 à un
intervalle [a, b] se propage à des vitesses finies. Plus précisément au temps t le support de la pertur-
bation est inclus dans l’intervalle [α, β] qui contient toutes les caractéristiques issues de l’intervalle
[a, b].
La proposition découle immédiatement de l’application à des intervalles complémentaires de [a, b] du
lemme :
Lemme 4 Soit (X, T ) un point du plan. Supposons que les caractéristiques passant par ce point
coupent l’axe t = 0 aux points xk . Soit [a, b] un intervalle qui contient tous les points xk . Si u0 (x)
est nulle sur alors u(X, T ) = 0.
La démonstration du lemme 3) s’adapte à ce lemme, la principale différence étant que les caractéris-
tiques sont des courbes.

Système homogène quasi-linéaire


Non rédigé, hors programme

5.4 Système linéaire et quasi-linéaire général


Non rédigé, hors programme

5.5 Exemples
5.5.1 Burgers, sans viscosité
Voir la séance 8. C’est une équation quasi-linéaire du premier ordre, elle est donc hyperbolique.

5.5.2 Dynamique des fluides


Voir chapitre 2 et la séance 7

5.5.3 Equation de convection diffusion


On étudie l’évolution de la température u dans un fluide animé d’un mouvement défini par un
champ de vitesses V sur un domaine Ω ; on écrit la conservation de l’énergie en tenant compte des
changements de températures, du transport de chaleur et des échanges par diffusion, il vient :
∂u ~ u) − ∇ . (ν∇u) = 0
c + c ∇ . (V (5.39)
∂t

ECP 2006-2007 136


CHAPITRE 5. LES ÉQUATIONS D’ÉVOLUTION 137

(c est la chaleur spécifique et ν le coefficient de diffusion) Les conditions aux limites peuvent être la
donnée de la température ou du flux en chaque point du bord.
– Si le coefficient de diffusion ν est nul, c’est une équation hyperbolique du premier ordre, dont
l’intégration est facile compte tenu de sa signification physique : la chaleur est simplement
transportée le long des lignes de courant. Mais dans ce cas on ne peut fixer la température sur
le bord de Ω que sur les points d’entrée du fluide, les températures ou les flux aux points de
sorties sont une conséquence des équations.
– Si le coefficient de diffusion est grand, on retrouve l’équation parabolique de la diffusion de la
chaleur.
– Pour un coefficient petit, mais non nul, on aura un problème de “couche limite” sur les parties
du bord où le fluide est sortant, voir le paragraphe ci-dessous pour une étude simplifiée de ce
problème.

137 Mathématiques 2
138 Analyse des équations aux dérivées partielles

ECP 2006-2007 138


Chapitre 6

Le cadre fonctionnel

Objectifs
Ce chapitre est une introduction à la théorie mathématique de l’existence des solutions d’une
équation aux dérivées partielles.

6.1 Formulations faibles et distributions


6.1.1 Notion de distributions
Soit Ω un Rouvert de Rn . Dans les formulations faibles des équations différentielles interviennent
les intégrales Ω f (x)φ(x) dΩ où φ(x) est dans un ensemble de fonctions “tests”. Ces intégrales ont
souvent un sens physique, par exemple si f (x) est une densité de forces, et si φ(x) est un champ de
déplacements, l’intégrale représente un travail.
R Plus précisément on peut considérer qu’une densité
de force f (x) définit une forme linéaire Ω f (x)φ(x) dΩ sur l’espace des déplacements, forme li-
néaire qui est un travail. Ces intégrales représentent des grandeurs physiques globales (des énergies
par exemple), mieux définies que les valeurs ponctuelles des fonctions. La théorie des distributions
redéfinit les notions de densité de forces ou de charges par les formes linéaires qui leur sont associées,
ce qui permet de définir, non seulement les densités associées à des fonctions, mais encore des densi-
tés associées à des charges ponctuelles ou linéïques comme il est d’usage de le faire en physique.
On associe donc à une fonction intégrable f (x) ∈ L1 (Ω) la forme linéaire
Z
< Tf , φ >= f (x)φ(x) dΩ

Il reste à préciser l’espace des fonctions tests qui peut varier selon les applications. Pour définir les
formulations faibles de problèmes différentiels du second ordre nous avons utilisé les fonctions C 1
ou C 2 nulles sur le bord. Pour étudier des problèmes différentiels quelconques on considère des
fonctions C ∞ , pour traiter des dérivées d’ordre quelconque, et à support compact pour que toutes les
intégrales soient définies. Pour étudier des fonctions périodiques on considère des fonctions tests C ∞
et périodiques.

139
140 Analyse des équations aux dérivées partielles

6.1.2 Distributions sur R


Définitions élémentaires
On définit de façon analogue les distributions sur un ouvert de Rn .

Définition 34 Soit Ω un intervalle ouvert de R. Nous utiliserons les espaces des fonctions tests
suivants
D(Ω) = {φ ∈ C ∞ (Ω) / ∃a, b ∈ Ω supp(φ) ⊂ [a, b]}
D(T) = {φ ∈ C ∞ (R) / φ(x) est périodique de période 2π}

On munit l’espace D(Ω) de la notion de convergence suivante

lim φn = φ ⇔ ∃a, b ∈ Ω / supp(φn ) ⊂ [a, b] et ∀k φ(k)


n →φ
(k)
n

(k)
où la convergence est prise au sens de la convergence uniforme et φn est la dérivée d’ordre k de φn .
On définit de même la convergence dans D(T)

φn → φ ⇔ ∀k φ(k)
n →φ
(k)

Définition 35 L’espace des distributions D0 (Ω) (resp. l’espace des distributions périodiques D0 (T))
est l’ensemble des formes linéaires continues sur D(Ω) (resp. D(T )) .

Dans ce qui suit, pour simplifier les notations, nous nous limitons aux distributions sur R, mais l’ex-
tension à un intervalle quelconque est immédiate..

Exemples
Une fonction continue f (x) ∈ C(R) définit de manière unique1 une distribution
Z +∞
< Tf , φ >= f (x)φ(x) dx
−∞

Une fonction localement intégrable (au sens de Lebesgue) définit de même une distribution mais deux
fonctions qui sont égales presque partout définissent la même distribution.
On appelle distribution de Dirac au point a la distribution

< δa , φ >= φ(a)

Si φ représente un déplacement,< δa , φ >= φ(a) est le travail d’une force ponctuelle d’intensité
1 placée au point a ; nous verrons ci-dessous qu’une distribution de Dirac donne une représentation
mathématique cohérente de la notion de force ponctuelle, charge ponctuelle....
Nous ne décrirons pas les distributions générales, celles que nous considérerons par la suite seront ou
bien des fonctions ou bien des distributions de Dirac. Les distributions sont des objets plus généraux
que les fonctions auxquels nous allons étendre quelques notions usuelles pour les fonctions.
1
Car ∀φ ∈ D(R),
R +∞
f (x)φ(x) dx = 0 ⇒ f = 0
−∞

ECP 2006-2007 140


CHAPITRE 6. LE CADRE FONCTIONNEL 141

Valeur en un point
Soit ψn une suite2 de fonctions C ∞ , positives, d’intégrale 1, nulles en dehors de l’intervalle
[a − n1 , a + n1 ].
Pour les lecteurs que la perte des valeurs (des fonctions) angoissent, notons que si f (x) ∈ C(R) on a
Z +∞
f (a) = lim f (x)ψn (x) dx
n −∞

On peut donc définir par extension la valeur en a d’une distribution par la formule

T (a) = lim < T, ψn >


n

S’il existe une fonction associée à la distribution, on retrouve ses valeurs par cette formule. On peut
vérifier que cette expression donne la valeur 0 à la distribution de Dirac en tous points différents de a.
Le problème est que :
1) cette limite n’existe pas toujours.
2) ces valeurs ne caractérisent pas toujours la distribution comme on le voit pour la distribution de
Dirac, car une fonction nulle sauf en un point définit des intégrales nulles.

Dérivée d’une distribution


On vérifie par intégration par partie que si f ∈ C 1 (R)

< Tf 0 , φ >= − < Tf , φ0 >

On définit donc par extension la dérivée d’une distribution T par la formule

< T 0 , φ >= − < T, φ0 (x) >

Que sont les distributions dérivées de fonctions non dérivables ? Il y a des cas compliqués, mais
− Si f (x) est continue et C 1 par morceaux on aura (Tf )0 = Tf 0 où nous notons f 0 une fonction égale
à la dérivée quand elle est définie et quelconque ailleurs, l’indétermination n’ayant pas d’effet sur la
distribution associée (le vérifier par intégration par parties).
− Si H est la fonction d’Heaviside (H(x) = 0 si x < 0 et H(x) = 1 si x ≥ 0) on vérifie
immédiatement
(TH )0 = δ0
− On vérifie plus généralement que si f (x) est une fonction C 1 sauf aux points xi où la fonction
admet une limite à gauche et à droite, on a
X

(Tf )0 = Tf 0 + (f (x+
i ) − f (xi ))δxi
i

(le vérifier par intégration par parties).


2
R
Pour construire une telle suite, on définit d’abord Ψ(x) par Ψ(x) = exp 1/(1 − x2 )2 sur [−1, 1] et 0 ailleurs (on
montre que Ψ(x) ∈ C +∞ ([R])), puis φ(x) = Ψ(x)/ R Ψ(x) dx qui est d’intégrale égale à 1 et φn (x) = nφ(n(x − a)).

141 Mathématiques 2
142 Analyse des équations aux dérivées partielles

Convergence des distributions

Définition 36 Soit Tn , T ∈ D0 (R), on dit que

Tn → T ⇔ ∀φ ∈ D(R) < Tn , φ >→< T, φ >

Une conséquence immédiate de cette définition est que la dérivée est une opération continue :

Proposition 50 La dérivation des distributions est continue par rapport à la convergence au sens des
distributions
Si Tn → T alors (Tn )0 → T 0

La distribution de Dirac est la limite (au sens des distributions) d’une densité de charge de résultante
1 qui se concentre au point a.

Proposition 51 Si ψn est une suite de fonctions positives, d’intégrale 1, nulles en dehors de l’inter-
valle [a − n1 , a + n1 ] on a
Z +∞
∀φ ∈ D(R) lim ψn (x)φ(x) dx = φ(a)
n −∞

c’est à dire que Tψn → δa

La convergence, prise au sens des distributions, d’une suite de fonctions est une convergence “en
moyenne” .

Extension

Il est possible de définir sur les distributions, par extension, diverses notions usuelles pour une
fonction comme “être positive” ( ∀φ ≥ 0 ∈ D(R) < T, φ >≥ 0), ou bien la translatée θh (T ) d’une
distribution (∀φ ≥ 0 ∈ D(R) < θh (T ), φ >=< T, θ−h (φ) >)... Le principe général R +∞est de traduire
une notion usuelle pour les fonctions en termes de propriétés de la forme linéaire −∞ f (x)φ(x) dx
puis d’étendre la définition.
Noter que nous n’avons pas défini le produit de deux distributions : on montre qu’il n’y a pas de
définition cohérente d’une multiplication continue qui prolongerait la notion de produit de deux fonc-
tions.

Applications élémentaires

it Équations différentielles avec des charges concentrées


La position d’équilibre u(x) d’une corde tendue de longueur L sous l’effet d’une densité de force
f (x) est solution du problème aux limites

−u00 (x) = f (x)



(6.1)
u(0) = u(L) = 0

ECP 2006-2007 142


CHAPITRE 6. LE CADRE FONCTIONNEL 143

Si on applique une force concentrée F au point d’abscisse a, la position d’équilibre ua (x) a la forme
d’une corde pincée. Par passage à la limite en considérant une densité f (x) de résultante F qui tend
vers une charge concentrée F on voit que ua doit vérifier u(a) = u(L) = 0 et

−(Tua )00 = F δa

On vérifie facilement qu’une solution de l’équation (en fait la seule) est la distribution Tua associée à
la fonction 
 ua (x) = F (L − a)x

x≤a
L (6.2)
F
 ua (x) =
 a(L − x) x≥a
L
L’usage est de dire que ua est solution au sens des distributions de l’équation

−ua 00 = F δa

it Convergence des séries de Fourier


Rappelons que si u(x) est une fonction C 1 de période 2π sa série de Fourier converge uniformément
vers u(x), en particulier si φ ∈ D(T ) la série de Fourier de φ converge uniformément vers φ, et que
cela est faux en général pour une fonction moins régulière.
Mais dans le cadre des distributions on a le résultat général :

Proposition 52 Soit f (x) une fonction localement intégrable 2π-périodique. La série de Fourier de
f converge vers f au sens des distributions

Preuve
On note Sn (f ) la somme des n premiers termes de la série de Fourier de f . Vérifier que
Z 2π Z 2π
Sn (f )(x)φ(x) dx = f (x)Sn (φ)(x) dx
0 0

On en déduit, puisque Sn (φ)(x) converge uniformément vers φ, que


Z 2π Z 2π Z 2π
lim Sn (f )(x)φ(x) dx = lim f (x)Sn (φ)(x) dx = f (x)φ(x) dx
n 0 n 0 0

c’est à dire TSn (f ) → Tf au sens des distributions. ♦

Série de Fourier d’une distribution périodique


Remarquer que
1 2π
Z
1
an (f ) = f (x) cos nx dx = < Tf , cos(nx) >
π 0 π
Ce qui permet d’étendre la définition des coefficients de Fourier aux distributions de D0 (T)
1
an (T ) = < T, cos(nx) >
π
On montre, comme nous l’avons fait ci-dessus pour les fonctions,

143 Mathématiques 2
144 Analyse des équations aux dérivées partielles

Proposition 53 La série de Fourier d’une distribution périodique T ∈ D0 (T) converge vers T au


sens des distributions
Vérifier directement la formule

1 1 X
δ0 = ( + cos(kx))
π 2
k=1
où la convergence est prise au sens des distributions (noter que la série ci-dessus ne converge en aucun
point au sens ordinaire).

6.2 Le problème de l’existence des solutions


Voir [11] ou [12] pour un exposé plus complet.

6.2.1 Rappel
Nous avons vu quelques exemples de problèmes aux limites pour une équation elliptique qui
s’écrivait, après passage à la forme faible, sous la forme

u∈V
(6.3)
∀v ∈ V, a(u, v) = L(v)
où V est, par exemple, l’espace des fonctions C 1 nulles sur le bord d’un domaine, a(u, v) est une
forme bilinéaire symétrique définie positive, L(v) est une forme linéaire sur V .
Si V est un espace de dimension finie n (cas de la recherche d’une approximation par la méthode
des éléments finis), a(u, v) définit un produit scalaire et l’existence de u résulte de ce que toute
forme linéaire peut être représentée par un vecteur à l’aide d’un produit scalaire. Si vk est une base
orthonormée de V pour le produit scalaire a(u, v) on a la forme explicite pour u
n
X
u= L(vk )vk
k=1

Dans le cas général, où V est de dimension infinie, ce résultat est faux sauf si l’espace V est un espace
de Hilbert pour le produit scalaire. Rappelons qu’un espace muni d’un produit scalaire est un espace
de Hilbert si c’est un espace complet pour la norme définie par ce produit scalaire.

6.2.2 Le théorème de Lax-Milgram


Si V est un espace de Hilbert, pour un produit scalaire < x, y >, on a un théorème d’existence
plus général encore :
Théorème 27 Si L(v) est une forme linéaire continue, si a(u, v) est une forme bilinéaire continue,
i.e.
∃M > 0 ∀u, v ∈ V |a(u, v)| ≤ M kukkvk
et coercive, i.e.
∃α > 0 ∀u ∈ V |a(u, u)| ≥ α < u, u >
alors le problème (6.3) admet une solution unique.

ECP 2006-2007 144


CHAPITRE 6. LE CADRE FONCTIONNEL 145

Nous n’avons pas supposé la symétrie dep la forme a(u, v). Si on suppose de plus la forme symétrique
les hypothèses impliquent que kuka = a(u, u) définit une norme équivalente à la norme initiale
et que V est donc aussi un espace de Hilbert pour ce produit scalaire. Le théorème de Lax-Milgram
résulte alors du théorème de Riesz :
sur un espace de Hilbert toute forme linéaire peut être représentée par un vecteur à l’aide d’un produit
scalaire.
Si vk est une base orthonormée de V pour le produit scalaire a(u, v) on a l’expression explicite

X
u= L(vk )vk
k=1

Preuve
Soit Vn le sous-espace de V engendré par les vecteur v1 , . . . , vn . On définit un ∈ Vn solution de
∀v ∈ Vn , a(un , v) = L(v)
Comme nous l’avons vu ci-dessus, un s’écrit
n
X
un = L(vk )vk
k=1

Comme de plus p
a(un , un ) = L(un ) ≤ Ckun ka ≤ C a(un , un )
on en déduit a(un , un ) ≤ C 2 . En remplaçant un par son expression il vient
n
X
L(vk )2 ≤ C 2
k=1

on en déduit que la série L(vk ) est de carré sommable et donc que la somme ∞
P
k=1 L(vk )vk est bien
convergente dans V . ♦
Remarquer que le fait que V est un espace de Hilbert, donc complet, sert précisément ici à assurer
l’existence de la limite de la série.

6.2.3 Application
Il y a cependant un obstacle majeur pour appliquer le théorème de Lax-Milgram dans les situations
que nous avons rencontrées dans l’étude des problèmes aux limites : l’espace des fonctions C 1 n’est
pas un espace de Hilbert pour les produits scalaires que nous avons définis.
On peut penser que la méthode choisie pour établir l’existence n’est pas la bonne, cependant on
montre que le problème est plus fondamental : en effet une solution C 2 d’un problème comme le
problème de Laplace ∆u = f n’existe pas sous des hypothèses “naturelles” sur les données, comme
f ∈ C(Ω), le cadre fonctionnel des fonctions plus ou moins dérivables n’apparaît donc pas comme
le plus approprié pour formuler des théorèmes d’existence. Même s’il y a d’autres approches que le
passage par la recherche de solutions faibles et l’approche hilbertienne décrits ci-dessus, celle-ci est
manifestement très générale et intuitive du fait de son interprétation géométrique. Pour la mettre en
oeuvre il faudra cependant un détour compliqué : compléter l’espace V pour obtenir un espace de
Hilbert.

145 Mathématiques 2
146 Analyse des équations aux dérivées partielles

6.2.4 Le cadre fonctionnel


En suivant exactement l’approche hilbertienne des problèmes aux limites décrites dans le para-
graphe précédent il faudrait compléter l’espace V pour différents produits scalaires. Cependant la
plupart de ces produits scalaires sont équivalents à certains produits scalaires naturels qui définissent
les espaces de Sobolev : physiquement ces produits scalaires représentent des énergies, les espaces de
Sobolev seront donc des espaces très généraux d’énergie finie. Précisons un exemple : soit Ω ⊂ R2 et
soit V0 l’espace des fonctions de C 1 (Ω) nulles sur le bord de Ω. On définit sur V0 le produit scalaire
Z
< u, v >= ∇u.∇v + uv dΩ

et la norme

kukH 1 = < u, u >

Définition 37 L’espace de Sobolev H 1 (Ω) est le complété de C 1 (Ω) pour la norme kukH 1 .

Définition 38 L’espace de Sobolev H01 (Ω) est le complété de V0 pour la norme kukH 1 .

Rappelons que le complété d’un espace vectoriel V pour une norme est un espace vectoriel normé
complet qui contient V et qui est son adhérence. C’est a priori un espace “abstrait” (on peut le
construire comme un quotient de l’ensemble des suites de Cauchy). Rien ne dit donc que H 1 (Ω)
est formé de fonctions. Cependant on montre que H 1 (Ω) peut être identifié au sous-espace de L2 (Ω)
des fonctions dont les dérivées au sens des distributions sont dans L2 (Ω), ce qui signifie, par exemple
pour la dérivée par rapport à x1 , qu’il existe v ∈ L2 (Ω) telle que
Z Z
∂φ
∀φ ∈ D(Ω) vφ dΩ = − u dΩ
Ω Ω ∂x1

On le voit cela reste assez abstrait ! D’autant qu’un élément de L2 (Ω) n’est une fonction que par abus
de langage, car cette fonction est définie à un ensemble de mesure nulle près. Comme le bord de Ω
est de mesure nulle dans Ω on ne peut donc pas sans précaution parler de la restriction au bord d’un
élément de L2 (Ω), nécessaire pour définir les conditions aux limites. Cependant on montre, c’est diffi-
cile, que l’on peut donner un sens à cette restriction pour u ∈ H 1 (Ω) et définir des opérateurs “trace”
qui à u ∈ H 1 (Ω) associe tr(u) ∈ L2 (∂Ω) telle que la trace d’une fonction C 1 soit sa restriction au
1
bord. Toute fonction de L2 (∂Ω) n’étant pas la trace d’une fonction de H 1 (Ω), on note H 2 (∂Ω) le
sous-espace des fonctions de L2 (∂Ω) qui sont des traces (sous-espace que l’on sait caractériser mais
cela nous mènerait très loin...). Avec ce cadre fonctionnel on peut définir les problèmes aux limites
dans un cadre Hilbertien, par exemple
 1
 u ∈ H (Ω)
1
T r(u) = g ∈ H 2 (∂Ω) (6.4)
∀v ∈ H 1 (Ω), a(u, v) = L(v)

ECP 2006-2007 146


CHAPITRE 6. LE CADRE FONCTIONNEL 147

6.2.5 Exemple d’utilisation du cadre fonctionnel


Considérons le problème modèle de la membrane (cf. séance 2 pour les données et les notations).
écrit en formulation faible

u ∈ V0 (6.5)
∀v ∈ V0 a(u, v) = L(v) (6.6)

1. On vérifie, par Cauchy-Schwarz, que a(u, v) est continue sur H01 (Ω), de même que L(v).

2. La coercivité de a(u, v) n’est pas évidente, elle résulte de l’inégalité de Poincaré que nous
admettrons Z Z
∀u ∈ H01 (Ω), u2 dΩ ≤ Cte (∇u)2 dΩ
Ω Ω

3. On peut donc appliquer le théorème de Lax-Milgram pour obtenir l’existence d’une unique so-
lution u de (6.5) dans H01 (Ω).

4. On peut ensuite vérifier que u est une solution au sens des distributions de l’équation initiale

−∆u = f (6.7)

5. Si f ∈ L2 (Ω) et donc ∆u ∈ L2 (Ω) on montre que les dérivées partielles au sens des distribu-
∂u
tions ∂xi
, i = 1, 2 sont des fonctions et sont dans L2 (Ω) (c’est un résultat délicat à montrer, il
faut d’ailleurs que le domaine Ω soit assez régulier). On en déduit ensuite que u est continue,
ce qui en particulier donne un sens clair à la notion de valeur au bord.

6. Pour montrer que u est éventuellement une fonction C 2 et donc une solution au sens ordinaire,
il faut rajouter des conditions de régularité ; on montre en particulier que si une fonction u est
une solution au sens des distributions de (6.7), u est C ∞ sur tout ouvert où f est C ∞ .
La démarche suivie est donc : montrer, sous des conditions très large, l’existence d’une solution
en un sens “étendu”, préciser ensuite les propriétés de cette solution sous des conditions de
régularité locale plus forte.

147 Mathématiques 2
148 Analyse des équations aux dérivées partielles

ECP 2006-2007 148


Chapitre 7

L’approximation des problèmes aux


limites

Objectifs

Ce chapitre est une introduction à l’approximation numérique des problèmes aux limites. Sans
faire de théorie générale nous développons à partir de quelques exemples les principes de l’approxi-
mation par la méthode des éléments finis.

7.1 Le problème
7.1.1 Présentation
Une solution d’une équation aux dérivées partielles n’est pas en général une fonction “usuelle”
(polynôme, sinus, ...) et l’ensemble des solutions forme un espace de dimension infinie. On peut
parfois (cf. chapitre 3) représenter formellement les solutions par des séries de fonctions usuelles
ou par des intégrales. Mais, sauf pour des domaines simples (carré, disque), ces représentations ne
permettent pas de résoudre les problèmes aux limites : l’ajout des conditions aux limites revient à
poser une infinité d’équations pour une infinité de variables.
Il faut donc faire une approximation pour représenter une fonction plus ou moins régulière, mais a
priori quelconque, par des fonctions usuelles qui ne dépendent que d’un nombre fini de paramètres.
Cela revient à choisir sous-espace d’approximation Vh , de dimension finie, d’un espace V0 où est
cherché a priori la solution exacte.
Comment définir une approximation de la solution du problème dans cet espace ? C’est ce que nous
allons étudier.

7.1.2 Le problème général


Le cadre général où nous plaçons cette étude est celui du problème (4.3.1) limité à la dimension
deux. Mais, pour simplifier, nous appliquerons les différentes méthodes à un problème modèle.

149
150 Analyse des équations aux dérivées partielles

7.1.3 Un problème modèle


Nous considérons le problème
2
 u ∈ C (Ω)


−k∆u + cu = f si x ∈ Ω (7.1)
 −k ∂u = 0

si x ∈ Γ
∂n
où k et c sont des constantes positives et f ∈ C(Ω) une fonction quelconque. Parmi les multiples
interprétations de ce problème, nous pouvons considérer un problème de diffusion en régime perma-
nent dans une plaque mince où u représente la température avec un échange de chaleur avec le milieu
extérieur (cf. 4.17). Nous supposons que la solution existe. Pour simplifier la présentation de l’ap-
proximation, nous n’avons pas mis de condition de Dirichlet (u = u0 sur le bord) dans ce problème,
nous verrons au paragraphe 7.3.1 comment les traiter.
Soit V0 = C 1 (Ω). Le problème (7.1) est équivalent (théorème 24) à la formulation faible

∀v ∈ V0 a(u, v) = L(v) (7.2)

où nous avons posé Z


a(u, v) = hk ∇u, ∇vi + cuv dΩ

Z
L(v) = f v dΩ

7.2 Principes généraux d’approximation


7.2.1 Méthode des différences finies
Voir la séance d’exercices 1. Nous supposons dans ce paragraphe que Ω = [0, 1] × [0, 1] est le
carré de côté 1.

Principe
1
On divise le carré selon une grille rectangulaire de pas h = n−1 . Les nœuds de la grille ont
pour coordonnées (xi , yj ) = ((i − 1)h, (j − 1)h) où 1 ≤ i, j ≤ n. L’objectif est de calculer une
approximation ui,j des valeurs de la solution de (7.1) aux points (xi , yj ). Il y a donc n2 valeurs à
calculer ui,j , 1 ≤ (i, j) ≤ n. On écrit une équation en chaque nœud en remplaçant l’équation aux
dérivées partielles exacte par une approximation obtenue en approchant les dérivées exactes par des
différences finies

∂u u(xi + h, yj ) − u(xi , yj ) ∂u u(xi , yj ) − u(xi − h, yj )


(xi , yj ) w , (xi−1 , yj ) w
∂x h ∂x h
∂u(xi ,yj ) ∂u(xi−1 ,yj )
∂2u ∂x − ∂x u(xi − h, yj ) − 2u(xi , yj ) + u(xi + h, yj )
(xi , yj ) w w
∂x2 h h2

ECP 2006-2007 150


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 151

Un développement limité montre que cette approximation de la dérivée seconde est à h2 près. On a
de même
∂2u u(xi , yj − h) − 2u(xi , yj ) + u(xi , yj + h)
2
(xi , yj ) w
∂y h2
.

Cas d’un nœud intérieur


Pour un nœud intérieur on déduit des approximations des dérivées secondes une approximation
du laplacien −k∆u(x) par le schéma à 5 points
−ui−1,j − ui+1,j − ui,j−1 − ui,j+1 + 4ui,j
−k∆u(x) w k (7.3)
h2
Il faut adapter cette expression sur les bords et dans les coins pour ne pas faire intervenir de points
extérieurs au carré et pour tenir compte des conditions au bord.

Cas des bords et des coins


Considérons un point du bord inférieur (xi , y1 ) = (ih, 0) ; on utilise l’approximation
∂u(xi ,y2 ) ∂u(xi ,y1 )
∂2u ∂y − ∂y ∂u(xi , y2 ) u(xi , y2 ) − u(xi , y1 )
(xi , y1 ) w et w
∂y 2 h ∂y h

Compte tenu de la condition au bord −k ∂u(x∂yi ,y1 ) = 0, il vient

∂2u u(xi , y1 ) − u(xi , y2 )


(xi , y1 ) w
∂y 2 h2
d’où l’approximation
−ui−1,j − ui+1,j − ui,2 + 3ui,j
−k∆u(xi , y1 ) w k
h2
Remarque : cela revient à tenir compte dans le schéma à 5 points, écrit en utilisant un point extérieur
ui,0 , de la condition ui,1 = ui,0 , qui est une conséquence de l’approximation u(xi ,y1 )−u(x
h
i ,y0 )
w
∂u
∂y (x ,
i 1y ) = 0
Au coin inférieur gauche (x1 , y1 ) = (0, 0) le même principe conduit à l’équation
−u1,2 − u2,1 + 2u1,1
−k∆u(x1 , y1 ) w k
h2

Construction du système d’équations


Au total il y a N = n2 équations pour N = n2 inconnues. On construit une équation en rempla-
çant dans l’équation (7.1) écrite au point (xi , yj ) les différentielles exactes par leur approximation ;
pour l’équation générale on obtient
−ui−1,j − ui+1,j − ui,j−1 − ui,j+1 + 4ui,j
k + cui,j = fi,j (7.4)
h2

151 Mathématiques 2
152 Analyse des équations aux dérivées partielles

où nous avons posé


fi,j = f (xi , yj )
On écrit avec un seul indice les inconnues du système, que nous notons alors Uk , en prenant l’ordre
de gauche à droite et de bas en haut des nœuds, i.e. sous la forme
Un(i−1)+j = ui,j
Nous posons
U = (U1 , ..., Uk , ..., UN )t
F = (F1 , ..., Fk , ..., FN )t
Le système s’écrit matriciellement
KU = F
où la matrice K est symétrique et n’a que 5 diagonales non nulles correspondant aux termes Kk,l =
− hk2 avec |k − l| = 0, 1, n.
Rappelons (cf. paragraphe 4.3.1) que l’opérateur −k∆ + cId est symétrique défini positif. Nous mon-
trerons (cf. exercices séance 1 et le paragraphe 7.2.4) que la matrice K aussi symétrique définie
positive, ce qui montre que la construction de l’approximation a été bien menée !

Analyse et extensions
− La méthode des différences finies se généralise à des dimensions d’espace quelconques. Telle
que nous l’avons présentée elle ne s’applique qu’à des domaine carrés ou cubiques, mais on peut
l’étendre à des grilles déformées (plus précisément, on déforme une grille par application d’une trans-
formation géométrique). Cela permet d’appliquer cette méthode à des domaines qui ne sont pas trop
déformés (par exemple image d’un carré par une transformation conforme).

− Elle permet d’utiliser des méthodes numériques très efficaces, car la régularité de la grille donne
des propriétés spéciales aux matrices que l’on peut exploiter par des méthodes appropriées (méthode
multi-grille).

− En revanche la méthode des différences finies est inadaptée pour les problèmes à géométrie
complexe. La méthode des éléments finis que nous verrons ci-dessous est plus générale et plus souple
d’utilisation.

− La simplicité relative des calculs que nous avons présentés est trompeuse, la prise en compte
des conditions aux limites est délicate tout comme la construction de la matrice. La conservation
des propriétés de l’équation (symétrie de l’opérateur, existence d’un potentiel...) dans le passage à
l’approximation n’est pas automatique.

Étude de l’erreur et de la convergence


L’estimation de l’erreur d’approximation dans la méthode des différences finies n’est pas auto-
matique. On peut estimer facilement l’erreur de consistance, c’est à dire l’erreur faite dans l’approxi-
mation des dérivées par des différences finies. Dans notre exemple si on note Û le vecteur formé par

ECP 2006-2007 152


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 153

les valeurs de la solution exacte aux nœuds de la grille, on peut obtenir, en développant les différents
termes par la formule de Taylor au voisinage du point (xi , yj ), une estimation du type

kKÛ − Fk∞ ≤ Cte h2

où la constante dépend des dérivées d’ordre 4 de la solution. On en déduit, puisque KU = F que

kK(Û − U)k∞ ≤ Cte h2 (7.5)

et donc
kÛ − Uk∞ ≤ kK−1 k∞ Cte h2

Noter que la matrice K dépend de h. Si on a une condition

kK−1 k∞ ≤ M (7.6)

où M est une constante indépendante de h, on en déduit une estimation de l’erreur

kÛ − Uk∞ ≤ M Cte h2

et surtout la convergence des approximations vers la solution exacte. Cette condition (7.6) est la
stabilité du schéma. Une estimation de ce type est facile1 ici mais délicate dans le cas général. Elle
est liée à une estimation de la plus petite valeur propre de la matrice K. Nous reprendrons l’étude de
l’erreur avec plus de moyen avec la méthode des éléments finis.

7.2.2 Méthode de Ritz-Galerkin


La méthode de Ritz-Galerkin est un principe général de construction d’une approximation de la
solution d’un problème aux limites ; elle utilise une formulation faible du problème. Nous verrons
que dans des conditions assez générales l’approximation ainsi définie est convergente.
Nous considérons, avant de particulariser, une formulation faible très générale d’un problème aux
limites. Pour simplifier l’écriture, supposons que la solution u est dans l’espace des fonctions tests V0
qui est muni d’une norme kvk0 . On considère donc un problème écrit sous la forme suivante

u ∈ V0
(7.7)
∀v ∈ V0 , a(u, v) = L(v)

où a(u, v) est une fonction linéaire en v.

1
Principe de la démonstration : si KU = F, on considère la composante maximale en valeur absolue de U ; notons la
ui,j en repassant à la notation en double indice. Vérifier qu’en ce point δi,j = −k(−ui−1,j − ui+1,j − ui,j−1 − ui,j+1 +
4ui,j ) est du même signe que ui,j . De δi,j + cui,j = fi,j on déduit que c|ui,j | ≤ |fi,j | et donc maxk,l |uk,l | ≤ 1c |fi,j | ≤
1
c
maxk,l |fk,l |, i.e. kUk∞ ≤ maxk,l |fk,l | ≤ 1c kFk∞

153 Mathématiques 2
154 Analyse des équations aux dérivées partielles

Principe d’approximation
Soit Vh un sous-espace de dimension finie de V0 , h étant un paramètre qui mesure a priori la
précision de l’approximation et qui peut tendre vers 0. Nous définissons une solution approchée uh
du problème (7.7) en restreignant la formulation variationnelle à Vh . On pose donc le problème

u h ∈ Vh
(7.8)
∀v ∈ Vh , a(uh , v) = L(v)

On peut déjà remarquer une condition nécessaire que doit vérifier l’espace Vh : pour que cela ait un
sens de chercher une solution dans Vh il faut qu’il existe a priori au moins une fonction Πh (u) de Vh
qui soit proche de la solution u et que Πh (u) → u quand h → 0.

Cas d’une forme bilinéaire symétrique définie positive


Nous supposons dans ce paragraphe que a(u, v) est une forme bilinéaire symétrique définie posi-
tive. On a alors une interprétation géométrique de l’approximation :

Théorème 28 Si a(u, v) est une forme bilinéaire symétrique définie positive, l’approximation uh de
la solution u de (7.7)
p définie par le principe de Ritz-Galerkin est la projection de u sur Vh au sens de
la norme kvk = a(v, v).

Preuve
On a pour v ∈ Vh

a(u − uh , v) = a(uh , v) − a(u, v) = a(uh , v) − L(v) = 0

et donc, si v est un élément quelconque de Vh , on a

a(u−v, u−v) = a(u−uh +uh −v, u−uh +uh −v) = a(u−uh , u−uh )+2a(u−uh , uh −v)+a(uh −v, uh −v)

en utilisant la bilinéarité de a(u, v). Comme uh − v ∈ Vh , on a a(u − uh , uh − v) = 0 d’où

a(u − v, u − v) = a(u − uh , u − uh ) + a(uh − v, uh − v)

On en déduit
a(u − uh , u − uh ) ≤ a(u − v, uh − v)
p
puisque a(uh − v, uh − v) ≥ 0. Autrement dit, en posant kvk = a(v, v)

∀v ∈ Vh ku − uh k ≤ ku − vk


On peut donner dans ce cas une autre interprétation intuitive de la méthode de Ritz-Galerkin. Nous
avons vu que, si a(u, v) est une forme bilinéaire symétrique définie positive, la formulation faible
(7.7) est équivalente au problème d’optimisation

u ∈ V0
(7.9)
J(u) ≤ J(v) ∀v ∈ V0

ECP 2006-2007 154


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 155

où J(v) = 12 a(v, v) − L(v) est une fonction quadratique strictement convexe. Pour définir uh ∈ Vh
on peut utiliser le problème d’optimisation

J(uh ) ≤ J(v) ∀v ∈ Vh (7.10)

qui est équivalent au problème

a(uh , v) = L(v) ∀v ∈ Vh (7.11)

Nous avons vu que ces deux problèmes ont une solution est une seule. En conclusion

Proposition 54 Approximation par le principe du minimum de l’énergie


Considérons un problème aux limites dont la solution réalise le minimum d’une fonction énergie J(v)
sur un espace V0 . La méthode de Ritz-Galerkin consiste à choisir dans un sous-espace Vh ⊂ V0 de
dimension finie la fonction uh qui minimise l’énergie sur Vh .

Noter que par construction J(u) ≤ J(uh ).

Détermination de la solution approchée


Nous supposons dans ce paragraphe que a(u, v) est une forme bilinéaire. Pour déterminer pra-
tiquement la solution, il faut se donner une base wi (x, y) (pour i = 1, N ) de Vh et calculer les
composantes uj de la solution uh dans cette base.Nous supposons dans ce paragraphe que a(u, v) est
une forme bilinéaire.
Notations :
− N est la dimension de l’espace Vh ,
− Les fonctions wi (x, y), pour i = 1, N , forment une base de l’espace Vh ,
− On note (u1 , ..., uj , ..., uN )t les composantes de uh dans cette base
N
X
uh (x, y) = uj wj (x, y)
j=1

Le problème (7.8) est donc équivalent, en tenant compte de la linéarité de a(u, v) par rapport à v, au
système de N équations
a(uh , wi ) = L(wi) ∀ 1 ≤ i ≤ N (7.12)
PN
En exprimant uh dans la base wi (uh (x, y) = j=1 uj wj (x, y)), on obtient pour les composantes de
uh un système linéaire de N équations à N inconnues

XN
a( uj wj , wi ) = L(wi ) ∀ 1 ≤ i ≤ N (7.13)
j=1

Soit, en utilisant la linéarité de a(u, v) par rapport à u


N
X
uj a(wj , wi ) = L(wi ) ∀ 1 ≤ i ≤ N (7.14)
j=1

155 Mathématiques 2
156 Analyse des équations aux dérivées partielles

Ce système s’écrit sous forme matricielle

KU = F (7.15)

où nous avons introduit des notations conventionnelles :


− U = (u1 , ..., uj , ..., uN )t est le vecteur formé par les inconnues.
− K est la matrice, dite de "raideur", de dimension (N, N ) dont les coefficients sont

Ki,j = a(wj , wi )

− F est le vecteur de dimension N dont les coefficients sont

Fi = L(wi )

Propriétés du système
Théorème 29 Si la forme bilinéaire a(u, v) est symétrique définie positive le système

KU = F

est à matrice symétrique définie positive, il admet donc une solution et une seule.

Preuve
Si V = (v1 , ..., vj , ..., vN )t est un vecteur quelconque non nul et v = N
P
j=1 vj wj est la fonction
associée, il vient
Vt KV = a(v, v) > 0

En résumé :

Proposition 55 Approximation par la méthode de Ritz-Galerkin


Dans un espace d’approximation Vh la solution approchée uh du problème (7.1), est représentée par
ses composantes U = (u1 , ..., uj , ..., uN )t dans une base wi , i = 1, N . Le vecteur U est la solution
du système linéaire
KU = F
où la matrice K a pour coefficients Ki,j = a(wj , wi ) et le vecteur F pour coefficients Fi = L(wi ).
La matrice K, appelée en mécanique matrice de raideur, est symétrique définie positive si la forme
a(u, v) est symétrique définie positive.

Choix de l’espace d’approximation


Il nous reste à choisir un espace particulier Vh . On peut choisir un sous-espace de polynômes ou de
fonctions trigonométriques. Mais la représentation d’une fonction quelconque par de telles fonctions
est souvent lentement convergente et très instable : le problème vient précisément de la régularité de

ECP 2006-2007 156


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 157

Problème initial Approximation

-k ∆ u=f K U =F

 
u ∈ V0 u h ∈ Vh
a(u,v) = L(v) pour v ∈ V0 a(u h ,v) = L(v) pour v ∈ Vh

 
u ∈ V0 uh ∈ Vh
J(u) <J(v) pour v ∈ V0 J(u h ) <J(v) pour v ∈ Vh

F IG . 7.1 – Construction d’une approximation par la méthode de Ritz-Galerkin

ces fonctions. Elles approchent bien les fonctions très régulières, mais mal les fonctions discontinues2 .
On utilisera des fonctions polynômes, représentées dans une base de polynômes orthogonaux, pour
des problèmes dont la solution est très régulière quand le domaine est un carré ou un cube. C’est le
fondement des méthodes spectrales.
Une fonction quelconque peut être bien approchée par des fonctions affines par morceaux : pour s’en
convaincre il suffit de remarquer qu’une surface quelconque peut être approchée de façon stable par
une surface polyédrique. C’est pourquoi nous choisirons des espaces de “polynômes par morceaux”
sur des partitions convenables du domaine : c’est la méthode des éléments finis.

Extension des formulations faibles

Il y a une petite difficulté technique pour utiliser des espaces de fonctions polynômes par mor-
ceaux : pour la cohérence et la simplicité de notre exposé il faut que l’espace d’approximation Vh soit
inclus dans l’espace des fonctions tests V0 qui nous a servi à construire des formulations faibles. Or
nous avons toujours utilisé un espace V0 de fonction C 1 mais, en général, les espaces Vh que nous
allons introduire sont des espaces de fonctions continues, mais seulement “dérivables par morceaux”,
c’est à dire sur des sous-domaines d’une partition de Ω. Il nous faut donc étendre les formulations
2
Par exemple la vitesse de convergence d’une série de fourier vers une fonction présentant une discontinuité sur la
dérivée ne peut être de l’ordre de ck ∼ k13

157 Mathématiques 2
158 Analyse des équations aux dérivées partielles

faibles à un espace plus “grand” que V0 qui contiennent les fonctions de Vh . Il est tentant de définir
un “espace de fonctions continues dérivables par morceaux” mais la définition précise de cet espace
pose des problèmes si on ne fixe pas les sous-domaines (faire la somme de deux fonctions oblige à
considérer l’intersection des sous-domaines). Il y a deux solutions pour résoudre cette difficulté :
1) Prendre pour V0 un espace de Sobolev adapté au problème3 , ce qui revient à remplacer la notion
de dérivées par la dérivation au sens faible ou “au sens des distributions” (cf. chapitre 6). Les formu-
lations faibles restent vraies dans ces espaces plus ou moins par définition. Mais cela nous entraîne
un peu loin dans l’analyse fonctionnelle, ce que nous avons voulu éviter dans ce cours.
2) Prendre un espace V0 adapté à chaque approximation : étant donné une partition de Ω en domaines
polygonaux (pour simplifier), on définit V0 comme l’ensemble des fonctions continues et dérivables
sur chaque sous-domaine. Les formules d’intégration par parties et de Stokes restent vraies pour ces
fonctions : il suffit de les appliquer à chaque sous-domaine et de vérifier que les intégrales sur les
frontières intérieures s’annulent deux à deux. On en déduit que les formulations faibles sont vérifiées
en remplaçant les fonctions tests C 1 par les fonctions continues C 1 par morceaux au sens ci-dessus
(ce ne serait pas le cas si les fonctions étaient discontinues).

Définition 39 Nous appelons, par abus de langage, espace des fonctions continues dérivables par
morceaux l’ensemble des fonctions continues sur Ω, dérivables sur une partition (fixe) de Ω en sous
domaines polygonaux. Ces sous-domaines sont ceux qui servent à construire l’espace d’approxima-
tion Vh .

7.2.3 Approximation par des fonction affines par morceaux

Dans cette section, nous considérons l’exemple (7.1) et non plus la situation générale de la section
précédente. Les méthodes que nous développons se généralisent facilement à la situation générale du
problème (4.3.1).

Notion de maillage

Nous supposerons dans ce paragraphe que nous avons défini (Fig.(7.2)) :


− Une approximation du domaine Ω par un domaine à frontière polygonale.
− Un ensemble de points, appelés nœuds, régulièrement répartis dans le domaine.
− Un découpage du domaine en triangles, appelés éléments, ayant les nœuds comme sommets. Nous
supposerons qu’un nœud n’est jamais à l’intérieur d’un segment.
Nous appellerons ce découpage du domaine un maillage ou, dans ce cas particulier, une triangulation.
Le diamètre h du plus grand triangle mesure la finesse du maillage et c’est à lui que référera l’indice
h dans les notations.
Notations :
− Le maillage comporte N nœuds, numérotés de 1 à N .
− Le maillage est formé de ne triangles, numérotés de 1 à ne .

3
Pour le problème (7.1) l’espace H 1 (Ω) convient.

ECP 2006-2007 158


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 159

15 16 23 22

12 21
14
13

7 11 20
8

19
3
4
6 10 18

1 2 5 9 17

F IG . 7.2 – Un maillage et le support d’une fonction de base en grisé

7.2.4 L’espace Wh des fonctions continues affines par morceaux


Description

Nous appelons Wh l’espace des fonctions continues, dont la restriction à chaque triangle du
maillage est affine4 (en abrégé fonctions continues affines par morceaux). Une fonction de Wh est
entièrement définie par ses valeurs aux sommets des triangles, c’est à dire aux nœuds du maillage
et on peut la considérer comme une fonction d’interpolation entre des valeurs arbitraires données
aux nœuds. Le graphe d’une fonction de Wh est une surface polyédrique, dont les facettes sont des
triangles. Deux fonctions de Wh qui coincident aux nœuds sont égales car si deux fonctions affines
prennent les mêmes valeurs aux trois sommets d’un triangle elles sont égales.
Il faut définir une base de Wh . Soit wi la fonction de Wh qui prend la valeur 1 au nœud i et la valeur
0 aux autres nœuds. La fonction wi est nulle sur chaque triangle auquel le nœud i n’appartient pas,
puisqu’elle est alors nulle aux trois sommets du triangle ; elle est donc non nulle seulement sur le
polygone qui entoure le nœud i (Fig. 7.2 ). Son graphe est une petite pyramide qui est centrée sur le
nœud i et qui a pour base le polygone qui entoure le nœud i (Fig. 7.3).

Proposition 56 Soit wi la fonction affine par morceaux qui vaut 1 au nœud i et 0 aux autres nœuds.
Son support est l’ensemble des triangles dont le nœud i est un sommet. Le système de vecteurs
[w1 , ..., wi , ..., wN ] est une base de Wh . Les composantes d’une fonction dans la base sont ses valeurs
aux nœuds.

En effet, si v est une fonction arbitraire de Wh et si (v1 , ..., vi , ..., vN )t est le vecteur formé par ses
valeurs aux nœuds, on a
N
X
v(x, y) = vj wj (x, y) (7.16)
j=1

4
Une fonction affine est une fonction polynôme de degré 1 : u(x, y) = ax + by + c. L’usage courant les appelle aussi
linéaire, terme en toute rigueur réservé à u(x, y) = ax + by.

159 Mathématiques 2
160 Analyse des équations aux dérivées partielles

Pour le démontrer il suffit de remarquer que les deux membres représentent des fonctions de Wh et
que ces deux fonctions prennent la même valeur vi au nœud i.

11

F IG . 7.3 – Graphe d’une fonction de base

Application de la méthode de Ritz-Galerkin


Nous appliquons la méthode de Ritz-Galerkin à la formulation faible (7.2) en utilisant pour espace
d’approximation l’espace Vh = Wh . Nous développons uh dans la base wi , pour i = 1, ..., N ,
(définition (56)) de Vh ; les composantes uj de uh sont les valeurs de uh aux nœuds (56). Nous
obtenons un système linéaire
KU = F (7.17)
où nous avons introduit des notations conventionnelles :
− U = (u1 , ..., uj , ..., uN )t est le vecteur formé par les inconnues.
− K est la matrice, dite de "raideur", de dimension (N, N ) dont les coefficients sont
Z
Ki,j = a(wj , wi ) = k∇wj · ∇wi + cwi wj dΩ

− F est le vecteur de dimension N dont les coefficients sont


Z
Fi = L(wi ) = f wi dΩ

Ce système est à matrice symétrique définie positive (théorème 29).

La matrice de raideur K
La matrice de raideur K a pour éléments
Z
Ki,j = a(wj , wi ) = k∇wj · ∇wi + cwi wj dΩ

ECP 2006-2007 160


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 161

Or nous avons vu qu’une fonction de base est nulle hors des triangles auxquels le nœud i appartient,
les deux fonctions wi et wj ne sont donc simultanément non nulles que sur les triangles dont i et j
sont des sommets. Donc Ki,j = 0 si les nœuds i et j ne sont pas adjacents. La matrice de raideur n’a
donc que très peu d’éléments non nuls, on dit qu’elle est creuse. La position des éléments non nuls,
que l’on appelle le profil de la matrice, dépend de la numérotation des nœuds.
En reprenant les conclusions du paragraphe précédent, il vient :

Proposition 57 La matrice de raideur K a pour coefficients :


Z
Ki,j = k∇wj · ∇wi + cwi wj dΩ

Elle est symétrique définie positive et creuse.

Des méthodes numériques spécialement adaptées aux matrices ayant ces propriétés ont été dévelop-
pées, notamment les méthodes de gradient conjugué, voir le cours d’optimisation .

Matrice de raideur élémentaire Ke

Les coefficients de K sont des intégrales sur le domaine Ω. Pour les calculer on les décompose
en intégrales sur les triangles du maillage. Précisons :
1. Un triangle Te ne contribue au calcul d’une intégrale
Z
k∇wj · ∇wi + cwi wj dΩ

que si ce triangle appartient au support des fonctions wi et wj , ce qui implique d’après la


proposition (56) que les nœuds i et j sont des sommets du triangle Te . Un triangle Te de
sommet (i, j, k) ne contribue donc qu’au calcul de 9 coefficients

Ki,i Ki,j Ki,k


Kj,i Kj,j Kj,k
Kk,i Kk,j Kk,k

2. La contribution du triangle Te de sommet (i, j, k) à un coefficient, par exemple Ki,j , c’est une
intégrale sur ce triangle
Z
e
Ki,j = Te k∇wj · ∇wi + cwi wj dΩ

Comme il contribue à 9 coefficients, on peut ranger ces contributions dans la matrice de raideur
élémentaire  e
Ki,i Ki,je e 
Ki,k
e e e 
Ke =  Kj,i Kj,j Kj,k
e
Kk,i e
Kk,j e
Kk,k

161 Mathématiques 2
162 Analyse des équations aux dérivées partielles

1 2
h

F IG . 7.4 – Un triangle rectangle isocèle

Noter que cette matrice, une fois écrite pour un triangle quelconque, contient toute l’information
provenant de la forme bilinéaire a(u, v) qui définit la formulation faible, les autres informations pro-
viennent de la géométrie du domaine, c’est à dire du maillage. D’un point de vue algorithmique nous
avons fait un découplage entre les données géométriques et la forme de l’équation.
Exemple :
Soit un triangle rectangle isocèle Te de côté h (Fig. 7.4). En prenant pour repère les côtés de l’angle
droit il vient
x+y x y
w1 (x, y) = 1 − , w2 (x, y) = , w3 (x, y) =
h h h
d’où  1   1   
−h h 0
∇w1 = ∇w2 = ∇w3 =
− h1 0 h
1

Pour simplifier supposons c = 0. On a


Z
e
Ki,j = k∇wj · ∇wi dΩ

et donc, puisque les gradients d’une fonction affine sont constants

e h2
Ki,j = Surf(Te )k∇wj · ∇wi = ∇wj · ∇wi
2
Compte tenu des expressions des gradients, il vient
 
2 −1 −1
k
Ke = −1 1 0  (7.18)
2
−1 0 1

Maillage régulier : lien avec la méthode des différences finies


Considérons un maillage d’un carré, découpé en petits carrés, redécoupés en deux triangles se-
lon une diagonale fixe. Chaque nœud est, comme le nœud 1 de la figure (Fig. 7.5), au centre d’un
hexagone formé de triangles rectangles isocèles, les côtés de l’angle droit étant de longueur h.

ECP 2006-2007 162


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 163

7 h 3

1
4 2
h

5 h 6

F IG . 7.5 – Maillage régulier : carré découpé en deux triangles

2
c
h 3
1
7
1

6 4

F IG . 7.6 – Interprétation des équations

En supposant toujours c = 0 on peut utiliser les formules établies dans le paragraphe précédent
pour calculer les coefficients non nuls de la première ligne de K, il suffit d’ajouter les contributions
de chaque triangle 
 K1,1 = 4k
K1,2 = K1,3 = K1,4 = K1,5 = −k (7.19)
K1,6 = K1,7 = 0

La première équation du système KU = F s’écrit donc

k(4u1 − u2 − u3 − u4 − u5 ) = F1

En divisant par h2 et en réarrangeant, le premier membre s’écrit


u2 − 2u1 + u4 u3 − 2u1 + u5
−k −k
h2 h2
On retrouve un “schéma classique” d’approximation aux différences finies pour l’équation (7.1), dit
schéma cinq points, (7.4). C’est un résultat général : si on utilise des maillages réguliers les équations
obtenues par la méthodes éléments finis s’interprètent comme des équations au sens des différences

163 Mathématiques 2
164 Analyse des équations aux dérivées partielles

finies. On peut remarquer que cela fournit une démonstration naturelle du caractère défini positif de
la matrice du système obtenu par la méthode des différences finies.

Interprétation physique d’une équation


Une équation du système (7.12) s’écrit

a(uh , wi ) = L(wi )

Pour simplifier l’exposé supposons que c = 0. L’équation (7.1) est alors l’équation de la diffusion de
la chaleur en régime permanent dans une plaque mince, u(x) est la température au point x et f (x)
une densité de chaleur fournie à la plaque.

Interprétation du premier membre d’une équation


Sur un triangle Te , en utilisant les notations de la figure 7.6, i.e. en faisant i = 1, les gradients des
fonctions affines sont constants
Z
∇uh · ∇w1 dS = Aire(Te )k∇uh · ∇w1
Te

Or
c1 h1
Aire(Te ) =
2
1
et ∇uh est un vecteur dirigé selon la hauteur relative au nœud 1 avec un module égal à h1 . Donc, en
notant n~1 le vecteur unitaire dirigé selon la hauteur
Z
c1
∇uh · ∇w1 dS = k∇uh · ~n1
Te 2
Cette quantité représente le flux de chaleur créé par le champ u à travers le segment formé par les
milieux des côtés (1, 2) et (1, 3) qui est de longueur c21 et de normale ~n1 . Donc a(uh , wi ) est la somme
des flux de chaleur créés par le champ uh à travers le contour représenté Fig. 7.6.
Interprétation du second membre d’une équation
On a Z
L(wi ) = f wi dΩ

Ce terme est homogène à une quantité de chaleur puisque la fonction f est la densité de chaleur
fournie à la plaque. La somme des fonctions wi est la fonction affine par morceaux qui vaut 1 en
chaque nœud, c’est donc la fonction constante 1. Les fonctions wi apparaissent donc comme des
densités qui concentrent autour du nœud i la densité de chaleur fournie à la plaque. Le second membre
représente une concentration d’une densité de chaleur répartie autour du nœud i.
Nous en déduisons l’interprétation suivante d’une équation :
Résumé 3 Interprétation d’une équation
L’équation i peut s’interpréter comme une équation de conservation de l’énergie entre le flux de
chaleur à travers un contour entourant un nœud et les quantités de chaleur fournies par le milieu
extérieur.

ECP 2006-2007 164


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 165

Cette interprétation est très pratique pour décrire les modifications à effectuer dans une équation pour
prendre en compte de manière intuitive des phénomènes physiques qui ne sont pas couverts par la
théorie mathématique décrite dans les paragraphes précédents. Considérons, par exemple, une plaque
chauffée par un rayon laser en un point qui est un nœud i. Comment faut-il modifier les équations
pour en tenir compte ? La quantité de chaleur Q fournie par le laser s’ajoute à la densité de chaleur, il
faut donc ajouter Q au second membre de l’équation relative à ce nœud i.
Cette interprétation montre également la nature de l’approximation effectuée ; en effet la solution
exacte u du problème vérifie le principe de conservation de l’énergie à travers tous les contours inté-
rieurs au domaine, tandis que la solution affine par morceaux uh ne vérifie le principe de conservation
qu’à travers les contours polygonaux formés de segments passant par les milieux des arêtes.

7.2.5 Algorithmes de calcul

Au premier abord le système linéaire obtenu par la méthode des éléments finis semble plus obscur
et surtout plus compliqué que celui que nous avons obtenu per la méthode des différences finies. Mais
nous avons vu qu’il s’interprète en fait très concrètement et nous allons voir que sa complication n’est
qu’apparente : un programme très court et très général permet de construire toutes les matrices de
raideur. Pour bien comprendre la méthode des éléments finis, on ne peut pas séparer l’introduction des
formulations faibles de l’étude de ce programme : leur intérêt et leur compréhension sont étroitement
lié.
Le problème est le suivant : on se donne un maillage, il faut écrire un programme de calcul de la
matrice de raideur et du second membre du système. Pour comprendre la structure du programme,
remarquons que :
− Le maillage contient toutes les informations géométriques, qui sont décrites par des tableaux (pa-
ragraphe 7.2.5 ci-dessous).
− Toute l’information sur l’équation se résume à l’expression des coefficients de la matrice de raideur
qui sont des intégrales des fonctions de bases et de leurs dérivées.
− Les intégrales sont décomposées en intégrales sur les éléments rassemblées dans les matrices de
raideur élémentaires (paragraphe 7.2.5 ci-dessous).
− Les fonctions de bases wi contiennent toute l’information sur l’approximation. Il faut les calculer
ainsi que leurs dérivées sur chaque élément (paragraphe 7.2.5 ci-dessous).

Structure des données du maillage

Le maillage est décrit par :


− un tableau ELEM, de dimension (ne , 3) dont la ligne e contient les numéros des trois nœuds de
l’élément triangle e (rappelons que ne est le nombre d’éléments).
− un tableau COORD, de dimension (N, 2), dont la ligne i définit les coordonnées du nœud i.

165 Mathématiques 2
166 Analyse des équations aux dérivées partielles

Pour le maillage de la Fig. (7.2), le haut des tableaux ELEM et COORD est :
   
1 2 3 0 0

 1 3 4 


 h 0 

 4 3 8   h h 
ELEM =   COORD =   (7.20)

 2 5 3 


 0 h 

 3 5 6   2h 0 
... ... ... ... ...

On peut numéroter les éléments dans un ordre quelconque, mais il peut être utile de respecter une
orientation pour l’ordre des sommets, nous avons pris le sens trigonométrique. En revanche la ma-
nière de numéroter les nœuds a des conséquences sur la place des éléments non nuls dans la matrice
qui elle même a des conséquences très importante sur le nombre d’opérations dans les algorithmes
d’élimination comme le pivot de Gauss.
Les nœuds situés sur des bords ne sont décrits nulle part ; cela provient de ce que la condition écrite
∂u
en ces nœuds, à savoir ∂n = 0, est devenue implicite dans la formulation du problème.
Nous aurons besoin de la fonction “Description” qui permet d’extraire les abscisses (X(1), X(2), X(3))t
et les ordonnées (Y (1), Y (2), Y (3))t des trois nœuds d’un élément e :

fonction [X,Y,NOEUD] = Description(ELEM,COORD,e)


for i =1:3,
NOEUD(i) = ELEM(e,i);
end;
for i=1:3,
X(i) = COORD(NOEUD(i),1);
Y(i) = COORD(NOEUD(i),2);
end;
endfunction

Noter que la structure des données est identique à celle de la séance d’exercice 1 pour un treillis
de barres.

Principe du calcul
La matrice de raideur K a pour coefficients
Z
Ki,j = k∇wj · ∇wi + cwi wj dΩ

Nous la décomposons en deux


K = K̃ + K̂
avec Z
K̃i,j = k∇wj · ∇wi dΩ

(matrice du laplacien) et Z
K̂i,j = cwi wj dΩ

ECP 2006-2007 166


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 167

(matrice de masse).
Les coefficients de ces matrices, ainsi que du second membre F sont des intégrales sur le domaine
Ω. Nous allons décomposer ces intégrales en intégrales sur des triangles mais en inversant l’ordre
qui paraît naturel : au lieu de faire une boucle sur les coefficients puis de calculer les intégrales sur
les triangles, nous allons faire une boucle sur les triangles puis calculer toutes les contributions d’un
triangle aux coefficients d’une matrice.
Considérons par exemple le calcul de la matrice de masse K̂. Posons nous la question suivante :
quelles sont les modifications à effectuer dans la matrice K̂ quand on ajoute un triangle au maillage ?
Si on ajoute le triangle Te de sommet (i, j, k) il faut ajouter les intégrales sur ce triangle aux intégrales
qui définissent les coefficients de K̂. Précisons :
R
1. Un triangle Te ne contribue au calcul d’une intégrale Ω cwi wj dΩ que si ce triangle appartient
au support des fonctions wi et wj , ce qui implique d’après la proposition 56 que les nœuds i et
j sont des sommets du triangle Te . Un triangle Te de sommet (i, j, k) ne contribue donc qu’au
calcul de 9 coefficients
K̂i,i K̂i,j K̂i,k
K̂j,i K̂j,j K̂j,k
K̂k,i K̂k,j K̂k,k

2. La contribution du triangle Te à un coefficient K̂i,j auquel il contribue, c’est une intégrale sur
ce triangle Z
e
K̂i,j = cwi wj dS
Te
Comme il contribue à 9 coefficients, on peut ranger ces contributions dans la matrice de raideur
élémentaire Ke (cf. paragraphe 7.2.4)
 
e
K̂i,i e
K̂i,j e
K̂i,k
 e e e 
Ke =  K̂j,i K̂j,j K̂j,k 
e
K̂k,i e
K̂k,j e
K̂k,k

3. Si on ajoute le triangle Te au maillage il faut donc ajouter les 9 coefficients de la matrice de


raideur élémentaire Ke aux coefficients correspondants de K̂.

Programme d’assemblage
Nous supposons qu’une fonction “Ke = RaideurElemMasse(X,Y)” calcule la matrice de raideur
élémentaire d’un triangle dont les coordonnées des 3 sommets sont définies par les vecteurs X et Y .
Nous faisons une boucle sur les triangles et nous ajoutons les contributions de ce triangle aux co-
efficients auxquels il contribue. Cette construction de la matrice de raideur à partir des matrices de
raideurs élémentaires s’appelle l’assemblage.
function K = Assemblage(ELEM,COORD)
ne = size(ELEM,1);
N = size(COORD,1);
K = zeros(N,N);
for e = 1:ne,
[X,Y,NOEUD] = Description(ELEM,COORD,e)

167 Mathématiques 2
168 Analyse des équations aux dérivées partielles

Ke = RaideurElemMasse(X,Y);
for iloc=1:3,
i = NOEUD(iloc);
for jloc=1:3,
j = NOEUD(jloc)
K(i,j) = K(i,j) + Ke(iloc,jloc);
end;
end;
endfunction

Commentaires : les numéros e des triangles correspondent aux lignes du tableau ELEM. Pour
un triangle e, la fonction “Description” lit dans le tableau ELEM à la ligne e les numéros des trois
sommets : i = NOEUD(1), j = NOEUD(2), k = NOEUD(3) et lit les coordonnées des trois sommets
dans le tableau COORD. Après le calcul de la matrice Ke , on ajoute les coefficients de la matrice Ke
dans K̂ en parcourant les coefficients de Ke (boucle sur iloc et jloc) ; un coefficient Ke (iloc, jloc)
contribue au coefficient K̂(i, j) dans la matrice K̂.

Calcul d’intégrales sur un triangle


La méthode générale pour calculer une intégrale sur des triangles supposés petits est d’utiliser des
formules d’intégration qui sont construites pour intégrer exactement les polynômes jusqu’à un certain
degré k et qui calculent une approximation d’ordre k pour des fonctions suffisamment dérivables. On
peut utiliser la formule P3
Z
f (xi )
f (x) dS = Surf(Te ) i=1 (7.21)
Te 3
où les points xi sont les sommets du triangle, qui est exacte pour les polynômes de degré 1, ou la
formule Z P3
f (mi )
f (x) dS = Surf(Te ) i=1 (7.22)
Te 3
où les points mi sont les milieux des côtés du triangle, qui est exacte pour les polynômes de degré 2.
Remarque : D’une manière générale pour calculer l’intégrale d’une fonction sur un domaine Ω, on
construit un maillage de ce domaine et on fait une somme des intégrales sur tous les triangles du
maillage.

Calcul de la matrice de raideur élémentaire associée à K̂


La matrice de raideur élémentaire Ke associée à K̂ a pour coefficients
Z
Kei,j = cwi wj dS (7.23)
Te

En utilisant (7.22) calculons les coefficients de Ke . Notons mi le milieu du côté opposé au sommet i
dans le triangle Te , on a
wi (mi ) = 0
1
wi (ml ) = si l 6= i
2

ECP 2006-2007 168


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 169

il vient si j 6= i Z
1
cwi wj dS = cSurf(Te ) (7.24)
Te 12
et Z
1
cwi2 dS = cSurf(Te ) (7.25)
Te 6
d’où  
2 1 1
cSurf(Te ) 
Ke = 1 2 1  (7.26)
12
1 1 2
et donc le programme :

function Ke = RaideurElemMasse(X,Y)
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
Surf =abs(det(P))/2;
Ke = [2,1,1
1,2,1
1,1,2];
Ke = c/12*Surf*Ke;

Calcul de la matrice de raideur élémentaire associée à K̃


La matrice de raideur élémentaire Ke associée à K̃ a pour coefficients
Z
Kei,j = k∇wj · ∇wi dS (7.27)
Te

Les gradients des fonctions affines étant constants en déduit

Kei,j = Surf(Te ) k∇wj · ∇wi (7.28)

Il faut calculer les gradients des fonctions de base.


Les données de ce calcul sont les coordonnées des trois sommets du triangle, qui sont définies par
deux vecteurs, X et Y de dimension 3 obtenues par la fonction “Description” (cf. (7.2.5). Soit M la
matrice de dimension (3, 3) dont les colonnes sont les coefficients des fonctions wi

wi (x, y) = M1,i x + M2,i y + M3,i

On a donc
∂wi
= M1,i
∂x
et
∂wi
= M2,i
∂y

169 Mathématiques 2
170 Analyse des équations aux dérivées partielles

Soit P la matrice  
X(1) Y (1) 1
P =  X(2) Y (2) 1  (7.29)
X(3) Y (3) 1
On a
1
Surf(Te ) = Det(P )
2
La fonction wi est la fonction affine qui vaut 1 au nœud i et 0 aux deux autres nœuds, ce qui s’écrit
matriciellement pour les trois fonctions de base
 
1 0 0
PM =  0 1 0 
0 0 1

La matrice M est donc l’inverse de la matrice P . Quand M est calculée, on a

∇wi = (M1,i , M2,i )t

et donc
∇wi · ∇wj = M1,i M1,j + M2,i M2,j
La procédure de calcul de la matrice de raideur élémentaire présentée ci-dessous utilise quelques
macro-instructions matricielles et la procédure “Description”, qui calcule les coordonnées des nœuds,
stockées dans les vecteurs X et Y :

function Ke = RaideurElemLaplacien(X,Y)
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
M = P^{-1};
Surf = abs(det(P))/2;
for i=1:3,
for j= 1:3,
Ke(j) = Surf * k * (M(1,i) * M(1,j) + M2,i * M(2,j));
end;
end;

Le programme d’assemblage présenté au paragraphe (7.2.5) permet l’assemblage la matrice K̃ en


changeant juste le nom de la fonction qui calcule la matrice de raideur élémentaire.

Calcul du second membre


Le calcul du second membre F de composantes
Z
Fi = q(x)wi dS

ECP 2006-2007 170


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 171

suit le même principe que le calcul de la matrice de raideur. Si on ajoute un triangle Te de sommets
(i, j, k) au maillage, il faut ajouter les intégrales sur ce triangle aux composantes Fi , Fj , Fk de F. Les
intégrales sur un triangle sont calculées par la formule (7.22), pour l’indice i par exemple

q(mj ) + q(mk )
Fie = Surf (Te )
2
On suppose donné un programme Q(X,Y) qui calcule la fonction q(x). On écrit une fonction “Fe =
ForceElementaireX,Y)” qui calcule, sans astuce de programmation, les intégrales sur un triangle des
trois composantes auxquelles ce triangle contribue :

function Fe = ForceElementaire(X,Y);
P = [X(1), Y(1), 1
X(2), Y(2), 1
X(3), Y(3), 1];
Surf = det(P)/2;
Fe(1) = Surf/2*(Q((X(1)+X(2))/2,(Y(1)+Y(2))/2) + Q((X(1)+X(3))/2,(Y(1)+Y(3))/2);
Fe(2) = Surf/2*(Q((X(2)+X(3))/2,(Y(2)+Y(3))/2) + Q((X(2)+X(1))/2,(Y(2)+Y(1))/2);
Fe(3) = Surf/2*(Q((X(3)+X(1))/2,(Y(3)+Y(1))/2) + Q((X(3)+X(2))/2,(Y(3)+Y(2))/2);

Et on ajoute ce vecteur Fe à F par le programme d’assemblage suivant

function F = Assemblage(ELEM,COORD)
ne = size(ELEM,1);
N = size(COORD,1);
F = zeros(N,N);
for e = 1:ne,
[X,Y,NOEUD] = Description(ELEM,COORD,e)
Fe = ForceElementaire(X,Y);
for iloc=1:3,
i = NOEUD(iloc);
F(i) = F(i) + Fe(iloc);
end;
endfunction

Les coefficients de Ke et la forme géométrique des triangles


(Ce paragraphe peut être laissé de côté en première lecture, il sert à donner un sens plus concret
aux expressions théoriques de la matrice de raideur.)
Soit triangle quelconque T , avec les notations de la figure (7.7). Calculons, à partir des éléments géométriques
du triangle, la matrice de raideur élémentaire du Laplacien, c’est à dire celle qui est associée à la matrice de
raideur K̃. On a Z
e
Ki,j = k∇wj · ∇wi dS
T

Les gradients des fonctions affines étant constants, l’intégrale est égale à
Z
k∇wj · ∇wi dS = Surf(T )k∇wj · ∇wi
T

171 Mathématiques 2
172 Analyse des équations aux dérivées partielles

θ1

c3
c2
h3 h2
h1

θ3 θ2

3 c1 2

F IG . 7.7 – Notations dans un triangle quelconque

Le gradient de wi est dirigé selon la hauteur passant par i, vers le sommet i, et il est de longueur h1i (pour le
vérifier, calculer le gradient dans le repère formé par la hauteur issu de i et par le côté opposé à i). L’angle des
deux hauteurs issues des nœuds 1 et 2 est θ3 ; il vient

Z
1 1
k∇w1 · ∇w2 dS = −Surf(T ) cos θ3
T h1 h2

d’où en utilisant les relations Aire(T ) = 21 h2 c2 et h1 = c2 sin θ3

Z
k
k∇w1 · ∇w2 dS = − cot θ3
T 2

De même
Z
1 2
k∇w1 · ∇w1 dS = Surf(T )( )
T h1

On a Aire(T ) = 21 h1 c1 ; on découpe le côté c1 en les deux segments définis par le pied de la hauteur ; les
longueurs de ces segments sont h1 cot θ3 et h1 cot θ2 ; il vient

Z
k
k∇w1 · ∇w1 dS = (cot θ2 + cot θ3 )
T 2

Les autres intégrales s’obtiennent par permutation circulaire.


Remarque :
− ces intégrales ne dépendent que des angles du triangle,
− si un angle du triangle tend vers 0, certains termes tendent vers l’infini,
− si un angle est droit, le terme Ke,i,j associé aux deux nœuds opposés (i, j) est nul,
− si les angles sont aigus les termes non diagonaux de Ke sont négatifs, si tous les triangles d’un maillage ont
leurs angles aigus, on en déduit la même propriété pour la matrice de raideur K.

ECP 2006-2007 172


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 173

7.3 Quelques extensions


7.3.1 Conditions aux limites
Conditions de type Robin
Considérons (cf. paragraphe 4.3.1) une condition aux limites de type Robin
∂u
−k = C(u − u0 ) sur Γ
∂n
D’après le théorème (24) il faut ajouter dans la formulation faible (7.2) une forme bilinéaire
Z
a1 (u, v) = Cuv ds
Γ

et donc ajouter à la matrice de raideur la matrice correspondante Kb de coefficients


Z
Kbi,j = Cwi wj ds
Γ

Ces coefficients sont nuls d’après la proposition 56 si les nœuds i et j ne sont pas tous les deux sur le
bord Γ.
Dans la structure des données nous ajoutons un tableau BORD de dimension (nb , 2) qui contient,
dans un ordre indifférent, la liste des numéros des nœuds qui sont les extrémités des segments qui
constituent le bord, par exemple pour le maillage de la figure 7.3
 
1 2
 2 5 
 
BORD =   5 9 

 9 17 
... ...

Pour calculer la contribution de la matrice Kb à la matrice de raideur on calcule la contribution d’un


segment Se = (i, j) à cette matrice, soit 4 termes qui forment une matrice Kbe (2, 2)
 R R 
S Cwi wi ds Se Cwi wj ds
Kbe = R e R
Se Cwj wi ds Se Cwj wj ds

Les coefficients sont calculés par une formule d’intégration de Simpson (nous supposons que le seg-
ment est paramétrée par s ∈ [0, 1])
Z
1
f (s) ds = Long(Se )(f (0) + 4f ( ) + f (1))/6
Se 2

L’assemblage se fait par une boucle sur les segments définis par le tableau BORD :
function [X,Y,NOEUD] = DescriptionBord(BORD,COORD,e)
for i =1:2,
NOEUD(i) = BORD(e,i);

173 Mathématiques 2
174 Analyse des équations aux dérivées partielles

end;
for i=1:2,
X(i) = COORD(NOEUD(i),1);
Y(i) = COORD(NOEUD(i),2);
end;
endfunction;

function Kb = Assemblage(BORD,COORD)
nb = size(BORD,1);
N = size(COORD,1);
KBord = zeros(N,N);
for e = 1:nb,
[X,Y,NOEUD] = DescriptionBord(BORD,COORD,e)
Kbe = RaideurElemBord(X,Y);
for iloc=1:2,
i = NOEUD(iloc);
for jloc=1:2,
j = NOEUD(jloc)
Kb(i,j) = Kb(i,j) + Kbe(iloc,jloc);
end;
end;
endfunction

Le programme “RaideurElemBord(X,Y)” est laissé au lecteur. L’introduction de la matrice Kb


est superflue, on peut directement ajouter la matrice de raideur élémentaire dans la matrice K

Conditions de type Dirichlet


Considérons (cf. paragraphe 4.3.1) une condition aux limites de type Dirichlet

u|Γ0 = u0

où Γ0 est une partie du bord Γ. Nous étudions les modifications à apporter au paragraphe 7.2.4.
L’espace V0 des fonctions tests de la formulation faible est alors

V0 = {v continues dérivables par morceaux sur (Ω) / v|Γ0 = 0}

Pour définir une approximation par la méthode de Ritz-Galerkin dans l’espace Wh des fonctions
continues affines par morceaux, on introduit le sous-espace Vh ⊂ V0 ∩ Wh des fonctions nulles sur le
bord Γ0 . On définit5 une approximation uh ∈ Wh par

uh ∈ Wh , uh |Γ0 = u0
(7.30)
∀v ∈ Vh , a(uh , v) = L(v)
Noter que uh et v ne sont plus dans le même espace. Soit Γ1 le complémentaire de Γ0 dans Γ. Dans
la base wi de Wh , uh s’écrit X X
uh = uj wj + uj wj
j∈Γ1 j∈Γ0

5
Après avoir approché la fonction u0 par son interpolée affine par morceaux

ECP 2006-2007 174


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 175

le premier terme étant formé des composantes uj inconnues et le deuxième des composantes connues.
Une base de Vh est obtenue en ne considérant que les fonctions wi associées aux nœuds du maillage
de Ω qui n’appartiennent pas au bord Γ0 . Pour construire un système linéaire il faut renuméroter les
nœuds sans tenir compte des nœuds de Γ0 et prendre en compte dans le programme d’assemblage (cf.
paragraphe 7.2.5) le fait que certains triangles ont pour sommets des nœuds de Γ0 et que les éléments
correspondants des matrices de raideur élémentaires ne sont pas à assembler.
On préfère maintenir tous les nœuds dans la structure des données et utiliser une des deux méthodes
suivantes :

1) Construire la matrice de raideur comme dans l’exemple (7.1) ci-dessus avec Vh = Wh , puis
modifier le système linéaire obtenu en tenant compte que :
− si la ième équation fait intervenir un nœud j de Γ0 , le terme Ki,j uj est connu (uj = u0 (xj )) et doit
donc passer au second membre ;
− l’équation relative à un nœud i qui est sur Γ0 est remplacée par l’équation triviale ui = u0 (xi ).

2) Remplacer la condition de Dirichlet par une condition de Robin sur Γ0 avec une constante C
très grande : intuitivement, avec une interprétation thermique, cela revient à écrire que ce bord est
fixé sur un support très conducteur de la chaleur, ce qui revient à fixer la température du bord à celle
du support. Vu d’une manière plus abstraite, cela revient en utilisant le principe du minimum (7.9) à
ajouter à la fonction potentielle un terme
Z
C
(u − u0 )2 ds
Γ0 2
avec une constante C très grande : c’est la méthode de pénalisation (voir les chapitres 3 et 4 du cours
d’optimisation) appliquée au problème d’optimisation (7.9) pour les contraintes u(x) = u0 (x) en
chaque point de Γ0 .
Concrètement cette méthode se traduit par une opération très simple : la matrice de raideur du pro-
blème (7.1) étant construite, on ajoute une constante C au terme diagonal d’une équation relative à
un nœud du bord Γ0 et Cu0 au second membre.

7.3.2 Généralisation de l’équation


On considère dans ce paragraphe les modifications à apporter au paragraphe 7.2.4 pour traiter
l’équation générale (4.3.1).

Termes différentiels
Supposons tous les coefficients constants. Les expressions générales de l’équation 4.3.1 ne posent
pas de problème particulier : chaque terme de l’équation définit une forme bilinéaire qui définit elle-
même une matrice de raideur dans l’approximation. Le calcul de cette matrice de raideur se ramène
par l’utilisation du programme général d’assemblage du paragraphe 7.2.5 au calcul d’une matrice
de raideur élémentaire. Le calcul de cette matrice se fait comme au paragraphe 7.2.5, seule change
e = .... C’est un point très remarquable de la méthode des éléments
l’expression du coefficient Ki,j
finis et du programme que nous avons présenté : une modification de l’équation ne change qu’une
ligne du programme.

175 Mathématiques 2
176 Analyse des équations aux dérivées partielles

Coefficients variables
Si les coefficients dépendent du point x, cela ne change que peut de chose à l’approximation par
la méthode de Ritz-Galerkin ; il faut juste en tenir compte dans le calcul des matrices de raideur élé-
mentaire : les coefficients dépendent des points d’intégration. Souvent, ces coefficients sont constants
par sous-domaines (correspondant à des milieux ou des matériaux différents, voir la séance 5 d’exer-
cices), la structure des données doit en tenir compte : on ajoute à la définition des éléments (tableau
ELEM) une colonne pour coder le sous-domaine auquel l’élément appartient.

Systèmes d’équations
L’approximation des systèmes d’équations, essentiellement ceux de l’élasticité, de l’électroma-
gnétisme ou des écoulements incompressibles, s’effectue en approchant chaque composante de la
solution comme nous l’avons fait pour les équations à une seule fonction inconnue. La définition d’un
système d’équations obtenu par le principe de Ritz-Galerkin appliquée à une formulation faible se fait
comme au paragraphe (7.2.4). La principale difficulté dans l’écriture du programme de construction
du système linéaire vient de ce que les inconnues en chaque nœud ne sont plus des scalaires mais des
vecteurs, la numérotation des inconnues diffère donc de la numérotation des nœuds. Des relations qui
sont scalaires avec une seule inconnue deviennent matricielles et des relations qui étaient matricielles
utilisent des tenseurs à quatre indices...

7.3.3 Éléments finis de degré supérieur


L’approximation d’une fonction régulière par une fonction affine est bien sûr moins précise
que l’approximation par des polynômes de degré plus élevé. Pour améliorer l’approximation par
des fonctions continues affines par morceaux on peut donc augmenter le degré des polynômes. On
peut, par exemple, remplacer les fonctions continues affines par morceaux sur des triangles (Élé-
ments finis linéaires), c’est à dire dont la restriction à chaque triangle est un polynôme de degré
1, par les fonctions continues dont la restriction à chaque triangle est un polynôme de degré 2 :
ax2 + bxy + cy 2 + dx + ey + f ; ces fonctions, (Éléments finis quadratiques), sont souvent utilisées
par défaut dans les logiciels.

Éléments quadratiques
Un polynôme du second degré en x, y dépend de 6 coefficients, il est donc défini par ses valeurs
en 6 points. L’espace Wh de ces fonctions peut être décrit de la manière suivante :
− Étant donné un maillage en triangles, nous appelons “nœuds” les sommets et les milieux des côtés.
− Il existe une fonction de Wh et une seule qui prend des valeurs données aux nœuds.
Ces propriétés sont justifiées par les suivantes :
− Sur chaque triangle il y a un polynôme du second degré et un seul qui prend des valeurs données
aux 6 nœuds qui appartiennent à ce triangle, il y a donc une fonction et une seule qui prenne des
valeurs données aux nœuds.
− Une fonction ainsi définie est continue car ses restrictions à deux triangles adjacents sont des
polynômes qui prennent la même valeur aux extrémités et au milieu du côté commun à ces deux
triangles : ils définissent donc sur ce segment deux polynômes du second degré qui coïncident en

ECP 2006-2007 176


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 177

trois points et donc partout.


Une base wi de Wh est définie comme pour les éléments linéaires : wi est l’unique fonction qui vaut
1 au nœud i et 0 aux autres nœuds. Le support de Wi est formé des triangles auxquels le nœud i
appartient.

Éléments sur des quadrilatères


On peut définir des approximations par des fonctions continues sur des quadrilatères en utilisant
des polynômes axy + bx + cy + d ; pour obtenir la continuité il y a cependant une petite difficulté
technique, qui est résolue par la théorie des éléments finis conformes. Voir ([7] et [6]) pour la théorie
de ces éléments qui permettent en outre d’utiliser des polygones curvilignes qui sont intéressants pour
mieux approcher les bords curvilignes.

7.3.4 Dimension 1 et 3
Nous avons présenté dans ce chapitre la méthode des éléments finis en dimension 2 avec une ap-
proximation par des fonctions continues affines par morceaux sur des maillage en triangles. L’exten-
sion aux dimensions 1 et 3 est naturelle. Il nous suffit de décrire l’espace Wh des fonctions continues
affines par morceaux.

Dimension 1
Un maillage est un découpage de l’intervalle en segments. Les fonctions continues affines par
morceaux sont les fonctions dont le graphe est une ligne brisée sur la base de ces segments. Les
fonctions de base sont des fonctions “triangles”.

Dimension 3
Un maillage est une partition en tétraèdres. Les fonctions continues affines par morceaux sont bien
définies par leurs valeurs aux nœuds car il existe une et une seule fonction affine ax + by + cz + d
qui prend quatre valeurs données aux sommets des tétraèdres. Ces fonctions sont continues car leurs
restrictions à un triangle commun à deux tétraèdres sont affines et prennent les mêmes valeurs aux
sommets du triangle : elles sont donc égales sur ce triangle. Les fonctions de base wi ne sont non
nulles que sur les tétraèdres qui ont le nœud i pour sommet.
Les maillages tridimensionnels sont souvent créés par translation de maillages surfaciques (cf. Fig.
7.8). Selon que les surfaces sont maillées en triangles ou en quadrilatères on crée ainsi des prismes ou
des hexaèdres. On peut définir directement des approximations polynômiales sur ces polyèdres, sans
les redécouper en tétraèdres ; voir la théorie des éléments finis conformes dans ([7] et [6]).

7.4 Étude de l’erreur dans la méthode des éléments finis


Principe
Pour fixer les idées considérons le problème de référence (7.1).

177 Mathématiques 2
178 Analyse des équations aux dérivées partielles

Erreur d’interpolation
Nous donnons dans ce paragraphe à la constante h le sens précis du diamètre du plus grand élé-
ment du maillage. Si u est une fonction continue, on peut définir son interpolation Πh (u) dans Vh , qui
est l’unique fonction de Vh qui prend les mêmes valeurs que u aux nœuds. L’estimation de l’erreur
d’interpolation permet une majoration de la distance de la solution à l’espace d’approximation Vh .
Dans le cas d’une approximation par des éléments affines de on peut démontrer (en utilisant un déve-
loppement de Taylor sur une approximation régulière de u) l’estimation suivante pour l’erreur d’in-
terpolation, pour la norme kukH 1 (définie au paragraphe 6.2.4)
ku − Πh (u)kH 1 ≤ βhkukH 2
La constante β est indépendante du diamètre h du maillage pourvu que ce maillage ne soit pas trop
“irrégulier” ; on peut par exemple démontrer l’existence de cette constante C pour les éléments affines
sur maillages en triangles dont le rapport des rayons du cercle circonscrit et du cercle inscrit reste
majoré indépendamment du diamètre h.

Estimation de l’erreur
La forme faible (7.2) étant définie par une forme bilinéaire a(u, v) symétrique définie positive,
nous avons vu au théorème 28 que la solution approchée uh est la projection de la solution exacte6
u ∈ V0 sur l’espace d’approximation Vh au sens du produit scalaire a(u, v), autrement dit
a(u − uh , u − uh ) ≤ a(u − Πh (u), u − Πh (u))
La forme bilinéaire a(u, v) vérifie, d’après la définition de la norme kukH 1 ,
mkuk2H 1 ≤ a(u, u) ≤ M kuk2H 1 (7.31)
avec m = inf(k, C) et M = sup(k, C). On en déduit
M
ku − uh k2H 1 ≤ ku − Πh (u)k2H 1
m
Et donc
M
ku − uh k2H 1 ≤ β hkuk2H 2
m
La constante β Mm est indépendante de la finesse h du maillage, sous les conditions de “régularité” du
maillage vues au paragraphe précédent.
Avec des conditions plus restrictives sur la frontière de Ω et sur la régularité des données on peut avoir
des estimations d’erreur plus fines, notamment des estimations uniformes et non plus en moyenne
quadratique. Elles sont beaucoup plus délicates à obtenir. La principale difficulté pour obtenir des
estimations d’erreur uniformes est la présence de singularités sur les dérivées de la solution pour
la plupart des “discontinuités” des données aux bord. Ce point délicat, mais riche de conséquences
pratiques, est abordé à la séance d’exercices 2.
Remarquer que l’inégalité (7.31) est ici facile à obtenir parce que C 6= 0, mais elle reste vraie si C = 0
à condition qu’il y ait une condition de Dirichlet sur une partie du bord (voir dans [11] l’inégalité de
Poincaré).
6
Noter qu’il est important ici que Vh ⊂ V0 , ce qui explique pourquoi nous avons étendu les formulations faibles à
l’espace des fonctions continues C 1 par morceaux (paragraphe 7.2.2.

ECP 2006-2007 178


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 179

Contrôle de l’erreur

Des tests a posteriori, c’est à dire après qu’une approximation a été calculée, peuvent être effectués
pour estimer l’erreur locale et ainsi vérifier la qualité et le raffinement du maillage. Ces tests sont basés
sur une analyse fine de l’erreur d’approximation, voir ([3]).
A priori, il est clair que le pas du maillage doit au minimum permettre la représentation des variations
de la solution : par exemple dans le cas d’une approximation par des fonctions affines par morceaux
il faut au moins quatre intervalles pour représenter une arche de sinusoïde.
Le point le plus délicat est la prise en compte des singularités de la fonction (cf. séance d’exercices
2). S’il est nécessaire de les représenter, le maillage doit suivre des règles précises.

7.5 Maillage
Un maillage d’un domaine Ω est un ensemble de domaine polygonaux disjoints dont la réunion
est Ω. Les mailleurs complètement automatiques, de plus en plus utilisés, créent des triangles ou
des tétraèdres mais ils rendent les calculs ultérieurs plus coûteux et sont inappropriés pour certains
calculs.

7.5.1 Propriétés nécessaires


Nous rappelons dans ce paragraphe quelques propriétés que doivent vérifier les maillages :
− Un nœud d’un élément ne peut se trouver sur le bord d’un élément adjacent (les carreaux d’une
définition de type Bézier, Coons... crée par les logiciels de CAO ne respectent pas en général cette
propriété).
− Un élément ne doit pas être trop déformé.
− Dans certains problèmes (coques minces en élasticité) le maillage des surfaces en quadrilatère est
préférable, les triangles ne conduisant pas à des éléments satisfaisants.
− Les maillages doivent être raffinés dans certaines parties du domaine, soit pour des raisons géomé-
triques évidentes (filetage d’un boulon, couche mince), soit à cause des singularités prévisibles de la
solution (voisinage des fissures ou des entailles).
− Les maillages doivent être “réguliers”, au sens intuitif du terme, dans les zones qui présentent une
certaine homogénéité. Les irrégularités du maillage entraînent toujours des fluctuations, à la même
échelle, de la solution du problème.
− En dimension 3 la principale difficulté est de “voir” le maillage. En l’absence de schémas simples
de construction, le contrôle du maillage peut être délicat.

7.5.2 Méthodes de maillage


Les techniques de maillage ont beaucoup évoluées ces dernières années, la mise au point de
mailleurs automatiques, voire adaptatifs, très performants a permis un gain de temps considérable
sur une opération encore très fastidieuses sur certains logiciels. Cependant ces mailleurs, créent en
dimension 2 des triangles qui ne sont pas toujours adaptés aux contraintes de l’approximation, et,
en dimension 3, des tétraèdres avec une qualité douteuse. Différentes techniques semi-manuelles

179 Mathématiques 2
180 Analyse des équations aux dérivées partielles

permettent de contrôler la création d’un maillage et souvent de diminuer l’inflation du nombre de


nœuds.

Maillage contrôlé

On peut distinguer entre autres :


− Le maillage d’un volume par “extrusion” d’un maillage surfacique (ou linéïque). L’extrusion peut
être une translation ou une rotation, ou une opération plus complexe. Si le maillage surfacique est en
triangles on crée ainsi des prismes (cf. Fig. 7.8).
− Le maillage par concaténation de sous-domaines de formes simples ou de sous-domaines préala-

F IG . 7.8 – Maillage par extrusion : le maillage d’une section est déplacé par une transformation
hélicoïdale.

blement maillés. Il est bien adapté au maillage de pièces mécaniques souvent créées à partir de formes
simples qui peuvent être maillées par extrusion. Il permet aussi, en découpant un domaine, de mieux
contrôler le maillage.
− Le maillage par déformation de grilles, surtout utilisé pour la méthode des différences finies. Le
principe de cette méthode est de définir d’abord une grille sans se préoccuper de la position des nœuds.
Ensuite cette grille est “transportée” sur un domaine donné, l’opérateur fixant seulement les nœuds
du bord, les nœuds intérieurs étant déterminés par une transformation M = F (m) de la grille sur le
domaine à mailler. Toute la difficulté est de définir des transformations qui, au minimum, doivent être
bijectives et présenter localement des propriétés de "régularité" suffisantes. Ce n’est possible que si
les frontières ont des formes simples, par exemple si le bord est un triangle ou un quadrilatère cur-
vilignes comme la forme d’une tuyère. On peut utiliser des transformations conformes ou bien des
transformations définies par des déformations élastiques, auquel cas on doit résoudre un problème
d’élasticité linéaire sur la grille initiale. Couplée avec le maillage par concaténation, le maillage par
déformation permet un contrôle très précis du maillage.

Le contrôle du “pas” du maillage s’effectue par la définition des points du bord du domaine à
mailler ou par la donnée directe du pas du maillage, éventuellement à l’aide d’une fonction. Pour
contrôler un maillage à l’intérieur d’un domaine on peut aussi redécouper ce domaine pour faire

ECP 2006-2007 180


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 181

apparaître des frontières intérieures. Pour effectuer des vérifications du maillage, l’utilisateur d’un
logiciel dispose en général de tests mesurant les déformations des éléments.

Maillage libre
Les maillages sont le plus souvent créés par des programmes qui construisent automatiquement
des triangles en dimension 2 ou des tétraèdres en dimension 3 en tenant compte des nécessaires
raffinements dans les zones d’irrégularités géométriques. Il y a deux problèmes différents :
1) La création des nœuds en respectant les contraintes de densité. C’est un problème complexe et très
technique, nous renvoyons le lecteur aux ouvrages de référence ([3]).
2) La création des triangles ou tétraèdres sur la base d’un ensemble de nœud, de manière optimale,
c’est à dire en évitant de créer des polygones ou polyèdres aplatis. En se limitant à la dimension 2,
pour simplifier, nous allons étudier ci-dessous un outil très intéressant pour créer des triangles7 : la
triangulation de Delaunay qui a, entre autres, de nombreuses applications en imagerie.

Maillage adaptatif
Définir a priori la densité optimale des nœuds d’un maillage pour obtenir une précision donnée
est souvent délicat. De nombreux logiciels permettent une adaptation automatique du maillage de la
manière suivante :
− Un premier maillage est défini, un calcul effectué sur ce maillage.
− Une estimation locale de l’erreur est effectuée à l’aide de tests a posteriori qui sont fondés sur une
étude mathématique de l’erreur (voir [3]).
− Un remaillage est effectué ; par simplicité ce remaillage consiste souvent à redécouper localement
des triangles, sinon les temps de calcul peuvent être prohibitifs.

7.5.3 Triangulation de Delaunay


Introduction
Le problème est le suivant : étant donné un ensemble E de points du plan, existe-t-il une tri-
angulation “naturelle” du plan s’appuyant sur ces points ? “Naturelle” signifie ici que les triangles
ne relient que les nœuds les plus “voisins”. Ce qui renvoie au problème : quel sens mathématique
peut on donner à la notion intuitive de “points voisins” ? La notion de “voisinage” de points du plan
peut prendre un sens mathématique précis avec la définition des polygones de Voronoï qui ont de
nombreuses applications physiques et géométriques8 :

Définition 40 Polygones de Voronoï


Étant donné un ensemble E de points du plan, le polygone de Voronoï d’un point M dans E est
l’ensemble des points du plan plus proches de M que de tous les autres points de E. Cet ensemble
est un polygone convexe9 et la réunion de ces polygones réalise une partition du plan.
7
La théorie se généralise de façon naturelle en dimension quelconque.
8
Nous considérons ici une situation isotrope où la distance euclidienne est bien adaptée, un cadre anisotrope est souvent
nécessaire pour définir un maillage optimal du point de vue de la méthode des éléments finis (voir [3]).
9
C’est l’intersection des demi-plans définis par les médiatrices des segments M P avec P ∈ E qui contiennent M .

181 Mathématiques 2
182 Analyse des équations aux dérivées partielles

Noter que les bords du polygone de Voronoï d’un point M sont les médiatrice des segments M P , où
P est un autre point de E. On définit la relation de voisinage pour des points de E en posant que deux
points sont voisins si leurs polygones de Voronoï ont un côté commun. En reliant les nœuds voisins
par des segments on construit en général10 une triangulation du plan, la triangulation de Delaunay.

Définition 41 Triangulation de Delaunay


Étant donné un ensemble E de points du plan, un triangle de la triangulation de Delaunay est formé
de trois points dont les polygones de Voronoï ont un point commun. Si quatre points, ou plus, ont des
polygones ayant un point commun, alors ces points sont cocycliques et on découpe arbitrairement en
triangles le polygone qu’ils forment.

On en déduit la caractérisation suivante :

Proposition 58 Triangulation de Delaunay


Un triangle appartient à la triangulation de Delaunay si et seulement si l’intérieur du cercle circons-
crit à ce triangle ne contient aucun autre point de l’ensemble E.

Preuve
Le point commun à trois polygones de Voronoï basés sur les sommets (M1 , M2 , M3 ) d’un triangle de
Delaunay est le centre du cercle circonscrit au triangle (M1 , M2 , M3 ). Si un point M4 est intérieur au
cercle circonscrit à un triangle (M1 , M2 , M3 ) de la triangulation de Delaunay, le centre de ce cercle
est plus proche de M4 que des points (M1 , M2 , M3 ). Il ne peut donc pas appartenir aux polygones de
Voronoï de (M1 , M2 , M3 ), contrairement à l’hypothèse. La réciproque suit le même argument.

Une présentation naturelle de la triangulation de Delaunay


Nous allons redéfinir la triangulation de Delaunay par une autre voie. Il est remarquable que, si
les points de E sont sur une sphère (ou, c’est plus intuitif ici, sur une calotte sphérique) et non sur
un plan, il existe une triangulation naturelle s’appuyant sur ces points. En effet, tout découpage en
triangles sur la sphère est associé à un polyèdre ayant les points de E comme sommet ; or parmi tous
ces polyèdres il y a, en particulier, le polyèdre convexe engendré par les points de E. Les faces de ce
polyèdre sont en général des triangles (sinon on a quatre points coplanaires, on découpe arbitrairement
le quadrilatère qu’ils engendrent) et ces triangles définissent un découpage de la sphère en triangles
sphériques.

Les faces de ce polyèdre convexe sont des triangles qui ont la propriété que leur plan laisse tous
les autres points de E du même côté. Ce découpage de la sphère jouit clairement de propriétés op-
timales (par rapport à la notion de voisinage par exemple, car trois points de la sphère sont d’autant
plus proches, que leur plan est éloigné du centre, or le polyèdre convexe est le plus “extérieur” à la
sphère de tous ceux qui ont les points de E comme sommets).
On en déduit l’idée suivante pour définir une triangulation sur la base d’un ensemble E de points du
plan :
10
Plus précisément : la situation “générale” est qu’un point du plan appartient au plus à trois polygones de Voronoï, sinon
cela signifie que les points de base de ces polygones sont cocycliques.

ECP 2006-2007 182


CHAPITRE 7. L’APPROXIMATION DES PROBLÈMES AUX LIMITES 183

F IG . 7.9 – Passage du plan à la sphère par projection stéréographique.

− on applique les points du plan sur une sphère par projection stéréographique inverse, on obtient
ainsi un ensemble E 0 ;
− on définit les triangles sphériques associés au polyèdre convexe formé par les points de E 0 et le
“pôle nord” ;
− on reprojette sur le plan la triangulation qui a été obtenue sur la sphère.
La triangulation ainsi obtenue sur le plan est la triangulation de Delaunay. Cela découle de ce que
le cercle circonscrit à un des faces triangulaires du polyèdre convexe construit sur la sphère se pro-
jette sur le cercle circonscrit au triangle projeté. La calotte sphérique définit par le premier cercle se
projette donc sur l’intérieur du cercle circonscrit à un triangle du maillage du plan. Or cette calotte
sphérique ne contient aucun sommet du polyèdre convexe, le cercle circonscrit à un triangle du plan
ne contient aucun autre nœud. C’est la propriété caractéristique d’une triangulation de Delaunay de
la proposition 58.

La triangulation de Delaunay a plusieurs propriétés d’optimalité, dont l’une est spécialement in-
téressante pour la méthode des éléments finis : son plus mauvais triangle (i.e. le plus aplati ) est
le meilleur possible, parmi toutes les triangulations construites sur un ensemble donné de points. Il
existe plusieurs algorithmes de construction de la triangulation de Delaunay, certains en N ln(N )
opérations pour N points ; les plus simples (en N 2 opérations) construisent les triangles par récur-
rence sur les points de E en considérant les modifications à apporter au maillage quand on ajoute un
point, de façon à respecter la propriété caractéristique de la proposition 58. La principale difficulté
de la mise en oeuvre est d’éviter un trop grand nombre de tests d’inclusion pour vérifier la propriété
caractéristique.

183 Mathématiques 2
184 Analyse des équations aux dérivées partielles

F IG . 7.10 – Une triangulation de Delaunay avec raffinement de maillage. Noter l’utilisation de sous-
domaines pour contrôler le maillage (Doc. J.H. Saiac).

F IG . 7.11 – Un maillage adapté à la modélisation d’ondes de chocs sur un écoulement autour d’une
aile (Doc. J.H. Saïac).

ECP 2006-2007 184


Chapitre 8

L’approximation des problèmes


d’évolution

Objectifs

Ce chapitre est une introduction à l’approximation numérique des problèmes d’évolution, ou plus
précisément, des problèmes de Cauchy pour des équations aux dérivées partielles. Sans faire une
théorie générale nous développons à partir de quelques exemples les principes de l’approximation par
la méthode des différences finies et des éléments finis. Nous commençons par présenter des méthodes
de discrétisation : un problème d’évolution conduit naturellement, par passage du continu au discret,
à une récurrence. Nous verrons ensuite que ces méthodes naturelles conduisent à des approximations
qui peuvent être incohérentes : c’est le problème de la stabilité des schémas de récurrence. Le non
respect par le schéma de certaines propriétés qualitatives des équations aux dérivées partielles est la
cause de ces instabilités que nous analyserons.

8.1 Approximation de problèmes modèles


8.1.1 Problèmes modèles
Nous considérons les deux problèmes d’évolution qui nous ont servi de modèles au chapitre 2.

L’équation de la diffusion
(Voir paragraphe 2.1.2). Soit u(x, t), x ∈ [0, L], t ∈ [0, T ] solution du problème

∂2u

∂u

 = c x ∈]0, L[, t ∈]0, T [
 ∂t ∂x2

(8.1)


 u(x, 0) = u0 (x) x ∈]0, L[
u(0, t) = u(1, t) = 0 t ∈]0, T [

où u0 (x) ∈ C([0, L]) est l’état initial. C’est une équation parabolique (cf. paragraphe 5.1.5).

185
186 Analyse des équations aux dérivées partielles

L’équation des ondes


(Voir paragraphe 2.1.4) Soit u(x, t), x ∈ [0, L], t ∈ [0, T ] solution de
 2 2
∂ u 2∂ u
= c x ∈]0, L[, t ∈]0, T [


∂t2 ∂x2






x ∈]0, L[

 u(x, 0) = u (x)
0
(8.2)
 ∂u

 (x, 0) = 0 x ∈]0, L[
∂t






u(0, t) = u(1, t) = 0 t ∈]0, T [

où u0 (x) ∈ C 2 ([0, L]) est la position initiale et où la vitesse initiale est supposée nulle. Elle est
équivalente au système hyperbolique du premier ordre

∂u ∂v


 =c



 ∂t ∂x

 ∂v ∂u

 =c
∂t ∂x (8.3)

u(x, 0) = u0 (x) x ∈]0, L[




v(x, 0) = 0 x ∈]0, L[




u(0, t) = u(1, t) = 0 t ∈]0, T [

8.1.2 Approximation par la méthode des différences finies


Discrétisation en espace
On divise l’intervalle [0, L] avec un pas h = NL+1 . On définit les points de discrétisation de
coordonnées xj = jh. On discrétise la solution en ne calculant les valeurs de la solution qu’aux
points xj , les autres valeurs pourront être interpolées. On note uj (t) les valeurs ainsi calculées. Pour
obtenir une équation au point xj qui soit une approximation de l’équation aux dérivées partielles on
remplace dans l’équation aux dérivées partielles exacte les dérivées exactes par des différences finies

∂u u(xj + h, t) − u(xj , t)
à droite : (xj , t) w (8.4)
∂x h
∂u u(xj , t) − u(xj − h, t)
à gauche : (xj , t) w (8.5)
∂x h
∂u u(xj + h, t) − u(xj − h, t)
symétrique : (xj , t) w (8.6)
∂x 2h
Un développement limité montre que les deux premières approximations sont à h près, la troi-
sième à h2 près. On construit de même une approximation de la dérivée seconde

∂2u u(xj − h, t) − 2u(xj , t) + u(xj + h, t)


2
(xj , t) w (8.7)
∂x h2
Un développement limité montre que cette approximation de la dérivée seconde est à h2 près.

ECP 2006-2007 186


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 187

Semi-discrétisation en espace de l’équation de la diffusion


En remplaçant les dérivées exactes par les différences finies dans (8.1) nous obtenons

uj−1 (t) − 2uj (t) + uj+1 (t)



∂uj
 ∂t = c

 1 ≤ j ≤ N, t ∈]0, T [
h2

(8.8)
u (0) = u0 (xj ) 1≤j≤N
 j



u0 (t) = uN +1 (t) = 0 t ∈]0, T [

C’est un système de N équations différentielles linéaires à N fonctions inconnues uj (t) (noter que les
valeurs extrêmes u0 et uN +1 sont connues et ici nulles), pour lequel est posé un problème de Cauchy
(ou problème à valeurs initiales). On pose

U(t) = (u1 (t), · · · , uj (t), · · · , uN (t))t

Le système (8.8) s’écrit matriciellement



dU

 = −KU
dt (8.9)
U(0) = U0 = (u0 (x1 ), · · · , u0 (xj ), · · · , u0 (xN ))t

où K est la matrice tridiagonale symétrique


c
K= K0
h2
avec
2 −1 0 ... 0
 
0

 −1 2 −1 ... 0 0 

 0 −1 2 ... 0 0 
K0 =   (8.10)

 ... ... ... ... ... ... 

 0 0 0 ... 2 −1 
0 0 0 ... −1 2

Proposition 59 La matrice K est définie positive. On en déduit que le système différentiel (8.9) est
dissipatif (cf. paragraphe(1.3.2), comme l’équation initiale (8.1)
d
hU, Ui = −hKU, Ui < 0
dt
Cela découle de la relation
X
N
hK0 U, Ui = j=2 (uj−1 − uj )2 + u21 + u2N (8.11)
2
Nous avons vu (proposition 23) que l’opérateur ∂∂xu2 est symétrique défini positif quand il opère sur
les fonction nulles sur le bord, il est donc heureux que son approximation conduise à une matrice
symétrique définie positive ; nous verrons plus loin qu’en utilisant une approximation par la méthode
des éléments finis, cette propriété ne sera plus l’effet du hasard.

187 Mathématiques 2
188 Analyse des équations aux dérivées partielles

Semi-discrétisation en espace de l’équation des ondes


Principe
En remplaçant les dérivées exactes par les différences finies dans (8.2) nous obtenons
 2
∂ uj ui−1 (t) − 2uj (t) + ui+1 (t)


2
=c 1 ≤ j ≤ N, t ∈]0, T [
∂t h2




uj (0) = u0 (xj ) 1≤j≤N (8.12)
0

u (0) = 0 1≤j≤N


 j


u0 (t) = uN +1 (t) = 0 t ∈]0, T [

C’est un système de N équations différentielles linéaires du second ordre à N fonctions inconnues


uj (t) (noter que les valeurs extrêmes u0 et uN +1 sont connues et ici nulles), pour lequel est posé un
problème de Cauchy (ou problème à valeurs initiales). On pose

U(t) = (u1 (t), · · · , uj (t), · · · , uN (t))t

Le système (8.12) s’écrit matriciellement


 2
d U

 = −KU
 dt2


(8.13)

 U(0) = U0 = (u0 (x1 ), · · · , u0 (xj ), · · · , u0 (xN ))t
 dU (0) = 0


dt
où K est la matrice tridiagonale symétrique

2 −1 0 ... 0
 
0
 −1 2 −1 ... 0 0 
c2
 
 0 −1 2 ... 0 0 
K= 2 
h 
 ... ... ... ... ... ... 

 0 0 0 ... 2 −1 
0 0 0 ... −1 2

Nous avons vu (2.23) que l’équation des ondes (8.2) est conservative. Nous allons vérifier que le
système (8.13) est aussi conservatif, pour une énergie dicrétisée. En effet, multiplions scalairement
(8.13) par dU
dt
d2 U dU dU
h 2 , i + hKU, i=0
dt dt dt
donc
d 1 dU dU 1
( h , i + hKU, Ui) = 0
dt 2 dt dt 2
ce qui montre la conservation de l’énergie discrétisée

1 dU dU 1
( h , i + hKU, Ui) (8.14)
2 dt dt 2

ECP 2006-2007 188


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 189

Passage à un système du premier ordre


On peut réécrire se système sous la forme d’un système du premier ordre à 2N inconnues dans
l’espace des phases en introduisant le vecteur des vitesses

dU
V=
dt
Il vient 
dU

 =V
dt




 dV = −K U



dt (8.15)





 U(0) = U0



 V(0) = 0

Ou encore en posant
X = (U, V)t ∈ R2N

il vient 
dX

 =AX
dt (8.16)
X(0) = (U0 , 0)t

où nous avons défini la matrice A par blocs


 
0 Id
A=
−K 0

Nous allons retrouver le fait que les solutions du système (8.16) conserve l’énergie (cf. paragraphe
1.3.2). En notant hU, Vi le produit scalaire canonique sur RN , introduisons le produit scalaire sur
R2N défini par
 X, Y = hKX1 , Y1 i + hX2 , Y2 i (8.17)

où nous avons décomposé les vecteurs X = (X1 , X2 )t ∈ R2N et Y = (Y1 , Y2 )t ∈ R2N en deux
vecteurs de RN . Noter que le carré scalaire  X, X  n’est pas autre chose que l’énergie définie
par la formule (8.14). D’après la proposition (8) si les solutions de (8.16) conserve cette énergie, la
matrice A est antisymétrique par rapport au produit scalaire qui définit l’énergie. Nous allons montrer
directement cette proposition :

Proposition 60 La matrice A est antisymétrique sur R2N pour le produit scalaire  X, Y . Le


système différentiel (8.16) est donc conservatif

 U, U = Cte

comme l’équation initiale (8.2).

189 Mathématiques 2
190 Analyse des équations aux dérivées partielles

Preuve
(Voir la proposition (8)). Par définition de A
AX = (X2 , −KX1 )t
L’antisymétrie de la matrice découle de la relation
 AX, X = hKX2 , X1 i + h−KX1 , X2 i = 0
puisque la matrice K est symétrique.
On en déduit à partir de (8.16) que
dX
 , X = A X, X = 0
dt
et donc
d 1
 X, X = 0
dt 2
d’où
 X, X = Cte

Discrétisation en temps
On peut intégrer numériquement les systèmes différentiels (8.9) et (8.13) par des méthodes clas-
siques de précision plus ou moins grande (“Runge-Kutta”, “Prédicteur-correcteur”) ou adaptée à des
situations particulières (“Gear”...). Mais l’approximation en temps ne peut pas être indépendante de
l’approximation en espace, pour des raisons évidentes de précision, et surtout, pour des systèmes
de grande dimension, la question cruciale est celle de la stabilité des approximations. Pour étudier
ces questions nous allons appliquer les méthodes d’intégration les plus simples. Nous écrivons ces
systèmes sous la forme canonique 
dX

 =AX
dt (8.18)

X(0) = X0

On choisit un pas de discrétisation τ et on pose Xn = X(nτ ) ∈ RN (Pour l’équation des ondes on


pose Xn = X(nτ ) ∈ R2N ).

Schéma d’Euler explicite


d
En approchant dt X(nτ ) par la différence divisée à droite (8.4) on définit le :
schéma d’Euler explicite

Xn+1 − Xn
= AXn (8.19)
τ
Dans le cas de l’équation de la diffusion la j ème équation s’écrit
un+1
j − unj c n
= (u − 2unj + unj+1 ) (8.20)
τ h2 j−1

ECP 2006-2007 190


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 191

Schéma d’Euler implicite


d
En approchant dt X(nτ ) par la différence divisée à gauche (8.4) on définit, après décalage de n en
n + 1, le :
schéma d’Euler implicite

Xn+1 − Xn
= AXn+1 (8.21)
τ
Dans le cas de l’équation de la diffusion la j ème équation s’écrit

un+1
j − unj c n+1
= (u − 2un+1 + un+1
j+1 ) (8.22)
τ h2 j−1 j

Schéma des trapèzes


En écrivant que
Z (n+1)τ
X((n + 1)τ ) = X(nτ ) + AX(t) dt

et en approchant l’intégrale par la formule des trapèzes, on définit le :


schéma des trapèzes ou de Crank-Nicholson

Xn+1 = Xn + τ (AXn+1 + AXn )/2 (8.23)


Ces trois schémas définissent des récurrences linéaires que nous pouvons écrire sous forme matricielle

Xn+1 = MXn (8.24)

où la matrice M est :
- schéma d’Euler explicite : M = (Id + τ A)
- schéma d’Euler implicite : M = (Id − τ A)−1
- schéma des trapèzes : M = (Id − τ2 A)−1 (Id + τ2 A)
Remarque
Si on développe le schéma matriciel d’Euler explicite dans le cas du système (8.13) de l’équation des
ondes, on obtient, après élimination de V, un schéma du second ordre sur unj :

un+2
j − 2un+1
j + unj un
2 j−1
− 2unj + unj+1
=c
τ2 h2
Ce schéma aux différences finies est moins naturel (et moins précis) que le schéma “centré”

un+1
j − 2unj + un−1
j unj−1 − unj + unj+1
= c2
τ2 h2
Ce qui montre que le passage du système du second ordre (8.12) au système du premier ordre (8.13)
n’est pas sans conséquence sur l’approximation.

191 Mathématiques 2
192 Analyse des équations aux dérivées partielles

8.1.3 Analyse des approximations


Calcul des schémas de récurrence
Nous considérons dans ce paragraphe une situation un peu plus générale que les problèmes mo-
dèles en appliquant les schémas ci-dessus à des systèmes différentiels issus de l’approximation d’une
équation aux dérivées partielles.
Le schéma d’Euler explicite ne demande que des multiplications matrice - vecteur, et ne pose pas de
problème particulier, à part la représentation de la matrice qui doit tenir compte de la forme creuse,
voire tridiagonale de la matrice, le produit matrice vecteur étant écrit dans cette représentation (ma-
trices “sparse” de Scilab ou MatLab).
Les schémas d’Euler implicite ou des trapèzes s’écrivent mathématiquement à l’aide d’une inversion
de matrice qu’on ne devra pas (jamais !) faire en pratique ; en effet l’inverse d’une matrice creuse
est (en général et en particulier ici) pleine et la seule multiplication de la matrice inverse par un vec-
teur exigerait N 2 opération alors que l’opération que nous allons décrire ci-dessous est en O(N ).
Considérons par exemple le schéma d’Euler implicite, pour l’équation de la diffusion (donc A =
−K), écrit sous la forme
(Id + τ K)Un+1 = Un
Pour calculer Un+1 il faut à chaque pas résoudre un système à matrice tridiagonale symétrique définie
positive (la matrice du système est tridiagonale comme l’est la matrice K)

(Id + τ K)U = b

Il existe1 alors une matrice L triangulaire inférieure et bidiagonale telle que

(Id + τ K) = LLt

A chaque itération on résout les deux systèmes à matrice triangulaires bidiagonale

LY = b (8.25)
t
LU = Y (8.26)

ce qui ne coûte que 4N opérations.

Résultats expérimentaux
Comportement du schéma d’Euler explicite appliqué à l’équation de la diffusion :
Voir la figure 8.1. Le profil initial de température est parabolique. Pour un pas de temps τ plus petit
que 0.02 les résultats paraissent cohérents : la courbe de température est régulière, concave et décroît
vers 0. Pour un pas de temps de 0.02 une oscillation apparaît rapidement, puis la solution explose en
oscillant.
Analyse :
1
C’est la décomposition de Choleski, un sous-produit de la triangulation de la matrice A par la méthode du pivot de
Gauss. Voir ([8], [9], [2])

ECP 2006-2007 192


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 193

Ci-contre

Pas de temps τ = 0.019

Visualisation des 100 premières étapes, repré-


sentées de 10 en 10.

Pas de temps τ = 0.020 Pas de temps τ = 0.020

Visualisation des 100 premières étapes, repré- Visualisation des 200 premières étapes, repré-
sentées de 10 en 10. sentées de 10 en 10.

F IG . 8.1 – Comportement du schéma d’Euler explicite appliqué à l’équation de la diffusion.

Fixons L = 1 pour simplifier. Nous avons calculé (2.10) un développement en séries de Fourier de la
solution exacte X
u(x, t) = ak exp (−k 2 π 2 ct) sin (kπx)
k
1
d’où au point (jh, nτ ) avec h = N +1
X
u(jh, nτ ) = ak exp (−k 2 π 2 cnτ ) sin (kjπh)
k

On voit que les coefficients des différents harmoniques décroissent avec le temps, d’autant plus vite
que la fréquence est élevée.
On peut calculer (paragraphe 8.1.5) les vecteurs et valeurs propres de la matrice M
cτ π
Vk = sin kjπh, µk = 1 − 4 (sin (k h))2
h2 2

on en déduit, en décomposant la position initiale U0j dans la base de vecteurs propres de M


X
U0j = ck Vk
k

193 Mathématiques 2
194 Analyse des équations aux dérivées partielles

et donc X
Unj = Mn U0j = ck (µk )n Vk (8.27)
k

si hcτ2  1/2 toutes les valeurs propres µk sont plus petites que 1 en module, ce qui implique la
décroissance des coefficients de chaque vecteur propre. Mais si hcτ2  1/2,
cτ π cτ
µN = 1 − 4 (sin (N h))2 ∼ 1 − 4 2
h2 2 h
µN est inférieure à −1 et c’est la plus grande valeur propre, en valeur absolue. Le coefficient du
vecteur VN dans (8.27) domine tous les autres et il tend vers l’infini : comme le vecteur VN définit
une suite oscillante cela explique l’apparition des oscillations grandissantes sur la figure 8.1.

-2
0 20 40 60 80 100

Schéma d’Euler explicite : une position et le mouvement du point milieu

0.5

-0.5

-1
0 50 100 150

Schéma d’Euler implicite : une position et le mouvement du point milieu

0.5

-0.5

-1
0 50 100 150 200 250

Schéma des trapèzes : une position et le mouvement du point milieu

F IG . 8.2 – Comportement des trois schémas appliqués à l’équation des ondes.

Comportement des trois schémas appliqués à l’équation des ondes. :


Voir la figure 8.2. Le calcul est mené avec une faible précision (10 pas). Avec le schéma d’Euler
explicite la l’amplitude des oscillations est croissante. Avec le schéma d’Euler implicite la solution se
“régularise” rapidement (suppression des petites irrégularités), ce qui n’est pas normal, et l’amplitude

ECP 2006-2007 194


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 195

décroît comme le montre le mouvement du point milieu. Avec le schéma des trapèzes il y a conserva-
tion de l’amplitude et on observe des irrégularités qui correspondent au passage des harmoniques de
fréquence élevées.

Conservation des propriétés qualitatives


Il y a plusieurs raisons pour construire des schémas d’approximation d’une équation aux déri-
vées partielles qui conservent certaines propriétés qualitatives des solutions : la première étant que
l’utilisateur d’un logiciel sera surpris de voir une grandeur physiquement positive devenir négative,
même faiblement ! La deuxième étant que certaines propriétés qualitatives, comme par exemple la
conservation d’une énergie ou la décroissance du maximum, assurent la stabilité et la convergence
des approximations.

Équation de la diffusion
Nous avons vu (Prop. 59) que l’équation de la diffusion est dissipative, qu’en est-il des schémas ?
− Le schéma explicite s’écrit

Un+1 = Un − τ KUn = Un − K0 Un
h2
où K0 est une matrice symétrique définie positive (cf. 8.10). Il n’est pas toujours dissipatif pour le
produit scalaire canonique de RN , en effet

hUn+1 , Un+1 i = hUn , Un i + τ 2 hKUn , KUn i − 2τ hKUn , Un i

si on choisit pour Un un vecteur propre V de K0 de valeur propre λ > 0, le second membre s’écrit

c2 τ 2 2 cτ
(1 + λ − 2 2 λ)hV, Vi
h4 h
Le schéma est dissipatif si
cτ 2
2
<
h λ
On peut montrer (8.33) que λ < 4, ce qui conduit à la condition suffisante
cτ 1
<
h2 2
En examinant la formule de récurrence (8.20) on vérifie que sous cette condition un+1
j est une
moyenne des unj , ce qui implique la décroissance du maximum et la positivité des valeurs si les
valeurs initiales sont positives.
− Le schéma implicite s’écrit
Un+1 − τ KUn+1 = Un
Il est toujours dissipatif pour le produit scalaire canonique de RN , en effet, si nous prenons le carré
scalaire de chaque membre du schéma

hUn+1 , Un+1 i + τ 2 hKUn+1 , KUn+1 i + 2τ hKUn+1 , Un+1 i = hUn , Un i

195 Mathématiques 2
196 Analyse des équations aux dérivées partielles

Le premier membre n’est formé que de termes positifs donc


hUn+1 , Un+1 i < hUn , Un i
Équation des ondes
Nous avons vu (8.2) que cette équation est conservative.
− Le schéma explicite s’écrit
Xn+1 = Xn + τ AXn
où A est une matrice antisymétrique pour le produit scalaire que nous avons noté  ., . . Prenons
le carré scalaire de chaque membre
 Xn+1 , Xn+1  =  Xn , Xn  +τ 2  AXn , AXn  −2τ  AXn , Xn 
=  Xn , Xn  +τ 2  AXn , AXn 
puisque pour une matrice antisymétrique  AX, X = 0. Le schéma n’est pas conservatif : à
chaque étape il rentre de l’énergie.
− Le schéma implicite s’écrit
Xn+1 − τ AXn+1 = Xn
Prenons le carré scalaire de chaque membre
 Xn+1 , Xn+1  +τ 2  AXn+1 , AXn+1  −2τ  AXn+1 , Xn+1 = Xn , Xn 
Donc
 Xn+1 , Xn+1  +τ 2  AXn+1 , AXn+1 = Xn , Xn 
Les deux termes du premier membre étant positifs on en déduit
 Xn+1 , Xn+1  <  Xn , Xn 
Le schéma implicite est toujours dissipatif.
− Le schéma des trapèzes s’écrit
Xn+1 = MXn
avec
τ τ
M = (Id − A)−1 (Id + A)
2 2
On a
hXn+1 , Xn+1 i = hMXn , MXn i = hMt MXn , Xn i
Montrons que la matrice M est orthogonale pour le produit scalaire  ., . . En effet la matrice A
étant antisymétrique
τ τ τ τ
Mt M = (Id + A)t (Id − A)−t (Id − A)−1 (Id + A)
2 2 2 2
τ τ −1 τ −1 τ
= (Id − A)(Id + A) (Id − A) (Id + A)
2 2 2 2
= Id
(En tenant compte du fait que toutes ces matrice commutent). On en déduit que le schéma des trapèzes
est conservatif en énergie.

ECP 2006-2007 196


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 197

8.1.4 Analyse de l’erreur


Principe

L’étude de l’erreur dans une approximation d’un problème différentiel, se fait selon le schéma
général suivant :
− soit L(u) = f l’équation exacte d’un problème dont la solution est u ∈ V , L(u) étant une opération
linéaire, V un espace de fonctions,
− soit Lh (uh ) = fh l’équation obtenue par approximation du problème, en notant uh ∈ Vh la solution
de l’approximation, Vh étant un certain espace de dimension finie et h un paramètre qui représente
les pas de discrétisation et qui peut tendre vers 0,
− notons Πh (u), un représentant2 de u dans Vh dont on sait estimer, en un sens à préciser, la distance
à u et qui est telle que
lim (u − Πh (u)) = 0
h→0

Πh (u) est l’objet que l’on veut effectivement calculer, faute de pouvoir représenter u exactement.

Consistance
Pour étudier l’erreur d’approximation la première étape est de montrer que Πh (u) vérifie “presque”
l’équation approchée, c’est l’étude de la consistance de l’approximation,

Lh (Πh (u)) − fh = h

où limh→0 kh k = 0. On en déduit, si toutes les opérations sont linéaires, que

Lh (Πh (u) − uh ) = h

Stabilité
La seconde étape est de montrer que l’opérateur L−1
h est borné indépendamment de h, c’est à dire des
pas de discrétisation, ce qui implique

kΠh (u) − uh k ≤ Ctekh k

c’est l’étude de la stabilité de l’approximation. Dans certains cas la stabilité est soumise à des condi-
tions sur les pas de discrétisation, nous parlerons de stabilité conditionnelle. La consistance et la
stabilité implique donc, par définition, la convergence en un sens à préciser.

Résumé 4 La solution exacte d’une équation n’est solution que d’une perturbation du schéma d’ap-
proximation.
− L’étude de la consistance de l’approximation consiste à évaluer cette perturbation.
− L’étude de la stabilité de l’approximation consiste à montrer qu’une perturbation du schéma im-
plique une perturbation du même ordre de la solution de ce schéma indépendamment des pas de
discrétisation.
2
Le plus souvent par une interpolation.

197 Mathématiques 2
198 Analyse des équations aux dérivées partielles

Remarque 1 :
Il y a un point délicat dans ces définitions informelles : le choix de la norme. Pour la consistance il
faut comparer une fonction et son approximation qui a priori n’est pas dans le même espace. Pour la
stabilité on fait varier l’espace Vh et donc la norme avec lui ! L’utilisation de la norme k.k∞ résout ce
problème car elle revient à comparer les valeurs aux points de discrétisation, malheureusement elle
est peu pratique pour les calculs. On peut associer aux valeurs discrètes une fonction par interpolation,
de manière à n’avoir qu’à comparer des fonctions, ce qui peut se faire avec des normes usuelles sur
les fonctions. Si on utilise la norme de L2 ([0, T ]) pour comparer les fonctions et qu’on associe aux
suites unj des fonctions en escalier avec un pas h, on est conduit à munir Vh de la norme
v
u n √
u X
kuh k = th (unj )2 = hkUk2
j=1

Remarque 2 :
On peut être plus ou moins exigeant sur l’erreur commise dans une approximation : si la solution de
l’équation exacte admet un état limite, comme dans l’exemple de l’équation de la diffusion, il est na-
turel de chercher à avoir erreur petite pour tout temps t. Si la solution croît rapidement il est difficile
d’empêcher l’erreur de croître avec le temps. L’équation des ondes, où la solution a un comporte-
ment oscillatoire, pose plus de problèmes : il sera difficile d’obtenir une erreur faible sur un temps
long car un petit déphasage peut par exemple inverser les valeurs de la solution. Ce n’est pas grave
pour l’ingénieur étudiant un comportement vibratoire qui tolérera un déphasage de la solution, et qui
se contentera de pouvoir, par une transformation de Fourier de la solution, calculer des fréquences
d’oscillations avec une bonne précision. Mais c’est toute la difficulté des calculs pour les prévisions
météorologiques : le cultivateur qui attend la pluie pour ses plantations sera satisfait de savoir qu’il y
aura dans quatre jours une alternance de pluie et de soleil, mais le vacancier qui va à la plage et qui
a lu qu’il fera soleil de trois à cinq heures, maudira les mathématiciens et leurs calculs si le soleil ne
vient qu’à sept heures...

Erreur de consistance
Pour construire une approximation d’une équation aux dérivées partielles nous avons remplacé les
dérivées exactes par des différences finies. La solution exacte du problème continu n’est pas une solu-
tion du problème discrétisé, c’est à dire du schéma de récurrence, mais elle doit vérifier “à peu près”
le schéma avec une précision qui dépend des pas de discrétisation (h, τ ), sinon la solution du schéma
n’aurait aucune raison d’être proche de la solution exacte ! Nous allons étudier sur deux exemples la
précision à laquelle la solution exacte vérifie le schéma.

Schéma d’Euler explicite pour l’équation de la diffusion


Prenons l’exemple du schéma d’Euler explicite pour l’équation de la diffusion. La j ème équation de
la récurrence s’écrit
un+1
j − unj c
− 2 (unj−1 − 2unj + unj+1 ) = 0
τ h
On pose unj = u(jh, nτ ) où u(x, t) est la solution exacte de (8.1) et on fait une estimation du premier
membre de cette équation en faisant un développement limité (pour être rigoureux il faudrait faire un

ECP 2006-2007 198


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 199

développement de Taylor) de toutes les valeurs de u autour du point (jh, nτ )

∂u τ 2 ∂2u
u(jh, (n + 1)τ ) = u(jh, nτ ) + τ (jh, nτ ) + (jh, nτ ) + ...
∂t 2 ∂t2

∂u h2 ∂ 2 u h3 ∂ 3 u h4 ∂ 4 u
u(j ± h, nτ ) = unj ± h (jh, nτ ) + (jh, nτ ) ± (jh, nτ ) + (jh, nτ ) + ...
∂t 2 ∂t2 3! ∂t3 4! ∂t4
Il vient, en tenant compte du fait que u est solution de (8.1),

un+1
j − unj c n n n τ ∂2u τ 2 ∂4u
− (u − 2u + u ) = (jh, nτ ) + (jh, nτ ) + ...
τ h2 j−1 j j+1
2 ∂t2 12 ∂x4
D’où, en faisant ce calcul pour toutes les équations

Un+1 − Un
− KUn = h,τ (8.28)
τ
avec
kh,τ k∞ ≤ M (τ + h2 )

où M dépend des bornes des dérivées secondes en t et quatrième en x de u(x, t) .


Nous dirons que l’ordre de consistance du schéma est en τ + h2 . On notera que l’ordre est supérieur
en espace du fait de la symétrie de la formule aux différences finies : ici cela élimine les termes en
puissances impaires h2k+1 dans le calcul ; les formules “centrées” sont plus précises, mais nous ver-
rons qu’elles peuvent poser d’autres problèmes.

Schéma des trapèzes pour l’équation de la diffusion La j ème équation de la récurrence s’écrit

un+1
j − unj c 1 n
− ((u − 2unj + unj+1 ) + (un+1 n+1
j−1 − 2uj + un+1
j+1 )) = 0
τ h2 2 j−1
On pose unj = u(jh, nτ ) où u(x, t) est la solution exacte de (8.1) et on fait une estimation du premier
membre de cette équation en faisant un développement limité (pour être rigoureux il faudrait faire un
développement de Taylor) de toutes les valeurs de u autour du point (jh, nτ ). En particulier

∂u ∂u 1 ∂2u ∂2u ∂2u


un+1 n
j±1 = uj + (±h + τ ) + (h2 2 ± 2hτ + τ 2 2 ) + ...
∂x ∂t 2 ∂x ∂x∂t ∂t

∂u 1 2 ∂ 2 u
un+1
j = unj + τ + τ + ...
∂t 2 ∂t2
On en déduit, après un calcul laborieux

kh,τ k∞ ≤ M (τ 2 + h2 )

Le schéma des trapèzes est d’ordre 2 en espace et temps.

199 Mathématiques 2
200 Analyse des équations aux dérivées partielles

Étude de la stabilité numérique


Nous posons p = (h, τ ) et nous écrivons les schémas (8.1.2), en faisant apparaître la dépendance
de la matrice par rapport aux pas de discrétisation, sous la forme

 Un+1p − Mp Unp = 0
(8.29)
 U0 = U
p 0

Les calculs de cette récurrence sont sensibles aux perturbations et notamment aux erreurs de tronca-
ture. Ces erreurs de troncature sont propagées par les calculs ; elles peuvent décroître ou s’amplifier
et le coefficient d’amplification peut dépendre du pas de discrétisation. La propagation des erreurs est
aussi liée au comportement des solutions de la récurrence : la propagation des erreurs ne sera pas la
même selon que les solutions tendent vers 0 ou vers l’infini. Nous allons étudier ces phénomènes.
Effectuons une perturbation initiale de la récurrence :

U0 → U0 + δ 0

Unp est donc changé en Up n + δpn et, du fait de la linéarité, δpn est solution de la récurrence linéaire

δpn+1 = Mp δpn (8.30)

Donc
δpn = Mnp δp0

Définition 42 − Un schéma de récurrence est fortement stable si l’erreur propagée tend vers 0.
− Un schéma de récurrence est asymptotiquement stable si l’erreur propagée est bornée à l’infini,
indépendamment des pas de discrétisation

∃C > 0 / ∀p ∀n kMnp k = C

− Un schéma de récurrence est stable si l’erreur propagée est bornée sur un intervalle fini [0, T ] (i.e.
∀k / τ ≤ T ) indépendamment des pas de discrétisation

∃C > 0 / ∀n / nτ ≤ T kδpn k = Ckδ 0 k

La norme est à préciser. La première définition est intéressante pour les équations dissipatives, la
deuxième pour les équations conservatives, la dernière est tout ce qu’on peut espérer dans le cas
général.

Proposition 61 − Un schéma de récurrence est fortement stable si et seulement si toutes les valeurs
propres des matrices Mp sont de module strictement inférieure à 1. Ce sera en particulier le cas si
un schéma est dissipatif.
− Si les matrices Mp sont diagonalisables dans une base orthogonale pour un produit scalaire h., .i le
schéma de récurrence est asymptotiquement stable pour la norme du produit scalaire si et seulement
si les valeurs propres des matrices Mp sont de module inférieur ou égal à 1. Ce sera en particulier

ECP 2006-2007 200


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 201

le cas si un schéma est conservatif.


− sous la même hypothèse que ci-dessus, si la plus grande valeur propre vérifie
λ = (1 + aτ )
où a est borné indépendamment de τ , le schéma de récurrence est stable sur tout intervalle [0, T )
pour la norme du produit scalaire.
La démonstration est immédiate effectuant les calculs dans la base de vecteurs propres. Pour la der-
nière proposition noter que le coefficient d’amplification est (1 + |a|τ )n ; compte tenu de kτ ≤ T
cela implique qu’il est inférieur à (1 + |a| Tn )n et donc à exp |a|T .
Remarque :
La stabilité numérique n’implique pas toujours la stabilité vis à vis d’une perturbation du second
membre qui est en général beaucoup plus difficile à établir. C’est cependant une condition nécessaire.

Étude de l’erreur d’approximation : un exemple


Suivant la proposition 4, pour estimer l’erreur d’approximation nous devons étudier la stabilité
des solutions vis à vis d’une perturbation du second membre de la récurrence. Nous reprenons les
notations du paragraphe précédent. Le cas général est difficile, nous nous limitons à un exemple : le
schéma d’Euler explicite pour l’équation de la chaleur.
Nous définissons le vecteur Ũnp = (..., u(jh, nτ ), ...)t dont les composantes sont les valeurs de la
solution exacte aux points de discrétisation. Nous avons vu que ce schéma est consistant avec un
ordre O(τ + h2 ), c’est à dire, en réécrivant (8.28) sous la forme d’une récurrence

 Ũpn+1 − Mp Ũnp = τ np
(8.31)
 Ũ0 = U
p 0

avec knp k = O(τ + h2 ) pour une norme à préciser. On en déduit, en posant

δpn = Unp − Ũnp


que δpn la solution de la récurrence

 δpn+1 − Mp δpn = τ np
(8.32)
 δ0 = 0
p

Nous allons étudier l’erreur d’approximation sur un intervalle [0, T ].


Proposition 62 Sous l’hypothèse hcτ2 < 12 , le schéma d’Euler explicite est stable pour la norme infinie
sous l’effet d’une perturbation du second membre sur tout intervalle [0, T ]
∃C > 0 / ∀n ∈ N, kδpn k∞ ≤ C sup kip k∞
i

et on a l’estimation suivante de l’erreur


|u(jh, nτ ) − unj | ≤ M T (h2 + τ )
∂2u ∂4u
où M est une constante qui dépend de ∂t2
et ∂x4
.

201 Mathématiques 2
202 Analyse des équations aux dérivées partielles

Preuve
cτ 1
− Sous l’hypothèse h2
< 2 on a kMp k∞ ≤ 1 c’est à dire kMp Uk∞ ≤ kUk∞ . En effet, si d’après
(8.20), on a

cτ cτ 2cτ cτ
(Mp U)j = uj + (uj−1 − 2uj + uj+1 ) = 2 uj−1 + (1 − 2 )uj + 2 uj+1
h2 h h h
cτ 1
Donc si h2
< 2 tous les coefficients du second membre sont positif et de somme 1, donc

sup |(Mp U)j | ≤ sup |uj |


j j

− La solution de la récurrence (8.32) s’exprime formellement (le vérifier par récurrence)


n
X
δpn = Mpn−i τ ip
i=1

On en déduit
n
X
kδpn k∞ ≤ n−i
kMp k∞ τ kip k∞
i=1

et, puisque kMp k∞ ≤ 1,


n
X
kδpn k∞ ≤ τ sup kip k∞
i=1 i

On en déduit, en utilisant la consistance du schéma (8.28) l’estimation de l’erreur et nτ ≤ T

kδpn k∞ ≤ M T (h2 + τ )

L’estimation n’est pas optimale (facteur T ) car nous ne tenons pas compte de la décroissance expo-
nentielle de la solution vers 0 qui fait que la constante M devient petite sur [t, +∞[. ♦

8.1.5 Critères de stabilité des schémas


Nous avons vu (cf. definition 42) que l’étude de la stabilité numérique des schémas de récurrence
se ramenait à l’étude des valeurs propres de la matrice de la récurrence. Dans le cas où l’approxima-
tion en espace a été menée par la méthode des différences finies on peut simplifier cette étude.

Un exemple

Considérons à nouveau le schéma d’Euler (8.20) pour l’équation de la diffusion (8.1). Vérifions
que les vecteurs Vk , 1 ≤ k ≤ N de composantes
π
Vk = (..., sin kj , ...)t
N +1

ECP 2006-2007 202


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 203

sont des vecteurs propres de la matrice K


 
c π π π
(KVk )j = − sin (k(j − 1) ) + 2 sin (kj ) − sin (k(j + 1) )
h2 N +1 N +1 N +1
c π π
= 2 2 (1 − cos (k )) sin (kj )
h N +1 N +1

ce qui montre que la valeur propre correspondante est3


c π c π
λk = 2 2
(1 − cos (k )) = 4 2 sin2 (k ) (8.33)
h N +1 h 2(N + 1)

Les valeurs propres µk de la matrice Mp = Id − τ K s’en déduisent


cτ π
µk = 1 − 4 sin2 (k )
h2 2(N + 1)

On a µk < 1, on veut |µk | < 1 pour avoir la stabilité du schéma (cf. 61) il faut donc
cτ π
1−4 2
sin2 (k ) > −1
h 2(N + 1)

et donc, en prenant k = N
cτ Nπ 1
2
sin2 ( )<
h 2(N + 1) 2
π
L’entier N tend vers l’infini quand le pas h tend vers 0, l’argument du sinus tend donc vers 2, la
condition de stabilité du schéma d’Euler explicite s’écrit finalement
cτ 1
2
<
h 2
En pratique on peut simplifier encore les calculs (et s’épargner la connaissance des formules de trigo-
nométrie !) en décomposant le sinus en exponentielles et en posant
π
Vk = (..., exp ikj , ...)t
N +1
on vérifie que ces vecteurs sont des vecteurs propres de la matrice K. Ils ne vérifient pas les conditions
aux limites mais des combinaisons de ces vecteurs les vérifient.
Remarque :
Si on itère un vecteur par multiplication par une matrice diagonalisable, à valeur propre positives, le
vecteur itéré devient asymptotiquement colinéaire au vecteur propre associé à la plus grande valeur
propre4 .
On en déduit que si hcτ2 < 12 (i.e. le schéma est stable) le vecteur associé à la plus grande valeur propre
est
π
V1 = (..., sin j , ...)t
N +1
3
On utilise la formule : cos θ = 1 − 2 sin2 θ2
4
Décomposer les vecteurs dans la base de vecteurs propres pour le vérifier.

203 Mathématiques 2
204 Analyse des équations aux dérivées partielles

qui correspond à l’harmonique fondamentale et à une fonction uh qui est concave : asymptotiquement
la fonction uh est donc concave, c’est le même comportement que l’équation exacte (voir 2.10). Mais
si hcτ2 > 12 le schéma est instable et le vecteur associé à la plus grande valeur propre est
π
VN = (..., sin N j , ...)t
N +1
qui correspond à une fonction uh qui asymptotiquement oscille sur un pas de discrétisation, d’où
l’apparition caractéristiques des oscillations dans les schémas instables.
On peut faire de cette analyse un principe informel : il n’est pas toujours facile de distinguer les insta-
bilités physiques des instabilités numériques d’autant que ces dernières apparaissent plus facilement
dans des problèmes naturellement instables, mais en règle générale :
“L’apparition d’oscillations ayant pour période le pas de discrétisation est un signe carac-
téristique d’instabilité numérique.”

Méthode de Von Neumann


Nous pouvons simplifier l’étude de la stabilité des schéma aux différences finies en considérant
des grilles infinies. On enlève ainsi les difficultés dues aux conditions aux limites. Nous avons vu
(paragraphe 5.1.4) que l’on peut trouver des fonctions u(x, t) = exp (k(ω)t) exp iωx qui sont des
solutions particulières des opérateurs différentiels à coefficients constants opérant sur tout R. De
même, sur des grilles infinies en espace de pas h, nous allons vérifier que l’on peut trouver pour les
schémas aux différences finies des solutions particulières de la forme
unj = ank exp (2iπjkh), k ∈ N
Ensuite nous étudions le comportement asymptotique de ces suites quand n → ∞, ceci pour toutes
les valeurs de k. On obtient ainsi des conditions nécessaires de stabilité : les critères de Von Neumann.
Sur des grilles infinies on peut montrer par superposition de solutions particulières que ces conditions
sont suffisantes quand elles sont vérifiées par toutes les solutions particulières. Si le problème a des
conditions aux limites, la solution de la récurrence sous l’effet d’une perturbation initiale localisée
en espace se prolonge par 0 sur toute la grille et reste alors une solution de la récurrence sur toute la
grille. Les conditions de stabilité de Von Neumann s’appliquent donc à ces perturbations.

On en déduit la méthode suivante pour étudier la stabilité d’un schéma aux différences finie (ici,
avec une seule variable d’espace, mais cela se généralise en dimension 2 ou 3) :

Résumé 5 Stabilité des schémas aux différences finies : critère de Von Neumann
Soit un schéma de récurrence obtenu par la méthode des différences finies dont l’inconnue est notée
unj , où unj est un scalaire ou un vecteur (pour les schémas à plusieurs inconnues).
− On cherche des solutions particulières de cette récurrence sous la forme de suites
unj = ank exp (2iπjkh)
où ank est est un scalaire ou un vecteur.
− Pour un schéma à 1 pas on vérifie que la suite ank est solution de la récurrence
an+1
k = G(h, τ )ank

ECP 2006-2007 204


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 205

où G(h, τ ) est un scalaire5 ou, pour les schémas vectoriels, une matrice. Si le schéma est une ré-
currence à 2 pas on peut la transformer en une récurrence vectorielle à un pas en introduisant une
variable auxiliaire.
− Pour les schémas scalaires il suffit de comparer |G(h, τ )| à 1 pour vérifier les conditions de stabi-
lité (61).
− Pour les schémas vectoriels il faut étudier le comportement des puissances successives de la ma-
trice G(h, τ ). Pour des matrices diagonalisables dans une base indépendante des pas, il suffit de
comparer les modules des valeurs propres de la matrice à 1.

Exemples
Schéma d’Euler implicite pour l’équation de la chaleur
Le schéma s’écrit (cf. (8.22))
un+1
j − unj c n+1
= (u − 2un+1 + un+1
j+1 )
τ h2 j−1 j

On substitue unj = an exp (2iπjkh) dans cette expression (on omet l’indice k de ank pour simplifier),
il vient en éliminant exp (2iπjkh)

an+1 − an c
= 2 an+1 (exp (−2iπkh) − 2 + exp (2iπkh))
τ h
d’où
2cτ n+1 2cτ
an+1 = an + 2
a (cos (2πkh) − 1) = an − 2 an+1 (sin2 (πkh))
h h
et
1
an+1 = 2cτ 2
an
1+ h 2 (sin (πkh))
Donc
1
G(h, τ ) = 2cτ <1
1+ h2
(sin2 (πkh))
Le schéma implicite est toujours fortement stable, ce que nous avons déjà montré puisque ce schéma
est dissipatif.

Schéma explicite centré pour l’équation des ondes


Le schéma est obtenu en remplaçant les dérivées secondes en temps et en espace par les différences
finies centrées au point (jh, kτ ), il s’écrit

un+1
j − 2unj + ujn−1 c2 n+1
= (u − 2un+1 + un+1
j+1 )
τ2 h2 j−1 j

On substitue unj = an exp (2iπjkh) dans cette expression , il vient en éliminant exp (2iπjkh)

c2 τ 2
an+1 − 2(1 − 2 sin2 (πkh))an + an−1 = 0
h2
5
Dans ce cas an = G(h, τ )n et l’exposant n devient une puissance.

205 Mathématiques 2
206 Analyse des équations aux dérivées partielles

C’est une récurrence à deux pas que l’on peut ramener à une récurrence vectorielle à 1 pas, dont
l’étude revient au calcul des racines de l’équation caractéristique

c2 τ 2
x2 − 2(1 − 2 sin2 (πkh))x + 1 = 0
h2

Les racines de cette équation ont un produit égal à 1. Si elles sont réelles l’une des racines est supé-
rieure à 1 en module. Si elles sont complexes elles sont toutes deux de module 1 et le schéma est donc
asymptotiquement stable. Pour qu’elles soient complexes il faut que

c2 τ 2
sin2 (πkh) ≤ 1
h2

Cette condition devant être vérifiée pour tout k et h, cela implique


<1
h

C’est la condition de stabilité de ce schéma, dite “CFL” (pour Courant, Friedrich, Levy) dont nous
donnerons une interprétation une interprétation intuitive (cf. 8.61).

8.1.6 Analyse et extensions de la méthode des différences finies

Voir le paragraphe 7.2.1.

1.5

0.5

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

F IG . 8.3 – Instabilité du schéma d’Euler explicite appliqué à un problème non linéaire.

ECP 2006-2007 206


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 207

1.5

0.5

−1 −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1

F IG . 8.4 – Instabilité du schéma d’Euler explicite appliqué à un problème non linéaire.

2.5

1.5

0.5

−0.5
20
15 40
10 30
20
5
10
0 0

F IG . 8.5 – Un exemple d’instabilité pour l’équation de convection diffusion.

8.2 Approximation par la méthode des éléments finis


8.2.1 Équation de la diffusion
Un problème modèle
Nous considérons le problème

u ∈ C 2 (Ω × [0, T ])




∂u


 C ∂t − k∆u + cu = 0 si x ∈ Ω



∂u (8.34)

 −k =0 si x ∈ Γ
∂n






u(x, 0) = u0 (x) si x ∈ Ω

où k, C et c sont des constantes positives. Il peut s’interpréter comme un problème de diffusion en


régime transitoire dans une plaque mince isolée sur les bords , avec un échange de chaleur c(u − Te )
avec le milieu extérieur supposée à température Te = 0. La fonction u(x, t) représente la température

207 Mathématiques 2
208 Analyse des équations aux dérivées partielles

(cf. 4.17), u0 (x) la température initiale ; k est la constante de diffusion, C la capacité calorifique de
la plaque. L’étude du régime permanent a été faite au chapitre 7 (cf. 7.1) (ici avec le second membre
q = 0, le régime permanent correspond à une température nulle).

Formulation semi-faible
Considérons un temps t fixé. L’équation (8.34) peut s’interpréter comme l’équation d’un problème
de diffusion en régime permanent
−k∆u + cu = q (8.35)
où le second membre q(x) est
∂u
q = −C
∂t
On peut définir une formulation faible de ce problème comme nous l’avons fait au chapitre 7. On
obtient ainsi la formulation semi-faible du problème qui est équivalente à la formulation initiale si la
solution u est suffisamment régulière. Soit V0 l’espace des fonctions v(x) continues C 1 par morceaux
sur le domaine Ω. En appliquant le théorème 24, l’équation (8.35) est équivalente6 à la formulation
faible
∂u
∀v ∈ V0 a(u, v) = −( , v) (8.36)
∂t
où nous avons posé Z
a(u, v) = hk ∇u, ∇vi + cuv dΩ

qui est une forme bilinéaire symétrique définie positive, et
Z
(u, v) = Cuv dΩ

(c’est à un facteur près le produit scalaire de L2 (Ω)). Le problème (8.34) est donc équivalent à la
formulation semi-faible 

 u ∈ C 2 (Ω × [0, T ])

∂u


∀v ∈ V0 ( , v) + a(u, v) = 0 (8.37)

 ∂t


u(x, 0) = u0 (x) si x ∈ Ω

On a donc, à t fixé
∂u
( , u) + a(u, u) = 0
∂t
On en déduit
∂ (u, u) ∂u
= ( , u) < 0
∂t 2 ∂t
7
Ce qui montre que l’équation est dissipative .
6 ∂u
Rappelons que, en particulier, la condition aux limites −k ∂n = 0 est devenue implicite : c’est une conséquence de la
formulation.
7
On peut obtenir plus car a(u, u) ≥ c(u, u), on en déduit après résolution de l’inéquation différentielle ∂g(t)
∂t
+2cg(t) ≤
0, où on a posé g(t) = (u, u),
(u, u) ≤ (u0 , u0 ) exp −2ct

ECP 2006-2007 208


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 209

Proposition 63 L’équation de la diffusion (8.34) est dissipative pour le produit scalaire (u, v).

Semi-discrétisation en espace
En reprenant tout le formalisme décrit au chapitre 7, paragraphe 7.2.4, on peut construire une
approximation de la formulation semi-faible par la méthode des éléments finis. La forme linéaire
L(v) est ici −( ∂u
∂t , v).
En appliquant la méthode de Ritz-Galerkin, toujours à t fixé, on approche u(x, t) par une fonction
uh (x, t) qui est dans Vh à t fixé et qui vérifie


 uh (x, .) ∈ Vh

∂uh


∀v ∈ Vh ( , v) + a(uh , v) = 0 (8.38)

 ∂t


 u (x, 0) = u (x) si x ∈ Ω
h 0

Nous rappelons les notations :


− Vh = Wh est l’espace des fonctions d’approximation ; nous choisissons des fonctions continues
affines par morceaux sur un maillage du domaine Ω supposé être à bord polygonal.
− Le maillage comporte N nœuds xi , numérotés de 1 à N .
− Le système (w1 , ..., wi , ..., wN ) est une base de Wh (cf. 56) ;
− On pose ui (t) = uh (xi , t) la température calculée au nœud i à l’instant t et on définit le vecteur
des températures aux nœuds

U(t) = (u1 (t), ..., uj (t), ..., uN (t))t

− On pose
U0 = (u0 (x1 ), ..., u0 (xi ), ..., u0 (xN ))t
le vecteur des températures initiales aux nœuds xi .

Par définition de la base wi X


uh (x, t) = uj (t)wj (x)
j

En reportant cette expression dans (8.38) on obtient un système différentiel linéaire



dU
 M
 + KU = 0
dt (8.39)
U(0) = U0

où la matrice K est la matrice de raideur définie au paragraphe (7.2.4) et la matrice M est la matrice
de masse, au coefficient près c’est la même que la matrice K̂ définie au paragraphe (7.2.5),
Z
Mi,j = Cwi wj dΩ

209 Mathématiques 2
210 Analyse des équations aux dérivées partielles

On obtient un problème de Cauchy pour un système différentiel linéaire de N équations à N incon-


nues.
Les matrices K et M sont symétriques définies positives par construction. Le système différentiel
(8.39) est par construction dissipatif comme l’est le problème initial (63) : c’est une conséquence de
l’approximation de Ritz-Galerkin (8.38) ou directement de

d dU
hMU, Ui = hM , Ui = −hKU, Ui < 0
dt dt

Discrétisation en temps
Il suffit de reprendre le paragraphe (8.1.2) pour construire l’approximation en temps et obtenir, par
exemple, les schémas de récurrence d’Euler explicite, implicite ou des trapèzes. Noter que le schéma
d’Euler “explicite”
Un+1 − Un
M = −KUn
τ
est ici implicite à cause de la matrice M ; cependant on peut sans inconvénient approcher M par
une matrice diagonale (technique dite de condensation de masse en calculant les intégrales qui la
définissent sur chaque triangle par la formule approchée qui utilise les trois sommets du triangle).

Analyse des schémas


Calcul des récurrences :
Par rapport au paragraphe (8.1.3) il faut juste remarquer que les matrices sont ici creuses et non plus
tridiagonales et donc qu’une décomposition par la méthode de Gauss-Choleski exige une bonne re-
numérotation des nœuds, ce qui est aujourd’hui fait automatiquement par les fonctions spéciales liées
aux traitements des matrices “sparse”.

Propriétés qualitatives :
L’analyse du paragraphe (8.1.3) reste valide, mais les valeurs propres des matrices ne peuvent être
calculées analytiquement. On ne pourra donc pas préciser la condition sous laquelle le schéma d’Eu-
ler explicite est conservatif.

Analyse de l’erreur :
L’erreur de consistance (cf paragraphe 8.1.4) se ramène à l’erreur d’interpolation de la solution exacte
par une fonction continue affine par morceaux et elle peut être calculée comme au paragraphe 7.4.
Rappelons que l’erreur d’interpolation est sensible à certaines déformations du maillage et notamment
à la présence de triangles aplatis.
L’étude de la stabilité dépend des propriétés qualitatives des équations et des schémas : comme la
construction des schémas implique ici automatiquement certaines propriétés de conservation ou de
dissipation la stabilité est automatiquement obtenue pour des normes associées aux produits scalaires
conservés. En revanche, les estimations en norme infinie peuvent être difficile à obtenir sans propriété
forte du maillage. Ainsi l’estimation obtenue au paragraphe 62 par l’intermédiaire de la propriété de
décroissance du maximum peut être étendue aux maillages tels que les angles de tous les triangles
sont aigus.

ECP 2006-2007 210


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 211

8.2.2 Équation des ondes


Un problème modèle

On considère le problème des vibrations d’une membrane tendue (cf. (2.41))



∂2u
si x ∈ Ω

 ρ = σ∆u(x)
∂t2






u(x, t) = 0 si x ∈ Γ (8.40)
u(x, 0) = u0 (x) si x ∈ Ω





 ∂u

 (x, 0) = 0 si x ∈ Ω
∂t

Formulation semi-faible

On construit une formulation semi-faible comme nous l’avons fait pour l’équation de la diffusion
au paragraphe 8.2.1. Il vient

u ∈ C 2 (Ω × [0, T ]), u(x, .) ∈ V0





∂2u



 ∀v ∈ V0 ( 2 , v) + a(u, v) = 0


∂t (8.41)
u(x, 0) = u0 (x) si x ∈ Ω




 ∂u (x, 0) = 0 si x ∈ Ω



∂t
où nous avons posé
Z
a(u, v) = hσ ∇u, ∇vi dΩ

qui est une forme bilinéaire symétrique définie positive, et


Z
(u, v) = ρuv dΩ

On en déduit la propriété de conservation de l’énergie

∂ (u, u) a(u, u)
( + )=0
∂t 2 2

Semi-discrétisation en espace

On construit une semi-discrétisation en espace comme nous l’avons fait pour l’équation de la
diffusion au paragraphe 8.2.1, en prenant pour espace d’approximation

Vh = {v ∈ Wh / v|Γ = 0}

211 Mathématiques 2
212 Analyse des équations aux dérivées partielles



 uh (x, .) ∈ Vh
∂ 2 uh



 ∀v ∈ Vh ( 2 , v) + a(uh , v) = 0


∂t
(8.42)
uh (x, 0) = u0 (x) si x ∈ Ω




 ∂uh (x, 0) = 0 si x ∈ Ω



∂t
Le traitement des conditions de Dirichlet homogènes u|Γ = 0 se fait comme au paragraphe 7.3.1. En
choisissant d’éliminer les nœuds du bord on décompose uh dans la base wi
X
uh (x, t) = uj (t)wj (x)
j

en n’effectuant la somme que sur les nœuds intérieurs. En reportant cette expression dans (8.42) on
obtient un système différentiel linéaire du second ordre

d2 U


 M 2 + KU = 0


 dt
(8.43)

 U(0) = U0
 dU (0) = 0


dt
où la matrice K est la matrice de raideur, de coefficients
Z
Ki,j = a(wj , wi ) = σ∇wj · ∇wi dΩ

et la matrice M est la matrice de masse, de coefficients


Z
Mi,j = (wj , wi ) = ρcwi wj dΩ

les indices parcourant les nœuds intérieurs. Les matrices K et M sont symétriques définies positives
par construction et le système conserve donc l’énergie

1 dU dU 1
hM , i + hKU, Ui = Cte (8.44)
2 dt dt 2

Discrétisation en temps

On peut directement discrétiser le système différentiel (8.43) ou bien, comme au paragraphe 8.15,
réécrire se système sous la forme d’un système du premier ordre à 2N inconnues dans l’espace des
phases en introduisant le vecteur vitesse

dU(t)
V(t) =
dt

ECP 2006-2007 212


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 213

Il vient 
dU

 =V
dt




 dV = −M−1 K U



dt (8.45)





 U(0) = U0



 V(0) = 0

Ou encore en posant
X = (U, V)t ∈ R2N
il vient 
dX

 =AX
dt (8.46)
X(0) = (U0 , 0)t

où nous avons défini la matrice A par blocs


 
0 Id
A=
−M−1 K 0

On note hU, Vi le produit scalaire canonique sur RN et on définit sur R2N le produit scalaire

 X, Y = hKX1 , Y1 i + hMX2 , Y2 i (8.47)

où nous avons décomposé les vecteurs X = (X1 , X2 )t ∈ R2N et Y = (Y1 , Y2 )t ∈ R2N en deux
vecteurs de RN . Noter que le carré scalaire  X, X  n’est pas autre chose que l’énergie définie par
la formule (8.44). D’après la proposition 8, on peut prévoir que la matrice A est antisymétrique par
rapport au produit scalaire qui définit l’énergie, puisque les solutions de (8.46) conservent l’énergie :

Proposition 64 La matrice A est antisymétrique sur R2N pour le produit scalaire  X, Y .

Preuve
Par définition de A
AX = (X2 , −M−1 KX1 )t
L’antisymétrie de la matrice découle de la relation

 AX, X = hKX2 , X1 i + h−KX1 , X2 i = 0

puisque la matrice K est symétrique. ♦


On peut définir les schémas comme au paragraphe 8.1.2.

Analyse des schémas


Toute l’analyse du paragraphe 8.1.2 reste valide puisqu’elle repose sur le caractère antisymétrique
de la matrice A.

213 Mathématiques 2
214 Analyse des équations aux dérivées partielles

8.2.3 Analyse et extensions de la méthode des éléments finis

La méthode des éléments finis est en un certains sens plus générale que la méthode des diffé-
rences finies : si on considère des maillages réguliers on retrouve les approximations classiques par
la méthode des différences finies.

Par son principe même la méthode des éléments finis construit des matrices conservant les pro-
priétés des opérateurs différentiels et elle offre un traitement simple de conditions aux limites com-
plexes. Elle s’étend facilement au traitement de non linéarités.

Par son principe aussi elle permet un traitement systématique de l’erreur, au moins dans des si-
tuations pas trop compliquées, et surtout l’adaptation locale du pas du maillage pour améliorer ou
maintenir la précision.

La mise en œuvre de la méthode des éléments finis que nous avons présentée au chapitre 7 permet
de bien comprendre les avantages pratiques de cette méthode : le calcul des matrices peut être fait par
des programmes très généraux, faciles à modifier et pouvant traiter des géométries quelconques.

Il est cependant clair que si on discrétise sur des grilles on dispose d’informations plus précises
que l’on peut utiliser pour construire des schémas aux différences finies très performants.

Le principal défaut de la méthode vient de son principe même : dans la construction des approxi-
mations nous avons privilégié les propriétés de conservation globale. Cela convient bien à l’approxi-
mation des problèmes de diffusion, qui convergent vers un état limite, ou de dynamique où l’ingénieur
n’est pas intéressé par des valeurs ponctuelles mais par des grandeurs globales comme des fréquences
de vibration. Cela convient, a fortiori, à certains problèmes de dynamique (“crash”) où les forces
d’inertie sont secondaires et qui peuvent être traités comme une succession de problèmes de statique.
Mais cela ne convient pas du tout au traitement de problèmes de transport où des propriétés de conser-
vation locale sont essentielles notamment pour éviter la dispersion d’un signal localisé et ou le “local”
peut par transport avoir des conséquences globales.

8.3 Approximation des équations hyperboliques

L’approximation des problèmes hyperboliques, comme les problèmes de transport et de dyna-


mique des gaz, est un problème d’autant plus difficile que les phénomènes que l’on veut modéliser
sont souvent instables par leur nature physique8 . Nous allons nous limiter à un problème modèle qui
nous permettra de comprendre la première difficulté : le traitement des phénomènes de transport.

8
Il suffit de songer aux prévisions météorologiques...

ECP 2006-2007 214


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 215

8.3.1 Un problème modèle


L’équation d’advection ou de convection

L’équation d’advection modélise un simple phénomène de transport ou de convection : u(x, t)


représente une grandeur transportée par un fluide de vitesse a dans un tube de longueur L, u0 (x) est
l’état initial du tube, tandis que g(t) est l’état en entrée du tube, “entrée” devant être pris au sens de
l’écoulement, si a > 0 l’entrée est le point 0.
Soit a > 0 et u(x, t), x ∈ [0, L], t ∈ [0, T ] solution de

∂u ∂u

 ∂t + a ∂x = 0


 x ∈]0, L[, t ∈]0, T [
(8.48)


 u(x, 0) = u0 (x) x ∈]0, L[
u(0, t) = g(t) t ∈]0, T [

où g(t) ∈ C 1 ([0, L]). C’est une équation hyperbolique.


Rappelons la proposition 16 qui synthétise les (maigres !) propriétés de l’équation d’advection :

Proposition 65 La solution u(x, t) de (2.13) est définie par :

u(x, t) = u0 (x − at) si x ≥ at (8.49)


x
u(x, t) = g(t − ) si x ≤ at (8.50)
a

On notera que sans une condition de raccord en (0, 0) entre les données u0 (x) et g(t), la solution
peut faire un saut sur la droite x = at ce qui n’est pas cohérent avec la définition d’une équation aux
dérivées partielles... C’est l’un des nombreux problèmes que l’on rencontre en étudiant les équations
hyperboliques.
Par construction cette équation est équivalente à un principe de “conservation de la matière” : ce qui
entre à la vitesse (a, 1)t dans une partie quelconque de Ω en sort, autrement dit le flux du vecteur
u(x, t)(a, 1)t à travers un contour quelconque est nul.
L’analyse “énergétique” (cf. paragraphe 5.3.1) donne le résultat suivant
L L
u2 u2
Z Z
d ∂u
dx = − a u dx = −a[ ]L
dt 0 2 0 ∂x 2 0

et donc Z L
d
u2 dx + au(L, t)2 = ag(t)2 (8.51)
dt 0

On en déduit que si on effectue une perturbation localisée9 u → u + δu de la solution, l’énergie de la


perturbation δu est conservée tant que la perturbation ne touche pas les bords : c’est évident puisque
d’après (65) la solution est translatée.
9
i.e. δu est nulle en dehors d’un petit intervalle.

215 Mathématiques 2
216 Analyse des équations aux dérivées partielles

Caractéristiques et invariants

Rappelons (cf. chapitre 5) quelques propriétés des systèmes hyperboliques en général :


− Une perturbation localisée se propage à vitesse finie à l’intérieur d’un domaine qui contient les
courbes ou les surfaces caractéristiques.
− Une discontinuité des dérivées se propage le long des caractéristiques : notamment un système
hyperbolique n’est pas régularisant.
− Si le système est linéaire à coefficient constant et en une dimension d’espace, les caractéristiques
sont des droites. Le long de ces droites il existe des invariants : les invariants de Riemann.

Pour l’équation d’advection la propriété essentielle pour la suite est que les caractéristiques sont
les droites x − at = Cte et que sur ces droites la solution est constante.

Quelques difficultés de l’approximation des systèmes hyperboliques

1. Les problèmes elliptiques ou paraboliques ont une propriété très rassurante quand on construit
une approximation : les données, irrégularités ou perturbations locales n’ont qu’une influence
“locale”, c’est à dire négligeable à grande distance, même s’il est parfois difficile de quantifier
cela. Il est d’ailleurs fréquent d’utiliser des approximations par éléments finis localement très
fausses, par exemple parce qu’elles lissent des singularités ou du fait d’une simplification géo-
métrique brutale du modèle, sans conséquence sur la zone “intéressante” du calcul.
Dans les problèmes hyperboliques la conservation d’invariants sur les caractéristiques traduit
un phénomène de transport à longue distance, qui peut avoir avoir de grandes conséquences :
une tempête sur les côtes américaines peut créer une houle (ondes planes de l’équation des
ondes) qui peut traverser l’océan, atteindre les côtes européennes, puis se réfléchir sur diffé-
rentes parties de la côte et se focaliser en certains points pour créer localement des vagues
exceptionnellement hautes. Il faut donc construire des approximations qui non seulement sont
conservatives (l’énergie des vagues ne doit pas s’atténuer) mais en plus “non dispersives” (la
vague, si elle est courte et haute, ne doit pas s’étaler, se lisser). Et si en plus on veut déterminer
l’heure précise de la formation d’une vague exceptionnelle il faut que la vitesse de la vague
soit correctement calculée ! C’est essentiellement ce problème que nous allons aborder avec
l’approximation de l’équation d’advection.

2. Les problèmes elliptiques ou paraboliques sont régularisants : les seules discontinuités éven-
tuelles sont celles des données de l’équation. Non seulement ce n’est pas le cas pour les
problèmes hyperboliques, mais en plus les équations hyperboliques non linéaires font systé-
matiquement apparaître des chocs sur des temps longs et ces chocs se propagent et se réflé-
chissent... : la houle tranquille peut sous certaines conditions devenir une “déferlante”. Com-
ment construire des approximations qui modélisent des chocs ? L’approximation de fonctions
discontinues par des polynômes ou des séries de Fourier crée des oscillations locales ou lisse
les chocs selon les méthodes. Voir la séance d’exercices 8 pour la traitement de la plus simple
des équations non linéaires.

ECP 2006-2007 216


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 217

8.3.2 Approximation par la méthode des différences finies


Pour une étude plus complète voir [2] et [11].

Données et notations

On reprend les notations et les méthodes du paragraphe (8.1.2) pour construire des approximations
en espace et en temps.
Notations
L
− On divise l’intervalle [0, L] avec un pas h = N .
− On définit les points de de discrétisation de coordonnées (xj , tn ) = (jh, nτ ). On divise l’intervalle
[0, T ] avec un pas τ .
− On discrétise la solution en ne calculant les valeurs de la solution qu’aux points (xj , nτ ), les
autres valeurs pourront être interpolées. On note unj les valeurs ainsi calculées. Sur le bord x = 0,
un0 = g(tn ).
− On note
Un = (un1 , ..., unj , ..., unN )t

le vecteur des valeurs à calculer.

Approximation en espace

Pour obtenir une équation au point (xj ) qui soit une approximation de l’équation aux dérivées par-
tielles on remplace l’équation aux dérivées partielles exacte par une approximation obtenue (comme
au paragraphe 8.1.2) en approchant les dérivées exactes en espace par des différences finies. On note
uj (t) les valeurs approchées en xj au temps t et on pose U(t) = (u1 (t), ..., uj (t), ..., uN (t))t . On
obtient les approximations

duj uj+1 (t) − uj (t)
décentré à droite ou aval : = −a





 dt h
duj uj (t) − uj−1 (t)

décentré à gauche ou amont : = −a (8.52)

 dt h
uj+1 (t) − uj−1 (t)


 duj
 symétrique ou centré :
 = −a
dt 2h

Un développement limité montre que les deux premières approximations sont à h près, la troisième
à h2 près. Il est donc tentant de choisir des approximations centrées, nous verrons que ce n’est pas si
simple. Il faut aussi examiner le traitement des conditions au bord en x = 0, ou il faut imposer une
condition et en x = L où seule l’équation doit déterminer le schéma.
La solution exacte dépend des valeurs antérieures situées en amont de l’écoulement : cela permet
d’éliminer l’approximation décentrée à droite qui fait dépendre la dérivée des valeurs en aval10 .
L’approximation centrée pose un problème en x = L puisqu’elle fait intervenir un point extérieur ;
10
On vérifie facilement que les approximations en temps construites à partir de cette approximation en espace sont
instables et incohérentes avec les conditions aux limites

217 Mathématiques 2
218 Analyse des équations aux dérivées partielles

on remplace en ce point l’approximation centrée par l’approximation décentrée en amont.


On obtient finalement un système de N équations différentielles linéaires à N inconnues

dU

 + AU = b
dt (8.53)
U(0) = U0 = (u0 (x1 ), · · · , u0 (xj ), · · · , u0 (xN ))t

avec :
Approximation décentrée amont :
 
1 0 0 ... 0 0

 −1 1 0 ... 0 0  
a 0 −1 1 ... 0 0 
A=   (8.54)
h
 ... ... ... ... ... ... 

 0 0 0 ... 1 0 
0 0 0 ... −1 1

et
a
b= (g(t), ..., 0, ..., 0)t
h
Approximation centrée :
 
0 1 0 ... 0 0

 −1 0 1 ... 0 0  
a  0 −1 0 ... 0 0 
A=   (8.55)
2h 
 ... ... ... ... ... ... 

 0 0 0 ... 0 1 
0 0 0 ... −2 2

et
a
b= (g(t), ..., 0, ..., 0)t
2h

Analyse des approximations en espace


Approximation décentrée :
L’approximation décentrée ne respecte pas la propriété de conservation de l’énergie (8.51) discréti-
sée11 . Multiplions (8.53) scalairement par U

d
U, Ui = −hhAU, Ui + ag(t)2
hh
dt
d 1 1
h ( hU, Ui) = −hh (A + At )U, Ui + au1 g(t)
dt 2 2
La matrice (A + At ) n’est autre, à un facteur ah près, que la matrice K0 de la formule (8.10),
2
qui est la matrice obtenue par discrétisation de l’opérateur de diffusion − ddxu2 (comme ce terme joue
11
On discrétise l’intégrale
R L
u2 dx ∼ h
Pu 2
j = hhU, Ui.
0 j

ECP 2006-2007 218


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 219

formellement le même rôle que la viscosité dans les écoulements, il est souvent appelé viscosité
numérique). En utilisant l’expression (8.11), il vient
d X
h hU, Ui = −a( (uj − uj−1 )2 + u21 + u2N ) + 2au1 g(t)
dt
j
d X
h hU, Ui + au2N = −a( (uj − uj−1 )2 + u21 − 2au1 g(t))
dt
j
X
= −a( (uj − uj−1 )2 + (u1 − g(t))2 )) + ag(t)2
j

En comparant avec (8.51) nous voyons apparaître une dissipation


X
−a( (uj − uj−1 )2 + (u1 − g(t))2 ))
j

Noter que
uj (t) − uj−1 (t) ∂u ah ∂ 2 u
a = a (xj , t) − (uj , t) + O(h2 ) (8.56)
h ∂x 2 ∂x2
L’erreur d’approximation fait apparaître au premier ordre la dérivée seconde, i.e. un terme de dissipa-
tion (ou de viscosité) que nous avons retrouvé ci-dessus. Plus précisément l’expression (8.56) montre
que l’approximation décentrée approche à h2 près l’équation
∂u ∂u ah ∂ 2 uj
+a =
∂t ∂x 2 ∂x2
ah
qui est une équation de convection diffusion avec un coefficient de diffusion 2 .

Proposition 66 L’approximation décentrée est dissipative. La dissipation équivaut à un terme de


diffusion de coefficient ah
2 . La dissipation diminue avec le pas mais elle est d’autant plus importante
que les variations de la fonction sont grandes : l’approximation décentrée lisse les chocs.
Approximation centrée :
Avec l’approximation centrée, la matrice A est “presque” antisymétrique, ce qui annule la dissipation
sauf sur le bord. Le même calcul que pour l’approximation décentrée conduit à
d
h hU, Ui + au2N = −(auN (uN − uN −1 ) + a(u1 − g(t))g(t)) + ag(t)2
dt
En comparant avec (8.51), cette expression met en évidence des variations d’énergie sur les bords
mais avec un signe quelconque.

Approximation en temps
On utilise les formules analogues à (8.52) pour approcher la dérivée en temps ce qui conduit à
un schéma explicite ou implicite ou encore, en utilisant l’approximation centrée en temps, un schéma
“saute mouton”12 à deux pas. Nous allons analyser quelques exemples de schémas .
12
ou leap frog, en anglais...

219 Mathématiques 2
220 Analyse des équations aux dérivées partielles

Schéma d’Euler explicite décentré amont ou schéma de Lax


Le schéma s’écrit
un+1
j − unj unj − unj−1
+a =0
τ h
D’où la récurrence
unj − unj−1 aτ n aτ n
un+1 = unj − aτ = (1 − )u + u (8.57)
j
h h j h j−1
L’ordre de consistance (cf. paragraphe 8.1.4) est en O(h + τ ) .
Schéma d’Euler explicite centré
Le schéma s’écrit
un+1
j − unj unj+1 − unj−1
+a =0
τ 2h
D’où la récurrence
unj+1 − unj−1
un+1
j = u n
j − aτ (8.58)
2h
L’ordre de consistance (cf. paragraphe 8.1.4) est en O(h2 + τ ).
Schéma d’Euler implicite centré
Le schéma s’écrit
un+1
j − unj un+1 n+1
j+1 − uj−1
+a =0
τ 2h
D’où la récurrence implicite
aτ n+1
un+1
j + (u − un+1 n
j−1 ) = uj (8.59)
2h j+1
L’ordre de consistance (cf. paragraphe 8.1.4) est en O(h2 + τ ).
Schéma saute-mouton centré
Le schéma s’écrit
un+1
j − ujn−1 unj+1 − unj−1
+a =0
2τ 2h
D’où la récurrence à deux pas
aτ n
un+1 = ujn−1 + (u − unj−1 ) (8.60)
j
h j+1
L’ordre de consistance (cf. paragraphe 8.1.4) est en O(h2 + τ 2 ).

Analyse de ces schémas


La solution exacte en un point (xj , tn ) ne dépend que des valeurs antérieures sur la caractéristique
passant par ce point, qui est ici la droite (x − xj ) = a(t − tn ). La solution calculée numériquement
par un des schémas explicites du paragraphe précédent dépend de l’ensemble de valeurs antérieures
en des points situés dans un secteur angulaire, appelé cône de dépendance numérique (voir fig. 8.6 et
8.7), défini par
h
|x − xj | ≤ |t − tn |
τ

ECP 2006-2007 220


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 221

pour le schéma centré, avec en plus x ≤ xj pour le schéma décentré amont. Si le cône de dépendance
numérique ne contient pas la caractéristique passant par le point (x, t) la solution calculée ne dépend
pas des mêmes valeurs que la solution exacte, le schéma est absurde (en pratique le schéma s’avère
instable). Pour le schéma décentré amont et le schéma centré, le cône de dépendance numérique
contient la caractéristique si hτ ≥ a, c’est à dire si on a la condition C.F.L.

≤1 (8.61)
h

((j+1)h,nτ)

(jh,nτ)

h ((j-1)h,nτ)

t
τ

F IG . 8.6 – Cône de dépendance numérique pour le schéma décentré amont

((j+1)h,nτ)

(jh,nτ)

h ((j-1)h,nτ)

t
τ

F IG . 8.7 – Cône de dépendance numérique pour le schéma centré

Cette condition nécessaire n’est cependant pas suffisante pour rendre le schéma stable. Analysons
quelques exemples de schémas explicites.
Schéma d’Euler explicite décentré en amont :
La récurrence s’écrit
aτ n aτ n
un+1 = (1 − )u + u (8.62)
j
h j h j+1
Si la condition C.F.L. est vérifiée la nouvelle valeur un+1
j est une moyenne des anciennes, donc
n+1 n
supj |uj | ≤ supj |uj |.

221 Mathématiques 2
222 Analyse des équations aux dérivées partielles


Proposition 67 Sous la condition C.F.L. h ≤ 1 le schéma d’Euler explicite décentré en amont est
stable en norme infinie.

Schéma d’Euler explicite centré :


La récurrence s’écrit
aτ n
un+1 = unj + (u − unj−1 ) (8.63)
j
2h j+1
Analysons de la stabilité au sens de Von Neumann (cf. paragraphe 8.1.5), en étudiant les solutions
particulière de la forme unj = ξ n exp (2iπjkh) ; il vient

ξ n+1 = ξ n (1 + i sin (2πkh))
h
ce qui donne un facteur d’amplification G(h, τ ) = 1 + i aτ
h sin (2πkh). On a toujours |G(h, τ )| > 1,
donc

Proposition 68 Le schéma d’Euler explicite centré en espace est toujours instable.

Schéma saute-mouton centré en espace :


La récurrence s’écrit13
aτ n
un+1 = ujn−1 + (u − unj−1 ) (8.64)
j
h j+1
L’analyse de la stabilité au sens de Von Neumann donne
2aτ
ξkn+1 − i( sin (2πkh))ξkn − ξkn−1 = 0
h
Les racines caractéristiques de cette récurrence sont les zéros de
2aτ
x2 − i( sin (2πkh))x − 1 = 0
h
qui a pour discriminant ∆ = 1 − ( aτ 2
h sin(2πkh)) . On vérifie facilement que si la condition C.F.L. est
vérifiée le discriminant est réel et les racines sont complexes de module 1 et que sinon la demi-somme
des racines est en module supérieur à 1 pour 2kh ∼ 1, les harmoniques hautes fréquences sont donc
instables.

Proposition 69 Le schéma saute-mouton est stable sous la condition C.F.L..

Mais ce schéma est à deux pas et il est à la limite de la stabilité puisque les coefficient d’amplification
sont de module 1.
Schéma d’Euler implicite centré
A priori les schémas implicites ne sont pas soumis à la condition C.F.L.. Voyons un exemple d’intérêt
d’un schéma implicite en étudiant la stabilité du schéma d’Euler implicite centré (8.59)
aτ n+1
un+1
j + (u − un+1 n
j−1 ) = uj
2h j+1
13
Elle a la curieuse propriété que les valeurs telles que j + n est pair se calculent indépendamment des valeurs telles
j + n est impair : un n
j et uj+1 sont donc calculées de façon totalement indépendante !

ECP 2006-2007 222


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 223

Il vient

ξ n+1 (1 − i sin (2πkh)) = ξ n
h
ce qui donne un facteur d’amplification (ou plutôt d’amortissement)

1
G(h, τ ) = (8.65)
1+ i aτ
h sin (2πkh)

On a toujours |G(h, τ )| < 1, donc

Proposition 70 Le schéma d’Euler implicite centré en espace est toujours stable.

Mais il est très dissipatif (voir fig. 8.8) puisque les hautes fréquences (k = N − 1) ont un facteur
d’amortissement de l’ordre q 1 aτ 2 en module.
1+
h2

1.2

0.8

0.6

0.4

0.2

−0.2
0 1 2 3 4 5 6 7 8 9 10

F IG . 8.8 – Schéma centré implicite : aplatissement de la gaussienne initiale (Doc. J.H. Saïac)

0.9

0.8

0.7

0.6

0.5

0.4

0.3

0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10

F IG . 8.9 – Schéma de Lax-Friedrichs : aplatissement de la gaussienne initiale (Doc. J.H. Saïac).

223 Mathématiques 2
224 Analyse des équations aux dérivées partielles

1.2

0.8

0.6

0.4

0.2

−0.2
0 1 2 3 4 5 6 7 8 9 10

F IG . 8.10 – Schéma de Lax-Wendroff : la gaussienne initiale se conserve à peu près, mais on note
l’apparition d’oscillations et la perte de positivité (Doc. J.H. Saïac).

Amélioration des schémas


Construction de schémas stables
C’est la propriété de transport le long des caractéristiques qui rend stables les équations hyperbo-
liques. Nous allons construire un schéma en cherchant à respecter au mieux cette propriété. On sup-

((j+1)h,nτ)

A
(jh,nτ) (jh,(n+1)τ)

G
B
x
((j-1)h,nτ)

t
τ

F IG . 8.11 – Points de calcul pour le schéma décentré amont et caractéristique de pente a

pose vérifiée la condition C.F.L : τha ≤ 1. On considère la droite caractéristique passant par le point
(jh, (n + 1)τ ). Elle coupe la droite t = nτ en un point G situé entre les points A = (jh, nτ ) et
B = ((j + 1)h, nτ ) (voir fig. 8.11). On définit une valeur approchée uG de u au point G par interpo-
lation linéaire entre les valeurs unj en A et unj−1 en B. Comme les valeurs de u(x, t) sont constantes
sur les caractéristiques on définit un+1
j
AG
= uG . On a AB = aτ aτ aτ
h et donc G = (1 − h )A + h B. On en
déduit par interpolation linéaire
aτ n aτ n
uG = (1 − )u + u
h j h j−1
D’où
aτ n aτ n
un+1 = uG = (1 − )u + u
j
h j h j−1

ECP 2006-2007 224


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 225

On retrouve le schéma décentré amont.

En utilisant la même idée, mais de façon plus symétrique, en calculant la valeur au point G par
interpolation entre les points A = ((j − 1)h, nτ ) et B = ((j + 1)h, nτ ) (voir fig. 8.12), on obtient le
schéma Lax Friedrichs

A
((j+1)h,nτ)

(jh,nτ) (jh,(n+1)τ)

G
B
x
((j-1)h,nτ)

t
τ

F IG . 8.12 – Points de calcul pour le schéma de Lax-Friedrichs et caractéristique de pente a

1 aτ n aτ n
un+1 = uG = ((1 − )uj+1 + (1 + )u )
j
2 h h j−1
qui se réécrit, avec une interprétation plus naturelle

un n
j−1 +uj+1
un+1
j − 2 unj+1 − unj−1
+a =0
τ 2h

Comme le schéma de Lax, le schéma est stable sous la condition C.F.L. par construction puisque l’in-
terpolation implique la décroissance en norme infinie. Il est plus précis que le schéma de Lax puisque
son ordre de consistance est O(τ + h2 ). Il ressemble au schéma explicite centré (8.58), instable, mais
un +un
nous l’avons rendu stable en remplaçant unj par j−1 2 j+1 .
Remarque : c’est l’interpolation linéaire entre deux valeurs qui rend dissipatifs les schémas construits
par cette méthode. Elle a en outre la propriété de créer des schémas qui respectent la positivité : Si
les valeurs initiales de la solution sont positives, elles restent positives comme dans l’équation exacte
(voir fig. 8.9).

Schémas plus consistant


Construire des schémas plus consistant permet aussi de diminuer la viscosité numérique. Considérons
le schéma explicite centré (instable)

un+1
j − unj unj+1 − unj−1
+a =0
τ 2h

225 Mathématiques 2
226 Analyse des équations aux dérivées partielles

Son ordre de consistance est en O(τ + h2 ). Un développement limité montre plus précisément que ce
schéma approche en O(h2 + τ 2 ) l’équation

∂u τ ∂ 2 u ∂u
+ +a =0
∂t 2 ∂t2 ∂x
Or l’équation d’advection implique
∂2u 2
2∂ u
= a
∂t2 ∂x2
donc, le schéma centré approche en O(h2 + τ 2 ) l’équation

∂u ∂u a2 τ ∂ 2 u
+a + =0
∂t ∂x 2 ∂x2
2 2
Nous faisons apparaître ainsi la cause de l’instabilité du schéma : du fait de son signe le terme a2τ ∂∂xu2
est l’opposé d’une dissipation ! En l’éliminant on améliore a priori la consistance et la stabilité. On
peut l’éliminer soustrayant au premier membre une approximation en espace de ce terme

τ ∂2u a2 τ n
∼ (u − 2unj + unj−1 )
2 ∂t2 2h2 j+1
Donc, par construction, le schéma de Lax-Wendroff

un+1
j − unj unj+1 − unj−1 a2 τ n
+a − 2 (uj+1 − 2unj + unj−1 ) = 0
τ 2h 2h
a une consistance en O(h2 + τ 2 ). On montre que ce schéma est stable au sens de Von Neumann
(cf. paragraphe 8.1.5) si la condition C.F.L. (8.61) est vérifiée. Mais ce schéma fait apparaître des
oscillations non physiques sur les chocs (voir fig. 8.10).

Analyse des méthodes de différences finies


Dispersion numérique
Le phénomène physique que l’on veut modéliser est le transport le long des caractéristiques. Que
sont devenues dans l’approximation les droites sur lesquelles se propagent des invariants ? Elles ont
disparu ! Si on considère par exemple une fonction initiale u0 (x) dont le graphe est en forme de cha-
peau sur un intervalle [(j − 1)h, (j + 1)h], cette fonction est transportée sans déformation le long des
caractéristiques dans l’équation exacte. Dans l’approximation sur une grille, cette fonction est repré-
sentée par un vecteur initial tel que uj 6= 0 et ui = 0 si i 6= j. Avec, par exemple, le schéma explicite
décentré toutes les valeurs (unj , ..., unj+n ) sont non nulles. Avec les schémas implicites, dès le premier
pas de calcul toutes les valeurs sont non nulles. Avec un schéma centré cette dispersion numérique
fait dépendre la solution de valeurs en aval ce qui n’est pas physique et doit donc être corrigé. Si le
schéma converge quand les pas tendent vers 0 cette dispersion devient négligeable. Mais il y a tou-
jours une “dispersion numérique” inhérente à la méthode des différences finies ou, plus précisément,
à l’utilisation d’une grille fixe.

ECP 2006-2007 226


CHAPITRE 8. L’APPROXIMATION DES PROBLÈMES D’ÉVOLUTION 227

Stabilité
Une bonne approximation des phénomènes de transport implique de construire des méthodes nu-
mériques conservatives ; nous avons vu que les schémas de faible précision étaient ou instables ou
diffusifs. Mais les approximations d’ordre plus élevé et stables créent des oscillations sur les chocs.
Une analyse de Fourier permet de comprendre pourquoi : les schémas dissipatifs (Euler implicite
centré) amortissent les harmoniques hautes fréquences qui n’ont qu’un poids faible dans la décom-
position d’une fonction régulière. Les schémas conservatifs les laissent passer mais si on décompose
une fonction discontinue en séries de Fourier, les coefficients des hautes fréquences sont non négli-
geables et ces harmoniques apparaissent dans l’approximation. La solution générale pour stabiliser
des oscillations sans amortissement global est d’introduire de la diffusion (ou viscosité numérique)
juste là où c’est nécessaire.

Quelques extensions

Ce paragraphe se résume à quelques indications sur l’extension des principes que nous avons étu-
diés à des problèmes hyperboliques plus complexes que l’équation d’advection.
Équations plus générales à une variable d’espace
Le traitement d’une vitesse de transport a = a(x) variable n’a aucune conséquence sur les schémas
centrés et implique de définir le sens du décentrement vers l’amont pour les schémas décentrés. Le
respect de la condition C.F.L. sur une grille peut être très contraignant si la vitesse ne varie que très
localement.
Le traitement des systèmes hyperboliques linéaires à une variable d’espace est plus complexe :
− La construction des schémas par propagation d’invariants sur les caractéristiques (cf. paragraphe
5.3.1) se généralise par une décomposition locale sur une base de vecteurs propres, qui ramène l’in-
tégration à l’intégration sur un pas des équations d’advection.
− Le principe de décentrement admet diverses généralisations dont les “schémas de Roe”.
− Le traitement des problèmes non linéaires peut se faire par linéarisation locale ou par une méthode
d’intégration de solutions constantes par morceaux (“problème de Riemann”) qui sort du cadre de ce
cours. Voir l’exemple très simple de la séance 8.
Équations à plusieurs variables d’espace
− Diverses méthodes décomposent le problème de manière à se ramener à des problèmes à une va-
riable d’espace, d’où l’importance de ces problèmes.
− La présence de géométries complexes oblige à abandonner l’utilisation de grilles et à construire des
schémas sur des maillages non structurés en triangles ou en tétraèdres. Il faut étendre les méthodes
de calcul à ces maillages. La méthode des volumes finis repose sur l’utilisation, quand elles existent,
des lois de conservation équivalentes aux équations aux dérivées partielles (conservation de la masse,
de l’énergie, de la quantité de mouvement), combinée avec des approximation aux différences finies
pour évaluer les flux aux interfaces des éléments. Voir [5].
− La vérification de la condition C.F.L., quand les vitesses sont très variables, et le traitement des
chocs donnent un grand intérêt à l’utilisation de maillages adaptatifs qui suivent les écoulements et
s’adaptent aux chocs ; c’est une solution d’avenir qui est l’objet d’intenses recherches.

227 Mathématiques 2
228 Analyse des équations aux dérivées partielles

8.3.3 Conclusion
Pour traiter des problèmes d’élasticité, de thermique ou d’électromagnétisme on peut utiliser des
logiciels d’éléments finis plus ou moins efficaces mais qui, avec quelques précautions, conduisent
presque toujours à une solution raisonnable, laissant quand même à l’utilisateur le soin de juger de
la pertinence de son modèle et de la qualité des approximations. Ce qui permet à certains de vendre,
un peu aventureusement, des logiciels où il suffirait d’un “clic” pour visualiser le comportement phy-
sique d’une maquette numérique.

Le traitement des équations hyperboliques, notamment des écoulements de fluides compressibles,


ne permet pas ce genre d’annonces : entre les résultats aberrants, les messages d’erreurs pour cause
de “non convergence” ou de “pas trop petit”, et les journées de calculs qui ne progressent guère,
l’utilisateur aura vite compris que le sujet demande des compétences que ce cours n’a certainement
pas permis d’acquérir. Ce court exposé des bases et des difficultés de la simulation des problèmes
d’évolution n’est malheureusement pas suffisant pour comprendre la richesse mathématique de la
modélisation et de la simulation d’un simple écoulement d’eau autour d’un rocher. Espérons avoir
donné l’envie à certains d’explorer un sujet d’étude en plein développement...

ECP 2006-2007 228


Bibliographie

[1] On trouvera des liens et une bibliographie sur "www.etudes.ecp.fr", rubrique "Mathématiques
2" .
[2] B. Mohammadi, J.H. Saiac, Pratique de la simulation numérique, Dunod, 2003.
[3] P.J. Frey, P.L. George, Maillages, Hermes, 1999.
[4] D. Aubry, Mécanique des milieux continus, Cours de l’Ecole Centrale Paris, 2006.
[5] E.Godlewski, P.A. Raviart, Numerical approximations of conservation hyperbolic systems of
conservation laws, Springer Verlag, 1994.
[6] G. Dhatt, G. Touzot La méthode des éléments finis, Hermes, 1992.
[7] J.L. Batoz,G. Dhatt, Modélisation des structures par éléments finis, Hermes, 1992.
[8] W. Press,S. Teutolsky, W. Vetterling, P. Flannery, Numerical Recipes in C, 2e éd., Cambridge,
1992.
[9] P. Laurent-Gengoux et D. Trystram, Comprendre l’informatique numérique, Tec et Doc, Lavoi-
sier Edition, Paris : 1989
[10] J.F. Imbert, Analyse des structures par éléments finis, Cepadues, 1984.
[11] R. Dautray, J.L. Lions, Analyse mathématique et calcul numérique pour les sciences et les tech-
niques, Masson, 1984.
[12] P.G. Ciarlet, The Finite Element Method for Elliptic Problems , Northholland, 1978.
[13] J. Bass, Cours de mathématique, Masson, 1961.

229
Index

éléments, 158 (surface), 89


énergie potentielle, 26 caractéristiques (droites), 45
énergie potentielle totale, 23 chemin de chargement, 17
équation choc (ondes de choc), 45
d’advection, 32 condensation de masse (technique de), 210
d’Euler incompressibles, 43 condition
d’Euler-Lagrange, 71, 74, 95 C.F.L., 221
de convection réaction diffusion, 38 conditionnement, 13
de la diffusion, 29, 185 conditions
de la diffusion avec rayonnement, 40 aux limites homogènes, 28, 92
de la dynamique des gaz, 44 de Cauchy, 27
de Navier-Stokes, 42 de Dirichlet, 92
de Poisson, 25 de Neumann, 92
de Stokes, 43 consistance, 152, 197
des ondes, 45, 186 couches limites, 43
dispersive, 116 critère
elliptique, 94 de Von Neumann, 204
caractéristique, 83
des ondes, 33 différences finies, 150, 186
elliptique, 85 Dirac, 30
hyperbolique, 85 distribution
de Dirac, 140
action lagrangienne, 23 distributions
application (au sens des), 67, 143
monotone, 15 (théorie des), 139
uniformément monotone, 15 périodiques, 140

bifurcation, 18 espace
d’énergie finie, 146
cône de dépendance numérique, 220 de Sobolev, 146
calcul des variations, 23, 69
caractéristique flambement, 41, 108
(forme quadratique), 93 fonctions
(système), 121 à support compact, 139
caractéristiques analytiques, 79
(courbes), 83, 121 continues affines par morceaux, 159
(droites), 32, 34, 127 continues dérivables par morceaux, 158

230
INDEX 231

de Green, 64 ondes planes, 35, 115


harmoniques, 26 opérateur
propres, 35 (ordre de l’), 49
tests, 66 à coefficients constants, 49
formulation elliptique, 86
faible, 66, 101, 147, 150, 153 hyperbolique, 86
semi-faible, 208, 211 parabolique, 86
variationnelle, 66 elliptique, 89
formule homogène, 49
de Green, 11 opérateur (symbole de), 49
de Stokes, 11
petites déformations, 40
Hadamard Poincaré
(Contre-exemple d’), 81 (inégalité de), 147
harmonique, 35, 60 (lemme de), 15
principe
intégrale première, 121 de superposition, 59
invariants de Riemann, 34, 128 du maximum, 27, 31
irrotationnel, 43 du minimum, 23, 26
lagrangien, 23 problème
lemme à valeurs initiales, 19
de Poincaré, 15 de Cauchy, 19, 113
lois mal posé, 81
d’équilibre, 22 de Cauchy, 83
de conservation, 22, 44 problème aux limites, 25
problème de
méthode Poisson, 25
de Ritz-Galerkin, 68, 153 problème de Cauchy, 80
des volumes finis, 227 propriété de la moyenne, 26
du gradient conjugué, 13
incrémentale, 17 résonance, 62
multigrille, 152 schéma
spectrale, 157 à 5 points, 151
méthodes asymptotiquement stable, 200
d’éléments frontières, 65 d’Euler explicite, 190
intégrales, 65 d’Euler explicite centré, 220
maillage, 158 d’Euler explicite décentré amont, 220
matrice d’Euler implicite, 191
définie positive, 12 d’Euler implicite centré, 220
de masse, 209, 212 de Lax, 220
de raideur, 156, 212 de Lax-Friedrichs, 225
noeuds, 150, 158 de Lax-Wendroff, 226
des trapèzes ou de Crank-Nicholson, 191
ondes de chocs, 44 fortement stable, 200

231 Mathématiques 2
232 Analyse des équations aux dérivées partielles

saute mouton centré, 220


stable, 200
solutions fondamentales, 64
stabilité, 153, 197
conditionnelle, 197
subsonique
(écoulement), 129
supersonique
(écoulement), 129
système
d’Euler incompressible, 43
de l’élasticité, 40
de Navier Stokes, 42
de Stokes, 43
elliptique, 95
hyperbolique, 125
hyperbolique non linéaire, 44
Kovalevskien, 80, 114
hyperbolique, 81
système différentiel
conservatif, 20
dissipatif, 20

théorème
de Brouwer, 14
de Cauchy-Kovalevska, 78, 80, 114
de Lax-Milgram, 144
de Riesz, 145
tourbillons, 43
triangulation, 158
triangulation de Delaunay, 182
turbulence, 43

vecteur tourbillon, 43
viscosité numérique, 219
vitesse du son, 44

ECP 2006-2007 232

Vous aimerez peut-être aussi