Vous êtes sur la page 1sur 104

Méthodes et Analyse Numériques

Eric Goncalvès da Silva

To cite this version:


Eric Goncalvès da Silva. Méthodes et Analyse Numériques. Engineering school. Institut Polytechnique de
Grenoble, 2007, pp.99. <cel-00556967>

HAL Id: cel-00556967


https://cel.archives-ouvertes.fr/cel-00556967
Submitted on 18 Jan 2011
HAL is a multi-
disciplinary open access
archive for the deposit
and dissemination of
scientific research
documents, whether they
are published or not. The
documents may come
from teaching and
research institutions in
France or abroad, or from
public or private research
centers.
L’archive ouverte
pluridisciplinaire HAL,
est destinée au dépôt et à
la diffusion de documents
scientifiques de niveau
recherche, publiés ou
non, émanant des
établissements
d’enseignement et de
recherche français ou
étrangers, des
laboratoires publics ou
privés.
INSTITUT POLYTECHNIQUE DE GRENOBLE

METHODES, ANALYSE ET CALCULS


NUMERIQUES

Eric GoncalvŁs - septembre 2005


i

Table des matiŁres


I MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE 1

I.1 Qu’est-ce qu’un modŁle? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

I.2 Pourquoi faut-il modØliser? .............................. 1

I.3 Quels sont les di Ørents modŁles? . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

I.4 De la modØlisation la simulation numØrique .................... 2

I.5 Aspect ni des ordinateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

I.5.1 ReprØsentation des entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

I.5.2 ReprØsentation des rØels ou nombres ottants . . . . . . . . . . . . . . . . 2

I.6 Notion de stabilitØ ................................... 3

I.6.1 StabilitØ d’un problŁme physique : systŁme chaotique . . . . . . . . . . . . 3

I.6.2 StabilitØ d’un problŁme mathØmatique : sensibilitØ ............. 3

I.6.3 StabilitØ d’une mØthode numØrique . . . . . . . . . . . . . . . . . . . . . . 4

I.7 Un peu d’histoire... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

I.7.1 Avant les ordinateurs : les calculateurs . . . . . . . . . . . . . . . . . . . . 4

I.7.2 Les ordinateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

I.7.3 Petite chronologie ............................... 7

II DISCRETISATION DES EDP 9

II.1 LES TROIS GRANDES FAMILLES DE METHODES . . . . . . . . . . . . . . . 9

II.2 LES DIFFERENCES FINIES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

II.2.1 Principe - ordre de prØcision . . . . . . . . . . . . . . . . . . . . . . . . . . 10

II.2.2 Notation indicielle - cas 1D . . . . . . . . . . . . . . . . . . . . . . . . . . 10

II.2.3 SchØma d’ordre supØrieur . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

II.2.4 DØrivØe d’ordre supØrieur . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

II.2.5 GØnØralisation de la notation indicielle . . . . . . . . . . . . . . . . . . . . 12

II.2.6 Quelques schØmas en 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

II.2.7 DØrivØes croisØes ................................ 12


II.2.8 Exemple simple 1D avec conditions de Dirichlet . . . . . . . . . . . . . . . 13

II.2.9 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann . . . . . . . 14

II.2.10 DiscrØtisation de l’Øquation de la chaleur 1D . . . . . . . . . . . . . . . . . 15

II.2.10.1 SchØma explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

II.2.10.2 SchØma implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

II.2.11 DiscrØtisation de l’Øquation de la chaleur 2D stationnaire . . . . . . . . . . 17

ii Table des matiŁres


II.3 LES VOLUMES FINIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

II.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20

II.3.2 Volumes Finis pour une loi de conservation ................. 20

II.3.2.1 Cas monodimensionnel ....................... 21

II.3.2.2 Cas bidimensionnel ......................... 23

II.3.3 Exemple simple 1D avec conditions de Dirichlet . . . . . . . . . . . . . . . 24

II.3.4 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann . . . . . . . 27

II.3.5 DiscrØtisation de l’Øquation de la chaleur 1D . . . . . . . . . . . . . . . . . 28

II.3.6 DiscrØtisation de l’Øquation de la chaleur 2D stationnaire . . . . . . . . . . 29

II.4 LES ELEMENTS FINIS EN 1D ........................... 32

II.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

II.4.2 Exemple simple 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

II.4.2.1 Choix des fonctions φi : les ØlØments nis . . . . . . . . . . . . . 33

II.4.2.2 Bilan ................................. 35

II.5 APPLICATION NUMERIQUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

II.6 CONSISTANCE, CONVERGENCE ET STABILITE . . . . . . . . . . . . . . . . 37

IIICLASSIFICATION DES EDP D’ORDRE 2 39

III.1 CLASSIFICATION DES EDP LINEAIRES D’ORDRE 2 ............. 39

III.2 EQUATIONS ELLIPTIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

III.3 EQUATIONS PARABOLIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

III.4 EQUATIONS HYPERBOLIQUES .......................... 40

III.4.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

III.4.2 Equations types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

III.4.3 CaractØristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

III.4.3.1 CaractØristiques pour les Øquations du premier type ....... 41


III.4.3.2 CaractØristiques pour l’Øquation de convection .......... 42

III.4.3.3 CaractØristiques pour un systŁme de lois de conservation . . . . . 43

III.4.4 Domaines de dØpendance et d’in uence . . . . . . . . . . . . . . . . . . . . 44

III.4.5 Forme conservative et non-conservative . . . . . . . . . . . . . . . . . . . . 45

III.4.6 DiscontinuitØ - relation de saut . . . . . . . . . . . . . . . . . . . . . . . . 46

IV RESOLUTION DES EDO 47

IV.1 DEFINITION DES EDO ............................... 47

IV.2 RAPPEL - SOLUTIONS D’EDO SIMPLES . . . . . . . . . . . . . . . . . . . . . 48

IV.3 LE PROBLEME DE CAUCHY . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

IV.4 PRINCIPE GENERAL DES METHODES NUMERIQUES ............ 49

IV.5 PROPRIETES DES METHODES NUMERIQUES . . . . . . . . . . . . . . . . . 49

IV.6 LES PRINCIPALES METHODES NUMERIQUES . . . . . . . . . . . . . . . . . 50

IV.7 METHODES A UN PAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

IV.7.1 MØthodes d’Euler explicite et implicite . . . . . . . . . . . . . . . . . . . . 51

IV.7.2 MØthode d’Euler amØliorØ . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

Table des matiŁres iii

IV.7.3 MØthode d’Euler-Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

IV.7.4 MØthode de Crank-Nicholson ......................... 52

IV.7.5 MØthodes de Runge et Kutta . . . . . . . . . . . . . . . . . . . . . . . . . 52

IV.7.5.1 Forme gØnØrale des mØthodes de Runge et Kutta . . . . . . . . . 53

IV.7.5.2 MØthodes de Runge et Kutta implicites . . . . . . . . . . . . . . 54

IV.7.5.3 Application un systŁme . . . . . . . . . . . . . . . . . . . . . . 55

IV.8 METHODES A PAS MULTIPLES . . . . . . . . . . . . . . . . . . . . . . . . . . 56

IV.8.1 MØthode de Nystrom ou saute-mouton . . . . . . . . . . . . . . . . . . . . 56

IV.8.2 MØthodes d’Adams-Bashforth-Moulton . . . . . . . . . . . . . . . . . . . . 56

IV.8.3 MØthodes de Gear ............................... 58

IV.9 LES DIFFERENCES FINIES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

IV.10CONDITION DE STABILITE ............................ 59

V RESOLUTION DES SYSTEMES LINEAIRES 61

V.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

V.2 PIVOT DE GAUSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

V.2.1 Triangularisation de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 62


V.2.2 Coßt de la mØthode .............................. 63

V.2.3 Pivot nul et choix du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . 63

V.3 FACTORISATION LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63

V.4 FACTORISATION DE CHOLESKY . . . . . . . . . . . . . . . . . . . . . . . . . 64

V.5 FACTORISATIONS DE HOUSEHOLDER ET QR . . . . . . . . . . . . . . . . . 64

V.5.1 Transformation de Householder . . . . . . . . . . . . . . . . . . . . . . . . 64

V.5.2 Triangularisation de Householder . . . . . . . . . . . . . . . . . . . . . . . 64

V.5.3 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

V.6 METHODES ITERATIVES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

V.6.1 MØthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

V.6.2 MØthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

V.6.3 MØthode de Gauss-Seidel avec sur- ou sous-relaxation . . . . . . . . . . . 67

V.6.4 Condition de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

V.7 METHODE DU GRADIENT CONJUGUE . . . . . . . . . . . . . . . . . . . . .68

V.7.1 L’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

V.7.2 Coßt de la mØthode .............................. 69

V.8 GRADIENT CONJUGUE PRECONDITIONNE .................. 69

V.8.1 L’algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

V.8.2 Comparaison avec Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . 70

VI RESOLUTION DES SYSTEMES NON LINEAIRES 71

VI.1 EQUATIONS NON LINEAIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

VI.1.1 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

VI.1.2 MØthode du point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

VI.1.3 MØthode de Newton .............................. 73

iv Table des matiŁres


VI.1.4 MØthode de la parallŁle ............................ 74

VI.1.5 MØthode de la sØcante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

VI.1.6 MØthode de Ste ensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

VI.1.7 Racines de polyn mes ............................. 75

VI.1.7.1 RØduction polynomiale ....................... 75

VI.1.7.2 MØthode de Bairstow ........................ 75

VI.2 SYSTEMES D’EQUATIONS NON LINEAIRES .................. 76


VIIINTERPOLATION ET APPROXIMATION 79

VII.1GENERALITES .................................... 79

VII.1.1Le problŁme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

VII.1.2Les 3 grandes classes d’approximation fonctionnelle . . . . . . . . . . . . . 79

VII.1.3Les 3 grandes familles de fonctions approximantes ............. 79

VII.2INTERPOLATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

VII.2.1Le thØorŁme de Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . 80

VII.2.2MØthode de Lagrange ............................. 80

VII.2.3MØthode de Neville-Aitken .......................... 80

VII.2.4MØthode de Newton .............................. 80

VII.2.5MØthode de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

VII.2.6Interpolation par morceaux - spline cubique . . . . . . . . . . . . . . . . . 81

VII.2.7Limites de l’interpolation polyn miale .................... 82

VII.3APPROXIMATION .................................. 82

VII.3.1Approximation rationnelle - approximants de PadØ . . . . . . . . . . . . . 82

VII.3.2Approximation polynomiale au sens des moindres carrØs . . . . . . . . . . 82

VII.3.2.1 Droite des moindres carrØs discrets . . . . . . . . . . . . . . . . . 82

VII.3.2.2 Droite des moindres carrØs continus ................ 83

VII.3.2.3 GØnØralisation - Polyn me des moindres carrØs discrets ..... 83

VII.3.3Approximation trigonomØtrique au sens des moindres carrØs . . . . . . . . 84

VII.3.4Approximation uniforme - Meilleure approximation . . . . . . . . . . . . . 85

VII.3.5Approximation polynomiale dans une base de polyn mes orthogonaux .. 85

VIIIRECHERCHE DE VALEURS PROPRES 87

VIII.1 INTRODUCTION .................................. 87

VIII.2 METHODE DE JACOBI .............................. 88

VIII.3 METHODE QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

VIII.4 TRANSFORMATION EN MATRICE DE HESSENBERG . . . . . . . . . . . . 89

VIII.5 METHODE DE LANCZOS ............................. 89

VIII.6 METHODE DE BISSECTION ........................... 90

VIII.7 METHODE DE LA PUISSANCE . . . . . . . . . . . . . . . . . . . . . . . . . . 90

VIII.8 METHODE DE DEFLATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

REFERENCES BIBLIOGRAPHIQUES 93
1

Chapitre I

MODELISATION, DISCRETISATION ET
SIMULATION NUMERIQUE

I.1 Qu’est-ce qu’un modŁle?


Le principe d’un modŁle est de remplacer un systŁme complexe en un objet ou opØrateur simple
reproduisant les aspects ou comportements principaux de l’original (ex : modŁle rØduit, maquette,
modŁle mathØmatique ou numØrique, modŁle de pensØe ou raisonnement).

I.2 Pourquoi faut-il modØliser?


Dans la nature, les systŁmes et phØnomŁnes physiques les plus intØressants sont aussi les plus
complexes Øtudier. Ils sont souvent rØgis par un grand nombre de paramŁtres non-linØaires
interagissant entre eux (la mØtØorologie, la turbulence des uides...).

I.3 Quels sont les di Ørents modŁles?


L’une des solutions est de recourir une sØrie d’expØriences pour analyser les paramŁtres et grandeurs
du systŁme. Mais les essais peuvent s’avØrer trŁs coßteux (essais en vol, essais avec matØriaux rares,
instrumentations trŁs chŁres...) et ils peuvent Œtre trŁs dangereux (essais nuclØaires, environnement
spatial...). En n il peut Œtre di cile de mesurer tous les paramŁtres : Øchelles du problŁme trop petites
(chimie du vivant, couche limite en uide...) ou trop grandes (astrophysique, mØtØorologie,
gØophysique...).

On peut aussi construire un modŁle mathØmatique permettant la reprØsentation du phØnomŁne


physique. Ces modŁles utilisent trŁs souvent des systŁmes d’Øquations aux dØrivØes partielles (EDP)
non-linØaires dont on ne connait pas de solutions analytiques en gØnØral. Il faut alors rØsoudre le
problŁme numØriquement en transformant les Øquations continues de la physique en un problŁme
discret sur un certain domaine de calcul (le maillage). Dans certains cas il s’agit de la seule alternative
(nuclØaire, astrophysique, spatial...). Dans d’autres cas, les simulations numØriques sont mØnØes en
parallŁle avec des expØrimentations.
I.4 De la modØlisation la simulation numØrique
Les di Ørentes Øtapes pour modØliser un systŁme complexe :
• Recherche d’un modŁle mathØmatique rØprØsentant la physique. Mise en Øquation.
• Elaboration d’un maillage. DiscrØtisation des Øquations de la physique.
• RØsolution des Øquations discrŁtes (souvent systŁmes linØaires rØsoudre).
• Transcription informatique et programmation des relations discrŁtes.
2Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

• Simulation numØrique et exploitation des rØsultats.

L’ingØnieur peut Œtre amenØ intervenir sur l’une ou plusieurs de ces di Ørentes Øtapes.

I.5 Aspect ni des ordinateurs


La solution exacte d’un problŁme d’EDO ou d’EDP est une fonction continue. Les ordinateurs ne
connaissent que le ni et le discret. En e ectuant un calcul numØrique, un ordinateur ne peut retenir
qu’un nombre ni de chi res pour reprØsenter les opØrandes et les rØsultats des calculs
intermØdiaires. Les solutions approchØes seront calculØes comme des ensembles de valeurs
discrŁtes sous la forme de composantes d’un vecteur solution d’un problŁme matriciel. La
reprØsentation des nombres dans un ordinateur introduit la notion d’erreur d’arrondi ou de
troncature. Ces erreurs peuvent se cumuler sur un calcul et la solution numØrique nale pourra
s’avØrer trŁs ØloignØe de la solution exacte.

Exemple d’erreur d’arrondi : considØrons un ordinateur utilisant 4 chi res pour reprØsenter un
nombre. Calculons la somme 1.348+9.999. Le rØsultat exact est 11.347 et comporte 5 chi res. Le
calculateur va le preprØsenter de maniŁre approchØe : 11.35. Il commet une erreur d’arrondi Łgale
(11.35-11.347)=0.003.

I.5.1 ReprØsentation des entiers


Les entiers sont reprØsentØs par une suite de bits organisØs en octets. Par exemple un entier codØ
sur 2 octets occupera 16 bits (216 = 65536) et pourra rØprensenter un entier compris entre -32768 et
32767. On parle d’entier simple prØcision.
Le type entier codØ sur 4 octets (232 = 4294967296) permet la reprØsentation des entiers compris entre -2
147 483 648 et 2 147 483 647. On parle d’entier double prØcision.

Les opØrations sur les entiers, dans la mesure oø le rØsultat est un entier reprØsentable par la machine, s’e
ectuent exactement.

I.5.2 ReprØsentation des rØels ou nombres ottants


Un nombre ottant s’Øcrit sous la forme X = a.bn oø a est la mantisse, b la base et n l’exposant. Par
exemple, la reprØsentation de π avec 10 caractŁres est : +0.31415910+1. Les 10 caractŁres sont
rØpartis selon : 1 pour le signe, 6 pour la mantisse, 3 pour l’exposant dont 1 pour son signe.
La reprØsentation standard des rØels choisie par les principaux constructeurs d’ordinateur est sous forme
de nombre ottants oø b = 2 et a, n sont deux nombres binaires.

Un rØel en simple prØcision occupe 4 octets (32 bits). Son exposant est stockØ sur un octet (il prend
toutes les valeurs entiŁres entre -128 et +127), son signe sur un bit et sa mantisse occupe les 23 bits
restants reprØsentØe par t = 23 caractŁres binaires d1,d2,...,dt avec d1 = 1. Un rØel X correspond au
nombre suivant :
ENSHMG 3

Le plus nombre en valeur absolue ou zØro machine est : 2−129 ' 1.4710−39
Le plus grand nombre en valeur absolue ou in ni machine est : (1 − 2−23)2127 ' 1.71038

La meilleure prØcision possible pour des calculs sur des nombres de l’ordre de l’unitØ sera :
2−23 ' 1.1910−7
Pour des nombres de l’ordre de 1000, la meilleure prØcision tombe : 2−23210 ' 1.2210−4

Un rØel en double prØcision occupe 8 octets soit 64 bits : 1 bit de signe, 11 bits pour l’exposant et 52
bits pour la mantisse.

I.6 Notion de stabilitØ


On distingue trois types de stabilitØ
• La stabilitØ d’un problŁme physique.
• La stabilitØ d’un problŁme mathØmatique.
• La stabilitØ numØrique d’une mØthode de calcul.

I.6.1 StabilitØ d’un problŁme physique : systŁme chaotique


Un problŁme est dit chaotique si une petite variation des donnØes initiales entra ne une variation
totalement imprØvisible des rØsultats. Cette notion de chaos, liØe la physique d’un problŁme, est
indØpendante du modŁle mathØmatique utilisØ et encore plus de la mØthode numØrique utilisØe
pour rØsoudre ce problŁme mathØmatique. De nombreux problŁmes sont chaotiques, par exemple la
turbulence des uides.

I.6.2 StabilitØ d’un problŁme mathØmatique : sensibilitØ


Un problŁme est dit trŁs sensible ou mal conditionnØ si une petite variation des donnØes ou des
paramŁtres entra ne une grande variation des rØsultats. Cette notion de conditionnement, liØe au
problŁme mathØmatique, est indØpendante de la mØthode numØrique utilisØe pour le rØsoudre.
Pour modØliser un problŁme physique qui n’est pas chaotique, on construira un modŁle
mathØmatique qui sera le mieux conditionnØ possible.
I.6.3 StabilitØ d’une mØthode numØrique
Une mØthode est dite instable si elle est sujette une propagation importante des erreurs numØriques de
discrØtisation et d’arrondi.
Un problŁme peut Œtre bien conditionnØ alors que la mØthode numØrique choisie pour le rØsoudre
est instable. Dans ce cas, il est impØratif de changer de mØthode numØrique. Par contre, si le
problŁme de dØpart est mal conditionnØ, aucune mØthode numØrique ne pourra y remØdier. Il
faudra alors essayer de trouver une formulation mathØmatique di Ørente du mŒme problŁme, si on
sait que le problŁme physique sous-jacent est stable.
4Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

I.7 Un peu d’histoire...


I.7.1 Avant les ordinateurs : les calculateurs
Le mot calcul vient du latin calculus, qui signi e "petite pierre". Les romains, comme beaucoup de
peuples antiques, utilisaient couramment de petites pierres pour Øviter de mØmoriser les termes
d’une addition. Cette pratique se perfectionna et donna naissance la machine calculer la plus
ancienne connue : le boulier, ou abaque, qui fut d’une utilisation presque universelle jusqu’ tout
rØcemment.

Des machines mØcaniques furent mises au point au XVII eme siŁcle. La plus connue est la pascaline,
construite par Blaise Pascal l’ ge de 19 ans pour soulager son pŁre, collecteur d’imp ts, du fardeau des
calculs rØpØtitifs. La machine, base de roues dentØes, ne pouvait qu’additionner et soustraire.
Leibniz transforma la pascaline en une machine capable de multiplier. Il a fallu attendre le milieu du
XIXeme siŁcle avant qu’une machine, construite par le Fran ais C. Thomas de Colmar, fonctionne
vØritablement et connaisse un succŁs commercial.

Le concept de machine programmable fut con ue sur le papier par l’Anglais Charles Babbage, basØe
sur la lecture sur des cartes perforØes des instructions de calcul et des donnØes traiter. Signalons que
les cartes perforØes furent popularisØes dans le contexte des mØtiers tisser par Joseph-Marie
Jacquard. La machine analytique de Babbage inspira les constructeurs de machines calculer du dØbut
du XXeme siŁcle.

Vers 1890, l’AmØricain Herman Hollerith construira une machine cartes perforØes destinØe compiler
les rØsultats du recensement des Etats-Unis. En 1896, Hollerith fonde sa compagnie, la Tabulating
Machines Corporation qui deviendra en 1924 l’International Business Machines (IBM).

La nØcessitØ d’e ectuer des calculs scienti ques motivera la conception et la construction de machines
dØdiØes ces activitØs. L’AmØricain Vannevar Bush construira, dans les annØes 1930, un calculateur
mØcanique analogique. Ce calculateur simulait par un dispositif mØcanique l’intØgration d’une
Øquation di Ørentielle. Ce type de machine sera utilisØ pendant la deuxiŁme guerre mondiale pour
les besoins de la ballistique.
Les besoins des militaires lors de la deuxiŁme guerre mondiale stimulera la conception et la
construction de calculateurs encore plus puissants. Aux Etats-Unis, l’armØe par l’intermØdiaire de
l’UniversitØ de Pennsylvanie va mettre au point le plus puissant calculateur jamais construit : l’ENIAC
(Electronic Numerator, Integrator, Analyser and Computer). Il ne fut terminØ que trois mois aprŁs la n
de la guerre. Il comptait une multitude de lampes Ølectroniques qui devaient Œtre remplacØes
souvent. Les lampes Øtaient susceptibles d’Œtre rendues inopØrantes quand un moustique (bug) s’y
Øcrasait, ce qui est l’origine de l’expression courante pour dØsigner les erreurs de programmation.
L’ENIAC n’est pas un ordinateur mais une calculatrice gØante, cadencØe 200kHz.

I.7.2 Les ordinateurs

Le cØlŁbre mathØmaticien John von Neumann est l’origine de l’architecture logique des machines
pour automatiser les calculateurs. En juin 1945, il Øcrit un rapport dans lequel il dØcrit l’architecture
ENSHMG 5

d’une future machine qui inspirera les premiers ordinateurs. L’essentiel de l’architecture proposØe par
von Neumann consiste con er la gestion du calcul une unitØ de contr le (Central Processing Unit ou
CPU). L’unitØ de contr le gŁre les instructions d’un programme et coordonne les autres unitØs de
l’appareil : mØmoire, entrØe/sortie et unitØ de calcul. Les instructions sont exØcutØes de maniŁre
sØquentielle. L’architecture de base des ordinateurs est toujours la mŒme que celle imaginØe par
von Neumann.

Von Neumann fut inspirØ dans ses travaux par ceux d’un jeune mathØmaticien anglais, Alan Turing.
En 1936, Turing prØcisa la notion d’algorithme et imagina une machine automatique, la machine de
Turing, qui pouvait rØsoudre n’importe quel problŁme : c’Øtait une machine universelle. Elle
fonctionnait partir d’opØrations logiques ØlØmentaires et Øcrivait, copiait ou lisait de l’information
dans un registre.

Turing fut impliquØ dans la construction du tout premier ordinateur, construit Manchester de 1946
1948 et surnommØ Manchester MARK1. Cet ordinateur fut un exemplaire unique. Il Øtait rØservØ
des applications militaires (armements nuclØaires). Le premier ordinateur civil fur le UNIVAC1
(UNIVersal Automatic Computer), crØØ et commercialisØ en 1951 par Eckert et Mauchly. IBM livrera
son modŁle 701 aux militaires en 1951 et commercialisera son modŁle 650 en 1953. A Los Alamos, la
machine MANIAC (Mathematical And Numerical Integrator And Computer) sera opØrationnelle en
1952.

On distingue gØnØralement cing gØnØrations d’ordinateurs qui di Łrent essentiellement (sauf la cinquiŁme)
par les moyens techniques utilisØs :

• La premiŁre gØnØration (1948-1955) est caractØrisØe par l’utilisation de lampes Ølectroniques


et de tambours magnØtiques pour la mØmoire. Le langage machine utilisØ pour leur
programmation n’est pas universel et est con u sur mesure pour une application prØcise.
• La deuxiŁme gØnØration (1956-1963) est caractØrisØe par le remplacement des lampes par des
transistors; la mØmoire y est souvent constituØe de noyaux magnØtiques. Le langage machine a
fait place l’assembleur.

• La troisiŁme gØnØration (1964-1971) remplace un assemblage de transistors individuels par des


circuits intØgrØs (dispositifs semiconducteurs dans lesquels sont intØgrØs des ØlØments de
type rØsistances, transistors, condensateurs...). Cette gØnØration est aussi caractØrisØe par
l’utilisation d’un systŁme d’opØration, un programme central qui coordonne l’exØcution de
plusieurs autres programmes.

• La quatriŁme gØnØration est caractØrisØe par l’emploi des microprocesseurs (unitØs de contr
le, de traitement et de mØmoire rassemblØes sur une mŒme puce de silicium). Le premier
microprocesseur fut commercialisØ par Intel en 1971. L’utilisation de microprocesseurs
fabriquØs une Øchelle industrielle permettra la commercialisation de petits ordinateurs et
mŒme d’ordinateurs personnels la n des annØes 1970.

• La cinquiŁme gØnØration est di cile dØ nir! Ce terme est dØsignØ tort et travers pour
diverses innovations rØalisØes.
6Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

La rØvolution informatique fut rendue possible par les progrŁs inou s de l’Øctronique. Le point de
dØpart de cette rØvolution technologique est l’invention du transistor.

La comprØhension du comportement des semiconducteurs (substance cristalline comme le


germanium ou silicium, dont les propriØtØs de conduction Ølectrique sont intermØdiaires entre un
mØtal et un isolant) date des annØs 1930. Les laboratoires Bell mettront au point le premier
transistor en dØcembre 1947 ce qui vaudra ses auteurs Shockley, Bardeen, Brattain le prix Nobel de
physique en 1956. En 1959, le jeune ingØnieur Jack Kilby de la rme Texas Instrument construit le
premier circuit intØgrØ. De nombreuses compagnies s’Øtabliront Palo alto en Californie et
constitueront la Silicon Valley. L’une de ses entreprises, fondØe en 1965 par Gordon Moore et Bob
Noyce, choisit le nom d’Intel (pour INTegrated ELectronics) et produit en 1971 le premier "ordinateur
sur une puce" ou microprocesseur, le Intel 4004 avec 2300 transistors. En 1978, elle lance le Intel
8086 qui compte 29000 transistors et est cadencØ 4,77 MHz. Toute une sØrie de processeurs suivent :
286 (en 1982), 386 (1985), 486 (1989), Pentium (1993), Pentium II (1997), Pentium III (1999), Pentium
IV (2001)...

La progression constante de la puissance des ordinateurs associØe l’abaissement considØrable des


coßts a ouvert la possibilitØ de rØaliser des simulations numØriques sur des ordinateurs personnels.
MŒme si les super-ordinateurs restent nØcessaires pour des simulations trŁs importantes, il devient
possible de faire exØcuter des simulations numØriques sur des PC bon marchØ. L’unitØ de mesure
pour Øvaluer les performances d’un ordinateur est le GFlops (Giga FLoating OPeration per Second ou
milliard d’opØrations en virgule ottante par seconde). Un PC actuel de type Pentium IV cadencØ 2.4
Ghz peut dØlivrer une puissance d’environ 2G ops.
I.7.3 Petite chronologie
Voici une chronologie sommaire du dØveloppement de l’informatique :

1936 Publication par Alan Turing des principes gØnØraux des machines automatiques suivant un
algorihme.
1945 Proposition de von Neumann pour l’architecture des calculateurs automatiques.
Inauguration de l’ENIAC le dernier grand calculateur avant l’ordinateur.
1947 Invention du transistor par Bardeen, Brattain et Shockley aux laboratoires Bell.
1948 Le Manchester MARK1, premier ordinateur construit sur le plan de von Neumann. Le
mathØmaticien amØricain Claude Shannon publie sa thØorie mathØmatique des
communications et introduit l’acronyme bit (BInary digiT) pour dØsigner le plus petit ØlØment
d’information.
1950 Invention de l’assembleur, langage de programmation de bas niveau.
1951 Le UNIVAC 1, premier ordinateur commercial.
1952 Premier ordinateur produit par IBM : le modŁle 701.
1954 Lancement du modŁle 704 d’IBM, dotØ d’une mØmoire de 144ko.
1955 Premier rØseau informatique : SABRE, crØØ pour American Airlines.
W. Shockley quitte Bell pour fonder sa propre compagnie Palo Alto, en Californie, la
premiŁre de ce qui deviendra la Silicon Valley.
1956 Le premier ordinateur transistors : le TRADIC de Bell, marque le dØbut de la deuxiŁme
gØnØration.
ENSHMG 7

1957 CrØation par John Backus du premier langage de programmation supØrieur : le FORTRAN.
1958 Premier circuit intØgrØ, rØalisØ par Jack Kilby, de Texas Instrument.
1959 Le premier ordinateur interactif : le PDP 1; de la Digital Equipment Corporation.
1962 Production des premiers transistors e et de champ commerciaux.
1965 Fondation de la compagnie Intel, dans la Silicon Valley.
1968 Lancement du rØseau ARPANET, l’ancŒtre d’INTERNET.
Invention de l’environnement fenŒtres-souris.
1969 DØbut de la crØation du systŁme d’opØration UNIX.
1970 PremiŁre mØmoire vive RAM base de semiconducteurs : le Intel 1103 avec 1K de mØmoire.
1971 CrØation du premier microprocesseur : le Intel 4004, qui compte 2300 transistors.
1973 CrØation du langage de programmation C, Øtroitement liØ au systŁme d’opØration UNIX.
1976 Lancement du supercalculateur CRAY 1 (puissance de crŒte 100 MFlops).
1977 Premier ordinateur Apple.
1981 IBM se lance dans la commercialisation des ordinateurs personnels.
1983 CrØation du langage de programmation C++.
1984 Lancement du Macintosh de Apple, premier succŁs commercial d’un ordinateur environnement
fenŒtre-souris.
1986 Lancement du systŁme d’opØration Windows 1.1; par Microsoft.
1989 CrØation du World Wide Web et du langage HTML, au Centre EuropØen de Recherche NuclØaire
(CERN).
1994 Intel lance le Pentium, microprocesseur contenant plus de cinq millions de transistors. Les
nouveautØs : bus de donnØes Ølargit 64 bits pour l’accŁs la mØmoire, capacitØ du
processeur pouvoir traiter deux instructions par cycle d’horloge et deux niveaux de
mØmoire cache a n d’accØlØrer le traitement des instructions au niveau du processeur.
1998 Lancement du Pentium II d’Intel et du K6-2 d’AMD.
2001 DØbut du Pentium III d’Intel. Ce processeur monte la frØquence des PC 866 MHz.
2003 DØbut du Pentium IV d’Intel. LancØ 1 Ghz, il atteindra jusqu’ 3,8 Ghz.
2005 Le nombre de transistors sur une puce de PC atteint les 1,7 milliards.
Un microprocesseur de PC peut dØlivrer jusqu’ 6,4 GFlops.
Le supercalculateur le plus puissant est le DOE BlueGene d’IBM intallØ au Lawrence
Livermore National Laboratory (USA) avec une puissance maximale de 280,6 TFlops. Le
supercalculateur le plus puissant de France (62Łme rang mondial) se trouve au CEA pour des
applications militaires : le NovaScale Quadrics de Bull SA (5,8TFlops).

Loi de Moore
Devant l’Øvolution extrŁmement rapide des technologies liØes aux microprocesseurs, plusieurs
personnes ont cherchØ formuler des hypothŁses sur le progrŁs de leurs performances. Ainsi Gordon
Moore, cofondateur de la sociØtØ Intel a a rmØ en 1965 pour une confØrence de presse, que "le
8Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

nombre de transistors par cicuit de mŒme taille va doubler tous les 18 mois". Cette a rmation a
marquØ les esprits, puisqu’elle est devenue un dØ tenir pour les fabriquants de microprocesseurs.

Fig. I.1 Loi de Moore


9

Chapitre II

DISCRETISATION DES EDP

II.1 LES TROIS GRANDES FAMILLES DE METHODES


Pour passer d’une problŁme exact continu rØgit par une EDP au problŁme approchØ discret, il existe trois
grandes familles de mØthodes :
• Les di Ørences nies.
La mØthode consiste remplacer les dØrivØes partielles par des di Ørences divisØes ou
combinaisons de valeurs ponctuelles de la fonction en un nombre ni de points discrets ou
noeuds du maillage.
Avantages : grande simplicitØ d’Øcriture et faible coßt de calcul.
InconvØnients : limitation des gØomØtries simples, di cultØs de prise en compte des conditions aux
limites de type Neumann.

• Les volumes nis.


La mØthode intŁgre, sur des volumes ØlØmentaires de forme simple, les Øquations Øcrites sous
forme de loi de conservation. Elle fournit ainsi de maniŁre naturelle des approximations
discrŁtes conservatives et est particuliŁrement bien adaptØe aux Øquations de la mØcanique
des uides. Sa mise en oeuvre est simple avec des volumes ØlØmentaires rectangles. Avantages :
permet de traiter des gØomØtries complexes avec des volumes de forme quelconque,
dØtermination plus naturelle des conditions aux limites de type Neumann. InconvØnient : peu
de rØsultats thØoriques de convergence.

• Les ØlØments nis.


La mØthode consiste approcher, dans un sous-espace de dimension nie, un problŁme Øcrit sous
forma variationnelle (comme minimisation de l’Ønergie en gØnØral) dans un espace de
dimension in nie. La solution approchØe est dans ce cas une fonction dØterminØe par un
nombre ni de paramŁtres comme, par exemple, ses valeurs en certains points ou noeuds du
maillage.
Avantages : traitement possible de gØomØtries complexes, nombreux rØsultats thØoriques sur la
convergence.
InconvØnient : complexitØ de mise en oeuvre et grand coßt en temps de calcul et mØmoire.
II.2 LES DIFFERENCES FINIES
II.2.1 Principe - ordre de prØcision
La mØthode des di Ørences nies consiste approximer les dØrivØes des Øquations de la physique au
moyen des dØveloppements de Taylor et se dØduit directement de la dØ nition de la dØrivØe. Elle est
due aux travaux de plusieurs mathØmaticiens du 18Øme siŁcle (Euler, Taylor, Leibniz...).
10 Chapitre II : DISCRETISATION DES EDP

Soit u(x,y,z,t) une fonction de l’espace et du temps. Par dØ nition de la dØrivØe, on a :

Si ∆x est petit, un dØveloppement de Taylor de u(x + ∆x,y,z,t) au voisinage de x donne :

En tronquant la sØrie au premier ordre en ∆x, on obtient :

L’approximation de la dØrivØe est alors d’ordre 1 indiquant que l’erreur de troncature O(∆x) tend
vers zØro comme la puissance premiŁre de ∆x.

DØ nition : la puissance de ∆x avec laquelle l’erreur de troncature tend vers zØro est appelØe l’ordre de la
mØthode.

II.2.2 Notation indicielle - cas 1D


ConsidØrons un cas monodimensionnel oø l’on souhaite dØterminer une grandeur u(x) sur
l’intervalle [0,1]. La recherche d’une solution discrŁte de la grandeur u amŁne constituer un maillage
de l’intervalle de dØ nition. On considŁre un maillage (ou grille de calcul) composØ de N + 1 points xi
pour i = 0,...,N rØguliŁrement espacØs avec un pas ∆x. Les points xi = i∆x sont appelØs les noeuds du
maillage.
Le problŁme continu de dØpart de dØtermination d’une grandeur sur un ensemble de dimension in
nie se ramŁne ainsi la recherche de N valeurs discrŁtes de cette grandeur aux di Ørents noeuds du
maillage.

Notation : on note ui la valeur discrŁte de u(x) au point xi, soit ui = u(xi). De mŒme pour la dØrivØe de u(x)

au noeud xi, on note . Cette notation s’utilise de fa on


Øquivalente pour toutes les dØrivØes d’ordre successif de la grandeur u.

Le schØma aux di Ørences nies d’ordre 1 prØsentØ au-dessus s’Øcrit, en notation indicielle :

Ce schØma est dit "avant" ou "dØcentrØ avant" ou upwind.

Il est possible de construire un autre schØma d’ordre 1, appelØ "arriŁre" :

II.2.3 SchØma d’ordre supØrieur


Des schØmas aux di Ørences nies d’ordre supØrieur peuvent Œtre construits en manipulant des
dØveloppement de Taylor au voisinage de xi. On Øcrit :
ENSHMG 11

La soustraction de ces deux relations donne :


Ce qui permet d’obtenir le schØma d’ordre deux dit "centrØ" pour approximer la dØrivØe premiŁre de u
:

Pour obtenir des ordres supØrieurs, il faut utiliser plusieurs noeuds voisins de xi . Le nombre de points
nØcessaire l’Øcriture du schØma s’appelle le stencil. Par exemple, un schØma aux di Ørences nies
d’ordre 3 pour la dØrivØe premiŁre s’Øcrit :

II.2.4 DØrivØe d’ordre supØrieur


Le principe est identique et repose sur les dØveloppements de Taylor au voisinage de xi. Par exemple pour
construire un schØma d’approximation de la dØrivØe seconde de u, on Øcrit :

En faisant la somme de ces deux ØgalitØs, on aboutit :


Ce qui permet d’obtenir le schØma d’ordre deux dit "centrØ" pour approximer la dØrivØe seconde de u :

Il existe aussi une formulation "avant" et "arriŁre" pour la dØrivØe seconde, toute deux d’ordre 1 :

Il est Øgalement possible de construire, par le mŒme procØdØ, des schØmas aux di Ørences nies d’ordre
supØrieur pour les dØrivØes deuxiŁme, troisiŁme, etc...
II.2.5 GØnØralisation de la notation indicielle

Dans le cas 1D instationnaire, considØrons l’Øvolution d’une grandeur u(x,t) en fonction de l’espace
et du temps. Le domaine de dØ nition de u est dØcomposØ en N noeuds xi rØpartis rØguliŁrement
avec un pas d’espace ∆x. De mŒme, le temps est dØcomposØ en intervalle ØlØmentaire de pas
constant ∆t. On notera uni la valeur discrŁte de la grandeur u(x,t) au noeud xi et au temps n∆t.

Dans le cas 2D, considØrons une grandeur u(x,y) dØ nie sur un certain domaine. Ce dernier est
dØcomposØ en N × P noeuds (xi,yj) rØpartis rØguliŁrement avec un pas d’espace ∆x dans la direction
x et ∆y dans l’autre direction. On notera uij la valeur discrŁte de la grandeur u(x,y) au noeud (xi,yj).
12 Chapitre II : DISCRETISATION DES EDP

De fa on similaire, dans le cas 2D instationnaire, on notera unij la valeur discrŁte de la grandeur u(x,y,t)
au noeud xi,yj et au temps n∆t. Et dans le cas 3D instationnaire, on notera unijk la valeur discrŁte de la
grandeur u(x,y,z,t) au noeud (xi,yj,zk) et au temps n∆t.

II.2.6 Quelques schØmas en 1D

Di Ørences nies avant, ordre 1 Di Ørences nies arriŁre, ordre 1


ui ui+1 ui+2 ui+3 ui+4 ui−4 ui−3 ui−2 ui−1 ui
∆xu0i -1 1 ∆xu0i -1 1
1 -2 1 1 -2 1
∆x3u000 -1 3 -3 1 ∆x3u000 -1 3 -3 1
i i
1 -4 6 -4 1 1 -4 6 -4 1
Di Ørences nies centrØ, ordre 2 Di Ørences nies centrØ, ordre 4
ui−2 ui−1 ui ui+1 ui+2 ui−3 ui−2 ui−1 ui ui+1 ui+2 ui+3

-1 1 1 -8 0 8 -1

∆x2u00i 1 -2 1 12∆x2u00 -1 16 -30 16 -1


i
2∆x3u00 -1 2 0 -2 1 8∆x3u000 -1 -8 13 0 -13 8 -1
0i i
∆x4u(4)i 1 -4 6 -4 1 6∆x4u(4)i -1 12 -39 56 -39 12 -1
II.2.7 DØrivØes croisØes

DØterminons une approximation de la dØrivØe croisØe de la fonction de 2 variables f(x,y). La


discrØtisation du domaine de calcul est bidimensionnelle et fait intervenir deux pas d’espace
supposØs constants ∆x et ∆y dans les directions x et y.
La principe est toujours basØ sur les dØveleppoments de Taylor :

Au voisinage du point (i,j) :


ENSHMG 13

En e ectuant une combinaison linØaire des quatre Øquations prØcØdentes ((1)+(2)-(3)-(4)), nous obtenons
une approximation de la dØrivØe croisØe l’ordre 1 :

II.2.8 Exemple simple 1D avec conditions de Dirichlet


ConsidØrons l’Øquation di Ørentielle suivante :
(
−u00(x) = f(x) , x ∈]0,1[
u(0) = α et u(1) = β

oø f est une fonction continue.


Le maillage est construit en introduisant N + 1 noeuds xi avec i = 0,1,..,N, rØguliŁrement espacØs avec
un pas ∆x. La quantitØ ui dØsignera la valeur de la fonction u(x) au noeud xi. L’Øquation rØsoudre
s’Øcrit, sous forme discrŁte en chaque noeud xi :

Approximons la dØrivØe seconde de u au moyen d’un schØma centrØ l’ordre 2 :

L’Øquation discrØtisØe est ainsi :

; pour i variant de 1 N-1

Il est trŁs pratique d’utiliser une formulation matricielle en faisant appara tre le vecteur des inconnues
discrŁtes :
14 Chapitre II : DISCRETISATION DES EDP

II.2.9 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann

ConsidØrons l’Øquation di Ørentielle suivante :

(
−u00(x) = f(x) , x ∈]0,1[
u(0) = α et u (1) = β
0

oø l’on a cette fois une condition de Neumann en x = 1.

Les modi cations du problŁme discrØtisØ par rapport au cas prØcØdent sont les suivantes. Tout
d’abord, le nombre d’inconnues a changØ. Il y a une inconnue au bord en x = 1. Le problŁme discret a
donc maintenant, sur la base du mŒme maillage que prØcØdemment, N inconnues ui pour i variant
de 1 N.
D’autre part, il faut discrØtisØe la condition de Neumann u0(1) = β. Plusieurs choix sont possibles
pour approximer cette dØrivØe premiŁre. C’est un des inconvØnients de la mØthode des di Ørences
nies : elle ne donne pas de fa on naturelle une bonne approximation des conditions de Neumann.

Dans notre cas, utilisons une approximation d’ordre 1 :


Sous forme matricielle, on obtient :

II.2.10 DiscrØtisation de l’Øquation de la chaleur 1D


ConsidØrons le problŁme monodimensionnel de la conduction de la chaleur dans une barre de 1m de
longueur. Le champ de tempØrature T(x,t) vØri e l’Øquation de la chaleur :

oø α est la di usivitØ thermique.


A cette EDP s’ajoute deux conditions aux limites aux extrØmitØs de la barre T(0,t) = Tg et T(1,t) = Td ainsi
qu’une condition initale T(x,0) = T0.
ENSHMG 15

L’intervalle [0,1] est discrØtisØ en N +1 noeuds de coordonnØes xi (i variant de 0 N) rØguliŁrement


espacØs. Notons ∆x le pas d’espace. Le temps est discrØtisØ en intervalles de pas constant ∆t. Notons
Tin la tempØrature au noeud xi = i∆x et l’instant t = n∆t.

On peut utiliser deux approches pour discrØtiser cette Øquation de la chaleur. La premiŁre dite explicite
utilise une discrØtisation au noeud xi et l’itØration courante n :

Et la seconde dite implicite utilise une discrØtisation au noeud xi et l’itØration n + 1 :

II.2.10.1 SchØma explicite

Nous utilisons un schØma avant d’ordre 1 pour Øvaluer la dØrivØe temporelle et un schØma centrØ
d’ordre 2 pour la dØrivØe seconde en espace :

En posant , la tempØrature l’itØration n + 1 est donnØe par :

variant de 1 N-1

Soit sous forme matricielle :


 n+1   n  
T T
 1
  1 − 2λ  1  Tg 
 T2   λ  T2   0 
 

 ...   ...  +λ ...

λ 0 0 
=  ... 
1 − 2λ λ 0 
 TN−2   0

 ... ... ··· ··· ...
 TN−2   0 
TN−1 0 ... 
0 λ λ
0 0 1 − 2λ λ 1 − 2λ TN−1 Td
II.2.10.2 SchØma implicite

Nous utilisons un schØma arriŁre d’ordre 1 pour Øvaluer la dØrivØe temporelle et un schØma centrØ
d’ordre 2 pour la dØrivØe seconde en espace :
16 Chapitre II : DISCRETISATION DES EDP

En posant , la tempØrature l’itØration n + 1 est donnØe par :

variant de 1 N-1
On constate que les inconnues l’itØration n+1 sont reliØes entre elles par une relation implicite
(d’oø le nom de la mØthode).

Sous forme matricielle :


  n+1  n  
1 + 2λ −λ T T
  1
  1  Tg 
 −λ 1 + 2λ  T2   T2   0 
  

... ... =  ...  +λ ...
 ...
 
0 0
  
−λ ··· ··· 0
   TN−2   0 
0 0
... ... ... 
  TN−2 
0 0  TN−1 Td
−λ 1 + 2λ −λ
0 −λ 1 + 2λ TN−1
A chaque itØration, le vecteur des inconnues discrŁtes se dØtermine par rØsolution d’un systŁme
linØaire. La matrice du systŁme Øtant tridiagonale, un algorithme de Thomas (basØ sur la mØthode
du pivot de Gauss) est trŁs souvent utilisØ.

Algorithme de Thomas

Cet algorithme est utilisØ pour la rØsolution d’un systŁme avec une matrice tridiagonale de dimension N
faisant intervenir un vecteur d’inconnues discrŁtes Xi, de la forme :

b1X1 + c1X2 = d1 i=1


aiXi−1 + biXi + ciXi+1 = di i variant de 2 N-1 aNXN−1 + bNXN = dN i = N

Le calcul s’e ectue en deux Øtapes (qui correspondent aux deux Øtapes du pivot de Gauss). La
triangularisation fait appara tre les coe cients αi et βi ØvaluØs par rØcurrence :

et pour i variant de N 1

La deuxiŁme Øtape dØtermine les inconnues selon la rØcurrence : X1 = β1 puis Xi = αiXi−1 +βi pour i variant
de 2 N.
ENSHMG 17

II.2.11 DiscrØtisation de l’Øquation de la chaleur 2D stationnaire


ConsidØrons le problŁme bidimensionnel stationnaire de la conduction de la chaleur dans un domaine

rectangulaire [0,Lx]×[0,Ly]. Le champ de tempØrature T(x,y) vØri e l’Øquation de Laplace : 


 , (x,y) ∈ [0,Lx] × [0,Ly]

 T(0,y) = Tg et T(Lx,y) = Td 0 < y < Ly


 T(x,0) = Tb et T(x,Ly) = Th 0 < x < Lx

Le domaine de calcul est discrØtisØ en (N+1)×(P+1) noeuds (xi,yj) (i variant de 0 N et j variant de 0 P).
On supposera que les pas d’espace dans chaque direction ∆x et ∆y sont constants. La tempØrature
discrŁte au noeud (xi,yj) sera notØe Tij = T(xi,yj).

Nous utilisons un schØma centrØ d’ordre 2 pour approximer les dØrivØes secondes en espace :

La formulation discrØtisØe est alors, pour i variant de 1 N − 1 et j variant de 1 P−1:

∆y2 (Ti+1,j + Ti−1,j) + ∆x2 (Ti,j+1 + Ti,j−1) − 2(∆x2 + ∆y2)Ti,j = 0

Soit sous forme matricielle, pour N=P=4, en posant A = ∆x2 + ∆y2 :


    
−2A ∆y 2
0 ∆x 2
0 0 0 0 0 T11 ∆x Tb + ∆y Tg
2 2

   
 2
−2A ∆y2 0 ∆x2 0 0 0 0  T21    ∆x2Tb

∆y

0 ∆y2 −2A 0 0 ∆x2 0 0 0  T31   ∆x2Tb + ∆y2Td 

    
 2
0 0 −2A ∆y2 0 ∆x2 0 0   T12   
∆y2Tg 
∆x

18 Chapitre II : DISCRETISATION DES EDP

 0 ∆x2 0 ∆y2 −2A ∆y2 0 ∆x2 0  T22  = − 0

  0 0 ∆x2 0 ∆y2 −2A 0 0 ∆x2  T32 

∆y2Td 

 0 0 0 ∆x2 0 0 −2A ∆y2 0  T13   ∆x Th + ∆y Tg 


2 2

 0 0 0 0 ∆x2 0 ∆y2 −2A ∆y2  T23   ∆x2Th 


0 0 0 0 0 ∆x2 0 ∆y2 −2A T33 ∆x2Th + ∆y2Td

Dans le cas oø les pas d’espace sont identiques ∆x = ∆y, la formulation devient, pour i variant de 1
N − 1 et j variant de 1 P − 1 :

Ti+1,j + Ti,j−1 + Ti−1,j + Ti,j+1 − 4Ti,j = 0

Soit sous forme matricielle, pour N=P=4 :


     −4 1 0 1 0 0 0 0 0 T11 Tb + Tg
    
 1 −4 1 0 1 0 0 0 0  T21   Tb 

 0 1 −4 0 0 1 0 0 0  T31   Tb + Td 
    
 1 0 0 −4 1 0 1 0 0  T12   Tg 

 0 1 0 1 −4 1 0 1 0  T22  = − 0 


    
 0 0 1 0 1 −4 0 0 1  T32   Td 

 0 0 0 1 0 0 −4 1 0  T13   Th + Tg 
    
 00 0 0 1 0 1 −4 1  T23  
Th 0 0 0 0 0 1 0 1 −4
T33 Th + Td

Notons I la matrice identitØ d’ordre 3 et D la matrice de dimension 3 dØ nie par :


  −4 1 0
 
D=1 −4 1
0 1 −4

Notons T1, T2 et T3 les vecteurs 3 composantes dØ nis par :


ENSHMG 19

Le systŁme peut s’Øcrire sous la forme matricielle bloc suivante :


    
D I 0 T1 B1
    
I D I  T2  = − B2 
0 I D T3 B3

La matrice obtenue est tridiagonale et chacun de ses blocs est tridiagonal. La rØsolution du systŁme
peut s’e ectuer par une mØthode de Thomas matriciel oø une mØthode itØrative matricielle
(mØthode de Gauss-Seidel).

Algorithme de Thomas matriciel

Cet algorithme est utilisØ pour la rØsolution d’un systŁme avec une matrice, de dimension N, tridiagonale
par bloc, faisant intervenir un vecteur d’inconnues discrŁtes Xi, de la forme :
B1X1 + C1X2 = D1 i=1
AiXi−1 + BiXi + CiXi+1 = Di i variant de 2 N-1
ANXN−1 + BNXN = DN i=N
łø Ai, Bi, Ci sont des matrices et Di un vecteur.
On introduit la matrice αi et le vecteur βi ØvaluØs par les relations de rØcurrence suivantes :

αi = −(Bi + Ciαi+1)−1×Ai et βi = (Bi + Ciαi+1)−1×(Di − Ciβi+1) i variant de N 1

La deuxiŁme Øtape dØtermine les inconnues selon la rØcurrence : X1 = β1 puis Xi = αiXi−1 +βi pour i variant
de 2 N.

Remarque : Avec une condition de Neumann sur l’un des bords du domaine, par exemple en y = 0 un
ux de chaleur Øgale φb, il faudrait ajouter la formulation prØcØdente la discrØtisation de cette
condition au bord.
Ceci a pour consØquence l’ajout de N − 1 inconnues supplØmentaires savoir les valeurs de la tempØrature
au bord (j = 0 et i variant de 1 N − 1).

Par exemple utilisons un schØma d’ordre 1 pour Øvaluer le ux de chaleur :

Soit sous forme matricielle, dans le cas oø ∆x = ∆y et pour N=P=4 :


20 Chapitre II : DISCRETISATION DES EDP

    
−1 0 0 1 0 0 0 0 0 0 0 0 T10 φb ∆x/λ
    
 0 −1 0 0 1 0 0 0 0 0 0 0  T20   φb ∆x/λ 

  
0 0 −1 0 1 1 0 0 0 0 0 0  T30   φb ∆x/λ 
    1 0 0 −4 1 0 1 0 0
0 0 0  T11   Tg 

 
0 1 0 1 −4 1 0 1 0 0 0 0  T21   0 
    
 0 0 1 0 1 −4 0 0 1 0 0 0  T31  = −TTdg 

  
0 0 0 1 0 0 −4 1 0 1 0 0  T12  
    
 0 0 0 0 1 0 1 −4 1 0 1 0  T22   0 

  
0 0 0 0 0 1 0 1 −4 0 0 1  T32   Td 
    
 0 0 0 0 0 0 1 0 0 −4 1 0  T13   Th + Tg 

  
0 0 0 0 0 0 0 1 0 1 −4 1   T23   Th 
0 0 0 0 0 0 0 0 1 0 1 −4 T33 Th + Td
II.3 LES VOLUMES FINIS
II.3.1 Introduction
La mØthode des Volumes Finis consiste intØgrer, sur des volumes ØlØmentaires, les Øquations
Øcrites sous forme intØgrale. C’est une mØthode particuliŁrement bien adaptØe la discrØtisation
spatiale des lois de conservation, contrairement aux ElØments Finis, et est ainsi trŁs utilisØe en
mØcanique des uides.

Sa mise en oeuvre est simple si les volumes ØlØmentaires ou "volumes de contr le" sont des
rectangles en 2D ou des parallØlØpipŁdes en 3D. Cependant, la mØthode des Volumes Finis permet
d’utiliser des volumes de forme quelconque et donc de traiter des gØomØtries complexes,
contrairement aux Di Ørences Finies.

De nombreux codes de simulation numØrique en mØcanique des uides reposent sur cette mØthode :
Fluent, StarCD, CFX, FineTurbo, elsA...

II.3.2 Volumes Finis pour une loi de conservation


ConsidØrons une loi de conservation d’une grandeur physique w dans une maille de volume Ω,
faisant intervenir un ux F(w) et un terme source S(w). Son expression sous forme intØgrale est :
ENSHMG 21

Appelons Σ la surface de la maille, de normale extØrieure n. Le thØorŁme d’Ostrogradski conduit :

L’intØgrale reprØsente la somme des ux travers chaque face de la maille. Le ux est supposØ
constant sur chaque face, l’intØgrale se ramŁne une somme discrŁte sur chaque face de la maille. Il
vient :

La quantitØ Fface = F(wface) est une approximation du ux F sur une face de la maille, c’est le ux
numØrique sur la face considØrØe.

La discrØtisation spatiale revient calculer le bilan des ux sur une maille ØlØmentaire. Ce bilan
comprend la somme des contributions ØvaluØes sur chaque face de la maille. La maniŁre dont on
approche les ux numØriques en fonction de l’inconnue discrŁte dØtermine le schØma numØrique.
L’Øcriture du schØma numØrique peut Øgalement utiliser des inconnues auxiliaires, par exemple le
gradient de l’inconnue par maille.
Explicitons maintenant le terme de dØrivØe temporelle. Un ØlØment fondamental de la
discrØtisation en Volumes Finis est de supposer que la grandeur w est constante dans chaque maille
et Øgale une valeur approchØe de sa moyenne sur la maille ou bien sa valeur au centre de la maille.
D’autre part, le terme de dØrivation en temps est ØvaluØ au moyen d’une mØthode numØrique
d’intØgration d’Øquation di Ørentielle (Runge-Kutta, Euler explicite ou implicite...) et fait intervenir un
pas de temps d’intØgration ∆t. Ce dernier peut Œtre constant ou variable. Pour xer les idØes, on
Øcrira la formulation avec une mØthode d’Euler explicite. Notons ∆w l’incrØment de la grandeur w
entre deux itØrations temporelles successives. On peut ainsi Øcrire :

Finalement la loi de sconservation discrØtisØe avec la mØthode des Volumes Finis peut s’Øcrire :

∆w X
Ω + F face .n face Σ face =Ω S
∆t
faces

La mØthodes des Volumes Finis consiste donc :


• DØcomposer la gØomØtrie en mailles ØlØmentaires (Ølaborer un maillage).
• Initialiser la grandeur w sur le domaine de calcul.
• Lancer le processus d’intØgration temporelle jusqu’ convergence avec : ? Calcul du bilan de
ux par maille par un schØma numØrique.
22 Chapitre II : DISCRETISATION DES EDP

? Calcul du terme source.


? Calcul de l’incrØment temporel par une mØthode numØrique d’intØgration.
? Application des conditions aux limites.

II.3.2.1 Cas monodimensionnel

ConsidŁrons une loi de conservation 1D :

Oø u est une grandeur physique fonction de la variable d’espace x et du temps t et f(u)


est une fonction de u.

Le domaine de calcul est divisØ en N mailles de centre xi. Chaque maille a une taille hi = xi+1/2 − xi−1/2.
Les indices demi-entier dØsignent les interfaces de la maille avec les mailles voisines (voir gure II.1).
x x
i-1/2 i+1/2
x
xi-1 xi xi+1

Fig. II.1 Maillage 1D

Le temps est discrØtisØ en intervalles de pas constant ∆t. La fonction u est supposØe constante dans
chaque maille et Øgale une valeur approchØe de la moyenne. Notons uni cette valeur moyenne dans
la i-Łme maille de centre xi, l’instant t = n∆t. Ainsi :

∀x ∈ [xi−1/2,xi+1/2] et t = n∆t, u(x,t) = uni Souvent, cette valeur approchØe de

la moyenne est la valeur de la fonction u au centre xi de la maille, on parle alors de Volumes Finis Cell-

Centered (et dans ce cas, uni = u(xi,t)).

Le discrØtisation spatiale par les Volumes Finis consiste intØgrer maille par maille la loi de conservation :

Soit pour la i-Łme maille de centre xi, au temps t = n∆t :

Ce qui s’intØgre comme suit :


ENSHMG 23

La quantitØ dØsigne une approximation du ux f(u) l’interface xi+1/2 et au temps n∆t. C’est le ux
numØrique au point xi+1/2. Ce ux numØrique s’Øvalue en fonction des valeurs moyennes de u dans les
mailles voisines, ce qui dØtermine le schØma numØrique.

Une mØthode d’Euler explicite est utilisØe pour Øvaluer la dØrivØe en temps (d’autres schØmas
peuvent Œtre utilisØs, par exemple le schØma de Runge-Kutta). La formulation discrŁtisØe en
Volumes Finis de la loi de conservation est ainsi :

uni +1 − u ni
hi + fˆi+1
n ˆn
/2 − f i− 1/2 =0
∆t
II.3.2.2 Cas bidimensionnel

ConsidØrons une loi de conservation d’une grandeur physique u(x,y,t) oø x et y sont les deux
directions d’espace. Le domaine gØomØtrique est divisØ en mailles ØlØmentaires, par exemple en
mailles rectangulaires comme reprØsentØ sur la gure II.2. La grandeur u est supposØe constante dans
chaque maille et Øgale une valeur approchØe de la moyenne sur la maille (ou encore la valeur au
centre de la maille).

n
B C

A D

Fig. II.2 Maillage 2D

Dans le cas bidimensionnel, le terme intØgral reprØsente la circulation sur un contour


d’une maille ØlØmentaire. Pla ons-nous sur la maille de contour ABCD comme indiquØ sur la gure. Le
ux F est supposØ constant sur chaque arŒte de la maille AB, BC, CD et AD. L’intØgrale se ramŁne une
somme discrŁte sur chaque arŒte :

Ceci revient Øvaluer le bilan des ux travers chaque facette de la maille.


II.3.3 Exemple simple 1D avec conditions de Dirichlet
ConsidØrons l’Øquation di Ørentielle suivante :
(
−u00(x) = f(x) , x ∈]0,1[
u(0) = α et u(1) = β

oø f est une fonction continue.


24 Chapitre II : DISCRETISATION DES EDP

L’intervalle ]0,1[ est discrØtisØ en N mailles de centre xi et de taille hi = xi+1/2 − xi−1/2. La fonction u(x)
est supposØ constante dans chaque maille et Øgale une valeur approchØe de la moyenne sur la
maille considØrØe. On notera ui cette valeur dans la i-Łme maille de centre xi.
Ainsi, on a dans la i-Łme maille : ∀x ∈ [xi−1/2,xi+1/2], u(x) = ui.

x = 01/2 x3/2 xi-1/2 xi+1/2


x

x1 x2 xi-1 xi xi+1

Fig. II.3 Maillage 1D

La discrØtisation spatiale par les Volumes Finis consiste intØgrer maille par maille l’Øquation di
Ørentielle du problŁme, soit pour la i-Łme maille :

Ce qui donne aprŁs intØgration :

u0(xi−1/2) − u0(xi+1/2) = hif˜i pour i variant de 1 N

˜
oø f i dØsigne la valeur moyenne de f sur la i-Łme maille :

Il reste maintenant exprimer u0(xi−1/2) en fonction des inconnues ui. L’approximation la plus naturelle
est de prendre la valeur moyenne de u0(x) sur le segment [xi−1,xi], soit :

avec

Cette derniŁre expression n’est pas valable au bord gauche, pour i = 1, en x1/2 = 0, car elle fait
intervenir le point x0 qui n’est pas dØ ni. Il se pose alors le problŁme du traitement des bords qui exige
une formulation particuliŁre. Une possibilitØ est de dØ nir une maille ctive gauche de l’intervalle [0,1],
et d’a ecter une valeur moyenne de la fonction u dans cette maille. Une autre possibilitØ est de
considØrer la valeur moyenne de u0(x1/2) non plus sur le segment [x0,x1] qui n’est pas dØ ni mais sur
le segment [x1/2,x1], c’est ce que nous choisissons dans cet exemple. Ainsi on Øcrit :

Et de mŒme pour le terme u0(xi+1/2), on Øcrit que : . Le mŒme problŁme


ENSHMG 25

survient au bord droit, pour i = N, en xN+1/2 = 1. On considŁre la valeur moyenne de u0(xN+1/2) non plus sur
le segment [xN,xN+1] qui n’est pas dØ ni mais sur le segment [xN,xN+1/2], soit :

La discrØtisation en Volumes Finis est donc nalement :


ui − u i− 1 ui+1 − u i
− = h i f˜ i pour i variant de 2 N-1
h i− 1/2 h i+1 /2
2(u 1 − α) u2 − u1
− = h 1f˜1
h1 h 3/2
uN − u N − 1 2(β − u N )
− = h N f˜N
h N − 1/2 hN

Dans le cas particulier d’un maillage rØgulier de pas h. La discrØtisation en Volumes Finis devient :

pour i variant de 2 N-1

Sous forme matricielle, ceci s’exprime :

Comparaison avec un schØma aux Di Ørences Finies

Nous introduisons un schØma aux Di Ørences Finies a n de comparer les deux mØthodes de discrØtisation.

On se place sur le mŒme maillage construit pour les Volumes Finis. Les points xi seront considØrØs
comme les noeuds du maillage pour les Di Ørences Finies. Et la quantitØ ui dØsignera alors la valeur
de la fonction u au noeud xi.
ATTENTION aux notations propres aux deux mØthodes, dans un cas ui dØsigne une valeur moyenne de u
sur la i-Łme maille, et dans l’autre cas, ui dØsigne la valeur de u en xi.

L’Øquation rØsoudre s’Øcrit, sous forme discrŁte en chaque noeud xi :


26 Chapitre II : DISCRETISATION DES EDP

Approximons la dØrivØe seconde de u au moyen d’un schØma l’ordre 2. On Øcrit les dØveloppements de
Taylor de ui+1 et ui−1 au voisinage de xi :

Ce qui peut s’exprimer sous la forme :

Par somme des deux ØgalitØs, on obtient une approximation l’ordre 2 de la dØrivØe seconde de u.
Au nal, la discrØtisation par des Di Ørences Finies est la suivante :
µ ¶
2 ui − ui− 1 ui+1 − u i
− = fi pour i variant de 1 N
h i+1 /2 + h i− 1/2 h i− 1/2 h i+1 /2

Dans la cas particulier d’un maillage rØgulier de pas h, l’Øquation discrØtisØe s’Øcrit :

pour i variant de 1 N
II.3.4 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann
ConsidØrons l’Øquation di Ørentielle suivante :
(
−u00(x) = f(x) , x ∈]0,1[
u(0) = α et u (1) = β
0

oø l’on a cette fois une condition de Neumann en x = 1.


On se place sur le mŒme maillage que prØcØdemment et on adopte la mŒme dØmarche.

L’Øquation intØgrØe sur une maille ØlØmentaire est :

u0(xi−1/2) − u0(xi+1/2) = hif˜i pour i variant de 1 N Le calcul des termes de dØrivØe


aux interfaces s’e ectue de la mŒme maniŁre que prØcØdemment. Au bord droit, l’interface xN+1/2 =
1, l’application de la condition u0(1) = β s’applique trŁs naturellement et l’on a : u0(xN+1/2) = β.

La discrØtisation en Volumes Finis est donc nalement :


ENSHMG 27

u i − ui− 1 ui+1 − ui
− = h i f˜ i pour i variant de 2 N-1
h i− 1/2 h i+1 /2
2(u1 − α) u2 − u1
− = h 1 f˜1
h1 h 3/2
uN − uN − 1
− β = h N f˜N
h N − 1/2

Dans le cas particulier d’un maillage rØgulier de pas h. La discrØtisation en Volumes Finis devient :

pour i variant de 2 N-1

Sous forme matricielle, ceci s’exprime :

II.3.5 DiscrØtisation de l’Øquation de la chaleur 1D


ConsidØrons le problŁme monodimensionnel de la conduction de la chaleur dans une barre de 1m de
longueur. Le champ de tempØrature T(x,t) vØri e l’Øquation de la chaleur :

oø α est la di usivitØ thermique que l’on supposera Øgale 1.


A cette EDP s’ajoute deux conditions aux limites aux extrØmitØs de la barre T(0,t) = Tg et T(1,t) = Td ainsi
qu’une condition initale T(x,0) = T0.

L’intervalle [0,1] est discrØtisØ en N mailles de centre xi (i variant de 1 N), de taille ∆x = xi+1/2 − xi−1/2
constante. Le temps est discrØtisØ en intervalles de pas constant ∆t. A chaque instant, la
tempØrature T(x,t) est supposØe constante dans chaque maille et Øgale une valeur approchØe de la
moyenne sur la maille considØrØe. On notera Tin cette valeur dans la i-Łme maille de centre xi l’instant
t = n∆t.

La discrØtisation spatiale par les Volumes Finis consiste intØgrer maille par maille l’EDP du problŁme, soit
pour la i-Łme maille :

Nous utilisons un schØma d’Euler explicite pour Øvaluer la dØrivØe temporelle, il vient :
28 Chapitre II : DISCRETISATION DES EDP

Les termes de dØrivØe premiŁre aux interfaces xi+1/2 sont ØvaluØs en considØrant la valeur moyenne de

sur le segment [xi,xi+1], soit :

Cette formulation n’est pas valable dans la maille N l’extrØmitØ droite de la barre. Dans cette maille, on
considŁre la valeur moyenne calculØe sur l’intervalle [xN,1]. D’oø :

De mŒme, les termes de dØrivØe premiŁre aux interfaces xi−1/2 sont ØvaluØs en considØrant la valeur

moyenne de sur le segment [xi−1,xi], soit :

Avec un problŁme dans la premiŁre maille l’extrØmitØ gauche de la barre. Dans cette maille, on
considŁre la valeur moyenne calculØe sur l’intervalle [0,x1]. D’oø :

En posant , la tempØrature l’itØration n + 1 est donnØe par :

variant de 2 N-1

TNn+1 = λTNn−1 + (1 − 3λ)TNn + 2λTdn

Soit sous forme matricielle :


 n+1  λ 0 ··· ··· 0  n  
T 1 − 2λ λ ... 0 T
 1
  1 − 3λ  1  Tg 
... ... 1 − 2λ ...
 T2   λ  T2   0 
0 λ λ 
 λ
0 0 1 − 3λ
 ...   ...  +2λ ...

=  ...  



 TN−1   0

ENSHMG 29

  TN−1   0 
TN 0 
TN Td

II.3.6 DiscrØtisation de l’Øquation de la chaleur 2D stationnaire


ConsidØrons le problŁme bidimensionnel stationnaire de la conduction de la chaleur dans un domaine

rectangulaire [0,Lx]×[0,Ly]. Le champ de tempØrature T(x,y) vØri e l’Øquation de Laplace : 


 , (x,y) ∈ [0,Lx] × [0,Ly]
 et T(Lx,y) = Td 0 < y < Ly
TT((0x,,y0) =) = et
TTgb T(x,Ly) = Th 0 < x < Lx
Le domaine de calcul est discrØtisØ en N×P mailles de centre (xi,yj) (i variant de 1 N et j variant de 1
P). On supposera que les pas d’espace dans chaque direction ∆x = xi+1/2 −xi−1/2 et ∆y = yj+1/2 − yj−1/2 sont
constants.
La tempØrature T(x,y) est supposØe constante dans chaque maille et Øgale une valeur approchØe de

la moyenne sur la maille considØrØe. On notera Tij cette valeur dans la maille (i,j). La discrØtisation

spatiale par les Volumes Finis consiste intØgrer maille par maille l’EDP du problŁme, soit pour la

maille (i,j) de centre (xi,yj) :

Il vient :

Le terme de dØrivØe premiŁre l’interface xi+1/2 est ØvaluØ en calculant une valeur
moyenne sur l’intervalle [xi,xi+1] : i+1/2

De mŒme, le terme l’interface xi−1/2 est ØvaluØ en calculant une valeur moyenne
i−1/2 sur l’intervalle
[xi−1,xi]. Ce qui permet d’Øcrire :
30 Chapitre II : DISCRETISATION DES EDP

En opØrant identiquement pour les termes aux interfaces yj+1/2 et yj−1/2, on aboutit l’expression suivante
valable pour i variant de 2 N − 1 et j variant de 2 P − 1 :

∆y2(Ti+1,j + Ti−1,j) + ∆x2(Ti,j+1 + Ti,j−1) − 2(∆x2 + ∆y2)Tij = 0

Cette relation n’est pas valable aux bords du domaine pour lesquels les termes de dØrivØes premiŁres sont
ØvaluØs en considØrant une valeur moyenne sur une demie-maille.
Par exemple, pour la dØrivØe, la valeur moyenne sera calculØe sur l’intervalle

[0,x1] et fera intervenir les conditions aux limites (la tempØrature Tg au bord gauche) :

Ainsi pour les cellules adjacentes au bord gauche (i = 1, j variant de 1 P), la formulation est :
∆y2(T2,j + 2Tg) + ∆x2(T1,j+1 + T1,j−1) − (2∆x2 + 3∆y2)T1j = 0 ; j=2 P-1
∆y2(T21 + 2Tg) + ∆x2(T12 + 2Tb) − 3(∆x2 + ∆y2)T11 = 0 ; j=1
∆y2(T2P + 2Tg) + ∆x2(2Th + T1,P−1) − 3(∆x2 + ∆y2)T1P = 0 ; j=P
On aura une formulation Øquivalente pour les cellules adjacentes aux 3 autres bords du domaine.
Soit sous forme matricielle, pour N=P=3, en posant A = ∆x2 + ∆y2, B = 3∆x2 + 2∆y2 et
C = 2∆x2 + 3∆y2 :
    
−3A ∆y2 0 ∆x2 0 0 0 0 0 T11 ∆x2Tb + ∆y2Tg

    
 2
−B ∆y2 0 ∆x2 0 0 0 0   T21   ∆x2Tb 
 ∆y

 0 ∆y2 −3A 0 0 ∆x2 0 0 0  T31   ∆x2Tb + ∆y2Td   ∆x2 0 0 −C ∆y2 0 ∆x2 0 0

 T12   ∆y2Tg   0 ∆x2 0 ∆y2 −2A ∆y2 0 ∆x2 0  T22  = −2 0 

 0 0 ∆x2 0 ∆y2 −C 0 0 ∆x2  T32   ∆y2Td 

 0 0 0 ∆x2 0 0 −3A ∆y2 0  T13   ∆x Th + ∆y Tg 
2 2

 0 0 0 0 ∆x2 0 ∆y2 −B ∆y2  T23   ∆x2Th 


ENSHMG 31

0 0 0 0 0 ∆x2 0 ∆y2 −3A T33 ∆x2Th + ∆y2Td

Dans le cas oø les pas d’espace sont identiques ∆x = ∆y, la formulation matricielle, pour N=P=3 devient :
     −6 1 0 1 0 0 0 0 0 T11 Tb + Tg
    
 1 −5 1 0 1 0 0 0 0  T21   Tb 

 0 1 −6 0 0 1 0 0 0  T31   Tb + Td 
    
 1 0 0 −5 1 0 1 0 0  T12   Tg 

 0 1 0 1 −4 1 0 1 0  T22  = −2 0 


    
 0 0 1 0 1 −5 0 0 1  T32   Td 

 0 0 0 1 0 0 −6 1 0  T13   Th + Tg 
    
0 0 0 0 1 0 1 −5 1  T23   Th 
0 0 0 0 0 1 0 1 −6 T33 Th + Td

Remarque : dans le cas de conditions aux limites mixtes Dirichlet-Neumann, la condition de ux de


chaleur est prise en compte trŁs simplement, directement dans les termes de dØrivØes aux interfaces
du bord concernØ.
II.4 LES ELEMENTS FINIS EN 1D
II.4.1 Introduction
La mØthode des ElØments Finis consiste approcher, dans un sous-espace de dimension nie, un
problŁme Øcrit sous forme variationnelle dans un espace de dimension in nie. Cette forme
variationnelle est Øquivalente une forme de minimisation de l’Ønergie en gØnØral (principe des
travaux virtuels). La solution approchØe est dans ce cas une fonction dØterminØe par un nombre ni
de paramŁtres, par exemple, ses valeurs en certains points (les noeuds du maillage).

Cette mØthode est particuliŁrement bien adaptØe aux problŁmes d’Øquilibre. Elle permet de traiter
des gØomØtries complexes contrairement aux Di Ørences Finies mais elle demande un grand coßt de
temps de calcul et de mØmoire.

De nombreux codes de calculs de structure reposent sur les ElØments Finis : ANSYS, CADDS, CATIA...

II.4.2 Exemple simple 1D


Reprenons le cas prØcØdent de l’Øquation di Ørentielle :
(
32 Chapitre II : DISCRETISATION DES EDP

−u00(x) = f(x), x ∈]0,1[ u(0) =


u(1) = 0

La prØsentation trŁs succinte faite sur cet exemple simple a pour but de donner les idØes de base et
ne constitue qu’une premiŁre introduction la mØthodes des ElØments Finis. L’approche repose sur la
mØthode de Galerkin qui permet d’Øcrire le systŁme di Ørentiel sous forme va-
ENSHMG 33

riationnelle dans un espace de dimension nie.

Soit une fonction v(x) ∈ C1([0,1]), nulle en 0 et 1. On peut Øcrire :


Z1 Z1
− u (x)v(x)dx =
00
f(x)v(x)dx
0 0

En intØgrant par parties, il vient :


Z1 Z1
u (x)v (x)dx =
0 0
f(x)v(x)dx ∀v ∈ V (II.1)
0 0

© ª
34 Chapitre II : DISCRETISATION DES EDP

avec V = v ∈ C0([0,1]); v(0) = v(1) = 0,v’ continue par morceaux un sous-espace vectoriel de
C1([0,1]).

Une solution de la forme variationnelle (II.1) s’appelle solution faible du problŁme di Ørentiel de
dØpart.
On cherche alors Øcrire un problŁme approchØ dans un sous-espace vectoriel de dimension nie.
˜
Soit V un sous-espace vectoriel de V de dimension N nie. Soient φ1,φ2,...,φN N fonctions linØairement
˜
indØpendantes de V . Ces fonctions constituent une base du sous-espace V . Ainsi, toute fonction u˜
˜
de V peut se dØcomposer selon :
XN u˜(x) =
ujφj(x)
j=1

˜
RØsoudre le problŁme di Ørentiel de dØpart revient alors chercher une solution u˜ ∈ V telle que :
Z1 Z1
u˜0(x)v˜0(x)dx = f(x)v˜(x)dx ∀v˜ ∈ V˜
0 0

C’est- -dire chercher N rØels u1,u2,...,uN vØri ant :

Ou encore :

Soient A la matrice N × N d’ØlØment courant aij et B le vecteur N composantes bi dØ nies par :

et

Par dØ nition, la matrice A est symØtrique. Notons U le vecteur des N inconnues u1,u2,...,uN.
Le problŁme di Ørentiel se ramŁne nalement la rØsolution du systŁme linØaire :

A.U = B

Il reste maintenant choisir les N fonctions φi de fa on ce que le systŁme soit simple


rØsoudre numØriquement.

II.4.2.1 Choix des fonctions φi : les ØlØments nis

L’intervalle ]0,1[ est discrØtisØ en N points de coordonnØes xi. Les fonctions φi(x) sont choisies
comme fonctions polynomiales de degrØ 1 dØ nies par :
ENSHMG 35

si

xi−1

≤x≤

xi si xi ≤ x ≤ xi+1

sinon
Ces fonctions sont appelØes les ØlØments nis de degrØ 1. Avec ces ØlØments nis, la matrice A est
tridiagonale. Il est aussi possible de choisir pour ØlØments nis des fonctions de degrØ 2 ou plus.

Le calcul de la matrice A fait intervenir les dØrivØes simples calculer :

si

xi−1

≤x≤

xi si xi ≤ x ≤ xi+1

sinon

Calculons maintenant les ØlØments de la matrice A, tridiagonale et symØtrique. Les trois termes des
diagonales sont :

Et calculons les composantes du vecteur B par une mØthode des trapŁzes (chaque intØgrale sur un
segment ØlØmentaire sera ØvaluØe comme l’aire du trapŁze correspondant), soit :

Le systŁme linØaire rØsoudre s’Øcrit donc, sous forme indicielle :


ui − u i− 1 u i+1 − u i x i+1 − x i− 1
− = fi pour i variant de 1 N
x i − x i− 1 x i+1 − x i 2

On rappelle la discrØtisation avec un schØma aux Di Ørences Finies d’ordre 2 :


36 Chapitre II : DISCRETISATION DES EDP

pour i variant de 1 N

Ainsi, on constate que les deux mØthodes sont rigoureusement identiques. Ceci n’est plus vØri Ø
quand les composantes du vecteur B ne sont plus ØvaluØes avec une mØthode des trapŁzes.
Dans le cas oø les N points de l’intervalle ]0,1[ sont rØguliŁrement espacØs avec un pas h. La
discrØtisation en ElØments Finis devient :

pour i variant de 1 N

Soit sous forme matricielle :

II.4.2.2 Bilan

La mØthodes des ElØments Finis 1D consiste donc :

• Choisir N points entre 0 et 1 et choisir les fonctions φi


• Construire la matrice A
• DØterminer le vecteur B (avec une mØthode d’intØgration)
• RØsoudre le systŁme linØaire A.U = B oø U dØsigne le vecteur des inconnues
II.5 APPLICATION NUMERIQUE
Comparons les trois mØthodes de discrØtisation sur le cas simple prØcØdemment exposØ. On choisit
comme fonction f(x) = sin(πx). L’Øquation di Ørentielle rØsoudre est donc :
(
−u00(x) = sin(πx) , x ∈]0,1[ u(0) = u(1) =
0

La solution analytique au problŁme est . Notons par un indice ’a’ la solution


analytique.

Divisons l’intervalle ]0,1[ en dix segments rØguliers de pas h = 0.1. Pour les discrØtisations avec les Di
Ørences Finies et les Elements Finis, il y a N = 9 noeuds de calculs. Et pour la mØthode des Volumes
Finis, il y a N = 10 mailles de calculs.
ENSHMG 37

La solution discrŁte obtenue avec les Di Ørences Finies (ou les ElØments Finis) est reportØe dans le
tableau V.1 :
xi 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
ui 0.0316 0.06 0.0826 0.09716 0.1021 0.09716 0.0826 0.06 0.0316
6
(ui)a 0.0313 0.0595 0.082 0.09636 0.1011 0.09636 0.082 0.0595 0.0313
3
| 9.610−3 8.410−3 7.310−3 8.310−3 110−1 8.310−3 7.310−3 8.410−3 9.610−3
erreur|
Tab. II.1 MØthode des Di Ørences Finies et des ElØments Finis La valeur moyenne par

maille obtenue avec les Volumes Finis est reportØe dans le tableau II.2. Le calcul de la valeur

moyenne de f(x) dans la i-Łme maille est : . Notons (u˜i)a

=
la valeur moyenne de la solution analytique calculØe sur la i-Łme maille soit :(u˜i)a h Zxix−i+11/2/2 u(x)dx

= ui µ sinπhπ2h¶.

1
II.6 CONSISTANCE, CONVERGENCE ET STABILITE
Un certain nombre de notion est nØcessaire lors de la rØsolution d’Øquations aux dØrivØes partielles
(EDP) au moyen de leurs Øquivalents discrØtisØs. Les trois principales sont la convergence, la
stabilitØ et la consistance. Ces trois propriØtØs permettent de relier la solution exacte des Øquations
continues la solution exacte des Øquations discrØtisØes et la solution numØrique obtenue. Ces di
Ørents liens, rØsumØs sur la gure II.4, sont :

• la stabilitØ, c’est la propriØtØ qui assure que la di Ørence entre la solution numØrique obtenue
et la solution exacte des Øquations discrØtisØes est bornØe.

• la consistance, c’est la propriØtØ qui assure que la solution exacte des Øquations discrØtisØes
tende vers la solution exacte des Øquations continues lorsque le pas de discrØtisation (∆t et ∆x)
tendent vers zØro.

1
xi0.050.150.250.350.450.550.650.750.850.95ui0.015890.046120.071840.09050.10030.10030.09050.0
71840.046120.01589(u˜i)a0.015850.0460.071640.090280.10010.10010.090280.071640.0460.01585|
erreur|2.510−32.610−32.810−32.410−3210−3210−32.410−32.810−32.610−32.510−3 Tab. II.2 MØthode des
Volumes Finis

Les trois mØthodes permettent d’obtenir des rØsultats avec une bonne prØcision. L’erreur la plus
faible est obtenue avec la mØthode des Volumes Finis.
38 Chapitre II : DISCRETISATION DES EDP

• la convergence, c’est la propriØtØ qui assure que la solution numØrique tende vers la (ou une)
solution exacte des Øquations continues. C’est Øvidemment la propriØtØ la plus recherchØe!

Fig. II.4 Solutions exacte, numØrique et discrŁte

Ces propriØtØs sont liØes les unes aux autres par des thØorŁmes :
Le thØorŁme de Lax

Dans un problŁme bien posØ, et avec un schØma numØrique consistant, la stabilitØ est une
condition nØcessaire et su sante pour la convergence.

Le thØorŁme de Lax-Wendro

Si un schØma numØrique consistant converge lorsqu’on ra ne les pas de temps et d’espace, c’est-
-dire lorsque ∆t → 0 et ∆x → 0, alors il converge vers une solution faible des Øquations.

Condition de stabilitØ CFL


Pour des problŁmes d’Øvolution temporelle, certains schØmas sont stables condition que le pas de
temps soit infØrieur une certaine valeur critique fonction du pas d’espace. Cette inØgalitØ constitue
la condition de Courant-Friedrichs-Lewy (1928) ou condition CFL. Elle est nØcessaire et su sante pour
assurer la stabilitØ.

La condition CFL varie d’une Øquation une autre.

Par exemple pour l’Øquation de la chaleur 1D, les schØmas explicites sont stables sous la condition CFL
suivante :
ENSHMG 39

alors que les schØmas implicites sont toujours stables.


40

Chapitre III

CLASSIFICATION DES EDP D’ORDRE 2

III.1 CLASSIFICATION DES EDP LINEAIRES D’ORDRE 2


ConsidØrons une Øquation aux dØrivØes partielles (EDP) du second ordre ayant la forme suivante :

(III.1)
∂ 2u ∂2u ∂ 2u ∂u ∂u
a + b + c + d + e + fu = g
∂x 2 ∂x∂y ∂y 2 ∂x ∂y

dans laquelle u est une fonction de deux variables x et y. On dit

que l’Øquation (III.1) est :

• hyperbolique ssi b2 − 4ac > 0


• parabolique ssi b2 − 4ac = 0
• elliptique ssi b2 − 4ac > 0
Remarque 1 : la terminologie utilisØe dans cette dØ nition est basØe sur la classi cation des coniques
du plan. On rappelle que la conique d’Øquation :

ax2 + bxy + cy2 + dx + ey + f = 0

est une hyperbole (resp. une parabole, une ellipse) ssi b2 − 4ac est positif (resp. nul, nØgatif).

Remarque 2 : Si les coe cients a, b, ..., g dØpendent des variables x et y, le type de l’Øquation

(III.1) est local. L’Øquation est hyperbolique au point (x0,y0) ssi b(x0,y0)2−4a(x0,y0)c(x0,y0) > 0, etc.

Remarque 3 : le type de l’EDP est invariant par changement de base.


III.2 EQUATIONS ELLIPTIQUES
Les Øquations elliptiques rØgissent les problŁmes stationnaires, d’Øquilibre, gØnØralement dØ nis sur
un domaine spatial bornØ Ω de frontiŁre Γ sur laquelle l’inconnue est soumise des conditions aux
limites, le plus souvent de type Dirichlet ou Neumann.

Le problŁme elliptique type est celui fourni par l’Øquation de Laplace (ou de Poisson) soumise des
conditions aux limites, par exemple de Dirichlet :
ENSHMG 41


 −∆u = f dans Ω
 u = u0 sur Γ

Exemples : Equation de la chaleur en stationnaire (tempØrature d’Øquilibre).


DØplacement vertical d’une membrane dont le bord est xØ.
En mØcanique des uide, dans le cas d’un Øcoulement plan, permanent d’un uide parfait
incompressible, le potentiel des vitesses vØri ent une Øquation de Laplace.

III.3 EQUATIONS PARABOLIQUES


Les Øquations paraboliques rØgissent les problŁmes d’Øvolution ou instationnaires dans lesquels
intervient le mØcanisme de di usion ou de dissipation. Ces problŁmes sont gØnØralement dØ nis sur
un domaine spatial bornØ Ω de frontiŁre Γ sur laquelle l’inconnue est soumise des conditions aux
limites du mŒme type qu’en elliptique (quelquefois elles-mŒmes instationnaires), ainsi qu’ des
conditions initiales.

Le problŁme elliptique type est celui fourni par l’Øquation de la chaleur soumise des conditions aux
limites, par exemple de Dirichlet, ainsi qu’ des conditions initiales :

dans Ω

 T = T0 sur Γ

dans Ω

III.4 EQUATIONS HYPERBOLIQUES


III.4.1 Origine physique
Les Øquations hyperboliques modØlisent la propagation d’ondes sans dissipation.
En linØaire, c’est par exemple la propagation du son dans un milieu homogŁne. En
ØlectromagnØtisme, les Øquations de Maxwell sont hyperboliques et linØaires.

En non linØaire, les Øquations hyperboliques sont l’expression de lois de conservation. Par exemple,
les Øquations d’Euler expriment la conservation de la masse, de la quantitØ de mouvement et de
l’Ønergie totale dans un uide parfait compressible.
III.4.2 Equations types
Pour une grandeur w(x,t) on distingue deux grands types d’Øquation hyperbolique :
• Le premier type d’Øquation du cas hyperbolique est l’Øquation des ondes
homogŁnes :
42 Chapitre III : CLASSIFICATION DES EDP D’ORDRE 2

∂ 2w 2
2 ∂ w
− c =0
∂t 2 ∂x 2

• Le deuxiŁme type du cas hyperbolique conduit la dØ nition suivante : Soit A une


matrice n × n. Le systŁme (linØaire ou non) du premier ordre

∂w ∂w
+ A (w) =0
∂t ∂x

est hyperbolique ssi la matrice A est diagonalisable valeurs propres rØelles, pour tout w. Dans le
cas scalaire (n = 1), le systŁme se ramŁne l’Øquation de convection pure :

III.4.3 CaractØristiques
III.4.3.1 CaractØristiques pour les Øquations du premier type

ConsidØrons l’Øquation hyperbolique suivante :

avecb2 − 4ac > 0

Cette Øquation peut s’Øcrire dans un autre jeu de coordonnØes (X,Y ) :

oø A, B, C, D et E sont fonctions de a, b, c et des dØrivØes de X,Y par rapport x, y. Dans le but de

dØterminer une forme canonique de l’EDP, nous pouvons chercher s’il existe des coordonnØes (X,Y )

telle que A = 0 ou C = 0, ce qui revient rØsoudre l’Øquation suivante :

Nous obtenons ainsi deux Øquations di Ørentielles ordinaires (EDO) :


√ √
dy b + b2 − 4ac dy b − b2 − 4ac
= et =
dx 2a dx 2a

Celles-ci sont appelØes les Øquations caractØristiques.


En rØsolvant ces deux Øquations nous obtenons les courbes caractØristiques. Et les nouvelles
coordonnØes (X(x,y),Y (x,y)) sont les coordonnØes caractØristiques. AprŁs ce changement de
coordonnØes, nous aurons une EDP de la forme :
ENSHMG 43

Remarque : Dans le cas oø les coe cients a, b et c sont constants, les caractØristiques sont des droites.

Exemple : ConsidØrons l’Øquation . Les Øquations caractØristiques sont :

et

Nous obtenons ainsi l’Øquations des deux courbes caractØristiques :

cte et cte

Les coordonnØes caractØristiques sont : Et


la nouvelle expression de l’EDP :

III.4.3.2 CaractØristiques pour l’Øquation de convection

ConsidØrons l’Øquation de convection d’une grandeur w(x,t) :

oø la vitesse c peut Œtre constante ou non.

DØrivØe le long d’une courbe

On introduit la notion de dØrivØe de la grandeur w par rapport au temps le long d’une courbe
C du plan (x,t). On se limite au cas des courbes dØcrites par une Øquation du type x = X(t). Cette
notion de dØrivØe est facile saisir intuitivement : on regarde la variation de w en suivant la courbe C
et on dØrive par rapport au temps.

On dØ nit la dØrivØe de la grandeur w(x,t) par rapport au temps le long de la courbe C d’Øquation x =
X(t) par :

Construction des solutions avec une famille de courbes

A partir de la dØ nition ci-dessus, on constate que si le long de la courbe , alors la

dØrivØe de w le long de la courbe est nulle : .

On montre ainsi que la rØsolution de l’EDP de dØpart se ramŁne la rØsolution d’un systŁme d’EDO. Ce
systŁme dØ nit une famille de courbes que l’on nomme courbes caractØristiques. Cette mØthode
peut aussi s’interprØter comme un changement de variable. Sa validitØ cesse lorsque les courbes
44 Chapitre III : CLASSIFICATION DES EDP D’ORDRE 2

caractØristiques se coupent. Ce cas correspond l’apparition de singularitØs dans la solution de


l’Øquation de convection (ondes de choc par exemple).

La mØthode des caractØristiques consiste donc remplacer la rØsolution de l’EDP par la recherche
d’une famille de courbes C d’Øquation x = X(t) et d’une famille de fonctions wC solutions du systŁme
d’Øquations di Ørentielles ordinaires couplØes :

Exemple : RØsolution de l’Øquation de convection avec la condition initiale w(x,0)


= w0(x) et une vitesse c0 constante. Le systŁme d’EDO rØsoudre est :
( x˙ = c0 w˙ =
0

avec les conditions initales [x(0),w(0)] = [a,w0(a)]. On en dØduit alors :

x = X(t) = a + c0t et wC = w0(a) = w0(x − c0t)

Les courbes caractØristiques sont donc des droites parallŁles de pente 1/c0 dans le plan (x,t) et la
grandeur w est invariante le long de ces droites. On en dØduit que w(x,t) = w0(x − c0t). La grandeur w
est dans ce cas appelØe un invariant de Riemann.

III.4.3.3 CaractØristiques pour un systŁme de lois de conservation

ConsidØrons un systŁme de lois de conservation d’ordre n sous la forme non-conservative :

oø la matrice A est diagonalisable valeurs propres rØelles λk(w).

Ce systŁme d’EDP peut se transformer en un systŁme d’EDO faisant intervenir la dØrivation des
solutions le long de courbes caractØristiques dont le tracØ dØpend lui-mŒme des solutions. Cette
transformation permet une interprØtation gØomØtrique des solutions dans le plan (x,t) et conduit
souvent des rØsolutions analytiques ou numØriques.
Cette mØthode des caractØristiques n’est plus valide lorsque les courbes caractØristiques se coupent.
C’est le cas lorsque des discontinuitØs existent (ondes de choc en Euler). Dans ce cas, il n’y a pas
unicitØ de la solution.

On introduit un vecteur propre gauche Lk de la matrice A (ie LkA = λkLk). On multiplie le systŁme d’EDP
par ce vecteur propre. Il vient :

(III.2)

Pour k xØ, on introduit une famille de courbes Ck dØ nies par l’EDO;


ENSHMG 45

L’Øquation (III.2) peut alors se rØØcrire :

Ou plus simplement :
(III.3)
dw
Lk =0 sur la courbe Ck
dt

Les courbes Ck constituent une famille de courbes caractØristiques. Si w est continue alors il passe une
courbe caractØristique et une seule en chaque point du plan (x,t).

En considØrant n vecteurs propres linØairement indØpendants, on peut former n Øquations scalaires


de la forme (III.3), linØairement indØpendantes, et remplacer le systŁme de n EDP par un systŁme de
n EDO. Cette simpli cation du problŁme s’opŁre toutefois au prix d’un couplage entre les Øquations dØ
nissant les courbes caractØristiques et les Øquations (III.3) valables sur ces courbes, puisque les
valeurs propres λk(w) dØpendent de l’inconnue w.

Remarque : Une mØthode importante permettant de traiter le problŁme de l’absence d’unicitØ des
solutions dans le cas oø apparaissent des discontinuitØs consiste introduire un terme de viscositØ. Le
systŁme considØrer s’Øcrit :

oø ε est un petit paramŁtre de viscositØ que l’on appelle arti ciel (car non physique). On constate
alors que les solutions de ce systŁme sont rØguliŁres, les discontinuitØs ont disparu.

III.4.4 Domaines de dØpendance et d’in uence


Une propriØtØ fondamentale des problŁmes hyperboliques est l’existence de domaines de
dØpendance et d’in uence.
Dans le plan (x,t), pour un point M xØ, il existe un domaine DM qui in uence la solution au point M. Ce
domaine, appelØ domaine de dØpendance du point M, est dØlimitØ par les courbes caractØristiques
qui passent par M.

Dans le plan (x,t), pour un point P xØ sur l’axe des abscisses, il existe un domaine DP in uencØ par la
solution au point P. Ce domaine, appelØ domaine d’in uence du point P, est dØlimitØ par les courbes
caractØristiques qui partent de P.
46 Chapitre III : CLASSIFICATION DES EDP D’ORDRE 2

t t

domaine d’influence M

domaine de
dependance
x x
P

Fig. III.1 Domaine de dØpendance et d’in uence

III.4.5 Forme conservative et non-conservative


ConsidØrons un systŁme de lois de conservation d’ordre n Øcrit pour un vecteur w(x,t) :

(III.4)
∂w ∂f (w)
+ =0 avec w(x, 0) = w (x )
∂t ∂x 0

oø f est une fonction non linØaire dite fonction de ux. Le systŁme (III.4) est dit sous forme conservative
ou forme divergence.

Exemple : L’Øquation de Burgers monodimensionnelle :

avec u(x,0) = u0(x)

Si w(,x,t) est une solution rØguliŁre vØri ant le systŁme (III.4), on peut Øvaluer le terme de dØrivØe de
la fonction ux en introduisant la matrice jacobienne de f par rapport w. On obtient alos le systŁme
sous forme non-conservative :

∂w ∂w
+ A (w) =0 avec w(x, 0) = w (x )
∂t ∂x 0

oø la matrice A(w) = f0(w) est la jacobienne de .


A est diagonalisable pour tout w valeurs propres rØelles. Exemple : La

forme non-conservative de l’Øquation de Burgers est :

avec u(x,0) = u0(x)


ENSHMG 47

III.4.6 DiscontinuitØ - relation de saut


MŒme dans le cas oø la fonction de ux f et la solution initale sont rØguliŁres, il peut appara tre des
discontinuitØs et des solutions non rØguliŁres (formation de chocs). Les solutions du systŁme ne sont
pas nØcessairement de classe C1, on parle alors de solutions faibles du systŁme.

Pour une solution faible (discontinue), on peut introduire des relations de saut au travers de la
discontinuitØ (par exemple les relations de Rankine-Hugoniot en uide parfait compressible).

Supposons qu’une solution faible w soit discontinue le long d’une courbe Γ rØguliŁre dans le plan
(x,t). Cette courbe Γ sØpare le plan en deux rØgions Ω1 et Ω2. On note w1 et w2 les restrictions de w Ω1
et Ω2 que l’on suppose rØguliŁres. On dØsigne par ~n la normale Γ dirigØe vers l’extØrieur de Ω1 de
composante (nx,nt). La relation de saut de l’inconnue w et de la fonction de ux au travers de la courbe
Γ s’Øcrit :

(w1 − w2)nt + (f(w1) − f(w2))nx = 0

t
Γ

Ω1
Ω2

n
x
0
Fig. III.2 Solution discontinue le long d’une courbe
48

Chapitre IV

RESOLUTION DES EDO


Les Øquations di Ørentielles ordinaires (EDO) apparaissent trŁs souvent dans la modØlisation de la
physique et des sciences de l’ingØnieur. Trouver la solution d’une EDO ou d’un systŁme d’EDO est ainsi
un problŁme courant, souvent di cile ou impossible rØsoudre de fa on analytique. Il est alors
nØcessaire de recourir des mØthodes numØriques pour rØsoudre ces Øquations di Ørentielles.

IV.1 DEFINITION DES EDO


Soit une fonction y(x) dØ nie sur un intervalle de R et de classe Cp (continßment dØrivable d’ordre p).
On appelle Øquation di Ørentielle d’ordre p une Øquation de la forme :

F(x,y,y0,y00,...,y(p)) = 0

On appelle forme canonique d’une EDO une expression du type :

y(p) = f(x,y,y0,y00,...,y(p−1)) Seul ce

type d’Øquations sera considØrØ dans ce chapitre.

Toute Øquation di Ørentielle canonique peut Œtre Øcrite comme un systŁme d’Øquations di
Ørentielles du premier ordre en introduisant p − 1 fonctions dØ nies comme :

 yy12== yy0

 ···yp
···y(p−1)

L’Øquation canonique se met sous la forme du systŁme d’EDO d’ordre 1 suivant :


 yy1200
yy23
ENSHMG 49


 ···yp0
···f(x,y,y1,y2,...,yp)
IV.2 RAPPEL - SOLUTIONS D’EDO SIMPLES
Nous rappelons ici les principes de rØsolution des Øquations di Ørentielles simples. Dans ce qui suit, la
variable indØpendante sera notØe t et la variable dØpendante x(t).
ORDRE 1 SOLUTION GENERALE

x˙ = ax + b

x˙ = a(t)x + b(t)
x(t) = eA(t) (B(t) + C)
R R
avec A(t) = a(t)dt et B(t) = exp(−A(t))b(t)dt

tx˙ − x = f(x˙) x(t) = Ct + g(C)

ORDRE 2

Øquation de Bernoulli e ectuer le changement de fonction


x˙ + a(t)x + b(t)xα = 0 l’Øquation devient : z˙ = (α − 1)(a(t)z + b(t))

Øquation de Ricat e ectuer le changement de fonction z(t) = x(t) − xp oø xp


est une solution particuliŁre de l’Øquation
x˙ + a(t)x + b(t)x2 + c(t) = 0 on se ramŁne une Øquation de Bernoulli avec α = 2

r1 et r2 racines de l’Øquation caractØristique r2 + ar + b = 0


x¨ + ax˙ + bx = c x(t) = C1er1t + C2er2t + c/b si r = s + ip alors x(t) = est (D1cos(pt)
+ D2sin(pt)) + c/b

Øquation d’Euler changements de variable t = eu et de fonction x(t) = z(u)


t x¨ + atx˙ + bx = c(t)
2
l’Øquation devient : z00 + (a − 1)z0 + bz = c(eu)

ORDRE 3

r1, r2, r3 racines de l’Øquation caractØristique r3 + ar2 + br + c = 0


x(t) = C1er1t + C2er2t + C3er3t
...
x + ax¨ + bx˙ + cx = 0
50 Chapitre IV : RESOLUTION DES EDO

IV.3 LE PROBLEME DE CAUCHY


On appelle problŁme de Cauchy ou problŁme la valeur initiale le problŁme qui consiste trouver une
fonction y(x) dØ nie sur l’intervalle [a,b] telle que :
( y0(x) = f (x,y(x)) ; ∀x ∈ [a,b] y(a) = y0

Si la fonction f est continue et vØri e une condition de Lipschitz par rapport la deuxiŁme variable alors
le problŁme admet une solution unique. On dit que le problŁme est bien posØ.

Attention : un problŁme bien posØ ne signi e pas qu’il peut se rØsoudre numØriquement!

IV.4 PRINCIPE GENERAL DES METHODES NUMERIQUES


Pour obtenir une approximation numØrique de la solution y(x) sur l’intervalle [a,b], nous allons
estimer la valeur de cette fonction en un nombre ni de points xi, pour i = 0,1,...,n, constituants les
noeuds du maillage. La solution numØrique discrŁte obtenue aux points xi est notØe yi = y(xi).

L’Øcart entre deux abscisses, notØ h, est appelØ pas de discrØtisation. Ce pas, dans les mØthodes les
plus simples, est constant, mais il peut Œtre judicieux de travailler avec un pas variable hi = xi − xi−1. Le
choix du maillage et de la rØpartitiondes noeuds peuvent s’avØrer crucial.

Les techniques de rØsolution des EDO sont basØes sur :


• l’approximation gØomØtrique de la fonction
• les formules d’intØgration numØrique (rectangle, trapŁze, Simpson...)
• les dØveloppements de Taylor au voisinage de xi

IV.5 PROPRIETES DES METHODES NUMERIQUES


Plusieurs notions mathØmatiques sont introduites lors de la rØsolution d’EDO au moyen de leurs
Øquivalents discrØtisØs. Les trois principales sont la convergence, la stabilitØ et la consistance (cf.
cours sur la discrØtisation des EDP), permettant de relier la solution exacte des Øquations continues la
solution exacte des Øquations discrØtisØes et la solution numØrique obtenue.

A ces propriØtØs, il convient d’ajouter la notion de prØcision ainsi que des aspects informatiques
comme la facilitØ de mise en oeuvre, les coßts CPU et mØmoire.

Consistance d’une mØthode


La consistance est la propriØtØ qui assure que la solution exacte de l’Øquation discrØtisØe tende vers
la solution exacte de l’Øquation continue lorsque le pas de discrØtisation h tend vers 0.
StabilitØ d’une mØthode
ENSHMG 51

C’est la propriØtØ qui assure que la di Ørence entre la solution numØrique obtenue et la solution
exacte des Øquations discrØtisØes reste bornØe. Le stabilitØ indique si l’erreur augmente ou non au
cours du calcul.
Une mØthode peut Œtre stable sous condition (elle sera dite conditionnellement stable) ou toujours
stable (elle sera dite inconditionnellement stable).

Ordre de prØcision d’une mØthode


L’erreur de troncature ε est dØ nie comme la di Ørence entre la solution exacte y˜ et l’approximation
numØrique obtenue yn, soit : εn =| y˜(xn)−yn |= O(hp). L’ordre de prØcision de la mØthode est donnØe
par l’entier p.

Convergence et taux de convergence d’une mØthode


Une mØthode est convergente si, lorsque le pas de discrØtisation tend vers 0, la solution numØrique
tend vers la solution exacte de l’Øquation continue.
Une mØthode est convergente l’ordre l ssi : nlim→∞ maxi | εi |= O(hl)

RØsultat thØorique : Une mØthode stable et consistante est convergente.

IV.6 LES PRINCIPALES METHODES NUMERIQUES


Les principales mØthodes de rØsolution numØrique des EDO sont sØparØes en deux grands types : •
les mØthodes un pas

Pour ces mØthodes, le calcul de la valeur discrŁte yn+1 au noeud xn+1 fait intervenir la valeur yn
obtenue l’abscisse prØcØdente. Les principales mØthodes sont :
- MØthodes d’Euler explicite et implicite
- MØthode d’Euler amØliorØ
- MØthode d’Euler-Cauchy
- MØthode de Crank-Nicholson
- MØthodes de Runge et Kutta

• les mØthodes pas multiples

Pour ces mØthodes, le calcul de la valeur discrŁte yn+1 au noeud xn+1 fait intervenir plusieurs
valeurs yn,yn−1,yn−2,... obtenues aux abscisses prØcØdentes. Les principales mØthodes sont : -
MØthode de Nystrom ou saute-mouton
- MØthodes d’Adams-Bashforth-Moulton
- MØthodes de Gear
IV.7 METHODES A UN PAS
La formulation gØnØrale des mØthodes un pas explicite est :
52 Chapitre IV : RESOLUTION DES EDO

(
y0 donnØ
yn+1 = yn + φ(xn,yn,h)

oø la fonction φ dØ nit la mØthode utilisØe.

La formulation gØnØrale des mØthodes un pas implicite est :


(
y0 donnØ yn+1 = yn +
φ(xn,yn,yn+1,h)

L’obtention de la solution chaque abscisse nØcessite la rØsolution d’une Øquation.

Ces mØthodes sont obtenues en intØgrant l’Øquation di Ørentielle et en utilisant des formules
d’intØgration numØrique pour le second membre. L’ordre du schØma est Øgal au degrØ du polyn me
pour lequel l’intØgration est exacte + 1.

RØsultats thØoriques :
1) Si la fonction φ est lipschitzienne par rapport la deuxiŁme variable alors les mØthodes
explicites sont stables.
2) Les mØthodes implicites sont toujours stables.
3) Les mØthodes sont consistantes ssi ∀x ∈ [a,b], φ(x,y,0) = f(x,y).

IV.7.1 MØthodes d’Euler explicite et implicite


MØthode explicite, d’ordre 1, dont l’algorithme est :
(
y0 donnØ
yn+1 = yn + hf(xn,yn)

La mØthode peut s’interprØter de plusieurs maniŁres :


1) Via les formules d’intØgration numØrique : la mØthode est le rØsultat de l’application de la
formule des rectangles basØe au point xn.
2) GØomØtriquement : la mØthode revient remplacer localement en chaque point xn la courbe
solution par sa tangente.
3) Via les dØveloppements de Taylor : la mØthode provient du dØveloppement de Taylor d’ordre
1 de la fonction y au voisinage de xn.

MØthode implicite, d’ordre 1, dont l’algorithme est :


(
y0 donnØ yn+1 = yn +
hf(xn+1,yn+1)
ENSHMG 53

IV.7.2 MØthode d’Euler amØliorØ


MØthode explicite dont l’algorithme est :

GØomØtriquement, la mØthode consiste remplacer dans la mØthode


d’Euler la pente de la tangente en (xn,yn) par la
valeur corrigØe au milieu de l’intervcalle [xn,xn+1].

IV.7.3 MØthode d’Euler-Cauchy


MØthode explicite dont l’algorithme est :

 y0 donnØ

GØomØtriquement, la mØthode consiste remplacer dans la mØthode d’Euler la pente de la tangente


en (xn,yn) par la moyenne de cette pente avec la valeur corrigØe en xn+1.

IV.7.4 MØthode de Crank-Nicholson


MØthode implicite, d’ordre 2, dont l’algorithme est :

donnØ

Elle est obtenue en utilisant la formule d’intØgration numØrique des trapŁzes.

IV.7.5 MØthodes de Runge et Kutta


Ce sont des mØthodes d’ordre ØlevØ, obtenues partir des formules d’intØgration numØrique plus
prØcises que la formule des rectangles.

Une mØthode explicite, d’ordre 2, peut Œtre obtenue par l’utilisation de la formule des trapŁzes.
L’algorithme, notØ RK2, s’Øcrit :

 y0 donnØ

Une mØthode explicite, d’ordre 4, peut Œtre obtenue par l’utilisation de la formule de Simpson.
L’algorithme, notØ RK4, s’Øcrit :
54 Chapitre IV : RESOLUTION DES EDO

donnØ

IV.7.5.1 Forme gØnØrale des mØthodes de Runge et Kutta

On cherche rØsoudre le problŁme de Cauchy suivant :

( y0(x) = f (x,y(x)) ; ∀x ∈ [0,1] y(0) = y0

Introduisons q points intermØdiaires dans chaque intervalle [xn,xn+1] notØs xn,1,xn,2,...,xn,q. On se donne
c1,c2,...,cq rØels dans l’intervalle [0,1] et on pose xn,i = xn + cih pour i = 1 q.

La valeur discrŁte yxn,i vØri e :

On choisit q+1 mØthodes d’intØgration q points pour approximer ces intØgrales. Ce qui revient se
donner q(q + 1) paramŁtres (aij)1≤i,j≤q et (bi)1≤i≤q tels que :
Z Xq
ci f (xn + τh,y(xn + τh)) dτ
→ aijf (xn + cjh, y(xn + cjh))
0 j=1
Z 1 f (xn + τh,y(xn + τh)) dτ Xq
0 → bif (xn + cih, y(xn + cih))
i=1
Au bilan la formulation de la mØthode est :
donnØ

 Xq
yn,i yn + h aijf(xn,j,yn,j)
j=1
= Xq
yn + h bif(xn,i,yn,i)

 yn+1 =

ENSHMG 55

i=1

La mØthode se caractØrise par les paramŁtres (aij), (bi) et (ci). On construite le tableau qui rassemble
ces paramŁtres :
c1 a11 a12 ··· a1
q
c1 ··· a2
a21 a22 q
... ... ...

c aq1 aq
q aq2 ... q
b1 b2 ··· bq
Par exemple, les paramŁtres de deux mØthodes d’ordre 4 (dont l’algorithme RK4) :

0 0 0 0 0 0 0 0 0 0
1/3 1/3 0 0 0 1/2 1/2 0 0 0
2/3 -1/3 1 0 0 1/2 0 1/2 0 0
1 1 -1 1 0 1 0 0 1 0
1/8 3/6 3/6 1/8 1/6 2/6 2/6 1/6

alors la mØthode est consistante.

IV.7.5.2 MØthodes de Runge et Kutta implicites

Des mØthodes de Runge et Kutta implicites (ou mØthodes de Radau) peuvent aussi Œtre construites
partir des techniques d’intØgration numØriques.

Une mØthode implicite, d’ordre 3, peut Œtre obtenue :

donnØ

Il est nØcessaire de rØsoudre un systŁme linØaire pour Øvaluer k1 et k2.

Par exemple, les paramŁtres (aij), (bi) et (ci) pour les mØthodes d’ordre 3 et 5 sont :
56 Chapitre IV : RESOLUTION DES EDO

√ √ √ √
4− 6 88 − 7 6 296− 169 6 − 2+3 6
1/3 5/12 -1/12
10√ 360 √ 1800√ 225√
1 3/4 1/4 4− 6 296+169 6 88+7 6 − 2− 3 6
3/4 1/4 10 1800√ 360√ 225
16 − 6 16+ 6 1
1
36√ 36√ 9
16 − 6 16+ 6 1
36 36 9
IV.7.5.3 Application un systŁme

ConsidØrons le systŁmes d’EDO aux valeurs initales suivant :



 y0(x) = f (x,y(x),z(x)) ; g x,z ∈ [a,b]
z0(x) = (x,y(x),z(x))
 = y0 et z(a) = z0
y(a)
L’algorihme de Runge-Kutta RK2 s’Øcrit, pour ce systŁme :


 y0,z0 donnØs

L’algorihme de Runge-Kutta RK4 s’Øcrit, pour ce systŁme :

donnØs

IV.8 METHODES A PAS MULTIPLES


ENSHMG 57

IV.8.1 MØthode de Nystrom ou saute-mouton


MØthode 2 pas dont l’algorithme est :

donnØ
calculØ avec une mØthodeun pas

yn+1 = yn−1 + 2hf(xn,yn)

GØomØtriquement : on considŁre la droite de pente f(xn,yn) passant par le point (xn−1,yn−1) parallŁle la
tangente passant par (xn,yn). La valeur yn+1 est l’ordonnØe du point de cette droite d’abscisse xn+1.

IV.8.2 MØthodes d’Adams-Bashforth-Moulton


MØthodes basØes sur des techniques d’intØgration numØrique, dont la formulation gØnØrale est :

MØthode d’Adams- Bashforth 2 pas, explicite,

d’ordre 2 : donnØ


y1 calculØ avec une mØthode un pas



MØthode d’Adams-Bashforth 3 pas, explicite, d’ordre 3 :


 y0 donnØ

y1,y2 calculØs avec une mØthode un pas

MØthode d’Adams-Bashforth 4 pas, explicite, d’ordre 4 :

donnØ

y1,y2,y3 calculØs avec une mØthode un pas


MØthode d’Adams-Moulton 1 pas, implicite, d’ordre 2 :

 y0 donnØ
58 Chapitre IV : RESOLUTION DES EDO

MØthode d’Adams-Moulton 2 pas, implicite, d’ordre 3 :


 y0 donnØ

y1 calculØ avec une mØthode un pas

MØthode d’Adams-Moulton 3 pas, implicite, d’ordre 4 :


 y0 donnØ

y1,y2 calculØ avec une mØthode un pas

Pour rendre les mØthodes d’Adams-Moulton explicite, on remplace le yn+1 "gØnant" par son
estimation par la mØthode d’Adams-Bashforth. Sont construits ainsi des schØmas explicites dits

prØdicteur-correcteur, par exemple un schØma d’ordre 2 : donnØ


 y1 calculØ avec une mØthode un pas

Le schØma prØdicteur-correcteur d’ordre 4 est :

donnØ


 y1,y2 calculØ avec une mØthode un pas

IV.8.3 MØthodes de Gear


ENSHMG 59

Les mØthodes de Gear ne sont pas construites partir de techniques d’intØgration numØrique mais
directement partir de polyn me d’interpolation passant par p points (xi+1,yi+1) , (xi,yi),...,
(xi−p+1,yi+1).

2 pas, implicite, d’ordre 2 :


MØthode de Gear
donnØ

y1 calculØ avec une mØthode un pas



MØthode de Gear 3 pas, implicite, d’ordre 3 :


 y0 donnØ

y1,y2 calculØ avec une mØthode un pas

MØthode de Gear 4 pas, implicite, d’ordre 4 :


 y0 donnØ

y1,y2,y3 calculØ avec une mØthode un pas

IV.9 LES DIFFERENCES FINIES


Il est possible de rØsoudre une EDO ou un systŁme d’EDO en utilisant une discrØtisation de type di
Ørences nies (cf. cours sur la discrØtisation des EDP).
Un maillage du domaine de dØ nition de la fonction inconnue est construit. Les dØrivØes de la
fonction inconnue sont approximØes par un schØma aux di Ørences nies ce qui permet d’obtenir une
relation de rØcurrence sur les inconnues discrŁtes.
IV.10 CONDITION DE STABILITE
ConsidØrons un problŁme la valeur initiale :
( y0(x) = f (x,y(x)) ; x ∈ [0,T] y(0) = y0

Si , il existe un pas de discrØtisation seuil hmax partir duquel une mØthode explicite sera stable.
La condition de stabilitØ s’Øcrit :
60 Chapitre IV : RESOLUTION DES EDO

Si , les methodes explicites sont instables quelque soit le pas de discrØtisation h. Les
mØthodes sont dites inconditionnellement instables.

Dans certains cas, la dØrivØe peut changer de signe. Le comportement de la mØthode est instable
dans certains intervalles et stable dans d’autres.

Cas particulier d’une EDO linØaire


Dans le cas particulier d’une EDO linØaire, la solution numØrique satisfait une Øquation rØcurrente
linØaire p + 1 niveaux :

apyn+p + ap−1yn+p−1 + ... + a0yn = bn

Soient r1, r2, ..., rp les racines complexes de l’Øquation caractØristique associØe :

aprp + ap−1rp−1 + ... + a1r + a0 = 0

La condition de stabilitØ s’Øcrit : ∀i,| ri |< 1


60 Chapitre IV : RESOLUTION DES EDO
62 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

Chapitre V

RESOLUTION DES SYSTEMES


LINEAIRES

V.1 INTRODUCTION

ConsidØrons un systŁme d’Øquations linØaires de la forme AX = B avec A une matrice inversible de


dimension n × n, B un vecteur connu et X le vecteur des inconnus.
     x1
a11 b1
    
a21  
 ... a12 a1n  x...2  =
 a22 ··· a2n  b... 
2

an1 ···
... ...  
··· 
an2 ··· ann xn bn
Il existe deux grandes familles de mØthodes de rØsolution :
• Les mØthodes directes qui permettent de rØsoudre le systŁme soit par triangularisation ou soit
par factorisation de la matrice A. Les principales mØthodes sont :
- Le pivot de Gauss
- La factorisation LU
- La factorisation de Cholesky
- Les factorisations de Householder et QR

Ces mØthodes sont utilisØes pour les matrices pleines et les petits systŁmes (n peu elevØ).

• Les mØthodes itØratives qui introduisent une notion de convergence vers la solution. Les
principales mØthodes sont :
- MØthode de Jacobi
- MØthode de Gauss-Seidel (avec ou sans relaxation)
- MØthode du gradient conjuguØ (avec ou sans prØcondionnement)

Ces mØthodes sont utilisØes pour les matrices creuses et les grands systŁmes.
V.2 PIVOT DE GAUSS
La mØthode d’Ølimination de Gauss a pour but de transformer le systŁme de dØpart en un systŁme
ayant la mŒme solution de la forme UX = B0 oø U est une matrice triangulaire supØrieure et B0 un
vecteur. La rØsolution est en deux Øtapes :
63

• Triangularisation de la matrice A.
• RØsolution du systŁme triangulaire en cascade.

V.2.1 Triangularisation de Gauss

Posons A(1) = A, B(1) = B et introduisons le multiplicateur . L’inconnue x1 peut


s’Øliminer des lignes i = 2,...,n en leur retranchant li fois la premiŁre ligne. En faisant, la mŒme chose
1

pour le membre de droite, on dØ nit :

a(2)ij = a(1)ij − li1a(1)1j pouri,j = 2,...,n b(2)i = b(1)i


l
− i1 b(1)1

Un nouveau systŁme est obtenu, de la forme A(2)X = B(2), Øquivalent au systŁme de dØpart :

Ce systŁme peut nouveau Œtre transformØ de fa on Øliminer l’inconnue x2 des lignes 3,...,n. En
pousuivant ainsi, on obtient une suite de systŁme equivalents : A(k)X = B(k). Pour k = n, on aboutit au
systŁme triangulaire supØrieur A(n)X = B(n) :
    
(1) (1) (1) (1) (1)

 a110 aa(2)2212 ······ aa1(2)2nn−−11

aa1(2)2nn  xx21   bb(2)21


   0... 0... a.(3)33.. ···... a3(3)...n

 x...3  =  b(3)3...



0 0 ··· 0 a(nnn) xn b(nn)

On note U (upper) la matrice triangulaire supØrieure A(n). Les termes sont appelØs pivots et
doivent Œtre Øvidemment non nuls.
Pour passer du k-iŁme systŁme au k + 1-iŁme systŁme, les formules sont :

pouri = k + 1,...,n

pouri,j = k + 1,...,n

pouri = k + 1,...,n
64 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

AprŁs triangularisation, le systŁme UX = B0 se rØsout en cascade en commen ant par xn.


ENSHMG 65

V.2.2 Coßt de la mØthode


Pour e ectuer l’Ølimination de Gauss, 2(n − 1)n(n + 1)/3 + n(n − 1) opØrations ou ops (pour oating
operations) sont nØcessaires, auxquels il faut ajouter n2 ops pour la rØsolution par remontØe du
systŁme triangulaire. Pour n grand, la mØthode requiert environ 2n3/3 ops.

V.2.3 Pivot nul et choix du pivot La mØthode de Gauss n’est correctement dØ nie que si les pivots
sont non nuls pour k = 1,...,n − 1. Si le terme diagonal est nul, il faut choisir un autre ØlØment
non nul de la colonne k pour calculer le multiplicateur lik en permutant l’ordre des lignes de la
matrice.

Attention aussi au choix du pivot, de grosses erreurs peuvent en dØcouler. Si le terme diagonal akk est
trŁs petit, il faut choisir un autre terme pour Øvaluer le pivot lik en permutant l’ordre des lignes de la
matrice.

V.3 FACTORISATION LU
La factorisation LU (Lower Upper) pour une matrice A inversible consiste dØterminer deux matrices
triangulaires, l’une infØrieure L et l’autre supØrieure U telles que A = L × U. Cette dØcomposition,
unique, existe ssi les n mineurs de A sont non nuls.

La matrice U est obtenue par la mØthode d’Ølimination de Gauss. Et la matrice L fait intervenir les pivots
successifs de l’algorithme de Gauss lik :

La factorisation LU est utile lors de la rØsolution d’une suite de systŁmes de mŒme matrice A oø seul
le vecteur B change (exemple : calcul d’une mŒme structure soumise di Ørents cas de charge).

Une fois calculØe L et U, rØsoudre le systŁme de dØpart consiste rØsoudre successivement les deux
systŁmes triangulaires LY = B puis UX = Y .
V.4 FACTORISATION DE CHOLESKY
MØthode de factorisation pour une matrice A dØ nie positive et symØtrique.
Il existe une unique matrice R triangulaire infØrieure dont les termes diagonaux sont strictement positifs
telle que A = R ×t R. Les ØlØments de R sont, pour i = 1 n :
66 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

!
; pour j=i+1 n

Le systŁme rØsoudre AX = B se ramŁne alors la rØsolution de deux systŁmes triangulaires :


RY = B et t
RX = Y

Coßt de la mØthode pour n grand → n3/3 ops.

V.5 FACTORISATIONS DE HOUSEHOLDER ET QR


V.5.1 Transformation de Householder
Soit v un vecteur quelconque de composante vi. Soit le vecteur u de composantes ui telles que :
u1 = v1+ || v || et ui = vi, pour i = 2,...,n.

On appelle matrice de Householder, la matrice H symØtrique et orthogonale, dØ nie par :

La multiplication de H par v transforme le vecteur v en un vecteur dont toutes les composantes sont
nulles sauf la premiŁre :

V.5.2 Triangularisation de Householder


Posons A(1) = A, B(1) = B et e ectuons la transformation de Householder du premier vecteur colonne de
A(1). Notons H(1) la matrice de Householder. Une nouvelle matrice et un nouveau vecteur sont
construits par multiplication par cette matrice : A(2) = H(1)A(1) et B(2) = H(1)B(1).

Le nouveau systŁme linØaire A(2)X = B(2) est Øquivalent au prØcØdent (c’est- -dire de mŒme solution). La
matrice A(2) a sa premiŁre colonne nulle sauf la premiŁre composante :
ENSHMG 67

Puis on e ectue une nouvelle transformation de Householder partir du deuxiŁme vecteur colonne
˜
pour i = 2,...,n. Notons H (2) la matrice de Householder de dimension n − 1. On calcule la matrice H(2)
de dimension n de la fa on suivante :

1 0 ··· 0

0

H(2) = .
 . H˜(2)
. 
0
On construit une nouvelle matrice et un nouveau vecteur par multiplication par cette matrice :
A(3) = H(2)A(2) et B(3) = H(2)B(2). Le nouveau systŁme linØaire A(3)X = B(3) est Øquivalent aux deux
prØcØdents. La matrice A(3) a ses deux premiŁres colonnes nulles sous la diagonale :

(2)
a
 11 a(2)13
0 a(2)12
 a(3)23
A =  0
(3) a(3)22
a(3)33 ···
 ... 0 ··· ···
 ... ... ...

0 0 a(3)3n ···
AprŁs k − 1 itØrations du mŒme type, on a dØterminØ une matrice A(k) et un vecteur B(k). On e ectue
une nouvelle transformation de Householder partir du k-iŁme vecteur colonne aik(k) pour i = k,...,n.
˜
Notons H (k) la matrice de Householder de dimension n−k+1. On calcule la matrice H(k) de dimension
n de la fa on suivante :

Ik−1 0

0 H˜(k)





 H(k) = 




68 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

On construit une nouvelle matrice et un nouveau vecteur par multiplication par cette matrice :
A(k+1) = H(k)A(k) et B(k+1) = H(k)B(k). Le nouveau systŁme linØaire A(k+1)X = B(k) est Øquivalent aux k
prØcØdents.

AprŁs n − 1 itØrations, on aboutit au systŁme linØaire A(n)X = B(n) oø la matrice A(n) est triangulaire
supØrieure. Le systŁme se rØsout alors en cascade en commen ant par xn.
V.5.3 Factorisation QR
MØthode de factorisation pour une matrice A quelconque basØe sur la triangularisation de
Householder. Il existe une unique dØcomposition A = Q×R en une matrice R triangulaire supØrieure
et une matrice Q orthogonale.

Les matrices R et Q sont dØterminØes partir des n−1 matrices de Householder H(1),H(2),...,H(n−1) et de la
matrice A(n) : R = A(n) et Q = H(1) × H(2) × ... × H(n−1)

Le systŁme AX = B se ramŁne alors la rØsolution d’un systŁme triangulaire : RX = tQB

V.6 METHODES ITERATIVES


Ces mØthodes induisent un processus itØratif par construction d’une suite de vecteur qui converge
vers la solution du systŁme. A chaque itØration k + 1, un vecteur X(k+1) est ØvaluØ partir du vecteur de
l’itØration prØcØdente X(k), ce qui peut s’Øcrire sous forme matricielle :

MX(k+1) = NX(k) + B

oø les matrices M et N vØri ent M − N = A.

Il se pose plusieurs problŁmes :


• Initialisation de la mØthode, choix du vecteur X(0).
• Condition de convergence.
• CritŁre de convergence et nombre d’itØrations e ectuer.
• Vitesse de convergence et e cacitØ de la mØthode.

Le vecteur R(k) = B − AX(k) s’appelle le vecteur rØsidu. Il tend vers le vecteur nul lorsque la mØthode
converge.

V.6.1 MØthode de Jacobi


1) Initialisation avec un X(0) arbitraire.
2) A l’itØration k + 1, le vecteur X(k+1) est calculØ par la relation :
ENSHMG 69

Sous forme matricielle, en dØcomposant la matrice A en trois matrices D, E et F respectivement


diagonale, triangulaire infØrieure et triangulaire supØrieure :

X(k+1) = D−1(E + F)X(k) + D−1B

V.6.2 MØthode de Gauss-Seidel


1) Initialisation avec un X(0) arbitraire.
2) A l’itØration k + 1, le vecteur X(k+1) est calculØ par la relation :

Sous forme matricielle : X(k+1) = (D − E)−1FX(k) + (D − E)−1B

V.6.3 MØthode de Gauss-Seidel avec sur- ou sous-relaxation


La mØthode permet d’accØlØrer la convergence par rapport la mØthode de Gauss-Seidel. Elle
consiste pondØrer, chaque itØration, le rØsultat obtenu par la mØthode de Gauss-Seidel et le
rØsultat de l’itØration prØcØdente, par l’intermØdiaire d’un paramŁtre de relaxation ω compris entre
0 et 2.

Si l’on note la valeur de xi l’itØration k + 1 ØvaluØe par la mØthode de Gauss-Seidel. La valeur


l’itØration k + 1 est :
70 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

Pour ω = 1, on retrouve la mØthode Gauss-Seidel.


Pour ω > 1, on parlera de sur-relaxation.
Pour ω < 1, on parlera de sous-relaxation.

Sous forme matricielle :

V.6.4 Condition de convergence

Une condition nØcessaire et su sante de convergence d’une mØthode itØrative est que le rayon
spectral de la matrice L = M−1 ×N (oø M et N dØpendent de la mØthode itØrative choisie) soit
infØrieur 1.
ρ(L) < 1 ⇔ convergence

En pratique cette condition est di cile utiliser car elle nØcessite de conna tre le maximum en module des
valeurs propres de la matrice L.

Pour les mØthodes de Jacobi et Gauss-Seidel, il existe une condition su sante de convergence plus
pratique vØri er, savoir que la matrice A soit diagonale dominante.

pour toutes les colonnes, convergence

pour toutes les lignes, convergence

En consØquence : modi er l’ordre des lignes ou des colonnes de la matrice A pour obtenir une diagonale
dominante.

Pour la mØthode de Gauss-Seidel avec sur- ou sous-relaxation, il existe une autre condition nØcessaire et
su sante dans le cas oø la matrice A est symØtrique :
A dØ nie positive ⇔ convergence pour A symØtrique

V.7 METHODE DU GRADIENT CONJUGUE

MØthode "itØrative" pour une matrice A dØ nie positive et symØtrique. L’algorithme converge en au
plus n itØrations. En thØorie c’est une mØthode directe. En pratique cause des erreurs d’arrondi on la
considŁre comme une mØthode itØrative.

RØsoudre le systŁme AX = B est Øquivalent chercher le minimum de la fonction quadratique


J(X) dØ nie par : J(X) =< AX,X > −2 < B,X >
ENSHMG 71

Le minimum est obtenu en annulant le gradient de J (d’oø le nom de mØthode du gradient).

La forme matricielle de la mØthode itØrative est : X(k+1) = X(k) + αkP(k) oø P(k) est un
vecteur et αk un scalaire.
On note R(k) = B − AX(k) le vecteur rØsidu l’itØration k.
V.7.1 L’algorithme
1) Initialisation avec un X(0) arbitraire, rØsidu R(0) = B − AX(0) et vecteur P(0) = R(0) 2) ItØration k
variant de 0 n − 1, n de l’algorithme si le rØsidu R(k+1) est nul.

V.7.2 Coßt de la mØthode


Le coßt de la mØthode, pour n grand, est de 2n3 ops. C’est bien supØrieur Cholesky.

Pour diminuer le coßt on introduit un prØconditionnement de la matrice A. Le coßt devient alors


infØrieur n opØrations.

V.8 GRADIENT CONJUGUE PRECONDITIONNE


Le principe consiste remplacer le systŁme initial AX = B par le systŁme C−1AX = C−1B avec une matrice
de prØconditionnement C−1bien choisie. Cette mØthode est l’une des mieux adaptØes la rØsolution
de grand systŁme linØaire dont la matrice est symØtrique, dØ nie positive et creuse.

V.8.1 L’algorithme
1) Initialisation avec un X(0) arbitraire, rØsidu R(0) = B −AX(0). Le vecteur P(0) est obtenu en rØsolvant le
systŁme CP(0) = R(0). On introduit le vecteur Z(0) = R(0). 2) ItØration k variant de 0 n − 1
72 Chapitre V : RESOLUTION DES SYSTEMES LINEAIRES

A chaque itØration, il faut rØsoudre le systŁle linØaire CZ = R.


Il existe plusieurs prØconditionnements, citons par exemple :
- SSOR d’Evans
- prØconditionnement basØ sur Cholesky C = T tT

V.8.2 Comparaison avec Cholesky


Cholesky Gradient ConjuguØ ops(Chol)/ Mem(Chol/
ops(GC) Mem(GC)
n m/n2 ops mØmoir ops mØmoir
e e
47 0.12 8.05103 464 1.26104 228 0.64 2.04
83 0.07 3.9610 4
1405 3.0310 4
533 1.31 2.64
150 0.04 2.0110 5
4235 8.8610 4
1245 2.26 3.4
225 0.03 6.3910 5
9260 1.9510 5
2073 3.27 4.47
329 0.02 1.7410 6
17974 3.3910 5
3330 5.15 5.39
424 0.02 3.7810 6
30185 5.4910 5
4513 6.88 6.83
530 0.01 8.3110 6
50785 8.6110 5
5981 9.65 8.49
661 0.01 1.1910 7
68468 1.1110 6
7421 10.66 9.23
Tab. V.1 Coßt de calcul ( ops) et de la mØmoire occupØe (bytes) entre les mØthodes de Cholesky et du
Gradient ConjuguØ pour des matrices creuses n × n avec m ØlØments non nuls.
ENSHMG 73

Fig. V.1 Coßt de calcul CPU entre les mØthodes de Cholesky et du Gradient ConjuguØ pour des matrices
creuses n × n.
74

Chapitre VI

RESOLUTION DES SYSTEMES NON


LINEAIRES

VI.1 EQUATIONS NON LINEAIRES


Le problŁme consiste trouver les solutions d’une Øquation non-linØaire de la forme F(x) = 0. Il peut
aussi se formuler comme la recherche du point xe de la fonction G(x) = F(x) + x. Les mØthodes qui
seront ØtudiØes ici procŁdent par itØrations. Partant d’une valeur initiale x0, un algorithme itØratif
permet de calculer les itØrØs successifs x1,x2,x3,.... Le calcul est arrŒtØ lorsqu’une prØcision su sante
est atteinte.
Parfois, la convergence n’est garantie que pour certaines valeurs de x0. Parfois encore, l’algorithme

peut ne pas converger. Quelles sont les di cultØs des mØthodes itØratives?

• Le choix de x0
• La convergence (locale, globale) de la mØthode
• La vitesse de convergence et l’e cacitØ de la mØthode
• La propagation des erreurs numØriques et la prØcision

Les principales mØthodes itØratives :


• MØthode du point xe
• MØthode de Newton ou Newton-Raphson
• MØthode de la sØcante (ou regula-falsi)
• MØthode de la parallŁle
• MØthode de Ste ensen
• MØthode de Bairstow (racine d’un polyn me)
VI.1.1 Vitesse de convergence
Soit une suite (xn), issue d’une mØthode itØrative, qui converge vers X. On s’intØresse la vitesse de
convergence de cette suite. On dit que :
• la convergence est d’ordre 1 ou linØaire si il existe β ∈]0,1[ tel que

Si β = 0 la convergence est dite super linØaire.


ENSHMG 75

• la convergence est d’ordre p si il existe β > 0 tel que

Si p = 2, la convergence d’ordre 2 est dite quadratique. Si p =


3, la convergence d’ordre 3 est dite cubique.

Remarque : p n’est pas forcØment un nombre entier.

La suite convergence d’autant plus rapidement que la valeur de p est elevØe.

VI.1.2 MØthode du point xe


MØthode pour rØsoudre G(x) = x

L’algorithme 1)

Choix d’un x0.

2) ItØration xn+1 = G(xn) jusqu’ convergence.

Convergence de la mØthode

Notons r l’unique point xe de G(x) sur l’intervalle [a,b]. si x0 ∈ [a,b] et si | G0(r) |< 1
alors la mØthode converge vers r.

On appelle bassin d’attraction du point xe r le voisinage de r pour lequel la mØthode du point xe


converge vers r quelque soit la valeur initiale x0 appartenant ce voisinage.
| G (r) |< 1
0
→ le point xe est dit attractif
| G0(r) |> 1 → le point xe est dit rØpulsif
| G0(r) |< 1 → cas indØterminØ
76 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

Fig. VI.1 Point xe - concergence et divergence

VI.1.3 MØthode de Newton

MØthode trŁs utilisØe pour rØsoudre F(x) = 0

L’algorithme

1) Choix d’un x0.

2) ItØration jusqu’ convergence.

Convergence de la mØthode

Notons X l’unique racine de F(x). Si x0 est su samment proche de X alors la mØthode converge vers X
et la convergence est quadratique.
Dans le cas d’une racine multiple, la convergence est linØaire.
Les problŁmes de la mØthode

1) Une premiŁre di cultØ appara t lorsque la dØrivØe F0(xi) est nulle, la formule n’est alors plus
applicable.
2) Lorsque la valeur de la pente de la tangente F0(xi) est non nulle mais trŁs petite, le point xi+1
peut se retrouver trŁs loin de xi. Ceci peut entra ner une convergence, par accident, vers une
racine trŁs ØloignØe de x0.
3) Des situations de bouclage peuvent se produire si des termes de la suite se rØpØtent.

VI.1.4 MØthode de la parallŁle

MØthode pour rØsoudre F(x) = 0


ENSHMG 77

L’algorithme 1) Choix d’un x0 et

d’un rØel λ.

2) ItØration xn+1 = xn − λF(xn) jusqu’ convergence.


Le rØel λ est souvent choisi Øgale 1/F0(x0)

Pour x0 su sament proche de la racine X, la mØthode convergence linØairement.

VI.1.5 MØthode de la sØcante

MØthode pour rØsoudre F(x) = 0

L’algorithme

1) Choix d’un x0.


2) Calcul de x1 par la mØthode de Newton.

3) ItØration jusqu’ convergence.

Pour x0 su sament proche de la racine X, la mØthode convergence l’ordre 1.618.

VI.1.6 MØthode de Ste ensen

MØthode pour rØsoudre G(x) = x

L’algorithme 1)

Choix d’un x0.

2
2) ItØrationjusqu’ convergence.

Si x0 est su samment proche de X alors la convergence de la mØthode est quadratique.


VI.1.7 Racines de polyn mes
VI.1.7.1 RØduction polynomiale

La recherche de racines d’un polyn me se construit de la maniŁre suivante : soit Pn(x) un polyn me de
degrØ n, si on obtient une premiŁre racine x1, on peut Øcrire

Pn(x) = (x − x1)Pn−1(x)

oø Pn−1(x) est un polyn me de degrØ n − 1.


78 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

Ainsi, une fois obtenue une premiŁre racine, on peut recommencer la recherche d’une autre racine
pour un polyn me de degrØ strictement infØrieur. On poursuit cette procØdure jusqu’ l’obtention des
n racines complexes du polyn me.

VI.1.7.2 MØthode de Bairstow

Soit P(x) un polyn me de degrØ n : P(x) = a0xn + a1xn−1 + ... + an−1x + an

La mØthode consiste calculer les facteurs quadratiques de P (les polyn mes de degrØ 2) :

Si n est pair (n = 2p),

Si n est impair (n = 2p + 1), P(x) = a0 (x − α) Yp ¡x2 + pjx + qj¢


j=1 L’algorithme

On introduit le polyn me Q(x) de degrØ n−2 et les fonctions R(p,q),S(p,q) obtenus par division de
P(x) par le polyn me x2 + px + q de degrØ 2 :

¡ ¢
P(x) = Q(x) x2 + px + q + xR(p,q) + S(p,q)

avec Q(x) = b0xn−2 + b1xn−3 + ... + bn−3x + bn−2 Si x2 + px


+ q est un diviseur de P(x), on a :

 R(p,q) = 0

P(p,q) = 0

Pour trouver p et q, il su t de rØsoudre ce systŁme. Par exemple par la mØthode Newton :

On obtient en identi ant :

R(p,q) = bn−1 ; S(p,q) = bn + pbn−1

avec
ENSHMG 79

b−1 = 0 , b0 = a0 , c−1 = 0 , c0 = b0 bk = ak − pbk−1 −

qbk−2 pour k = 1,...,n ck = bk − pck−1 − qck−2 pour k

= 1,...,n − 1

VI.2 SYSTEMES D’EQUATIONS NON LINEAIRES


La mØthode de Newton vue prØcØdemment pour une Øquation non linØaire peut Œtre gØnØralisØe
pour rØsoudre des systŁmes n Øquations non linØaires :

Ou encore, chercher un vecteur X = (x1,x2,...,xn) vØri ant F(X) = 0

L’algorithme

.
1) Choix d’un vecteur inital X(0)h i−1
2) ItØration X (k+1)
= X − J(X ) F(X(k)) jusqu’ convergence. oø J(X(k)) est la matrice
(k) (k)

jacobienne ØvaluØ en X(k).

Ce qui s’Øcrit encore :

En posant ∆X(k) = X(k+1) − X(k), le problŁme revient rØsoudre le systŁme linØaire suivant, chaque
itØration k :
J(X(k))∆X(k) = −F(X(k))

La mØthode de Newton linØarise ainsi le systŁme. Il faut alors, chaque itØration, rØsoudre un
systŁme linØaire jusqu’ ce que le vecteur X soit su sament proche de la solution.

Pour une seule Øquation non linØaire et une suite de rØels, le critŁre d’arrŒt est basØ sur l’erreur εk
=| xk+1 − xk | entre le rØsultats de deux itØrations successives (par exemple, ε < 10−5). Pour un systŁme
80 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

d’Øquations et une suite de vecteurs, le critŁre d’arrŒt est basØ sur la norme entre le rØsultats de
deux itØrations successives : || X(k+1) −X(k) ||, qui doit Œtre infØrieure une valeur donnØe.

En calcul numØrique, trois normes sont frØquemment utilisØes : 1)

La norme
q
2) La norme euclidienne ou L2 : || X ||2 = x21 + x22 + ... + x2n

3) La norme in nie : || X ||∞= maxi | xi |


78 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES
82 Chapitre VII : INTERPOLATION ET APPROXIMATION

Chapitre VII

INTERPOLATION ET APPROXIMATION

VII.1 GENERALITES
VII.1.1 Le problŁme
Etant donnØ une fonction f, dØ nie soit de fa on discrŁte, soit de fa on continue, l’objectif est de
dØterminer une autre fonction g, de forme donnØe, qui, en un certain sens, approche le mieux
possible la fonction f.

VII.1.2 Les 3 grandes classes d’approximation fonctionnelle


Il existe trois grandes classes de mØthodes :
• l’interpolation
On approche la fonction f par une fonction g appartenant une classe de fonctions
approximantes (souvent des polyn mes) et qui co ncide avec f en n points discrets.

• l’approximation aux moindres carrØs


On minimise la somme des carrØs des erreurs en n points x1,x2,...,xn, c’est- -dire qu’on cherche g
qui minimise la quantitØ :

• l’approximation uniforme
On minimise le maximum de l’amplitude de l’erreur entre la fonction f et son approximation Les
points de collocation s’expriment en fonction des racines des polyn mes de Tchebychev.

VII.1.3 Les 3 grandes familles de fonctions approximantes


Les trois grandes familles de fonctions approximantes sont :
• les polyn mes (thØorŁme de Stone-Weierstrass)
• les fractions rationnelles (approximants de PadØ)
• les fonctions trigonomØtriques (sØrie de Fourrier)
VII.2 INTERPOLATION
VII.2.1 Le thØorŁme de Stone-Weierstrass
Toute fonction numØrique continue dØ nie sur un compact de Rn est limite d’une suite de polyn mes
qui converge uniformØment sur ce compact.

Toute fonction continue valeurs complexes, pØriodique de pØriode 2π, est limite d’une suite de polyn
mes trigonomØtriques qui converge uniformØment sur C.
83

VII.2.2 MØthode de Lagrange


ConsidØrons une fonction f connue en n + 1 points x0,x1,...,xn (appelØs points de collocation). On
cherche un polyn me de degrØ infØrieur ou Øgal n qui passe par ces n + 1 points.

Il existe un UNIQUE polyn me Pn(x) qui co ncide avec f(x) aux n+1 points, savoir Pn(xi) = f(xi). Ce
polyn me a pour expression :

Les polyn mes Li(x) sont les polyn mes de Lagrange et Pn(x) est le polyn me d’interpolation de
Lagrande de f aux ponts xi.

Coßt de l’interpolation : pour n grand → 3n2 opØrations.

VII.2.3 MØthode de Neville-Aitken


Le polyn me d’interpolation Pn(x) est calculØ l’aide d’une formule de rØcurrence.

Initialisation : Pi,i(x) = f(xi), pour i = 0 n

ItØration : , pour i = 0 n, j > i

Le polyn me d’interpolation est Pn(x) = P0,n(x).

VII.2.4 MØthode de Newton


Q
On introduit les polyn mes de Newton Qi(x) dØ nis par : Qi(x) = (x − xj) et Q0(x) = 1
j<i

On appelle di Ørences divisØes d’ordre k de la fonction f aux points x0,x1,...,xk la quantitØ notØe
f[x0,x1,...,xk] dØ nie par rØcurrence :

 f[xi] = f(xi)pour i=0 n
84 Chapitre VII : INTERPOLATION ET APPROXIMATION

Le polyn me Pk(x) d’interpolation de Newton de la fonction f aux points x0,x1,...,xk−1 est dØ ni par
rØcurrence :
Pk(x) − Pk−1(x) = f[x0,x1,...,xk]Qk(x)

Le polyn me Pn(x) d’interpolation de Newton de la fonction f aux points x0,x1,...,xn est :

Coßt de l’interpolation : pour n grand → n3 opØrations.

VII.2.5 MØthode de Hermite


Plut t que de faire co ncider la fonction f et le polyn me Pn aux points xi, on peut chercher faire aussi
co ncider les dØrivØes de f et de Pn en ces points, jusqu’ un ordre xØ que l’on notera αi aux points xi.
Posons N = n + α0 + α1 + ... + αn

Si f admet des dØrivØes d’ordre αi aux points xi, il existe un UNIQUE polyn me PN tel que :

PN est le polyn me d’interpolation de Hermite de f aux points xi aux ordres αi. Pour αi = 0, on
retrouve le polyn me d’interpolation de Lagrange.

VII.2.6 Interpolation par morceaux - spline cubique


Sur tout intervalle [xi−1,xi], entre deux points de collocation, on e ectue une interpolation LOCALE avec
des polyn mes de bas degrØ Pk(x) (degrØ 1, 2 ou 3).
Les polyn mes se raccordent aux pointx xi ainsi que leurs dØrivØes d’ordre aussi ØlevØ que possible.

Spline cubique

Le polyn me d’interpolation locale est de degrØ 3. Le fonction interpolante S(x) est constituØe de
morceaux de polyn mes de degrØ 3 qui se raccordent, ainsi que que leurs dØrivØes premiŁres et
secondes, aux points de collocation.

Sur chaque intervalle [xi−1,xi], la restriction de S(x) est un polyn me Pi(x) de degrØ 3 tel que :

 Pi(xi−1) = f(xi−1) et Pi(xi) = f(xi) = fi

Les polyn mes Pi(x) ont pour expression :

Avec : hi = xi − xi−1 et les αi solutions du systŁme suivant :


ENSHMG 85

oø les paramŁtres α0 = f00(x0) et αn = f00(xn) sont choisis arbitrairement (nuls par exemple).

VII.2.7 Limites de l’interpolation polyn miale


L’interpolation polyn miale pose plusieurs problŁmes :
→ lorsque le nombre de points de collocation est grand (instabilitØ de calculs, erreurs d’arrondi et
coßt de calculs).
→ en pratique, les valeurs discrŁtes rØsultent d’expØriences ou de simulations numØriques. Ce
sont des valeurs approximatives. Il est souvent plus intØressant de chercher une bonne
approximation plut t qu’une interpolation.
Par exemple, un expØrimentateur qui relŁve 100 points quasiment alignØs sera plus intØressØ
par la droite passant "au mieux" par ces 100 points plut t que par le polyn me de degrØ
99 rØalisant l’interpolation exacte.

VII.3 APPROXIMATION
VII.3.1 Approximation rationnelle - approximants de PadØ
On approche la fonction f par une fraction rationnelle : F(x) = Pn(x)/Qm(x) oø Pn(x) et Qm(x) sont des
polyn mes de degrØ n et m tels que le dØveloppement limitØ au voisinage de α de f(x)Qm(x) − Pn(x)
ait son terme constant ainsi que les termes en (x − α),
(xα)2, ..., (x − α)n+m nuls.
Le calcul consiste identi er 0 ces n + m + 1 termes.

VII.3.2 Approximation polynomiale au sens des moindres carrØs


VII.3.2.1 Droite des moindres carrØs discrets

On cherche approcher la fonction f, connue uniquement en n valeurs discrŁtes, par une droite
P(x) = a0 + a1x au sens des moindres carrØs.

Soient n valeurs y1,y2,...,yn de la fonction f aux n abscisses x1,x2,...,xn. La droite P(x) qui rØalise la
meilleure approximation au sens des moindres carrØs des valeurs yi aux points xi est celle qui
minimise la somme des carrØs des Øcarts entre les yi et les P(xi) soit :

La quantitØ S(a0,a1) appara t comme le carrØ de la norme euclidienne du vecteur (yi−a0−a1xi).


Introduisons les vecteurs n composantes suivants : Y = (yi), X = (xi) et U le vecteur unitØ. La mØthode
consiste chercher le vecteur G le plus proche du vecteur Y dans le sous-espace vectoriel de dimension
2 engendrØ par les vecteurs U et X, c’est- -dire minimiser la distance euclidienne || Y − G ||2. Pour vØri
er ceci, le vecteur Y − G doit Œtre orthogonal aux vecteurs U et X, d’oø les relations suivantes :

86 Chapitre VII : INTERPOLATION ET APPROXIMATION

 Xn
 < Y − G,U >
(yi − a0 − a1xi)
= 0 = i=1
Xn

 < Y − G,X > = 0 = (yi − a0 − a1xi)xi
i=1 Ceci

conduit au systŁme linØaire suivant :

VII.3.2.2 Droite des moindres carrØs continus

On cherche approcher la fonction f, connue sur l’intervalle [a,b], par une droite P(x) = a0+a1x au sens
des moindres carrØs.

La dØtermination des coe cients a0 et a1 s’e ectue identiquement la mØthode des moindres carrØs
discrŁts. Le produit scalaire utilisØ n’est plus basØ sur la norme euclidienne :

Le systŁme linØaire rØsoudre devient :

VII.3.2.3 GØnØralisation - Polyn me des moindres carrØs discrets

On cherche approcher la fonction f, connue uniquement en n valeurs discrŁtes, par un polyn me de


degrØ m < n P(x) = a0 + a1x + a2x2 + ... + amxm au sens des moindres carrØs.

Soient n valeurs y1,y2,...,yn de la fonction f aux n abscisses x1,x2,...,xn. Le polyn me P(x) qui rØalise la
meilleure approximation au sens des moindres carrØs des valeurs yi aux points xi est celle qui
minimise la somme des carrØs des Øcarts entre les yi et les P(xi) soit :

La quantitØ S(a0,a1,...,am) appara t comme le carrØ de la norme euclidienne du vecteur (yi − a0 −a1xi
−...−amxmi ). Introduisons les vecteurs n composantes suivants : Y = (yi), X = (xi),
X2 = (x2i ),..., Xm = (xmi ) et U le vecteur unitØ.
La mØthode consiste chercher le vecteur G le plus proche du vecteur Y dans le sous-espace vectoriel
de dimension m+1 engendrØ par les vecteurs U, X, X2,...,Xm c’est- -dire minimiser la distance
euclidienne || Y − G ||2. Pour vØri er ceci, le vecteur Y − G doit Œtre orthogonal ux
vecteurs U, X, X2,...,Xm d’oø les relations suivantes :
ENSHMG 87

Xn
(yi − a0 − a1xi − ... − amxmi )
i=1
 Xn

<<YY −−G,X >G,U > (yi − a0 − a1xi − ... − amxmi )xi
i=1
= 0 = Xn
(yi − a0 − a1xi − ... − amxmi )x2i
= 0 =
.
..i=1
= 0 =
Xn
(yi − a0 − a1xi − ... − amxmi )xmi

<<YY−−G,XG,Xm2 >>... = 0 =
i=1

Ceci conduit au systŁme linØaire suivant :

Posons . Le
systŁme s’Øcrit alors :

VII.3.3 Approximation trigonomØtrique au sens des moindres carrØs


MØthode analogue au cas polynomial en utilisant des polyn mes trigonomØtriques de degrØ m :

Les conditions d’orthogonalitØ s’appliquent aux vecteurs U/2, cosX, sinX, cos2X, sin2X, ..., cosmX,
sinmX.
88 Chapitre VII : INTERPOLATION ET APPROXIMATION

Dans le cas continu, le produit scalaire est dØ ni par :

VII.3.4 Approximation uniforme - Meilleure approximation


Soit f une fonction dØ nie sur [a,b]. On souhaiterait identi er le choix des points de collocation
x0,x1,...,xn pour lequel le polyn me d’interpolation de Lagrange Pn(x) rØalise la meilleure approximation
de f au sens de la norme in nie, c’est- -dire minimiser l’erreur d’interpolation :

La solution de ce problŁme n’est pas connue en gØnØral. Cependant, lorsque la fonction f ∈


Cn+1([a,b]), on peut introduire la dØ nition suivante de meilleure approximation :
On appelle meilleure approximation de f par un polyn me de degrØ au plus Øgal n, le polyn me
d’interpolation de Lagrange Pn(x) de f, associØ aux points de collocation x0,x1,...,xn pour lesquels la
quantitØ suivante est minimale :

On montre que les points de collocation xi s’expriment en fonction des racines du polyn me de
Tchebychev Tn+1 et vØri ent :

; pouri = 0,1,...,n

Polyn me de Tchebychev : polyn me de degrØ n notØ Tn(x) dØ ni sur l’intervalle [−1,1] par :

Tn(x) = cos(narccosx) ou par recurrence Tn+1(x) + Tn−1(x) = 2xTn(x) avec T0(x) = 1 et T1(x)

= x.

VII.3.5 Approximation polynomiale dans une base de polyn mes orthogonaux


On cherche une approximation de la fonction f par un polyn me exprimØe dans une base de polyn
mes orthogonaux.

Il existe de nombreuses bases de polyn mes orthoginaux : Legendre, Jacobi, Tchebychev, Laguerre,
Hermite...
86 Chapitre VII : INTERPOLATION ET APPROXIMATION
Chapitre VIII

RECHERCHE DE VALEURS PROPRES

VIII.1 INTRODUCTION
Nous nous intØressons la dØtermination des valeurs propres (le spectre) et/ou des vecteurs propres
correspondants d’une matrice A de dimension n. Les n valeurs propres complexes λ sont les racines
du polyn me caractØristique de degrØ n : Pn(λ) = det(A − λIn).

La dØtermination des racines de ce polyn me n’est pas e cace du point de vue numØrique. Des
mØthodes plus adaptØes sont utilisØes, elles sont sØparØes entre deux types de mØthodes :
• Les mØthodes globales
Ces mØthodes permettent d’Øvaluer le spectre entier de la matrice A. Elles utilisent une
transformation de la matrice en une matrice semblable dont on calcule ensuite les ØlØments
propres. Les principales mØthodes sont :
- MØthode de Jacobi
- MØthode QR
- Transformation sous forme de matrice de Hessenberg
- MØthode de Lanczos
- MØthode de bissection

• Les mØthodes partielles


Ces mØthodes visent Øvaluer la plus grande ou la plus petite valeur propre ou encore la valeur
propre la plus proche d’une valeur donnØe. Les principales mØthodes sont : - MØthode de la
puissance
- MØthode de dØ ation

Applications : un problŁme aux valeurs propres Ømerge d’Øtudes d’oscillateurs physiques (systŁmes
masse-ressort, systŁmes vibratoires, systŁmes quantiques, ...), d’Øtudes de dynamique des structures,
de ambage de poutre ainsi que d’Øtudes de stabilitØ des Øcoulements de uides (transition
laminaire/turbulent)...
88 Chapitre VIII : RECHERCHE DE VALEURS PROPRES

VIII.2 METHODE DE JACOBI


MØthode pour une matrice symØtrique A.

La mØthode revient e ectuer une suite de transformation de type rotation planaire qui permet
d’annuler un ØlØment (p,q), oø p et q sont deux entiers, de la matrice A. Chaque rotation
91

ØlØmentaire fait intervenir une matrice orthogonale Ppq. On construit ainsi une suite de matrices
symØtriques A(k) qui tend vers la matrice diagonale D semblable A.
On pose A(1) = A et, chaque transformation k, on construit la matrice A(k+1) dØ nie par :

Les ØlØments de la matrice symØtrique A(k+1) sont donnØs par :

 (k)
(k+1)

 aaij(ipk+1) == aaij(ipk) cosθ − aiq(k) sinθpouri 6=


p,qpouretji 6==6p,qp,q

 aa(iq(pp(kkk+1)+1)+1) ==aa(ip((ppkkk))) sincosθ22θθ++


+aaiq(akqq(qq()kk)cos)cossinθ22θθ −+ 22aa(pq(pqkk)) coscosθθ sinsinθθ pouri =6 p,q

aqq = app sin

k oø l’angle
[ vØri e :

Deux mØthodes pour le choix des entiers p et q :


1) Les deux entiers peuvent Œtre choisis de fa on cyclique : p = 1,q = 2 puis (p = 1,q = 3), etc.. 2) Les
deux entiers peuvent Œtre choisis tel que l’ØlØment soit la plus grande valeur hors ØlØments
de la diagonale.

VIII.3 METHODE QR
MØthode pour une matrice quelconque A.

La mØthode consiste e ectuer des factorisations QR successives sur une suite de matrices A(k) qui
convergent vers une matrice triangulaire supØrieure semblable A.
Posons A(1) = A. A la k-iŁme Øtape, appelons Q(k), R(k) les matrices issues de la factorisation QR de A(k).
La matrice A(k+1) est dØ nie par : A(k+1) = R(k) × Q(k).

Cette mØthode est plus e cace que la mØthode de Jacobi. Il existe de nombreuses variantes (QL,
QZ...).
ENSHMG

VIII.4 TRANSFORMATION EN MATRICE DE HESSEN-


BERG
MØthode pour une matrice quelconque A.

Avec la transformation X = T.Y oø T est une matrice inversible, le problŁme A.X = λX devient (T−1AT).Y
= λY . Les matrices A et T−1AT sont semblables. Le but est de trouver une matrice T telle que la
AT
matrice T−1 devienne "plus simple".
Une possibilitØ est de chercher la matrice T tel que T−1AT soit une matrice de Hessenberg H,
c’est- -dire vØri ant hij = 0 pour i > j + 1 :
 ∗ ··· 
∗ ... ... ∗



∗ ... ...
 
−1
AT = H =  
T ···
 ∗
 
 ... 

... 
∗ ∗
Pour arriver ce but, il existe plusieurs algorithmes :
• transformations ØlØmentaires par Ølimination de Gauss.
• transformations orthogonales (Householder, Schur, Lanczos...).

VIII.5 METHODE DE LANCZOS


MØthode itØrative pour une matrice quelconque A.

La mØthode consiste calculer les puissances successives de A en construisant un suite de vecteurs


orthogonaux Uk selon :

βi+1Uk = A.Uk−1 − αkUk−1 − βkUk−2 pourk = 2,...,n − 1

avec :

Les vecteurs U0,U1,...,Un−1 forment une base, appelØe base de Krylov. Dans cette base, la matrice
reprØsentant A, ayant les mŒmes valeurs propres que A, est tridiagonale :
93

α 
1 0
 β2 
 0 
 
0 0
 0 
0
0 β2 β3
A0 =  ... ··· ··· ...
α 2 β3 α 3 β4
 ... 
 ... ... ...
0 βn
...
 ··· 0 βn−1 
0 ··· ··· 0 αn−1 βn αn
90 Chapitre VIII : RECHERCHE DE VALEURS PROPRES

La dØtermination des valeurs propres peut s’e ectuer avec une mØthode de type QR ou une mØthode

de bissection. Initialisation de l’algorithme :

Choix d’un vecteur initial U0 normalisØ. q


Calculs de : α1 = U0.A.U0
t
et β2 = U0.A2.U0 − α12
t

Le vecteur U1 est dØ ni par : β2U1 = A.U0 − α1U0

VIII.6 METHODE DE BISSECTION


MØthode pour une matrice tridiagonale A.

Appelons ai,bi et ci respectivement les termes diagonaux, supØrieurs et infØrieurs de la matrice A. La


mØthode consiste calculer les valeurs propres partir du polyn me caractØristique Pn(λ) = det(A−λIn).
Un dØveloppement du dØterminant par rapport la derniŁre ligne permet d’Øcrire la relation de
rØcurrence suivante :

Pn(λ) = (an − λ)Pn−1(λ) − cn−1bn−1Pn−2(λ)

Le calcul des racines de Pn(λ) s’opŁre de la maniŁre suivante : chercher un intervalle oø Pn(λ) change
de signe et localiser une racine par bissection.

VIII.7 METHODE DE LA PUISSANCE


MØthode itØrative pour une matrice quelconque A qui permet d’Øvaluer son rayon spectral ρ(A).

Le principe de la mØthode repose sur le fait qu’en appliquant un grand nombre de fois la matrice sur
un vecteur initial quelconque, les vecteurs successifs vont prendre une direction qui se rapproche du
vecteur propre de la plus grande valeur propre (en valeur absolue).
L’algorithme :
1) Choisir un vecteur X0.

2) ItØrer : jusqu’ convergence || Xk+1 − Xk ||< ε.

La suite des vecteurs (Xk) convergent vers le vecteur propre de la plus grande valeur propre et la suite

des normes || AXk || converge vers le rayon spectral ρ(A). Condition de convergence :

Si le vecteur de dØpart X0 n’appartient pas au sous-espace vectoriel engendrØ par n−1 vecteurs
propres de A alors la mØthode converge.
ENSHMG

VIII.8 METHODE DE DEFLATION


MØthode itØrative pour une matrice quelconque A.

Supposons connu le rayon spectral de A, λ1 = ρ(A) et le vecteur propre correspondant X1 (calculØs par
la mØthode de la puissance). Il est possible de calculer λ2, la valeur propre de module
immØdiatement infØrieur λ1, et d’autres valeurs propres par la suite.
La mØthode consiste transformer la matrice A en une matrice A(1), ayant les mŒmes valeurs propres
que A exceptØ λ1 remplacØe par une valeur propre nulle, puis d’appliquer de nouveau A(1) la
mØthode de la puissance.

L’algorithme :
1) Application de la mØthode de la puissance pour dØterminer λ1 et X1.
2) Choix d’un vecteur W tel que < W,X1 >= 1.
tW A
3) Calcul de la matrice A(1) = A − λ1X1 qui a les mŒmes valeurs propres que sauf λ1
remplacØe par une valeur propre nulle.
4) Application de la mØthode de la puissance A(1) pour dØterminer λ2 et le vecteur propre

associØ (vecteur propre de A(1)). Le vecteur propre de A correspondant est donnØ par :

En itØrant la dØ ation sur A(1), A(2),..., d’autres valeurs propres de la matrice A peuvent Œtre
dØterminØes.
92
95

BIBLIOGRAPHIE

Bibliographie
[1] J. Baranger. Analyse numØrique. Hermann, 1988.
[2] J. Beuneu. Algorithmes pour le calcul scienti que. Cours de l’Ecole Universitaire d’IngØnieurs
de Lille, 1999.
[3] J.A. Desideri. Introduction l’analyse numØrique. INRIA, 1998.
[4] E. Hairer. MØthodes numØriques. Cours de l’universitØ de GenØve, 2004.
[5] C. Hirsch. Numerical computation of internal and external ows, volume I : fundamentals of
numerical discretization. John Wiley & Sons, Chichester, New York, 1986.
[6] P. Lascaux and R. Theodor. Analyse numØrique matricielle appliquØe l’art de l’ingØnieur,
tomes I et II. Masson, Paris, 1986.
[7] V. Legat. MathØmatique et mØthodes numØriques. Cours de l’universitØ catholique de
Louvain, 2004.
[8] B. Mohammadi and J.H. Saiac. Pratique de la simulation numØrique. Dunod, 2003.
[9] N. Point and J.H. Saiac. Equations aux dØrivØes partielles - mathØmatiques et mØthodes
numØriques. Cours de l’ESCPI, 2005.
[10] J. Reveillon. Simulation et modØlisation numØrique. Cours de l’universitØ de Rouen, 2003.
[11] D. Senechal. Histoire des sciences. Cours de l’universitØ de Sherbrooke, 2004.
[12] A. Quarteroni. Analyse numØrique. Cours de l’EPFL, 2003.
[13] P. Viot. MØthodes d’analyse numØriques. Cours de DEA de Jussieu, 2003.

Vous aimerez peut-être aussi