Vous êtes sur la page 1sur 100

M

ethodes et Analyse Num


eriques
Eric Goncalv`es da Silva

To cite this version:


Eric Goncalv`es da Silva. Methodes et Analyse Numeriques. Engineering school. Institut
Polytechnique de Grenoble, 2007, pp.99. <cel-00556967>

HAL Id: cel-00556967


https://cel.archives-ouvertes.fr/cel-00556967
Submitted on 18 Jan 2011

HAL is a multi-disciplinary open access Larchive ouverte pluridisciplinaire HAL, est


archive for the deposit and dissemination of sci- destinee au depot et `a la diffusion de documents
entific research documents, whether they are pub- scientifiques de niveau recherche, publies ou non,
lished or not. The documents may come from emanant des etablissements denseignement et de
teaching and research institutions in France or recherche francais ou etrangers, des laboratoires
abroad, or from public or private research centers. publics ou prives.
INSTITUT POLYTECHNIQUE DE GRENOBLE

METHODES, ANALYSE ET CALCULS


NUMERIQUES

Eric Goncalvs - septembre 2005


i

Table des matires

I MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE 1


I.1 Qu'est-ce qu'un modle ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.2 Pourquoi faut-il modliser ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.3 Quels sont les dirents modles ? . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
I.4 De la modlisation la simulation numrique . . . . . . . . . . . . . . . . . . . . 2
I.5 Aspect ni des ordinateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.5.1 Reprsentation des entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
I.5.2 Reprsentation des rels ou nombres ottants . . . . . . . . . . . . . . . . 2
I.6 Notion de stabilit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
I.6.1 Stabilit d'un problme physique : systme chaotique . . . . . . . . . . . . 3
I.6.2 Stabilit d'un problme mathmatique : sensibilit . . . . . . . . . . . . . 3
I.6.3 Stabilit d'une mthode numrique . . . . . . . . . . . . . . . . . . . . . . 4
I.7 Un peu d'histoire... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
I.7.1 Avant les ordinateurs : les calculateurs . . . . . . . . . . . . . . . . . . . . 4
I.7.2 Les ordinateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I.7.3 Petite chronologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

II DISCRETISATION DES EDP 9


II.1 LES TROIS GRANDES FAMILLES DE METHODES . . . . . . . . . . . . . . . 9
II.2 LES DIFFERENCES FINIES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.1 Principe - ordre de prcision . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.2 Notation indicielle - cas 1D . . . . . . . . . . . . . . . . . . . . . . . . . . 10
II.2.3 Schma d'ordre suprieur . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
II.2.4 Drive d'ordre suprieur . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
II.2.5 Gnralisation de la notation indicielle . . . . . . . . . . . . . . . . . . . . 12
II.2.6 Quelques schmas en 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2.7 Drives croises . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
II.2.8 Exemple simple 1D avec conditions de Dirichlet . . . . . . . . . . . . . . . 13
II.2.9 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann . . . . . . . 14
II.2.10 Discrtisation de l'quation de la chaleur 1D . . . . . . . . . . . . . . . . . 15
II.2.10.1 Schma explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
II.2.10.2 Schma implicite . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
II.2.11 Discrtisation de l'quation de la chaleur 2D stationnaire . . . . . . . . . . 17
ii Table des matires

II.3 LES VOLUMES FINIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20


II.3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
II.3.2 Volumes Finis pour une loi de conservation . . . . . . . . . . . . . . . . . 20
II.3.2.1 Cas monodimensionnel . . . . . . . . . . . . . . . . . . . . . . . 21
II.3.2.2 Cas bidimensionnel . . . . . . . . . . . . . . . . . . . . . . . . . 23
II.3.3 Exemple simple 1D avec conditions de Dirichlet . . . . . . . . . . . . . . . 24
II.3.4 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann . . . . . . . 27
II.3.5 Discrtisation de l'quation de la chaleur 1D . . . . . . . . . . . . . . . . . 28
II.3.6 Discrtisation de l'quation de la chaleur 2D stationnaire . . . . . . . . . . 29
II.4 LES ELEMENTS FINIS EN 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II.4.2 Exemple simple 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
II.4.2.1 Choix des fonctions i : les lments nis . . . . . . . . . . . . . 33
II.4.2.2 Bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
II.5 APPLICATION NUMERIQUE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
II.6 CONSISTANCE, CONVERGENCE ET STABILITE . . . . . . . . . . . . . . . . 37

III CLASSIFICATION DES EDP D'ORDRE 2 39


III.1 CLASSIFICATION DES EDP LINEAIRES D'ORDRE 2 . . . . . . . . . . . . . 39
III.2 EQUATIONS ELLIPTIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
III.3 EQUATIONS PARABOLIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
III.4 EQUATIONS HYPERBOLIQUES . . . . . . . . . . . . . . . . . . . . . . . . . . 40
III.4.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
III.4.2 Equations types . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
III.4.3 Caractristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
III.4.3.1 Caractristiques pour les quations du premier type . . . . . . . 41
III.4.3.2 Caractristiques pour l'quation de convection . . . . . . . . . . 42
III.4.3.3 Caractristiques pour un systme de lois de conservation . . . . . 43
III.4.4 Domaines de dpendance et d'inuence . . . . . . . . . . . . . . . . . . . . 44
III.4.5 Forme conservative et non-conservative . . . . . . . . . . . . . . . . . . . . 45
III.4.6 Discontinuit - relation de saut . . . . . . . . . . . . . . . . . . . . . . . . 46

IV RESOLUTION DES EDO 47


IV.1 DEFINITION DES EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
IV.2 RAPPEL - SOLUTIONS D'EDO SIMPLES . . . . . . . . . . . . . . . . . . . . . 48
IV.3 LE PROBLEME DE CAUCHY . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
IV.4 PRINCIPE GENERAL DES METHODES NUMERIQUES . . . . . . . . . . . . 49
IV.5 PROPRIETES DES METHODES NUMERIQUES . . . . . . . . . . . . . . . . . 49
IV.6 LES PRINCIPALES METHODES NUMERIQUES . . . . . . . . . . . . . . . . . 50
IV.7 METHODES A UN PAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
IV.7.1 Mthodes d'Euler explicite et implicite . . . . . . . . . . . . . . . . . . . . 51
IV.7.2 Mthode d'Euler amlior . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
Table des matires iii

IV.7.3 Mthode d'Euler-Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52


IV.7.4 Mthode de Crank-Nicholson . . . . . . . . . . . . . . . . . . . . . . . . . 52
IV.7.5 Mthodes de Runge et Kutta . . . . . . . . . . . . . . . . . . . . . . . . . 52
IV.7.5.1 Forme gnrale des mthodes de Runge et Kutta . . . . . . . . . 53
IV.7.5.2 Mthodes de Runge et Kutta implicites . . . . . . . . . . . . . . 54
IV.7.5.3 Application un systme . . . . . . . . . . . . . . . . . . . . . . 55
IV.8 METHODES A PAS MULTIPLES . . . . . . . . . . . . . . . . . . . . . . . . . . 56
IV.8.1 Mthode de Nystrom ou saute-mouton . . . . . . . . . . . . . . . . . . . . 56
IV.8.2 Mthodes d'Adams-Bashforth-Moulton . . . . . . . . . . . . . . . . . . . . 56
IV.8.3 Mthodes de Gear . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
IV.9 LES DIFFERENCES FINIES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
IV.10CONDITION DE STABILITE . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

V RESOLUTION DES SYSTEMES LINEAIRES 61


V.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
V.2 PIVOT DE GAUSS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
V.2.1 Triangularisation de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 62
V.2.2 Cot de la mthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
V.2.3 Pivot nul et choix du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . 63
V.3 FACTORISATION LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
V.4 FACTORISATION DE CHOLESKY . . . . . . . . . . . . . . . . . . . . . . . . . 64
V.5 FACTORISATIONS DE HOUSEHOLDER ET QR . . . . . . . . . . . . . . . . . 64
V.5.1 Transformation de Householder . . . . . . . . . . . . . . . . . . . . . . . . 64
V.5.2 Triangularisation de Householder . . . . . . . . . . . . . . . . . . . . . . . 64
V.5.3 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
V.6 METHODES ITERATIVES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
V.6.1 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
V.6.2 Mthode de Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
V.6.3 Mthode de Gauss-Seidel avec sur- ou sous-relaxation . . . . . . . . . . . 67
V.6.4 Condition de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
V.7 METHODE DU GRADIENT CONJUGUE . . . . . . . . . . . . . . . . . . . . . 68
V.7.1 L'algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
V.7.2 Cot de la mthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
V.8 GRADIENT CONJUGUE PRECONDITIONNE . . . . . . . . . . . . . . . . . . 69
V.8.1 L'algorithme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
V.8.2 Comparaison avec Cholesky . . . . . . . . . . . . . . . . . . . . . . . . . . 70

VI RESOLUTION DES SYSTEMES NON LINEAIRES 71


VI.1 EQUATIONS NON LINEAIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
VI.1.1 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
VI.1.2 Mthode du point xe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
VI.1.3 Mthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
iv Table des matires

VI.1.4
Mthode de la parallle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
VI.1.5
Mthode de la scante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
VI.1.6
Mthode de Steensen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
VI.1.7
Racines de polynmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
VI.1.7.1 Rduction polynomiale . . . . . . . . . . . . . . . . . . . . . . . 75
VI.1.7.2 Mthode de Bairstow . . . . . . . . . . . . . . . . . . . . . . . . 75
VI.2 SYSTEMES D'EQUATIONS NON LINEAIRES . . . . . . . . . . . . . . . . . . 76

VIIINTERPOLATION ET APPROXIMATION 79
VII.1GENERALITES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
VII.1.1 Le problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
VII.1.2 Les 3 grandes classes d'approximation fonctionnelle . . . . . . . . . . . . . 79
VII.1.3 Les 3 grandes familles de fonctions approximantes . . . . . . . . . . . . . 79
VII.2INTERPOLATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
VII.2.1 Le thorme de Stone-Weierstrass . . . . . . . . . . . . . . . . . . . . . . . 80
VII.2.2 Mthode de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
VII.2.3 Mthode de Neville-Aitken . . . . . . . . . . . . . . . . . . . . . . . . . . 80
VII.2.4 Mthode de Newton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
VII.2.5 Mthode de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
VII.2.6 Interpolation par morceaux - spline cubique . . . . . . . . . . . . . . . . . 81
VII.2.7 Limites de l'interpolation polynmiale . . . . . . . . . . . . . . . . . . . . 82
VII.3APPROXIMATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
VII.3.1 Approximation rationnelle - approximants de Pad . . . . . . . . . . . . . 82
VII.3.2 Approximation polynomiale au sens des moindres carrs . . . . . . . . . . 82
VII.3.2.1 Droite des moindres carrs discrets . . . . . . . . . . . . . . . . . 82
VII.3.2.2 Droite des moindres carrs continus . . . . . . . . . . . . . . . . 83
VII.3.2.3 Gnralisation - Polynme des moindres carrs discrets . . . . . 83
VII.3.3 Approximation trigonomtrique au sens des moindres carrs . . . . . . . . 84
VII.3.4 Approximation uniforme - Meilleure approximation . . . . . . . . . . . . . 85
VII.3.5 Approximation polynomiale dans une base de polynmes orthogonaux . . 85

VIIIRECHERCHE DE VALEURS PROPRES 87


VIII.1 INTRODUCTION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
VIII.2 METHODE DE JACOBI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
VIII.3 METHODE QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
VIII.4 TRANSFORMATION EN MATRICE DE HESSENBERG . . . . . . . . . . . . 89
VIII.5 METHODE DE LANCZOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
VIII.6 METHODE DE BISSECTION . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
VIII.7 METHODE DE LA PUISSANCE . . . . . . . . . . . . . . . . . . . . . . . . . . 90
VIII.8 METHODE DE DEFLATION . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

REFERENCES BIBLIOGRAPHIQUES 93
1

Chapitre I

MODELISATION, DISCRETISATION
ET SIMULATION NUMERIQUE

I.1 Qu'est-ce qu'un modle ?


Le principe d'un modle est de remplacer un systme complexe en un objet ou oprateur simple
reproduisant les aspects ou comportements principaux de l'original (ex : modle rduit, maquette,
modle mathmatique ou numrique, modle de pense ou raisonnement).

I.2 Pourquoi faut-il modliser ?


Dans la nature, les systmes et phnomnes physiques les plus intressants sont aussi les plus
complexes tudier. Ils sont souvent rgis par un grand nombre de paramtres non-linaires
interagissant entre eux (la mtorologie, la turbulence des uides...).

I.3 Quels sont les dirents modles ?


L'une des solutions est de recourir une srie d'expriences pour analyser les paramtres et
grandeurs du systme. Mais les essais peuvent s'avrer trs coteux (essais en vol, essais avec
matriaux rares, instrumentations trs chres...) et ils peuvent tre trs dangereux (essais nu-
claires, environnement spatial...). Enn il peut tre dicile de mesurer tous les paramtres :
chelles du problme trop petites (chimie du vivant, couche limite en uide...) ou trop grandes
(astrophysique, mtorologie, gophysique...).

On peut aussi construire un modle mathmatique permettant la reprsentation du phnomne


physique. Ces modles utilisent trs souvent des systmes d'quations aux drives partielles
(EDP) non-linaires dont on ne connait pas de solutions analytiques en gnral. Il faut alors
rsoudre le problme numriquement en transformant les quations continues de la physique en
un problme discret sur un certain domaine de calcul (le maillage). Dans certains cas il s'agit
de la seule alternative (nuclaire, astrophysique, spatial...). Dans d'autres cas, les simulations
numriques sont mnes en parallle avec des exprimentations.
2Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

I.4 De la modlisation la simulation numrique


Les direntes tapes pour modliser un systme complexe :
Recherche d'un modle mathmatique rprsentant la physique. Mise en quation.
Elaboration d'un maillage. Discrtisation des quations de la physique.
Rsolution des quations discrtes (souvent systmes linaires rsoudre).
Transcription informatique et programmation des relations discrtes.
Simulation numrique et exploitation des rsultats.

L'ingnieur peut tre amen intervenir sur l'une ou plusieurs de ces direntes tapes.

I.5 Aspect ni des ordinateurs


La solution exacte d'un problme d'EDO ou d'EDP est une fonction continue. Les ordinateurs
ne connaissent que le ni et le discret. En eectuant un calcul numrique, un ordinateur ne peut
retenir qu'un nombre ni de chires pour reprsenter les oprandes et les rsultats des calculs in-
termdiaires. Les solutions approches seront calcules comme des ensembles de valeurs discrtes
sous la forme de composantes d'un vecteur solution d'un problme matriciel. La reprsentation
des nombres dans un ordinateur introduit la notion d'erreur d'arrondi ou de troncature.
Ces erreurs peuvent se cumuler sur un calcul et la solution numrique nale pourra s'avrer trs
loigne de la solution exacte.

Exemple d'erreur d'arrondi : considrons un ordinateur utilisant 4 chires pour reprsenter un


nombre. Calculons la somme 1.348+9.999. Le rsultat exact est 11.347 et comporte 5 chires.
Le calculateur va le preprsenter de manire approche : 11.35. Il commet une erreur d'arrondi
gale (11.35-11.347)=0.003.

I.5.1 Reprsentation des entiers


Les entiers sont reprsents par une suite de bits organiss en octets. Par exemple un entier cod
sur 2 octets occupera 16 bits (216 = 65536) et pourra rprensenter un entier compris entre -32768
et 32767. On parle d'entier simple prcision.
Le type entier cod sur 4 octets (232 = 4294967296) permet la reprsentation des entiers compris
entre -2 147 483 648 et 2 147 483 647. On parle d'entier double prcision.

Les oprations sur les entiers, dans la mesure o le rsultat est un entier reprsentable par la
machine, s'eectuent exactement.

I.5.2 Reprsentation des rels ou nombres ottants


Un nombre ottant s'crit sous la forme X = a.bn o a est la mantisse, b la base et n l'exposant.
Par exemple, la reprsentation de avec 10 caractres est : +0.314159 10+1 . Les 10 caractres
sont rpartis selon : 1 pour le signe, 6 pour la mantisse, 3 pour l'exposant dont 1 pour son signe.
ENSHMG 3

La reprsentation standard des rels choisie par les principaux constructeurs d'ordinateur est
sous forme de nombre ottants o b = 2 et a, n sont deux nombres binaires.

Un rel en simple prcision occupe 4 octets (32 bits). Son exposant est stock sur un octet (il
prend toutes les valeurs entires entre -128 et +127), son signe sur un bit et sa mantisse occupe
les 23 bits restants reprsente par t = 23 caractres binaires d1 , d2 , ..., dt avec d1 = 1. Un rel
X correspond au nombre suivant :

d1 d2 d3 dt
X= + 2 + 3 + ... + 23
2 2 2 2

Le plus nombre en valeur absolue ou zro machine est : 2129 ' 1.47 1039
Le plus grand nombre en valeur absolue ou inni machine est : (1 223 ) 2127 ' 1.7 1038

La meilleure prcision possible pour des calculs sur des nombres de l'ordre de l'unit sera :
223 ' 1.19 107
Pour des nombres de l'ordre de 1000, la meilleure prcision tombe : 223 210 ' 1.22 104

Un rel en double prcision occupe 8 octets soit 64 bits : 1 bit de signe, 11 bits pour l'exposant
et 52 bits pour la mantisse.

I.6 Notion de stabilit


On distingue trois types de stabilit
La stabilit d'un problme physique.
La stabilit d'un problme mathmatique.
La stabilit numrique d'une mthode de calcul.

I.6.1 Stabilit d'un problme physique : systme chaotique


Un problme est dit chaotique si une petite variation des donnes initiales entrane une variation
totalement imprvisible des rsultats. Cette notion de chaos, lie la physique d'un problme, est
indpendante du modle mathmatique utilis et encore plus de la mthode numrique utilise
pour rsoudre ce problme mathmatique. De nombreux problmes sont chaotiques, par exemple
la turbulence des uides.

I.6.2 Stabilit d'un problme mathmatique : sensibilit


Un problme est dit trs sensible ou mal conditionn si une petite variation des donnes ou
des paramtres entrane une grande variation des rsultats. Cette notion de conditionnement,
lie au problme mathmatique, est indpendante de la mthode numrique utilise pour le
rsoudre. Pour modliser un problme physique qui n'est pas chaotique, on construira un modle
mathmatique qui sera le mieux conditionn possible.
4Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

I.6.3 Stabilit d'une mthode numrique


Une mthode est dite instable si elle est sujette une propagation importante des erreurs num-
riques de discrtisation et d'arrondi.
Un problme peut tre bien conditionn alors que la mthode numrique choisie pour le rsoudre
est instable. Dans ce cas, il est impratif de changer de mthode numrique. Par contre, si le
problme de dpart est mal conditionn, aucune mthode numrique ne pourra y remdier. Il
faudra alors essayer de trouver une formulation mathmatique dirente du mme problme, si
on sait que le problme physique sous-jacent est stable.

I.7 Un peu d'histoire...


I.7.1 Avant les ordinateurs : les calculateurs
Le mot calcul vient du latin calculus, qui signie "petite pierre". Les romains, comme beau-
coup de peuples antiques, utilisaient couramment de petites pierres pour viter de mmoriser les
termes d'une addition. Cette pratique se perfectionna et donna naissance la machine calculer
la plus ancienne connue : le boulier, ou abaque, qui fut d'une utilisation presque universelle
jusqu' tout rcemment.

Des machines mcaniques furent mises au point au XVIIeme sicle. La plus connue est la pasca-
line, construite par Blaise Pascal l'ge de 19 ans pour soulager son pre, collecteur d'impts,
du fardeau des calculs rptitifs. La machine, base de roues dentes, ne pouvait qu'additionner
et soustraire. Leibniz transforma la pascaline en une machine capable de multiplier. Il a fallu
attendre le milieu du XIXeme sicle avant qu'une machine, construite par le Franais C. Thomas
de Colmar, fonctionne vritablement et connaisse un succs commercial.

Le concept de machine programmable fut conue sur le papier par l'Anglais Charles Babbage,
base sur la lecture sur des cartes perfores des instructions de calcul et des donnes traiter.
Signalons que les cartes perfores furent popularises dans le contexte des mtiers tisser par
Joseph-Marie Jacquard. La machine analytique de Babbage inspira les constructeurs de machines
calculer du dbut du XXeme sicle.

Vers 1890, l'Amricain Herman Hollerith construira une machine cartes perfores destine
compiler les rsultats du recensement des Etats-Unis. En 1896, Hollerith fonde sa compagnie,
la Tabulating Machines Corporation qui deviendra en 1924 l'International Business Machines
(IBM).

La ncessit d'eectuer des calculs scientiques motivera la conception et la construction de ma-


chines ddies ces activits. L'Amricain Vannevar Bush construira, dans les annes 1930, un
calculateur mcanique analogique. Ce calculateur simulait par un dispositif mcanique l'int-
gration d'une quation direntielle. Ce type de machine sera utilis pendant la deuxime guerre
mondiale pour les besoins de la ballistique.
ENSHMG 5

Les besoins des militaires lors de la deuxime guerre mondiale stimulera la conception et la
construction de calculateurs encore plus puissants. Aux Etats-Unis, l'arme par l'intermdiaire
de l'Universit de Pennsylvanie va mettre au point le plus puissant calculateur jamais construit :
l'ENIAC (Electronic Numerator, Integrator, Analyser and Computer). Il ne fut termin que trois
mois aprs la n de la guerre. Il comptait une multitude de lampes lectroniques qui devaient tre
remplaces souvent. Les lampes taient susceptibles d'tre rendues inoprantes quand un mous-
tique (bug) s'y crasait, ce qui est l'origine de l'expression courante pour dsigner les erreurs
de programmation. L'ENIAC n'est pas un ordinateur mais une calculatrice gante, cadence
200kHz.

I.7.2 Les ordinateurs


Le clbre mathmaticien John von Neumann est l'origine de l'architecture logique des ma-
chines pour automatiser les calculateurs. En juin 1945, il crit un rapport dans lequel il dcrit
l'architecture d'une future machine qui inspirera les premiers ordinateurs. L'essentiel de l'ar-
chitecture propose par von Neumann consiste coner la gestion du calcul une unit de
contrle (Central Processing Unit ou CPU). L'unit de contrle gre les instructions d'un pro-
gramme et coordonne les autres units de l'appareil : mmoire, entre/sortie et unit de calcul.
Les instructions sont excutes de manire squentielle. L'architecture de base des ordinateurs
est toujours la mme que celle imagine par von Neumann.

Von Neumann fut inspir dans ses travaux par ceux d'un jeune mathmaticien anglais, Alan
Turing. En 1936, Turing prcisa la notion d'algorithme et imagina une machine automatique,
la machine de Turing, qui pouvait rsoudre n'importe quel problme : c'tait une machine uni-
verselle. Elle fonctionnait partir d'oprations logiques lmentaires et crivait, copiait ou lisait
de l'information dans un registre.

Turing fut impliqu dans la construction du tout premier ordinateur, construit Manchester
de 1946 1948 et surnomm Manchester MARK1. Cet ordinateur fut un exemplaire unique.
Il tait rserv des applications militaires (armements nuclaires). Le premier ordinateur civil
fur le UNIVAC1 (UNIVersal Automatic Computer), cr et commercialis en 1951 par Eckert
et Mauchly. IBM livrera son modle 701 aux militaires en 1951 et commercialisera son modle
650 en 1953. A Los Alamos, la machine MANIAC (Mathematical And Numerical Integrator And
Computer) sera oprationnelle en 1952.

On distingue gnralement cing gnrations d'ordinateurs qui dirent essentiellement (sauf la


cinquime) par les moyens techniques utiliss :

La premire gnration (1948-1955) est caractrise par l'utilisation de lampes lectroniques


et de tambours magntiques pour la mmoire. Le langage machine utilis pour leur pro-
grammation n'est pas universel et est conu sur mesure pour une application prcise.
6Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

La deuxime gnration (1956-1963) est caractrise par le remplacement des lampes par
des transistors ; la mmoire y est souvent constitue de noyaux magntiques. Le langage
machine a fait place l'assembleur.

La troisime gnration (1964-1971) remplace un assemblage de transistors individuels par


des circuits intgrs (dispositifs semiconducteurs dans lesquels sont intgrs des lments
de type rsistances, transistors, condensateurs...). Cette gnration est aussi caractrise
par l'utilisation d'un systme d'opration, un programme central qui coordonne l'excution
de plusieurs autres programmes.

La quatrime gnration est caractrise par l'emploi des microprocesseurs (units de contrle,
de traitement et de mmoire rassembles sur une mme puce de silicium). Le premier micro-
processeur fut commercialis par Intel en 1971. L'utilisation de microprocesseurs fabriqus
une chelle industrielle permettra la commercialisation de petits ordinateurs et mme
d'ordinateurs personnels la n des annes 1970.

La cinquime gnration est dicile dnir ! Ce terme est dsign tort et travers pour
diverses innovations ralises.

La rvolution informatique fut rendue possible par les progrs inous de l'ctronique. Le point
de dpart de cette rvolution technologique est l'invention du transistor.

La comprhension du comportement des semiconducteurs (substance cristalline comme le ger-


manium ou silicium, dont les proprits de conduction lectrique sont intermdiaires entre un
mtal et un isolant) date des anns 1930. Les laboratoires Bell mettront au point le premier tran-
sistor en dcembre 1947 ce qui vaudra ses auteurs Shockley, Bardeen, Brattain le prix Nobel de
physique en 1956. En 1959, le jeune ingnieur Jack Kilby de la rme Texas Instrument construit
le premier circuit intgr. De nombreuses compagnies s'tabliront Palo alto en Californie et
constitueront la Silicon Valley. L'une de ses entreprises, fonde en 1965 par Gordon Moore et
Bob Noyce, choisit le nom d'Intel (pour INTegrated ELectronics) et produit en 1971 le premier
"ordinateur sur une puce" ou microprocesseur, le Intel 4004 avec 2300 transistors. En 1978, elle
lance le Intel 8086 qui compte 29000 transistors et est cadenc 4,77 MHz. Toute une srie de
processeurs suivent : 286 (en 1982), 386 (1985), 486 (1989), Pentium (1993), Pentium II (1997),
Pentium III (1999), Pentium IV (2001)...

La progression constante de la puissance des ordinateurs associe l'abaissement considrable des


cots a ouvert la possibilit de raliser des simulations numriques sur des ordinateurs personnels.
Mme si les super-ordinateurs restent ncessaires pour des simulations trs importantes, il devient
possible de faire excuter des simulations numriques sur des PC bon march. L'unit de mesure
pour valuer les performances d'un ordinateur est le GFlops (Giga FLoating OPeration per
Second ou milliard d'oprations en virgule ottante par seconde). Un PC actuel de type Pentium
IV cadenc 2.4 Ghz peut dlivrer une puissance d'environ 2Gops.
ENSHMG 7

I.7.3 Petite chronologie


Voici une chronologie sommaire du dveloppement de l'informatique :

1936 Publication par Alan Turing des principes gnraux des machines automatiques suivant
un algorihme.
1945 Proposition de von Neumann pour l'architecture des calculateurs automatiques.
Inauguration de l'ENIAC le dernier grand calculateur avant l'ordinateur.
1947 Invention du transistor par Bardeen, Brattain et Shockley aux laboratoires Bell.
1948 Le Manchester MARK1, premier ordinateur construit sur le plan de von Neumann.
Le mathmaticien amricain Claude Shannon publie sa thorie mathmatique des
communications et introduit l'acronyme bit (BInary digiT) pour dsigner le plus petit
lment d'information.
1950 Invention de l'assembleur, langage de programmation de bas niveau.
1951 Le UNIVAC 1, premier ordinateur commercial.
1952 Premier ordinateur produit par IBM : le modle 701.
1954 Lancement du modle 704 d'IBM, dot d'une mmoire de 144ko.
1955 Premier rseau informatique : SABRE, cr pour American Airlines.
W. Shockley quitte Bell pour fonder sa propre compagnie Palo Alto, en Californie,
la premire de ce qui deviendra la Silicon Valley.
1956 Le premier ordinateur transistors : le TRADIC de Bell, marque le dbut de la deuxime
gnration.
1957 Cration par John Backus du premier langage de programmation suprieur : le FORTRAN.
1958 Premier circuit intgr, ralis par Jack Kilby, de Texas Instrument.
1959 Le premier ordinateur interactif : le PDP 1 ; de la Digital Equipment Corporation.
1962 Production des premiers transistors eet de champ commerciaux.
1965 Fondation de la compagnie Intel, dans la Silicon Valley.
1968 Lancement du rseau ARPANET, l'anctre d'INTERNET.
Invention de l'environnement fentres-souris.
1969 Dbut de la cration du systme d'opration UNIX.
1970 Premire mmoire vive RAM base de semiconducteurs : le Intel 1103 avec 1K de mmoire.
1971 Cration du premier microprocesseur : le Intel 4004, qui compte 2300 transistors.
1973 Cration du langage de programmation C, troitement li au systme d'opration UNIX.
1976 Lancement du supercalculateur CRAY 1 (puissance de crte 100 MFlops).
1977 Premier ordinateur Apple.
1981 IBM se lance dans la commercialisation des ordinateurs personnels.
1983 Cration du langage de programmation C++.
1984 Lancement du Macintosh de Apple, premier succs commercial d'un ordinateur
environnement fentre-souris.
1986 Lancement du systme d'opration Windows 1.1 ; par Microsoft.
8Chapitre I : MODELISATION, DISCRETISATION ET SIMULATION NUMERIQUE

1989 Cration du World Wide Web et du langage HTML, au Centre Europen de Recherche
Nuclaire (CERN).
1994 Intel lance le Pentium, microprocesseur contenant plus de cinq millions de transistors.
Les nouveauts : bus de donnes largit 64 bits pour l'accs la mmoire, capacit du
processeur pouvoir traiter deux instructions par cycle d'horloge et deux niveaux de
mmoire cache an d'acclrer le traitement des instructions au niveau du processeur.
1998 Lancement du Pentium II d'Intel et du K6-2 d'AMD.
2001 Dbut du Pentium III d'Intel. Ce processeur monte la frquence des PC 866 MHz.
2003 Dbut du Pentium IV d'Intel. Lanc 1 Ghz, il atteindra jusqu' 3,8 Ghz.
2005 Le nombre de transistors sur une puce de PC atteint les 1,7 milliards.
Un microprocesseur de PC peut dlivrer jusqu' 6,4 GFlops.
Le supercalculateur le plus puissant est le DOE BlueGene d'IBM intall au Lawrence
Livermore National Laboratory (USA) avec une puissance maximale de 280,6 TFlops.
Le supercalculateur le plus puissant de France (62me rang mondial) se trouve au CEA
pour des applications militaires : le NovaScale Quadrics de Bull SA (5,8TFlops).

Loi de Moore
Devant l'volution extrmement rapide des technologies lies aux microprocesseurs, plusieurs
personnes ont cherch formuler des hypothses sur le progrs de leurs performances. Ainsi
Gordon Moore, cofondateur de la socit Intel a arm en 1965 pour une confrence de presse,
que "le nombre de transistors par cicuit de mme taille va doubler tous les 18 mois". Cette
armation a marqu les esprits, puisqu'elle est devenue un d tenir pour les fabriquants de
microprocesseurs.

Fig. I.1  Loi de Moore


9

Chapitre II

DISCRETISATION DES EDP

II.1 LES TROIS GRANDES FAMILLES DE METHODES


Pour passer d'une problme exact continu rgit par une EDP au problme approch discret, il
existe trois grandes familles de mthodes :
Les dirences nies.
La mthode consiste remplacer les drives partielles par des dirences divises ou combi-
naisons de valeurs ponctuelles de la fonction en un nombre ni de points discrets ou noeuds
du maillage.
Avantages : grande simplicit d'criture et faible cot de calcul.
Inconvnients : limitation des gomtries simples, dicults de prise en compte des condi-
tions aux limites de type Neumann.

Les volumes nis.


La mthode intgre, sur des volumes lmentaires de forme simple, les quations crites sous
forme de loi de conservation. Elle fournit ainsi de manire naturelle des approximations dis-
crtes conservatives et est particulirement bien adapte aux quations de la mcanique des
uides. Sa mise en oeuvre est simple avec des volumes lmentaires rectangles.
Avantages : permet de traiter des gomtries complexes avec des volumes de forme quel-
conque, dtermination plus naturelle des conditions aux limites de type Neumann.
Inconvnient : peu de rsultats thoriques de convergence.

Les lments nis.


La mthode consiste approcher, dans un sous-espace de dimension nie, un problme crit
sous forma variationnelle (comme minimisation de l'nergie en gnral) dans un espace de
dimension innie. La solution approche est dans ce cas une fonction dtermine par un
nombre ni de paramtres comme, par exemple, ses valeurs en certains points ou noeuds
du maillage.
Avantages : traitement possible de gomtries complexes, nombreux rsultats thoriques sur
la convergence.
Inconvnient : complexit de mise en oeuvre et grand cot en temps de calcul et mmoire.
10 Chapitre II : DISCRETISATION DES EDP

II.2 LES DIFFERENCES FINIES


II.2.1 Principe - ordre de prcision
La mthode des dirences nies consiste approximer les drives des quations de la physique
au moyen des dveloppements de Taylor et se dduit directement de la dnition de la drive.
Elle est due aux travaux de plusieurs mathmaticiens du 18me sicle (Euler, Taylor, Leibniz...).

Soit u(x, y, z, t) une fonction de l'espace et du temps. Par dnition de la drive, on a :

u u(x + x, y, z, t) u(x, y, z, t)
= lim
x x0 x
Si x est petit, un dveloppement de Taylor de u(x + x, y, z, t) au voisinage de x donne :

u x2 2 u x3 3 u
u(x + x, y, z, t) = u(x, y, z, t) + x (x, y, z, t) + (x, y, z, t) + (x, y, z, t) + ....
x 2 x2 6 x3
En tronquant la srie au premier ordre en x, on obtient :

u(x + x, y, z, t) u(x, y, z, t) u
= (x, y, z, t) + O(x)
x x
u
L'approximation de la drive (x) est alors d'ordre 1 indiquant que l'erreur de troncature
x
O(x) tend vers zro comme la puissance premire de x.

Dnition : la puissance de x avec laquelle l'erreur de troncature tend vers zro est appele
l'ordre de la mthode.

II.2.2 Notation indicielle - cas 1D


Considrons un cas monodimensionnel o l'on souhaite dterminer une grandeur u(x) sur l'inter-
valle [0,1]. La recherche d'une solution discrte de la grandeur u amne constituer un maillage
de l'intervalle de dnition. On considre un maillage (ou grille de calcul) compos de N + 1
points xi pour i = 0, ..., N rgulirement espacs avec un pas x. Les points xi = ix sont
appels les noeuds du maillage.
Le problme continu de dpart de dtermination d'une grandeur sur un ensemble de dimension
innie se ramne ainsi la recherche de N valeurs discrtes de cette grandeur aux dirents
noeuds du maillage.

Notation : on note ui la valeur discrte


de u(x) aupoint
xi , soit ui = u(xi ). De mme pour la
u u
drive de u(x) au noeud xi , on note = = u0i . Cette notation s'utilise de faon
x x=xi x i
quivalente pour toutes les drives d'ordre successif de la grandeur u.

Le schma aux dirences nies d'ordre 1 prsent au-dessus s'crit, en notation indicielle :

u ui+1 ui
= + O(x)
x i x
ENSHMG 11

Ce schma est dit "avant" ou "dcentr avant" ou upwind.

Il est possible de construire un autre schma d'ordre 1, appel "arrire" :



u ui ui1
= + O(x)
x i x

II.2.3 Schma d'ordre suprieur


Des schmas aux dirences nies d'ordre suprieur peuvent tre construits en manipulant des
dveloppement de Taylor au voisinage de xi . On crit :

u x2 2 u
ui+1 = u(xi + x) = ui + x + + O(x3 )
x i 2 x2 i

u x2 2 u
ui1 = u(xi x) = ui x + + O(x3 )
x i 2 x2 i

u
La soustraction de ces deux relations donne : ui+1 ui1 = 2x + O(x3 )
x i
Ce qui permet d'obtenir le schma d'ordre deux dit "centr" pour approximer la drive premire
de u :
u ui+1 ui1
= + O(x2 )
x i 2x
Pour obtenir des ordres suprieurs, il faut utiliser plusieurs noeuds voisins de xi . Le nombre
de points ncessaire l'criture du schma s'appelle le stencil. Par exemple, un schma aux
dirences nies d'ordre 3 pour la drive premire s'crit :

u ui+2 + 6ui+1 3ui 2ui1
= + O(x3 )
x i 6x

II.2.4 Drive d'ordre suprieur


Le principe est identique et repose sur les dveloppements de Taylor au voisinage de xi . Par
exemple pour construire un schma d'approximation de la drive seconde de u, on crit :

u x2 2 u x3 3 u
ui+1 = ui + x + + + O(x4 )
x i 2 x2 i 6 x3 i

u x2 2 u x3 3 u
ui1 = ui x + + O(x4 )
x i 2 x2 i 6 x3 i
2
2 u
En faisant la somme de ces deux galits, on aboutit : ui+1 +ui1 2ui = x +O(x4 )
x2 i
Ce qui permet d'obtenir le schma d'ordre deux dit "centr" pour approximer la drive seconde
de u : 2
u ui+1 2ui + ui1
2
= + O(x2 )
x i x2
Il existe aussi une formulation "avant" et "arrire" pour la drive seconde, toute deux d'ordre 1 :
2 2
u ui+2 2ui+1 + ui1 u ui 2ui1 + ui2
= + O(x) = + O(x)
x2 i x2 x2 i x2
Il est galement possible de construire, par le mme procd, des schmas aux dirences nies
d'ordre suprieur pour les drives deuxime, troisime, etc...
12 Chapitre II : DISCRETISATION DES EDP

II.2.5 Gnralisation de la notation indicielle


Dans le cas 1D instationnaire, considrons l'volution d'une grandeur u(x, t) en fonction de
l'espace et du temps. Le domaine de dnition de u est dcompos en N noeuds xi rpartis rgu-
lirement avec un pas d'espace x. De mme, le temps est dcompos en intervalle lmentaire
de pas constant t. On notera uni la valeur discrte de la grandeur u(x, t) au noeud xi et au
temps nt.

Dans le cas 2D, considrons une grandeur u(x, y) dnie sur un certain domaine. Ce dernier est
dcompos en N P noeuds (xi , yj ) rpartis rgulirement avec un pas d'espace x dans la
direction x et y dans l'autre direction. On notera uij la valeur discrte de la grandeur u(x, y)
au noeud (xi , yj ).

De faon similaire, dans le cas 2D instationnaire, on notera unij la valeur discrte de la grandeur
u(x, y, t) au noeud xi , yj et au temps nt. Et dans le cas 3D instationnaire, on notera unijk la
valeur discrte de la grandeur u(x, y, z, t) au noeud (xi , yj , zk ) et au temps nt.

II.2.6 Quelques schmas en 1D

Dirences nies avant, ordre 1 Dirences nies arrire, ordre 1

ui ui+1 ui+2 ui+3 ui+4 ui4 ui3 ui2 ui1 ui


xu0i -1 1 xu0i -1 1
x2 u00i 1 -2 1 x2 u00i 1 -2 1
x3 u000
i -1 3 -3 1 x3 u000
i -1 3 -3 1
4 (4) 4 (4)
x ui 1 -4 6 -4 1 x ui 1 -4 6 -4 1

Dirences nies centr, ordre 2 Dirences nies centr, ordre 4

ui2 ui1 ui ui+1 ui+2 ui3 ui2 ui1 ui ui+1 ui+2 ui+3
2xu0i -1 1 12xu0i 1 -8 0 8 -1
x2 u00i 1 -2 1 12x2 u00i -1 16 -30 16 -1
2x3 u000i -1 2 0 -2 1 8x3 u000
i -1 -8 13 0 -13 8 -1
(4) (4)
x4 ui 1 -4 6 -4 1 6x4 ui -1 12 -39 56 -39 12 -1

II.2.7 Drives croises


2f
Dterminons une approximation de la drive croise de la fonction de 2 variables f (x, y).
xy
La discrtisation du domaine de calcul est bidimensionnelle et fait intervenir deux pas d'espace
supposs constants x et y dans les directions x et y .
ENSHMG 13

La principe est toujours bas sur les dveleppoments de Taylor :



f f (lx)2 2 f (my)2 2 f
f (xi+l , yj+m ) = f (xi , yj ) + lx + my + +
x i y j 2 x2 i 2 y 2 j
2
2mlxy f
+ + ...
2 xy i,j

Au voisinage du point (i, j) :



f f 2f x2 2f y 2 2 f
fi+1,j+1 = fi,j + x + y + xy + +
x i y j xy i,j 2 x2
i 2 y 2 i
2
f f 2f x2 f y 2 2 f
fi1,j1 = fi,j x y + xy + +
x i y j xy i,j 2 x2 i 2 y 2 i
2
f f 2f x2 f y 2 2 f
fi+1,j1 = fi,j + x y xy + +
x i y j xy i,j 2 x2 i 2 y 2 i
2
f f 2f x2 f y 2 2 f
fi1,j+1 = fi,j x + y xy + +
x i y j xy i,j 2 x2 i 2 y 2 i

En eectuant une combinaison linaire des quatre quations prcdentes ((1)+(2)-(3)-(4)), nous
obtenons une approximation de la drive croise l'ordre 1 :
2
f fi+1,j+1 fi+1,j1 fi1,j+1 + fi1,j1
=
xy i,j 4xy

II.2.8 Exemple simple 1D avec conditions de Dirichlet


Considrons l'quation direntielle suivante :
(
u00 (x) = f (x) , x ]0, 1[
u(0) = et u(1) =

o f est une fonction continue.


Le maillage est construit en introduisant N + 1 noeuds xi avec i = 0, 1, .., N , rgulirement
espacs avec un pas x. La quantit ui dsignera la valeur de la fonction u(x) au noeud xi .
L'quation rsoudre s'crit, sous forme discrte en chaque noeud xi :
2
d u
= f (xi ) = fi
dx2 i

Approximons la drive seconde de u au moyen d'un schma centr l'ordre 2 :


2
d u ui+1 2ui + ui1
2
=
dx i x2
14 Chapitre II : DISCRETISATION DES EDP

L'quation discrtise est ainsi :

2ui ui+1 ui1


= fi ; pour i variant de 1 N-1
x2

Il est trs pratique d'utiliser une formulation matricielle en faisant apparatre le vecteur des in-
connues discrtes :

2 1 0 0 u1 f1 + /x2

1 2 1 0 u2 f2
1 .. .. .. ..

.. ..

..


. . .
=
x .
2 . . .
0 0 1 2 1
uN 2 fN 2
0 0 0 1 2 uN 1 fN 1 + /x2

II.2.9 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann


Considrons l'quation direntielle suivante :

(
u00 (x) = f (x) , x ]0, 1[
0
u(0) = et u (1) =

o l'on a cette fois une condition de Neumann en x = 1.

Les modications du problme discrtis par rapport au cas prcdent sont les suivantes. Tout
d'abord, le nombre d'inconnues a chang. Il y a une inconnue au bord en x = 1. Le problme
discret a donc maintenant, sur la base du mme maillage que prcdemment, N inconnues ui
pour i variant de 1 N .
D'autre part, il faut discrtise la condition de Neumann u0 (1) = . Plusieurs choix sont possibles
pour approximer cette drive premire. C'est un des inconvnients de la mthode des dirences
nies : elle ne donne pas de faon naturelle une bonne approximation des conditions de Neumann.
uN uN 1
Dans notre cas, utilisons une approximation d'ordre 1 : u0 (1) =
x
Sous forme matricielle, on obtient :

2 1 0 0 0 u1 f1 + /x2

1 2 1 0
0 u2 f2
..
.. .. .. ..
1 .. .. ..
. . . . . . . .
2 =
x 0 0 1 2 1 0
uN 2 fN 2

0 0 0 1 2 0 uN 1 fN 1
0 0 0 0 1 1 uN /x
ENSHMG 15

II.2.10 Discrtisation de l'quation de la chaleur 1D


Considrons le problme monodimensionnel de la conduction de la chaleur dans une barre de 1m
de longueur. Le champ de temprature T (x, t) vrie l'quation de la chaleur :
T 2T
= 2
t x
o est la diusivit thermique.
A cette EDP s'ajoute deux conditions aux limites aux extrmits de la barre T (0, t) = Tg et
T (1, t) = Td ainsi qu'une condition initale T (x, 0) = T0 .

L'intervalle [0,1] est discrtis en N + 1 noeuds de coordonnes xi (i variant de 0 N ) rgulire-


ment espacs. Notons x le pas d'espace. Le temps est discrtis en intervalles de pas constant
t. Notons Tin la temprature au noeud xi = ix et l'instant t = nt.

On peut utiliser deux approches pour discrtiser cette quation de la chaleur. La premire dite
explicite utilise une discrtisation au noeud xi et l'itration courante n :
2 n
T n T
=
t i x2 i
Et la seconde dite implicite utilise une discrtisation au noeud xi et l'itration n + 1 :
2 n+1
T n+1 T
=
t i x2 i

II.2.10.1 Schma explicite


Nous utilisons un schma avant d'ordre 1 pour valuer la drive temporelle et un schma centr
d'ordre 2 pour la drive seconde en espace :

T n Tin+1 Tin
=
t i t
n n 2T n + T n
2T Ti+1 i i1
=
x2 i x2
t
En posant = , la temprature l'itration n + 1 est donne par :
x2
Tin+1 = Ti1
n
+ (1 2)Tin + Ti+1
n
i variant de 1 N-1

Soit sous forme matricielle :


n+1 n
T1 1 2 0 0 T1 Tg

T2 1 2 0 T2
0

.. .. .. .. .. ..
.. ..
. = . . . .
. . + .

T 0 0 1 2 T 0
N 2 N 2
TN 1 0 0 0 1 2 TN 1 Td
16 Chapitre II : DISCRETISATION DES EDP

II.2.10.2 Schma implicite


Nous utilisons un schma arrire d'ordre 1 pour valuer la drive temporelle et un schma centr
d'ordre 2 pour la drive seconde en espace :
n+1
T Tin+1 Tin
=
t i t
n+1 n+1
2T Ti+1 2Tin+1 + Ti1
n+1
=
x2 i x2

t
En posant = , la temprature l'itration n + 1 est donne par :
x2
(1 + 2)Tin+1 (Ti+1
n+1 n+1
+ Ti1 ) = Tin i variant de 1 N-1

On constate que les inconnues l'itration n + 1 sont relies entre elles par une relation implicite
(d'o le nom de la mthode).

Sous forme matricielle :


n+1 n
1 + 2 0 0 T1 T1 Tg

1 + 2 0 T2 T2 0

.. . .. . .. . .. .. .. .. ..
. . . = . + .

0 0 1 + 2 T T 0
N 2 N 2
0 0 0 1 + 2 TN 1 TN 1 Td

A chaque itration, le vecteur des inconnues discrtes se dtermine par rsolution d'un systme
linaire. La matrice du systme tant tridiagonale, un algorithme de Thomas (bas sur la mthode
du pivot de Gauss) est trs souvent utilis.

Algorithme de Thomas
Cet algorithme est utilis pour la rsolution d'un systme avec une matrice tridiagonale de
dimension N faisant intervenir un vecteur d'inconnues discrtes Xi , de la forme :

b1 X1 + c1 X2 = d1 i=1
ai Xi1 + bi Xi + ci Xi+1 = di i variant de 2 N-1
aN XN 1 + b N XN = dN i=N

Le calcul s'eectue en deux tapes (qui correspondent aux deux tapes du pivot de Gauss). La
triangularisation fait apparatre les coecients i et i valus par rcurrence :

ai di ci i+1
i = et i = pour i variant de N 1
bi + ci i+1 bi + ci i+1

La deuxime tape dtermine les inconnues selon la rcurrence : X1 = 1 puis Xi = i Xi1 + i


pour i variant de 2 N .
ENSHMG 17

II.2.11 Discrtisation de l'quation de la chaleur 2D stationnaire


Considrons le problme bidimensionnel stationnaire de la conduction de la chaleur dans un
domaine rectangulaire [0,Lx ][0,Ly ]. Le champ de temprature T (x, y) vrie l'quation de La-
place :

2T 2T

T = + = 0 , (x, y) [0, Lx ] [0, Ly ]

x2 y 2

T (0, y) = Tg et T (Lx , y) = Td 0 < y < Ly







T (x, 0) = Tb et T (x, Ly ) = Th 0 < x < Lx

Le domaine de calcul est discrtis en (N+1)(P+1) noeuds (xi , yj ) (i variant de 0 N et j


variant de 0 P). On supposera que les pas d'espace dans chaque direction x et y sont
constants. La temprature discrte au noeud (xi , yj ) sera note Tij = T (xi , yj ).

Nous utilisons un schma centr d'ordre 2 pour approximer les drives secondes en espace :
2
T Ti+1,j 2Ti,j + Ti1,j
2
=
x ij x2

2T Ti,j+1 2Ti,j + Ti,j1
=
y 2 ij y 2
La formulation discrtise est alors, pour i variant de 1 N 1 et j variant de 1 P 1 :

y 2 (Ti+1,j + Ti1,j ) + x2 (Ti,j+1 + Ti,j1 ) 2(x2 + y 2 )Ti,j = 0

Soit sous forme matricielle, pour N =P =4, en posant A = x2 + y 2 :



2A y 2 0 x2 0 0 0 0 0 T11 x2 Tb + y 2 Tg
2 2 2
y 2A y 0 x 0 0 0 0 T21 x2 Tb

0 2
y 2A 0 0 x 2 0 0 0 T31 x2 Tb + y 2 Td

2 2 2
x 0 0 2A y 0 x 0 0 T12 y 2 Tg

0 x 2 0 2
y 2A y 2 0 x 2 0 T22 = 0

2 2
0 0 x 0 y 2A 0 0 x2 T32 y 2 Td

0 0 0 x2 0 0 2A y 2 0 T13 x2 Th + y 2 Tg

2
0 0 0 0 x 0 y 2A y 2
2
T23 x2 Th
0 0 0 0 0 x2 0 y 2 2A T33 x2 Th + y 2 Td

Dans le cas o les pas d'espace sont identiques x = y , la formulation devient, pour i variant
de 1 N 1 et j variant de 1 P 1 :

Ti+1,j + Ti,j1 + Ti1,j + Ti,j+1 4Ti,j = 0


18 Chapitre II : DISCRETISATION DES EDP

Soit sous forme matricielle, pour N =P =4 :



4 1 0 1 0 0 0 0 0 T11 Tb + Tg

1 4 1 0 1 0 0 0 0 T21 Tb

0 1 4 0 0 1 0 0 0 T31 Tb + Td


1 0 0 4 1 0 1 0 0 T12 Tg

0 1 0 1 4 1 0 1 0 T22 = 0


0 0 1 0 1 4 0 0 1 T32 Td

0 0 0 1 0 0 4 1 0 T13 Th + Tg


0 0 0 0 1 0 1 4 1 T23 Th
0 0 0 0 0 1 0 1 4 T33 Th + Td

Notons I la matrice identit d'ordre 3 et D la matrice de dimension 3 dnie par :



4 1 0

D = 1 4 1
0 1 4

Notons T1 , T2 et T3 les vecteurs 3 composantes dnis par :



T11 T12 T13

T1 = T21 T2 = T22 T3 = T23
T31 T32 T33

Le systme peut s'crire sous la forme matricielle bloc suivante :



D I 0 T1 B1

I D I T2 = B2
0 I D T3 B3

La matrice obtenue est tridiagonale et chacun de ses blocs est tridiagonal. La rsolution du sys-
tme peut s'eectuer par une mthode de Thomas matriciel o une mthode itrative matricielle
(mthode de Gauss-Seidel).

Algorithme de Thomas matriciel


Cet algorithme est utilis pour la rsolution d'un systme avec une matrice, de dimension N ,
tridiagonale par bloc, faisant intervenir un vecteur d'inconnues discrtes Xi , de la forme :

B1 X1 + C1 X2 = D1 i=1
Ai Xi1 + Bi Xi + Ci Xi+1 = Di i variant de 2 N-1
AN XN 1 + BN XN = DN i=N

Ai , Bi , Ci sont des matrices et Di un vecteur.


ENSHMG 19

On introduit la matrice i et le vecteur i valus par les relations de rcurrence suivantes :

i = (Bi + Ci i+1 )1 Ai et i = (Bi + Ci i+1 )1 (Di Ci i+1 ) i variant de N 1

La deuxime tape dtermine les inconnues selon la rcurrence : X1 = 1 puis Xi = i Xi1 + i


pour i variant de 2 N .

Remarque : Avec une condition de Neumann sur l'un des bords du domaine, par exemple en y = 0
un ux de chaleur gale b , il faudrait ajouter la formulation prcdente la discrtisation de
cette condition au bord.
Ceci a pour consquence l'ajout de N 1 inconnues supplmentaires savoir les valeurs de la
temprature au bord (j = 0 et i variant de 1 N 1).

Par exemple utilisons un schma d'ordre 1 pour valuer le ux de chaleur :



T Ti,1 Ti,0
= = b
y i,0 y

Soit sous forme matricielle, dans le cas o x = y et pour N =P =4 :



1 0 0 1 0 0 0 0 0 0 0 0 T10 b x /

0 1 0 0 1 0 0 0 0 0 0 0 b x /
T20
0 0 1 0 1 1 0 0 0 0 0
0 T30 /
b x

1 0 0 4 1 0 1 0 0 0 0 0 T11 Tg

0 1 0 1 4 1 0 1 0 0 0
0 T21 0


0 0 1 0 1 4 0 0 1 0 0
0 T31 Td
=
0 0 0 1 0 0 4 1 0 1 0
0 T12 Tg


0 0 0 0 1 0 1 4 1 0 1
0 T22 0

0 0 0 0 0 1 0 1 4 0 0
1 T32 Td


0 0 0 0 0 0 1 0 0 4 1 0 Th + Tg
T13
0 0 0 0 0 0 0 1 0
1 4 1 T23 Th

0 0 0 0 0 0 0 0 1 0 1 4 T33 Th + Td
20 Chapitre II : DISCRETISATION DES EDP

II.3 LES VOLUMES FINIS


II.3.1 Introduction
La mthode des Volumes Finis consiste intgrer, sur des volumes lmentaires, les quations
crites sous forme intgrale. C'est une mthode particulirement bien adapte la discrtisation
spatiale des lois de conservation, contrairement aux Elments Finis, et est ainsi trs utilise
en mcanique des uides.

Sa mise en oeuvre est simple si les volumes lmentaires ou "volumes de contrle" sont des
rectangles en 2D ou des paralllpipdes en 3D. Cependant, la mthode des Volumes Finis per-
met d'utiliser des volumes de forme quelconque et donc de traiter des gomtries complexes,
contrairement aux Dirences Finies.

De nombreux codes de simulation numrique en mcanique des uides reposent sur cette m-
thode : Fluent, StarCD, CFX, FineTurbo, elsA...

II.3.2 Volumes Finis pour une loi de conservation


Considrons une loi de conservation d'une grandeur physique w dans une maille de volume ,
faisant intervenir un ux F (w) et un terme source S(w). Son expression sous forme intgrale
est : Z Z Z

w d + div F (w) d = S(w) d
t

Appelons la surface de la maille, de normale extrieure n. Le thorme d'Ostrogradski conduit :


Z I Z

w d + F.n d = S d
t
I
L'intgrale F.n d reprsente la somme des ux travers chaque face de la maille. Le ux est

suppos constant sur chaque face, l'intgrale se ramne une somme discrte sur chaque face de
la maille. Il vient : I X
F.n d = Ff ace .nf ace f ace
f aces de la maille

La quantit Ff ace = F (wf ace ) est une approximation du ux F sur une face de la maille, c'est
le ux numrique sur la face considre.

La discrtisation spatiale revient calculer le bilan des ux sur une maille lmentaire. Ce bilan
comprend la somme des contributions values sur chaque face de la maille. La manire dont
on approche les ux numriques en fonction de l'inconnue discrte dtermine le schma nu-
mrique. L'criture du schma numrique peut galement utiliser des inconnues auxiliaires, par
exemple le gradient de l'inconnue par maille.
ENSHMG 21

Explicitons maintenant le terme de drive temporelle. Un lment fondamental de la discrtisa-


tion en Volumes Finis est de supposer que la grandeur w est constante dans chaque maille
et gale une valeur approche de sa moyenne sur la maille ou bien sa valeur au centre de la
maille.
D'autre part, le terme de drivation en temps est valu au moyen d'une mthode numrique
d'intgration d'quation direntielle (Runge-Kutta, Euler explicite ou implicite...) et fait inter-
venir un pas de temps d'intgration t. Ce dernier peut tre constant ou variable. Pour xer les
ides, on crira la formulation avec une mthode d'Euler explicite. Notons w l'incrment de la
grandeur w entre deux itrations temporelles successives. On peut ainsi crire :
Z
dw w
w d = =
t dt maille t

Finalement la loi de sconservation discrtise avec la mthode des Volumes Finis peut s'crire :

w X
+ Ff ace .nf ace f ace = S
t
f aces

La mthodes des Volumes Finis consiste donc :


Dcomposer la gomtrie en mailles lmentaires (laborer un maillage).
Initialiser la grandeur w sur le domaine de calcul.
Lancer le processus d'intgration temporelle jusqu' convergence avec :
? Calcul du bilan de ux par maille par un schma numrique.
? Calcul du terme source.
? Calcul de l'incrment temporel par une mthode numrique d'intgration.
? Application des conditions aux limites.

II.3.2.1 Cas monodimensionnel


Considrons une loi de conservation 1D :
Z Z
f (u)
u dx + dx = 0
t x

O u est une grandeur physique fonction de la variable d'espace x et du temps t


et f (u) est une fonction de u.

Le domaine de calcul est divis en N mailles de centre xi . Chaque maille a une taille hi =
xi+1/2 xi1/2 . Les indices demi-entier dsignent les interfaces de la maille avec les mailles voi-
sines (voir gure II.1).
22 Chapitre II : DISCRETISATION DES EDP

x i-1/2 x i+1/2
x
x i-1 xi xi+1

Fig. II.1  Maillage 1D

Le temps est discrtis en intervalles de pas constant t. La fonction u est suppose constante
dans chaque maille et gale une valeur approche de la moyenne. Notons uni cette valeur
moyenne dans la i-me maille de centre xi , l'instant t = nt. Ainsi :

x [xi1/2 , xi+1/2 ] et t = nt, u(x, t) = uni

Souvent, cette valeur approche de la moyenne est la valeur de la fonction u au centre xi de la


maille, on parle alors de Volumes Finis Cell-Centered (et dans ce cas, uni = u(xi , t)).

Le discrtisation spatiale par les Volumes Finis consiste intgrer maille par maille la loi de
conservation : Z Z
f (u)
u dx + dx = 0
t maille maille x

Soit pour la i-me maille de centre xi , au temps t = nt :


Z xi+1/2 Z xi+1/2
f
u dx + dx = 0
t xi1/2 xi1/2 x

Ce qui s'intgre comme suit :


uni
hi + fi+1/2
n
fi1/2
n
= 0
t

La quantit fi+1/2
n dsigne une approximation du ux f (u) l'interface xi+1/2 et au temps nt.
C'est le ux numrique au point xi+1/2 . Ce ux numrique s'value en fonction des valeurs
moyennes de u dans les mailles voisines, ce qui dtermine le schma numrique.

Une mthode d'Euler explicite est utilise pour valuer la drive en temps (d'autres schmas
peuvent tre utiliss, par exemple le schma de Runge-Kutta). La formulation discrtise en
Volumes Finis de la loi de conservation est ainsi :

un+1 uni
hi i
+ fi+1/2
n
fi1/2
n
= 0
t
ENSHMG 23

II.3.2.2 Cas bidimensionnel


Considrons une loi de conservation d'une grandeur physique u(x, y, t) o x et y sont les deux
directions d'espace. Le domaine gomtrique est divis en mailles lmentaires, par exemple en
mailles rectangulaires comme reprsent sur la gure II.2. La grandeur u est suppose constante
dans chaque maille et gale une valeur approche de la moyenne sur la maille (ou encore la
valeur au centre de la maille).

n
B C

A D

Fig. II.2  Maillage 2D

I
Dans le cas bidimensionnel, le terme intgral F.n d reprsente la circulation sur un contour

d'une maille lmentaire. Plaons-nous sur la maille de contour ABCD comme indiqu sur la
gure. Le ux F est suppos constant sur chaque arte de la maille AB , BC , CD et AD.
L'intgrale se ramne une somme discrte sur chaque arte :
I I X
F.n d = F.n dl = Farete .narete Longueurarete
ABCD AB,BC,CD,AD

Ceci revient valuer le bilan des ux travers chaque facette de la maille.
24 Chapitre II : DISCRETISATION DES EDP

II.3.3 Exemple simple 1D avec conditions de Dirichlet


Considrons l'quation direntielle suivante :
(
u00 (x) = f (x) , x ]0, 1[
u(0) = et u(1) =

o f est une fonction continue.


L'intervalle ]0,1[ est discrtis en N mailles de centre xi et de taille hi = xi+1/2 xi1/2 . La
fonction u(x) est suppos constante dans chaque maille et gale une valeur approche de la
moyenne sur la maille considre. On notera ui cette valeur dans la i-me maille de centre xi .
Ainsi, on a dans la i-me maille : x [xi1/2 , xi+1/2 ], u(x) = ui .

x =0 x x i-1/2 x i+1/2
1/2 3/2
x
x1 x2 x i-1 xi xi+1

Fig. II.3  Maillage 1D

La discrtisation spatiale par les Volumes Finis consiste intgrer maille par maille l'quation
direntielle du problme, soit pour la i-me maille :
Z xi+1/2 Z xi+1/2
u00 (x) dx = f (x) dx
xi1/2 xi1/2

Ce qui donne aprs intgration :

u0 (xi1/2 ) u0 (xi+1/2 ) = hi fi pour i variant de 1 N


Z xi+1/2
1
o fi dsigne la valeur moyenne de f sur la i-me maille : fi = f (x) dx
hi xi1/2

Il reste maintenant exprimer u0 (xi1/2 ) en fonction des inconnues ui . L'approximation la plus


naturelle est de prendre la valeur moyenne de u0 (x) sur le segment [xi1 , xi ], soit :
Z xi
1 u(xi ) u(xi1 ) ui ui1
u0 (xi1/2 ) = h +h u0 (x) dx = =
i1 i
xi1 h i1/2 hi1/2
2

hi1 + hi
avec hi1/2 =
2

Cette dernire expression n'est pas valable au bord gauche, pour i = 1, en x1/2 = 0, car elle fait
intervenir le point x0 qui n'est pas dni. Il se pose alors le problme du traitement des bords qui
exige une formulation particulire. Une possibilit est de dnir une maille ctive gauche de
l'intervalle [0,1], et d'aecter une valeur moyenne de la fonction u dans cette maille. Une autre
possibilit est de considrer la valeur moyenne de u0 (x1/2 ) non plus sur le segment [x0 , x1 ] qui
ENSHMG 25

n'est pas dni mais sur le segment [x1/2 , x1 ], c'est ce que nous choisissons dans cet exemple.
Ainsi on crit :
Z x1
0 2 2(u1 u(0)) 2(u1 )
u (x1/2 ) = u0 (x) dx = =
h1 x1/2 h1 h1

ui+1 ui
Et de mme pour le terme u0 (xi+1/2 ), on crit que : u0 (xi+1/2 ) = . Le mme problme
hi+1/2
survient au bord droit, pour i = N , en xN +1/2 = 1. On considre la valeur moyenne de u0 (xN +1/2 )
non plus sur le segment [xN , xN +1 ] qui n'est pas dni mais sur le segment [xN , xN +1/2 ], soit :
Z xN +1/2
0 2 2(u(1) uN ) 2( uN )
u (xN +1/2 ) = u0 (x) dx = =
hN xN hN hN

La discrtisation en Volumes Finis est donc nalement :

ui ui1 ui+1 ui
= hi fi pour i variant de 2 N-1
hi1/2 hi+1/2
2(u1 ) u2 u1
= h1 f1
h1 h3/2
uN uN 1 2( uN )
= hN fN
hN 1/2 hN

Dans le cas particulier d'un maillage rgulier de pas h. La discrtisation en Volumes Finis devient :
2ui ui1 ui+1
= fi pour i variant de 2 N-1
h2
3u1 u2 2
= f1 + 2
h2 h
3uN uN 1 2
= fN + 2
h2 h

Sous forme matricielle, ceci s'exprime :



3 1 0 0 u1 f1 + 2/h2

1 2 1 0 u2 f2
1
.. .. .. .. ..

..

..


. . . =
h2 . . . .
0 0 1 2 1 u fN 1
N 1
0 0 0 1 3 uN fN + 2/h2
26 Chapitre II : DISCRETISATION DES EDP

Comparaison avec un schma aux Dirences Finies


Nous introduisons un schma aux Dirences Finies an de comparer les deux mthodes de dis-
crtisation.

On se place sur le mme maillage construit pour les Volumes Finis. Les points xi seront consid-
rs comme les noeuds du maillage pour les Dirences Finies. Et la quantit ui dsignera alors
la valeur de la fonction u au noeud xi .
ATTENTION aux notations propres aux deux mthodes, dans un cas ui dsigne une valeur
moyenne de u sur la i-me maille, et dans l'autre cas, ui dsigne la valeur de u en xi .

L'quation rsoudre s'crit, sous forme discrte en chaque noeud xi :


2
d u
= f (xi ) = fi
dx2 i

Approximons la drive seconde de u au moyen d'un schma l'ordre 2. On crit les dveloppe-
ments de Taylor de ui+1 et ui1 au voisinage de xi :

h2i+1/2 d2 u
du
ui+1 = u(xi + hi+1/2 ) = ui + hi+1/2 + 2
+ O(h3i+1/2 )
i dx 2 dx i
h 2 2
du i1/2 d u
ui1 = u(xi hi1/2 ) = ui hi1/2 + + O(h3i1/2 )
dx i 2 dx2 i

Ce qui peut s'exprimer sous la forme :



ui+1 ui du hi+1/2 d2 u
= + + O(h2i+1/2 )
hi+1/2 dx i 2 dx2 i

ui1 ui du hi1/2 d2 u
= + + O(h2i1/2 )
hi1/2 dx i 2 dx2 i

Par somme des deux galits, on obtient une approximation l'ordre 2 de la drive seconde de
u. Au nal, la discrtisation par des Dirences Finies est la suivante :


2 ui ui1 ui+1 ui
= fi pour i variant de 1 N
hi+1/2 + hi1/2 hi1/2 hi+1/2

Dans la cas particulier d'un maillage rgulier de pas h, l'quation discrtise s'crit :
2ui ui+1 ui1
= fi pour i variant de 1 N
h2
ENSHMG 27

II.3.4 Exemple simple 1D avec conditions mixtes Dirichlet-Neumann


Considrons l'quation direntielle suivante :
(
u00 (x) = f (x) , x ]0, 1[
0
u(0) = et u (1) =

o l'on a cette fois une condition de Neumann en x = 1.


On se place sur le mme maillage que prcdemment et on adopte la mme dmarche.

L'quation intgre sur une maille lmentaire est :

u0 (xi1/2 ) u0 (xi+1/2 ) = hi fi pour i variant de 1 N

Le calcul des termes de drive aux interfaces s'eectue de la mme manire que prcdemment.
Au bord droit, l'interface xN +1/2 = 1, l'application de la condition u0 (1) = s'applique trs
naturellement et l'on a : u0 (xN +1/2 ) = .

La discrtisation en Volumes Finis est donc nalement :

ui ui1 ui+1 ui
= hi fi pour i variant de 2 N-1
hi1/2 hi+1/2
2(u1 ) u2 u1
= h1 f1
h1 h3/2
uN uN 1
= hN fN
hN 1/2

Dans le cas particulier d'un maillage rgulier de pas h. La discrtisation en Volumes Finis devient :
2ui ui1 ui+1
= fi pour i variant de 2 N-1
h2
3u1 u2 2
= f1 + 2
h2 h
uN uN 1
= fN +
h2 h

Sous forme matricielle, ceci s'exprime :



3 1 0 0 u1 f1 + 2/h2

1 2 1 0 u2 f2
1
.. .. .. .. ..

..

..


. . . =
h2 . . . .
0 0 1 2 1 u fN 1
N 1
0 0 0 1 1 uN fN + /h
28 Chapitre II : DISCRETISATION DES EDP

II.3.5 Discrtisation de l'quation de la chaleur 1D


Considrons le problme monodimensionnel de la conduction de la chaleur dans une barre de 1m
de longueur. Le champ de temprature T (x, t) vrie l'quation de la chaleur :
T 2T
= 2
t x
o est la diusivit thermique que l'on supposera gale 1.
A cette EDP s'ajoute deux conditions aux limites aux extrmits de la barre T (0, t) = Tg et
T (1, t) = Td ainsi qu'une condition initale T (x, 0) = T0 .

L'intervalle [0,1] est discrtis en N mailles de centre xi (i variant de 1 N ), de taille x =


xi+1/2 xi1/2 constante. Le temps est discrtis en intervalles de pas constant t. A chaque
instant, la temprature T (x, t) est suppose constante dans chaque maille et gale une valeur
approche de la moyenne sur la maille considre. On notera Tin cette valeur dans la i-me maille
de centre xi l'instant t = nt.

La discrtisation spatiale par les Volumes Finis consiste intgrer maille par maille l'EDP du
problme, soit pour la i-me maille :
Z xi+1/2 Z xi+1/2 2
T T
dx = 2
dx
xi1/2 t xi1/2 x

Nous utilisons un schma d'Euler explicite pour valuer la drive temporelle, il vient :
" #
Tin+1 Tin T n T n
x =
t x xi+1/2 x xi1/2

Les termes de drive premire aux interfaces xi+1/2 sont valus en considrant la valeur moyenne
T
de sur le segment [xi , xi+1 ], soit :
x
Z xi+1
T n 1 T T n Tin
= dx = i+1
x xi+1/2 x xi x x

Cette formulation n'est pas valable dans la maille N l'extrmit droite de la barre. Dans cette
maille, on considre la valeur moyenne calcule sur l'intervalle [xN , 1]. D'o :
Z 1
T n 2 T T n TNn
= dx = 2 d
x xN +1/2 x xN x x

De mme, les termes de drive premire aux interfaces xi1/2 sont valus en considrant la
T
valeur moyenne de sur le segment [xi1 , xi ], soit :
x
Z xi
T n 1 T T n Ti1
n
= dx = i
x xi1/2 x xi1 x x
ENSHMG 29

Avec un problme dans la premire maille l'extrmit gauche de la barre. Dans cette maille,
on considre la valeur moyenne calcule sur l'intervalle [0, x1 ]. D'o :
Z x1
T n 2 T T1n Tgn
= dx = 2
x x1/2 x 0 x x
t
En posant = , la temprature l'itration n + 1 est donne par :
x2
Tin+1 = n
Ti1 + (1 2)Tin + Ti+1
n
i variant de 2 N-1

T1n+1 = 2Tg + (1 3)T1n + T2n

TNn+1 = TNn 1 + (1 3)TNn + 2Tdn

Soit sous forme matricielle :


n+1 n
T1 1 3 0 0 T1 Tg

T2 1 2 0 T2 0

.. .. .. .. .. .. .. ..

. = . . . . . . + 2
.

T 0 0 1 2 T 0
N 1 N 1
TN 0 0 0 1 3 TN Td

II.3.6 Discrtisation de l'quation de la chaleur 2D stationnaire


Considrons le problme bidimensionnel stationnaire de la conduction de la chaleur dans un
domaine rectangulaire [0,Lx ][0,Ly ]. Le champ de temprature T (x, y) vrie l'quation de La-
place :

2T 2T

T = + = 0 , (x, y) [0, Lx ] [0, Ly ]

x2 y 2

T (0, y) = Tg et T (Lx , y) = Td 0 < y < Ly







T (x, 0) = Tb et T (x, Ly ) = Th 0 < x < Lx

Le domaine de calcul est discrtis en NP mailles de centre (xi , yj ) (i variant de 1 N et j


variant de 1 P). On supposera que les pas d'espace dans chaque direction x = xi+1/2 xi1/2
et y = yj+1/2 yj1/2 sont constants.
La temprature T (x, y) est suppose constante dans chaque maille et gale une valeur appro-
che de la moyenne sur la maille considre. On notera Tij cette valeur dans la maille (i, j).

La discrtisation spatiale par les Volumes Finis consiste intgrer maille par maille l'EDP du
problme, soit pour la maille (i, j) de centre (xi , yj ) :
Z xi+1/2 Z yj+1/2 2
T 2T
+ dxdy = 0
xi1/2 yj1/2 x2 y 2
30 Chapitre II : DISCRETISATION DES EDP

Il vient :
Z yj+1/2 " # Z xi+1/2
" #
T T T T
dy + dx = 0
yj1/2 x xi+1/2 x xi1/2 xi1/2 y yj+1/2 y yj1/2


T
Le terme de drive premire l'interface xi+1/2 est valu en calculant une valeur
x xi+1/2
moyenne sur l'intervalle [xi ,xi+1 ] :
Z xi+1
T 1 T Ti+1,j Tij
= dx =
x xi+1/2 x xi x x


T
De mme, le terme l'interface xi1/2 est valu en calculant une valeur moyenne
x xi1/2
sur l'intervalle [xi1 ,xi ]. Ce qui permet d'crire :
Z yj+1/2 " # Z yj+1/2
T T Ti+1,j Tij Ti,j Ti1,j
dy = dy
yj1/2 x xi+1/2 x xi1/2 yj1/2 x x

Ti+1,j + Ti1,j 2Tij


= y
x

T
En oprant identiquement pour les termes aux interfaces yj+1/2 et yj1/2 , on aboutit
y
l'expression suivante valable pour i variant de 2 N 1 et j variant de 2 P 1 :

y 2 (Ti+1,j + Ti1,j ) + x2 (Ti,j+1 + Ti,j1 ) 2(x2 + y 2 )Tij = 0

Cette relation n'est pas valable aux bords du domaine pour lesquels les termes de drives
premires sont valus en considrant
une valeur moyenne sur une demie-maille.
T
Par exemple, pour la drive , la valeur moyenne sera calcule sur l'intervalle [0,x1 ] et
x x1/2
fera intervenir les conditions aux limites (la temprature Tg au bord gauche) :
Z x1
T 2 T T1j Tg
= dx = 2
x x1/2 x 0 x x

Ainsi pour les cellules adjacentes au bord gauche (i = 1, j variant de 1 P ), la formulation est :

y 2 (T2,j + 2Tg ) + x2 (T1,j+1 + T1,j1 ) (2x2 + 3y 2 )T1j = 0 ; j=2 P-1


y 2 (T21 + 2Tg ) + x2 (T12 + 2Tb ) 3(x2 + y 2 )T11 = 0 ; j=1
y 2 (T2P + 2Tg ) + x2 (2Th + T1,P 1 ) 3(x2 + y 2 )T1P = 0 ; j=P
ENSHMG 31

On aura une formulation quivalente pour les cellules adjacentes aux 3 autres bords du domaine.
Soit sous forme matricielle, pour N =P =3, en posant A = x2 + y 2 , B = 3x2 + 2y 2 et
C = 2x2 + 3y 2 :

3A y 2 0 x2 0 0 0 0 0 T11 x2 Tb + y 2 Tg
2 2 2
y B y 0 x 0 0 0 0 T21 x2 Tb

0 2
y 3A 0 0 x 2 0 0 0 T31 x2 Tb + y 2 Td

2 2 2
x 0 0 C y 0 x 0 0 T12 y 2 Tg

0 x 2 0 2
y 2A y 2 0 x 2 0 T22 = 2 0

2 2
0 0 x 0 y C 0 0 x2 T32 y 2 Td

0 0 0 x2 0 0 3A y 2 0 T13 x2 Th + y 2 Tg

2 2
0 0 0 0 x 0 y B y 2 T23 x2 Th
0 0 0 0 0 x2 0 y 2 3A T33 x2 Th + y 2 Td

Dans le cas o les pas d'espace sont identiques x = y , la formulation matricielle, pour N =P =3
devient :

6 1 0 1 0 0 0 0 0 T11 Tb + Tg

1 5 1 0 1 0 0 0 0 T21 Tb

0 1 6 0 0 1 0 0
0 T31
Tb + Td

1 0 0 5 1 0 1 0 0 T12 Tg

0 1 0 1 4 1 0 1
0 T22 = 2 0


0 0 1 0 1 5 0 0 1 T32 Td

0 0 0 1 0 0 6 1 0 Th + Tg
T13

0 0 0 0 1 0 1 5 1 T
23 T h
0 0 0 0 0 1 0 1 6 T33 Th + Td

Remarque : dans le cas de conditions aux limites mixtes Dirichlet-Neumann, la condition de ux
de chaleur est prise en compte trs simplement, directement dans les termes de drives aux
interfaces du bord concern.
32 Chapitre II : DISCRETISATION DES EDP

II.4 LES ELEMENTS FINIS EN 1D


II.4.1 Introduction
La mthode des Elments Finis consiste approcher, dans un sous-espace de dimension nie,
un problme crit sous forme variationnelle dans un espace de dimension innie. Cette forme
variationnelle est quivalente une forme de minimisation de l'nergie en gnral (principe des
travaux virtuels). La solution approche est dans ce cas une fonction dtermine par un nombre
ni de paramtres, par exemple, ses valeurs en certains points (les noeuds du maillage).

Cette mthode est particulirement bien adapte aux problmes d'quilibre. Elle permet de trai-
ter des gomtries complexes contrairement aux Dirences Finies mais elle demande un grand
cot de temps de calcul et de mmoire.

De nombreux codes de calculs de structure reposent sur les Elments Finis : ANSYS, CADDS,
CATIA...

II.4.2 Exemple simple 1D


Reprenons le cas prcdent de l'quation direntielle :
(
u00 (x) = f (x) , x ]0, 1[
u(0) = u(1) = 0

La prsentation trs succinte faite sur cet exemple simple a pour but de donner les ides de
base et ne constitue qu'une premire introduction la mthodes des Elments Finis. L'approche
repose sur la mthode de Galerkin qui permet d'crire le systme direntiel sous forme va-
riationnelle dans un espace de dimension nie.

Soit une fonction v(x) C 1 ([0, 1]), nulle en 0 et 1. On peut crire :


Z 1 Z 1
00
u (x) v(x) dx = f (x) v(x) dx
0 0

En intgrant par parties, il vient :


Z 1 Z 1
0 0
u (x) v (x) dx = f (x) v(x) dx v V (II.1)
0 0


avec V = v C 0 ([0, 1]); v(0) = v(1) = 0 , v' continue par morceaux un sous-espace vectoriel
de C 1 ([0, 1]).

Une solution de la forme variationnelle (II.1) s'appelle solution faible du problme diren-
tiel de dpart.
ENSHMG 33

On cherche alors crire un problme approch dans un sous-espace vectoriel de dimension nie.
Soit V un sous-espace vectoriel de V de dimension N nie. Soient 1 , 2 , ..., N N fonctions
linairement indpendantes de V . Ces fonctions constituent une base du sous-espace V . Ainsi,
de V peut se dcomposer selon :
toute fonction u
N
X
u
(x) = uj j (x)
j=1

V telle que :
Rsoudre le problme direntiel de dpart revient alors chercher une solution u
Z 1 Z 1
u 0 0
(x) v (x) dx = f (x) v(x) dx v V

0 0

C'est--dire chercher N rels u1 , u2 , ..., uN vriant :


N
X Z 1 Z 1
uj 0j (x) v0 (x) dx = f (x) v(x)dx v V

j=1 0 0

Ou encore :
N
X Z 1 Z 1
uj 0j (x) 0i (x) dx = f (x) i (x) dx i V
j=1 0 0

Soient A la matrice N N d'lment courant aij et B le vecteur N composantes bi dnies


par : Z 1 Z 1
aij = 0j (x) 0i (x) dx et bi = f (x) i (x) dx
0 0

Par dnition, la matrice A est symtrique. Notons U le vecteur des N inconnues u1 , u2 , ..., uN .
Le problme direntiel se ramne nalement la rsolution du systme linaire :

A.U = B

Il reste maintenant choisir les N fonctions i de faon ce que le systme soit simple rsoudre
numriquement.

II.4.2.1 Choix des fonctions i : les lments nis


L'intervalle ]0,1[ est discrtis en N points de coordonnes xi . Les fonctions i (x) sont choisies
comme fonctions polynomiales de degr 1 dnies par :

x xi1

si xi1 x xi

x xi1
i
i (x) = x xi+1
si xi x xi+1

xi xi+1


0 sinon
34 Chapitre II : DISCRETISATION DES EDP

Ces fonctions sont appeles les lments nis de degr 1. Avec ces lments nis, la matrice A
est tridiagonale. Il est aussi possible de choisir pour lments nis des fonctions de degr 2 ou plus.

Le calcul de la matrice A fait intervenir les drives 0i (x) simples calculer :



1

si xi1 x xi

x xi1
i
0i (x) = 1
si xi x xi+1
xi xi+1




0 sinon

Calculons maintenant les lments de la matrice A, tridiagonale et symtrique. Les trois termes
des diagonales sont :
Z 1
1 1
aii = 0i (x) 0i (x) dx = +
0 xi xi1 xi+1 xi
Z 1
1
ai,i+1 = 0i+1 (x) 0i (x) dx =
0 xi+1 xi
Z 1
1
ai1,i = 0i (x) 0i1 (x) dx =
0 xi xi1

Et calculons les composantes du vecteur B par une mthode des trapzes (chaque intgrale sur
un segment lmentaire sera value comme l'aire du trapze correspondant), soit :
Z 1
xi+1 xi1
bi = f (x) i (x) dx = fi
0 2

Le systme linaire rsoudre s'crit donc, sous forme indicielle :

ui ui1 ui+1 ui xi+1 xi1


= fi pour i variant de 1 N
xi xi1 xi+1 xi 2

On rappelle la discrtisation avec un schma aux Dirences Finies d'ordre 2 :


ui ui1 ui+1 ui xi+1 xi1
= fi pour i variant de 1 N
xi xi1 xi+1 xi 2

Ainsi, on constate que les deux mthodes sont rigoureusement identiques. Ceci n'est plus vri
quand les composantes du vecteur B ne sont plus values avec une mthode des trapzes.
ENSHMG 35

Dans le cas o les N points de l'intervalle ]0,1[ sont rgulirement espacs avec un pas h. La
discrtisation en Elments Finis devient :
2ui ui+1 ui1
= fi pour i variant de 1 N
h2

Soit sous forme matricielle :



2 1 0 0 u1 f1

1 2 1 0 u2 f2
1 .. .. .. ..

.. ..

..


. . .
=
h2 . . . .
0 0 1 2 1 f
uN 1 N 1
0 0 0 1 2 uN fN

II.4.2.2 Bilan
La mthodes des Elments Finis 1D consiste donc :
Choisir N points entre 0 et 1 et choisir les fonctions i
Construire la matrice A
Dterminer le vecteur B (avec une mthode d'intgration)
Rsoudre le systme linaire A.U = B o U dsigne le vecteur des inconnues
36 Chapitre II : DISCRETISATION DES EDP

II.5 APPLICATION NUMERIQUE


Comparons les trois mthodes de discrtisation sur le cas simple prcdemment expos. On choisit
comme fonction f (x) = sin (x). L'quation direntielle rsoudre est donc :
(
u00 (x) = sin (x) , x ]0, 1[
u(0) = u(1) = 0

sin (x)
La solution analytique au problme est u(x) = . Notons par un indice 'a' la solution
2
analytique.

Divisons l'intervalle ]0,1[ en dix segments rguliers de pas h = 0.1. Pour les discrtisations
avec les Dirences Finies et les Elements Finis, il y a N = 9 noeuds de calculs. Et pour la
mthode des Volumes Finis, il y a N = 10 mailles de calculs.

La solution discrte obtenue avec les Dirences Finies (ou les Elments Finis) est reporte
dans le tableau V.1 :

xi 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9


ui 0.0316 0.06 0.0826 0.09716 0.10216 0.09716 0.0826 0.06 0.0316
(ui )a 0.0313 0.0595 0.082 0.09636 0.10113 0.09636 0.082 0.0595 0.0313
|erreur| 9.6 103 8.4 103 7.3 103 8.3 103 1 102 8.3 103 7.3 103 8.4 103 9.6 103

Tab. II.1  Mthode des Dirences Finies et des Elments Finis

La valeur moyenne par maille obtenue avec les Volumes Finis est reporte dans le tableau II.2.

sin h
Le calcul de la valeur moyenne de f (x) dans la i-me maille est : fi = fi
2
. Notons (
ui )a
2 h
la valeur moyenne
Z de la solutionanalytique calcule sur la i-me maille soit :
1 xi+1/2 sin 2 h
(
ui )a = u(x) dx = ui .
h xi1/2 2h

xi 0.05 0.15 0.25 0.35 0.45 0.55 0.65 0.75 0.85 0.95
ui 0.01589 0.04612 0.07184 0.0905 0.1003 0.1003 0.0905 0.07184 0.04612 0.01589
(ui )a 0.01585 0.046 0.07164 0.09028 0.1001 0.1001 0.09028 0.07164 0.046 0.01585
|erreur| 2.5 103 2.6 103 2.8 103 2.4 103 2 103 2 103 2.4 103 2.8 103 2.6 103 2.5 103

Tab. II.2  Mthode des Volumes Finis

Les trois mthodes permettent d'obtenir des rsultats avec une bonne prcision. L'erreur la
plus faible est obtenue avec la mthode des Volumes Finis.
ENSHMG 37

II.6 CONSISTANCE, CONVERGENCE ET STABILITE


Un certain nombre de notion est ncessaire lors de la rsolution d'quations aux drives partielles
(EDP) au moyen de leurs quivalents discrtiss. Les trois principales sont la convergence, la
stabilit et la consistance. Ces trois proprits permettent de relier la solution exacte des
quations continues la solution exacte des quations discrtises et la solution numrique
obtenue. Ces dirents liens, rsums sur la gure II.4, sont :

la stabilit, c'est la proprit qui assure que la dirence entre la solution numrique obte-
nue et la solution exacte des quations discrtises est borne.

la consistance, c'est la proprit qui assure que la solution exacte des quations discrtises
tende vers la solution exacte des quations continues lorsque le pas de discrtisation (t et
x) tendent vers zro.

la convergence, c'est la proprit qui assure que la solution numrique tende vers la (ou une)
solution exacte des quations continues. C'est videmment la proprit la plus recherche !

Fig. II.4  Solutions exacte, numrique et discrte

Ces proprits sont lies les unes aux autres par des thormes :
Le thorme de Lax
Dans un problme bien pos, et avec un schma numrique consistant, la stabilit est une
condition ncessaire et susante pour la convergence.
38 Chapitre II : DISCRETISATION DES EDP

Le thorme de Lax-Wendro

Si un schma numrique consistant converge lorsqu'on rane les pas de temps et d'espace,
c'est--dire lorsque t 0 et x 0, alors il converge vers une solution faible des quations.

Condition de stabilit CFL


Pour des problmes d'volution temporelle, certains schmas sont stables condition que le pas
de temps soit infrieur une certaine valeur critique fonction du pas d'espace. Cette ingalit
constitue la condition de Courant-Friedrichs-Lewy (1928) ou condition CFL. Elle est ncessaire
et susante pour assurer la stabilit.

La condition CFL varie d'une quation une autre.

Par exemple pour l'quation de la chaleur 1D, les schmas explicites sont stables sous la condition
CFL suivante :
t
< 0.5
x2

alors que les schmas implicites sont toujours stables.


39

Chapitre III

CLASSIFICATION DES EDP


D'ORDRE 2

III.1 CLASSIFICATION DES EDP LINEAIRES D'ORDRE 2


Considrons une quation aux drives partielles (EDP) du second ordre ayant la forme suivante :

2u 2u 2u u u
a + b + c +d +e + fu = g (III.1)
x2 xy y 2 x y

dans laquelle u est une fonction de deux variables x et y .

On dit que l'quation (III.1) est :


hyperbolique ssi b2 4ac > 0
parabolique ssi b2 4ac = 0
elliptique ssi b2 4ac > 0
Remarque 1 : la terminologie utilise dans cette dnition est base sur la classication des
coniques du plan. On rappelle que la conique d'quation :

ax2 + bxy + cy 2 + dx + ey + f = 0

est une hyperbole (resp. une parabole, une ellipse) ssi b2 4ac est positif (resp. nul, ngatif).

Remarque 2 : Si les coecients a, b, ..., g dpendent des variables x et y , le type de l'quation


(III.1) est local. L'quation est hyperbolique au point (x0 , y0 ) ssi b(x0 , y0 )2 4a(x0 , y0 )c(x0 , y0 ) >
0, etc.

Remarque 3 : le type de l'EDP est invariant par changement de base.


40 Chapitre III : CLASSIFICATION DES EDP D'ORDRE 2

III.2 EQUATIONS ELLIPTIQUES


Les quations elliptiques rgissent les problmes stationnaires, d'quilibre, gnralement dnis
sur un domaine spatial born de frontire sur laquelle l'inconnue est soumise des conditions
aux limites, le plus souvent de type Dirichlet ou Neumann.

Le problme elliptique type est celui fourni par l'quation de Laplace (ou de Poisson) soumise
des conditions aux limites, par exemple de Dirichlet :

u = f dans

u = u0 sur

Exemples : Equation de la chaleur en stationnaire (temprature d'quilibre).


Dplacement vertical d'une membrane dont le bord est x.
En mcanique des uide, dans le cas d'un coulement plan, permanent d'un uide parfait incom-
pressible, le potentiel des vitesses vrient une quation de Laplace.

III.3 EQUATIONS PARABOLIQUES


Les quations paraboliques rgissent les problmes d'volution ou instationnaires dans lesquels
intervient le mcanisme de diusion ou de dissipation. Ces problmes sont gnralement dnis
sur un domaine spatial born de frontire sur laquelle l'inconnue est soumise des conditions
aux limites du mme type qu'en elliptique (quelquefois elles-mmes instationnaires), ainsi qu'
des conditions initiales.

Le problme elliptique type est celui fourni par l'quation de la chaleur soumise des conditions
aux limites, par exemple de Dirichlet, ainsi qu' des conditions initiales :


T 2T

= dans

t x2

T = T0 sur





T (x, 0) = f (x) dans

III.4 EQUATIONS HYPERBOLIQUES


III.4.1 Origine physique
Les quations hyperboliques modlisent la propagation d'ondes sans dissipation.
En linaire, c'est par exemple la propagation du son dans un milieu homogne. En lectroma-
gntisme, les quations de Maxwell sont hyperboliques et linaires.

En non linaire, les quations hyperboliques sont l'expression de lois de conservation. Par exemple,
les quations d'Euler expriment la conservation de la masse, de la quantit de mouvement et de
l'nergie totale dans un uide parfait compressible.
ENSHMG 41

III.4.2 Equations types


Pour une grandeur w(x, t) on distingue deux grands types d'quation hyperbolique :
Le premier type d'quation du cas hyperbolique est l'quation des ondes homognes :

2w 2
2 w
c = 0
t2 x2

Le deuxime type du cas hyperbolique conduit la dnition suivante :


Soit A une matrice n n. Le systme (linaire ou non) du premier ordre

w w
+ A(w) = 0
t x

est hyperbolique ssi la matrice A est diagonalisable valeurs propres relles, pour tout w.
Dans le cas scalaire (n = 1), le systme se ramne l'quation de convection pure :
w w
+c = 0
t x

III.4.3 Caractristiques
III.4.3.1 Caractristiques pour les quations du premier type
Considrons l'quation hyperbolique suivante :

2u 2u 2u
a + b + c = 0 avec b2 4ac > 0
x2 xy y 2
Cette quation peut s'crire dans un autre jeu de coordonnes (X, Y ) :

2u 2u 2u u u
A 2
+ B + C 2
+D +E = 0
X XY Y X Y
o A, B , C , D et E sont fonctions de a, b, c et des drives de X ,Y par rapport x, y .

Dans le but de dterminer une forme canonique de l'EDP, nous pouvons chercher s'il existe des
coordonnes (X, Y ) telle que A = 0 ou C = 0, ce qui revient rsoudre l'quation suivante :
2
dy dy
a b +c = 0
dx dx

Nous obtenons ainsi deux quations direntielles ordinaires (EDO) :


dy b+ b2 4ac dy b b2 4ac
= et =
dx 2a dx 2a

Celles-ci sont appeles les quations caractristiques.


42 Chapitre III : CLASSIFICATION DES EDP D'ORDRE 2

En rsolvant ces deux quations nous obtenons les courbes caractristiques. Et les nouvelles
coordonnes (X(x, y), Y (x, y)) sont les coordonnes caractristiques. Aprs ce changement de
coordonnes, nous aurons une EDP de la forme :

2u u u
+K + K0 = 0
XY X Y

Remarque : Dans le cas o les coecients a, b et c sont constants, les caractristiques sont des
droites.

2u 2
2 u
Exemple : Considrons l'quation y 2 x = 0. Les quations caractristiques sont :
x2 y 2
p p
dy 4x2 y 2 x dy 4x2 y 2 x
= 2
= et = 2
=
dx 2y y dx 2y y

Nous obtenons ainsi l'quations des deux courbes caractristiques :

y 2 x2 y 2 + x2
= cte et = cte
2 2

y 2 x2 y 2 + x2
Les coordonnes caractristiques sont : X(x, y) = et Y (x, y) =
2 2
Et la nouvelle expression de l'EDP :

2u Y u X u
= 2 2
2 2
XY 2(X Y ) X 2(X Y ) Y

III.4.3.2 Caractristiques pour l'quation de convection


Considrons l'quation de convection d'une grandeur w(x, t) :

w w
+c = 0
t x

o la vitesse c peut tre constante ou non.

Drive le long d'une courbe


On introduit la notion de drive de la grandeur w par rapport au temps le long d'une courbe
C du plan (x, t). On se limite au cas des courbes dcrites par une quation du type x = X(t).
Cette notion de drive est facile saisir intuitivement : on regarde la variation de w en suivant
la courbe C et on drive par rapport au temps.

On dnit la drive de la grandeur w(x, t) par rapport au temps le long de la courbe C d'quation
x = X(t) par :

dw dw w w dx
= (X(t), t) = +
dt C dt t x dt C
ENSHMG 43

Construction des solutions avec une famille de courbes



dx
A partir de la dnition ci-dessus, on constate que si le long de la courbe C , = c, alors
dt C
dw w w
la drive de w le long de la courbe est nulle : = +c = 0.
dt C t x

On montre ainsi que la rsolution de l'EDP de dpart se ramne la rsolution d'un systme
d'EDO. Ce systme dnit une famille de courbes que l'on nomme courbes caractristiques. Cette
mthode peut aussi s'interprter comme un changement de variable. Sa validit cesse lorsque les
courbes caractristiques se coupent. Ce cas correspond l'apparition de singularits dans la so-
lution de l'quation de convection (ondes de choc par exemple).

La mthode des caractristiques consiste donc remplacer la rsolution de l'EDP par la recherche
d'une famille de courbes C d'quation x = X(t) et d'une famille de fonctions wC solutions du
systme d'quations direntielles ordinaires couples :

dx

dt = c
C

dw
= 0
dt C

w w
Exemple : Rsolution de l'quation de convection + c0 = 0 avec la condition initiale
t x
w(x, 0) = w0 (x) et une vitesse c0 constante. Le systme d'EDO rsoudre est :
(
x = c0
w = 0

avec les conditions initales [x(0), w(0)] = [a, w0 (a)]. On en dduit alors :

x = X(t) = a + c0 t et wC = w0 (a) = w0 (x c0 t)

Les courbes caractristiques sont donc des droites parallles de pente 1/c0 dans le plan (x, t) et
la grandeur w est invariante le long de ces droites. On en dduit que w(x, t) = w0 (x c0 t). La
grandeur w est dans ce cas appele un invariant de Riemann.

III.4.3.3 Caractristiques pour un systme de lois de conservation


Considrons un systme de lois de conservation d'ordre n sous la forme non-conservative :
w w
+ A(w) = 0
t x
o la matrice A est diagonalisable valeurs propres relles k (w).

Ce systme d'EDP peut se transformer en un systme d'EDO faisant intervenir la drivation des
solutions le long de courbes caractristiques dont le trac dpend lui-mme des solutions. Cette
transformation permet une interprtation gomtrique des solutions dans le plan (x, t) et conduit
souvent des rsolutions analytiques ou numriques.
44 Chapitre III : CLASSIFICATION DES EDP D'ORDRE 2

Cette mthode des caractristiques n'est plus valide lorsque les courbes caractristiques se coupent.
C'est le cas lorsque des discontinuits existent (ondes de choc en Euler). Dans ce cas, il n'y a pas
unicit de la solution.

On introduit un vecteur propre gauche Lk de la matrice A (ie Lk A = k Lk ). On multiplie le


systme d'EDP par ce vecteur propre. Il vient :

w w w w
Lk + A(w) = Lk + k (w) = 0 (III.2)
t x t x

Pour k x, on introduit une famille de courbes C k dnies par l'EDO ;

dx
= k (w)
dt
L'quation (III.2) peut alors se rcrire :

w w dx dw
Lk + = Lk = 0
t x dt C k dt C k

Ou plus simplement :
dw
Lk = 0 sur la courbe C k (III.3)
dt

Les courbes C k constituent une famille de courbes caractristiques. Si w est continue alors
il passe une courbe caractristique et une seule en chaque point du plan (x, t).

En considrant n vecteurs propres linairement indpendants, on peut former n quations sca-


laires de la forme (III.3), linairement indpendantes, et remplacer le systme de n EDP par
un systme de n EDO. Cette simplication du problme s'opre toutefois au prix d'un couplage
entre les quations dnissant les courbes caractristiques et les quations (III.3) valables sur ces
courbes, puisque les valeurs propres k (w) dpendent de l'inconnue w.

Remarque : Une mthode importante permettant de traiter le problme de l'absence d'unicit


des solutions dans le cas o apparaissent des discontinuits consiste introduire un terme de
viscosit. Le systme considrer s'crit :

w w
+ A(w) = w
t x
o est un petit paramtre de viscosit que l'on appelle articiel (car non physique).
On constate alors que les solutions de ce systme sont rgulires, les discontinuits ont disparu.

III.4.4 Domaines de dpendance et d'inuence


Une proprit fondamentale des problmes hyperboliques est l'existence de domaines de dpen-
dance et d'inuence.
ENSHMG 45

Dans le plan (x, t), pour un point M x, il existe un domaine DM qui inuence la solution au
point M . Ce domaine, appel domaine de dpendance du point M , est dlimit par les courbes
caractristiques qui passent par M .

Dans le plan (x, t), pour un point P x sur l'axe des abscisses, il existe un domaine DP inuenc
par la solution au point P . Ce domaine, appel domaine d'inuence du point P , est dlimit par
les courbes caractristiques qui partent de P .

t t

domaine dinfluence M

domaine de
dependance
x x
P

Fig. III.1  Domaine de dpendance et d'inuence

III.4.5 Forme conservative et non-conservative


Considrons un systme de lois de conservation d'ordre n crit pour un vecteur w(x, t) :

w f (w)
+ = 0 avec w(x, 0) = w0 (x) (III.4)
t x

o f est une fonction non linaire dite fonction de ux. Le systme (III.4) est dit sous forme
conservative ou forme divergence.

Exemple : L'quation de Burgers monodimensionnelle :



u u2
+ = 0 avec u(x, 0) = u0 (x)
t x 2

Si w(, x, t) est une solution rgulire vriant le systme (III.4), on peut valuer le terme de
drive de la fonction ux en introduisant la matrice jacobienne de f par rapport w. On
obtient alos le systme sous forme non-conservative :

w w
+ A(w) = 0 avec w(x, 0) = w0 (x)
t x
46 Chapitre III : CLASSIFICATION DES EDP D'ORDRE 2

fi (w)
o la matrice A(w) = f 0 (w) est la jacobienne de f : Aij = .
wj
A est diagonalisable pour tout w valeurs propres relles.

Exemple : La forme non-conservative de l'quation de Burgers est :

u u
+u = 0 avec u(x, 0) = u0 (x)
t x

III.4.6 Discontinuit - relation de saut


Mme dans le cas o la fonction de ux f et la solution initale sont rgulires, il peut appa-
ratre des discontinuits et des solutions non rgulires (formation de chocs). Les solutions du
systme ne sont pas ncessairement de classe C 1 , on parle alors de solutions faibles du systme.

Pour une solution faible (discontinue), on peut introduire des relations de saut au travers de
la discontinuit (par exemple les relations de Rankine-Hugoniot en uide parfait compressible).

Supposons qu'une solution faible w soit discontinue le long d'une courbe rgulire dans le plan
(x, t). Cette courbe spare le plan en deux rgions 1 et 2 . On note w1 et w2 les restrictions de
w 1 et 2 que l'on suppose rgulires. On dsigne par ~n la normale dirige vers l'extrieur
de 1 de composante (nx , nt ). La relation de saut de l'inconnue w et de la fonction de ux au
travers de la courbe s'crit :

(w1 w2 )nt + (f (w1 ) f (w2 )) nx = 0

1
2

n
x
0
Fig. III.2  Solution discontinue le long d'une courbe
47

Chapitre IV

RESOLUTION DES EDO

Les quations direntielles ordinaires (EDO) apparaissent trs souvent dans la modlisation de
la physique et des sciences de l'ingnieur. Trouver la solution d'une EDO ou d'un systme d'EDO
est ainsi un problme courant, souvent dicile ou impossible rsoudre de faon analytique. Il est
alors ncessaire de recourir des mthodes numriques pour rsoudre ces quations direntielles.

IV.1 DEFINITION DES EDO


Soit une fonction y(x) dnie sur un intervalle de R et de classe Cp (continment drivable
d'ordre p). On appelle quation direntielle d'ordre p une quation de la forme :

F (x, y, y 0 , y 00 , ..., y (p) ) = 0

On appelle forme canonique d'une EDO une expression du type :

y (p) = f (x, y, y 0 , y 00 , ..., y (p1) )

Seul ce type d'quations sera considr dans ce chapitre.

Toute quation direntielle canonique peut tre crite comme un systme d'quations diren-
tielles du premier ordre en introduisant p 1 fonctions dnies comme :


y1 = y


y = y0
2




y = y (p1)
p

L'quation canonique se met sous la forme du systme d'EDO d'ordre 1 suivant :




y10 = y2


y0 = y3
2




y0 = f (x, y, y1 , y2 , ..., yp )
p
48 Chapitre IV : RESOLUTION DES EDO

IV.2 RAPPEL - SOLUTIONS D'EDO SIMPLES


Nous rappelons ici les principes de rsolution des quations direntielles simples. Dans ce qui
suit, la variable indpendante sera note t et la variable dpendante x(t).

ORDRE 1 SOLUTION GENERALE

b
x = ax + b x(t) = Ceat
a

x = a(t)x + b(t) x(t) = eA(t) (B(t) + C)


R R
avec A(t) = a(t) dt et B(t) = exp (A(t))b(t) dt

tx x = f (x)
x(t) = Ct + g(C)

ORDRE 2

1
quation de Bernoulli eectuer le changement de fonction x(t) = z(t) 1
x + a(t)x + b(t)x = 0 l'quation devient : z = ( 1) (a(t)z + b(t))

quation de Ricatti eectuer le changement de fonction z(t) = x(t) xp


o xp est une solution particulire de l'quation
x + a(t)x + b(t)x2 + c(t) = 0 on se ramne une quation de Bernoulli avec = 2

r1 et r2 racines de l'quation caractristique r2 + ar + b = 0


x
+ ax + bx = c x(t) = C1 er1 t + C2 er2 t + c/b
si r = s + ip alors x(t) = est (D1 cos(pt) + D2 sin(pt)) + c/b

quation d'Euler changements de variable t = eu et de fonction x(t) = z(u)


t2 x
+ atx + bx = c(t) l'quation devient : z 00 + (a 1)z 0 + bz = c(eu )

ORDRE 3

r1 , r2 , r3 racines de l'quation caractristique r3 + ar2 + br + c = 0


...
x + a
x + bx + cx = 0 x(t) = C1 er1 t + C2 er2 t + C3 er3 t
ENSHMG 49

IV.3 LE PROBLEME DE CAUCHY


On appelle problme de Cauchy ou problme la valeur initiale le problme qui consiste trouver
une fonction y(x) dnie sur l'intervalle [a, b] telle que :
(
y 0 (x) = f (x, y(x)) ; x [a, b]
y(a) = y0

Si la fonction f est continue et vrie une condition de Lipschitz par rapport la deuxime
variable alors le problme admet une solution unique. On dit que le problme est bien pos.

Attention : un problme bien pos ne signie pas qu'il peut se rsoudre numriquement !

IV.4 PRINCIPE GENERAL DES METHODES NUMERIQUES


Pour obtenir une approximation numrique de la solution y(x) sur l'intervalle [a, b], nous allons
estimer la valeur de cette fonction en un nombre ni de points xi , pour i = 0, 1, ..., n, constituants
les noeuds du maillage. La solution numrique discrte obtenue aux points xi est note yi = y(xi ).

L'cart entre deux abscisses, not h, est appel pas de discrtisation. Ce pas, dans les mthodes
les plus simples, est constant, mais il peut tre judicieux de travailler avec un pas variable
hi = xi xi1 . Le choix du maillage et de la rpartitiondes noeuds peuvent s'avrer crucial.

Les techniques de rsolution des EDO sont bases sur :


l'approximation gomtrique de la fonction
les formules d'intgration numrique (rectangle, trapze, Simpson...)
les dveloppements de Taylor au voisinage de xi

IV.5 PROPRIETES DES METHODES NUMERIQUES


Plusieurs notions mathmatiques sont introduites lors de la rsolution d'EDO au moyen de leurs
quivalents discrtiss. Les trois principales sont la convergence, la stabilit et la consistance
(cf. cours sur la discrtisation des EDP), permettant de relier la solution exacte des quations
continues la solution exacte des quations discrtises et la solution numrique obtenue.

A ces proprits, il convient d'ajouter la notion de prcision ainsi que des aspects informatiques
comme la facilit de mise en oeuvre, les cots CPU et mmoire.

Consistance d'une mthode


La consistance est la proprit qui assure que la solution exacte de l'quation discrtise tende
vers la solution exacte de l'quation continue lorsque le pas de discrtisation h tend vers 0.
50 Chapitre IV : RESOLUTION DES EDO

Stabilit d'une mthode


C'est la proprit qui assure que la dirence entre la solution numrique obtenue et la solution
exacte des quations discrtises reste borne. Le stabilit indique si l'erreur augmente ou non
au cours du calcul.
Une mthode peut tre stable sous condition (elle sera dite conditionnellement stable) ou toujours
stable (elle sera dite inconditionnellement stable).

Ordre de prcision d'une mthode


L'erreur de troncature est dnie comme la dirence entre la solution exacte y et l'approxima-
tion numrique obtenue yn , soit : n =| y(xn ) yn |= O(hp ). L'ordre de prcision de la mthode
est donne par l'entier p.

Convergence et taux de convergence d'une mthode


Une mthode est convergente si, lorsque le pas de discrtisation tend vers 0, la solution num-
rique tend vers la solution exacte de l'quation continue.
Une mthode est convergente l'ordre l ssi : lim max | i | = O(hl )
n i

Rsultat thorique : Une mthode stable et consistante est convergente.

IV.6 LES PRINCIPALES METHODES NUMERIQUES


Les principales mthodes de rsolution numrique des EDO sont spares en deux grands types :
les mthodes un pas

Pour ces mthodes, le calcul de la valeur discrte yn+1 au noeud xn+1 fait intervenir la
valeur yn obtenue l'abscisse prcdente. Les principales mthodes sont :
- Mthodes d'Euler explicite et implicite
- Mthode d'Euler amlior
- Mthode d'Euler-Cauchy
- Mthode de Crank-Nicholson
- Mthodes de Runge et Kutta

les mthodes pas multiples

Pour ces mthodes, le calcul de la valeur discrte yn+1 au noeud xn+1 fait intervenir plusieurs
valeurs yn , yn1 , yn2 , ... obtenues aux abscisses prcdentes. Les principales mthodes sont :
- Mthode de Nystrom ou saute-mouton
- Mthodes d'Adams-Bashforth-Moulton
- Mthodes de Gear
ENSHMG 51

IV.7 METHODES A UN PAS


La formulation gnrale des mthodes un pas explicite est :
(
y0 donn
yn+1 = yn + (xn , yn , h)

o la fonction dnit la mthode utilise.

La formulation gnrale des mthodes un pas implicite est :


(
y0 donn
yn+1 = yn + (xn , yn , yn+1 , h)

L'obtention de la solution chaque abscisse ncessite la rsolution d'une quation.

Ces mthodes sont obtenues en intgrant l'quation direntielle et en utilisant des formules d'in-
tgration numrique pour le second membre. L'ordre du schma est gal au degr du polynme
pour lequel l'intgration est exacte + 1.

Rsultats thoriques :
1) Si la fonction est lipschitzienne par rapport la deuxime variable alors les mthodes ex-
plicites sont stables.
2) Les mthodes implicites sont toujours stables.
3) Les mthodes sont consistantes ssi x [a, b], (x, y, 0) = f (x, y).

IV.7.1 Mthodes d'Euler explicite et implicite


Mthode explicite, d'ordre 1, dont l'algorithme est :
(
y0 donn
yn+1 = yn + hf (xn , yn )

La mthode peut s'interprter de plusieurs manires :


1) Via les formules d'intgration numrique : la mthode est le rsultat de l'application de la
formule des rectangles base au point xn .
2) Gomtriquement : la mthode revient remplacer localement en chaque point xn la courbe
solution par sa tangente.
3) Via les dveloppements de Taylor : la mthode provient du dveloppement de Taylor d'ordre
1 de la fonction y au voisinage de xn .

Mthode implicite, d'ordre 1, dont l'algorithme est :


(
y0 donn
yn+1 = yn + hf (xn+1 , yn+1 )
52 Chapitre IV : RESOLUTION DES EDO

IV.7.2 Mthode d'Euler amlior


Mthode explicite dont l'algorithme est :


y0 donn


h
yn+1 = yn + f (xn , yn )

2

yn+1 h
= yn + hf (xn + , yn+1 )
2
Gomtriquement, la mthode consiste remplacer dans la mthode d'Euler la pente de la
tangente en (xn , yn ) par la valeur corrige au milieu de l'intervcalle [xn , xn+1 ].

IV.7.3 Mthode d'Euler-Cauchy


Mthode explicite dont l'algorithme est :


y0 donn


yn+1 = yn + hf (xn , yn )

yn+1 = yn + h f (xn , yn ) + f (xn+1 , y )

n+1
2
Gomtriquement, la mthode consiste remplacer dans la mthode d'Euler la pente de la
tangente en (xn , yn ) par la moyenne de cette pente avec la valeur corrige en xn+1 .

IV.7.4 Mthode de Crank-Nicholson


Mthode implicite, d'ordre 2, dont l'algorithme est :

y0 donn
yn+1 = yn + h [f (xn , yn ) + f (xn+1 , yn+1 )]
2

Elle est obtenue en utilisant la formule d'intgration numrique des trapzes.

IV.7.5 Mthodes de Runge et Kutta


Ce sont des mthodes d'ordre lev, obtenues partir des formules d'intgration numrique plus
prcises que la formule des rectangles.

Une mthode explicite, d'ordre 2, peut tre obtenue par l'utilisation de la formule des trapzes.
L'algorithme, not RK2, s'crit :


y0 donn





yn+1 = yn + hf (xn , yn )




yn+1 = yn + h f (xn , yn ) + f (xn+1 , y )

n+1
2
ENSHMG 53

Une mthode explicite, d'ordre 4, peut tre obtenue par l'utilisation de la formule de Simpson.
L'algorithme, not RK4, s'crit :


y0 donn







k1 = hf (xn , yn )





h k1

k2 = hf xn + , yn +
2 2


h k2

k3 = hf xn + , yn +

2 2





k4 = hf (xn + h , yn + k3 )





1
y
n+1 = yn + (k1 + 2k2 + 2k3 + k4 )
6

IV.7.5.1 Forme gnrale des mthodes de Runge et Kutta


On cherche rsoudre le problme de Cauchy suivant :
(
y 0 (x) = f (x, y(x)) ; x [0, 1]
y(0) = y0
Introduisons q points intermdiaires dans chaque intervalle [xn , xn+1 ] nots xn,1 , xn,2 , ..., xn,q . On
se donne c1 , c2 , ..., cq rels dans l'intervalle [0, 1] et on pose xn,i = xn + ci h pour i = 1 q .

La valeur discrte yxn,i vrie :


Z xn,i
yxn,i = y(xn ) + f (t, x(t)) dt
xn
Z ci
= y(xn ) + h f (xn + h , y(xn + h)) d
0
Z 1
yxn+1 = y(xn ) + h f (xn + h , y(xn + h)) d
0

On choisit q + 1 mthodes d'intgration q points pour approximer ces intgrales. Ce qui revient
se donner q(q + 1) paramtres (aij )1i,jq et (bi )1iq tels que :
Z ci X q
f (xn + h, y(xn + h)) d aij f (xn + cj h , y(xn + cj h))
0 j=1
Z 1 Xq
f (xn + h, y(xn + h)) d bi f (xn + ci h , y(xn + ci h))
0 i=1

Au bilan la formulation de la mthode est :




y0 donn





Xq

yn,i = yn + h aij f (xn,j , yn,j )

j=1

q

X

yn+1 = yn + h
bi f (xn,i , yn,i )
i=1
54 Chapitre IV : RESOLUTION DES EDO

La mthode se caractrise par les paramtres (aij ), (bi ) et (ci ). On construite le tableau qui
rassemble ces paramtres :

c1 a11 a12 a1q


c1 a21 a22 a2q
.. .. ..
. . .
..
cq aq1 aq2 . aqq
b1 b2 bq

Par exemple, les paramtres de deux mthodes d'ordre 4 (dont l'algorithme RK4) :

0 0 0 0 0 0 0 0 0 0
1/3 1/3 0 0 0 1/2 1/2 0 0 0
2/3 -1/3 1 0 0 1/2 0 1/2 0 0
1 1 -1 1 0 1 0 0 1 0
1/8 3/6 3/6 1/8 1/6 2/6 2/6 1/6

Pq
Rsultat thorique : Si i=1 bi = 1 alors la mthode est consistante.

IV.7.5.2 Mthodes de Runge et Kutta implicites


Des mthodes de Runge et Kutta implicites (ou mthodes de Radau) peuvent aussi tre construites
partir des techniques d'intgration numriques.

Une mthode implicite, d'ordre 3, peut tre obtenue :




y0 donn





h h

k1 = hf xn + , yn + (5k1 k2 )
3 12


h

k2 = hf xn + h , yn + (3k1 + k2 )

4



1
y = yn + (3k1 + k2 )
n+1
4
Il est ncessaire de rsoudre un systme linaire pour valuer k1 et k2 .

Par exemple, les paramtres (aij ), (bi ) et (ci ) pour les mthodes d'ordre 3 et 5 sont :

4 6 88 7 6 296 169 6 2 + 3 6
10 360 1800 225
1/3 5/12 -1/12 4 6 296 + 169 6 88 + 7 6 2 3 6
1 3/4 1/4 10 1800
360 225
16 6 16 + 6 1
3/4 1/4 1
36 36 9
16 6 16 + 6 1
36 36 9
ENSHMG 55

IV.7.5.3 Application un systme


Considrons le systmes d'EDO aux valeurs initales suivant :

0
y (x) = f (x, y(x), z(x)) ; x, z [a, b]
z 0 (x) = g (x, y(x), z(x))


y(a) = y0 et z(a) = z0

L'algorihme de Runge-Kutta RK2 s'crit, pour ce systme :




y0 , z0 donns









yn+1 = yn + hf (xn , yn , zn )





z
n+1 = zn + hg(xn , yn , zn )



h


yn+1 = yn + f (xn , yn , zn ) + f (xn , yn+1 , zn+1 )

2



h

z = z + g(x , y , z ) + g(x , y
, z
)

n+1 n n n n n n+1 n+1
2

L'algorihme de Runge-Kutta RK4 s'crit, pour ce systme :

y0 , z0 donns

k1 = hf (xn , yn , zn ) l1 = hg(xn , yn , zn )

h k1 l1 h k1 l1

k2 = hf xn + , yn +
2 2
, zn +
2
l2 = hg xn + , yn +
2 2
, zn +
2

h k2 l2 h k2 l2

k3 = hf xn + , yn + , zn + l3 = hg xn + , yn + , zn +

2 2 2 2 2 2

k4 = hf (xn + h , yn + k3 , zn + l3 ) l4 = hg(xn + h , yn + k3 , zn + l3 )

1 1
y
n+1 = yn + (k1 + 2k2 + 2k3 + k4 ) zn+1 = zn + (l1 + 2l2 + 2l3 + l4 )
6 6
56 Chapitre IV : RESOLUTION DES EDO

IV.8 METHODES A PAS MULTIPLES


IV.8.1 Mthode de Nystrom ou saute-mouton
Mthode 2 pas dont l'algorithme est :

y0 donn




y1 calcul avec une mthode un pas





yn+1 = yn1 + 2hf (xn , yn )

Gomtriquement : on considre la droite de pente f (xn , yn ) passant par le point (xn1 , yn1 )
parallle la tangente passant par (xn , yn ). La valeur yn+1 est l'ordonne du point de cette droite
d'abscisse xn+1 .

IV.8.2 Mthodes d'Adams-Bashforth-Moulton


Mthodes bases sur des techniques d'intgration numrique, dont la formulation gnrale est :
p
X
yn+1 = yn + h j f (xnj , ynj )
j=1

Mthode d'Adams-Bashforth 2 pas, explicite, d'ordre 2 :



y0 donn





y1 calcul avec une mthode un pas




yn+1 = yn + h (3f (xn , yn ) f (xn1 , yn1 ))

2

Mthode d'Adams-Bashforth 3 pas, explicite, d'ordre 3 :



y0 donn





y1 , y2 calculs avec une mthode un pas




yn+1 = yn + h (23f (xn , yn ) 16f (xn1 , yn1 ) + 5f (xn2 , yn2 ))

12

Mthode d'Adams-Bashforth 4 pas, explicite, d'ordre 4 :



y0 donn





y1 , y2 , y3 calculs avec une mthode un pas




yn+1 = yn + h (55f (xn , yn ) 59f (xn1 , yn1 ) + 37f (xn2 , yn2 ) 9f (xn3 , yn3 ))

24
ENSHMG 57

Mthode d'Adams-Moulton 1 pas, implicite, d'ordre 2 :



y0 donn

yn+1 = yn + h (f (xn , yn ) + f (xn+1 , yn+1 ))



2

Mthode d'Adams-Moulton 2 pas, implicite, d'ordre 3 :




y0 donn




y1 calcul avec une mthode un pas




yn+1 = yn + h (5f (xn+1 , yn+1 ) + 8f (xn , yn ) f (xn1 , yn1 ))

12

Mthode d'Adams-Moulton 3 pas, implicite, d'ordre 4 :




y0 donn




y1 , y2 calcul avec une mthode un pas




yn+1 = yn + h (9f (xn+1 , yn+1 ) + 19f (xn , yn ) 5f (xn1 , yn1 ) + f (xn2 , yn2 ))

24

Pour rendre les mthodes d'Adams-Moulton explicite, on remplace le yn+1 "gnant" par son
estimation par la mthode d'Adams-Bashforth. Sont construits ainsi des schmas explicites dits
prdicteur-correcteur, par exemple un schma d'ordre 2 :


y0 donn







y1 calcul avec une mthode un pas

h


yn+1 = yn + (3f (xn , yn ) f (xn1 , yn1 ))

24



h

yn+1 = yn +
f (xn , yn ) + f (xn+1 , yn+1 )
2

Le schma prdicteur-correcteur d'ordre 4 est :

y0 donn

y1 , y2 calcul avec une mthode un pas


yn+1 = yn + (55f (xn , yn ) 59f (xn1 , yn1 ) + 37f (xn2 , yn2 ) 9f (xn3 , yn3 ))

24

yn+1 = yn +
9f (xn+1 , yn+1 ) + 19f (xn , yn ) 5f (xn1 , yn1 ) + f (xn2 , yn2 )
24
58 Chapitre IV : RESOLUTION DES EDO

IV.8.3 Mthodes de Gear


Les mthodes de Gear ne sont pas construites partir de techniques d'intgration numrique mais
directement partir de polynme d'interpolation passant par p points (xi+1 , yi+1 ) , (xi , yi ),...,
(xip+1 , yi+1 ).

Mthode de Gear 2 pas, implicite, d'ordre 2 :




y0 donn




y1 calcul avec une mthode un pas




yn+1 = 4 yn 1 yn1 + 2h f (xn+1 , yn+1 )

3 3 3

Mthode de Gear 3 pas, implicite, d'ordre 3 :




y0 donn




y1 , y2 calcul avec une mthode un pas




yn+1 = 18 yn 9 yn1 + 2 yn2 + 2h f (xn+1 , yn+1 )

11 11 11 11

Mthode de Gear 4 pas, implicite, d'ordre 4 :



y0 donn





y1 , y2 , y3 calcul avec une mthode un pas




yn+1 = 48 yn 36 yn1 + 16 yn2 3 yn3 + 12h f (xn+1 , yn+1 )

25 25 25 25 25

IV.9 LES DIFFERENCES FINIES


Il est possible de rsoudre une EDO ou un systme d'EDO en utilisant une discrtisation de type
dirences nies (cf. cours sur la discrtisation des EDP).
Un maillage du domaine de dnition de la fonction inconnue est construit. Les drives de la
fonction inconnue sont approximes par un schma aux dirences nies ce qui permet d'obtenir
une relation de rcurrence sur les inconnues discrtes.
ENSHMG 59

IV.10 CONDITION DE STABILITE


Considrons un problme la valeur initiale :
(
y 0 (x) = f (x, y(x)) ; x [0, T ]
y(0) = y0

f
Si < 0, il existe un pas de discrtisation seuil hmax partir duquel une mthode explicite
y
sera stable. La condition de stabilit s'crit :
2
h < hmax = f
max | y |

f
Si < 0, les methodes explicites sont instables quelque soit le pas de discrtisation h. Les
y
mthodes sont dites inconditionnellement instables.

f
Dans certains cas, la drive peut changer de signe. Le comportement de la mthode est
y
instable dans certains intervalles et stable dans d'autres.

Cas particulier d'une EDO linaire


Dans le cas particulier d'une EDO linaire, la solution numrique satisfait une quation rcurrente
linaire p + 1 niveaux :

ap yn+p + ap1 yn+p1 + ... + a0 yn = bn

Soient r1 , r2 , ..., rp les racines complexes de l'quation caractristique associe :

ap rp + ap1 rp1 + ... + a1 r + a0 = 0

La condition de stabilit s'crit : i, | ri |< 1


60 Chapitre IV : RESOLUTION DES EDO
61

Chapitre V

RESOLUTION DES SYSTEMES


LINEAIRES

V.1 INTRODUCTION

Considrons un systme d'quations linaires de la forme AX = B avec A une matrice inversible


de dimension n n, B un vecteur connu et X le vecteur des inconnus.

a11 a12 a1n x1 b1

a21 a22 a2n x2 b2
.. .. .. .. = ..

. . . . .
an1 an2 ann xn bn

Il existe deux grandes familles de mthodes de rsolution :


Les mthodes directes qui permettent de rsoudre le systme soit par triangularisation
ou soit par factorisation de la matrice A. Les principales mthodes sont :
- Le pivot de Gauss
- La factorisation LU
- La factorisation de Cholesky
- Les factorisations de Householder et QR

Ces mthodes sont utilises pour les matrices pleines et les petits systmes (n peu elev).

Les mthodes itratives qui introduisent une notion de convergence vers la solution. Les
principales mthodes sont :
- Mthode de Jacobi
- Mthode de Gauss-Seidel (avec ou sans relaxation)
- Mthode du gradient conjugu (avec ou sans prcondionnement)

Ces mthodes sont utilises pour les matrices creuses et les grands systmes.
62 Chapitre V: RESOLUTION DES SYSTEMES LINEAIRES

V.2 PIVOT DE GAUSS


La mthode d'limination de Gauss a pour but de transformer le systme de dpart en un systme
ayant la mme solution de la forme U X = B 0 o U est une matrice triangulaire suprieure et B 0
un vecteur. La rsolution est en deux tapes :
Triangularisation de la matrice A.
Rsolution du systme triangulaire en cascade.

V.2.1 Triangularisation de Gauss


(1)
ai1
Posons A(1) = A, B (1) = B et introduisons le multiplicateur li1 = (1)
. L'inconnue x1 peut
a11
s'liminer des lignes i = 2, ..., n en leur retranchant li1 fois la premire ligne. En faisant, la mme
chose pour le membre de droite, on dnit :
(2) (1) (1)
aij = aij li1 a1j pour i, j = 2, ..., n
(2) (1) (1)
bi = bi li1 b1

Un nouveau systme est obtenu, de la forme A(2) X = B (2) , quivalent au systme de dpart :
(1) (1) (1) (1)
a11 a12 a1n x1 b1
(2) (2) (2)
0 a22 a2n x2 b2
. .. .. .. = .
. .
. . . . .
(2) (2) (2)
0 an2 ann xn bn

Ce systme peut nouveau tre transform de faon liminer l'inconnue x2 des lignes 3, ..., n.
En pousuivant ainsi, on obtient une suite de systme equivalents : A(k) X = B (k) . Pour k = n,
on aboutit au systme triangulaire suprieur A(n) X = B (n) :
(1) (1) (1) (1)
(1)
a11 a12 a1n1 a1n x1 b
(2) 1(2)
0 a(2) (2)

a2n1 a2n x2 b2
22
0 (3)
a3n
(3) (3)
0 a33 x3 = b3
. .. .. .. .. . .
.. . . . . .
. . .
(n) (n)
0 0 0 ann xn bn

(1)
On note U (upper) la matrice triangulaire suprieure A(n) . Les termes akk sont appels pivots
et doivent tre videmment non nuls.
Pour passer du k -ime systme au k + 1-ime systme, les formules sont :
(k)
aik
lik = (k)
pour i = k + 1, ..., n
akk
(k+1) (k) (k)
aij = aij lik akj pour i, j = k + 1, ..., n
(k+1) (k) (k)
bi = bi lik bk pour i = k + 1, ..., n

Aprs triangularisation, le systme U X = B 0 se rsout en cascade en commenant par xn .


ENSHMG 63

V.2.2 Cot de la mthode


Pour eectuer l'limination de Gauss, 2(n 1)n(n + 1)/3 + n(n 1) oprations ou ops (pour
oating operations) sont ncessaires, auxquels il faut ajouter n2 ops pour la rsolution par
remonte du systme triangulaire. Pour n grand, la mthode requiert environ 2n3 /3 ops.

V.2.3 Pivot nul et choix du pivot


(k)
La mthode de Gauss n'est correctement dnie que si les pivots akk sont non nuls pour
(k)
k = 1, ..., n 1. Si le terme diagonal akk est nul, il faut choisir un autre lment non nul
de la colonne k pour calculer le multiplicateur lik en permutant l'ordre des lignes de la matrice.

Attention aussi au choix du pivot, de grosses erreurs peuvent en dcouler. Si le terme diagonal
akk est trs petit, il faut choisir un autre terme pour valuer le pivot lik en permutant l'ordre des
lignes de la matrice.

V.3 FACTORISATION LU
La factorisation LU (Lower Upper) pour une matrice A inversible consiste dterminer deux
matrices triangulaires, l'une infrieure L et l'autre suprieure U telles que A = L U .
Cette dcomposition, unique, existe ssi les n mineurs de A sont non nuls.

La matrice U est obtenue par la mthode d'limination de Gauss. Et la matrice L fait intervenir
les pivots successifs de l'algorithme de Gauss lik :


1 0 0 0

l21 1 0 0

.. .. .. ..
L= .
. . .

l1 2 0
n1 ln1 1
ln1 ln2 lnn1 1

La factorisation LU est utile lors de la rsolution d'une suite de systmes de mme matrice A
o seul le vecteur B change (exemple : calcul d'une mme structure soumise dirents cas de
charge).

Une fois calcule L et U , rsoudre le systme de dpart consiste rsoudre successivement les
deux systmes triangulaires LY = B puis U X = Y .
64 Chapitre V: RESOLUTION DES SYSTEMES LINEAIRES

V.4 FACTORISATION DE CHOLESKY


Mthode de factorisation pour une matrice A dnie positive et symtrique.
Il existe une unique matrice R triangulaire infrieure dont les termes diagonaux sont strictement
positifs telle que A = R t R. Les lments de R sont, pour i = 1 n :
v
u i1

u X
t 2
rii = aii
rik
k=1i1 !

1 X


rji = r
aij rik rjk ; pour j=i+1 n
ii
k=1

Le systme rsoudre AX = B se ramne alors la rsolution de deux systmes triangulaires :


RY = B et t RX = Y

Cot de la mthode pour n grand n3 /3 ops.

V.5 FACTORISATIONS DE HOUSEHOLDER ET QR


V.5.1 Transformation de Householder
Soit v un vecteur quelconque de composante vi . Soit le vecteur u de composantes ui telles que :
u1 = v1 + || v || et ui = vi , pour i = 2, ..., n.

On appelle matrice de Householder, la matrice H symtrique et orthogonale, dnie par :

u t u
H = In 2 t u.u

La multiplication de H par v transforme le vecteur v en un vecteur dont toutes les composantes


sont nulles sauf la premire :

|| v ||

u t u 0
Hv = v 2 t v =
..

u.u .
0

V.5.2 Triangularisation de Householder


Posons A(1) = A, B (1) = B et eectuons la transformation de Householder du premier vecteur
colonne de A(1) . Notons H (1) la matrice de Householder. Une nouvelle matrice et un nouveau
vecteur sont construits par multiplication par cette matrice : A(2) = H (1) A(1) et B (2) = H (1) B (1) .

Le nouveau systme linaire A(2) X = B (2) est quivalent au prcdent (c'est--dire de mme
solution). La matrice A(2) a sa premire colonne nulle sauf la premire composante :
ENSHMG 65

(2) (2) (2)


a11 a12 a1n
(2) (2)
0 a22 a2n
A(2) =
.. .. ..

. . .
(2) (2)
0 an2 ann

Puis on eectue une nouvelle transformation de Householder partir du deuxime vecteur co-
(2) (2) la matrice de Householder de dimension n 1. On
lonne ai2 pour i = 2, ..., n. Notons H
calcule la matrice H (2) de dimension n de la faon suivante :

1 0 0

0
H (2)
=
..


. (2)
H
0

On construit une nouvelle matrice et un nouveau vecteur par multiplication par cette matrice :
A(3) = H (2) A(2) et B (3) = H (2) B (2) . Le nouveau systme linaire A(3) X = B (3) est quivalent
aux deux prcdents. La matrice A(3) a ses deux premires colonnes nulles sous la diagonale :
(2) (2) (2) (2)

a11 a12 a13 a1n
(3)
0 a(3) (3)
a23 a2n
22
(3) 0 0 a
(3)
a
(3)
A = 33 3n
. .. .. .. ..
.. . . . .

(3) (3)
0 0 a3n ann

Aprs k 1 itrations du mme type, on a dtermin une matrice A(k) et un vecteur B (k) . On
(k)
eectue une nouvelle transformation de Householder partir du k -ime vecteur colonne aik pour
(k) la matrice de Householder de dimension n k + 1. On calcule la matrice
i = k, ..., n. Notons H
H (k) de dimension n de la faon suivante :


Ik1 0



H (k) =


0 (k)
H

On construit une nouvelle matrice et un nouveau vecteur par multiplication par cette matrice :
A(k+1) = H (k) A(k) et B (k+1) = H (k) B (k) . Le nouveau systme linaire A(k+1) X = B (k) est qui-
valent aux k prcdents.

Aprs n 1 itrations, on aboutit au systme linaire A(n) X = B (n) o la matrice A(n) est
triangulaire suprieure. Le systme se rsout alors en cascade en commenant par xn .
66 Chapitre V: RESOLUTION DES SYSTEMES LINEAIRES

V.5.3 Factorisation QR
Mthode de factorisation pour une matrice A quelconque base sur la triangularisation de House-
holder. Il existe une unique dcomposition A = Q R en une matrice R triangulaire suprieure
et une matrice Q orthogonale.

Les matrices R et Q sont dtermines partir des n1 matrices de Householder H (1) , H (2) , ..., H (n1)
et de la matrice A(n) : R = A(n) et Q = H (1) H (2) ... H (n1)

Le systme AX = B se ramne alors la rsolution d'un systme triangulaire : RX = t QB

V.6 METHODES ITERATIVES


Ces mthodes induisent un processus itratif par construction d'une suite de vecteur qui converge
vers la solution du systme. A chaque itration k + 1, un vecteur X (k+1) est valu partir du
vecteur de l'itration prcdente X (k) , ce qui peut s'crire sous forme matricielle :

M X (k+1) = N X (k) + B

o les matrices M et N vrient M N = A.

Il se pose plusieurs problmes :


Initialisation de la mthode, choix du vecteur X (0) .
Condition de convergence.
Critre de convergence et nombre d'itrations eectuer.
Vitesse de convergence et ecacit de la mthode.

Le vecteur R(k) = B AX (k) s'appelle le vecteur rsidu. Il tend vers le vecteur nul lorsque la
mthode converge.

V.6.1 Mthode de Jacobi


1) Initialisation avec un X (0) arbitraire.
2) A l'itration k + 1, le vecteur X (k+1) est calcul par la relation :


1 X n

(k+1) (k)

x1 = b1 a1j xj

a11

j=2

..

.




1 X n
(k+1) (k)
xi = bi aij xj

aii

j=1,j6=i

.

.
.



n1

1 X (k)
x(k+1) =
bn anj xj

n ann
j=1
ENSHMG 67

Sous forme matricielle, en dcomposant la matrice A en trois matrices D, E et F respectivement


diagonale, triangulaire infrieure et triangulaire suprieure :

X (k+1) = D1 (E + F )X (k) + D1 B

V.6.2 Mthode de Gauss-Seidel


1) Initialisation avec un X (0) arbitraire.
2) A l'itration k + 1, le vecteur X (k+1) est calcul par la relation :


1
n
X

(k+1) (k)

x1 = b1 a1j xj

a11

j=2

..

.




1
i1
X n
X
(k+1) (k+1) (k)
xi = bi aij xj aij xj

aii

j=1 j=i+1

..

.





1
n1
X

(k+1)

x(k+1)
n = bn anj xj
ann
j=1

Sous forme matricielle : X (k+1) = (D E)1 F X (k) + (D E)1 B

V.6.3 Mthode de Gauss-Seidel avec sur- ou sous-relaxation


La mthode permet d'acclrer la convergence par rapport la mthode de Gauss-Seidel. Elle
consiste pondrer, chaque itration, le rsultat obtenu par la mthode de Gauss-Seidel et
le rsultat de l'itration prcdente, par l'intermdiaire d'un paramtre de relaxation compris
entre 0 et 2.

(k+1)
Si l'on note xi,GS la valeur de xi l'itration k + 1 value par la mthode de Gauss-Seidel. La
valeur l'itration k + 1 est :

(k+1) (k) (k+1)


xi = (1 )xi + xi,GS

Pour = 1, on retrouve la mthode Gauss-Seidel.


Pour > 1, on parlera de sur-relaxation.
Pour < 1, on parlera de sous-relaxation.

Sous forme matricielle :


1 1
(k+1) D 1 (k) D
X = E D+F X + E B

68 Chapitre V: RESOLUTION DES SYSTEMES LINEAIRES

V.6.4 Condition de convergence

Une condition ncessaire et susante de convergence d'une mthode itrative est que le rayon
spectral de la matrice L = M 1 N (o M et N dpendent de la mthode itrative choisie) soit
infrieur 1.
(L) < 1 convergence

En pratique cette condition est dicile utiliser car elle ncessite de connatre le maximum en
module des valeurs propres de la matrice L.

Pour les mthodes de Jacobi et Gauss-Seidel, il existe une condition susante de convergence
plus pratique vrier, savoir que la matrice A soit diagonale dominante.
Xn
pour toutes les colonnes, | aij | < ajj convergence
i=1,i6=j
X n
pour toutes les lignes, | aij | < aii convergence
j=1,j6=i

En consquence : modier l'ordre des lignes ou des colonnes de la matrice A pour obtenir une
diagonale dominante.

Pour la mthode de Gauss-Seidel avec sur- ou sous-relaxation, il existe une autre condition n-
cessaire et susante dans le cas o la matrice A est symtrique :
A dnie positive convergence pour A symtrique

V.7 METHODE DU GRADIENT CONJUGUE

Mthode "itrative" pour une matrice A dnie positive et symtrique. L'algorithme converge
en au plus n itrations. En thorie c'est une mthode directe. En pratique cause des erreurs
d'arrondi on la considre comme une mthode itrative.

Rsoudre le systme AX = B est quivalent chercher le minimum de la fonction quadratique


J(X) dnie par : J(X) = < AX, X > 2 < B, X >

Le minimum est obtenu en annulant le gradient de J (d'o le nom de mthode du gradient).

La forme matricielle de la mthode itrative est : X (k+1) = X (k) + k P (k)


o P (k) est un vecteur et k un scalaire.
On note R(k) = B AX (k) le vecteur rsidu l'itration k .
ENSHMG 69

V.7.1 L'algorithme
1) Initialisation avec un X (0) arbitraire, rsidu R(0) = B AX (0) et vecteur P (0) = R(0)
2) Itration k variant de 0 n 1, n de l'algorithme si le rsidu R(k+1) est nul.


|| R(k) ||2

k =

< AP (k) , P (k) >





X (k+1) = X (k) + k P (k)



R(k+1) = R(k) k AP (k)





|| R(k+1) ||2



k+1 =

|| R(k) ||2


(k+1)
P = R(k+1) + k+1 P (k)

V.7.2 Cot de la mthode


Le cot de la mthode, pour n grand, est de 2n3 ops. C'est bien suprieur Cholesky.

Pour diminuer le cot on introduit un prconditionnement de la matrice A. Le cot devient alors


infrieur n oprations.

V.8 GRADIENT CONJUGUE PRECONDITIONNE


Le principe consiste remplacer le systme initial AX = B par le systme C 1 AX = C 1 B avec
une matrice de prconditionnement C 1 bien choisie. Cette mthode est l'une des mieux adaptes
la rsolution de grand systme linaire dont la matrice est symtrique, dnie positive et creuse.

V.8.1 L'algorithme
1) Initialisation avec un X (0) arbitraire, rsidu R(0) = B AX (0) . Le vecteur P (0) est obtenu en
rsolvant le systme CP (0) = R(0) . On introduit le vecteur Z (0) = R(0) .
2) Itration k variant de 0 n 1


< R(k) , Z (k) >

k =

< AP (k) , P (k) >





X (k+1) = X (k) + k P (k)






R(k+1) = R(k) k AP (k)



CZ (k+1) = R(k+1)





< R(k+1) , Z (k+1) >



k+1 =

< R(k) , Z (k) >


(k+1)
P = Z (k+1) + k+1 P (k)

A chaque itration, il faut rsoudre le systle linaire CZ = R.


70 Chapitre V: RESOLUTION DES SYSTEMES LINEAIRES

Il existe plusieurs prconditionnements, citons par exemple :


- SSOR d'Evans
- prconditionnement bas sur Cholesky C = T t T

V.8.2 Comparaison avec Cholesky

Cholesky Gradient Conjugu ops(Chol)/ Mem(Chol/


n m/n2 ops mmoire ops mmoire ops(GC) Mem(GC)
47 0.12 8.05 103 464 1.26 104 228 0.64 2.04
83 0.07 3.96 104 1405 3.03 104 533 1.31 2.64
150 0.04 2.01 105 4235 8.86 104 1245 2.26 3.4
225 0.03 6.39 105 9260 1.95 105 2073 3.27 4.47
329 0.02 1.74 106 17974 3.39 105 3330 5.15 5.39
424 0.02 3.78 106 30185 5.49 105 4513 6.88 6.83
530 0.01 8.31 106 50785 8.61 105 5981 9.65 8.49
661 0.01 1.19 107 68468 1.11 106 7421 10.66 9.23

Tab. V.1  Cot de calcul (ops) et de la mmoire occupe (bytes) entre les mthodes de
Cholesky et du Gradient Conjugu pour des matrices creuses n n avec m lments non nuls.

Fig. V.1  Cot de calcul CPU entre les mthodes de Cholesky et du Gradient Conjugu pour
des matrices creuses n n.
71

Chapitre VI

RESOLUTION DES SYSTEMES NON


LINEAIRES

VI.1 EQUATIONS NON LINEAIRES


Le problme consiste trouver les solutions d'une quation non-linaire de la forme F (x) = 0.
Il peut aussi se formuler comme la recherche du point xe de la fonction G(x) = F (x) + x.

Les mthodes qui seront tudies ici procdent par itrations. Partant d'une valeur initiale x0 ,
un algorithme itratif permet de calculer les itrs successifs x1 , x2 , x3 , .... Le calcul est arrt
lorsqu'une prcision susante est atteinte.
Parfois, la convergence n'est garantie que pour certaines valeurs de x0 . Parfois encore, l'algo-
rithme peut ne pas converger.

Quelles sont les dicults des mthodes itratives ?


Le choix de x0
La convergence (locale, globale) de la mthode
La vitesse de convergence et l'ecacit de la mthode
La propagation des erreurs numriques et la prcision

Les principales mthodes itratives :


Mthode du point xe
Mthode de Newton ou Newton-Raphson
Mthode de la scante (ou regula-falsi)
Mthode de la parallle
Mthode de Steensen
Mthode de Bairstow (racine d'un polynme)
72 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

VI.1.1 Vitesse de convergence


Soit une suite (xn ), issue d'une mthode itrative, qui converge vers X . On s'intresse la vitesse
de convergence de cette suite. On dit que :
la convergence est d'ordre 1 ou linaire si il existe ]0, 1[ tel que

|| xn+1 X ||
lim =
n || xn X ||

Si = 0 la convergence est dite super linaire.

la convergence est d'ordre p si il existe > 0 tel que

|| xn+1 X ||
lim =
n || xn X ||p

Si p = 2, la convergence d'ordre 2 est dite quadratique.


Si p = 3, la convergence d'ordre 3 est dite cubique.

Remarque : p n'est pas forcment un nombre entier.

La suite convergence d'autant plus rapidement que la valeur de p est eleve.

VI.1.2 Mthode du point xe


Mthode pour rsoudre G(x) = x

L'algorithme
1) Choix d'un x0 .
2) Itration xn+1 = G(xn ) jusqu' convergence.

Convergence de la mthode
Notons r l'unique point xe de G(x) sur l'intervalle [a,b].
si x0 [a, b] et si | G0 (r) |< 1 alors la mthode converge vers r.

On appelle bassin d'attraction du point xe r le voisinage de r pour lequel la mthode du point
xe converge vers r quelque soit la valeur initiale x0 appartenant ce voisinage.
| G0 (r) |< 1 le point xe est dit attractif
| G0 (r) |> 1 le point xe est dit rpulsif
| G0 (r) |< 1 cas indtermin
ENSHMG 73

Fig. VI.1  Point xe - concergence et divergence

VI.1.3 Mthode de Newton


Mthode trs utilise pour rsoudre F (x) = 0

L'algorithme

1) Choix d'un x0 .
F (xn )
2) Itration xn+1 = xn jusqu' convergence.
F 0 (xn )

Convergence de la mthode

Notons X l'unique racine de F (x). Si x0 est susamment proche de X alors la mthode converge
vers X et la convergence est quadratique.
Dans le cas d'une racine multiple, la convergence est linaire.
74 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

Les problmes de la mthode


1) Une premire dicult apparat lorsque la drive F 0 (xi ) est nulle, la formule n'est alors plus
applicable.
2) Lorsque la valeur de la pente de la tangente F 0 (xi ) est non nulle mais trs petite, le point
xi+1 peut se retrouver trs loin de xi . Ceci peut entraner une convergence, par accident, vers
une racine trs loigne de x0 .
3) Des situations de bouclage peuvent se produire si des termes de la suite se rptent.

VI.1.4 Mthode de la parallle


Mthode pour rsoudre F (x) = 0

L'algorithme
1) Choix d'un x0 et d'un rel .
2) Itration xn+1 = xn F (xn ) jusqu' convergence.
Le rel est souvent choisi gale 1/F 0 (x0 )

Pour x0 susament proche de la racine X , la mthode convergence linairement.

VI.1.5 Mthode de la scante


Mthode pour rsoudre F (x) = 0

L'algorithme
1) Choix d'un x0 .
2) Calcul de x1 par la mthode de Newton.
xn xn1
3) Itration xn+1 = xn F (xn ) jusqu' convergence.
F (xn ) F (xn1 )

Pour x0 susament proche de la racine X , la mthode convergence l'ordre 1.618.

VI.1.6 Mthode de Steensen


Mthode pour rsoudre G(x) = x

L'algorithme
1) Choix d'un x0 .
G (G(xn )) xn G(xn )2
2) Itration xn+1 = jusqu' convergence.
G (G(xn )) 2G(xn ) + xn

Si x0 est susamment proche de X alors la convergence de la mthode est quadratique.


ENSHMG 75

VI.1.7 Racines de polynmes


VI.1.7.1 Rduction polynomiale
La recherche de racines d'un polynme se construit de la manire suivante : soit Pn (x) un
polynme de degr n, si on obtient une premire racine x1 , on peut crire

Pn (x) = (x x1 )Pn1 (x)

o Pn1 (x) est un polynme de degr n 1.

Ainsi, une fois obtenue une premire racine, on peut recommencer la recherche d'une autre racine
pour un polynme de degr strictement infrieur. On poursuit cette procdure jusqu' l'obtention
des n racines complexes du polynme.

VI.1.7.2 Mthode de Bairstow


Soit P (x) un polynme de degr n : P (x) = a0 xn + a1 xn1 + ... + an1 x + an

La mthode consiste calculer les facteurs quadratiques de P (les polynmes de degr 2) :


Yp
2
Si n est pair (n = 2p), P (x) = a0 x + pj x + qj
j=1
p
Y 2
Si n est impair (n = 2p + 1), P (x) = a0 (x ) x + pj x + qj
j=1

L'algorithme
On introduit le polynme Q(x) de degr n2 et les fonctions R(p, q), S(p, q) obtenus par division
de P (x) par le polynme x2 + px + q de degr 2 :

P (x) = Q(x) x2 + px + q + xR(p, q) + S(p, q)

avec Q(x) = b0 xn2 + b1 xn3 + ... + bn3 x + bn2


Si x2 + px + q est un diviseur de P (x), on a :

R(p, q) = 0

P (p, q) = 0

Pour trouver p et q , il sut de rsoudre ce systme. Par exemple par la mthode Newton :

p(i+1) p(i) R R 1 R p(i) , q (i)
p q
= S S
(i) (i)
q (i+1) q (i) p q (p(i) ,q(i) ) S p ,q
76 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES

On obtient en identiant :

R(p, q) = bn1 ; S(p, q) = bn + pbn1

R S
(p, q) = cn2 ; (p, q) = bn1 cn1 pcn2
p p
R S
(p, q) = cn3 ; (p, q) = cn2 pcn3
p p
avec
b1 = 0 , b0 = a0 , c1 = 0 , c0 = b0

bk = ak pbk1 qbk2 pour k = 1, ..., n

ck = bk pck1 qck2 pour k = 1, ..., n 1

VI.2 SYSTEMES D'EQUATIONS NON LINEAIRES


La mthode de Newton vue prcdemment pour une quation non linaire peut tre gnralise
pour rsoudre des systmes n quations non linaires :


f1 (x1 , x2 , ..., xn ) = 0





f2 (x1 , x2 , ..., xn ) = 0

.. ..



. .


fn (x1 , x2 , ..., xn ) = 0

Ou encore, chercher un vecteur X = (x1 , x2 , ..., xn ) vriant F (X) = 0

L'algorithme
1) Choix d'un vecteur inital X (0) .
h i1
2) Itration X (k+1) = X (k) J(X (k) ) F (X (k) ) jusqu' convergence.
o J(X (k) ) est la matrice jacobienne valu en X (k) .

Ce qui s'crit encore :


(k+1) (k) f1 f1 f1
1 (k) (k) (k)
x1 x1 x1 x2 xn f1 (x1 , x2 , ..., xn )
(k+1) (k) f2 f2 f2 (k) (k) (k)
x2 x f2 (x1 , x2 , ..., xn )
.. = 2. x1
..
x2
..
xn
..
..
.
. . . . . .
(k+1) (k) fn fn fn (k) (k) (k)
xn xn x1 x2 xn (k) (k)
(x1 ,x2 ,...,xn (k))
fn (x1 , x2 , ..., xn )
ENSHMG 77

En posant X (k) = X (k+1) X (k) , le problme revient rsoudre le systme linaire suivant,
chaque itration k :
J(X (k) ) X (k) = F (X (k) )

La mthode de Newton linarise ainsi le systme. Il faut alors, chaque itration, rsoudre un
systme linaire jusqu' ce que le vecteur X soit susament proche de la solution.

Pour une seule quation non linaire et une suite de rels, le critre d'arrt est bas sur l'erreur
k =| xk+1 xk | entre le rsultats de deux itrations successives (par exemple, < 105 ).
Pour un systme d'quations et une suite de vecteurs, le critre d'arrt est bas sur la norme
entre le rsultats de deux itrations successives : || X (k+1) X (k) ||, qui doit tre infrieure une
valeur donne.

En calcul numrique, trois normes sont frquemment utilises :


Xn
1) La norme L1 : || X ||1 = | xi |
i=1
q
2) La norme euclidienne ou L2 : || X ||2 = x21 + x22 + ... + x2n

3) La norme innie : || X || = max | xi |


i
78 Chapitre VI : RESOLUTION DES SYSTEMES NON LINEAIRES
79

Chapitre VII

INTERPOLATION ET
APPROXIMATION

VII.1 GENERALITES
VII.1.1 Le problme
Etant donn une fonction f , dnie soit de faon discrte, soit de faon continue, l'objectif est
de dterminer une autre fonction g , de forme donne, qui, en un certain sens, approche le mieux
possible la fonction f .

VII.1.2 Les 3 grandes classes d'approximation fonctionnelle


Il existe trois grandes classes de mthodes :
l'interpolation
On approche la fonction f par une fonction g appartenant une classe de fonctions ap-
proximantes (souvent des polynmes) et qui concide avec f en n points discrets.

l'approximation aux moindres carrs


On minimise la somme des carrs des erreurs en n points x1 , x2 , ..., xn , c'est--dire qu'on
P
cherche g qui minimise la quantit : ni=1 || f (xi ) g(xi ) ||2

l'approximation uniforme
On minimise le maximum de l'amplitude de l'erreur entre la fonction f et son approximation
Les points de collocation s'expriment en fonction des racines des polynmes de Tchebychev.

VII.1.3 Les 3 grandes familles de fonctions approximantes


Les trois grandes familles de fonctions approximantes sont :
les polynmes (thorme de Stone-Weierstrass)
les fractions rationnelles (approximants de Pad)
les fonctions trigonomtriques (srie de Fourrier)
80 Chapitre VII : INTERPOLATION ET APPROXIMATION

VII.2 INTERPOLATION
VII.2.1 Le thorme de Stone-Weierstrass
Toute fonction numrique continue dnie sur un compact de Rn est limite d'une suite de poly-
nmes qui converge uniformment sur ce compact.

Toute fonction continue valeurs complexes, priodique de priode 2 , est limite d'une suite de
polynmes trigonomtriques qui converge uniformment sur C .

VII.2.2 Mthode de Lagrange


Considrons une fonction f connue en n + 1 points x0 , x1 , ..., xn (appels points de collocation).
On cherche un polynme de degr infrieur ou gal n qui passe par ces n + 1 points.

Il existe un UNIQUE polynme Pn (x) qui concide avec f (x) aux n + 1 points, savoir Pn (xi ) =
f (xi ). Ce polynme a pour expression :
n
X n
Y x xj
Pn (x) = f (xi ) Li (x) o Li (x) =
xi xj
i=0 j=0,j6=i

Les polynmes Li (x) sont les polynmes de Lagrange et Pn (x) est le polynme d'interpolation
de Lagrande de f aux ponts xi .

Cot de l'interpolation : pour n grand 3n2 oprations.

VII.2.3 Mthode de Neville-Aitken


Le polynme d'interpolation Pn (x) est calcul l'aide d'une formule de rcurrence.

Initialisation : Pi,i (x) = f (xi ), pour i = 0 n

(x xi )Pi+1,j (x) (x xj )Pi,j1 (x)


Itration : Pi,i (x) = , pour i = 0 n, j > i
xj xi

Le polynme d'interpolation est Pn (x) = P0,n (x).

VII.2.4 Mthode de Newton


Q
On introduit les polynmes de Newton Qi (x) dnis par : Qi (x) = j<i (x xj ) et Q0 (x) = 1

On appelle dirences divises d'ordre k de la fonction f aux points x0 , x1 , ..., xk la quantit


note f [x0 , x1 , ..., xk ] dnie par rcurrence :


f [xi ] = f (xi ) pour i=0 n


f [x1 , x2 , ..., xk ] f [x0 , x1 , ..., xk1 ]
f [x0 , x1 , ..., xk ] =
xk x0
ENSHMG 81

Le polynme Pk (x) d'interpolation de Newton de la fonction f aux points x0 , x1 , ..., xk1 est
dni par rcurrence :
Pk (x) Pk1 (x) = f [x0 , x1 , ..., xk ]Qk (x)

Le polynme Pn (x) d'interpolation de Newton de la fonction f aux points x0 , x1 , ..., xn est :


n
X
Pn (x) = f (x0 ) + f [x0 , x1 , ..., xk ]Qk (x)
k=1

Cot de l'interpolation : pour n grand n3 oprations.

VII.2.5 Mthode de Hermite


Plutt que de faire concider la fonction f et le polynme Pn aux points xi , on peut chercher
faire aussi concider les drives de f et de Pn en ces points, jusqu' un ordre x que l'on notera
i aux points xi . Posons N = n + 0 + 1 + ... + n

Si f admet des drives d'ordre i aux points xi , il existe un UNIQUE polynme PN tel que :
(l)
Ai = 0, 1, ..., n Al = 0, 1, ..., i PN (xi ) = f (l) (xi )

PN est le polynme d'interpolation de Hermite de f aux points xi aux ordres i .


Pour i = 0, on retrouve le polynme d'interpolation de Lagrange.

VII.2.6 Interpolation par morceaux - spline cubique


Sur tout intervalle [xi1 , xi ], entre deux points de collocation, on eectue une interpolation
LOCALE avec des polynmes de bas degr Pk (x) (degr 1, 2 ou 3).
Les polynmes se raccordent aux pointx xi ainsi que leurs drives d'ordre aussi lev que possible.

Spline cubique
Le polynme d'interpolation locale est de degr 3. Le fonction interpolante S(x) est constitue
de morceaux de polynmes de degr 3 qui se raccordent, ainsi que que leurs drives premires
et secondes, aux points de collocation.

Sur chaque intervalle [xi1 , xi ], la restriction de S(x) est un polynme Pi (x) de degr 3 tel que :


Pi (xi1 ) = f (xi1 ) et Pi (xi ) = f (xi ) = fi


Pi0 (xi ) 0 (x ) = f 0 (x )
= Pi+1 i i



P 00 (x ) 00 (x ) = f 00 (x )
i i = Pi+1 i i

Les polynmes Pi (x) ont pour expression :



(xi x) (xi x)2 h2i (x xi1 ) (x xi1 )2 h2i fi1 (xi x) fi (x xi1 )
Pi (x) = i1 + i + +
6hi 6hi hi hi
82 Chapitre VII : INTERPOLATION ET APPROXIMATION

Avec : hi = xi xi1 et les i solutions du systme suivant :


hi hi + hi+1 hi+1 fi+1 fi fi fi1
i1 + i + i+1 =
6 3 6 hi+1 hi
o les paramtres 0 = f 00 (x0 ) et n = f 00 (xn ) sont choisis arbitrairement (nuls par exemple).

VII.2.7 Limites de l'interpolation polynmiale


L'interpolation polynmiale pose plusieurs problmes :
lorsque le nombre de points de collocation est grand (instabilit de calculs, erreurs d'arrondi
et cot de calculs).
en pratique, les valeurs discrtes rsultent d'expriences ou de simulations numriques.
Ce sont des valeurs approximatives. Il est souvent plus intressant de chercher une bonne
approximation plutt qu'une interpolation.
Par exemple, un exprimentateur qui relve 100 points quasiment aligns sera plus intress
par la droite passant "au mieux" par ces 100 points plutt que par le polynme de degr
99 ralisant l'interpolation exacte.

VII.3 APPROXIMATION
VII.3.1 Approximation rationnelle - approximants de Pad
On approche la fonction f par une fraction rationnelle : F (x) = Pn (x)/Qm (x)
o Pn (x) et Qm (x) sont des polynmes de degr n et m tels que le dveloppement limit au
voisinage de de f (x)Qm (x) Pn (x) ait son terme constant ainsi que les termes en (x ),
(x )2 , ..., (x )n+m nuls.
Le calcul consiste identier 0 ces n + m + 1 termes.

VII.3.2 Approximation polynomiale au sens des moindres carrs


VII.3.2.1 Droite des moindres carrs discrets
On cherche approcher la fonction f , connue uniquement en n valeurs discrtes, par une droite
P (x) = a0 + a1 x au sens des moindres carrs.

Soient n valeurs y1 , y2 , ..., yn de la fonction f aux n abscisses x1 , x2 , ..., xn . La droite P (x) qui
ralise la meilleure approximation au sens des moindres carrs des valeurs yi aux points xi est
celle qui minimise la somme des carrs des carts entre les yi et les P (xi ) soit :
n
X
S(a0 , a1 ) = [yi (a0 + a1 xi )]2
i=1

La quantit S(a0 , a1 ) apparat comme le carr de la norme euclidienne du vecteur (yi a0 a1 xi ).


Introduisons les vecteurs n composantes suivants : Y = (yi ), X = (xi ) et U le vecteur unit.
La mthode consiste chercher le vecteur G le plus proche du vecteur Y dans le sous-espace
vectoriel de dimension 2 engendr par les vecteurs U et X , c'est--dire minimiser la distance
ENSHMG 83

euclidienne || Y G ||2 . Pour vrier ceci, le vecteur Y G doit tre orthogonal aux vecteurs U
et X , d'o les relations suivantes :
n

X

< Y G, U > = 0 = (yi a0 a1 xi )

i=1
n
X



< Y G, X > = 0 =
(yi a0 a1 xi ) xi
i=1

Ceci conduit au systme linaire suivant :


" Pn #" # " P #
n
n i=1 xi a0 i=1 yi
Pn Pn 2
= Pn
i=1 xi i=1 xi a1 i=1 xi yi

VII.3.2.2 Droite des moindres carrs continus


On cherche approcher la fonction f , connue sur l'intervalle [a, b], par une droite P (x) = a0 +a1 x
au sens des moindres carrs.

La dtermination des coecients a0 et a1 s'eectue identiquement la mthode des moindres


carrs discrts. Le produit scalaire utilis n'est plus bas sur la norme euclidienne :
Z b
< g1 , g2 > = g1 (x)g2 (x) dx
a

Le systme linaire rsoudre devient :


" Rb Rb #" # " Rb #
dx x dx a0 f (x) dx
R ba R ba 2 = R ba
a x dx a x dx a1 a xf (x) dx

VII.3.2.3 Gnralisation - Polynme des moindres carrs discrets


On cherche approcher la fonction f , connue uniquement en n valeurs discrtes, par un poly-
nme de degr m < n P (x) = a0 + a1 x + a2 x2 + ... + am xm au sens des moindres carrs.

Soient n valeurs y1 , y2 , ..., yn de la fonction f aux n abscisses x1 , x2 , ..., xn . Le polynme P (x)


qui ralise la meilleure approximation au sens des moindres carrs des valeurs yi aux points xi
est celle qui minimise la somme des carrs des carts entre les yi et les P (xi ) soit :
n
X 2
S(a0 , a1 , a2 , ..., am ) = [yi (a0 + a1 xi + ... + am xm
i )]
i=1

La quantit S(a0 , a1 , ..., am ) apparat comme le carr de la norme euclidienne du vecteur (yi
a0 a1 xi ... am xm
i ). Introduisons les vecteurs n composantes suivants : Y = (yi ), X = (xi ),
X = (xi ),..., X = (xm
2 2 m
i ) et U le vecteur unit.
La mthode consiste chercher le vecteur G le plus proche du vecteur Y dans le sous-espace
vectoriel de dimension m + 1 engendr par les vecteurs U , X , X 2 ,...,X m c'est--dire minimiser
84 Chapitre VII : INTERPOLATION ET APPROXIMATION

la distance euclidienne || Y G ||2 . Pour vrier ceci, le vecteur Y G doit tre orthogonal ux
vecteurs U , X , X 2 ,...,X m d'o les relations suivantes :
n

X

< Y G, U > = 0 = (yi a0 a1 xi ... am xm
i )



i=1

n
X



< Y G, X > = 0 = (yi a0 a1 xi ... am xm
i ) xi



i=1
n
X

< Y G, X 2 > = 0 = (yi a0 a1 xi ... am xm 2
i ) xi



i=1

.. ..

. .



X n

m (yi a0 a1 xi ... am xm m
< Y G, X
> = 0 = i ) xi
i=1

Ceci conduit au systme linaire suivant :


Pn Pn Pn
n xi xm
i a0 yi
Pn Pni=1 2 Pni=1 m+1 Pni=1
i=1 xi i=1 xi x a1 i=1 xi yi

i=1 i
.. .. .. .. ..
=
P . Pn
.
Pn
. . Pn
.
n m1
xi m
xi xi2m1 a xm1 yi
m1
Pi=1
n m
Pni=1 m+1 Pi=1
n 2m
Pi=1
n
i
m
i=1 xi i=1 xi i=1 xi am i=1 xi yi

n
X n
X
Posons Uq = xqi et Vq = xqi yi . Le systme s'crit alors :
i=1 i=1


U0 U1 Um a0 V0

U1 U2 Um+1 a1 V1
.. .. .. .. = ..

. . . . .
Um Um+1 U2m am Vm

VII.3.3 Approximation trigonomtrique au sens des moindres carrs


Mthode analogue au cas polynomial en utilisant des polynmes trigonomtriques de degr m :
m
X
a0
Pm (x) = + (ak cos kx + bk sin kx)
2
k=1

Les conditions d'orthogonalit s'appliquent aux vecteurs U/2, cos X , sin X , cos 2X , sin 2X , ...,
cos mX , sin mX .
Dans le cas continu, le produit scalaire est dni par :
Z 2
< g1 , g2 > = g1 (x)g2 (x) dx
0
ENSHMG 85

VII.3.4 Approximation uniforme - Meilleure approximation


Soit f une fonction dnie sur [a, b]. On souhaiterait identier le choix des points de colloca-
tion x0 , x1 , ..., xn pour lequel le polynme d'interpolation de Lagrange Pn (x) ralise la meilleure
approximation de f au sens de la norme innie, c'est--dire minimiser l'erreur d'interpolation :

(x0 , x1 , ...xn ) = max | f (x) Pn (x) |


x[a,b]

La solution de ce problme n'est pas connue en gnral. Cependant, lorsque la fonction f


C n+1 ([a, b]), on peut introduire la dnition suivante de meilleure approximation :
On appelle meilleure approximation de f par un polynme de degr au plus gal n, le polynme
d'interpolation de Lagrange Pn (x) de f , associ aux points de collocation x0 , x1 , ..., xn pour
lesquels la quantit suivante est minimale :
n
Y
max | (x xi ) |
x[a,b]
i=0

On montre que les points de collocation xi s'expriment en fonction des racines du polynme de
Tchebychev Tn+1 et vrient :

a+b ba (2i + 1)
xi = + cos ; pour i = 0, 1, ..., n
2 2 2n + 2

Polynme de Tchebychev : polynme de degr n not Tn (x) dni sur l'intervalle [1, 1] par :

Tn (x) = cos (n arccos x) ou par recurrence Tn+1 (x) + Tn1 (x) = 2xTn (x)

avec T0 (x) = 1 et T1 (x) = x.

VII.3.5 Approximation polynomiale dans une base de polynmes orthogo-


naux
On cherche une approximation de la fonction f par un polynme exprime dans une base de
polynmes orthogonaux.

Il existe de nombreuses bases de polynmes orthoginaux : Legendre, Jacobi, Tchebychev, La-


guerre, Hermite...
86 Chapitre VII : INTERPOLATION ET APPROXIMATION
87

Chapitre VIII

RECHERCHE DE VALEURS
PROPRES

VIII.1 INTRODUCTION
Nous nous intressons la dtermination des valeurs propres (le spectre) et/ou des vecteurs
propres correspondants d'une matrice A de dimension n. Les n valeurs propres complexes sont
les racines du polynme caractristique de degr n : Pn () = det(A In ).

La dtermination des racines de ce polynme n'est pas ecace du point de vue numrique. Des
mthodes plus adaptes sont utilises, elles sont spares entre deux types de mthodes :
Les mthodes globales
Ces mthodes permettent d'valuer le spectre entier de la matrice A. Elles utilisent une
transformation de la matrice en une matrice semblable dont on calcule ensuite les lments
propres. Les principales mthodes sont :
- Mthode de Jacobi
- Mthode QR
- Transformation sous forme de matrice de Hessenberg
- Mthode de Lanczos
- Mthode de bissection

Les mthodes partielles


Ces mthodes visent valuer la plus grande ou la plus petite valeur propre ou encore la
valeur propre la plus proche d'une valeur donne. Les principales mthodes sont :
- Mthode de la puissance
- Mthode de dation

Applications : un problme aux valeurs propres merge d'tudes d'oscillateurs physiques (sys-
tmes masse-ressort, systmes vibratoires, systmes quantiques, ...), d'tudes de dynamique des
structures, de ambage de poutre ainsi que d'tudes de stabilit des coulements de uides (tran-
sition laminaire/turbulent)...
88 Chapitre VIII : RECHERCHE DE VALEURS PROPRES

VIII.2 METHODE DE JACOBI


Mthode pour une matrice symtrique A.

La mthode revient eectuer une suite de transformation de type rotation planaire qui permet
d'annuler un lment (p, q), o p et q sont deux entiers, de la matrice A. Chaque rotation
lmentaire fait intervenir une matrice orthogonale Ppq . On construit ainsi une suite de matrices
symtriques A(k) qui tend vers la matrice diagonale D semblable A.
On pose A(1) = A et, chaque transformation k , on construit la matrice A(k+1) dnie par :

A(k+1) = t Ppq
(k)
A(k) Ppq
(k)

Les lments de la matrice symtrique A(k+1) sont donns par :

(k+1) (k)

aij = aij pour i 6= p, q et j 6= p, q





(k+1) (k) (k)

aip = aip cos aiq sin pour i 6= p, q



(k+1) (k) (k)
aiq = aip sin + aiq cos pour i 6= p, q





(k+1) (k) (k) (k)

app = app cos 2 + aqq sin 2 2apq cos sin




(k+1) (k) (k) (k)
aqq = app sin 2 + aqq cos 2 + 2apq cos sin

(k)
2apq
o l'angle ] , 0[]0, [ vrie : tan 2 = (k) (k)
4 4 aqq app

Deux mthodes pour le choix des entiers p et q :


1) Les deux entiers peuvent tre choisis de faon cyclique : p = 1, q = 2 puis (p = 1, q = 3), etc..
(k)
2) Les deux entiers peuvent tre choisis tel que l'lment | apq | soit la plus grande valeur hors
lments de la diagonale.

VIII.3 METHODE QR
Mthode pour une matrice quelconque A.

La mthode consiste eectuer des factorisations QR successives sur une suite de matrices A(k)
qui convergent vers une matrice triangulaire suprieure semblable A.
Posons A(1) = A. A la k -ime tape, appelons Q(k) , R(k) les matrices issues de la factorisation
QR de A(k) . La matrice A(k+1) est dnie par : A(k+1) = R(k) Q(k) .

Cette mthode est plus ecace que la mthode de Jacobi. Il existe de nombreuses variantes (QL,
QZ...).
ENSHMG 89

VIII.4 TRANSFORMATION EN MATRICE DE HESSEN-


BERG
Mthode pour une matrice quelconque A.

Avec la transformation X = T.Y o T est une matrice inversible, le problme A.X = X devient
(T 1 AT ).Y = Y . Les matrices A et T 1 AT sont semblables. Le but est de trouver une matrice
T telle que la matrice T 1 AT devienne "plus simple".
Une possibilit est de chercher la matrice T tel que T 1 AT soit une matrice de Hessenberg H ,
c'est--dire vriant hij = 0 pour i > j + 1 :


. ..

.. .

. ..
T AT = H =
1
.. .
.. ..
. .

Pour arriver ce but, il existe plusieurs algorithmes :


transformations lmentaires par limination de Gauss.
transformations orthogonales (Householder, Schur, Lanczos...).

VIII.5 METHODE DE LANCZOS


Mthode itrative pour une matrice quelconque A.

La mthode consiste calculer les puissances successives de A en construisant un suite de vecteurs


orthogonaux Uk selon :

i+1 Uk = A.Uk1 k Uk1 k Uk2 pour k = 2, ..., n 1


( tU
k = .A.Uk1
avec : qk1
k+1 = tU 2 2
k1 .A .Uk1 k k

Les vecteurs U0 , U1 , ..., Un1 forment une base, appele base de Krylov. Dans cette base, la ma-
trice reprsentant A, ayant les mmes valeurs propres que A, est tridiagonale :

1 2 0 0 0

2 2 3 0 0

. ..
0 3 3 4 0
0
A = . .
. . . . . . . . .
.
. . . . . .

0 0
n1 n1 n
0 0 n n
90 Chapitre VIII : RECHERCHE DE VALEURS PROPRES

La dtermination des valeurs propres peut s'eectuer avec une mthode de type QR ou une
mthode de bissection.

Initialisation de l'algorithme :
Choix d'un vecteur initial U0 normalis. q
Calculs de : 1 =t U0 .A.U0 et 2 = t U0 .A2 .U0 12
Le vecteur U1 est dni par : 2 U1 = A.U0 1 U0

VIII.6 METHODE DE BISSECTION


Mthode pour une matrice tridiagonale A.

Appelons ai , bi et ci respectivement les termes diagonaux, suprieurs et infrieurs de la matrice A.


La mthode consiste calculer les valeurs propres partir du polynme caractristique Pn () =
det(A In ). Un dveloppement du dterminant par rapport la dernire ligne permet d'crire
la relation de rcurrence suivante :

Pn () = (an )Pn1 () cn1 bn1 Pn2 ()

Le calcul des racines de Pn () s'opre de la manire suivante : chercher un intervalle o Pn ()


change de signe et localiser une racine par bissection.

VIII.7 METHODE DE LA PUISSANCE


Mthode itrative pour une matrice quelconque A qui permet d'valuer son rayon spectral (A).

Le principe de la mthode repose sur le fait qu'en appliquant un grand nombre de fois la ma-
trice sur un vecteur initial quelconque, les vecteurs successifs vont prendre une direction qui se
rapproche du vecteur propre de la plus grande valeur propre (en valeur absolue).

L'algorithme :
1) Choisir un vecteur X0 .
AXk
2) Itrer : Xk+1 = jusqu' convergence || Xk+1 Xk ||< .
|| AXk ||

La suite des vecteurs (Xk ) convergent vers le vecteur propre de la plus grande valeur propre et
la suite des normes || AXk || converge vers le rayon spectral (A).

Condition de convergence :
Si le vecteur de dpart X0 n'appartient pas au sous-espace vectoriel engendr par n 1 vecteurs
propres de A alors la mthode converge.
ENSHMG 91

VIII.8 METHODE DE DEFLATION


Mthode itrative pour une matrice quelconque A.

Supposons connu le rayon spectral de A, 1 = (A) et le vecteur propre correspondant X1 (cal-


culs par la mthode de la puissance). Il est possible de calculer 2 , la valeur propre de module
immdiatement infrieur 1 , et d'autres valeurs propres par la suite.
La mthode consiste transformer la matrice A en une matrice A(1) , ayant les mmes valeurs
propres que A except 1 remplace par une valeur propre nulle, puis d'appliquer de nouveau
A(1) la mthode de la puissance.

L'algorithme :
1) Application de la mthode de la puissance pour dterminer 1 et X1 .
2) Choix d'un vecteur W tel que < W, X1 > = 1.
3) Calcul de la matrice A(1) = A 1 X1 t W qui a les mmes valeurs propres que A sauf 1
remplace par une valeur propre nulle.
4) Application de la mthode de la puissance A(1) pour dterminer 2 et le vecteur propre
associ Y2 (vecteur propre de A(1) ). Le vecteur propre de A correspondant est donn par :
1
X2 = Y2 + < W, Y2 > X1
2 1

En itrant la dation sur A(1) , A(2) ,..., d'autres valeurs propres de la matrice A peuvent tre
dtermines.
92
BIBLIOGRAPHIE 93

Bibliographie

[1] J. Baranger. Analyse numrique. Hermann, 1988.


[2] J. Beuneu. Algorithmes pour le calcul scientique. Cours de l'Ecole Universitaire d'Ing-
nieurs de Lille, 1999.
[3] J.A. Desideri. Introduction l'analyse numrique. INRIA, 1998.
[4] E. Hairer. Mthodes numriques. Cours de l'universit de Genve, 2004.
[5] C. Hirsch. Numerical computation of internal and external ows, volume I : fundamentals
of numerical discretization. John Wiley & Sons, Chichester, New York, 1986.
[6] P. Lascaux and R. Theodor. Analyse numrique matricielle applique l'art de l'ingnieur,
tomes I et II. Masson, Paris, 1986.
[7] V. Legat. Mathmatique et mthodes numriques. Cours de l'universit catholique de
Louvain, 2004.
[8] B. Mohammadi and J.H. Saiac. Pratique de la simulation numrique. Dunod, 2003.
[9] N. Point and J.H. Saiac. Equations aux drives partielles - mathmatiques et mthodes
numriques. Cours de l'ESCPI, 2005.
[10] J. Reveillon. Simulation et modlisation numrique. Cours de l'universit de Rouen, 2003.
[11] D. Senechal. Histoire des sciences. Cours de l'universit de Sherbrooke, 2004.
[12] A. Quarteroni. Analyse numrique. Cours de l'EPFL, 2003.
[13] P. Viot. Mthodes d'analyse numriques. Cours de DEA de Jussieu, 2003.