Vous êtes sur la page 1sur 10

Algorithmes numriques pour

la rsolution des grands systmes

par Pierre SPITERI


Docteur s sciences mathmatiques
Professeur lcole nationale suprieure dlectronique, dlectrotechnique,
dinformatique, dhydraulique et de tlcommunication de Toulouse

1. Position du problme.............................................................................. AF 502 - 2


2. Mthodes directes ................................................................................... 2
3. Mthodes itratives de relaxation par points et par blocs .......... 3
4. Mthodes issues de la minimisation de formes quadratiques.... 5
5. Mthode multigrille................................................................................. 7
6. Mthodes de dcomposition de domaine ......................................... 8
Rfrences bibliographiques ......................................................................... 10

n a vu dans larticle [AF 500] que la discrtisation dquations aux drives


O partielles stationnaires conduisait la rsolution de systmes linaires de
grande dimension dont la matrice est creuse. De mme, la discrtisation
dquations aux drives partielles dvolution par des schmas implicites
(article [AF 501] ) conduit galement la rsolution de systmes linaires ayant
les mmes caractristiques. Compte tenu de cette spcificit, linversion des
matrices issues de la discrtisation dquations aux drives partielles devient
de plus en plus proccupante dans le domaine de la simulation numrique et
est, par consquent, trs dlicate, compte tenu, en particulier, du mauvais
conditionnement de ces matrices. Cet aspect dpend fortement des applications
traites et il est hors de question de donner une rponse universelle ce
problme. Cest pourquoi, dans cet article, nous allons passer en revue diff-
rentes mthodes de rsolution de tels systmes, pour essayer de dgager les
algorithmes les plus performants.
Dans le cas de la rsolution numrique dune quation aux drives partielles
non linaire, on doit rsoudre un systme algbrique non linaire ; la rsolution
dun tel systme seffectuera par une mthode itrative de type mthode de
Newton [1], ce qui ncessitera, chaque itration, une linarisation de lapplica-
tion considre autour du point courant et la rsolution dun systme linaire ;
ltude de la convergence de ce type de mthode est loin dtre triviale et les
rsultats thoriques garantissant la convergence de la mthode sont tablis uni-
quement dans des situations particulires. Si lquation aux drives partielles
est linaire, on aura rsoudre un systme linaire ce qui, en thorie, parat plus
simple ; cependant il subsiste des difficults dordre numrique pour dterminer
la solution approche. Dans cet expos, nous nous limiterons au cas linaire.

On rappelle que ltude concernant la mthode des diffrences finies pour rsoudre des
quations aux drives partielles se dcompose en trois articles :
[AF 500] Mthode des diffrences finies pour les EDP stationnaires ;
[AF 501] Mthode des diffrences finies pour les EDP dvolution ;
[AF 502] Algorithmes numriques pour la rsolution des grands systmes.

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 1
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________

1. Position du problme On peut tirer partie de cette situation grce au rsultat suivant :

Avant dexposer les grandes lignes des mthodes de rsolution Thorme 1. Pour une matrice A quelconque, soit :
des systmes linaires, considrons un exemple issu dapplica-
tions industrielles, qui va nous permettre de comprendre la diffi- a 1,1 . . . a 1,i
cult de rsolution de tels systmes.
. . .
Exemple 1 : considrons lanalyse des flux arodynamiques i = det . . .
, 1  i  n

autour dun avion en mouvement ; le problme revient dterminer en
. . .
chaque point du milieu et chaque instant, la valeur de paramtres
comme la temprature, la pression, etc. Le phnomne tudi peut a i,1 . . . a i,i
tre modlis par les quations de Navier-Stokes qui expriment la
conservation de la masse, du moment et de lnergie ; en coordonnes On suppose que i 0, 1  i  n . Alors la matrice A se facto-
cartsiennes, et dans leurs formes compltes, ces quations compren- rise en un produit L R o R est une matrice triangulaire sup-
nent plus de soixante drives partielles. La rsolution numrique de rieure et L est une matrice triangulaire infrieure dont les
ces quations savre ncessaire dans la mesure o une rsolution coefficients diagonaux sont gaux lunit. De plus, la matrice R
analytique est problmatique. La prise en compte des quations de est inversible et la factorisation est unique.
Navier-Stokes dans leur totalit conduirait des maillages comprenant
de 1012 1015 points. Si lon considre un problme simplifi dcrit sur
un maillage comprenant 107 points, avec 20 valeurs attaches cha- Remarque
que point (paramtres du problme, lments de gomtrie, rsultats Le fait que la factorisation LR soit possible correspond une
intermdiaires, etc.), le modle discret considr comporte 2 108 mthode de Gauss dans laquelle on choisit comme pivot, chaque
donnes ; suivant le type de problme, le volume de calculs peut tape k, les coefficients a k,k , pour k = 1, 2, ..., n 1, cest--dire que
atteindre voire dpasser 1013 oprations arithmtiques. Pour un ordi-
lon neffectue jamais de permutation de ligne dans la mesure o
nateur capable dexcuter 107 oprations arithmtiques par seconde,
cette situation permet de montrer que ak,k 0, pour k = 1, 2, ...,
le temps de calcul est de lordre de 1013 /107 secondes, soit environ
278 heures ou encore prs de 12 jours. n 1. De plus on vrifie aisment que, dans ce cas, la structure
bande initiale est conserve, cest--dire que si A = (ai,j) vrifie
ai,j = 0 pour |i j | >  o  est la demi-largeur de bande, alors
Sauf cas particulier (cf. paragraphe 5, mthode multigrille),
pour simplifier les notations nous noterons dans la suite : L = (  i,j ) et R = ( r i,j ) satisfont r i,j =  i,j = 0 pour |i j | >  , ce qui
conduit reformuler une version bande de la mthode de Gauss.
AU = F, U  dim ( A ) , F I  dim ( A ) Ainsi, on sait que la mthode dlimination conserve la structure
le systme linaire inverser. bande initiale, condition toutefois de ne jamais permuter de
lignes, ce qui est assur grce au rsultat donn par le thorme 1.
Par exemple, aprs discrtisation convenable, cette proprit se
trouve encore conserve pour certain type de matrice autre que les
2. Mthodes directes matrices symtriques dfinies positives [2].
De plus, dans ce contexte, le nombre doprations arithmtiques
La premire mthode de rsolution envisageable du systme est de lordre de dim ( A )  2 , ce qui diminue notablement la
linaire prcdent, est la mthode dlimination de Gauss (ou ses complexit de lalgorithme. Cependant, si lon veut calculer la
variantes comme la mthode de Crout ou la mthode de Cholesky, solution de lEDP de manire trs prcise, il est ncessaire de
etc.), dont la complexit, cest--dire le nombre doprations considrer des maillages trs fins et le cot de rsolution du sys-
2 3 tme linaire peut devenir prohibitif ; il dcoule de cet tat de fait
 
arithmtiques, est de lordre de ----- dim ( A ) ; si A est une matrice
3 que linversion de la matrice intervenant dans un systme linaire
symtrique, le nombre doprations arithmtiques se rduit issu de la discrtisation dune quation aux drives partielles
conduit :

1 3
3
----- dim ( A ) ; or on a vu que, dans le cas de rsolution numrique
des temps de calculs particulirement importants ;
dquations aux drives partielles, dim(A ) est grand et, par des rsultats de calcul peu prcis.
consquent, le nombre doprations arithmtiques devient vite
important. Par ailleurs, on a vu galement que, dans un grand En effet, pour ce dernier point, laccumulation des erreurs
nombre de cas, la discrtisation des quations aux drives par- darrondi, dues la mauvaise reprsentation des nombres rels en
tielles conduit des matrices de discrtisation structure bande du machine, peut, comme on la indiqu au paragraphe 4 de larticle
type suivant : [AM 500] compltement dnaturer le rsultat calcul, alors mme
que lapproximation conduit thoriquement des rsultats accep-
.
tables. Autrement dit, de petites perturbations sur le calcul des
. coefficients du systme linaire peuvent entraner de grandes per-
turbations sur les valeurs calcules ; ce phnomne numrique,
. 0
difficilement prvisible a priori, sajoute limprcision dcoulant
. .
du procd de discrtisation. Cette sensibilit la propagation et
. lamplification des erreurs intervient lorsque la matrice A est mal
2 + 1 .
conditionne et le nombre de conditionnement C (A ) permet
. . davoir un indicateur sur la difficult dinversion numrique de la
matrice ; si A est une matrice symtrique, et en considrant des
.
normes matricielles induites par la norme euclidienne, on a vu au
.
max ( A )
0 . corollaire 3 de larticle [AF 500] que C 2 ( A ) = ------------------------- , o max (A )
min ( A )
. et min (A ) reprsentent respectivement la plus grande et la plus
.
petite valeur propre de la matrice A. Une matrice bien conditionne
correspond une valeur de C2 (A ) gale ou proche de lunit ; une

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 2 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES

matrice mal conditionne correspond une valeur de C2 (A ) trs Les mthodes classiques de relaxation par points sont dfinies
grande et, dans le cas du problme de Poisson discrtis, on a comme suit ; on considre la dcomposition (en anglais splitting)
montr que le nombre de conditionnement tendait vers linfini lors- suivante de la matrice A :
que la dimension de la matrice augmentait.
A=DEF
On prfre gnralement inverser les systmes linaires issus de
la discrtisation des quations aux drives partielles par une .
mthode itrative qui limite les effets du mauvais conditionne-
ment, ainsi que le nombre doprations arithmtiques ; cependant, .
comme nous le verrons, leffet du mauvais conditionnement se . F
traduira par une vitesse de convergence plus lente. Il faut gale- .
ment avoir conscience que lutilisation des mthodes itratives . D .
ncessite non seulement ltude de la convergence des algori- A =
thmes mais encore celle de la vitesse de convergence ainsi que la . .
dtermination de tests darrt des itrations fiables. On distingue .
plusieurs types de mthodes itratives : E .
les mthodes de relaxation ( 3) ; .
les mthodes issues de la minimisation de formes quadra- .
tiques ( 4) ;
les mthodes multigrilles ( 5) ; avec D diagonale de la matrice A.
les mthodes de dcomposition de domaine ( 6).
La mthode de Jacobi par points est dfinie par :

ai,j u j
k
fi
k +1 ji
= ----------------------------------- , i B = J = D 1 ( E + F ) = I D 1 A
3. Mthodes itratives ui
a i,i
de relaxation par points La mthode de Gauss-Seidel par points est dfinie par :
et par blocs i 1 n

ai,j u j
k +1 k
fi a i,j u j
k +1 j=1 j = i +1
Les mthodes de relaxation par points consistent transformer ui = ----------------------------------------------------------------------------------- , i B =  1 = ( D E ) 1 F
lquation A U = F en une quation de point fixe comme suit : a i,i

fi ai,j uj La mthode de surrelaxation par points (SOR : Successive


ji
u i = --------------------------------- , i Over-Relaxation) est dfinie par :
a i,i

ce qui peut scrire matriciellement : i 1 n


f i a i,j u j
k +1
a i,j u j
k
U=BU+c k + ----
1
-
2 j=1 j = i +1
avec B matrice (ditration) de mme dimension que la matrice A, ui = ----------------------------------------------------------------------------------- ,
a i,i

c vecteur dfini par la transformation de point fixe.
k +1 k
1
k + -----
Ainsi U 0 tant donn, on gnre litration : ui = ( 1 )u j + u i 2 , 0 < < 2

U k +1 = B U k + c, pour k = 0, 1, 2...


i B =  = ( D E ) 1 ( 1 )D + F  
On a le critre gnral de convergence suivant :
Remarque

Thorme 2. Une condition ncessaire et suffisante pour que Il est noter que, lorsque le paramtre est gal 1, on
litration : retrouve la mthode de Gauss-Seidel par points. Par ailleurs,
lintroduction du paramtre est destine augmenter la vitesse
U 0 donn quelconque, de convergence de lalgorithme, lorsque cela est possible.
k +1
U = BU k + c , pour k = 0, 1, 2 Dautre part, on a vu dans les articles [AF 500] et [AF 501] que les
matrices de discrtisation associes aux problmes modles
converge, quel que soit U 0, est que le rayon spectral de la avaient une structure par blocs. On peut tirer parti de cette struc-
matrice ditration ( B ) = Max i ( B ) soit de module stric- ture particulire et dfinir des mthodes de relaxation par blocs ;
1  i  dim ( B ) considrons le cas o la matrice A se dcompose en p p blocs
tement infrieur lunit. nots (Ai, j ), i, j = 1, ..., p, ce qui correspond la structure suivante :

A A A
1,1 1,2 ... 1,p
Dfinition 1. On appelle vitesse asymptotique de convergence A A
2,2 ... A 2,p
A =
2,1
de litration linaire : 

U 0 donn quelconque, A p,1 A p, 2 ... A p, p
k +1
U = B U k + c , pour k = 0, 1, 2
et supposons, de plus, que les blocs diagonaux soient des matrices
carres inversibles ; dcomposons galement les vecteurs U et F
la quantit dfinie par E (B ) = ln ( (B )). suivant une dcomposition par blocs compatible avec celle de A ;

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 3
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________

soient Ui et Fi , i = 1, ..., p, les blocs composantes de ces vecteurs. On citera, plus loin, des rsultats garantissant la convergence
Avec ces notations, on peut, comme prcdemment, dfinir des mthodes de Gauss-Seidel et de surrelaxation par points ou
lquation de point fixe associe au problme A U = F. On aura, par par blocs (avec paramtre optimal) utilisables lorsque la mthode
exemple : de Jacobi par points est convergente.
Compte tenu de la difficult pratique de dterminer (B ) dans le
A i,i U i = F i Ai,j Uj , i { 1, ..., p }
cas gnral, et du surcot de calcul pour dterminer cette quantit,
ji
on prfre utiliser des conditions suffisantes de convergence plus
faciles vrifier dans le cas des mthodes de relaxation classiques
On dfinit la mthode de relaxation par blocs (SOR) de manire telles que la mthode de Jacobi, Gauss-Seidel, surrelaxation (SOR)
analogue la mthode par point, ce qui conduit, dans ce cas, par points ou par blocs. On donne ici un rsum de quelques rsul-
lcriture suivante : tats.

 Ai, j U j  + ( 1 ) Ai,i U i
k +1 k +1 k
A i,i U i = Fi Thorme 4. Soit A une matrice symtrique dcompose par
j<i
points ou par blocs sous la forme A = D E F, avec D dfinie

k
A i,j U j , i { 1, ..., p } , 0 < < 2 positive. Alors la mthode de surrelaxation par points ou par
j>i blocs, pour ]0,2[, est convergente si et seulement si A est
dfinie positive.
k +1
Pour calculer les composantes U i , il est ncessaire de rsou-
k +1
dre un systme linaire du type A i,i U i = G i , ce dernier vec- Corollaire 1. Soit A une matrice symtrique dfinie positive ;
teurGi tant parfaitement dterminable. Il faut donc une rsolution alors la mthode de surrelaxation par points ou par blocs
qui soit relativement aise. Si lon utilise une dcomposition du converge pour ]0,2[.
type Li Ri base sur la dcomposition de Gauss de la matrice Ai,i ,
il suffira deffectuer une seule fois (lors de linitialisation de lalgo- Remarque
rithme) cette dcomposition ; en effet, si lon stocke les facteurs Li
En particulier, la mthode de Gauss-Seidel par points ou par
et Ri , il suffira de rsoudre Li Ri U i
k +1
= G i chaque itration k. blocs, correspondant au cas = 1, converge.

Remarque
Thorme 5. Soit A une matrice diagonale strictement
Dans la mthode de relaxation prcdente, si = 1, on retrouve dominante ; alors la mthode de Jacobi par points converge.
la mthode de Gauss-Seidel par blocs. La formulation de la
mthode de Jacobi par blocs scrit comme suit :
Thorme 6. Soit A une matrice diagonale dominante
Ai, j U j ,
k +1 k
A i,i U i = Fi i { 1, ..., p } irrductible ; alors la mthode de Jacobi par points et la
ji mthode de Gauss-Seidel par points convergent.
et le principe de rsolution par blocs est le mme.
Remarque
Remarque Les rsultats des thormes 5 et 6 stendent au cas de la
Les mthodes par blocs ncessitent plus doprations arithm- mthode de surrelaxation par points pour ]0,1].
tiques que les mthodes par points ; cependant, dans les appli-
cations, on vrifie que la vitesse asymptotique de convergence des Compte tenu des rsultats obtenus au paragraphe 4 de larticle
itrations par blocs est suprieure celle de leurs homologues par [AF 500], il est clair que lune ou lautre des proprits prcdentes
points. se trouvent vrifies par les matrices issues de la discrtisation des
quations aux drives partielles ; il existe dautres conditions
Remarque suffisantes de convergence prenant notamment en compte les pro-
prits de diagonale dominance irrductible de la matrice et
Comme pour les mthodes par points, on peut associer la applicables dans le contexte de la simulation numrique que nous
matrice A une dcomposition (splitting ) du type A = D E F, o ne dveloppons pas ici, renvoyant le lecteur la littrature [2].
ici les matrices D, E et F sont dfinies par blocs, conformment
la structure de la matrice A. Les mthodes de relaxation par blocs ont t tudies dans le
cas de matrices issues de la discrtisation dquations aux drives
partielles ; indiquons ci-dessous quelques rsultats spcifiques
Concernant ltude de la convergence, on a les rsultats ce type de situation.
suivants :

Thorme 7. Soit A une matrice tridiagonale par blocs, dont


Thorme 3. Pour toute matrice A, une condition ncessaire les blocs diagonaux sont inversibles. Si (J ) est valeur propre
de convergence de la mthode de relaxation par points ou par de la matrice ditration par blocs, alors (J ) est aussi valeur
blocs est que 0 < < 2. propre. Les mthodes de Jacobi et Gauss-Seidel par blocs
convergent ou divergent simultanment. Dans le cas de conver-
gence, (L1) = ( (J ))2, o L1 est la matrice de Gauss-Seidel par
Exemple 2 : on peut appliquer le rsultat du thorme 2 pour tu- blocs.
dier la convergence de la mthode de Jacobi par points ; on vrifie, par
un calcul simple que :
Remarque

( J 1D ) = ( J 2D ) = ( J 3D ) = Max i ( B )
1  i  dim ( B )
n+1  
= cos ---------------- = cos ( h ) Dans ces conditions, conformment la dfinition de la vitesse
asymptotique de convergence (cf. dfinition 1 ci-dessus), la
mthode de Gauss-Seidel par blocs converge deux fois plus vite
et, par consquent, cette itration converge. que la mthode de Jacobi par blocs.

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 4 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES

La mthode la plus simple et la plus connue est la mthode de


Thorme 8. Soit A une matrice tridiagonale par blocs dont les plus profonde descente [3] ; malheureusement, cette mthode est
blocs diagonaux sont inversibles. Si toutes les valeurs propres peu efficace dans le cas de systmes algbriques linaires issus de
de la matrice de Jacobi par blocs associe au partitionnement la discrtisation dquations aux drives partielles, compte tenu du
de A sont relles, alors les mthodes de Jacobi et de relaxation fait que, dans ce cas, le nombre de conditionnement C (A ) est lev,
par blocs, pour 0 < < 2, convergent ou divergent simultan- ce dernier nombre permettant destimer la vitesse asymptotique de
ment. Dans le cas de la convergence, il existe une valeur opti- convergence de lalgorithme, donne par lestimation :
male du paramtre donne par :
C2 ( A ) 1 2k
2
= opt = --------------------------------------------- , ( L ) = opt 1 pour = opt 
E ( U k )  ----------------------------
C2 ( A ) + 1  E ( U 0 ), k  0
1 + 1 ( (J ) ) 2
avec E (V ) = <A (V U ), V U >,
qui minimise le rayon spectral de la matrice ditration de
relaxation par blocs L . Uk itr no k,
max (A )
C2 (A ) = -------------------------
- nombre de conditionnement.
Remarque min (A )
Pour cette valeur de , la vitesse asymptotique de convergence Ainsi C2 (A ) avec dim (A ) et lalgorithme de plus profonde
de la mthode de relaxation par blocs est optimale, conformment descente est peu efficace pour inverser des systmes algbriques
la dfinition 1 ci-dessus. linaires issus de la discrtisation dquations aux drives par-
tielles ; cest la raison pour laquelle nous ninsistons pas sur cette
Grce aux rsultats prcdents associs ceux prsents au mthode, renvoyant le lecteur [3].
paragraphe 4 de larticle [AF 500], en particulier les valeurs propres
des matrices de discrtisation, on peut calculer les rayons spec- La mthode la plus utilise est la mthode du gradient conjugu
traux des matrices ditration par points et par blocs et obtenir des (GC) ; il sagit dune mthode de plus profonde descente o,
estimations des vitesses asymptotiques de convergence. Cette chaque itration, on corrige les directions de descente de manire
vrification, au demeurant trs simple, est laisse titre dexercice. acclrer la convergence de la mthode ; cet algorithme est dcrit
On constate effectivement la supriorit des mthodes de relaxa- comme suit :
tion lorsque le paramtre est optimal.
U 0 donn
Initialisation 0
Exprimentalement on constate que les mthodes de relaxation 0
P = R = F AU
0
ont en gnral de bonnes performances dans le cas de matrices non
symtriques, situation que lon retrouve en simulation numrique Pour k = 0, 1, 2...
lorsque lon rsout le problme de convection-diffusion volutif
Rk 2
avec, par exemple, des conditions aux limites de Dirichlet homo- k = --------------------------------
-
gnes : < AP k , P k >

u ( x,t ) u ( x,t ) 2 u ( x,t ) U k + 1 = U k + k P k


- = 0, 0 < x < 1 , t > 0
------------------------ + b ------------------------ a --------------------------
t x x 2 R k + 1 = R k k AP k

u ( 0, t ) = u ( 1, t ) = 0 , t > 0
R k +1 2
k + 1 = -------------------------
Rk 2
u ( x , 0 ) = u0 ( x ) , 0 < x < 1

P k +1 = R k +1 + k +1 P k
Les mthodes de relaxation ont galement de bonnes perfor-
mances dans le cas de la rsolution de problmes non linaires, les fin pour;
applications types tant relatives au traitement dimages ainsi
quaux mathmatiques financires. avec || || norme euclidienne.
Cette mthode est trs simple programmer ; en effet les pro-
cdures ncessaires son implantation sur ordinateur sont :
4. Mthodes issues une procdure optimise de calcul du produit matrice-vecteur ;
de la minimisation une procdure de calcul du produit scalaire de deux vecteurs ;
une procdure de calcul de la combinaison linaire de deux
de formes quadratiques vecteurs.

On considre la minimisation dune forme quadratique du type : Thorme 9. Soit A une matrice symtrique dfinie positive de
dimension dim (A ). Alors la mthode du gradient conjugu,
J (U ) = Min (J (V ), V  dim ( A ) ) applique la rsolution du systme algbrique linaire AU = F,
avec : converge, en arithmtique exacte, en dim (A ) itrations au plus.
1 De plus, la vitesse de convergence est majore par :
J ( U ) = ----- U t AU U t F
2
C2 ( A ) 1 2k
o A = A t (symtrie), ce qui correspond une hypothse non restric-
tive, et dfinie positive qui assure la stricte convexit de J (V ) ; dans 
E ( U k )  4 -----------------------------------
C2 ( A ) + 1  E ( U 0 ), k  0
ce contexte thorique minimal, on est assur de lexistence et de
lunicit du minimum, ce dernier tant caractris, dans le cas dopti- avec E, dfinie par E (V ) = <A (V U ), V U >.
misation sans contrainte, par lquation dEuler J (U ) = 0 ; on vrifie
alors aisment que la valeur de U qui rend minimale J est caractri-
se par la relation J (U ) = AU F = 0, cest--dire que U est solution Remarque
du systme linaire AU = F. Ainsi minimiser J (U ) revient rsoudre Il convient de prciser galement que le nombre maximal dit-
ce systme linaire. Le problme revient donc dterminer des algo- rations est de dim(A ) en arithmtique exacte ; cependant, les
rithmes efficaces de minimisation de formes quadratiques. nombres rels tant mal reprsents en machine, le nombre

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 5
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________

ditrations pour rsoudre le systme linaire peut tre suprieur On constate que, chaque itration, il est ncessaire, en plus des
dim (A ) ; cela provient dun dfaut de normalit entre les directions oprations habituelles, de rsoudre un systme de la forme :
de descente corriges. CZ = R
Remarque Il est donc indispensable que cette rsolution soit facile et peu
Si la matrice est mal conditionne, C2(A ) est grand et la coteuse, ce qui sera le cas si la matrice C est une matrice diago-
convergence de lalgorithme du gradient conjugu est lente ; par nale ou encore le produit de matrices triangulaires. Parmi les choix
contre si C2(A ) est proche de 1, la matrice est bien conditionne et classiques de matrices de prconditionnement, on retient les trois
la mthode du gradient conjugu converge rapidement. mthodes suivantes.
Prconditionnement diagonal o C = Diag (A ) = D, qui, en pra-
Cette remarque va tre le point de dpart de ltude dun procd tique est peu efficace ;
dacclration de la convergence de lalgorithme du gradient
conjugu. En effet, un autre intrt de cette mthode, rside dans le Prconditionnement SSOR (Symetric Successive Over-Relaxa-
fait que lon peut augmenter la vitesse de convergence de lalgo- tion) dEvans o :
rithme en prconditionnant la matrice A, artifice qui consiste rem-
1
placer la rsolution du systme algbrique linaire initial, AU = F, C = ------------------------- ( D E ) D 1( D E ) t
par celle du systme suivant : (2 )
C 1 AU = C 1 F avec E partie strictement triangulaire infrieure de A, avec
A = D E E t,
que lon peut encore crire :
paramtre rel strictement compris entre 0 et 2.
C 1/2 (C 1 A ) C 1/2 C 1/2 U = C 1/2 F
On constate que, dans ce cas, C est obtenue directement en
o C 1 est la matrice de prconditionnement, matrice symtrique fonction de A ; aucun stockage ni calcul supplmentaire nest
dfinie positive, de telle sorte que le systme quivalent : ncessaire. La rsolution du systme CZ = R ncessite de plus la
~~ ~ rsolution dun systme triangulaire infrieur, dun systme diago-
AU = F nal et dun systme triangulaire suprieur. On peut, de plus, dter-
~
soit dfini galement avec la matrice A = C 1/2 A C 1/2 , matrice ~ la valeur dun paramtre optimal qui minimise la valeur de
miner
C( A ) [1].
symtrique dfinie positive, semblable la matrice C 1 A, o
~ ~ Exemple 3 : dans le cas de lquation de Poisson discrtise avec
U = C 1/2U et F = C 1/2F, la matrice C tant choisie de telle sorte que : un maillage diffrences finies uniforme de pas h, ce paramtre opti-
~ mal est donn par :
C ( A )<< C ( A )
2
La dtermination de la matrice C est un problme non trivial. = opt = ----------------------------------------------------------
~ ~ 1 + 1 ( (J ) ) 2
La valeur idale est C ( A ) = 1 et, en pratique, A est une
1
approximation de lidentit, la matrice C tant une approxima- avec J = I D 1 A,
(J ) = Max | i (J )|.
tion de A 1 ; en pratique, il faudra trouver C 1 la plus proche de
~ 1
A 1, sans que les calculs pour dterminer C 1 soient trop coteux.
Si lon rcrit lalgorithme du gradient conjugu prconditionn
Par un calcul direct, on vrifie que C ( A ) = O ------ alors que
h  
~~ ~ 1 ~
pour la rsolution du systme linaire AU = F , on peut exprimer
les tapes de calcul directement partir de la donne de la matrice h  
C ( A ) = O --------2- ; ainsi on obtient bien que C ( A ) < < C ( A ) .

A et des donnes U et F. Lalgorithme exprim directement partir


des donnes A, U et F scrit : Prconditionnement bas sur la factorisation incomplte de
Cholesky
U 0 donn Cette technique utilise le couplage dune mthode itrative et
dune mthode directe comme la mthode de Gauss ou la
R 0 = F AU 0 mthode de Cholesky dans le cas de matrice symtrique dfinie
Initialisation
CP 0 = R 0 positive. On sait que si lon considre la factorisation de Cholesky
de la matrice symtrique dfinie positive A, on peut crire A = L Lt,
Z0 = P0 o L est triangulaire infrieure dont les lments diagonaux sont
gaux lunit et est une matrice diagonale ; de plus les matrices
Pour k = 0, 1, 2... L et sont parfaitement calculables [3]. Dans le cas dune matrice
A creuse structure bande, la matrice L ne conserve pas le carac-
<R k, Z k> tre creux de la matrice A mais se remplit lintrieur de la bande ;
k = --------------------------------
-
< AP k , P k > ce phnomne de remplissage est connu, dans la terminologie
anglo-saxonne sous le nom de phnomne de fill-in :
U k + 1 = U k + k P k
a b c
R k + 1 = R k k AP k
b . . . . 0
. . . . 0 . .
CZ k + 1 = R k + 1
. . . 0 . . . .
<R k + 1 , Z k + 1 > A=
c , L=

k + 1 = --------------------------------------------
- . . . . . . .
<R k , Z k > c . . . . . . . .

P k +1 = Z k +1 + k +1 P k . 0 . . . . . . . .

0 . . . b 0 . . . . .
fin pour; c b a

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 6 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES

De plus on constate que, aprs transformation de Cholesky ou


de Gauss, lorsque lon sloigne de la diagonale principale et de la 5. Mthode multigrille
diagonale externe, les modules des coefficients deviennent de plus
en plus petits, les termes les plus petits se trouvant au milieu de Pour exposer le plus simplement possible le principe de la
la bande ; dans le cas de la reprsentation prcdente de la mthode multigrille, on commence par prsenter la mthode
matrice L, les modules des termes et sont ngligeables devant 2-Grilles ; cette dernire combine deux mthodes peu performantes
ceux des termes , et . Cette constatation suggre de ngliger pour finalement obtenir une mthode trs efficace. On considre
certains petits termes et de conserver pour la matrice L une struc- une grille fine de pas h et une grille grossire de pas H = 2h, ainsi
ture quasiment semblable celle de la matrice A. On se donne que la rsolution du problme de Poisson monodimensionnel avec
donc a priori un ensemble dindices fixs G et on cherche deux conditions aux limites de Dirichlet homognes.
matrices C et R telles que :
A = C R, C = TT t
avec, par exemple :
x0 x1 x2 xN

Grille fine de pas h



. 0
0 . .

0 . . . X0 X1 X2 XN / 2
T =

. . . . Grille grossire de pas H = 2h
. . . . .

. . . . .

0 . . . . . Un cycle de la mthode 2-Grilles se compose de deux phases :
0 0
une mthode de lissage, correspondant deux ou trois
itrations dune mthode de relaxation, permettant de rduire les
T est alors une triangulaire infrieure, telle que ti,j = 0 si (i,j ) G hautes frquences de lerreur lorsque lon dcompose celle-ci dans
et i j. G dfinit donc lensemble des lments a priori non nuls de la base des vecteurs propres de la matrice ; soit uh lapproximation
T. On peut dterminer les matrices T, en crivant que le produit de U = Uh solution du systme linaire discret A Uh = Fh ;
TT t correspond la dcomposition exacte de la matrice A + R. une mthode de correction sur grille grossire qui traite effi-
Notons que par construction on a : cacement les basses frquences de lerreur dans la mesure o un
ri,i = 0 et ri,j 0 si (i,j ) G : donc ci,i = ai,i et ci,j = ai,j si (i,j ) G mode basse frquence sur la grille fine se transformera terme en
un mode oscillant sur la grille grossire et sera, par consquent bien
On sait caractriser des classes de matrices pour lesquelles la liss par une mthode de relaxation, conformment ce qui a t
dcomposition de Cholesky prcdente, connue sous le nom de indiqu lalina prcdent ; la correction Vh = Uh uh , quil faut
dcomposition de Cholesky incomplte, est stable quelle que ajouter uh pour obtenir Uh , doit vrifier :
soit G, qui correspondent une dcomposition pour laquelle les
pivots sont strictement positifs chaque pas de la transformation. A Vh = rh , rh = Fh A uh (rsidu)
Cest le cas si A est diagonale dominante stricte ou diagonale Vh est donc la solution dun problme du mme type que celui
dominante irrductible ou encore telle que ai,j  0, i j et A 1  0, qui dfinit Uh , o le second membre a t remplac par le rsidu
proprit vrifie par les matrices issues de la discrtisation du rh aux points de la grille fine. Le calcul de Vh est a priori aussi co-
problme de Poisson avec conditions aux limites de Dirichlet [2]. teux que celui de Uh . Dans la mesure o lerreur est lisse, on peut
En faisant varier G on obtient une infinit de dcompositions cependant chercher obtenir une approximation de Vh sur la grille
incompltes. Linconvnient de la factorisation incomplte de grossire de pas H, ce qui ncessitera beaucoup moins de calculs
Cholesky est que lon ne sait pas dmontrer en gnral, mme puisque la grille de pas H possde environ deux fois moins de
dans des cas simples, que lon amliore le conditionnement de la points dans le cas du problme monodimensionnel (quatre fois
matrice A. On constate, exprimentalement, par des essais num- moins, dans le cas du problme bidimensionnel, huit fois moins
riques que cest effectivement le cas sans disposer de raisons dans le cas du problme tridimensionnel) que celle de pas h ; on
mathmatiques prcises. pourra effectivement obtenir une bonne approximation de Vh sur
Remarque la grille grossire si Vh varie lentement, ce qui est effectivement le
cas grce aux itrations de lissage. La seconde phase de chaque
Le succs de la mthode du gradient conjugu a incit de nom- cycle de la mthode 2-Grilles consiste alors :
breux auteurs proposer certaines variantes de cette mthode
1) dfinir la restriction rH de rh sur la grille grossire laide dun
pour la rsolution de systmes linaires dont la matrice nest pas
oprateur de restriction ; cet oprateur peut tre, tout simplement,
symtrique dfinie positive. La plus simple consiste remplacer
linjection dfinie en tous points M de la grille grossire, mais on
lquation AU = F par lquation dite normale A t AU = A t F ; dans ce peut galement utiliser une restriction par moyenne pondre ;
cas, la matrice A t A est bien symtrique dfinie positive, et il suffit 2) rsoudre le systme linaire A VH = rH , donnant la correction
dadapter lalgorithme du gradient conjugu cette situation parti- VH sur la grille grossire ;
culire. Cependant cet artifice prsente de gros inconvnients ; en
2
3) prolonger VH obtenue sur la grille grossire en une fonction
effet dune part C2 (A t A ) = C 2 (A ) et, par consquent, la vitesse de obtenue sur la grille fine, par exemple par interpolation bilinaire.
convergence de la mthode du gradient conjugu est plus faible ;
On recommence ensuite un nouveau cycle de la mthode
dautre part, chaque itration, il est ncessaire deffectuer deux
2-Grilles.
produits supplmentaires dune matrice par un vecteur, ce qui
alourdit le calcul. Il existe dautres variantes de la mthode du La question principale qui se pose est de savoir si, effectivement,
gradient conjugu mieux adaptes au cas o la matrice nest pas le prolongement de VH est une bonne approximation de Vh et,
symtrique [2] ; une des plus efficaces est la mthode GMRES dans ce cas, quel est le gain que lon va attendre de lutilisation de
(Generalized Minimum Residual Method) pour laquelle on renvoie la mthode 2-Grilles ; il est noter que cette mthode 2-Grilles
[6]. peut scrire sous la forme dune itration de point fixe linaire du

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 7
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________

type U k +1 = B U k + c, pour k = 0, 1, 2, ... Pour un lissage correspon-


(0)

dant la mthode de Gauss-Seidel, on montre, par analyse de Fou- Tableau 1 Comparaison des temps de calculs de solveurs
rier, que le facteur de rduction de lerreur est gal itratifs classiques
5 /5 = 0,447, ce qui correspond un excellent taux de rduction. Mthode (1) Temps CPU de calcul (2)

Gauss-Seidel 20 h
La mthode multigrille correspond lapplication rcursive
dune mthode 2-Grilles. En effet lors de la rsolution du systme
SOR optimal 20 min
dquations sur la grille grossire A VH = rH , on peut de nouveau uti-
liser une mthode 2-Grilles, en dfinissant un problme sur une
GC + factorisation incomplte 6 min
grille encore plus grossire de pas 2H, et ainsi de suite pour
finalement rsoudre un systme dquations sur la grille la plus
grossire ne contenant que quelques points, voire mme un seul Multigrille standard 18 s
point puisque les pas de discrtisation sont choisis comme des puis-
sances inverses de 2. Full multigrille 7s

(1) GC : gradient conjugu


SOR : Successive Over-Relaxation
(2) CPU : Central Processing Unit
Grille fine de pas h

X0 X1 X2 XN / 2 6. Mthodes de dcomposition
Grille grossire de pas H = 2h de domaine
On a vu prcdemment que la discrtisation dquations aux
drives partielles conduit la rsolution de systmes algbriques
Grille grossire de pas de 4h de grande dimension ; les algorithmes prsents prcdemment
sont, en gnral et pour la plupart des applications, les plus per-
formants sur les ordinateurs traditionnels. Actuellement, on assiste
une volution de larchitecture des machines et, depuis une ving-
taine dannes, on voit apparatre sur le march des multiproces-
Grille grossire de pas de 8h (1 seul point)
seurs, machines quipes de plusieurs processeurs destins
travailler en parallle sur la mme application. Bien videmment,
il est ncessaire dadapter les algorithmes de rsolution numrique
des quations aux drives partielles ce type de supercalculateur.
Cela ncessite de dfinir des stratgies de passages intergrilles Il existe plusieurs solutions. Soit on adapte les algorithmes prc-
que nous ne dvelopperons pas ici dans la mesure o le lecteur dents en excutant en parallle toutes les phases du programme
trouvera de nombreux dtails dans la rfrence [4]. Signalons ga- qui sont indpendantes afin de tirer parti au maximum de larchi-
lement que cette mthode multigrille est bien adapte une utili- tecture de la machine ; cet aspect relve plutt de techniques infor-
sation sur des domaines rectangulaires ; il existe cependant des matiques et nous naborderons pas ici ce sujet.
variantes de la mthode multigrille bien adaptes la rsolution
Une autre faon de tirer avantage des possibilits des machines
numrique dquations aux drives partielles sur des domaines
multiprocesseurs est de dcomposer le domaine o est dfinie
quelconques [5]. lquation aux drives partielles en une union de sous-domaines
i , de telle sorte que = i .
Exemple 4 : titre illustratif, considrons le problme de Poisson
dfini sur le carr unit avec conditions aux limites de Dirichlet ce stade, plusieurs possibilits sont envisageables ; on peut
homognes : soit considrer que :
i k = , si i k
u = f, ( x,y ) = ]0, 1 [ x ] 0, 1[
u = 0, ( x , y ) o est lensemble vide et, dans ce cas, on parle de mthode de
sous-domaines sans recouvrement, la plus connue tant la
mthode du complment de Schur qui est une mthode
La discrtisation de ce problme par diffrences finies classiques semi-directe correspondant une mthode dlimination par blocs,
conduit rsoudre un systme linaire ; considrons un pas de discr- le domaine tant partitionn, par exemple, en quatre sous-domai-
tisation h suffisamment fin ainsi quune tolrance raisonnable tol pour nes i , i = 1, ..., 4, disjoints coupls une interface . Ce mode de
arrter les itrations, par exemple : dcomposition est reprsent sur la figure 1, dans le cas de quatre
sous-domaines. La matrice de discrtisation a alors lallure
h = 256 1 dim(A ) = 65 025 et tol = 10 4 h2 ci-dessous :
La comparaison des temps de calcul conduit dresser le tableau 1.
A1 C1
Les rsultats prsents dans le tableau 1 permettent de mesurer la
diffrence de performance des algorithmes prcdents ; il convient de A2 C2
noter que les mthodes multigrilles sont favorises dans ce type de
A = A3 C3
problme, dans la mesure o le domaine est ici le carr unit ; si lon
considre un domaine quelconque, les performances de la mthode A4 C4
multigrille diminueront et la mise en uvre de lalgorithme sera moins
B1 B2 B3 B4 D
simple raliser.

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 8 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES

1 2
1 2,1 1,2 2

3 4

Figure 3 Dcomposition de Schwarz


Figure 1 Dcomposition de Schur : dcomposition initiale

Les matrices Ai correspondent la discrtisation sur les On peut galement considrer que i j si i j, et il sagit
sous-domaines i , i = 1, 2, 3, 4 et les matrices Bi et Ci correspon- alors de mthode de sous-domaines avec recouvrement, la plus
dent au couplage entre ces derniers et linterface , alors que D est classique dentre elles tant la mthode alterne de Schwarz, qui est
la matrice de discrtisation dfinie sur . Si lon effectue une limi- une mthode itrative de type relaxation [6]. On illustre, sur la
nation par blocs, on vrifie quaprs limination on obtient une figure 3, le cas dune dcomposition en deux sous-domaines se
matrice du type : recouvrant. En partant dune donne initiale U 0 = ( u 1 , u 2 ) connue,
0 0

lalgorithme consiste rsoudre alternativement le problme sur


A C1 chaque sous-domaine en prenant comme valeur frontire aux
1
A2 C2 points de recouvrement la restriction en ces points de la valeur obte-
nue sur lautre sous-domaine.
A3 C3

A4 C4 Exemple : dans le cas du problme de Poisson avec conditions de
Dirichlet homognes sur la frontire, et si lon considre une dcompo-
S
sition en deux sous-domaines 1 et 2 , on aura litration du type :
avec :
4 p
u i = f i , sur i , i { 1,2 }
Bi A i
1
S = D Ci
p
i=1 u i = 0, sur i , i { 1,2 }
p
matrice de complment de Schur. u i | = u pj 1 | , i , j { 1,2 } , i j
i, j j, i
Donc, une fois la procdure dlimination par blocs effectue, on
rsout en premier lieu le problme sur linterface , puis on dter-
mine en parallle les valeurs sur les sous-domaines i , dans la avec fi restriction de f au domaine i ,
mesure o les quatre systmes sont indpendants. On montre [6] i = i restriction de la frontire de au
que si la matrice A est inversible et si les matrices Ai , i = 1, 2, 3, 4 sous-domaine i ,
sont inversibles, alors la matrice de complment de Schur est aussi i,j frontire de recouvrement entre les sous-
inversible ; de plus si la matrice A est symtrique dfinie positive, domaines i et j .
la matrice de complment de Schur est galement symtrique
dfinie positive [6] ; on peut donc dterminer le problme sur
linterface , en utilisant, par exemple, un algorithme de gradient Dans lalgorithme dcrit ci-dessus, on a considr une stratgie
conjugu prconditionn. qui sapparente la mthode de Jacobi, et on parle de mthode
On peut ainsi recommencer le mme type de dcomposition sur alterne de Schwarz additive ; on peut galement considrer des
chaque sous-domaine i et on obtient la dcomposition de stratgies sapparentant la mthode de Gauss-Seidel et on parle
domaines rcursive reprsente sur la figure 2. alors de la mthode alterne de Schwarz multiplicative. Les
critres de convergence de cette mthode se rapprochent des cri-
tres obtenus lors de ltude des mthodes de relaxation au
paragraphe 3.

Ltude des mthodes de sous-domaines soulve actuellement


de nombreuses questions mathmatiques, comme ltude de la
11 12 11 22 convergence ou encore de lacclration de la convergence de ces
mthodes par des techniques de prconditionnement. Le lecteur
1 2 est renvoy aux rfrences [2] et [6], pour des complments
dinformation sur ces questions en pleine volution actuellement.
13 14 23 24

Bien sr, nous navons pas fait le tour de tous les problmes
danalyse et dalgbre qui sont en relation avec la simulation
31 32 41 42 numrique des quations aux drives partielles. Cependant, nous
avons donn un bref aperu dune problmatique abstraite en rela-
3 4 tion avec un trs grand nombre dapplications concrtes.
33 34 43 44
Pour de plus amples renseignements concernant les algo-
rithmes numriques pour la rsolution de grands systmes, le
lecteur pourra consulter les rfrences [7] [17].
Figure 2 Dcomposition de Schur : dcomposition rcursive

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 9
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________

Rfrences bibliographiques

[1] BARANGER (J.). Analyse numrique. [7] AXELSON (O.) et BARKER (V.A.). Finite [13] HACKBUSCH (W.) et TROTTENBERG (U.).
Hermann (1991). element solution of boundary value problems Multigrid methods. Lecture Notes in Mathe-
- Theory and computation. Academic Press matics, Springer-Verlag (1982).
[2] MEURANT (G.). Computer solution of large
(1984).
linear systems. North Holland (1999).
[8] AXELSON (O.). Iterative solution method. [14] SMITH (G.D.). Numerical solution of partial
[3] LASCAUX (P.) et THEODOR (R.). Analyse Cambridge University Press (1996). differential equations : Finite difference me-
numrique matricielle applique lart de thods. Clarendon Press (1984).
lingnieur. Tomes 1 et 2, Masson (1986). [9] BEREZIN (I.S.) et ZHIDKOV (N.P.). Computing
methods. Pergamon Press (1965).
[4] McCORMICK (S.). Multigrid methods. SIAM [15] WESSELING (P.). An introduction to multi-
[10] BRIGGS (W.). A multigrid tutorial. SIAM grid methods. John Wiley and Sons (1992).
(1987). (1988).
[5] HACKBUSCH (W.). Multigrid methods and [11] GASTINEL (N.). Analyse numrique linaire. [16] WILKINSON (J.H.). The algebraic eigenvalue
applications. Computational Mathematics, Hermann (1966). problem. Clarendon Press (1965).
Springer-Verlag (1980).
[12] GOLUB (G.H.) et VAN LOAN (C.F.). Matrix
[6] SAAD (Y.). Iterative methods for sparse linear computation. The Johns Hopkins Univ. Press. [17] YOUNG (D.M.). Iterative solution of large
systems. PWS Publishing Company (1996). (1983). linear systems. Academic Press (1971).

Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 10 Techniques de lIngnieur, trait Sciences fondamentales