Vous êtes sur la page 1sur 17

UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

Chapitre-IV : Méthode de résolution approximative des systèmes d’équations linéaires


(Méthodes itératives)

On considère le vecteur  =  ,  , … , 


où  ,  , … ,  appartiennent au corps des complexes.
Rappel Algébrique sur les Normes:

On dira que  ∈ ₵ ( X appartient à l’espace vectoriel de dimension n construit sur le corps des
complexes).

1. Normes vectorielle

Définition : On appelle norme vectorielle sur ₵ toute application de ₵ dans ƒ , notée X → ║X║ telle
que X,Y ∈ ₵ , α ∈ ƒ.

1. ║X ║ ˃ 0 ( ∀ X ≠ φ ) ( φ , vecteur nul de ₵ )
║φ ║ = 0

2. ║α X║ = α  . ║X║

3. ║X+Y║ ≤ ║X ║+ ║Y║

2. Normes de Hölder.

o ‖‖ =  ∑| | ⁄ ( ∈ ₵ ,  P t 1)


Théorème
L’application :

Est une norme vectorielle dite norme de Hölder.

3. Normes courantes.


On utilise couramment trois normes de Hölder :

‖‖ = | |

⁄

‖‖ =   

Que l’on nomme norme euclidienne ou norme de Hölder.

‖‖v = max | |


 

On appelle norme matricielle sur ₵ , toute application de ₵ , sur ƒ! notée "o ‖"‖ est telle que :
4. Normes matricielles.

1. ║A ║ ˃ 0 ( ∀ A ≠ 0)
║⊗ ║ = 0 (⊗ , matrice nulle )

2. ║α A ║ = α  . ║A║

51
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

3. ║A + B║ ≤ ║A║+ ║B║
4. ║A . B║ ≤ ║A║.║B║

5. Normes matricielles courantes.


Les normes les plus courantes sont :
‖"‖ = max $%# $
#

‖"‖ = U " ∗ "
⁄ ( ρ (A) désigne le rayon spectral de A).

‖"‖v = max $%# $



#
Ces normes sont équivalentes.

6. Rayon spectral.
Définition : soit A(n , n) une matrice complexe dont les n valeurs propres sont notées λi , alors :

U " = max |O |



(1 ≤ i ≤ n)
Est le rayon spectral de la matrice A.

IV.1 Introduction

On se pose le problème de la résolution du système linéaire de Cramer :

A.X=B ou  ∈ ƒ ou ₵

Où A est une matrice (n x n) de rang n. Les méthodes que nous présentons ci-après sont la généralisation au
cas n-dimensionnel des méthodes de résolution de f(x) = 0 étudiées dans le cas monodimensionnel du chapitre
précédent.

Ces méthodes consistent à utiliser un vecteur estimé initial :  ) =  ,  , … ,   de la solution exacte :
) ) )

 ∗ = ∗ , ∗ , … ,  ∗  du système et de générer une séquence de vecteurs :

 *! = + *  *, , … ,  *, 

Si la fonction d’itération+ * est indépendante de l’itération k, on dit que l’on a une itération stationnaire dans
le cas contraire, elle est dite non-stationnaire.

Si le calcul du vecteur  *! demande la connaissance des i vecteurs estimés qui le précèdent, on a une
formule itérative multi-pas ou à i pas (en d’autres termes, on a une récurrence d’ordre i).

une suite vectorielle  ) ,   , … ,     convergente (et) le plus rapidement possible, vers le vecteur solution
Dans ce chapitre on présentera quelques méthodes itératives stationnaires à un pas dans lesquelles on génère

X*. (Dans ce cas, on dira que la méthode converge).

52
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

IV.2 Principe des itérations successives.

On veut résoudre le système linéaires : A . X = B (1)

Où A est une matrice carrée d’ordre n.

Ecrivons A sous la forme A = M-N (M doit être régulière c.-à-d. inversible) alors le système peut s’écrire :

(M - N). X = B

Ou encore : MX=NX+B

La méthode itérative associée à l’égalité précédente consiste, à partir d’un vecteur initial X(0) à générer la suite

  ,   , … ,  *! de la manière suivante :

  = -, . ) + -, 0

  = -, .  + -, 0

……………………………….

 *! = -, . * + - , 0

Cette suite d’égalité peut être représentée par la relation itérative suivante :

 *! = 1 * + 2 k = ,1,2,…. (2)

où 1 = -, . 34 2 = - , 0

La matrice d’itération T et le vecteur V sont indépendant de k.

La question que l’on se pose à propos de la méthode itérative de résolution de l’équation (1) par :

 *! = 1 * + 2

Est celle de la convergence. En d’autres termes  *! converge-t-il vers le vecteur solution, définissons le
vecteur d’erreur :

3 * =  * −  ∗

Associé à la k-ième itération.

Comme X* vérifie :  ∗ = 1 ∗ + 2 et  * = 1 *, + 2

En soustrayant les deux équations précédentes on obtient : 3 * = 13 *,

Soit pour k = ,1,2,…. :

3  = 13 ) ; 3  = 13  = 1  3 ) ; 3 7 = 13  348 …

Et :

3 * = 13 *, = 1 * 3 ) .

53
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

La convergence de ce processus est assurée si, quel que soit 3 ) (donc quelque soit  ) ), on a :

lim 3 * = 0 lim 1 * 3 ) = 0 quelque soit 3 ) .


*→< *→<
ou

lim 1 * = > où 0 note ici la matrice nulle.


*→<
Ce qui revient à dire :

On tire le théorème suivant sur la convergence du processus.

Théorème :

La suite définie par  ) ∈ ₵ et  *! = 1 * + 2 converge vers  ∗ = ? − 1, 2 quelque soit
 ) si et seulement si : U 1  1 .

Comme on a, d’une manière générale : U " d ║A║ une condition suffisante de convergence de l’équation (2)
est telle que ║T║≤ 1 puisque alors obligatoirement U 1  1.

Cette condition sur une norme de T nous fournit donc une condition de convergence du processus itératif (2).

IV.3 Décomposition de la matrice A.


Il est évident que nous devons choisir une matrice T qui assure la convergence et telle que TX+V ne soit pas

façon que M soit facilement inversible et vérifie U -, .  1 (ou ce qui est suffisant : ║-, . ║ 1).
chère à calculer. Nous allons donc chercher des décompositions de la forme M – N de la matrice A de telle

Définissons les matrices D, L, U telles que :

A = % B D matrice diagonale.

C# = −%# pour B > E

C# = 0 pour B ≤ E
L matrice inferieure

G# = −%# pour E > B

G# = 0 pour E ≤ B
U matrice supérieure

K
 J 
L

A partir de cela on a la relation :


1. Méthode de Jacobi.
A = M – N ou M = D et N=L+U

2. Méthode de Gauss-Seidel.
A = M – N ou M = D - L et N= U

J+U
H ,I
3. Méthode de relaxation.
I I
A = M – N ou M = -L et N=

54
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

La matrice T sera pour chacune des trois méthodes précédentes :

Jacobi : 1M = J, . L + K

Gauss-Seidel : 1OP = J − L, . K


,
Relaxation : 1I = Q − LR . J + K
H ,I
I I

IV.4 Méthode de Jacobi


IV.4.1 Principe.
La matrice A étant décomposée en : A= M – N = D – ( L + U )
Le système AX=B devient alors : D X = ( L + U ) X + B
La méthode itérative de Jacobi s’écrit donc :

J  *! = L + K * + 0


Soit :

 *! = J, L + K * + J , 0 (3)


Qui peut s’écrire sous forme développée :

 = S −%  −%7 7 − ⋯ −%  /%


*! * * *

 = S −%  −%7 7 − ⋯ −%  /%


*! * * *
(4)

………………………………………………………..

 = S −%   −%   − ⋯ −% ,  , /%
*! * * *

Cette méthode suppose des pivots % non nuls (si ce n’est pas le cas un simple échange de lignes suffit souvent
pour vérifier cette condition).

L’itération (4) est du type  *! = +  *  ou F est une fonction linéaire. Nous sommes donc en présence
d’une itération linéaire, stationnaire (F ne dépend pas de k) à un pas.

IV.4.2 Tests d’arrêt des itérations.


Si l’on note r le vecteur résidu :

V * = S − " *

V = S − ∑ # %# # 


* *
Ou encore :

< [ (où ε est une précision choisie petite).


║W X ║
Un critère courant est d’arrêter les itérations quand :
║Y║

Un autre test couramment utilisé concerne l’amélioration relative sur X. On arrête d’itérer quand :

55
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

║ * −  *, ║
<[
║ * ║

Au cas où on est sûr des conditions de convergence de la méthode ce test est « pratiquement » équivalent au
test précédent. On arrête aussi parfois quand :

║ * −  *, ║ < [

valeurs initiales les composantes de vecteur  ) .


En résumé, l’algorithme de Jacobi peut donc être représenté de la manière suivante en se donnant comme

IV.4.3 Algorithme de Jacobi.

Algorithme de Jacobi pour la résolution de AX=B

0) Etant donnés B, A, X(0), kmax,[ , [


1 V = S − ∑ # %# # , B = 1, \
* *

X ` k=0,1,2,…,kmax
2  =  + , B = 1, \
*! * W^
(5)
_^^

< [ dG ║ * −  *, ║ < [


║a ,a Xbc ║
X

║a X ║
3) arrêter si :

IV.4.4 Conditions de convergence de Jacobi.

L’itération de Jacobi, s’écrit :

 *! = J, L + K * + J , 0

Soit :  *! = 1M  * + 2

Pour assurer la convergence, on doit avoir U 1M   1 , comme le calcul de U 1M  est très souvent compliqué, on se
contente de la condition suffisante à savoir eM e  1. Ceci se traduit par ∑
#$4# $ 1 ,  B


Ou encore parceque 1M = J, L + K :

∑ #$C# + G# $ $A# $ ,  B

Soit en revenant au système original (1) la condition suffisante s’écrit :

$%# $ |% | ,  B = 1, \
#
 z#

Ce qui s’énonce par le théorème suivant :

56
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

Théorème : Une condition suffisante pour que 1M converge est que A du système AX = B soit à diagonale
fortement dominante.

Application : Soit le système suivant

3x1 + x 2 − x3 = 2

 x1 + 5 x 2 + 2 x3 = 17
2 x − x − 6 x = −18
 1 2 3

La méthode de Jacobi s’écrit dans ce cas :

1
 =
Q2 −  + 7 R
*! * *
3
1
 = Q17 −  − 27 R
*! * *
5
1
7 = Q−18 − 2 +  R
*! * *
−6
A partir de [0 0 0 ]T, on trouve d’abord :

1 2
 = 2 − 0 + 0 =
3 3
1 17
 = 17 − 0 − 0 =
5 5
1 −18
7 = −18 − 0 + 0 = =3
−6 −6
La deuxième itération donne :

1 17 8
 = k2 − + 3l =
3 5 15
1 2 31
 = k17 − − 23l =
5 3 15
1 2 17
7 = k−18 − 2 k l + l = 2,655 556
−6 3 5

On finit par remplir le tableau suivant.

57
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

k x1k x2k x3k Remarque : Les valeurs convergent vers la


solution [1 2 3]T. La convergence est cependant
---- ------------- ------------- ------------ assez lente.
0 0.000000 0.000000 0.000000

1 0.666667 3.400000 3.000000

2 0.533333 2.066667 2.655556

3 0.862963 2.231111 2.833333

4 0.867407 2.094074 2.915802

5 0.940576 2.060198 2.940123

6 0.959975 2.035835 2.970159

7 0.978108 2.019941 2.980686

8 0.986915 2.012104 2.989379

9 0.992425 2.006865 2.993621

10 0.995585 2.004067 2.996331

IV.5 Méthode de Gauss-Seidel.

IV.5.1 Principe.
La matrice A étant décomposée en : A= M – N = (D – L) – U
Dans la méthode itérative de Gauss-Seidel, on réécrit (2) de la manière suivante :

 *! = J − L, K * + J − L, 0 (6)

Comme l’inverse de (D – L) peut-être compliquée à calculer, on préfère écrire le système comme :

J − L  *! = K * + 0

Soit encore :

J  *! = L *! + K * + 0


Ou :

 *! = J, L *! + J, K * + J, 0 (7)


En développant cette récurrence vectorielle on obtient :

 = S −%  −%7 7 − ⋯ −%  /%


*! * * *

58
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

 = S −%  −%7 7 − ⋯ −%  /%


*! *! * *
(8)

………………………………………………………..

 = S −%   −%   − ⋯ −% ,  , /%
*! *! *! *!

Cette méthode ne diffère de celle de Jacobi que par l’emploi immédiat qui est fait des nouveaux estimés  *!
à l’itération (k+1). En effet dans l’expression des  il faut bien remarquer que tous les #
*! *!

Qui apparaissent à droite du signe égal ont été calculées dans les étapes qui précèdent.

Comme pour la méthode de Jacobi, les pivots % doivent être nuls.

IV.5.2 Algorithme de Gauss-Seidel.

Algorithme de Gauss-Seidel pour la résolution d’un système linéaire AX=B

0) Etant donnés B, A, X(0), kmax,[ , [


1  = S − ∑, # %# # − ∑ #! %# #
/% ⎫
*! *! *

B = 1, \ ⎪

Xuc X
st^ ,t^ s
2 arrêter si ∶ < [ dG s −  s < [ ⎪
(9)
*! *
k=0,1,2,…,kmax


Xuc
st^ s

IV.5.3 Condition pour la convergence de Gauss-Seidel.

La formule itérative (5) permet de définir la matrice d’itération de Gauss-Seidel par :

1OP = J − L, K

Et le vecteur V par :

2OP = J − L, 0

La méthode de Gauss-Seidel converge si ‖1OP ‖ < 1, ce qui se traduit aussi par :

$%# $ |% | , zdGV B = 1, \


#
 z#

Il s’ensuit que la méthode de Gauss-Seidel est aussi convergente quand A est à diagonale fortement dominante.

59
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

Application : Soit le système suivant

3x1 + x 2 − x3 = 2

 x1 + 5 x 2 + 2 x3 = 17
2 x − x − 6 x = −18
 1 2 3

La méthode de Gauss-Seidel s’écrit dans ce cas :

1
 = Q2 −  + 7 R
*! * *
3
1
 = Q17 −  − 27 R
*! *! *
5
1
7 = Q−18 − 2 +  R
*! *! *!
−6

Notons la différence avec la méthode de Jacobi au niveau des indices. Partant de [0 0 0 ]T, on trouve
d’abord :

1 2
 = 2 − 0 + 0 =
3 3
1 2 49
 = k17 − − 0l =
5 3 15
1 2 49 241
7 = k−18 − 2  + l =
−6 3 15 90
La deuxième itération donne :

1 49 241
 = k2 − + l = 0,4703704
3 15 90
1 241
 = k17 − 0,4703704 − 2 l = 2,234815
5 90
1
7 = −18 − 20,4703704 + 2,234815 = 2,784321
−6

On finit par remplir le tableau suivant

60
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

k x1k x1k x3k Remarque : On constate que, pour un même


nombre d’itérations, la solution approximative
---- ------------- ------------- ------------ obtenue par la méthode de Gauss-Seidel est plus
0 0.000000 0.000000 0.000000 précise. La méthode de Gauss-Seidel converge
généralement plus vite que la méthode de Jacobi,
1 0.666667 3.266667 2.677778 mais pas toujours.
2 0.470370 2.234815 2.784321

3 0.849835 2.116305 2.930561

4 0.938086 2.040158 2.972669

5 0.977503 2.015432 2.989929

6 0.991499 2.005729 2.996212

7 0.996828 2.002150 2.998584

8 0.998811 2.000804 2.999470

9 0.999555 2.000301 2.999802

IV.6 Méthode de SOR (Successive Over Relaxation).

IV.6.1 Principe.

Gauss-Seidel mais qui converge plus rapidement. Pour cela introduisons le paramètre Z ≠ 0 et posons :
Nous présentons dans cette section une méthode d’itération qui a les mêmes avantages que la méthode de

~ *! =  * + Z  *! −  * € (10)

 *! est le vecteur estimé par la méthode de Gauss-Seidel.

Si ω = 1, on retrouve la méthode de Gauss-Seidel.

Si ω > 1, on détermine la méthode de sur-relaxation.

Si ω < 1, on détermine la méthode de sous-relaxation.

L’algorithme (9) nous donne le développement de  *! :

 = S − ∑,
# %# # − ∑ #! %# #
/% , zdGV B = 1, \
*! *! *
(11)

L’équation (10) nous permet alors d’écrire :

61
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

,

̅ =  + Z ‚S −  %# # −  %# # /% −  ` , zdGV B = 1, \


*! * *! * *

# #!

Soit :

,

̅ =  + Z ‚S −  %# # −  %# # − %  /% `


*! * *! * *

# #!

Finalement en faisant entrer sous le deuxième signe somme la quantité % 


*!
on obtient :

̅ =  + _ ƒQS − ∑,


# %# # − ∑ # %# # R„
*! * Z *! *
(12)
^^

IV.6.2 Algorithme de Relaxation.

En résumé l’algorithme de sur ou sous-relaxation s’écrit :

Algorithme de relaxation pour la résolution de AX=B

0) Etant donnés B, A, X(0), kmax,[ , [ , ω


 = 1 − Z + Z …S − ∑,
# %# # − ∑ #! %# # †/% „ k=0,1,2,…,kmax
*! * *! *

Pour i = 1,2, …, n (13)


1) On arrête si l’une des conditions suivantes est vérifiée.
s −  s < [
*! *

s −  s
*! *

< [ , ∀ B = 1, \
s s
*!

Nombres de places mémoires.

la mémorisation de A, B et  * : n2+2n ou 2n places si A n’est pas mémorisée.


La consommation en places en places mémoires est identique à celle de Gauss-Seidel ce qui représente pour

IV.6.3 Représentation matricielle de la méthode de Relaxation.

Ecrivons l’équation (12) sous la forme :


,

% ̅  + Z  %# # = %  − % Z  − Z  %# # + Z S


*! *! * * *

# #!

Ce qui donne l’écriture matricielle :

62
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

J − Z L *! = ˆ1 − ZJ + Z K‰ * + Z 0

Comme J − Z L est non singulière pour tout choix de ω, alors en supposant que l’on a normalisé le système
AX = B afin que tous les termes diagonaux de A soit égaux à l’unité (en multipliant par D-1), on a avec :

Š = J, L, + = J, K

? − Z Š *! = ˆ1 − Z? + Z +‰ * + Z 0

La méthode itérative de relaxation s'écrit alors :

 *! = ? − Z Š, ˆ1 − Z? + Z +‰ * + Z ? − Z Š, 0 (14)

Soit sous la forme :

 *! = 1Z  * + 2Z

Où :

1Z = ? − Z Š, ˆ1 − Z? + Z +‰

et :

2Z = Z ? − Z Š, 0

On remarque ici que l’équation (14) est une méthode itérative stationnaire ; en fait, la méthode de relaxation
est un cas particulier d’un ensemble plus vaste de méthode de méthode d’accélération des processus itératifs.

IV.6.4 Critères d’arrêts des itérations de Gauss-Seidel et de relaxation

Rappelons que la méthode de Gauss-Seidel est un cas particulier de l’algorithme de relaxation avec ω = 1.

L’algorithme de relaxation ne calcule pas explicitement le vecteur résidu V * = 0 − " * . On ne peut donc
pas construire un critère d’arrêt sur ce vecteur. Montrons cependant qu’il est lié au vecteur V̅ * suivant :

V̅ = S − ∑,
# %# # − ∑ # %# #
* *! *
(15)

L’algorithme (13) peut alors s’écrire :

 =  + V̅
*! * Z *
_^^
(16)

Sous forme vectorielle (15) s’écrit :

V̅ * = 0 − L *! − K * − J *

Le vecteur résiduel s’écrit par définition :

V *! = 0 − L *! − K *! − J *!

Qui peut s’écrire sous la forme :

63
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

V *! = V̅ * + K * − K *! + J * − J *!

Ou :

V *! = V̅ * − K + J  *! −  *  (17)

En introduisant (16) et (17) on obtient :

V *! = V̅ * − K + J Z J, V̅ *

D’où l’on tire :

V *! = ˆ1 − Z? − Z KJ, ‰ V̅ * (18)

Des relations (16) et (18) on voit que si ω n’est pas trop proche de zéro alors un test du type :

< [ est équivalent au test : ║r║/║b║ < [ .


║a Xuc ,a X ║
║a Xuc ║

IV.6.5 Convergence de la méthode de relaxation

Nous cherchons les limites de ω entre lesquelles nous sommes assurés de la convergence de la méthode. Nous
étudierons brièvement 3 cas :

Théorème : (conditions sur le paramètre ω)

de relaxation converge (∀  ) ∈ Œ  est que Z ∈


0,2.
 Cas d’une matrice A quelconque (mais inversible) : Une condition nécessaire pour que la méthode

que Z ∈
0,1
.
 Cas d’une matrice A à diagonale dominante stricte : Une condition suffisante de convergence est

seulement si : Z ∈
0,2
 Cas d’une matrice symétrique définie positive : La méthode de relaxation est convergente si et

Application 1: Soit à résoudre le système suivant :


3 −  + 7 = −1
− + 3 − 7 = 7
 −  + 37 = −7

a) Vérifiez, que la méthode SOR avec une valeur de ω = 1,25 du paramètre relaxation peut être utilisé

b) Calculer la première itération par la méthode SOR à partir du vecteur initial  ) = 0, 0, 0Ž .
pour résoudre ce système.

Solution :

a) Vérifions une condition suffisante pour pouvoir utiliser la méthode SOR. Nous devons vérifier, si la
matrice A est symétrique et définie positive : A est symétrique, alors vérifions si elle est définie
positive :

64
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

3 −1 1
3 −1
det3 = 3 > 0 ; A34 … † = 8 > 0 ; A34 −1 3 −1‘ = 20 > 0
−1 3
1 −1 3

savons aussi que les matrices définies positives la méthode SOR converge pour une valeur de : 0 < Z < 2.
On constate que tous les mineurs principaux sont positifs, ce qui prouve que A est définie positive. Nous

En conclusion, la méthode SOR avec ω = 1,25 peut être utilisée pour résoudre ce système.

b) Au début, la méthode itérative de Gauss-Seidel s’écrit dans ce cas :

 = Q−1 +  − 7 R/3
*! * *

 = Q7 +  + 7 R/3
*! *! *

7 = Q−7 −  +  R/3
*! *! *!

c) Maintenant, la méthode itérative de Relaxation après avoir ajouté le paramètre ω et le vecteur  *
s’écrit dans ce cas :

 = 1 − Z  + Z Q−1 +  − 7 R/3
*! * * *

 = 1 − Z  + Z Q7 +  + 7 R/3
*! * *! *

7 = 1 − Z 7 + Z Q−7 −  +  R/3
*! * *! *!

d) Pour ’ = 0, 1, 2, … on calcule  *! à partir de ces équations :

 = 1 − Z  + Z Q−1 +  − 7 R/3 = 0 + 1,25 −1 + 0 − 0/3 = −0,4166


 ) ) )

 = 1 − Z  + Z Q7 +  + 7 R/3 = 0 + 1,25 7 − 0,4166 + 0/3 = 2,7431


 )  )

7 = 1 − Z 7 + Z Q−7 −  +  R/3 = 0 + 1,25 −7 + 0,4166 + 2,7431/3 = −1,6001


 )  

On finit par remplir le tableau suivant :

k x1k x1k x3k


Remarque : Les valeurs convergent vers la solution [1 2 -2]T.
---- ------------- ------------- ------------ La convergence est cependant très rapide.
0 0.000 0.000 0.000

1 -0.417 2.743 -1.600

2 1.497 2.188 -2.229

3 1.049 1.878 -2.014

4 0.943 2.001 -1.972

5 1.003 2.013 -2.003

6 1.006 1.998 -2.002

65
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

Application 2 : Soit le système suivant

3x1 + x 2 − x3 = 2

 x1 + 5 x 2 + 2 x3 = 17
2 x − x − 6 x = −18
 1 2 3

La méthode de Gauss-Seidel s’écrit dans ce cas :

1
 = Q2 −  + 7 R
*! * *
3
1
 = Q17 −  − 27 R
*! *! *
5
1
7 = Q−18 − 2 +  R
*! *! *!
−6

dominante stricte) et le vecteur  * s’écrit dans ce cas :


Maintenant, la méthode itérative de Relaxation après avoir ajouté le paramètre ω = 1 (matrice à diagonale

 = 1 − Z  + Z Q2 −  + 7 R/3
*! * * *

 = 1 − Z  + Z Q17 −  − 27 R/5


*! * *! *

7 = 1 − Z 7 + Z Q−18 − 2 +  R/−6


*! * *! *!

a) Pour ’ = 0, 1, 2, … on calcule  *! à partir de ces équations :

 = 1 − Z  + Z Q2 −  + 7 R/3 = 0 + 1 2 − 0 + 0/3 = 0,6667


 ) ) )

 = 1 − Z  + Z Q17 −  − 27 R/5 = 0 + 1 17 − 0,6667 + 2.0/5 = 3,2667


 )  )

7 = 1 − Z 7 + Z Q−18 − 2 +  R/−6 = 0 + 1 −18 − 2.0,6667 + 3,2667/−6 = 2,6778


 )  

La deuxième itération donne :

 = 1 − Z  + Z Q2 −  + 7 R/3 = 0 + 1 . 2 − 3,2667 + 2,6778/3 = 0,4704


   

 = 1 − Z  + Z Q17 −  − 27 R/5 = 0 + 1 . 17 − 0,4704 − 2.2,6778/5 = 2,2348


   

7 = 1 − Z 7 + Z Q−18 − 2 +  R/−6 = 0 + 1 . −18 − 2.0,4704 + 2,2348/−6 = 2,7843


   

66
UHBC, Département de mécanique 2ème LMD (S4) Cours d’analyse numérique

On finit par remplir le tableau suivant

k x1k x2k x3k Remarque : On constate que, pour un même


nombre d’itérations, la solution approximative
---- ------------- ------------- ------------ obtenue par la méthode de Relaxation est la
0 0.0000 0.0000 0.0000 même que celle obtenue par la méthode de
Gauss-Seidel.
1 0.6667 3.2667 2.6778

2 0.4704 2.2348 2.7843

3 0.8498 2.1163 2.9306

4 0.9381 2.0402 2.9727

5 0.9775 2.0154 2.9899

6 0.9915 2.0057 2.9962

7 0.9968 2.0021 2.9986

8 0.9988 2.0008 2.9995

9 0.9996 2.0003 2.9998

Remarques :

1. Une simple permutation de lignes peut transformer une convergence en une divergence ou
inversement.
2. La méthode de Gauss-Seidel est plus rapide en convergence que la méthode de Jacobi. En effet dans
une même itération on utilise pour calculer une nouvelle composante, celle qu’on vient de calculer.
Donc intuitivement le (k+1)ème itéré est plus proche (en certain sens) de la limite, pour la méthode de
Gauss-Seidel que pour la méthode de Jacobi.
3. Il y a d’autres méthodes itératives : Algorithme du gradient conjugué, méthode de KRYLOV.

IV.7 Conclusions sur les méthodes itératives

Les méthodes itératives sont généralement préférées pour les grands systèmes linéaires Ax=b à
matrices A creuse parce qu’elles ne modifient pas la matrice A et que dans un grand nombre d’applications A
est creuse et présente une structure particulière (tridiagonale, pentadiagonale) ce qui lui permet de ne pas être
mémorisée explicitement et d’assurer pratiquement la convergence.

Dans les méthodes élémentaires, la méthode de Gauss-Seidel est préférée à celle de Jacobi, parce qu’elle
consomme moins de mémoire et converge souvent plus vite. La méthode de Relaxation est généralement
beaucoup plus rapide que celle de Gauss-Seidel, même si le facteur optimal ω est réglé expérimentalement.

67

Vous aimerez peut-être aussi