Académique Documents
Professionnel Documents
Culture Documents
2 Cours Resolution Des Systemes Lineaires
2 Cours Resolution Des Systemes Lineaires
Dans toute la suite, n désigne un entier naturel non nul et A désignera une matrice carrée de n lignes
et n colonnes à coe¢ cients réels : A = (ai;j )(i;j)2f1;::ng f1;::ng . On note Mn (R) l’espace vectoriel (sur R) des
matrices carrées d’ordre n
2 3
a11 x1 + a12 x2 + : : : + a1n xn = b1
6 a21 x1 + a22 x2 + : : : + a2n xn = b2 7
On considère le système linéaire suivant: 6
4
7 :::: (S)
5
:::
an1 x1 + an2 x2 + : : : + ann xn = bn
2 3 2 3
a11 a12 ::: a1n b1
6 a21 a22 ::: a2n 7 6 b2 7
6 7 6 7 t
(S) () Ax = b avec A=6 .. .. .. 7; b = 6 .. 7 et x = [x1 ; x2 ; :::; xn ]
4 . . ::: . 5 4 . 5
an1 an2 : : : ann bn
Si, en colonnes, A s’écrit [C1 ; : : : ; Cn ], la solution de l’équation Ax = b est donnée coordonnée par coordonnée par
la formule: xi = det([C1 ;:::;Cdet(A)
i 1 ;b;Ci+1 ;:::Cn ])
; c’est la formule de Cramer.
On cherche à résoudre le système linéaire Ax = b ci-dessous en agissant sur les lignes ou les colonnes:
0 1 0 1 0 1
1 2 2 x1 2
Soit A = @1 3 2A ; x = @x2 A et b = @ 1A
3 5 8 x3 8
0 10 1 0 1 0 10 1 0 1 0 10 1 0 1
1 2 2 x1 2 1 2 2 x1 2 1 2 2 x1 2
@1 3 2A @x2 A = @ 1A @0 1 4A @x2 A = @ 3A @0 1 4A @x2 A = @ 3A
3 5 8 x3 8 L L1
3 5 8 x3 8 L 3L1
0 1 2 x3 2
2 3
Et l’opération L3 + L2 donne …nalement
2 32 3 2 3
1 2 2 x1 2
40 1 45 4 x2 5 = 4 3 5 :
0 0 2 x3 1
1
Finalement on peut trouver facilement x3 = 2 puis x2 = 5 et x1 = 13:
A.3.2. Théorème
Étant donné une matrice A 2 Mn (R), on suppose qu’à chaque étape du processus d’élimination de Gauss le pivot
est non nul, alors il existe une matrice L triangulaire inférieure à diagonale unité et une matrice U triangulaire
supérieure telle que A se décompose d’une manière unique sous la forme A = LU:
A.3.3. Théorème
Étant donné une matrice A 2 Mn (R), si tous les déterminants des sous matrices principales 4k , k 2 f1; ::ng sont
non nuls alors A se décompose d’une manière unique sous la forme A = LU:
2 3
a11 a12 ::: a1k
6 a21 a22 ::: a2k 7
6 7
Les sous matrices principales 4k sont 4k = 6 .. .. .. 7:
4 . . ::: . 5
ak1 ak2 : : : akk
A.3.4. Algorithme:
Étant donné une matrice A 2 Mn (R); A = (ai;j )(i;j)2f1;::ng f1;::ng : On dé…nit A(0) = A et on va construire les
matrices A(1) ; A(2) ; :::A(k) ; :::A(n 1) itérativement, en ayant pour objectif que la matrice A(k) ait ses k
A(k 1)
, on élimine les éléments sous la diagonale en ajoutant à la i ème ligne de cette matrice, la k ième ligne
(k 1)
aik
multipliée par : lik = (k 1) pour i 2 fk + 1; :::ng :
akk
Notons U , la matrice triangulaire supérieure A(n 1) . et L = L1 1 L2 1 :::Ln 1 1 . Sachant que l’inverse d’une matrice
triangulaire inférieure est aussi une matrice triangulaire inférieure et que le produit de deux matrices triangulaires
inférieures est encore une matrice triangulaire inférieure, L est donc une matrice triangulaire inférieure.
On obtient A = LU .
(k 1)
Au vu de l’algorithme, il est nécessaire que akk 6= 0 à chaque itération. Si, au cours du calcul, ce cas de …gure
venait à se produire, il faut permuter la k ième ligne avec une autre pour pouvoir continuer.
A.3.4.1. Exemple:
Soit la matrice
2 3
2 2 3 1
6 6 1 2 47
A = A(0) = 644
7
1 0 15
2 12 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
6 3 1 0 07 60 5 7 17 63 1 0 07
Soit L1 = 6 7 (1) (0) 6
4 2 0 1 05 =) A = L1 A = 40
7 et A = L A ; L = 6
(0) 1 (1) 1 7
5 6 15 1 1 42 0 1 05
1 0 0 1 0 10 3 0 1 0 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
60 1 0 07 6 17 6 0 07
Soit L2 = 6 7 =) A(2) = L2 A(1) = 60 5 7 7 et A(1) = L 1 A(2) ; L 1 = 60 1 7
40 1 1 05 40 0 1 25 2 2 40 1 1 05
0 2 0 1 0 0 17 2 0 2 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
60 1 0 07 6 1 7 6 07
6
Soit L3 = 4 7 =) A(3) = L3 A(2) = 60 5 7 7 et A(2) = L 1 A(3) ; L 1 = 60 1 0 7
0 0 1 05 40 0 1 25 3 3 40 0 1 05
0 0 17 1 0 0 0 32 0 0 17 1
On a vu que l’existence de la décomposition A = LU est soumise à des conditions sur la matrice inversible A = LU
(la première d’entre elles étant que a11 6= 0). Chacune de ces conditions équivaut à la non-nullit́é d’un coe¢ cient
utilisé́ comme pivot. Si un tel pivot est nul, la dé́composition est impossible, à moins qu’on ne puisse continuer
moyennant un é́change de lignes.
Si ce pivot est “presque nul”, on utilisera encore un échange de lignes (sinon la division par le pivot conduit à une
impré́cision importante.)
Ces considé́rations conduisent à envisager la dé́composition P A = LU ou P est une matrice de permutation.
C’est ce qu’on appelle la factorisation de Gauss avec pivot partiel.
Soit P 2 Mn (R); P = (pi;j )(i;j)2f1;:::ng f1;:::ng : On dit que P est une matrice de permutation s’il existe
une permutation de f1; 2; :::ng telle que pi;j = (i);j (notations de Kronecker), pour tous indices
i et j. Pour toute matrice A 2 Mn (R);la matrice P A se dé́duit de A par la permutation appliqué́e
aux lignes de A : pour tout i de f1; :::; ng, la ligne d’indice i de P A est en e¤et la ligne d’indice
(i) de A:
A.3.5.1. Remarque
Pour toute matrice de permutation P; on a P = P t = P 1 ; c’est à dire P 2 = In (In matrice identité de Mn (R) )
(k)
Pour choisir le pivot maximum, à l’étape k, le pivot aik est choisi de la manière suivante:
n o
(k) (k)
aik = max alk ; l 2 fk; :::ng ; 8k 2 f1; :::ng :
A.3.5.2. Exemple:
Soit la matrice
2 3
0; 6 1; 52 3; 5
A = A(0) = 4 2 4 1 5 ; le maximum dans la première colonne est égal à 2;
1 2; 8 1
2 3 2 3
0 1 0 2 4 1
soit la matrice de permutation P1 = 41 0 05 =) P1 A(0) = 40; 6 1; 52 3; 55 .
0 0 1 1 2; 8 1
2 3
0 1 0
Ainsi on déduit P A = LU avec P = P2 P1 = 40 0 15 ; A = A(0) ;
1 0 0
2 32 32 32 3 2 3
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
L = P2 L1 1 P2 L2 1 = 40 0 15 40; 3 1 05 40 0 15 40 1 05 = 40; 5 1 05
0 1 0 0; 5 0 1 0 1 0 0 0; 4 1 0; 3 0; 4 1
2 3
2 4 1
et U = A(2) = 40 0; 8 0; 55 On peut véri…er que:
0 0 3
2 32 3 2 3 2 32 3
0 1 0 0; 6 1; 52 3; 5 2 4 1 1 0 0 2 4 1
P A = 40 0 154 2 4 1 5=4 1 2; 8 1 5 = LU = 40; 5 1 05 40 0; 8 0; 55
1 0 0 1 2; 8 1 0; 6 1; 52 3; 5 0; 3 0; 4 1 0 0 3
Dans le cas général, c’est la même méthode utilisée dans la décomposition LU mais avec à chaque étape
l’intervention d’une matrice de permutation.
8 9
>
> A = A(0) >
>
>
> >
>
>
> >
>
>
> >
>
< P = Pn 1 :::P2 P1 =
>
> 1 >
>
>
> L = L01 L02 :::L0n 1 avec L0k = Pn 1 :::Pk+1 Lk Pk+1 :::Pn 1 >
>
>
> >
>
>
> >
>
: ;
U = A(n 1)
Soit A une matrice d’ordre n, alors A admet une factorisation LDV si et seulement si il existe une matrice
L triangulaire inférieure à diagonale unité, D une matrice diagonale et V une matrice triangulaire supérieure
à diagonale unité. C’est ce qu’on appelle la factorisation de Gauss-Jordan.
A.4.2. Théorème
Soit A une matrice d’ordre n, si A admet une décomposition A = LU alors A admet une factorisation LDV
et réciproquement:
Ly = b;
Ax = b () LU x = b ()
U x = y;
C’est à dire au lieu de résoudre le système Ax = b (en général di¢ cile), on va résoudre deux systèmes triangulaires
simples à savoir Ly = b et U x = y:
Ly = b0 ;
Ax = b () P Ax = P b = b0 () LU x = b0 ()
U x = y;
A.6. Dé…nition (la factorisation de Doolitle)
Soit A une matrice d’ordre n, alors la factorisation de Doolitle de A est la même que celle de Gauss A = LU ,
c’est à dire L est une matrice triangulaire inférieure à diagonale unité et U est une matrice triangulaire
supérieure mais L et U se calcule par identi…cation avec A.
A.7.1. Dé…nition:
Soit A une matrice d’ordre n, alors A est une matrice Symétrique, Dé…nie et Positive (SDP) si elle véri…e :
1) A est symétrique c’est à dire A = At .
2) Pour tout x 2 Rn , xt Ax 0 avec égalité si et seulement si x = 0:
A.7.2. Théorème
Soit A une matrice d’ordre n, alors A est une matrice symétrique et dé…nie positive si et seulement si
tous les déterminants des sous matrices principales 4k , k 2 f1; ::ng sont strictement positifs.
A.7.3. Théorème
Soit A une matrice d’ordre n, alors A est une matrice symétrique et dé…nie positive si et seulement si toutes
les valeures propres de A sont strictement positives.
A.7.4. Théorème
Soit A une matrice d’ordre n, symétrique et dé…nie positive, alors il existe une matrice R triangulaire inférieure
et une matrice Rt triangulaire supérieure telle que A se décompose sous la forme A = RRt :
C’est ce qu’on appelle la factorisation de Cholesky.
A.7.5. Remarque:
Cette factorisation est unique si on impose aux éléments diagonaux de R (les rii ) d’être tous positifs.
P
n minfi;jg
P
De l’égalité A = RRt ; on déduit : ai;j = (RRt )i;j = rik rjk = rik rjk ; 1 i; j n
k=1 k=1
puisque rpq = 0 si 1 p<q n:
La matrice A étant symétrique, il su¢ t que les relations ci-dessus soient véri…ées pour i j, c’est-à-dire que
les éléments rij de la matrice R doivent satisfaire :
P
i
ai;j = rik rjk ; 1 i j n
k=1
On détermine la i ème colonne de R (2 i n), après avoir calculé les (i 1) premières colonnes :
s
iP1
rii = aii 2 ; 2
rik i n
k=1
iP1
aji rik rjk
k=1
et rji = rii ; i+1 j n
La décomposition de Cholesky alternative permet d’éviter l’utilisation des racines carrées au sein des sommes,
source potentielle de problème en calcul numérique, elle se calcule de la façon suivante :
On calcul d’abord A = LU = LDLt car A est une matrice symétrique avec D est une matrice diagonale,
et L une matrice triangulaire inférieure avec des 1 sur sa diagonale.
1 1 1 1 1 1
Ensuite on déduit la décomposition A = LD 2 D 2 Lt = LD 2 (D 2 )t Lt = (LD 2 )(LD 2 )t
La dernière expression étant le produit d’une matrice triangulaire et de sa transposée, de la même manière
1
que dans la factorisation A = RRt . Dans ce cas R = LD 2 :
1
Notez que la racine carrée d’une matrice diagonale (ici, D 2 ) se calcule trivialement en prenant les racines
carrées de chacun de ses éléments.
A.7.8. Exemples
2 3 2 32 3
1 2 2 2 1 0 0 0 1 2 2 2
62 20 20 20 7 62 4 0 07 60 4 4 47
6 7=6 76 7 = RRt
42 20 101 1015 42 4 9 0 5 40 0 9 95
2 20 101 357 2 4 9 16 0 0 0 16
0 1 0 10 1 1 1 1
1 1=2 1=3 1=4 1 0
p 0 0 1 p
2 p
3 4p
B 1=2 1=3 1=4 1=5 C B 1 1 CB 0 1 1 3 C
B C B 2 6 p3 0p 0 CB 6 3 6 p3 20 p3 C = RRt
@ 1=3 1=4 1=5 1=6 A = @ 1 1 1 A@ 0 1 1 A
3 6 p3 30 p5 0p 0 30 5 20 p5
1=4 1=5 1=6 1=7 1 3 1 1 1
4 20 3 20 5 140 7 0 0 0 140 7
Ry = b;
Ax = b () RRt x = b ()
Rt x = y;
Dans ce paragraphe, nous allons dé…nir la notion de conditionnement d’une matrice, qui peut servir à établir
une majoration des erreurs d’arrondi dues aux erreurs sur les données. La notion de conditionnement est
également utilisée dans l’étude des méthodes itératives que nous verrons plus loin. Pour l’étude du
conditionnement comme pour l’étude des erreurs, nous avons tout d’abord besoin de la notion de norme et de
rayon spectral, que nous rappelons maintenant.
A.8.1.1. Dé…nition:
Une norme vectorielle sur l’espace vectoriel Rn est une application k:k : Rn ! R+
qui véri…e les propriétés suivantes
8x; y 2 Rn ; 8 2 R;
1) kxk = 0 () x = 0Rn
2) k xk = j j : kxk
3) kx + yk kxk + kyk :
A.8.1.2.Exemples:
1
P
n 2
2) kxk2 = x2i :
i=1
Une norme matricielle sur l’espace vectoriel Mn (R) est une application k:k : Mn (R) ! R+
qui véri…e les propriétés suivantes 8 A; B 2 Mn (R); 8 2 R;
2) k Ak = j j : kAk
3) kA + Bk kAk + kBk :
On considère Rn muni d’une norme k:k. On appelle norme matricielle induite (ou norme induite) sur Mn (R)
par la norme k:k, encore notée k:k, la norme sur Mn (R) dé…nie par :
Soit k:kv une norme vectorielle sur Rn et k:km une norme matricielle sur Mn (R):
On dit que k:kv et k:km sont compatibles si et seulement si
kA:xkv kAkm : kxkv ; 8 A 2 Mn (R); 8 x 2 Rn :
A.8.4.1. Exemple
P
n
Sachant que (Ax)i = aij xj
j=1
1 ! 12 1
P
n 2 P
n P
n P
n 2
on a kA:xk2 = (Ax)2i a2ij : x2i = kAks : kxk2
i=1 j=1 i=1 i=1
C’est à dire kA:xk2 kAks : kxk2 donc k:k2 et k:ks sont compatibles.
! 12
P
n P
n
kAks = a2ij est une norme matricielle apellée norme de Shur ou Frobenius.
j=1 i=1
1. On munit Rn de la norme k:k1 et Mn (R) de la norme induite correspondante, notée aussi k:k1 .
P
n
Alors kAk1 = maxi2f1;::ng jaij j :
j=1
2. On munit Rn de la norme k:k1 et Mn (R) de la norme induite correspondante, notée aussi k:k1 .
P
n
Alors kAk1 = maxj2f1;::ng jaij j :
i=1
3. On munit Rn de la norme k:k2 et Mn (R) de la norme induite correspondante, notée aussi k:k2 .
1 1
Alors kAk2 = ( (At :A)) 2 = ( (A:At )) 2 :
1 1 1
En particulier, si A est symétrique alors kAk2 = ( (At :A)) 2 = (A2 ) 2
= (A)2 2
= (A):
A.8.7. Résultats:
2) 8 A 2 Mn (R); 8 " > 0; 9 une norme matricielle induite k:kA;" telle que kAkA;" (A) + ":
Soit Rn muni d’une norme k:kp et Mn (R) muni de la norme induite, en général p 2 f1; 2; 1g.
Soit A 2 Mn (R) une matrice inversible. On appelle conditionnement de A par rapport à la norme k:kp
le nombre réel positif Condp (A) dé…ni par : Condp (A) = kAkp : A 1 p :
Plus le Condp (A) est grand, plus la solution du système Ax = b est sensible .
Si le Condp (A) est grand par rapport à 1, on dit que la matrice A est mal conditionnée, c’est à dire des
petits changements sur les données induisent de large changements dans la solution x. Si au contraire
Condp (A) est proche 1; on dit que A est bien conditionnée.
A.8.8.1. Exemple:
Soit le système Ax = b
7 10 x b1 7 10
A= ;x= 1 et b = on a A 1
=
5 7 x2 b2 5 7
1
Par exemple si on calcul Cond1 (A) = kAk1 : A 1
= 17:17 = 289
Ici Cond1 (A) est grand par rapport à 1, on dit que la matrice A est mal conditionnée,
1 0 1; 01 0; 17
Si b = =) x = et si b = =) x =
0; 7 0; 1 0; 69 0; 22
On remarque que des petits changements sur b par exemple (de même pour des petits changements sur
les éléments de A) induisent de large changements dans la solution x.
2. Soit A 2 Mn (R) une matrice inversible et 2 R , alors Condp ( :A) = Condp (A) :
3. Soient A et B 2 Mn (R) des matrices inversibles, alors Condp (A:B) Condp (A) :Condp (B) :
.
Supposons que Ax = b et Ax0 = b0 .
On note x0 x = 4x et b0 b = 4b.
k4xk
Alors : kxk Cond (A) : k4bk
kbk :
k4xk
Alors : kx0 k Cond (A) : k4Ak
kAk :
A.8.11. Remarque:
L’erreur relative sur x est d’autant plus petite par rapport à l’erreur relative sur b si le Cond (A) est proche
de 1, de même dans le cas ou la perturbation concerne les coe¢ cients de A.
On s’intéresse à la résolution du système précédent Ax = b, avec A 2Mn (R). Les méthodes directes
fournissent la solution en un nombre …ni d’opérations. Mais si la taille du système est élevée, le nombre
d’opérations nécessaires est important, or les erreurs de calcul dépendent directement du nombre de calculs.
Elles utilisent des propriétés mathématiques nécessitant un calcul exact, il est di¢ cile de tenir compte
des erreurs de calcul dans ce processus donc le résultat n’est jamais rigoureusement égal à la solution exacte.
B.2. Dé…nition:
xn+1 = M xn + c; n 2 N
Pour A 2Mn (R); x; c 2 Rn ; on appelle itération linéaire toute suite
x0 2 Rn
La matrice M est appelée matrice d’itération.
B.3. Remarque:
Si la suite vectorielle (xn )n2N converge, et si on suppose que sa limite est égale à x;
alors x = M x + c; c’est à dire que x est la point …xe de la fonction vectorielle ' (x) = M x + c
Si on note l’erreur à l’ordre n par en = xn x
alors on a en = M (xn 1 x) = M en 1 : Par récurrence on montre que en = M n e0 :
B.4. Proposition:
xn+1 = M xn + c; n 2 N
Une itération linéaire converge 8x0 2 Rn si et seulement si (M ) < 1:
x0 2 Rn
De plus il existe une norme matricielle induite k:k telle que kM k = <1
n
et kxn xk 1 kx1 x0 k :
2 3
F
C’est à dire : A=4 D 5: On fait l’hypothèse que D est inversible,
E
1 1
Ax = b () (D E F ) x = b () Dx = (E + F ) x + b () x = D (E + F ) x + D b
21 32 3 2 5
3
3 0 0 0 5 6 0 3 2
La matrice d’itération D 1
(E + F ) = 4 0 1
7 0 54 4 0 1 5 = 4 47 0 1 5
7
1 1 1
0 0 8
2 1 0 4 8 0
B.5.1. Dé…nition:
1
J =D (E + F ) est la matrice d’itération de Jacobi.
B.5.2. Proposition:
1
2) Cette méthode converge si D (E + F ) < 1:
1
3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que D (E + F ) < 1:
B.5.3. Dé…nition:
P
n
si et seulement si jajj j > jajk j ; 8j 2 f1; ::ng.
k=1; k6=j
B.5.4. Proposition:
Soit A une matrice à diagonale dominante stricte, alors la méthode de Jacobi associée
au système linéaire Ax = b converge 8x0 2 Rn :
2 3 1 2 3 2 1
32 3
3 0 0 0 5 6 3 0 0 0 5 6
1
(D E) F = 4 4 7 05 40 0 15 = 4 4
21
1
7 0 5 40 0 15
5 1 1
2 1 8 0 0 0 84 56 8
0 0 0
2 5
3
0 3 2
1
Donc (D E) F = 40 20
21 1 5
25 3
0 84 8
B.6.1. Dé…nition:
B.6.2. Proposition:
1
2) Cette méthode converge si (D E) F < 1:
1
3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que (D E) F < 1:
B.6.3. Proposition:
Soit A une matrice à diagonale dominante stricte, alors la méthode de Gauss-Seidel associée
au système linéaire Ax = b converge 8x0 2 Rn :
1 n
alors = (D E) F < 1; de plus kxn xk1 1 kx1 x0 k1 :
1
1 1
A= !D + (1 ! )D E F
1 1
Ax = b () !D + (1 ! )D E F x=b
() ( !1 D E)x + (1 1
! )D F x=b
() ( !1 D E)x = ( 1 !! )D + F x + b
() x = ( !1 D E) 1
( 1 !! )D + F x + ( !1 D E) 1
b
2 3 1 2 1 ! 3
3 !1 0 0 3 ! 5 6
L! = ( !1 D E) 1 1 !
( ! )D + F = 4 4 7 !1 0 5 4 0 7 1 !! 1 5
2 1 8 !1 0 0 8 1 !!
2 3 1 2 3
3 !1 0 0 1
3! 0 0
On a ( !1 D E) 1
= 4 4 7 !1 0 5 =4 4 2
21 !
1
7! 0 5
2 1 8 !1 1 2
12 ! 1 3
+ 42 ! 1 2
56 !
1
8!
2 1
32 1 ! 3
3! 0 0 3 ! 5 6
L! = ( !1 D E) 1
( 1 !! )D + F = 4 4 2
21 !
1
7! 0 54 0 7 1 !! 1 5
1 2 1 3 1 2 1
12 ! + 42 ! 56 ! 8! 0 0 8 1 !!
2 5
3
!+1 3! 2!
Alors L! = 4 4
7 ! ( ! + 1) 20 2
! 21 ! + 1 1 8 2
7! + 7!
5
3 1 2 1 3 5 2 5 3 1 29 2 1 3
! ( ! + 1) 12 ! + 42 ! 12 ! 42 ! + 8 ! ( ! + 1) ! 56 ! + 7 ! + 1
B.7.1. Dé…nition:
xn+1 = ( !1 D E) 1
( 1 !! )D + F x + ( !1 D E) 1
b; n 2 N
l’itération linéaire dé…nie par
x0 2 Rn
L! = ( !1 D E) 1
( 1 !! )D + F est la matrice d’itération de Relaxation.
B.7.2. Dé…nition:
B.7.3. Proposition:
3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que
( !1 D E) 1
( 1 !! )D + F < 1:
B.7.3.4.Proposition:
Soit A une matrice à diagonale dominante stricte, alors 8! 2 ]0; 1[ la méthode de Relaxation de paramètre !
associée
au système linéaire Ax = b converge 8x0 2 Rn :
B.7.3.5. Proposition:
Soit A une matrice A 2Mn (R). Supposons que det (A) 6= 0: Si la méthode de Relaxation de paramètre ! associée
au système linéaire Ax = b converge 8x0 2 Rn alors ! 2 ]0; 2[ :
Ici on donne d’autres résultats concernant la convergence des méthodes précédentes pour les matrices symétriques
dé…nies positives.
B.8. Théorème :
Soit A une matrice tridiagonale, alors (GS) = 2 (J) :
Dans ce cas, les deux méthodes convergent ou divergent simultanément.
ke1k k
si et seulement si (B1 ) < (B2 ) ou encore limk!1 = 0:
ke2k k
B.10. Résultats
B.10.1. Proposition:
Soit A une matrice symétrique dé…nie positive, alors la méthode de Jacobi associée
au système linéaire Ax = b converge 8x0 2 Rn dès que 2D A est dé…nie positive.
B.10.2.Proposition:
Soit A une matrice symétrique dé…nie positive, alors la méthode de Relaxation de paramètre ! associée
au système linéaire Ax = b converge 8x0 2 Rn si et seulement si ! 2 ]0; 2[ :