Vous êtes sur la page 1sur 14

ECOLE NATIONALE SUPERIEURE DES TRAVAUX PUBLICS

RESOLUTION DES SYSEMES LINEAIRES


Analyse numérique 2eme année classes préparatoires

par HAMADI Ahmed

A. RESOLUTION DES SYSEMES LINEAIRES METHODES DIRECTES

A.1 Introduction, notations

Dans toute la suite, n désigne un entier naturel non nul et A désignera une matrice carrée de n lignes
et n colonnes à coe¢ cients réels : A = (ai;j )(i;j)2f1;::ng f1;::ng . On note Mn (R) l’espace vectoriel (sur R) des
matrices carrées d’ordre n

2 3
a11 x1 + a12 x2 + : : : + a1n xn = b1
6 a21 x1 + a22 x2 + : : : + a2n xn = b2 7
On considère le système linéaire suivant: 6
4
7 :::: (S)
5
:::
an1 x1 + an2 x2 + : : : + ann xn = bn
2 3 2 3
a11 a12 ::: a1n b1
6 a21 a22 ::: a2n 7 6 b2 7
6 7 6 7 t
(S) () Ax = b avec A=6 .. .. .. 7; b = 6 .. 7 et x = [x1 ; x2 ; :::; xn ]
4 . . ::: . 5 4 . 5
an1 an2 : : : ann bn

On s’intéresse à la résolution d’un système Ax = b,

A.2 La méthode brutale : Cramer

Si, en colonnes, A s’écrit [C1 ; : : : ; Cn ], la solution de l’équation Ax = b est donnée coordonnée par coordonnée par
la formule: xi = det([C1 ;:::;Cdet(A)
i 1 ;b;Ci+1 ;:::Cn ])
; c’est la formule de Cramer.

A.3. Méthodes de Gauss

On cherche à résoudre le système linéaire Ax = b ci-dessous en agissant sur les lignes ou les colonnes:
0 1 0 1 0 1
1 2 2 x1 2
Soit A = @1 3 2A ; x = @x2 A et b = @ 1A
3 5 8 x3 8

0 10 1 0 1 0 10 1 0 1 0 10 1 0 1
1 2 2 x1 2 1 2 2 x1 2 1 2 2 x1 2
@1 3 2A @x2 A = @ 1A @0 1 4A @x2 A = @ 3A @0 1 4A @x2 A = @ 3A
3 5 8 x3 8 L L1
3 5 8 x3 8 L 3L1
0 1 2 x3 2
2 3
Et l’opération L3 + L2 donne …nalement
2 32 3 2 3
1 2 2 x1 2
40 1 45 4 x2 5 = 4 3 5 :
0 0 2 x3 1

1
Finalement on peut trouver facilement x3 = 2 puis x2 = 5 et x1 = 13:

A.3.1. La décomposition A = LU (la factorisation de Gauss ordinaire)

La décomposition LU de A consiste à transformer la matrice A en une matrice triangulaire supérieure


U en éliminant les éléments sous la diagonale. Les éliminations se font colonne après colonne,
en commençant par la gauche, en multipliant A par la gauche avec une matrice triangulaire inférieure.
C’est ce qu’on appelle la factorisation de Gauss ordinaire.

A.3.2. Théorème

Étant donné une matrice A 2 Mn (R), on suppose qu’à chaque étape du processus d’élimination de Gauss le pivot
est non nul, alors il existe une matrice L triangulaire inférieure à diagonale unité et une matrice U triangulaire
supérieure telle que A se décompose d’une manière unique sous la forme A = LU:

A.3.3. Théorème

Étant donné une matrice A 2 Mn (R), si tous les déterminants des sous matrices principales 4k , k 2 f1; ::ng sont
non nuls alors A se décompose d’une manière unique sous la forme A = LU:
2 3
a11 a12 ::: a1k
6 a21 a22 ::: a2k 7
6 7
Les sous matrices principales 4k sont 4k = 6 .. .. .. 7:
4 . . ::: . 5
ak1 ak2 : : : akk

A.3.4. Algorithme:

Étant donné une matrice A 2 Mn (R); A = (ai;j )(i;j)2f1;::ng f1;::ng : On dé…nit A(0) = A et on va construire les
matrices A(1) ; A(2) ; :::A(k) ; :::A(n 1) itérativement, en ayant pour objectif que la matrice A(k) ait ses k

premières colonnes de coe¢ cients nuls sous la diagonale.

Soit la matrice A(k 1)


, on construit la matrice A(k) de la manière suivante : considérant la k ième colonne de

A(k 1)
, on élimine les éléments sous la diagonale en ajoutant à la i ème ligne de cette matrice, la k ième ligne
(k 1)
aik
multipliée par : lik = (k 1) pour i 2 fk + 1; :::ng :
akk

Ceci peut être fait en multipliant par la gauche A(k 1)


avec la matrice triangulaire inférieure.
2 3
1 0 : : : : : 0
60 1 : : : : : :7
6 7
60 : : : : : : :7
6 7
6: : 0 1 : : : :7
suivante Lk = 6
6:
7 et A(k) = Lk A(k 1)
6 : : lk+1k : : : :77
6: : : : 0 : : :7
6 7
4: : : : : : : 05
0 : 0 lnk 0 : 0 1
Après n 1 itérations, nous avons éliminé tous les éléments sous la diagonale, par conséquent, nous avons maintenant
une matrice triangulaire supérieure A(n 1) .

Nous obtenons la décomposition :

A = A(0) = L1 1 L1 A(0) = L1 1 A(1) = L1 1 L2 1 L2 A(1) = L1 1 L2 1 A(2) = ::: = L1 1 L2 1 :::Ln 1 1 A(n 1)

Notons U , la matrice triangulaire supérieure A(n 1) . et L = L1 1 L2 1 :::Ln 1 1 . Sachant que l’inverse d’une matrice
triangulaire inférieure est aussi une matrice triangulaire inférieure et que le produit de deux matrices triangulaires
inférieures est encore une matrice triangulaire inférieure, L est donc une matrice triangulaire inférieure.
On obtient A = LU .
(k 1)
Au vu de l’algorithme, il est nécessaire que akk 6= 0 à chaque itération. Si, au cours du calcul, ce cas de …gure
venait à se produire, il faut permuter la k ième ligne avec une autre pour pouvoir continuer.

A.3.4.1. Exemple:

Soit la matrice
2 3
2 2 3 1
6 6 1 2 47
A = A(0) = 644
7
1 0 15
2 12 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
6 3 1 0 07 60 5 7 17 63 1 0 07
Soit L1 = 6 7 (1) (0) 6
4 2 0 1 05 =) A = L1 A = 40
7 et A = L A ; L = 6
(0) 1 (1) 1 7
5 6 15 1 1 42 0 1 05
1 0 0 1 0 10 3 0 1 0 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
60 1 0 07 6 17 6 0 07
Soit L2 = 6 7 =) A(2) = L2 A(1) = 60 5 7 7 et A(1) = L 1 A(2) ; L 1 = 60 1 7
40 1 1 05 40 0 1 25 2 2 40 1 1 05
0 2 0 1 0 0 17 2 0 2 0 1
2 3 2 3 2 3
1 0 0 0 2 2 3 1 1 0 0 0
60 1 0 07 6 1 7 6 07
6
Soit L3 = 4 7 =) A(3) = L3 A(2) = 60 5 7 7 et A(2) = L 1 A(3) ; L 1 = 60 1 0 7
0 0 1 05 40 0 1 25 3 3 40 0 1 05
0 0 17 1 0 0 0 32 0 0 17 1

Ainsi on obtient : A = A(0) = L1 1 L2 1 L3 1 A(3) = LU


2 3 2 3
1 0 0 0 2 2 3 1
63 1 0 07 60 5 7 1 7
avec L = L1 1 L2 1 L3 1 =6
42
7 et U = A = 6
(3) 7
1 1 05 40 0 1 25
1 2 17 1 0 0 0 32

A.3.5. La décomposition P A = LU (la factorisation de Gauss avec pivot partiel)

On a vu que l’existence de la décomposition A = LU est soumise à des conditions sur la matrice inversible A = LU
(la première d’entre elles étant que a11 6= 0). Chacune de ces conditions équivaut à la non-nullit́é d’un coe¢ cient
utilisé́ comme pivot. Si un tel pivot est nul, la dé́composition est impossible, à moins qu’on ne puisse continuer
moyennant un é́change de lignes.
Si ce pivot est “presque nul”, on utilisera encore un échange de lignes (sinon la division par le pivot conduit à une
impré́cision importante.)
Ces considé́rations conduisent à envisager la dé́composition P A = LU ou P est une matrice de permutation.
C’est ce qu’on appelle la factorisation de Gauss avec pivot partiel.

Soit P 2 Mn (R); P = (pi;j )(i;j)2f1;:::ng f1;:::ng : On dit que P est une matrice de permutation s’il existe
une permutation de f1; 2; :::ng telle que pi;j = (i);j (notations de Kronecker), pour tous indices
i et j. Pour toute matrice A 2 Mn (R);la matrice P A se dé́duit de A par la permutation appliqué́e
aux lignes de A : pour tout i de f1; :::; ng, la ligne d’indice i de P A est en e¤et la ligne d’indice
(i) de A:

A.3.5.1. Remarque

Pour toute matrice de permutation P; on a P = P t = P 1 ; c’est à dire P 2 = In (In matrice identité de Mn (R) )
(k)
Pour choisir le pivot maximum, à l’étape k, le pivot aik est choisi de la manière suivante:
n o
(k) (k)
aik = max alk ; l 2 fk; :::ng ; 8k 2 f1; :::ng :

A.3.5.2. Exemple:

Soit la matrice
2 3
0; 6 1; 52 3; 5
A = A(0) = 4 2 4 1 5 ; le maximum dans la première colonne est égal à 2;
1 2; 8 1
2 3 2 3
0 1 0 2 4 1
soit la matrice de permutation P1 = 41 0 05 =) P1 A(0) = 40; 6 1; 52 3; 55 .
0 0 1 1 2; 8 1

On é¤ectue l’échelonnement de Gauss dans P1 A(0) ;


2 3 2 3 2 3
1 0 0 2 4 1 1 0 0
Soit L1 = 4 0; 3 1 05 =) A(1) = L1 P1 A(0) = 40 0; 32 3; 25 et P1 A(0) = L1 1 A(1) ; L1 1 = 40; 3 1 05
0; 5 0 1 0 0; 8 0; 5 0; 5 0 1

Pour A(1) ; le maximum dans la deuxième colonne est égal à 0; 8


2 3 2 3
1 0 0 2 4 1
soit la matrice de permutation P2 = 40 0 15 =) P2 A(1) = 40 0; 8 0; 55
0 1 0 0 0; 32 3; 2

On é¤ectue l’échelonnement de Gauss dans P2 A(1) ;


2 3 2 3 2 3
1 0 0 2 4 1 1 0 0
Soit L2 = 40 1 05 =) A(2) = L2 P2 A(1) = 40 0; 8 0; 55 et P2 A(1) = L2 1 A(2) ; L2 1 = 40 1 05
0 0; 4 1 0 0 3 0 0; 4 1

En résumé, on a P1 A(0) = L1 1 A(1) =) P1 A(0) = L1 1 P2 P2 A(1) = L1 1 P2 L2 1 A(2) car P2 A(1) = L2 1 A(2)

Donc P1 A(0) = L1 1 P2 L2 1 A(2) =) P2 P1 A(0) = P2 L1 1 P2 L2 1 A(2)

2 3
0 1 0
Ainsi on déduit P A = LU avec P = P2 P1 = 40 0 15 ; A = A(0) ;
1 0 0
2 32 32 32 3 2 3
1 0 0 1 0 0 1 0 0 1 0 0 1 0 0
L = P2 L1 1 P2 L2 1 = 40 0 15 40; 3 1 05 40 0 15 40 1 05 = 40; 5 1 05
0 1 0 0; 5 0 1 0 1 0 0 0; 4 1 0; 3 0; 4 1
2 3
2 4 1
et U = A(2) = 40 0; 8 0; 55 On peut véri…er que:
0 0 3

2 32 3 2 3 2 32 3
0 1 0 0; 6 1; 52 3; 5 2 4 1 1 0 0 2 4 1
P A = 40 0 154 2 4 1 5=4 1 2; 8 1 5 = LU = 40; 5 1 05 40 0; 8 0; 55
1 0 0 1 2; 8 1 0; 6 1; 52 3; 5 0; 3 0; 4 1 0 0 3

Dans le cas général, c’est la même méthode utilisée dans la décomposition LU mais avec à chaque étape
l’intervention d’une matrice de permutation.

8 9
>
> A = A(0) >
>
>
> >
>
>
> >
>
>
> >
>
< P = Pn 1 :::P2 P1 =
>
> 1 >
>
>
> L = L01 L02 :::L0n 1 avec L0k = Pn 1 :::Pk+1 Lk Pk+1 :::Pn 1 >
>
>
> >
>
>
> >
>
: ;
U = A(n 1)

A.4. Factorisation LDV

A.4.1. Dé…nition (la factorisation de Gauss-Jordan)

Soit A une matrice d’ordre n, alors A admet une factorisation LDV si et seulement si il existe une matrice
L triangulaire inférieure à diagonale unité, D une matrice diagonale et V une matrice triangulaire supérieure
à diagonale unité. C’est ce qu’on appelle la factorisation de Gauss-Jordan.

A.4.2. Théorème

Soit A une matrice d’ordre n, si A admet une décomposition A = LU alors A admet une factorisation LDV
et réciproquement:

A.5. Dé…nition (la factorisation de Crout)

Si de plus A est symétrique c’est à dire A = At ; alors on a la décomposition A = LDV = LDLt :


C’est ce qu’on appelle la factorisation de Crout.

Pour la résolution du système Ax = b; supposons que la matrice A se décompose sous la forme A = LU ,


avec L une matrice triangulaire inférieure à diagonale unité et U triangulaire supérieure, on a donc

Ly = b;
Ax = b () LU x = b ()
U x = y;

C’est à dire au lieu de résoudre le système Ax = b (en général di¢ cile), on va résoudre deux systèmes triangulaires
simples à savoir Ly = b et U x = y:

Dans le cas de la décomposition P A = LU , la résolution du système Ax = b; se fait de la manière suivante :

Ly = b0 ;
Ax = b () P Ax = P b = b0 () LU x = b0 ()
U x = y;
A.6. Dé…nition (la factorisation de Doolitle)

Soit A une matrice d’ordre n, alors la factorisation de Doolitle de A est la même que celle de Gauss A = LU ,
c’est à dire L est une matrice triangulaire inférieure à diagonale unité et U est une matrice triangulaire
supérieure mais L et U se calcule par identi…cation avec A.

A.7. La factorisation de Cholesky A = RRt

A.7.1. Dé…nition:

Soit A une matrice d’ordre n, alors A est une matrice Symétrique, Dé…nie et Positive (SDP) si elle véri…e :
1) A est symétrique c’est à dire A = At .
2) Pour tout x 2 Rn , xt Ax 0 avec égalité si et seulement si x = 0:

A.7.2. Théorème

Soit A une matrice d’ordre n, alors A est une matrice symétrique et dé…nie positive si et seulement si
tous les déterminants des sous matrices principales 4k , k 2 f1; ::ng sont strictement positifs.

A.7.3. Théorème

Soit A une matrice d’ordre n, alors A est une matrice symétrique et dé…nie positive si et seulement si toutes
les valeures propres de A sont strictement positives.

A.7.4. Théorème

Soit A une matrice d’ordre n, symétrique et dé…nie positive, alors il existe une matrice R triangulaire inférieure
et une matrice Rt triangulaire supérieure telle que A se décompose sous la forme A = RRt :
C’est ce qu’on appelle la factorisation de Cholesky.

A.7.5. Remarque:

Cette factorisation est unique si on impose aux éléments diagonaux de R (les rii ) d’être tous positifs.

A.7.6. L’algorithme de Cholesky A = RRt


2 3
r11 0 : : : 0
6 r21 r22 : : : 0 7
6 7
6 : : : : : : 7
On cherche la matrice : R = (ri;j )(i;j)2f1;::ng c’est à dire R = 6
6 :
7
f1;::ng
6 : : : : : 77
4 : : : : : 0 5
rn1 rn2 : : : rnn

P
n minfi;jg
P
De l’égalité A = RRt ; on déduit : ai;j = (RRt )i;j = rik rjk = rik rjk ; 1 i; j n
k=1 k=1
puisque rpq = 0 si 1 p<q n:

La matrice A étant symétrique, il su¢ t que les relations ci-dessus soient véri…ées pour i j, c’est-à-dire que
les éléments rij de la matrice R doivent satisfaire :

P
i
ai;j = rik rjk ; 1 i j n
k=1

Pour i = 1, on détermine la première colonne de R :


p
r11 = a11
ai1
ri1 = r11 ; 2 i n

On détermine la i ème colonne de R (2 i n), après avoir calculé les (i 1) premières colonnes :
s
iP1
rii = aii 2 ; 2
rik i n
k=1
iP1
aji rik rjk
k=1
et rji = rii ; i+1 j n

A.7.7. Décomposition de Cholesky alternative

La décomposition de Cholesky alternative permet d’éviter l’utilisation des racines carrées au sein des sommes,
source potentielle de problème en calcul numérique, elle se calcule de la façon suivante :

On calcul d’abord A = LU = LDLt car A est une matrice symétrique avec D est une matrice diagonale,
et L une matrice triangulaire inférieure avec des 1 sur sa diagonale.
1 1 1 1 1 1
Ensuite on déduit la décomposition A = LD 2 D 2 Lt = LD 2 (D 2 )t Lt = (LD 2 )(LD 2 )t

La dernière expression étant le produit d’une matrice triangulaire et de sa transposée, de la même manière
1
que dans la factorisation A = RRt . Dans ce cas R = LD 2 :
1
Notez que la racine carrée d’une matrice diagonale (ici, D 2 ) se calcule trivialement en prenant les racines
carrées de chacun de ses éléments.

A.7.8. Exemples
2 3 2 32 3
1 2 2 2 1 0 0 0 1 2 2 2
62 20 20 20 7 62 4 0 07 60 4 4 47
6 7=6 76 7 = RRt
42 20 101 1015 42 4 9 0 5 40 0 9 95
2 20 101 357 2 4 9 16 0 0 0 16
0 1 0 10 1 1 1 1
1 1=2 1=3 1=4 1 0
p 0 0 1 p
2 p
3 4p
B 1=2 1=3 1=4 1=5 C B 1 1 CB 0 1 1 3 C
B C B 2 6 p3 0p 0 CB 6 3 6 p3 20 p3 C = RRt
@ 1=3 1=4 1=5 1=6 A = @ 1 1 1 A@ 0 1 1 A
3 6 p3 30 p5 0p 0 30 5 20 p5
1=4 1=5 1=6 1=7 1 3 1 1 1
4 20 3 20 5 140 7 0 0 0 140 7

Dans le cas de la décomposition A = RRt , la résolution du système Ax = b; se fait de la manière suivante :

Ry = b;
Ax = b () RRt x = b ()
Rt x = y;

A.8. Normes et conditionnement d’une matrice

Dans ce paragraphe, nous allons dé…nir la notion de conditionnement d’une matrice, qui peut servir à établir
une majoration des erreurs d’arrondi dues aux erreurs sur les données. La notion de conditionnement est
également utilisée dans l’étude des méthodes itératives que nous verrons plus loin. Pour l’étude du
conditionnement comme pour l’étude des erreurs, nous avons tout d’abord besoin de la notion de norme et de
rayon spectral, que nous rappelons maintenant.

A.8.1. Dé…nition (Norme vectorielles, norme induite)

A.8.1.1. Dé…nition:

Une norme vectorielle sur l’espace vectoriel Rn est une application k:k : Rn ! R+
qui véri…e les propriétés suivantes

8x; y 2 Rn ; 8 2 R;
1) kxk = 0 () x = 0Rn

2) k xk = j j : kxk

3) kx + yk kxk + kyk :

A.8.1.2.Exemples:

Pour tout vecteur x 2 Rn :


P
n
1) kxk1 = jxi j :
i=1

1
P
n 2
2) kxk2 = x2i :
i=1

3) kxk1 = max1 i n fjxi jg :

A.8.2. Dé…nition (Normes matricielles)

Une norme matricielle sur l’espace vectoriel Mn (R) est une application k:k : Mn (R) ! R+
qui véri…e les propriétés suivantes 8 A; B 2 Mn (R); 8 2 R;

1) kAk = 0 () A = 0Mn (R)

2) k Ak = j j : kAk

3) kA + Bk kAk + kBk :

4) kA:Bk kAk : kBk

A.8.3. Proposition (propriétés des normes induites).

On considère Rn muni d’une norme k:k. On appelle norme matricielle induite (ou norme induite) sur Mn (R)
par la norme k:k, encore notée k:k, la norme sur Mn (R) dé…nie par :

kAk = sup fkA:xk ; x 2 Rn ; kxk = 1g ; 8 A 2 Mn (R):

A.8.4.Dé…nition (normes compatibles).

Soit k:kv une norme vectorielle sur Rn et k:km une norme matricielle sur Mn (R):
On dit que k:kv et k:km sont compatibles si et seulement si
kA:xkv kAkm : kxkv ; 8 A 2 Mn (R); 8 x 2 Rn :

A.8.4.1. Exemple

P
n
Sachant que (Ax)i = aij xj
j=1

1 ! 12 1
P
n 2 P
n P
n P
n 2
on a kA:xk2 = (Ax)2i a2ij : x2i = kAks : kxk2
i=1 j=1 i=1 i=1
C’est à dire kA:xk2 kAks : kxk2 donc k:k2 et k:ks sont compatibles.
! 12
P
n P
n
kAks = a2ij est une norme matricielle apellée norme de Shur ou Frobenius.
j=1 i=1

A.8.5. Dé…nition (Rayon spectral)

Soit A 2 Mn (R) une matrice inversible. On appelle rayon spectral de A


la quantité (A) = max fj j ; 2 C; valeur propre de Ag

A.8.6. Proposition (Caractérisation des normes induites)

1. On munit Rn de la norme k:k1 et Mn (R) de la norme induite correspondante, notée aussi k:k1 .
P
n
Alors kAk1 = maxi2f1;::ng jaij j :
j=1

2. On munit Rn de la norme k:k1 et Mn (R) de la norme induite correspondante, notée aussi k:k1 .
P
n
Alors kAk1 = maxj2f1;::ng jaij j :
i=1

3. On munit Rn de la norme k:k2 et Mn (R) de la norme induite correspondante, notée aussi k:k2 .
1 1
Alors kAk2 = ( (At :A)) 2 = ( (A:At )) 2 :
1 1 1
En particulier, si A est symétrique alors kAk2 = ( (At :A)) 2 = (A2 ) 2
= (A)2 2
= (A):

A.8.7. Résultats:

1) Pour toute norme matricielle k:km , on a (A) kAkm , 8 A 2 Mn (R).

2) 8 A 2 Mn (R); 8 " > 0; 9 une norme matricielle induite k:kA;" telle que kAkA;" (A) + ":

A.8.8. Dé…nition (Conditionnement).

Soit Rn muni d’une norme k:kp et Mn (R) muni de la norme induite, en général p 2 f1; 2; 1g.
Soit A 2 Mn (R) une matrice inversible. On appelle conditionnement de A par rapport à la norme k:kp
le nombre réel positif Condp (A) dé…ni par : Condp (A) = kAkp : A 1 p :

Plus le Condp (A) est grand, plus la solution du système Ax = b est sensible .

Si le Condp (A) est grand par rapport à 1, on dit que la matrice A est mal conditionnée, c’est à dire des
petits changements sur les données induisent de large changements dans la solution x. Si au contraire
Condp (A) est proche 1; on dit que A est bien conditionnée.

A.8.8.1. Exemple:

Soit le système Ax = b

7 10 x b1 7 10
A= ;x= 1 et b = on a A 1
=
5 7 x2 b2 5 7

1
Par exemple si on calcul Cond1 (A) = kAk1 : A 1
= 17:17 = 289

Ici Cond1 (A) est grand par rapport à 1, on dit que la matrice A est mal conditionnée,
1 0 1; 01 0; 17
Si b = =) x = et si b = =) x =
0; 7 0; 1 0; 69 0; 22

On remarque que des petits changements sur b par exemple (de même pour des petits changements sur
les éléments de A) induisent de large changements dans la solution x.

A.8.9. Proposition (Propriétés générales du conditionnement).

Soit Rn muni d’une norme k:k et Mn (R) muni de la norme induite.

1. Soit A 2 Mn (R) une matrice inversible, alors Condp (A) 1:

2. Soit A 2 Mn (R) une matrice inversible et 2 R , alors Condp ( :A) = Condp (A) :

3. Soient A et B 2 Mn (R) des matrices inversibles, alors Condp (A:B) Condp (A) :Condp (B) :

4) Si A est une matrice orthogonale alors Cond2 (A) = 1

(une matrice orthogonale est une matrice véri…ant At A = AAt = In )


p t )j)
(maxj( i )(AA
5) Cond2 (A) = max
= p t )j)
min (minj( i )(AA

A.8.10. Thé́orème (Estimation de l’erreur dans un système liné́aire)

.
Supposons que Ax = b et Ax0 = b0 .

On note x0 x = 4x et b0 b = 4b.

k4xk
Alors : kxk Cond (A) : k4bk
kbk :

Si au contraire on modi…e A en A0 = A + 4A avec b = b0 , donc (A + 4A) x0 = b

k4xk
Alors : kx0 k Cond (A) : k4Ak
kAk :

A.8.11. Remarque:

L’erreur relative sur x est d’autant plus petite par rapport à l’erreur relative sur b si le Cond (A) est proche
de 1, de même dans le cas ou la perturbation concerne les coe¢ cients de A.

B. RESOLUTION DES SYSEMES LINEAIRES METHODES ITERATIVES


B.1. Introduction

On s’intéresse à la résolution du système précédent Ax = b, avec A 2Mn (R). Les méthodes directes
fournissent la solution en un nombre …ni d’opérations. Mais si la taille du système est élevée, le nombre
d’opérations nécessaires est important, or les erreurs de calcul dépendent directement du nombre de calculs.
Elles utilisent des propriétés mathématiques nécessitant un calcul exact, il est di¢ cile de tenir compte
des erreurs de calcul dans ce processus donc le résultat n’est jamais rigoureusement égal à la solution exacte.

B.2. Dé…nition:
xn+1 = M xn + c; n 2 N
Pour A 2Mn (R); x; c 2 Rn ; on appelle itération linéaire toute suite
x0 2 Rn
La matrice M est appelée matrice d’itération.
B.3. Remarque:

Si la suite vectorielle (xn )n2N converge, et si on suppose que sa limite est égale à x;
alors x = M x + c; c’est à dire que x est la point …xe de la fonction vectorielle ' (x) = M x + c
Si on note l’erreur à l’ordre n par en = xn x
alors on a en = M (xn 1 x) = M en 1 : Par récurrence on montre que en = M n e0 :

B.4. Proposition:

xn+1 = M xn + c; n 2 N
Une itération linéaire converge 8x0 2 Rn si et seulement si (M ) < 1:
x0 2 Rn

De plus il existe une norme matricielle induite k:k telle que kM k = <1
n
et kxn xk 1 kx1 x0 k :

B.5. Méthode de Jacobi

Soit à résoudre le système linéaire Ax = b; A = (ai;j )(i;j)2f1;::ng f1;::ng ;

Soit la décomposition canonique de la matrice A: A=D E F

D = (dij )(i;j)2f1;::ng f1;::ng ; E = (eij )(i;j)2f1;::ng f1;::ng ; F = (fij )(i;j)2f1;::ng f1;::ng

aij si i = j aij si i > j 0 si i j


avec dij = , eij = et fij =
0 si i 6= j 0 si i j aij si i < j

2 3
F
C’est à dire : A=4 D 5: On fait l’hypothèse que D est inversible,
E

Par exemple la décomposition canonique de la matrice


2 3 2 3 2 3 2 3
3 5 6 3 0 0 0 0 0 0 5 6
A=4 4 7 1 5=D E F = 40 7 05 44 0 05 40 0 15
2 1 8 0 0 8 2 1 0 0 0 0

1 1
Ax = b () (D E F ) x = b () Dx = (E + F ) x + b () x = D (E + F ) x + D b

21 32 3 2 5
3
3 0 0 0 5 6 0 3 2
La matrice d’itération D 1
(E + F ) = 4 0 1
7 0 54 4 0 1 5 = 4 47 0 1 5
7
1 1 1
0 0 8
2 1 0 4 8 0

B.5.1. Dé…nition:

On appelle méthode de Jacobi associée au système linéaire Ax = b


1 1
xn+1 = D (E + F ) xn + D b; n 2 N
l’itération linéaire dé…nie par
x0 2 Rn

1
J =D (E + F ) est la matrice d’itération de Jacobi.
B.5.2. Proposition:

1) Cette méthode est constructible si ai;i 6= 0; 8i 2 f1; ::ng

1
2) Cette méthode converge si D (E + F ) < 1:

1
3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que D (E + F ) < 1:

B.5.3. Dé…nition:

Une matrice A = (aij ) est à diagonale dominante stricte

P
n
si et seulement si jajj j > jajk j ; 8j 2 f1; ::ng.
k=1; k6=j

B.5.4. Proposition:

Soit A une matrice à diagonale dominante stricte, alors la méthode de Jacobi associée
au système linéaire Ax = b converge 8x0 2 Rn :

On peut montrer que si A est une matrice à diagonale dominante stricte,


n
1
alors = D (E + F ) 1
< 1; de plus kxn xk1 1 kx1 x0 k1 :

B.6. Méthode de Gauss-Seidel

Avec A = D E F; on fait la même hypothèse que pour la méthode de Jacobi, c’est-à-dire


que D soit inversible implique que D E est aussi inversible
1 1
Ax = b () (D E F ) x = b () (D E) x = F x + b () x = (D E) F x + (D E) b

Dans l’exemple précédent la matrice d’itération

2 3 1 2 3 2 1
32 3
3 0 0 0 5 6 3 0 0 0 5 6
1
(D E) F = 4 4 7 05 40 0 15 = 4 4
21
1
7 0 5 40 0 15
5 1 1
2 1 8 0 0 0 84 56 8
0 0 0
2 5
3
0 3 2
1
Donc (D E) F = 40 20
21 1 5
25 3
0 84 8

B.6.1. Dé…nition:

On appelle méthode de Gauss-Seidel associée au système linéaire Ax = b


1 1
xn+1 = (D
F x + (D E) E) b; n 2 N
l’itération linéaire dé…nie par
x0 2 Rn
1
GS = (D E) F est la matrice d’itération de Gauss-Seidel.

B.6.2. Proposition:

1) Cette méthode est constructible si aii 6= 0; 8i 2 f1; ::ng

1
2) Cette méthode converge si (D E) F < 1:

1
3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que (D E) F < 1:
B.6.3. Proposition:

Soit A une matrice à diagonale dominante stricte, alors la méthode de Gauss-Seidel associée
au système linéaire Ax = b converge 8x0 2 Rn :

On peut montrer que si A est une matrice à diagonale dominante stricte,

1 n
alors = (D E) F < 1; de plus kxn xk1 1 kx1 x0 k1 :
1

B.7. Méthode de Relaxation

On fait la même hypothèse que pour la méthode de Jacobi, c’est-à-dire


que D soit inversible. Soit ! > 0 un paramètre donné et soit la décomposition de A
c’est à dire ( !1 D E) est inversible.

1 1
A= !D + (1 ! )D E F

1 1
Ax = b () !D + (1 ! )D E F x=b

() ( !1 D E)x + (1 1
! )D F x=b

() ( !1 D E)x = ( 1 !! )D + F x + b

() x = ( !1 D E) 1
( 1 !! )D + F x + ( !1 D E) 1
b

Dans l’exemple précédent la matrice d’itération

2 3 1 2 1 ! 3
3 !1 0 0 3 ! 5 6
L! = ( !1 D E) 1 1 !
( ! )D + F = 4 4 7 !1 0 5 4 0 7 1 !! 1 5
2 1 8 !1 0 0 8 1 !!

2 3 1 2 3
3 !1 0 0 1
3! 0 0
On a ( !1 D E) 1
= 4 4 7 !1 0 5 =4 4 2
21 !
1
7! 0 5
2 1 8 !1 1 2
12 ! 1 3
+ 42 ! 1 2
56 !
1
8!

2 1
32 1 ! 3
3! 0 0 3 ! 5 6
L! = ( !1 D E) 1
( 1 !! )D + F = 4 4 2
21 !
1
7! 0 54 0 7 1 !! 1 5
1 2 1 3 1 2 1
12 ! + 42 ! 56 ! 8! 0 0 8 1 !!

2 5
3
!+1 3! 2!
Alors L! = 4 4
7 ! ( ! + 1) 20 2
! 21 ! + 1 1 8 2
7! + 7!
5
3 1 2 1 3 5 2 5 3 1 29 2 1 3
! ( ! + 1) 12 ! + 42 ! 12 ! 42 ! + 8 ! ( ! + 1) ! 56 ! + 7 ! + 1

B.7.1. Dé…nition:

On appelle méthode de Relaxation associée au système linéaire Ax = b

xn+1 = ( !1 D E) 1
( 1 !! )D + F x + ( !1 D E) 1
b; n 2 N
l’itération linéaire dé…nie par
x0 2 Rn

L! = ( !1 D E) 1
( 1 !! )D + F est la matrice d’itération de Relaxation.
B.7.2. Dé…nition:

La méthode de Relaxation est appelée:


1) Sur relaxation si ! > 1:
2) Sous relaxation si ! < 1:
3) Gauss-Seidel si ! = 1:

B.7.3. Proposition:

1) Cette méthode est constructible si aii 6= 0; 8i 2 f1; ::ng :

2) Cette méthode converge si ( !1 D E) 1


( 1 !! )D + F < 1:

3) Cette méthode converge s’il existe une norme matricielle induite k:k telle que

( !1 D E) 1
( 1 !! )D + F < 1:

B.7.3.4.Proposition:

Soit A une matrice à diagonale dominante stricte, alors 8! 2 ]0; 1[ la méthode de Relaxation de paramètre !
associée
au système linéaire Ax = b converge 8x0 2 Rn :

B.7.3.5. Proposition:

Soit A une matrice A 2Mn (R). Supposons que det (A) 6= 0: Si la méthode de Relaxation de paramètre ! associée
au système linéaire Ax = b converge 8x0 2 Rn alors ! 2 ]0; 2[ :

Ici on donne d’autres résultats concernant la convergence des méthodes précédentes pour les matrices symétriques
dé…nies positives.

B.8. Théorème :
Soit A une matrice tridiagonale, alors (GS) = 2 (J) :
Dans ce cas, les deux méthodes convergent ou divergent simultanément.

B.9. Comparaison de deux méthodes :


On dira que la méthode de matrice d’itération (B1 )
converge plus vite que la méthode de matrice d’itération (B2 )

ke1k k
si et seulement si (B1 ) < (B2 ) ou encore limk!1 = 0:
ke2k k

B.10. Résultats

B.10.1. Proposition:

Soit A une matrice symétrique dé…nie positive, alors la méthode de Jacobi associée
au système linéaire Ax = b converge 8x0 2 Rn dès que 2D A est dé…nie positive.

B.10.2.Proposition:

Soit A une matrice symétrique dé…nie positive, alors la méthode de Relaxation de paramètre ! associée
au système linéaire Ax = b converge 8x0 2 Rn si et seulement si ! 2 ]0; 2[ :

Vous aimerez peut-être aussi