Vous êtes sur la page 1sur 61

Chapitre 4: Résolution approchée des systèmes

linéaires

Chapitre 4: Résolution approchée des systèmes linéaires 1 / 61


Résolution approchée des systèmes linéaires
PLAN
1 Motivation
2 Position du problème
3 Méthodes directes
Méthode de Pivot de Gauss
Factorisation LU
Factorisation de Cholesky
4 Méthodes itératives
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de de relaxation
5 Méthodes numériques de calcul des valeurs propres et vecteurs propres
6 Décomposition en valeurs singulières (SVD)
7 Exercices
Chapitre 4: Résolution approchée des systèmes linéaires 2 / 61
Résolution approchée des systèmes linéaires

Motivation
Un rayonnement électromagnétique traversant une solution contenant
P solutés s1 , s2 , s3 , · · · , sn est absorbé selon la loi de Beer suivante :
plusieurs
A = ni=1 ki (λ)ci , où A est appelé absorbance du rayonnment ou de la
solution, λ longueur d’onde du rayonnement, ci concentration molaire du
soluté si , ki est un coefficient dependant de la longueur d’onde. On se
propose de déterminer les concentrations c1 , c2 , c3 , c4 dans une solution
contenant 4 solutés. Pour celà on posséde ainsi :
On détermine expérimentalement les coefficients ki (λ) pour diverses
valeurs de λ en mesurant l’absorbance d’un rayonnement de longueur
d’onde λ par une solution contenant uniquement le soluté si avec une
concentration connue.
On mesure l’absorbance A(λ) de ce même rayonnement par la
solution étudiée.
Chapitre 4: Résolution approchée des systèmes linéaires 3 / 61
Résolution approchée des systèmes linéaires

Motivation
Les résultats de cette mesure sont donnés dans le tableau suivant :

λ(µm) K1 (λ) K2 (λ) K3 (λ) K4 (λ) A(λ)


13,5 2,2530 0.0771 0.000 0.0612 0.1581
13.0 0.0392 1.7274 0.000 1.236 0.1634
13.4 0.0512 0.0533 3,7980 0,4400 0.3823
14.3 0.0510 0.1025 0.000 0.5205 0.0642

On se propose de trouver les concentrations c1 , c2 , c3 et c4 .

Chapitre 4: Résolution approchée des systèmes linéaires 4 / 61


Résolution approchée des systèmes linéaires
Position du problème
Un certain nombre de problèmes scientifique s’exprime sous forme de
systèmes d’équations linéaires à plusieurs inconnues. De même un certain
nombre de méthodes d’analyse numérique se transforme à la résolution des
systèmes d’équations linéaires. Nous pouvons citer :
la méthode d’approximation par les moindres carrés
l’approximation spline
la méthode des différences finies pour les équations différentielles à
valeurs aux limites et pour les équations aux dérivées partielles, la
formulation matricielle de la méthode des éléments finis, les systèmes
différentiels, etc...
Les systèmes d’équations linéaires sont donc présent en physique, en
ingénérie, en mécanique, en sciences biologique et chimique et dans
d’autres domaines de sciences exacte. Ils interviennent également en
sciences sociales (économie, politique, sociologie...).
Chapitre 4: Résolution approchée des systèmes linéaires 5 / 61
Résolution approchée des systèmes linéaires

Position du problème
Dans le cas des systèmes linéaires, les méthodes de résolution peuvent être
classées en deux catégories :
- les méthodes directes qui conduisent à la solution après un certain
nombre d’opérations connu à priori (méthode de déterminant ou
Cramer, élimination successive, inversion des matrices) ;
- les méthodes itératives qui conduisent à la solution par une succession
d’amélioration d’une solution approchée. Le nombre d’itérations étant
difficile à prévoir et dépendant de la forme du système (méthode de
Jacobi, méthode de Gauss-Seidel et méthode de relaxation).

Chapitre 4: Résolution approchée des systèmes linéaires 6 / 61


Résolution approchée des systèmes linéaires
Résolution d’un système triangulaire
Dans tout ce qui suit on considérera une matrice A ∈ Mn (R) qu’on
supposera inversible. On cherche à résoudre le système linéaire :
Ax = b,
où b ∈ Rn est donné. Un cas facile à traiter est le cas où A est une
matrice triangulaire inférieure (pour fixer les idées) : on a alors
aij = 0, pour j > i.
De plus, comme A est inversible on a nécessairement aii 6= 0, ∀i. La
méthode de résolution est immédiate :
b1
x1 = ,
a11
puis
1
a21 x1 + a22 x2 = b2 ⇒ x2 = (b2 − a21 x1 ).
a22
Chapitre 4: Résolution approchée des systèmes linéaires 7 / 61
Résolution approchée des systèmes linéaires
Résolution d’un système triangulaire
On peut donc écrire la formule générale :
 
i−1
1  X
xi = bi − aij xj  , pour i = 1, 2, . . . n.
aii
j=1

On obtient donc les valeurs des inconnues dans l’ordre naturel.


Dans le cas où la matrice A est triangulaire supérieure, le calcul des
inconnues est donné par
 bn
x = ,
 n


 ann 
n
1  X
 xi = aii bi − aij xj  , pour i = n − 1, n − 2, , . . . 2, 1.



j=i+1

On notera que l’on obtient dans ce dernier cas les valeurs des inconnues
dans l’ordre des indices décroissants.
Chapitre 4: Résolution approchée des systèmes linéaires 8 / 61
Résolution approchée des systèmes linéaires

Principe de la méthode de Gauss et première étape


Le principe de la méthode d’élimination de Gauss consiste alors à mettre le
système linéaire Ax = b sous la forme

Âx = b̂, (1)

où la matrice  est triangulaire supérieure, la résolution de ce nouveau


système étant assez simple comme on vient de le voir précédemment.
Le système (1) est simplement équivalent au système Ax = b d’où nous
sommes partis et la méthode consiste à éliminer successivement des
inconnues entre les équations.

Chapitre 4: Résolution approchée des systèmes linéaires 9 / 61


Résolution approchée des systèmes linéaires
Principe de la méthode de Gauss et première étape
Eliminons dans un premier temps la première inconnue, à savoir x1 : on
part de
   
a11 a12 . . . a1j . . . a1n b1
 a21 a22 . . . a2j . . . a2n   b2 
   
 .. .. .. .. .. ..   .. 
. . . . . .  . 
A(1) = A =  b (1) = 
  
,

 ai1 ai2 . . . aij . . . ain  bi 
   
 .. .. .. .. .. ..   .. 
 . . . . . .   . 
an1 an2 . . . anj . . . ann bn
On peut alors éliminer l’inconnue x1 entre les deux premières équations en
retranchant de la deuxième ligne de A la première pré-multipliée par le
coefficient aa11
21
, à condition que a11 soit non nul, ce que l’on supposera
pour le moment . Ceci conduit donc à remplacer
(1) (2) a21
a2j −→ a2j = a2j − a1j pour j = 1, 2, . . . , n
a11 approchée des systèmes linéaires
Chapitre 4: Résolution 10 / 61
Résolution approchée des systèmes linéaires
Principe de la méthode de Gauss et première étape
La matrice et le vecteur second membre du système prennent les formes
suivantes :
   
a11 a12 . . . a1j . . . a1n b1
 0 a(2) . . . a(2) . . . a(2)   b (2) 
 22 2j 2n   2 
 . .. .. .. .. ..   .
 ..  ..

 . . . . . 
, (1)
b =


 a  b
 i1 ai2 . . . aij . . . ain
 
  i 
 . .. .. .. .. ..   .
 ..  ..

. . . . .  
an1 an2 . . . anj . . . ann bn
(2)
où on notera que le coefficient a21 est nul (on a fait ce qu’il fallait pour
cela), ce qui signifie que l’inconnue x1 ne figure plus dans la deuxième
équation du système.
On peut recommencer l’opération sur la troisième ligne en retranchant de
celle-ci la première pré-multipliée par le coefficient aa11
31
, et ainsi de suite.
Chapitre 4: Résolution approchée des systèmes linéaires 11 / 61
Résolution approchée des systèmes linéaires

Principe de la méthode de Gauss et première étape


Lorsqu’on a fait l’élimination jusqu’à la dernière ligne on obtient un
système linéaire sous la forme A(2) x = b (2) avec
   
a11 a12 . . . a1j . . . a1n b1
 0 a(2) . . . a(2) . . . a(2)   b (2) 
 22 2j 2n   2 
 . .. .. .. .. ..   .
 ..

. . . . .   .. 
A(2) =  , b (2) =  (2)
   
(2) (2) (2)
 0 ai2 . . . aij . . . ain

  bi 
 .
 .. .. .. .. .. .. 
  
 .
 . . . . . .   .


(2) (2) (2) (2)
0 an2 . . . anj . . . ann bn

On dit qu’on vient de réaliser la première étape de l’élimination de Gauss,


ce qui a consisté à faire apparaı̂tre des 0 sur la première colonne en
dessous de la diagonale.
Chapitre 4: Résolution approchée des systèmes linéaires 12 / 61
Résolution approchée des systèmes linéaires
Deuxième étape
La deuxième étape consiste à éliminer la deuxième inconnue x2 des
équations 3, 4, . . . , n. Pour cela on commence par la troisième ligne, en
(2)
supposant maintenant que a22 est non nul. Ce qui conduit aux formules :

(2)
 (2) (3) (2) a32 (2)
a −→ a = a − a pour j = 2, 3, . . . , n


 3j
 3j 3j (2) 2j
a22
(2)
 (2) (3) (2) a32 (2)
b −→ b = b − b


 3
 3 3 (2) 2
a22
La formule pour la ligne i (i = 3, . . . , n) s’écrit alors

(2)
 (2) (3) (2) ai2 (2)
a −→ a = a − a pour j = 2, 3, . . . , n


 ij
 ij ij (2) 2j
a22
(2)
 (2) (3) (2) ai2 (2)
 bi −→ bi = bi − (2) bi



a22
Chapitre 4: Résolution approchée des systèmes linéaires 13 / 61
Résolution approchée des systèmes linéaires

Deuxième étape
Ce calcul étant fait jusqu’à la ligne n, on obtient un système sous la forme
A(3) x = b (3) avec
a11 a12 a13 . . . a1j . . . a1n
   
b1
 0 a(2) a(2) (2) (2)
. . . a2j . . . a2n   (2)
b2 
 22 23   
(3) (3) (3) (3)  (3)
b (3)
  
A =  0 0 a 33 . . . a3j . . . a3n  , = b3 
 .. .. .. .. .. .. ..  ..
  
.
 
 . . . . . . .   
(3) (3) (3) (3)
0 0 an3 . . . anj . . . ann bn

Chapitre 4: Résolution approchée des systèmes linéaires 14 / 61


Résolution approchée des systèmes linéaires

Etape générale
On peut alors définir l’algorithme général en supposant qu’on a effectué
k − 1 étapes de l’élimination de Gauss, et on a un système qui s’écrit
A(k) x = b (k) , avec A(k) et b (k) donnés par
 
a11 a12 a13 . . . a1j . . . a1n
(2) (2) (2) (2) 
 0 a22 a23 . . . a2j . . . a2n 
  
b1
(3) (3) (3) 
 
 0 0 a . . . a . . . a  b (2) 
 33 3j 3n   2 
 . . . . . . .  (3)
(k) . . . . . . . (k)
 
A =  . . . . . . .  , b =  b3

 (k) ..

(k) (k) 
 0 0 0 . . . akk . . . akn   bk .
 

 . .. .. .. .. .. ..  (k)
 . bn
 . . . . . . . 
(k) (k)
0 0 0 . . . ank . . . ann

Chapitre 4: Résolution approchée des systèmes linéaires 15 / 61


Résolution approchée des systèmes linéaires

Etape générale

- On voit que la ligne i de la matrice A(k) et du vecteur b (k) n’est plus


modifiée par l’algorithme dès que i ≤ k.
- A l’étape k on pratique l’élimination sur une matrice carrée dont la
taille est n − k + 1.
- Les modifications effectuées sur la matrice A au cours des étapes ne
changent pas la valeur du déterminant puisqu’une ligne est toujours
remplacée par elle même plus une combinaison de la ligne ”pivot”. On
a donc
detA = detA(k) , pourk = 1, . . . , n.
- L’algorithme se termine à l’étape k = n. La matrice A(n) ainsi obtenue
est la matrice triangulaire supérieure  cherchée et b (n) est le vecteur
b̂ du système Ax = b qui est bien équivalent au système Âx = b̂.
Chapitre 4: Résolution approchée des systèmes linéaires 16 / 61
Résolution approchée des systèmes linéaires

Etape générale
L’étape k consiste à faire l’élimination de la variable xk dans les équations
k + 1, k + 2, . . . , n. Ceci conduit aux formules suivantes, définies pour
k + 1, k + 2, . . . , n,
 (k)
 (k) (k+1) (k) aik (k)
 aij −→ aij = aij − (k) akj pour j = k, k + 1, . . . , n



akk
(k)
 (k) (k+1) (k) aik (k)
b −→ b = b − b


 i
 i i (k) k
akk

Chapitre 4: Résolution approchée des systèmes linéaires 17 / 61


Résolution approchée des systèmes linéaires

Algorithme d’élimination de Gauss


En partant de A(1) = A et b (1) = b on construit par récurrence, pour
k = 1, 2, . . . n, des matrices A(k) et des vecteurs b (k) tels que le système
Ax = b soit équivalent à
A(k) x = b (k) ,
de plus la matrice A(n) est triangulaire supérieure.
Définition
(k)
On appelle pivots les nombres akk Comme nous l’avons déjà noté, l’étape
k de l’élimination ne modifie que les lignes et les colonnes k + 1 à n. Cela
veut dire que de façon pratique, on n’a pas besoin de conserver les
différentes versions de A(k) et b (k) . On travaille donc avec la matrice A et
le vecteur b originaux, dans lesquels on écrase au fur et à mesure les
anciens termes.
Chapitre 4: Résolution approchée des systèmes linéaires 18 / 61
Résolution approchée des systèmes linéaires

Factorisation LU
La matrice A peut se factoriser en un produit d’une matrice triangulaire
inférieure L et d’une matrice triangulaire supérieure U à condition que l’on
puisse appliquer l’élimination de Gauss à la matrice A, ce qui est possible
si les pivots sont non nuls.

Chapitre 4: Résolution approchée des systèmes linéaires 19 / 61


Résolution approchée des systèmes linéaires

Unicité de la factorisation LU
Nous avons alors le théorème suivant :
Théorème
Si au cours de l’élimination de Gauss les pivots sont non nuls, alors il
existe une matrice triangulaire inférieure L et une matrice triangulaire
supérieure U, telles que l’on ait

A = LU.

De plus si on impose à L d’avoir ses éléments diagonaux égaux à 1 alors la


factorisation est unique.

Chapitre 4: Résolution approchée des systèmes linéaires 20 / 61


Calcul direct de la factorisation A = LU

Motivations de la factorisation LU

- Résolution des systèmes linéaires


Reprenons le système
Ax = b
Si l’on dispose d’une factorisation A = LU, alors on peut récrire
Ax = b sous la forme
LUx = b
La solution de ce système s’obtient en résolvant successivement les
deux systèmes 
Ly = b,
Ux = y ,
ce qui correspond à la résolution de deux systèmes triangulaires.

Chapitre 4: Résolution approchée des systèmes linéaires 21 / 61


Calcul direct de la factorisation A = LU

Motivations de la factorisation LU

- Calcul du déterminant
Comme la matrice U n’est pas semblable à A, cependant on a
n
(k)
Y
det(A) = det(LU) = det(L)det(U) = det(U) = akk
k=1

La factorisation LU qui fournit une méthode économique (par rapport au


développement suivant une ligne ou une colonne) de calcul du déterminant
de A. A titre d’exemple dans le cas n = 100, il faut de l’ordre de 106
opérations en utilisant la méthode de Gauss et de l’ordre de n! ≈ 10158
opérations par un calcul direct.

Chapitre 4: Résolution approchée des systèmes linéaires 22 / 61


Calcul direct de la factorisation A = LU

Principe du calcul direct de la factorisation LU


Rappelons la présentation classique de l’algorithme de Doolittle. On oublie
l’algorithme d’élimination de Gauss, pour chercher directement une
décomposition de A de la forme A = LU, où L est triangulaire inférieure et
U triangulaire supérieure. Pour assurer l’unicité de la décomposition, nous
demandons que la diagonale de L soit unitaire (lii = 1, i = 1, . . . , n).
Traitons un exemple, soit la matrice
 
2 1 −2
A =  4 5 −3 
−2 5 3

Chapitre 4: Résolution approchée des systèmes linéaires 23 / 61


Calcul direct de la factorisation A = LU

Principe du calcul direct de la factorisation LU


On cherche
   
1 0 0 x x x
L= x 1 0  et U= 0 x x 
x x 1 0 0 x

telle que A = LU
- On identifie la première ligne de A et la première ligne de LU, cela
permet d’obtenir la première ligne de U :
     
1 0 0 2 1 −2 2 1 −2
LU =  x 1 0   0 x x  =  4 5 −3 
x x 1 0 0 x −2 5 3

Chapitre 4: Résolution approchée des systèmes linéaires 24 / 61


Calcul direct de la factorisation A = LU

Principe du calcul direct de la factorisation LU

- On identifie la première colonne de A avec la première colonne de LU,


cela permet d’obtenir la première colonne de L :
     
1 0 0 2 1 −2 2 1 −2
LU =  2 1 0   0 x x  =  4 5 −3 
−1 x 1 0 0 x −2 5 3

- On identifie la deuxième ligne de A avec la deuxième ligne de LU,


cela permet d’obtenir la deuxième ligne de U :
     
1 0 0 2 1 −2 2 1 −2
LU =  2 1 0   0 3 1  =  4 5 −3 
−1 x 1 0 0 x −2 5 3

Chapitre 4: Résolution approchée des systèmes linéaires 25 / 61


Calcul direct de la factorisation A = LU

Principe du calcul direct de la factorisation LU

- On identifie la deuxième colonne de A avec la deuxième colonne de


LU, cela permet d’obtenir la deuxième colonne de L :
     
1 0 0 2 1 −2 2 1 −2
LU =  2 1 0   0 3 1  =  4 5 −3 
−1 2 1 0 0 x −2 5 3

- On identifie la troisième ligne de A avec la troisième ligne de LU, cela


permet d’obtenir la troisième ligne de U :

     
1 0 0 2 1 −2 2 1 −2
LU =  2 1 0   0 3 1  =  4 5 −3 
−1 2 1 0 0 −1 −2 5 3

Chapitre 4: Résolution approchée des systèmes linéaires 26 / 61


Traitement des matrices symétriques

La factorisation LDLT
Lorsqu’une matrice A est symétrique, alors la factorisation A = LU,
lorsque celle-ci est possible, peut prendre une forme particulière tenant
compte de cette symétrie :
Proposition
Si A est symétrique avec toutes ses sous-matrices principales régulières,
alors elle admet une unique factorisation sous la forme

A = LDLT ,

où L est une matrice triangulaire inférieure à diagonale unité et D une


matrice diagonale régulière.

Chapitre 4: Résolution approchée des systèmes linéaires 27 / 61


Traitement des matrices symétriques
La factorisation de Cholesky : existence
Nous avons besoin du lemme suivant pour pouvoir faire la démonstration
du théorème principal concernant l’existence et l’unicité de la
factorisation :
Lemme
Une matrice A symétrique définie positive a toutes ses sous-matrices
principales [A]k régulières.

Théorème
Si A est une matrice symétrique définie positive elle admet une unique
factorisation sous la forme
A = BB T ,
où B est une matrice triangulaire inférieure dont tous les éléments
diagonaux sont positifs.
Chapitre 4: Résolution approchée des systèmes linéaires 28 / 61
Algorithme de Cholesky

Il s’agit d’une adaptation de la factorisation LU, à un système dont la


matrice A est symétrique définie positive. L’algorithme se décompose en
trois étapes :
• Calcul de la décomposition de la matrice du système,
• Résolution du premier système triangulaire,
• Résolution du deuxième système triangulaire.
Plus précisément, on cherche une décomposition de la matrice A du
système, de la forme A = BB T , où B est une matrice triangulaire
inférieure dont les termes diagonaux sont positifs ( B T désigne sa
transposée).

Chapitre 4: Résolution approchée des systèmes linéaires 29 / 61


Méthodes itératives de résolution des systèmes
linéaires

Principes généraux
Les méthodes itératives sont utilisées soit pour la résolution de systèmes
linéaires de très grande taille, soit lorsque l’on dispose d’une estimation de
la solution que l’on veut améliorer.
Une méthode itérative consiste à construire une suite de vecteurs
x (0) , x (1) , . . . , x (k) , . . . , qui, on l’espère, ou mieux on le démontre,
convergera vers la solution du système linéaire à résoudre.

Chapitre 4: Résolution approchée des systèmes linéaires 30 / 61


Méthodes itératives de résolution des systèmes
linéaires

Principes généraux
Soit A ∈ Mn (R)une matrice régulière et b ∈ Rn donnés. On se propose de
résoudre le problème
f (x) = Ax − b = 0
par une méthode itérative de la forme suivante :
 (0)
x donné
Mx (k+1) = Nx (k) + b

où les matrices M, N ∈ Mn (R), M inversible, sont convenablement


choisies.

Chapitre 4: Résolution approchée des systèmes linéaires 31 / 61


Méthodes itératives de résolution des systèmes
linéaires

Principes généraux
Si cette méthode itérative converge, c’est-à-dire si la suite x (k) converge
vers x ∗ alors on a, à la limite,

(M − N)x ∗ = b,

ce qui correspondra à la résolution de Ax = b si

A=M −N

Il y a une infinité de choix possibles pour M et N vérifiant A = M − N,


nous allons en donner deux à titre d’exemples. L’idée est bien sûr de
choisir une matrice M particulièrement facile à inverser, par exemple
diagonale, ou bien triangulaire inférieure. Ces deux choix correspondent
respectivement à la méthode de Jacobi et à la méthode de Gauss-Seidel.
Chapitre 4: Résolution approchée des systèmes linéaires 32 / 61
Méthodes itératives de résolution des systèmes
linéaires
La méthode de Jacobi
Le système linéaire Ax = b s’écrit
 n
P
a1j xj = b1 ,






 j=1


 ...

 P n
aij xj = bi , pour 2 ≤ i ≤ n − 1,

 j=1
...





 Pn
anj xj = bn .




j=1

La méthode de Jacobi consiste, à chaque itération k, à résoudre chaque


équation par rapport à l’une des variables, les autres étant fixées à leurs
valeurs obtenues à l’itération précédente.
Chapitre 4: Résolution approchée des systèmes linéaires 33 / 61
Méthodes itératives de résolution des systèmes
linéaires
La méthode de Jacobi
Soit donc le vecteur x (k) donné, alors on détermine successivement les
composantes de x (k+1) par les formules :
n

 a11 x1(k+1) = b1 − (k)
P


 a1j xj ,

 j=2



 ...
 n
(k+1) (k)
 P
aii xi = bi − aij xj , pour 2 ≤ i ≤ n − 1,

 j=1,j6=i
. . .




 n−1
(k+1) (k)
 P




 a nn x n = b n anj xj .
j=1

Les formules précédentes ne définissent effectivement x (k+1) que si les


coefficients diagonaux de A sont tous non nuls.
Chapitre 4: Résolution approchée des systèmes linéaires 34 / 61
Méthodes itératives de résolution des systèmes
linéaires
La méthode de Jacobi
On peut écrire les relations précédentes sous forme matricielle. Pour cela
introduisons la décomposition suivante de A :
A=D −E −E
avec
- D matrice diagonale contenant la diagonale de A,
- E matrice triangulaire inférieure (triangle inférieur de −A),
- F matrice triangulaire supérieure (triangle supérieur de −A),
Avec ces notations on peut écrire le système Ax = b sous la forme
Dx = (E + F )x + b
La méthode de Jacobi s’écrit
 (0)
x donné
Dx (k+1) = (E + F )x (k) + b
Chapitre 4: Résolution approchée des systèmes linéaires 35 / 61
Méthodes itératives de résolution des systèmes
linéaires
La méthode de Jacobi : Exemple
Soit le système linéaire :
    
10 1 x1 11
=
2 10 x2 12
dont la solution est x1∗ = 1 et x2∗ = 1.
Ecrire les formules permettant de calculer l’itéré x (k+1) en fonction de
l’itéré x (k) . Que peut-on dire sur la convergence ou la divergence de la
méthode de Jacobi pour ce système ?
Mêmes questions pour le système linéaire :
    
1 10 x1 11
=
10 2 x2 12
dont la solution est x1∗ = 1 et x2∗ = 1.
Chapitre 4: Résolution approchée des systèmes linéaires 36 / 61
Méthodes itératives de résolution des systèmes
linéaires

La méthode de Gauss-Seidel
Il s’agit d’une modification de la méthode de Jacobi qui consiste à utiliser
pour chaque équation les composantes de x (k+1) déjà calculées, ceci
conduit aux formules
 n
(k+1) P (k)


 a11 x1 = b1 − a1j xj ,
j=2



. . .




i−1 n

 (k+1) P (k+1) P (k)
aii xi = bi − aij xj − aij xj , pour 2 ≤ i ≤ n − 1,

 j=1 j=i+1
...




n−1


 (k+1) P (k)+1
 ann xn

 = bn − anj xj .
j=1

Chapitre 4: Résolution approchée des systèmes linéaires 37 / 61


Méthodes itératives de résolution des systèmes
linéaires

La méthode de Gauss-Seidel
Sous forme matricielle cela revient à écrire le système Ax = b sous la forme

(D − E )x = Fx + b,

où les matrices D, E et F ont été données dans le paragraphe référencé


sur la méthode de Jacobi.
La méthode de de Gauss-Seidel s’écrit
 (0)
x donné
(D − E )x (k+1) = Fx (k) + b

A chaque itération la matrice du système à résoudre est triangulaire


inférieure.
Chapitre 4: Résolution approchée des systèmes linéaires 38 / 61
Méthodes itératives de résolution des systèmes
linéaires

La méthode de Gauss-Seidel
On observe que les méthodes de Jacobi et Gauss-Seidel que nous venons
de voir peuvent se mettre sous la forme Mx (k+1) = Nx (k) + b :
- M = D, N = E + F , pour la méthode de Jacobi,
- M = D − E , N = F , pour la méthode de Gauss-Seidel.

Chapitre 4: Résolution approchée des systèmes linéaires 39 / 61


Méthodes itératives de résolution des systèmes
linéaires

La méthode de Gauss-Seidel Exemple


Ecrire les formules permettant de calculer l’itéré x (k+1) en fonction de
l’itéré x (k) avec la méthode Gauss-Seidel pour résoudre les systèmes
linéaires de l’exemple précédent. Que peut-on dire sur la convergence ou la
divergence de la méthode de Gauss-Seidel pour ces systèmes ?

Chapitre 4: Résolution approchée des systèmes linéaires 40 / 61


Méthodes itératives de résolution des systèmes
linéaires
Etude de la convergence des méthodes itératives
Commençons par étudier la convergence de la méthode itérative
 (0)
x donné
(2)
x (k+1) = Cx (k) + d

Proposition
S’il existe une norme matricielle subordonnée telle que

kC k < 1

la méthode (2) est convergente quel que soit le choix de x (0) et elle
converge vers la solution de

(I − C )x ∗ = d.
Chapitre 4: Résolution approchée des systèmes linéaires 41 / 61
Méthodes itératives de résolution des systèmes
linéaires
Etude de la convergence des méthodes itératives
Définition
On dit que la matrice A est à diagonale strictement dominante si
X
kaii | > |aij |, ∀i, 1 ≤ i ≤ n.
j6=i

Proposition
Si la matrice A est à diagonale strictement dominante alors les méthodes
de Jacobi et Gauss-Seidel sont convergentes.

Proposition
Si la matrice A est symétrique définie positive, alors la méthode de
Gauss-Seidel est convergente.
Chapitre 4: Résolution approchée des systèmes linéaires 42 / 61
Normes matricielles
Normes vectorielles
Les normes matricielles sont aussi un outil indispensable pour le calcul du
conditionnement d’une matrice, indicateur de la ”bonne résolution” d’un
système linéaire.
Définition
Soit E un espace vectoriel sur K (K = R ou C). On appelle norme sur E
une application de E dans R+ notée

x 7−→ kxk

possédant les propriétés suivantes : quel que soit x ∈ E , y ∈ E , λ ∈ K :


1 kxk = 0 ⇔ x = 0
2 kλxk = |λ| kxk
3 kx + y k ≤ kxk + ky k

La notation |λ| représente la valeur


Chapitre absolue
4: Résolution approchéeou le module
des systèmes linéaires de λ suivant que
43 / 61
Normes matricielles

Normes vectorielles
n
E = Rn , kxk1 =
P
|xi |,
i=1
r P
E = Rn , kxk2 = , (norme euclidienne)
i=1n xi2

E = Rn , kxk∞ = max |xi |


i=1,...,n
s
n
E = Cn , kxk2 = |xi |2 avec |xi |2 = xi x̄i
P
i=1

Chapitre 4: Résolution approchée des systèmes linéaires 44 / 61


Normes matricielles
Définition de la norme matricielle
Définition
On appelle norme matricielle une application qui à une matrice
quelconque, associe un nombre réel positif. On note cette application de
Mn (R) dans R+ :
A 7−→ kAk
et elle possède les propriétés suivantes :
1 kAk = 0 ⇔ A = 0
2 kλAk = |λ| kAk, ∀A ∈ Mn (R), ∀λ ∈ R
3 kA + Bk ≤ kAk + kBk, ∀A, B ∈ Mn (R)
4 kABk ≤ kAk kBk, ∀A, B ∈ Mn (R)
Les normes matricielles vérifient donc, en plus des propriétés des normes
vectorielles, une relation sur le produit des matrices.
Chapitre 4: Résolution approchée des systèmes linéaires 45 / 61
Normes matricielles

Définition de la norme matricielle

Définition
Soit A ∈ Mmn (R). Etant donnée une norme (vectorielle) sur Cn , et une
norme (vectorielle) sur C m on appelle norme matricielle subordonnée, une
norme matricielle définie par

kAxk
kAk = max
x∈Cn , x6=0 kxk

Chapitre 4: Résolution approchée des systèmes linéaires 46 / 61


Normes matricielles

Etude de la norme matricielle subordonnée à la norme


euclidienne

Théorème
Si A ∈ Mn (R) )est symétrique alors

x T Ax
max λk = max ,
1≤k≤n x∈R n x6=0 x T x

où (λ)1≤k≤n sont les valeurs propres (réelles) de A.

Chapitre 4: Résolution approchée des systèmes linéaires 47 / 61


Normes matricielles

Rayon spectral

Définition
Soit A ∈ Mn (C), on appelle rayon spectral de A et on note ρ(A) le
nombre réel
ρ(A) = max |λi |
1≤i≤n

où (λ)1≤k≤n sont les valeurs propres (complexe) de A.

Chapitre 4: Résolution approchée des systèmes linéaires 48 / 61


Normes matricielles

Rayon spectral

Théorème
- Soit A ∈ Mnm (R), alors

kAk22 = ρ(AAT ) = ρ(AT A).

- Si la matrice C est symétrique, alors

kC k2 = ρ(C ).

Soit A ∈ Mnm (R), alors

kAk22 = kAAT k2 = kAT Ak2 .

Chapitre 4: Résolution approchée des systèmes linéaires 49 / 61


Conditionnement d’un système linéaire

Introduction au conditionnement d’une matrice


Lorsque l’on a résolu numériquement un système linéaire il est possible que
la solution trouvée soit très différente de la solution exacte. En effet dans
certains cas une petite modification du second membre ou de la matrice
du système entraı̂ne une grande modification de la solution. Par exemple la
résolution de Ax = b avec le choix de A et b suivant
     
10 7 8 7 32 1
 7 5 6 5   23   1 
A=  8 6 10 9  , b =  32  donne pour solution x =  1
    

7 5 9 10 31 1

Chapitre 4: Résolution approchée des systèmes linéaires 50 / 61


Conditionnement d’un système linéaire

Introduction au conditionnement d’une matrice


Le choix d’un nouveau second membre b + δb
   
32.1 9.2
 22.9   −12.6 
b + δb =  33.1  donne pour solution x =  4.5 
  

30.9 1.1

Une faible erreur relative sur la norme de b induit une erreur relative sur la
norme de x beaucoup plus importante, par exemple si on prend la norme
k.k∞ , on a :
kδbk∞ kδxk∞
= 3.103 = 13.6
kbk∞ kxk∞
Une telle situation est due au fait que la matrice A a un conditionnement
grand (on dit également que A est mal conditionnée), au sens de la
définition suivante :
Chapitre 4: Résolution approchée des systèmes linéaires 51 / 61
Conditionnement d’un système linéaire

Introduction au conditionnement d’une matrice

Définition
On appelle conditionnement de A relatif à une norme subordonnée le
nombre
χ(A) = kAk kA−1 k.

Dans l’exemple précédent on a


 
25 −41 10 −6
−41 68 −17 10
A−1 = 
 
,
 10 −17 5 −3 
−6 10 −3 2

et χ∞ = kAk∞ kA−1 k∞ = 4488

Chapitre 4: Résolution approchée des systèmes linéaires 52 / 61


Conditionnement d’un système linéaire

Introduction au conditionnement d’une matrice

Proposition
Si la matrice A est symétrique et si l’on prend la norme subordonnée à la
norme euclidienne, on a
max |λi |
1≤i≤n
χ2 =
min |λi |
1≤i≤n

Chapitre 4: Résolution approchée des systèmes linéaires 53 / 61


Conditionnement d’un système linéaire

Lien entre le conditionnement et les erreurs


On va démontrer maintenant des inégalités liant le conditionnement de A
et les erreurs relatives sur b etx :
Théorème
On suppose que l’on a Ax = b et

A(x + δx) = b + δb, on perturbe le second membre

Alors,
kδxk kδbk
≤ χ(A)
kxk kbk

Chapitre 4: Résolution approchée des systèmes linéaires 54 / 61


Exercices
Exercice
Soit le système d’équations algébriques suivant :
    
1 2 x1 3
= .
2 1 x2 3

1 Calculer la solution exacte ~x = (x1 , x2 )T du système linéaire.


2 Faire quelques itérations de la méthode de GAUSS-SEIDEL en
partant de l’approximation initiale ~x 0 = (0, 0)T pour vérifier que
l’algorithme diverge.
3 Proposer une simple modification du système qui conduise à la
convergence de la méthode de GAUSS-SEIDEL en partant de
l’approximation initiale ~x 0 = (0, 0)T . Vérifier en itérant jusqu’à ce que
k~x k − ~x k < 10−1
4 Ecrire un algorithme de résolution de ce nouveau système linéaire par
Chapitre 4: Résolution approchée des systèmes linéaires 55 / 61
Exercices

Exercice
On considére le système linéaire Ax = B, avec
   
3 1 4
A= et B= .
2 5 7

1 Ecrire la méthode de JACOBI pour résoudre le système linéaire


Ax = B.
2 Calculer le vecteur x1 obtenu après la première itération de laméthode
de JACOBI,à partir du vecteur initial x0 = 12 , 21


3 Ecrire la matrice d’itération J de la méthode de JACOBI.


4 Est-ce que la méthode de JACOBI appliquée au système Ax = B
converge ?

Chapitre 4: Résolution approchée des systèmes linéaires 56 / 61


Exercices

Exercice
Soit les systèmes linéaires
       
1 2 3 4 x1 1 1 2 3 4 x1
 2 3 4 1   x2   2   2 3 4 1   x2 
 3 4 1 2   x3  =  et
       =
3   3 4 1 2   x3 
4 1 2 3 x4 4 4 1 2 3 x4

1 Résoudre les systèmes linéaires par la méthode du pivot de GAUSS.


2 Factoriser la matrice A (sans utiliser la technique du pivot) et
résoudre les systèmes linéaires.
3 Calculer le déterminant de A.
4 Calculer A−1

Chapitre 4: Résolution approchée des systèmes linéaires 57 / 61


Exercices

Exercice
Donner une condition suffisante sur le coefficient α pour avoir convergence
des méthodes de JACOBI et GAUSS-SEIDEL pour la résolution d’un
système linéaire associé à la matrice
 
α 0 1
A= 0 α 0 
1 0 α

Chapitre 4: Résolution approchée des systèmes linéaires 58 / 61


Exercices
Exercice
Soit α un paramètre réel et soient les matrices Aα , P et le vecteur b
définis par
     
2 4 1 1 0 0 0
Aα =  α −2 −1  P =  0 0 1 , b =  −3/2 
2 3 2 10 1 0 −1

1 A quelle condition sur α, la matrice Aα est inversible ?


2 A quelle condition sur α, la matrice Aα admet-elle une décomposition
LU (sans pivot) ?
3 Soit α = −1. Calculer, si elle existe, la décomposition LU de la
matrice M = PAα .
4 Soit α = −1. Résoudre le système linéaire Ax = b en résolvant le
système linéaire Mx = Pb.
Chapitre 4: Résolution approchée des systèmes linéaires 59 / 61
Exercices

Exercice
On définit p(x) = a + bx + cx 2 le polynôme de degré inf ÃÅerieur ou égal
à 2 interpolant f aux points α, β et γ ( c’est-à-dire satisfaisant
p(α) = f (α), p(β) = f (β) et p(γ) = f (γ)).
1 Ecrire le système linéaire que résolvent a, b,et c. On désigne par M la
matrice de ce système
2 Faites la factorisation LU de cette matrice et en déduire sont
déterminant
3 Quel résultat sur l’interpolation retrouve-t-on ?

Chapitre 4: Résolution approchée des systèmes linéaires 60 / 61


Exercices

Exercice
Considérons le système linéaire Ax = b avec
 
α 0 γ
A= 0 α β 
0 δ α

avec α, β, γ et δ des paramètres réels. Donner des conditions suffisantes


sur les coefficients pour avoir
1 convergence de la méthode de JACOBI
2 convergence de la méthode de GAUSS-SEIDEL.

Chapitre 4: Résolution approchée des systèmes linéaires 61 / 61

Vous aimerez peut-être aussi