Académique Documents
Professionnel Documents
Culture Documents
Chapitre 5
Résolution numérique
des systèmes linéaires
M. Lahlou
Département de Mathématiques
Faculté des Sciences Semlalia
Université Cadi Ayyad
Marrakech
18/04/2022
1/95
Chapitre 5Résolution numériquedes systèmes linéaires
Plan
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
2/95
Chapitre 5Résolution numériquedes systèmes linéaires
Introduction
1. Introduction
2. Méthodes directes
3/95
Chapitre 5Résolution numériquedes systèmes linéaires
Introduction
Ax = b
4/95
Chapitre 5Résolution numériquedes systèmes linéaires
Introduction
6/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
7/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Objectif
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
8/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Objectif
Système triangulaire :
Soit le système :
2 1 2 x1 10
0 1 −6 x2 = −4
0 0 −1 x3 −1
La méthode suivante est dite de remontée
−1
x3 = −1 = 1
−4−(−6)x3
x2 = 1 =2
10−x2 −2x3
x1 = 2 =3
9/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Objectif
Transformer
Ax = b ⇐⇒ Ux = c où U triangulaire supérieure :
∗ ···
0 ∗
U =
.. ..
0 . .
0 ∗
10/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
11/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
2x1 + x2 + 2x3 = 10
6x1 + 4x2 = 26 (1)
8x1 + 5x2 + x3 = 35
On note respectivement la matrice du système et le second membre
par A(0) = A = (ai,j )i,j=1,2,3 , b(0) = b = (bi )i=1,2,3 .
On note aussi li la ligne i (avec le second membre)
On a a1,1 = 2 6= 0 appelé pivot,
On ne touche pas la ligne l1 appelée ligne de pivot,
On transforme A(0) , b(0) de manière à faire apparaître des 0 en
dessous du pivot dans la colonne 1 :
2 1 2 | 10 l1
[A(0) |b(0) ] = 6 4 0 | 26 l2 → l2 −(6/2)l1
8 5 1 | 35 l3 → l3 −(8/2)l1
12/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
étape 1 :
ai,1
A(0) ⇒ A(1) , i > 1, li → li − l1
a1,1
2 1 2 | 10 l1
[A(1) |b(1) ] = 0 1 −6 | −4 l2
0 1 −7 | −5 l3 → l3 − l2
13/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
⇓ Méthode de Remontée
14/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
Généralisation :
15/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
colonne k
↓
× ··· × | ×
0
× ··· × | ×
. .. .. .. ..
.. 0 . . . | .
h i ..
A (k−1) (k−1)
|b =
. ×
..
. 0 ak,k ··· × | × ← lk
.. .. ..
..
. . × . ··· .
.. .. ..
. . × | .
0 0 ··· ×
0 ··· |
ai,k
i ≥ k + 1, li −→ li − lk
ak,k
⇒ ai,k = 0, i ≥ k + 1 dans A(k)
16/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
17/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
Algorithme de remontée :
Résolution :
bn
xn =
an,n
Et pour i = n − 1, · · · , 1
n
!
1 X
xi = bi − ai,k xk
ai,i
k=i+1
18/95
En informatique on mesure le coût d’un algorithme appelé
compléxité en fonction de la taille des données, donc ici la taille n
du système. C’est le terme dominant pour n grand qui est le plus
significatif dans le nombre total d’opérations.
Proposition 2
Le coût global d’opérations élémentaires est environ en O(n3 ) pour la
phase de la descente et en O(n2 ) pour la phase de remontée.
Preuve.
Pour passer de A(k−1) à A(k) , 1 ≤ k ≤ n − 1, on effectue :
(n − k)2 soustractions,
(n − k)2 multiplications,
n − k divisions
n n
Soit (n − 1)(2n − 1) soustractions, (n − 1)(2n − 1)
6 6
multiplications et n(n − 1)/2 divisions.
Pour le passage de b(k−1) à b(k) , on effectue
n − k soustractions,
n − k multiplications
soit n(n − 1)/2 soustractions et n(n − 1)/2 multiplications.
Donc le terme dominant pour n grand dans la descente est un O(n3 ).
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss sans permutation
Remarque
Pour n = 50, sur le même ordinateur M à 109 opérations/seconde on
effectue environ 125000 opérations.
Soit, 125000/109 = 0.000125 seconde.
20/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss avec permutation
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
21/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss avec permutation
problème : pivot = 0 ! !
22/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss avec permutation
solution : on permute la ligne 2 avec une ligne i > 2 telle que ai,2 6= 0.
Donc ici l2 ←→ l3 :
1 −1 −1 | −8
2
0 2 −1 1 | 6
[Ã(1) |b̃(1) ] =
0 0 −1 −1 | −4
0 0 2 4 | 12
23/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss avec permutation
l4 → l4 + 2l3
1 −1 2 −1 | −8
0 2 −1 1 | 6
[A(2) |b(2) ] =
0 0 −1 −1 | −4
0 0 0 2 | 4
2
Cette méthode est appelée aussi élimination de gauss avec pivotage
partiel.
24/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Elimination de Gauss avec permutation
Plus généralement :
la stratégie de pivot consiste à ce que :
Exercice
Ecrire un algorithme qui résout un système Ax = b en utilisant
l’élimination de Gauss qui tient compte des permutations.
27/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
28/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Motivations pour LU :
On a vu que résoudre Ax = b par élimination de Gauss coûte
environ O(n3 ) opérations.
Si on on a Ax = b ⇐⇒ LU x = b. En posant y = U x. Résoudre
système initial revient à résoudre 2 systèmes triangulaires :
Ly = b puis U x = y qui coûte chacun O(n2 ) opérations. Donc La
résolution par LU nécessite en gros O(n2 ) au lieu de O(n3 ).
Par exemple pour résoudre un système de taille 100, on utiliserait
10000 opérations au lieu de 1 million.
Si on a plusieurs systèmes Ax = b1 , b2 , · · · , avec la même matrice
A, alors c’est couteux de refaire la même élimination de Gauss
sur A pour chaque second membre bi .
Si on trouve une seule fois L et U , alors
(
i Ly i = bi (∗)
Ax = LU x = b ⇔
Ux = y i (∗∗)
Donc on résout (*), puis (**), deux systèmes triangulaires faciles sans
refaire les calculs de L et U pour chacun des seconds membres.
30/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Technique de décomposition :
On reprend le système (1) de la section 2.2
La modification :
(0) (0) 2 1 2 10 ← l1
A |b = 6 4 0 26 ← l2
8 5 1 35 ← l3
(1) (1) 2 1 2 10
⇒ A |b = 0 1 −6 −4 ← l2 + (−3)l1
0 1 −7 −5 ← l3 + (−4)l1
31/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
h i h i 2 1 2 | 10
A(1) |b(1) ⇒ A(2) |b(2) = 0 1 −6 | −4 = M (2) [A(1) |b(1) ]
0 0 −1 | −1
1 0 0
avec M (2) = 0 1 0
0 −1 1
Donc
32/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
33/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
et
2x1 + x2 + 2x3 = 10
Ux = y : x2 − 6x3 = −4 ⇒ x = (3, 2, 1)
−x3 = −1 34/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
1
Plus généralement :
étape k : A(k) = M (k) A(k−1) où M (k) est triangulaire inférieure avec 1
sur la diagonale donc inversible :
colonne k
↓
1 0
.. ..
.
. 0
1
..
0 .
a ..
i,k
− ak,k .
..
. 0 1
On en déduit que
−1
A(k−1) = M (k) A(k) = L(k) A(k)
35/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
où
colonne k
↓
1 0
.. ..
.
. 0
−1
1
L(k) = M (k) =
..
0 .
ai,k ..
ak,k
.
..
. 0 1
1. 25/04/2022
36/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
A la dernière étape n − 1, on a :
A = M −1 U = LU
Conséquence
Les éléments diagonaux ui,i , i = 1, · · · , n de U sont les pivots du
processus de l’élimination de Gauss.
37/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Théorème 5
Soit A une matrice carrée d’ordre n inversible. La factorisation LU de
A avec li,i = 1 existe et est unique
si et seulementsi toutes les
a1,1 · · · a1,k
.. .. .. , 1 ≤ k ≤ n − 1
sous-matrices principales Ak = . . .
ak,1 ··· ak,k
extraites de A sont inversibles.
38/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Remarque 6
Nous n’avons pas l’unicité de L, U si on n’impose pas les li,i = 1.
Par ex. on peut avoir A = LU avec L triangulaire inférieure et U
triangulaire supérieure avec ui,i = 1.
Si A non inversible, il peut exister des décompositions LU , sans
avoir l’unicité.
Par exemple :
0 1 1 0 0 1 1 0 0 1
= =
0 4 1 1 0 3 2 1 0 2
39/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Exemple.
3 0 1
Soit A = 0 2 1, ici n = 3 et il est facile de voir que
1 0 0
det(A) = −2, donc A inversible.
on a la sous-matrice A1 est le scalaire non
nul 3.
Donc inversible.
3 0
La sous-matrice principale d’ordre 2 A2 = est clairement
0 2
inversible aussi.
Donc A admet une décomposition LU .
Attention : Il ne s’agit pas dans ce résultat de déterminer L et U
mais de savoir si A est décomposable en LU .
40/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
Applications :
Calculer le determinantet l’inverse d’une matrice :
3 0 1
Reprenons la matrice A = 0 2 1
1 0 0
On peut vérifier à titre d’exercice que A = LU avec
1 0 0 3 0 1
L= 0 1 0 et U = 0 2 1
1/3 0 1 0 0 −1/3
41/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
1 0 0 0
−2 1 0 0
M (1) =
−1
0 1 0
−1 0 0 1
43/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
1 0 0 0
0 0 1 0
P =
0
, Pi,j = 0 sauf P1,1 = P4,4 = P2,3 = P3,2 = 1
1 0 0
0 0 0 1
44/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
l4 → l4 + 2l3
1 −1 2 −1 | −8
(2) (2)
0 2 −1 1 | 6 = M (2) [Ã(1) |b̃(1) ]
[A |b ] =
0 0 −1 −1 | −4
0 0 0 2 | 4
1 0 0 0
0 1 0 0
avec M (2) =
0
On en déduit que A(2) = M A, b(2) = M b
0 1 0
0 0 2 1
On pose U = A(2) ⇒ U = M A,
45/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
1 0 −2 1
Donc A n’est pas de la forme LU .
46/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes directes
Décomposition LU
47/95
Revenons à l’exemple précédent , on a trouvé :
U = M A = M P −1 P A = M P P A
−1
⇒ P A = (M P ) U = P −1 M −1 U = P M −1 U
1 0 0 0
2 0 1 0
On a M −1 = 1 1 0 0 et calculons
1 0 −2 1
1 0 0 0
−1
1 1 0 0
PM = 2 0 1 0 = L cela revient à permuter lignes 2 et 3
1 0 −2 1
dans M −1 .
Alors on a P A = LU avec L triangulaire inférieure à diagonale unité.
Attention
Plus généralement, Lorsqu’ on effectue une permutation au moins
dans l’élimination de Gauss, on n’obtient pas une factorisation LU .
En effet, la matrice M obtenue pendant l’élimination n’est pas
triangulaire inférieure. Donc son inverse non plus.
Néanmoins, on peut écrire la matrice P A = LU .
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
1. Introduction
2. Méthodes directes
49/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
50/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
A) Normes Vectorielles
Soit E un espace vectoriel de dimension finie
Définition 8
On appelle norme vectorielle sur l’espace E, une application linéaire
k.k : E −→ IR+ vérifiant :
∀v ∈ E, kvk = 0 ssi v = 0
kα.vk = |α|.kvk, ∀α ∈ IR, v ∈ E
kv + wk ≤ kvk + kwk, ∀v, w ∈ E
Exemples
51/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
52/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
B) Normes Matricielles :
Définition 9
On note Mn (IR) l’espace des matrices réelles carrées d’ordre n.
L’application k.k : Mn (IR) → IR+ est une norme matricielle si :
∀A ∈ Mn (IR), kAk = 0 ssi A = 0
kλAk = |λ|.kAk, ∀λ ∈ IR, A ∈ Mn (IR)
kA + Bk ≤ kAk + kBk, ∀A, B ∈ Mn (IR)
kABk ≤ kAk.kBk
Exemples
Norme de Frobenius :
1/2
X
kAkF = |ai,j |2
1≤i,j≤n
kAvk∞
kAk∞ = sup
v6=0 kvk∞
54/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
Théorème 10
Si A = (ai,j )1≤i,j≤n est une matrice d’ordre n alors
n
X
kAk∞ = max |ai,j |
1≤i≤n
j=1
Xn
kAk1 = max |ai,j |
1≤j≤n
i=1
q q
kAk2 = ρ(AAT ) = ρ(AT A)
55/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Normes vectorielles et matricielles
56/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Valeurs propres et vecteurs propres
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
57/95
Chapitre 5Résolution numériquedes systèmes linéaires
Rappels d’analyse matricielle
Valeurs propres et vecteurs propres
Définition 11
Soit A une matrice carrée d’ordre n à coefficients réels ou complexes.
On dit que λ ∈ C I est une valeur propre de A s’il existe un vecteur
x ∈CI n non nul tel que Ax = λx. On appelle x un vecteur propre
associé à la valeur propre λ.
On appelle spectre de A l’ensemble sp(A) des valeurs propres
de A.
On appelle rayon spectral de A le réel positif ρ(A) = max |λ|.
λ∈sp(A)
Théorème 12 (Gelsgorin)
Démonstration.
Si λ est une valeur propre de A associée à un vecteur propre x non
nul, alors Ax = λx.
En prenant la norme des deux côtés de cette égalité :
kAxk = |λ|.kxk
kAxk kAxk
⇒ |λ| = ≤ sup = kAk
kxk x6=0 kxk
Ce qui entraîne que |λ| ≤ kAk. Ceci est valable pour toute valeur
propre de A. D’où le résultat
On a un autre résultat :
Proposition 14
Soit A ∈ Mn (IR),
∀ > 0, ∃k.k une norme sur IRn telle que pour la norme matricielle
subordonnée on a kAk ≤ ρ(A) + .
Chapitre 5Résolution numériquedes systèmes linéaires
Analyse des erreurs et conditionnement
1. Introduction
2. Méthodes directes
60/95
Chapitre 5Résolution numériquedes systèmes linéaires
Analyse des erreurs et conditionnement
Soit le système
2x1 + 6x2 = 8
(S1)
2x1 + 6.01x2 = 8
La solution est x = (x1 , x2 ) = (4, 0).
On perturbe (S1) lègèrement en :
2x1 + 6x2 = 8
(S2)
2x1 + 5.99x2 = 8.01
Définition 15
Soit k.k une norme matricielle subordonnée à une norme vectorielle.
On appelle conditionnement d’une matrice inversible A la quantité
cond(A) = kAk × kA−1 k.
Remarque 16
La valeur de cond(A) dépend du choix de la norme et peut être
noté par exemple pour k.k∞ , cond∞ (A).
On a kIk = kA.A−1 k ≤ kAk.kA−1 k = cond(A). Mais kIk = 1.
Donc on a toujours cond(A) ≥ 1
62/95
Chapitre 5Résolution numériquedes systèmes linéaires
Analyse des erreurs et conditionnement
Remarque 18
Si cond(A) proche de 1 l’erreur relative est coincée entre deux
valeurs proches l’une de l’autre. Si krk petit la solution approchée
a toutes les chances d’être satisfaisante.
Si cond(A) est grand, l’erreur relative est ≥ un petit nombre et
krk
≤ cond(A) ←− qui risque d’être grand. Donc la solution
kbk
approximative peut être non précise, voir fausse.
63/95
Chapitre 5Résolution numériquedes systèmes linéaires
Analyse des erreurs et conditionnement
Exemple
2 6
Pour A = , cond∞ (A) = 4810.005 ≫ 1. C’est une matrice
2 6.01
très mal conditionnée.
Proposition 19
Soit A ∈ Mn (IR) inversible et b ∈ IRn un vecteur non nul. On suppose
que l’on a une perturbation δb du second membre du système Ax = b.
On note x + δx, la solution du système perturbé A(x + δx) = b + δb.
Montrer que x 6= 0 et que
kδxk kδbk
≤ Cond(A)
kxk kbk
64/95
Chapitre 5Résolution numériquedes systèmes linéaires
Analyse des erreurs et conditionnement
le vecteur b est non nul. Donc la solution x = A−1 b est non nulle.
A(x + δx) = b + δb
Ax + Aδx = b + δb
Aδx = δb
δx = A−1 δb
kδxk ≤ kA−1 k.kδbk (?)
On a aussi
kδxk kδbk
≤ Cond(A)
kxk kbk
65/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
1. Introduction
2. Méthodes directes
66/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Généralités
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
67/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Généralités
2. 9/05/2022
68/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Généralités
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
70/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
On suppose que les éléments diagonaux ai,i 6= 0. On écrit
A = D − E − F,
en choisissant
M = D, N = E + F
où
a1,1 0 ··· 0
.. ..
0 a2,2 . .
D = diag(ai,i , 1 ≤ i ≤ n) = .
.. .. ..
. . 0
0 ··· 0 an,n
D estbien inversible car les ai,i sont non nuls et
0 0 ··· 0 0 −a1,2 ··· −a1,n
. .. .
..
.. ..
−a2,1
, F = 0
. .
E= . .
.. . .. . ..
.. .. ..
0 . . −an−1,n
−an,1 · · · −an,n−1 0 0 ··· 0 0
71/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Dx(k+1) = (E + F )x(k) + b
à la ligne i :
n
(k+1) (k)
X
ai,i xi =− ai,j xj + bi
j=1,j6=i
soit
n
(k+1) 1 X (k)
∀i, 1 ≤ i ≤ n xi = bi − ai,j xj
ai,i
j=1,j6=i
72/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Exemple
Soit le sysstème :
3x1 + x2 − x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 − x2 − 6x3 = −18
73/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
74/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Gauss-Seidel
On suppose toujours ai,i 6= 0 et on prend ici
M = D − E, N = F
M est triangulaire inférieure inversible.
La matrice d’itération est B = (D − E)−1 F .
On a
(D − E)x(k+1) = F x(k) + b
à la ligne i :
i n
(k+1) (k)
X X
ai,j xj =− ai,j xj + bi
j=1 j=i+1
soit
i−1 n
(k+1) 1 X (k+1)
X (k)
∀i, 1 ≤ i ≤ n xi = bi − ai,j xj − ai,j xj
ai,i j=1 j=i+1
75/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Exemple
3x1 + x2 − x3 = 2
x1 + 5x2 + 2x3 = 17
2x1 − x2 − 6x3 = −18
76/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
77/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Remarque 21
La méthode de Gauss-Seidel gère mieux la mémoire que Jacobi.
En effet :
Pour Jacobi : le calcul d’une itération x(k+1) oblige à stocker en
(k)
mémoire tous les xi .
Pour Gauss-Seidel :
(k+1) (k+1)
si x1 calculé on peut l’utilise dans x2 ,
" n
#
(k+1) 1 (k+1)
X (k)
x2 = b2 − a2,1 x1 − ai,j xj
a2,2
j=3
(k)
et on n’a pas besoin de conserver x1 mais seulement
(k) (k) (k)
x3 , x 4 , · · · , x n
(k+1)
ainsi de suite ... pour xi on réutilise les
(k+1) (k+1) (k+1)
x1 , x2 , · · · , xi−1 déja calculés.Donc on n’a besoin de
(k) (k)
garder de l’étape k seulement xi+1 , · · · , xn .
78/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Relaxation
Soit un paramètre ω 6= 0 et on suppose ai,i 6= 0. On prend ici
1 1
M = D − E, N = −1 D+F
ω ω
79/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
On a
1 1
D − E x(k+1) = − 1 D + F x(k) + b
ω ω
à la ligne i :
i−1 n
ai,i (k+1) X (k+1) (1 − ω) (k)
X (k)
xi + ai,j xj = ai,i xi − ai,j xj + bi
ω j=1
ω j=i+1
soit
∀i, 1 ≤ i ≤ n
(k+1) ω
Pi−1 (k+1) Pn (k) (k)
xi = ai,i bi − j=1 ai,j xj − j=i+1 ai,j xj + (1 − ω)xi
1. Introduction
2. Méthodes directes
2.1 Objectif
2.2 Elimination de Gauss sans permutation
2.3 Elimination de Gauss avec permutation
2.4 Décomposition LU
3. Rappels d’analyse matricielle
3.1 Normes vectorielles et matricielles
3.2 Valeurs propres et vecteurs propres
4. Analyse des erreurs et conditionnement
5. Méthodes indirectes ou itératives
5.1 Généralités
5.2 Méthodes de Jacobi, de Gauss-Seidel, de Relaxation.
Méthode de Jacobi
Méthode de Gauss-Seidel
Méthode de relaxation
5.3 Résultats de convergence
81/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Etude de la convergence
82/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
3. 16/05/2022
83/95
Conséquence
Pour une méthode itérative convergente,
Il existe une norme matricielle pour la quelle kBk < 1 et que :
kBkk
ke(k) k ≤ kx(1) − x(0) k
1 − kBk
Attention !
Ce n’est pas suffisant que les ai,i > 0 pour que A soit définie >0 .
C’est seulement une conséquence immédiate de la défintion : car
ai,i = (Aei , ei ) où ei est le i ème vecteur de la base canonique de IRn .
85/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Exemple
2 2
A= est définie positive : Soit x = (x1 , x2 )T un vecteur non
2 5
nul
2 2 x1
xT Ax = (x1 , x2 )
2 5 x2
2x1 + 2x2
= (x1 , x2 )
2x1 + 5x2
= 2x21 + 4x1 x2 + 5x22
= 2(x1 + x2 )2 + 3x22 > 0
86/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Contre-exemple
2 4
A= n’est pas définie positive :
4 5
2 4 x1
xT Ax = (x1 , x2 )
4 5 x2
= 2x21 + 8x1 x2 + 5x22
= 2(x21 + 4x1 x2 ) + 5x22 > 0
= 2(x1 + 2x2 )2 − 8x22 + 5x22
= 2(x1 + 2x2 )2 − 3x22
87/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Propriétés
Soit A une matrice symétrique. Alors A est définie positive ssi
une des propriétés suivantes est satisfaite :
1 Les valeurs propres de A sont toutes > 0.
2 Les déterminants des sous-matrices principales Ak 1 ≤ k ≤ n de
A sont tous strictement positifs (critère de Sylvester) :
On note en particulier qu’une matrice symétrique définie positive
est inversible.
Attention : une matrice inversible n’est pas nécessairement
définie positive (voir contre-exemple précédent).
88/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Corollaire 26
Lorsque A est symétrique et définie positive et de plus 2D − A est
définie positive, la méthode de Jacobi converge.
Démonstration.
On a M = D et N = E + F . Par hypothèse, A et M T + N = 2D − A
définies positives. Le théorème précédent s’applique
89/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
90/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Démonstration.
nλi , 1 ≤ i ≤ n désignent les valeurs propre de Bω alors
Si
Y
λi = | det(Bω )|
i=1
Réécrivons
−1
D
In − ωD−1 E F + ω1 − 1 D
Bω =
ω
−1
= In − ωD−1 E ωD−1 F + ω1 − 1 D
−1
In − ωD−1 E (1 − ω)In + ωD−1 F
=
91/95
Maintenant condition nécessaire et suffisante de convergence de
relaxation.
Proposition 28
Soit A une matrice symétrique définie positive. La méthode de
relaxation converge si et seulement si ω ∈]0, 2[.
Démonstration.
On a déjà vu que ω ∈]0, 2[ est nécessaire pour la convergence de
relaxation.
Voyons la réciproque dans le cas où A symétrique définie > 0. On
a:
D 1−ω
A=M −N = −E − D+F
ω ω
DT 1−ω
⇒ MT + N = − ET + D+F
ω ω
2−ω
Mais DT = D et E T = F . Ce qui implique M T + N = D.
ω
Cette dernière matrice est définie positive si ω ∈]0, 2[ et on utilise
le Th. 25
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Définition 30
Une matrice A = (ai,j )1≤i,j≤n est dite à diagonale strictement
dominante si :
n
X
|ai,i | > |ai,j | ∀i = 1, · · · , n
j=1,j6=i
Théorème 31
Si A est à diagonale strictement dominante, alors les méthodes de
Jacobi et de Gauss-seidel sont convergentes.
Démonstration.
Voir TD pour la démonstration
93/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Théorème 33
Si une matrice A est tridiagonale, alors les méthodes de Jacobi et de
Gauss-Seidel convergent ou divergent simultanément.
De plus, on a ρ(BGS ) = (ρ(BJ ))2 . Dans le cas de la convergence,
Gauss-Seidel converge plus vite.
94/95
Chapitre 5Résolution numériquedes systèmes linéaires
Méthodes indirectes ou itératives
Résultats de convergence
Fin du cours
Bon courage
95/95