Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
linéaires
Motivation
Un rayonnement électromagnétique traversant une solution contenant
P solutés s1 , s2 , s3 , · · · , sn est absorbé selon la loi de Beer suivante :
plusieurs
A = ni=1 ki (λ)ci , où A est appelé absorbance du rayonnment ou de la
solution, λ longueur d’onde du rayonnement, ci concentration molaire du
soluté si , ki est un coefficient dependant de la longueur d’onde. On se
propose de déterminer les concentrations c1 , c2 , c3 , c4 dans une solution
contenant 4 solutés. Pour celà on posséde ainsi :
On détermine expérimentalement les coefficients ki (λ) pour diverses
valeurs de λ en mesurant l’absorbance d’un rayonnement de longueur
d’onde λ par une solution contenant uniquement le soluté si avec une
concentration connue.
On mesure l’absorbance A(λ) de ce même rayonnement par la
solution étudiée.
Chapitre 4: Résolution approchée des systèmes linéaires 3 / 61
Résolution approchée des systèmes linéaires
Motivation
Les résultats de cette mesure sont donnés dans le tableau suivant :
Position du problème
Dans le cas des systèmes linéaires, les méthodes de résolution peuvent être
classées en deux catégories :
- les méthodes directes qui conduisent à la solution après un certain
nombre d’opérations connu à priori (méthode de déterminant ou
Cramer, élimination successive, inversion des matrices) ;
- les méthodes itératives qui conduisent à la solution par une succession
d’amélioration d’une solution approchée. Le nombre d’itérations étant
difficile à prévoir et dépendant de la forme du système (méthode de
Jacobi, méthode de Gauss-Seidel et méthode de relaxation).
On notera que l’on obtient dans ce dernier cas les valeurs des inconnues
dans l’ordre des indices décroissants.
Chapitre 4: Résolution approchée des systèmes linéaires 8 / 61
Résolution approchée des systèmes linéaires
Deuxième étape
Ce calcul étant fait jusqu’à la ligne n, on obtient un système sous la forme
A(3) x = b (3) avec
a11 a12 a13 . . . a1j . . . a1n
b1
0 a(2) a(2) (2) (2)
. . . a2j . . . a2n (2)
b2
22 23
(3) (3) (3) (3) (3)
b (3)
A = 0 0 a 33 . . . a3j . . . a3n , = b3
.. .. .. .. .. .. .. ..
.
. . . . . . .
(3) (3) (3) (3)
0 0 an3 . . . anj . . . ann bn
Etape générale
On peut alors définir l’algorithme général en supposant qu’on a effectué
k − 1 étapes de l’élimination de Gauss, et on a un système qui s’écrit
A(k) x = b (k) , avec A(k) et b (k) donnés par
a11 a12 a13 . . . a1j . . . a1n
(2) (2) (2) (2)
0 a22 a23 . . . a2j . . . a2n
b1
(3) (3) (3)
0 0 a . . . a . . . a b (2)
33 3j 3n 2
. . . . . . . (3)
(k) . . . . . . . (k)
A = . . . . . . . , b = b3
(k) ..
(k) (k)
0 0 0 . . . akk . . . akn bk .
. .. .. .. .. .. .. (k)
. bn
. . . . . . .
(k) (k)
0 0 0 . . . ank . . . ann
Etape générale
Etape générale
L’étape k consiste à faire l’élimination de la variable xk dans les équations
k + 1, k + 2, . . . , n. Ceci conduit aux formules suivantes, définies pour
k + 1, k + 2, . . . , n,
(k)
(k) (k+1) (k) aik (k)
aij −→ aij = aij − (k) akj pour j = k, k + 1, . . . , n
akk
(k)
(k) (k+1) (k) aik (k)
b −→ b = b − b
i
i i (k) k
akk
Factorisation LU
La matrice A peut se factoriser en un produit d’une matrice triangulaire
inférieure L et d’une matrice triangulaire supérieure U à condition que l’on
puisse appliquer l’élimination de Gauss à la matrice A, ce qui est possible
si les pivots sont non nuls.
Unicité de la factorisation LU
Nous avons alors le théorème suivant :
Théorème
Si au cours de l’élimination de Gauss les pivots sont non nuls, alors il
existe une matrice triangulaire inférieure L et une matrice triangulaire
supérieure U, telles que l’on ait
A = LU.
Motivations de la factorisation LU
Motivations de la factorisation LU
- Calcul du déterminant
Comme la matrice U n’est pas semblable à A, cependant on a
n
(k)
Y
det(A) = det(LU) = det(L)det(U) = det(U) = akk
k=1
telle que A = LU
- On identifie la première ligne de A et la première ligne de LU, cela
permet d’obtenir la première ligne de U :
1 0 0 2 1 −2 2 1 −2
LU = x 1 0 0 x x = 4 5 −3
x x 1 0 0 x −2 5 3
1 0 0 2 1 −2 2 1 −2
LU = 2 1 0 0 3 1 = 4 5 −3
−1 2 1 0 0 −1 −2 5 3
La factorisation LDLT
Lorsqu’une matrice A est symétrique, alors la factorisation A = LU,
lorsque celle-ci est possible, peut prendre une forme particulière tenant
compte de cette symétrie :
Proposition
Si A est symétrique avec toutes ses sous-matrices principales régulières,
alors elle admet une unique factorisation sous la forme
A = LDLT ,
Théorème
Si A est une matrice symétrique définie positive elle admet une unique
factorisation sous la forme
A = BB T ,
où B est une matrice triangulaire inférieure dont tous les éléments
diagonaux sont positifs.
Chapitre 4: Résolution approchée des systèmes linéaires 28 / 61
Algorithme de Cholesky
Principes généraux
Les méthodes itératives sont utilisées soit pour la résolution de systèmes
linéaires de très grande taille, soit lorsque l’on dispose d’une estimation de
la solution que l’on veut améliorer.
Une méthode itérative consiste à construire une suite de vecteurs
x (0) , x (1) , . . . , x (k) , . . . , qui, on l’espère, ou mieux on le démontre,
convergera vers la solution du système linéaire à résoudre.
Principes généraux
Soit A ∈ Mn (R)une matrice régulière et b ∈ Rn donnés. On se propose de
résoudre le problème
f (x) = Ax − b = 0
par une méthode itérative de la forme suivante :
(0)
x donné
Mx (k+1) = Nx (k) + b
Principes généraux
Si cette méthode itérative converge, c’est-à-dire si la suite x (k) converge
vers x ∗ alors on a, à la limite,
(M − N)x ∗ = b,
A=M −N
La méthode de Gauss-Seidel
Il s’agit d’une modification de la méthode de Jacobi qui consiste à utiliser
pour chaque équation les composantes de x (k+1) déjà calculées, ceci
conduit aux formules
n
(k+1) P (k)
a11 x1 = b1 − a1j xj ,
j=2
. . .
i−1 n
(k+1) P (k+1) P (k)
aii xi = bi − aij xj − aij xj , pour 2 ≤ i ≤ n − 1,
j=1 j=i+1
...
n−1
(k+1) P (k)+1
ann xn
= bn − anj xj .
j=1
La méthode de Gauss-Seidel
Sous forme matricielle cela revient à écrire le système Ax = b sous la forme
(D − E )x = Fx + b,
La méthode de Gauss-Seidel
On observe que les méthodes de Jacobi et Gauss-Seidel que nous venons
de voir peuvent se mettre sous la forme Mx (k+1) = Nx (k) + b :
- M = D, N = E + F , pour la méthode de Jacobi,
- M = D − E , N = F , pour la méthode de Gauss-Seidel.
Proposition
S’il existe une norme matricielle subordonnée telle que
kC k < 1
la méthode (2) est convergente quel que soit le choix de x (0) et elle
converge vers la solution de
(I − C )x ∗ = d.
Chapitre 4: Résolution approchée des systèmes linéaires 41 / 61
Méthodes itératives de résolution des systèmes
linéaires
Etude de la convergence des méthodes itératives
Définition
On dit que la matrice A est à diagonale strictement dominante si
X
kaii | > |aij |, ∀i, 1 ≤ i ≤ n.
j6=i
Proposition
Si la matrice A est à diagonale strictement dominante alors les méthodes
de Jacobi et Gauss-Seidel sont convergentes.
Proposition
Si la matrice A est symétrique définie positive, alors la méthode de
Gauss-Seidel est convergente.
Chapitre 4: Résolution approchée des systèmes linéaires 42 / 61
Normes matricielles
Normes vectorielles
Les normes matricielles sont aussi un outil indispensable pour le calcul du
conditionnement d’une matrice, indicateur de la ”bonne résolution” d’un
système linéaire.
Définition
Soit E un espace vectoriel sur K (K = R ou C). On appelle norme sur E
une application de E dans R+ notée
x 7−→ kxk
Normes vectorielles
n
E = Rn , kxk1 =
P
|xi |,
i=1
r P
E = Rn , kxk2 = , (norme euclidienne)
i=1n xi2
Définition
Soit A ∈ Mmn (R). Etant donnée une norme (vectorielle) sur Cn , et une
norme (vectorielle) sur C m on appelle norme matricielle subordonnée, une
norme matricielle définie par
kAxk
kAk = max
x∈Cn , x6=0 kxk
Théorème
Si A ∈ Mn (R) )est symétrique alors
x T Ax
max λk = max ,
1≤k≤n x∈R n x6=0 x T x
Rayon spectral
Définition
Soit A ∈ Mn (C), on appelle rayon spectral de A et on note ρ(A) le
nombre réel
ρ(A) = max |λi |
1≤i≤n
Rayon spectral
Théorème
- Soit A ∈ Mnm (R), alors
kC k2 = ρ(C ).
30.9 1.1
Une faible erreur relative sur la norme de b induit une erreur relative sur la
norme de x beaucoup plus importante, par exemple si on prend la norme
k.k∞ , on a :
kδbk∞ kδxk∞
= 3.103 = 13.6
kbk∞ kxk∞
Une telle situation est due au fait que la matrice A a un conditionnement
grand (on dit également que A est mal conditionnée), au sens de la
définition suivante :
Chapitre 4: Résolution approchée des systèmes linéaires 51 / 61
Conditionnement d’un système linéaire
Définition
On appelle conditionnement de A relatif à une norme subordonnée le
nombre
χ(A) = kAk kA−1 k.
Proposition
Si la matrice A est symétrique et si l’on prend la norme subordonnée à la
norme euclidienne, on a
max |λi |
1≤i≤n
χ2 =
min |λi |
1≤i≤n
Alors,
kδxk kδbk
≤ χ(A)
kxk kbk
Exercice
On considére le système linéaire Ax = B, avec
3 1 4
A= et B= .
2 5 7
Exercice
Soit les systèmes linéaires
1 2 3 4 x1 1 1 2 3 4 x1
2 3 4 1 x2 2 2 3 4 1 x2
3 4 1 2 x3 = et
=
3 3 4 1 2 x3
4 1 2 3 x4 4 4 1 2 3 x4
Exercice
Donner une condition suffisante sur le coefficient α pour avoir convergence
des méthodes de JACOBI et GAUSS-SEIDEL pour la résolution d’un
système linéaire associé à la matrice
α 0 1
A= 0 α 0
1 0 α
Exercice
On définit p(x) = a + bx + cx 2 le polynôme de degré inf ÃÅerieur ou égal
à 2 interpolant f aux points α, β et γ ( c’est-à-dire satisfaisant
p(α) = f (α), p(β) = f (β) et p(γ) = f (γ)).
1 Ecrire le système linéaire que résolvent a, b,et c. On désigne par M la
matrice de ce système
2 Faites la factorisation LU de cette matrice et en déduire sont
déterminant
3 Quel résultat sur l’interpolation retrouve-t-on ?
Exercice
Considérons le système linéaire Ax = b avec
α 0 γ
A= 0 α β
0 δ α