Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
1
2
– Si A est une matrice triangulaire supérieure, alors la résolution de (1.1), se fait par
remontée, et donc
bn
xn = ;
ann
on déduit alors les inconnues xn 1 ; xn 2 ; :::x1 grâce à la relation
!
1 X n
xi = bi aij xj :
aii j=i+1
et de vecteurs
b(1) = b; b(2) ; :::; b(n)
3
tels que, la résolution du système Ax = b soit équivalente à celle de A(k) x = b(k) pour tout
k 2 f1; 2; :::; ng où la matrice A(k) est de la forme
0 (k) (k)
1
a11 a1n
B (k) C
B 0 ... a2n C
B . .. C
B . ... ... C
(k) B . . C
A =B . C
B .. (k)
0 akk C
B C
B .. .. .. .. C
@ . . . . A
(k) (k)
0 0 ank ann
Il faut donc savoir passer de la k ieme étape vers la (k + 1)ieme étape, en d’autre termes de
A(k) à A(k+1) . La matrice A(n) est alors obtenue comme l’indique l’algotithme suivant :
En…n on résout le système triangulaire supérieur A(n) x = b(n) en remontant c’est à dire
(n)
bn
xn = (n)
;
ann
puis xn 1 ; xn 2 ; :::x1 sont obtenus grâce à la relation
!
1 (n)
X
n
(n) (n)
xi = (n)
bi aij xj :
aii j=i+1
(1)
on pose alors A = A(1) , comme a11 6= 0, alors la première ligne reste inchangée dans A(2) ,
(2) (1) (1) (2) (1) (1)
puis la deuxième ligne de A(2) , est dé…nie par : L2 = L2 L1 , ensuite L3 = L3 3L1 ,
on aura donc 0 10 1 0 1
1 2 2 x1 2
@ 0 1 4 A @ x 2 A = @ 3 A;
0 1 2 x3 2
| {z } | {z }
A(2) b(2)
(2)
ensuite, comme a22 6= 0, alors la deuxième ligne reste inchangée dans A(3) , puis la troisième
(3) (2) (2)
de A(3) , est obtenue par L3 = L3 +L2 , ce qui permet alors d’obtenir le système triangulaire
supérieur 0 10 1 0 1
1 2 2 x1 2
@ 0 1 4 A @ x 2 A = @ 3 A:
0 0 2 x3 1
| {z } | {z }
A(3) b(3)
La méthode de remontée donne ensuite
1
x3 = , x2 = 3 + 4x3 = 1, x1 = 2 2x2 2x3 = 3:
2
Algorithm 1.2 (triangularisation de Gauss avec pivot partiel) Dans l’algorithme de
(k)
triangularisation de Gauss de la matrice A, le terme akk est appelé pivot. Il est important
que ce pivot soit le plus grand possible en valeur absolue, en e¤et un pivot « petit » peut
conduire à des erreurs d’arrondis très importantes comme le montre l’exemple suivant
Exemple 1.3 Soit à résoudre le systeme suivant
4
10 1 x1 1
= :
1 1 x2 2
La solution de ce système est (x1 ; x2 ) = (1:00010; 0:99999), alors la solution approchée ar-
rondie à 10 3 près est
x1 1
' :
x2 1
4
Si on prend 10 comme pivot, on obtient après triangularisation de Gauss le système équi-
valent
10 4 1 x1 2
= :
0 104 1 x2 104 2
Alors, avec arrondissement à trois chi¤res signi…catifs on obtient comme solution,
x1 0
' :
x2 1
Par contre, en prenant 1 comme pivot, c’est à dire le systeme équivalent suivant
1 1 x1 1
4 = ;
10 1 x2 2
3
et en arrondissant à 10 près, on obtient,
x1 1
' :
x2 1
5
A travers cet exemple, on voit donc le problème que peut poser un pivot trop petit. Pour
éviter de diviser par des pivots trop petits pouvant conduire à des solutions absurdes, on
peut adopter automatiquement la stratégie du pivot partiel de la manière suivante
(k) (k) (k)
A chaque étape k, on choisit akk tel que akk = max aik .
i k
8 0 10 1 0 1
< 2x1 + x2 + x3 = 5 2 1 1 x1 5
4x1 6x2 = 2 () @ 4 6 0 A @ x2 A = @ 2 A ;
:
2x1 + 7x2 + 2x3 = 9 2 7 2 x3 9
| {z }
A
(1) (1)
comme max aik = 4 = a21 alors on permute la première ligne de A et la deuxième ligne
i k
de A et on aura
0 10 1 0 1 0 10 1 0 1
2 1 1 x1 5 (1)
L2 4 6 0 x1 2
@ 4 6 0 A @ x2 A = @ 2 A @ 2 1 1 A @ x2 A = @ 5 A ;
(1)
2 7 2 x3 9 L1 2 7 2 x3 9
| {z } | {z }
A A(1)
Dé…nition 1.2 Etant donnée A 2 Mn (K), (l’ensemble des matrices carrées d’ordre n dont
les coe¢ cients sont dans le corps K). Les mineurs fondamentaux (Dk )k=1;:::;n de la martice
A = (aij )1 i;j n sont les déterminants des sous-matrices de A formées par les k premières
lignes et les k premières colonnes de A, en d’autres termes Dk = det (aij )1 i;j k pour
k = 1; :::; n.
Ax = b;
où A est une matrice carrée d’ordre n dont tous les mineurs fondamentaux sont non nuls,
alors pour sa résolution on procède par les étapes suivantes
1. Décomposition de A : Dans cette étape on décompose la matrice A en A = LU
où L est triangulaire inférieure à diagonale unité et U triangulaire supérieure, ainsi :
résoudre Ax = b revient à résoudre LU x = b.
2. Résolution du système triangulaire inférieur : On pose y = U x, on aura Ly = b
que l’on résout facilement (par descente).
3. Résolution du système triangulaire supérieur : U x = y ( par remontée).
Théorème 1.1 Etant donnée une matrice carrée et inversible A d’ordre n et à coé¢ cient
dans K, dont tous les mineurs fondamentaux sont non nuls, alors Il existe un unique couple
de matrices (L; U ), avec U = (uij )1 i;j n triangulaire supérieure (comme "UPPER", et
L = (lij )1 i;j n triangulaire inférieure (comme "LOWER") à diagonale unité (appelée dé-
composition de Doolittle), tel que A = LU .
Exemple 1.5 Pour un exemple moins général, on suppose qu’on veut trouver une factori-
sation LU de la matrice 0 1
2 3 2
A=@ 1 3 2 A
3 4 1
On suppose d’abord qu’il existe une factorisation de LU de A. Ensuite, on a ceci :
0 1 0 10 1
2 3 2 1 0 0 u11 u12 u13
A= @ 1 3 2 A = @ l21 1 0 A @ 0 u22 u23 A ;
3 4 1 l31 l32 1 0 0 u33
on a alors
u11 = 2; u12 = 3; u13 = 2;
en passant à la deuxième rangée de A, on a :
3
2l31 = 3; 3l31 + l32 = 4; 2l31 + l32 + u33 = 1;
2
ainsi, on a l31 = 32 ; l32 = 13 et u33 = 53 : Finalement
0 1 0 10 1
2 3 2 1 0 0 2 3 2
A = @ 1 3 2 A = @ 21 1 0 A @ 0 23 1 A = LU:
3 1 5
3 4 1 2 3
1 0 0 3
Remarque 1.2 Dans le théorème précédent si c’est la matrice triangulaire supérieure U qui
est unitaire et L est triangulaire inférieure alors la décomposition LU est dite décomposition
de Croût
La décomposition LU permet de calculer facilement le déterminant de A, qui est égal au
produit des éléments diagonaux de la matrice U . En e¤et : det(A) = det(LU ) = det(L) det(U ) =
n
1 det(U ) = uii :
i=1
La décomposition LU permet aussi de calculer l’inverse de la matrice A; en e¤et, si A
est une matrice carrée d’ordre n inversible, on note par V (1) ; :::; V (n) , les vecteurs colonnes
8
où e(k) est le vecteur colonne ayant tous les éléments 0 sauf celui sur la ligne k qui est égal
à 1;i.e. 0 1
0
B .. C
B . C
(k) B C
e =B 1 C :
B . C ! k eme ligne
@ . A
.
0
Une fois connues les matrices L et U qui factorisent la matrice A, résoudre les n systèmes
(1.3).
Dé…nition 1.3 Une matrice symétrique ; i.e., A = At (où At est la transposée de A) est
dite dé…nie positive si le produit scalaire de tout vecteur x avec Ax est strictement positif,
i.e.
Ax:x > 0 8x 6= 0:
On peut caractériser les matrices dé…nies positives de bien des façons di¤érentes et équi-
valentes.
considère, alors, une matrice carrée A = (aij )1 i;j n d’ordre n, symétrique dé…nie positive
admettant une décomposition LLt de Cholesky tel que
0 1 0 10 1
a11 a12 a1n l11 0 0 l11 l12 l1n
B a21 a22 a2n C B 0 C B l2n C
B C B l21 l22 C B 0 l22 C
A = B .. .. .. C = B .. .. .. C B .. .. .. C ;
@ . . . A @ . . . A@ . . . A
an1 an2 ann ln1 ln2 lnn 0 lnn
on obtient donc l’algorithme de factorisation de Cholesky comme suit
8 p
> l11 = a11 ;
>
>
>
> Première colonne : pour i allant de 2 à n : li1 = al11i1 ;
>
> s
< P
k 1
2
Pour k allant de 2 à n : Terme diagonal : lkk = akk lkj ;
>
> j=1
>
>
>
> Pk 1
>
: aik lij lkj
j=1
Reste de la colonne : lik = lkk
pour i allant de k + 1à n:
1. La norme d’un vecteur est toujours strictement positive, sauf si le vecteur a toutes ses
composantes nulles,i.e.,
kxk > 0 sauf si x = 0:
2. Si est un scalaire, alors
k xk = j j kxk ;
où j j est la valeur absolue de .
3. L’inégalité triangulaire est toujours véri…ée entre deux vecteurs x et y quelconques ;i.e.,
kx + yk kxk + kyk :
On peut dé…nir, plusieurs normes véri…ant les trois propriétés nécessaire comme le montre
l’exemple suivant.
Exemple 1.7 – La norme euclidienne d’un vecteur x qui est notée par kxk2 et est dé…nie
comme suit : q
kxk2 = x21 + x22 + ::: + x2n :
– La norme l1 d’un vecteur x qui est notée par kxk1 et est dé…nie comme suit :
Xn
kxk1 = jxi j:
i=1
– La norme l1 d’un vecteur x qui est notée par kxk1 et est dé…nie comme suit :
Dé…nition 1.5 Une norme matricielle est une application qui associe à une matrice A un
scalaire noté kAk véri…ant les quatre propriétés suivantes
1. La norme d’une matrice est toujours strictement positive, sauf si la matrice a toutes
ses composantes nulles ;i.e.,
Remarque 1.3 On peut construire une norme matricielle à partir d’une norme vectorielle
quelconque en posant kAk = sup kAxk et on montre que toutes les propriétés d’une norme
kxk=1
matricielle sont ainsi véri…ées. Une norme matricielle ainsi construite est appelée norme
induite (ou norme subordonnée) par la norme vectorielle.
Théorème 1.3 Les normes matricielles induites par les normes vectorielles l1 et l1 sont
respectivement données par
Xn
kAk1 = sup kAxk1 = max jaij j:
kxk1 =1 1 j n
i=1
Xn
kAk1 = sup kAxk1 = max jaij j:
kxk1 =1 1 i n
j=1
p
kAk2 = sup kAxk2 = (At A), où (At A) désigne le rayon spectral de At A.
kxk2 =1
ALors
kAk1 = max(5; 12; 10) = 12; et kAk1 = max(8; 9; 10):
Lorsque l’on s’intéresse aux systèmes linéaires, on doit souvent manipuler des produits de
matrices par des vecteurs , d’où l’intérêt de la dé…nition suivante.
Dé…nition 1.6 Une norme vectorielle et une norme matricielle sont dites compatibles si la
condition suivante :
kAxk kAk kxk (1.4)
est satisfaite pour toute matrice A et vecteur x:
0 1
1 2 5
t
Exemple 1.9 On considère le vecteur x = (1; 3; 8) et la matrice A = @ 3 1 5 A.
1 9 0
Le produit Ax donne le vecteur
Ax = ( 33; 34; 28)t ;
par suite p
kAxk1 = 95; kAxk1 = 34; kAxk2 = 3029
12
95 (12)(12) en norme l1 :
34 (10)(8) en norme l1 :
p p p
3029 ( 147)( 74) en norme l2 :
Ax = b et A (x + x) = (b + b) .
1
On a donc A x = b par suite x = A b, alors, on obtient la majoration suivante de
l’erreur absolue sur la solution
1
k xk A k bk
et comme Ax = b; alors kbk kAk kxk. Finalement, on obtient une majoration de l’erreur
relative sur la solution en fonction de l’erreur relative sur la donnée comme suit
k xk 1 k bk
A kAk .
kxk kbk
On note que cette majoration est optimale dans le sens où il n’existe pas de borne plus petite
qui soit valable pour tout système. En e¤et, si on prend
1 0 1
A= , b = (1; 0)t et b = (0; ):
0 12 2
La solution de Ax = b est alors x = (1; 0)t et celle de A x = b est x = (1; 0)t : On a donc
k xk
kxk
= 1 et kkbkbk = 12 : Comme kA 1 k kAk = 2 alors la borne est atteinte.
13
alors la solution du système A00 x00 = b est x00 = ( 81; 107; 34; 22)t .
D’une manière générale, on considère les deux systèmes
Ax = b et (A + A)(x + x) = b;
1
alors, x = A A(x + x), ainsi
k xk 1 k Ak
A kAk :
kx + xk kAk
Dé…nition 1.7 Soit k:k une norme matricielle induite et A une matrice inversible. Le
nombre Cond(A) = kA 1 k kAk est dit le conditionnement de A relatif à la norme k:k.
Si la norme considérée est k:kp , on notera le conditionnement associé par Condp :
Remarque 1.4 Ce nombre mesure la « sensibilité » de la solution par rapport aux données
du problème. Une matrice est dite bien conditionnée si Cond(A) ' 1 et mal conditionnée si
Cond(A) >> 1:
1 2
Exemple 1.11 On considère la matrice A = , dont on veut trouver le condi-
2 3
tionnement en norme k:k1 :
1 3 2
kAk1 = 5 et comme A = , ensuite kA 1 k1 = 5, ainsi Cond1 (A) = 25:
2 1
alors, si de plus A est une matrice symétrique dé…nie positive et si max (resp min ) sont sa
plus grande (resp. petite) valeur propre, on a
max
Cond2 (A) = = (A) (A 1 ):
min
14
L’idée est de choisir une matrice M particulièrement facile à inverser. Quand on dit que la
matrice M est facile à inverser, on ne veut pas dire que l’on calcule e¤ectivement M 1 : Ce
qu’on aura à calculer c’est la solution du système linéaires dont la matrice est M:
Dé…nition 1.8 On dit que la méthode itérative (1.5) est convergente si quel que soit le
vecteur initial x(0) 2 Rn et quel que soit le second membre b 2 Rn , la suite x(k) k 0 dé…nie
par la méthode (1.5) converge vers x = A 1 b:
Critère de Convergence
Preuve. On a
1 1
M b = (In M N )A 1 b = (In M 1
N )x;
d’où
x(k+1) = M 1
N x(k) + (In M 1
N b)x;
ou encore
x(k+1) x=M 1
N (x(k) x);
d’où le résultat.
1 (k)
3. Pour toute norme matricielle k:k sur Mn (|); on a lim (M N) = 0:
k!+1
15
Preuve. Admise.
En pratique, les caractérisations précédentes de la convergence d’une méthode itérative
ne sont pas faciles à véri…er. On utilise plutôt le résultat suivant :
Preuve. Admise.
Il y a une in…nité de choix possibles pour M et N véri…ant A = M N , on va en donner
trois à titre d’exemples classiques : les méthodes de Jacobi, Gauss-Seidel et de relaxation.
Le point de départ de chacune de ces méthodes est l’unique décomposition de la matrice
A = (aij )1 i;j n d’ordre n sous la forme A = D E F avec :
1. D = (dij )1 i;j n diagonale, tel que dii = aii et dij = 0 pour i 6= j;
2. E = (eij )1 i;j n triangulaire inférieure stricte telle que eij = aij si i > j et eij = 0 si
i j,
3. F = (fij )1 i;j n triangulaire supérieure stricte telle que fij = aij si i < j et fij = 0
si i j:
On supposera de plus que D est inversible et on distingue les trois méthodes suivantes :
Les valeurs propres de la matrice BGS sont 0 et 12 (de multiplicité 2). D’après le théorème
1.5, la méthode de Gauss Seidel converge car (BJ ) = 21 < 1:
1 1 !
(D !E) x(k+1) = D + F x(k) + b pour k 0
! !
,
(k+1) 1
x = (D !E) [(1 !) D + !F ] x(k) + !(D !E) 1 b:
Preuve. On a
1 1 1 !
BR (!) = (D !E) D+F :
! !
18
Dé…nition 1.12 Une matrice carrée A = (aij )1 i;j n d’ordre n est dite à diagonale stricte-
ment dominante si
Xn
jaii j > jaij j pour tout i = 1; :::; n:
j=i; j6=i
0 1
6 4 3
Exemple 1.16 La matrice A = @ 4 2 0 A est à diagonale strictement dominante.
3 0 1
Théorème 1.7 Si A est une matrice à diagonale dominante stricte, alors les méthodes de
Jacobi et de Gauss Seidel sont convergentes (donc en particuler la méthode de relaxation
pour ! 1)..
x(k+1) = D 1 (E + F )x(k) + D 1 b ,
BJ = D 1 (E + F );
avec
aij
Bij = si i 6= j et Bii = 0
jaii j
Puisque A est à diagonale dominante, on a
!
1 X
n
D 1 (E + F ) 1
= max jaij j < 1;
1 i n jaii j j=1; j6=i
Théorème 1.8 Etant donnée une matrice A = (aij )1 i;j n d’ordre n, à diagonale stricte-
ment dominante, alors le facteur ! de la méthode de relaxation est tel que 0 < ! 1 et elle
converge.
indication. Montrer que si est une valeur propre de BR (!); puis supposer que j j 1
ensuite majorer j + ! 1j (en utilisant le théorème dde Gerschgorin), et en…n majorer j j.
Puis en déduire.
Un autre résultat intéressant pour les applications, concerne les matrices symétriques
dé…nies positives.
Théorème 1.9 Soit A = (aij )1 i;j n une matrice symétrique réelle, dé…nie, positive et
d’ordre n. On la décompose sous la forme A = M N , où M est inversible. Alors,
1. M t + N est symétrique,
2. Si de plus M t + N est dé…nie positive, alors (M 1
N ) < 1:
Applications
– Si A est symétrique, si A et 2D A sont dé…nies positives alors la méthode de Jacobi
converge.
– Si A est une matrice symétrique dé…nie positive, alors la méthode de Gauss-Seidel est
convergente (la méthode de Jacobi ne l’est pas forcément).
– Si A est symétrique dé…nie positive, et si 0 < ! < 2, alors la méthode de relaxation
converge.