Vous êtes sur la page 1sur 6

2.

Systèmes linéaires et rappels sur les matrices

Date : September 24, 2021

2.1 Systèmes linéaires


Tout le long de ce chapitre K désignera R ou C et A une matrice de Mm,n (K) (m, n ∈ N∗ ) .
L’élément (i, j) de la matrice A est noté A(i, j) ou ai, j .

Definition 2.1.1 — Définition d’un système linéaire.


Soit A ∈ Mm,n (K) et soit b ∈ Km . Un système linéaire s’écrit, sous sa forme matricielle, Ax = b
où x ∈ Kn est l’inconnue à déterminer.
Dans toute la suite, on prendra A ∈ Mm,m (K) carrée (m = n) et inversible. Ainsi, la solution du
système existe et est unique. Elle s’écrit x = A−1 .b.

Exemple 1 :
On considère la grille en tiges métalliques donnée par la figure suivante :

Figure 2.1: Grille de tiges métalliques


10 Chapter 2. Systèmes linéaires et rappels sur les matrices

On voudrait déterminer les températures T1 , T2 , T3 et T4 sachant que :


• Les températures aux extrémités sont indiquées dans la figure ;
• La température en un noeud est égale à la moyenne des températures aux 4 noeuds voisins
Réponse :




T1 = (50 + T2 + T3 )/4,

T = (30 + T + T )/4,
2 1 4
(2.1)


T3 = (70 + T1 + T4 )/4,

T = (50 + T + T )/4,
4 2 3


4 −1 −1 0
−1 4 0 −1
Ceci peut être réécrit sous la forme A.T = b avec A = 
−1 0
,
4 −1
0 −1 −1 4
T = (T1 , T2 , T3 , T4 )t et b = (50, 30, 70, 50)t .
Si A est inversible alors T = A−1 .b

Exemple 2 :
On considère le phénomène mécanique d’une corde élastique, fixée aux bords (0 et 1) et soumise à
un champ de force f . La déformation u en un point x ∈ [0, 1], s’écrit sous la forme de l’équation
différentielle suivante:
(
−u00 (x) = f (x),
(2.2)
u(0) = u(1) = 0

Une solution explicite analytique de ce problème est en général difficile à trouver. On opte donc
pour la procédure numérique suivante : On cherche la solution u aux points xi = i.h où h = 1/(n+1).
Soit ui = u(xi ). On utilise un DL de Taylor à l’ordre 2 à droite et à gauche de chaque xi . On obtient
(
− ui+1 −2u
h2
i +ui−1
= f (xi ), i = 1, . . . , n
(2.3)
u0 = un+1 = 0 .

−2 −1 0 . . . 0
 
−1 2 −1 . . . 0 
 
1
 0 −1 2 . . . 0 
Ceci peut être réécrit sous la forme Ah .u = bh avec Ah = h2

 .
,
 . . ... 0 

 . . . . −1 2 −1
0 . . . 0 −1 2
u = (u0 , . . . , un )t et bh = ( f (x1 ), . . . , f (xn ))t .

But : Résoudre numériquement Ax = b. La résoulation numérique peut par exemple être faite en
implémentant la formule x = A−1 b = det(A)
1
[com(A)]t ou la méthode de Cramer. Cependant, ces
méthodes utilisent des calculs de déterminants. Ceci les rend três couûteuses en temps de calcul au
fur et à mesure que n augmente (un calcul d’un déterminant d’une matrice carrée de taille n × n
nécessite n! opérations d’addition et/ou multiplication). Dans les deux chapitres suivant, nous
allons étudier des méthodes beaucoup moins coûteuses en temps de calcul. Ces méthodes sont
classées en méthodes directes directes (chapitre 2) et méthodes itératives (chapitre 3).
2.2 Rappels et compléments sur les matrices 11

2.2 Rappels et compléments sur les matrices


Definition 2.2.1
Soit A ∈ Mn (R).
La transposée de la matrice A, notée At est définie par At (i, j) = A( j, i) ou < Ax, y >=< x, At y >.
La matrice A est dite symétrique ou auto-adjointe ssi At = A.
La matrice A est dite orthogonale ssi elle est inversible avec At = A−1 .

Soit A ∈ Mn (C).
t
La matrice adjointe (ou transconjuguée) de A, notée A∗ est définie par (A∗ = A ), ç-à-d.,
A∗ (i, j) = A( j, i) ou < Ax, y >=< x, A∗ y >
La matrice A est dite auto-adjointe ou Hermitienne ssi A∗ = A,
La matrice A est dite unitaire ssi elle est inversible avec A∗ = A−1 .
La matrice A est dite normale ssi A.A∗ = A∗ A.

Definition 2.2.2
Soit A ∈ Mn (K).
1. On dit que A est positive ssi < Ax, x >≥ 0, ∀ x ∈ Kn .
2. On dit que A est définie positive ssi < Ax, x >> 0, ∀ x 6= 0Kn .
3. On dit que A est à diagonale strictement dominante ssi pour tout i ∈ {1, . . . , n}, on a :

|ai,i | > ∑ |ai, j | .


j6=i

Proposition 2.2.1 Soient A, B ∈ Mn (C). On a :


1. det(AB) = det(BA) = det(A).det(B)
2. det(At ) = det(A)
3. Soit A une matrice triangulaire (inférieure ou supérieure et en particulier diagonale) alors
det(A) = ∏ni=1 A(i, i) .
4. Soit A triangulaire inférieure (resp. sup). A est inversible ssi A(i, i) 6= 0 ∀i = 1, . . . , n. De plus
A−1 es triangulaire inférieure (resp. sup) et A−1 (i, i) = A(i,i)
1
.
5. Si A ∈ Mn (C) est inversible det(A−1 ) = det(A)
1

6. Si A et B sont deux matrices triangulaires inférieures (resp. supérieures) alors la matrice AB


est triangulaire inférieure (resp. supérieure)

2.3 Diagonalisation des matrices


Definition 2.3.1 Une matrice A ∈ Mn (C) est dite diagonalisable s’il existe une matrice P
inversible et une matrice diagonale D telle que

A = PDP−1 .

Theorem 2.3.1
Une matrice A (dans C) est diagonalisable ssi elle est normale.
Dans ce cas, on a A = Udiag(λ1 , ..., λn )U −1 où U est unitaire et les λi sont les v.p. de A.

Proposition 2.3.2 Soit A ∈ Mn (C) Hermitienne. On a


1. Toutes les valeurs propres de A sont réelles.
2. A est définie positive ssi ses valeurs propres sont strictement positives.
3. A est positive ssi ses valeurs propres sont positives.
12 Chapter 2. Systèmes linéaires et rappels sur les matrices

Proof
Point 1 : Soit λ une valeur propre de A et x le vecteur propore associé. On a :
λ < x, x >=< λ x, x >=< Ax, x >=< x, Ax >=< x, λ x >= λ < x, x >
Ainsi : λ = λ
Corollary 2.3.3 Si A ∈ Mn (R) est symétrique (resp. A ∈ Mn (R) est Hermitienne) alors
elle est diagonalisable avec des v.p. réelles et il existe O ∈ Mn (R) orthogonale telle que
A = O.diag(λ1 , . . . , λn ).Ot (resp. U ∈ Mn (C) unitaire telle que A = U.diag(λ1 , . . . , λn ).U ∗ )

2.4 Normes matricielles et normes subordonnées


2
L’espace vectoriel Mn (K) étant isomorphe à K n , On peut définir, sur Mn (K) des normes vecto-
2
rielles
p comme celles définies sur Kn . Exemples : Norme de Frobenius ou de Schur : ||A||F =
∑ |a(i, j)|2 , normes l p , l ∞ .
Definition 2.4.1
Une norme matricielle sur Mn (K) est une norme "vectorielle" vérifiant en plus

|||AB||| ≤ |||A|||.|||B|||, ∀ A, B ∈ Mn (K) .

Exercise 2.1
1. Montrer que ||A|| = max|A(i, j)| n’est pas une norme matricielle pour n > 1.
2. Montrer que la norme de Frobenius est une norme matricielle (Indication : On pourra utiliser
l’inégalité de Cauchy-Schwartz). 

Definition 2.4.2
Soient A ∈ Mn (K) et λi , 1 ≤ i ≤ n les valeurs propres de A comptées avec leur ordre de
multiplicité.
1. On appelle spectre de A, l’ensemble des valeurs propres de A :

Sp(A) = {λi , 1 ≤ i ≤ n} .

2. On appelle rayon spectral de A, le réel positif :

ρ(A) := max{|λi |, i = 1, . . . , n} .

Proposition 2.4.1
Soit A ∈ Mn (C) et soit ρ(A) son rayon spectral. Alors pour toute norme matricielle |||.|||, on a :
ρ(A) ≤ |||A||| .

Definition 2.4.3
Soit ||.|| une norme vectorielle sur Kn . Elle induit la norme matricielle définie par : ∀ A ∈ M( K),

||Ax||
|||A||| = sup .
x6=0Kn ||x||

Cette norme est appelée norme matricielle subordonnée.

Proposition 2.4.2
Soit A ∈ Mn (K). Pour tout ε > 0, il existe au moins une nome matricielle subordonnée telle que
|||A||| < ρ(A) + ε
2.4 Normes matricielles et normes subordonnées 13

Proposition 2.4.3
Soit |||.||| une norme matricielle subordonnée. Pour tout A ∈ Mn (K), on a :
1. |||A||| = sup||x||=1 ||Ax|| = sup||x||≤1 ||Ax||
2. ∃ xA 6= 0 tel que |||A||| = ||AxA ||/||xA ||
3. |||In ||| = 1
4. |||A.x||| ≤ |||A|||.||x|| , ∀ x ∈ Kn .

Exercise 2.2
En utilisant la proposition précédente, montrer que la norme de Frobenius est une norme
matricielle non subordonnée pour n > 1. 

Proposition 2.4.4
Pour tout A ∈ Mn (K), on a :
1. |||A|||1 := sup ||Ax||
||x||1 = max j (∑i |A(i, j)|)
1

2. |||A|||∞ := sup ||Ax||


||x||∞ = maxi (∑ j |A(i, j)|)

3. |||A|||2 = sup ||Ax|| ∗


p p
||x||2 = |||A |||2 =
2
ρ(AA∗ ) = max λi (AA∗ ) (la plus grande valeur sin-
gulière de A)
4. Si U est unitaire ou orthogonale alors |||UA|||2 = |||AU|||2 = |||A|||2
5. Si A est normale alors |||A|||2 = ρ(A)

Exercise 2.3
Montrer les 3 derniers points de la proposition précédente (voir TD pour la réponse). 

Definition 2.4.4
On dit qu’une suite (A p ) de Mn (K) converge vers une limite A pour une norme matricielle notée
|||.||| ssi lim p→∞ |||A p − A||| = 0.

Proposition 2.4.5
Soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :
• lim p→∞ A p = 0
• lim p→∞ A p x = 0
• ρ(A) < 1
• ∃ une norme matricielle subordonnée telle que |||A||| < 1

Theorem 2.4.6
1) Soit |||.||| une norme matricielle quelconque et soit B ∈ Mn (K) telle que |||B||| < 1 alors la
matrice I − B est inversible et vérifie (I − B)−1 = ∑+∞ k
k=0 B .
2) Si une matrice de la forme (I − B) est non inversible, alors pour toute norme matricielle on a
|||B||| ≥ 1.

Corollary 2.4.7
Si la matrice A ∈ Mn (K) est à diagonale strictement dominante alors est inversible.

Idée de la preuve :
1. Écrire A sous la forme A = D.B où D = diag(aii ) est inversible.
2. Écrire B sous la forme B = I −C et montrer que |||C|||∞ < 1.
3. Conclure en utilisant le théorème précédent.
14 Chapter 2. Systèmes linéaires et rappels sur les matrices

2.5 Conditionnement d’un système linéaire


Motivation : Lors de la résolution du système Ax = b, les éventuelles imprécisions sur A et b vont
induire une erreur sur la valeur calculée de la solution x du système.
Des majorations de cette erreur sont liées au condtionnement de la matrice A. Le conditionnement
est introduit dans la définition suivante.

Definition 2.5.1
Le conditionnement d’une matrice inversible A ∈ Mn (K) relativement à une norme matricielle
subordonnée est donné par
cond(A) = |||A|||.|||A−1 ||| .

Theorem 2.5.1 Soit A ∈ Mn (K) et b ∈ Kn . On considère x ∈ Kn la solution de Ax = b. On a :


1. Si (x + δ x) est la solution de A(x + δ x) = (b + δ b), alors

||δ x|| ||δ b||


≤ cond(A) .
||x|| ||b||

2. Si (x + δ x) est la solution de (A + δ A)(x + δ x) = b, alors

||δ x|| |||δ A|||


≤ cond(A) .
||x + δ x|| |||A|||

3. Si (x + δ x) est la solution de (A + δ A)(x + δ x) = (b + δ b), alors


 
||δ x|| 1 ||δ b|| |||δ A|||
≤ cond(A) × + .
||x + δ x|| 1 − |||δ A|||.|||A−1 ||| ||b|| |||A|||

Proof
La preuve du 1er point sera faite en TD.
Proposition 2.5.2 Propriétés
Soit A une matrice dans Mn (C) inversible. On a :
• cond(A) ≥ 1
• Soit U une matrice unitaire, cond2 (UA) = cond2 (AU) = cond(A)
|λi |
• Si A hermitienne, alors cond2 (A) = max
min |λi |
Proof
La preuve de cette propostion sera faite en TD.

Vous aimerez peut-être aussi