Vous êtes sur la page 1sur 7

2.

Rappels et compléments sur les systèmes linéaires et les matrices

Date : September 21, 2022

2.1 Systèmes linéaires


Tout le long de ce chapitre K désignera R ou C et A une matrice de Mm,n (K) (m, n ∈ N∗ ) .
L’élément (i, j) de la matrice A est noté A(i, j) ou ai, j .

Definition 2.1.1 — Définition d’un système linéaire.


Soit A ∈ Mm,n (K) et soit b ∈ Km . Un système linéaire s’écrit, sous sa forme matricielle, Ax = b
où x ∈ Kn est l’inconnue à déterminer.

Exemples de problèmes réels dont la modélisation mène à des systèmes linéaires


Exemple 1 :
On considère le circuit, donné par la figure suivante

Figure 2.1: Circuit électrique


10 Chapter 2. Rappels et compléments sur les systèmes linéaires et les matrices

On donne :

U1 = 110V,U2 = 105V,U3 = 90V, R1 = 0.5Ω, R2 = 0.25ΩetR3 = 0.5Ω,

où V et Ω désignent respectivement Volt et Ohm.


On désire calculer les intensités du courant (en Ampères A) i1 , i2 et i3 . En utilisant les lois des
mailles et des noeuds, montrer que ces valeurs sont les solutions d’un système linéaire que l’on
explicitera.

Exemple 2 :
On considère la grille en tiges métalliques donnée par la figure suivante :

Figure 2.2: Grille de tiges métalliques

On voudrait déterminer les températures T1 , T2 , T3 et T4 sachant que :


• Les températures aux extrémités sont indiquées dans la figure ;
• La température en un noeud est égale à la moyenne des températures aux 4 noeuds voisins.
Montrer que ces valeurs sont les solutions d’un système linéaire que l’on explicitera.

Exemple 3 :
On considère le phénomène mécanique d’une corde élastique, fixée aux bords (0 et 1) et soumise à
un champ de force f . La déformation u en un point x ∈ [0, 1], s’écrit sous la forme de l’équation
différentielle suivante:
(
−u′′ (x) = f (x),
(2.1)
u(0) = u(1) = 0

Une solution explicite analytique de ce problème est en général difficile à trouver. On opte donc
pour la procédure numérique suivante : On cherche la solution u aux points xi = i.h où h = 1/(n+1).
Soit ui = u(xi ). On utilise un DL de Taylor à l’ordre 2 à droite et à gauche de chaque xi . On obtient
(
− ui+1 −2u
h2
i +ui−1
= f (xi ), i = 1, . . . , n
(2.2)
u0 = un+1 = 0 .

−2 −1 0 . . . 0
 
−1 2 −1 . . . 0 
 
1
 0 −1 2 . . . 0 
Ceci peut être réécrit sous la forme Ah .u = bh avec Ah = h2

 .
,
 . . . . . 0 

 . . . . −1 2 −1
0 . . . 0 −1 2
u = (u0 , . . . , un )t et bh = ( f (x1 ), . . . , f (xn ))t .
2.2 Rappels et compléments sur les matrices 11

Résolution numérique de Ax = b
Dans toute la suite, on prendra A ∈ Mm,m (K) carrée (m = n) et inversible. Ainsi, la solution du
système existe et est unique.
But : Résoudre numériquement Ax = b. La résoulation numérique peut par exemple être faite en
implémentant la formule x = A−1 b = det(A)1
[com(A)]t ou la méthode de Cramer. Cependant, ces
méthodes utilisent des calculs de déterminants. Ceci les rend três couûteuses en temps de calcul
au fur et à mesure que n augmente (un calcul d’un déterminant d’une matrice carrée de taille
n × n nécessite n! opérations élémentaires d’addition et/ou multiplication). Dans les deux chapitres
suivant, nous allons étudier des méthodes beaucoup moins coûteuses en temps de calcul (temps de
calcul en n3 opérations élémentaires). Ces méthodes sont classées en méthodes directes directes
(chapitre 2) et méthodes itératives (chapitre 3).

2.2 Rappels et compléments sur les matrices

Definition 2.2.1
Soit A ∈ Mn (R).
La transposée de la matrice A, notée At est définie par : At (i, j) = A( j, i), ∀ 1 ≤ i, j ≤ n ou de
manière équivalente : < Ax, y >=< x, At y >, ∀x, y ∈ Rn .
La matrice A est dite symétrique ou auto-adjointe ssi At = A.
La matrice A est dite orthogonale ssi elle est inversible avec At = A−1 .

Soit A ∈ Mn (C).
t
La matrice adjointe (ou transconjuguée) de A, notée A∗ est définie par (A∗ = A ), ç-à-d.,
A∗ (i, j) = A( j, i), ∀ 1 ≤ i, j ≤ n ou de manière équivalente < Ax, y >=< x, A∗ y >, ∀x, y ∈ Cn
La matrice A est dite auto-adjointe ou Hermitienne ssi A∗ = A,
La matrice A est dite unitaire ssi elle est inversible avec A∗ = A−1 .
La matrice A est dite normale ssi A.A∗ = A∗ A.

Definition 2.2.2
Soit A ∈ Mn (K).
1. On dit que A est positive ssi < Ax, x >≥ 0, ∀ x ∈ Kn .
2. On dit que A est définie positive ssi < Ax, x >> 0, ∀ x ̸= 0Kn .
3. On dit que A est à diagonale strictement dominante ssi pour tout i ∈ {1, . . . , n}, on a :

|ai,i | > ∑ |ai, j | .


j̸=i

Proposition 2.2.1 Soient A, B ∈ Mn (C). On a :


1. det(AB) = det(BA) = det(A).det(B).
2. det(At ) = det(A).
3. Si A ∈ Mn (C) est inversible alors det(A−1 ) = det(A)
1
.
4. Si A est triangulaire (et en particulier diagonale) alors det(A) = ∏ni=1 A(i, i) .
5. Si A est triangulaire inférieure (resp. supérieure) alors :

A est inversible ssi A(i, i) ̸= 0, ∀i = 1, . . . , n .

De plus, dans ce cas A−1 est triangulaire inférieure (resp. supérieure) et A−1 (i, i) = 1
A(i,i) .
12 Chapter 2. Rappels et compléments sur les systèmes linéaires et les matrices

6. Si A et B sont triangulaires inférieures (resp. supérieures). alors la matrice AB est triangulaire


inférieure (resp. supérieure).

2.3 Diagonalisation des matrices


Definition 2.3.1 Une matrice A ∈ Mn (C) est dite diagonalisable s’il existe une matrice P
inversible et une matrice diagonale D telle que

A = PDP−1 .

Theorem 2.3.1
Une matrice A ∈ Mn (C) est diagonalisable ssi elle est normale.
Dans ce cas, on a A = Udiag(λ1 , ..., λn )U −1 où U est unitaire et les λi sont les v.p. de A.

Proposition 2.3.2 Soit A ∈ Mn (C) Hermitienne. On a


1. Toutes les valeurs propres de A sont réelles.
2. A est définie positive ssi ses valeurs propres sont strictement positives.
3. A est positive ssi ses valeurs propres sont positives.
Proof
Point 1 : Soit λ une valeur propre de A et x le vecteur propre associé. On a :

λ < x, x >=< λ x, x >=< Ax, x >=< x, Ax >=< x, λ x >= λ < x, x >

Ainsi : λ = λ .
Corollary 2.3.3 Si A ∈ Mn (R) est symétrique (resp. A ∈ Mn (C) est Hermitienne) alors
elle est diagonalisable avec des v.p. réelles et il existe O ∈ Mn (R) orthogonale telle que
A = O.diag(λ1 , . . . , λn ).Ot (resp. U ∈ Mn (C) unitaire telle que A = U.diag(λ1 , . . . , λn ).U ∗ )

2.4 Normes matricielles et normes subordonnées


2
L’espace vectoriel Mn (K) étant isomorphe à K n , On peut définir, sur Mn (K) des normes vecto-
2
rielles
p comme celles définies sur Kn . Exemples : Norme de Frobenius ou de Schur : ||A||F =
∑ |a(i, j)|2 , normes l p , l ∞ .

Definition 2.4.1
Une norme matricielle sur Mn (K) est une norme "vectorielle" vérifiant en plus

|||AB||| ≤ |||A|||.|||B|||, ∀ A, B ∈ Mn (K) .

Exercise 2.1
1. Montrer que ||A|| = max|A(i, j)| n’est pas une norme matricielle pour n > 1.
2. Montrer que la norme de Frobenius est une norme matricielle (Indication : On pourra utiliser
l’inégalité de Cauchy-Schwartz). ■

Definition 2.4.2
Soient A ∈ Mn (K) et λi , 1 ≤ i ≤ n les valeurs propres de A comptées avec leur ordre de
multiplicité.
2.4 Normes matricielles et normes subordonnées 13

1. On appelle spectre de A, l’ensemble des valeurs propres de A :

Sp(A) = {λi , 1 ≤ i ≤ n} .

2. On appelle rayon spectral de A, le réel positif :

ρ(A) := max{|λi |, i = 1, . . . , n} .
Proposition 2.4.1
Soit A ∈ Mn (C) et soit ρ(A) son rayon spectral. Alors pour toute norme matricielle |||.|||, on a :

ρ(A) ≤ |||A||| .

Definition 2.4.3
Soit ||.|| une norme vectorielle sur Kn . Elle induit la norme matricielle définie par : ∀ A ∈ M( K),

||Ax||
|||A||| = sup .
x̸=0Kn ||x||

Cette norme est appelée norme matricielle subordonnée.

Proposition 2.4.2
Soit A ∈ Mn (K). Pour tout ε > 0, il existe au moins une nome matricielle subordonnée telle que
|||A||| < ρ(A) + ε.
Proposition 2.4.3
Soit |||.||| une norme matricielle subordonnée. Pour tout A ∈ Mn (K), on a :
1. |||A||| = sup||x||=1 ||Ax|| = sup||x||≤1 ||Ax||.
2. ∃ xA ̸= 0 tel que |||A||| = ||AxA ||/||xA ||.
3. |||In ||| = 1.
4. |||A.x||| ≤ |||A|||.||x|| , ∀ x ∈ Kn .

Exercise 2.2
En utilisant la proposition précédente, montrer que la norme de Frobenius est une norme
matricielle non subordonnée pour n > 1. ■

Proposition 2.4.4
Pour tout A ∈ Mn (K), on a :
1. |||A|||1 := sup ||Ax||
||x||1 = max j (∑i |A(i, j)|).
1

2. |||A|||∞ := sup ||Ax||


||x||∞ = maxi (∑ j |A(i, j)|).

3. |||A|||2 = sup ||Ax|| ∗


p p
||x||2 = |||A |||2 =
2
ρ(AA∗ ) = max λi (AA∗ ) (la plus grande valeur sin-
gulière de A).
4. Si U est unitaire ou orthogonale alors |||UA|||2 = |||AU|||2 = |||A|||2 .
5. Si A est normale alors |||A|||2 = ρ(A).

R Les 2 derniers points de la proposition précédente vont être montrés en TD.

Definition 2.4.4
On dit qu’une suite (A p ) de Mn (K) converge vers une limite A pour une norme matricielle notée
|||.||| ssi lim p→∞ |||A p − A||| = 0.
14 Chapter 2. Rappels et compléments sur les systèmes linéaires et les matrices

Proposition 2.4.5
Soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :
• lim p→∞ A p = 0.
• lim p→∞ A p x = 0, ∀ x ∈ Kn .
• ρ(A) < 1.
• ∃ une norme matricielle subordonnée telle que |||A||| < 1.

Theorem 2.4.6
1) Soit |||.||| une norme matricielle quelconque et soit B ∈ Mn (K) telle que |||B||| < 1 alors la
matrice I − B est inversible et vérifie (I − B)−1 = ∑+∞ k
k=0 B .
2) Si une matrice de la forme (I − B) est non inversible, alors pour toute norme matricielle on a
|||B||| ≥ 1.

Proposition 2.4.7
Si la matrice A ∈ Mn (K) est à diagonale strictement dominante alors est inversible.

R Cet exercice sera traité en TD. L’idée de la preuve est la suivante :


1. Écrire A sous la forme A = D.B où D = diag(aii ) est inversible.
2. Écrire B sous la forme B = I −C et montrer que |||C|||∞ < 1.
3. Conclure en utilisant le théorème précédent.

2.5 Conditionnement d’un système linéaire


Motivation : Lors de la résolution du système Ax = b, les éventuelles imprécisions sur A et b vont
induire une erreur sur la valeur calculée de la solution x du système.
Des majorations de cette erreur sont liées au condtionnement de la matrice A. Le conditionnement
est introduit dans la définition suivante.

Definition 2.5.1
Le conditionnement d’une matrice inversible A ∈ Mn (K) relativement à une norme matricielle
subordonnée est donné par
cond(A) = |||A|||.|||A−1 ||| .

Theorem 2.5.1 Soit A ∈ Mn (K) inversible et soit b ∈ Kn . On considère x ∈ Kn la solution de


Ax = b. On a :
1. On suppose que b ̸= 0Kn . Si (x + δ x) est la solution de A(x + δ x) = (b + δ b), alors

||δ x|| ||δ b||


≤ cond(A) .
||x|| ||b||

2. Si (x + δ x) est la solution de (A + δ A)(x + δ x) = b, alors

||δ x|| |||δ A|||


≤ cond(A) .
||x + δ x|| |||A|||

3. On suppose que b ̸= 0Kn . Si (x + δ x) est la solution de (A + δ A)(x + δ x) = (b + δ b), alors


 
||δ x|| 1 ||δ b|| |||δ A|||
≤ cond(A) × + .
||x + δ x|| 1 − |||δ A|||.|||A−1 ||| ||b|| |||A|||
2.5 Conditionnement d’un système linéaire 15

Proof
La preuve du 1er point sera faite en TD.
Proposition 2.5.2 Propriétés
Soit A une matrice dans Mn (C) inversible. On a :
1. cond(A) ≥ 1.
2. Soit U une matrice unitaire, cond2 (UA) = cond2 (AU) = cond2 (A).
|λi |
3. Si A est hermitienne, alors cond2 (A) = max
min |λi | .
Proof
Les preuves des points (1) et (3) de cette propostion seront traités en TD.

Vous aimerez peut-être aussi