Vous êtes sur la page 1sur 24

COMPLEMENTS SUR LES MATRICES - SYSTEMES D’EQUATIONS

Dans ce chapitre, | est un corps commutatif (en général | = R ou | = C);


E est un |-espace vectoriel de dimension …nie n; L (E) est l’ensemble des
endomorphisme de E; Mn (|) est l’ensemble des matrices carrées d’ordre n à
coe¢ cients dans | et Mm;n (|) est l’ensemble des matrices de format (m; n)
c.à.d de m lignes n colonnes à coe¢ cients dans |:

1 COMPLEMENTS SUR LES MATRICES

1.1 Matrices equivalentes et rang


1.1.1 Rang d’une matrice
Mineur d’une matrice
Dé…nition 3.1: Soit A 2 Mm;n (|) : On appelle mineur d’ordre p de A
( p minfm; ng) le déterminant d’une matrice carrée d’ordre p extaite de A
c.à.d obtenue en supprimant des lignes et des colonnes de A:
Rang d’une matrice
Dé…nition 3.2: Le rang d’une matrice A 2 Mm;n (|) noté rg(A) est:
- le nombre maximal de lignes linéairement indépendantes de A:
- le nombre maximal de colonnes linéairement indépendantes de A:
- l’ordre maximal des mineurs non nuls de A:

NB: Pour la preuve de l’équivalence des trois éléments de cette dé…nition,


voir TD

D’après cette dé…nition:

il existe un mineur non nul d’ordre n de A () rg(A) n

Propriétés 3.1 Soit A 2 Mm;n (|) : Alors :


a) rg(A) minfm; ng;
b) rg(A) = 0 () A = 0;
c) rg(A) = rg(t A);

1
d) Le rang de A ne change pas lorsqu’on multiplie A à droite ou à gauche
par une matrice inversible.

Preuve
a); b) et c) découlent directement de la dé…nition du rang d’une matrice.
d) est une conséquense conjuguée de la dé…nition deux matrices équivalentes
et du corollaire du théo 3.3.(voir la prochaine section "matrices équivalentes")

Proposition 3.1 : Soit A 2 Mn (|) : Alors A inversible () rg(A) = n:

Preuve
En e¤et, A inversible () det A 6= 0 () il existe un mineur non nul
d’ordre n de A () rg(A) n () rg(A) = n (puisque rg(A) n)

1.1.2 Rang d’une application linéaire


Dé…nition 3.3: soit f : E ! E 0 linéaire. Le rang de f est rg(f ) =
dim(Im f )

Propriété.3.2: soit f : E ! E 0 linéaire. Alors:


- le rang de f est le rang de sa matrice relativement à une base quelconque
de E et une base queconque de E 0 :

En e¤et si A est la matrice de f relativement à une base B de E et une


base B 0 de E 0 ; alors la dimension de Im f est égale au nombre maximal de
colonnes linéairement indépendantes de A:

Théorème 3.1: soient f : E ! E 0 linéaire et r 1. Alors les CSSE:


i) rg(f ) = r;
ii) Il existe une base B de E et une base B 0 de E 0 relativement auxquelles
la matrice de f est la matrice :
1 pour 1 i = j r
Jr = ( ij ) 2 Mm;n (|) dé…nie par ij = (où
0 sinon
n = dim E et m = dim E 0 ).
Ir 0
c.à.d A est la matrice par blocs où Ir est la matrice unité
0 0
d’ordre r et les 0 sont des matrices nulles.

Preuve

2
Il est clair en vertu de la propriété 2.2 que ii) =) i) car rg(Jr ) = r: Mon-
trons i) =) ii) : supposons donc que rg(f ) = r: Alors on a dim (Im f ) = r:
Soient (e01 ; e02 ; :::; e0r ) une base de Im f et pour 1 i r; ei un antécé-
0
dent de ei : Alors la famille (e1 ; e2 ; :::; !er ) est libre. Enr e¤et 8 1 ; 2 ; :::; r 2
Xr Xr X
|; i ei = 0E =) f i ei = 0E 0 =) i f (ei ) = 0E 0 =)
i=1 i=1 i=1
X
r
0
i ei = 0E 0 =) i = 0 pour 1 i r car (e01 ; e02 ; :::; e0r ) base de
i=1
Im f =) (e01 ; e02 ; :::; e0r ) est une famille libre; alors la famille (e1 ; e2 ; :::; er )
est libre. Complétons cette famille en une base F = (e1 ; e2 ; :::; er ; vr+1 ; :::; vn )
X r
de E:.8r + 1 j n; f (vj ) 2 Im f donc on a f (vj ) = aij e0i ( )avec
i=1
X
r
aij 2 | pour 1 i r. 8r + 1 j n; posons ej = vj aij ei : alors
i=1
la famille B = (e1 ; e2 ; :::; er ; er+1 ; :::; en ) est une base de E: En e¤et la ma-
trice de B dans la base F est une matrice triangulaire supérieure ayant rien
que des 1 sur ladiagonale donc de déterminant égal à 1: Maintenant pour
r + 1 j n; on a: !
Xr X r X
r
f (ej ) = f vj aij ei = f (vj ) aij f (ei ) = f (vj ) aij e0i =
i=1 i=1 i=1
0E 0 d’après ( ): On a donc :
e0j si 1 i r
f (ej ) =
0E 0 si r + 1 j n
Alors si on complète (e01 ; e02 ; :::; e0r ) en une base B 0 = e01 ; e02 ; :::; e0r ; e0r+1 ; :::; e0m
de E 0 ; on a bien matBB 0 (f ) = Jr :

Proposition 3.2 (formule du rang): On a dim(ker f )+rg(f ) = dim E.

Preuve
La formule de la dimension s’écrit:
dim(ker f ) + dim(Im f ) = dim E d’où le résultat car dim(Im f ) = rg(f ):

1.1.3 Rang d’un système d’équations linéaires


Dé…nition 3.4: Le rang d’un système d’équations linéaires est égal au rang
de la matrice associée.

3
1.1.4 Rang d’une famille de vecteurs
Dé…nition 3.5: Le rang d’une famille Fde vecteurs de E noté rg(F) est
égal à la dimension du sous espace vectoriel de E engendré par cette famille.
Le rang de F est aussi le rang de sa matrice dans une base quelconque de
E (qui est la matrice dont les colonnes sont les mcc respectives des éléments
de Fdans B):

Théorème 3.2: Soit F une famille de p vecteurs de E (de dimension


…nie n); B une base de E et A 2 Mn;p (|) la matrice de F dans la base B:
Alors pour l’étude de l’indépendance linéaire des éléments de F trois cas se
présentent:
1er cas : p > n
Alors F est une famille liée;
2eme cas : p = n
Alors F est une famille libre () det(A) 6= 0: () F est une base de E:
3eme : p < n
Alors F est libre si et seulement s’il existe un mineur d’ordre p non nul
de A:

Preuve
1er cas : p > n : on sait que si dim E = n; alors une famille de plus de n
vecteurs de E est liée.
2eme cas : p = n : dans cas cardF = dim E et A est une matrice carrée
; alors F est une base de E () F est une famille libre () les vecteurs
colonnes de A sont linéairements indépendants () rg(A) = n () det(A) 6=
0:
3eme : p < n : F est une famille libre () rg(A) = p () existe un
mineur d’ordre p non nul de A (puisque A 2 Mn;p (|) =) rg(A) p):

1.2 Matrices équivalentes


Dé…nition 3.6: Deux matrices A; B 2 Mm;n (|) sont dites équivalentes s’il
existe une matrice Q 2 Mm (|) et une matrice P 2 Mn (|); inversibles telles
que:

B = QAP:

Le résultat suivant découle directement du théo 3.1

4
Théorème 3.3 : Une matrice A 2 Mm;n (|) est de rang r si et seulement
si elle est équivalente à la matrice
1 pour 1 i = j r
Jr = ( ij ) 2 Mm;n (|) dé…nie par ij =
0 sinon
Ir 0
c.à.d A est la matrice par blocs où Ir est la matrice unité
0 0
d’ordre r et les 0 sont des matrices nulles.

Corollaire: Deux matrices de même format sont équivalentes si et seule-


ment si elles ont même rang.

1.3 Matrices semblables


Dé…nition 3.7: Deux matrices A; B 2 Mn (|) sont dites semblables s’il
existe une matrice inversible P telle que
1
B=P AP:

Soit u 2 L(E); B; B 0 deux bases de E; P = PBB 0 ; A = matB (u) et


A0 = matB 0 (u): Alors on a A0 = P 1 AP: Donc A et A0 sont semblables. D’où
le résultat:

Proposition 3.3 : Les matrices d’un même endomorhisme dans des bases
di¤érentes sont semblables

Proposition 3.4 : Soit A; B 2 Mn (|) deux matrices semblables.Alors on


a:
tr(A) = tr(B); det(A) = det(B)

Preuve
A et B étant semblables, alors il existe une matrice P inversible telle que
B = P 1 AP: Il s’ensuit:
tr(B) = tr (P 1 AP ) = tr (AP P 1 ) (car 8A; B 2 Mn (|); tr(AB) =
tr(BA) voir TD) = tr(A)
det(B) = det(P 1 AP ) = det(P 1 ) det(A) det(P ) = det(A) car
1
det(P 1 ) = det(P )
:

D’après les deux propositions précédentes, tr(matB (u)) et det(matB (u))


sont indépendantes de la base B choisie d’où les dé…nitions.

5
Dé…nitions 3.8: (Trace et déterminant d’un endomorphisme).
Soit u 2 L(E):
- La trace de u est la trace de sa matrice dans une base quelconque de E:
- Le déterminant de u est le déterminant de sa matrice dans une base
quelconque de E:

1.4 Matrice par blocs


1.4.1 Description
Dé…nition 3.9: Soit A 2 Mm;n (|): Une disposition par blocs de A est une
écriture:
0 1
A11 A12 A1s
B A21 A22 A2s C
B C
A = (Ai;j ) 1 i r = B .. .. .. C
1 j s @ . . . A
Ar1 Ar2 Ars

où 81 i r; 1 j s; Ai;j est une matrice, véri…ant:


- Pour chaque i 2 1; r; les matrices Ai1 ; Ai2 ; :::; Ais ont toutes le même
nombre de lignes;
- Pour chaque j 2 1; s; les matrices A1j ; A2j ; :::; Arj ont toutes le même
nombre de colonnes.
En d’autres termes, les matrices situées sur la même ligne ont le même
nombre de lignes, et les matrices situées sur la même colonne ont le même
nombre de colonnes

Remarque 3.1: Une même matrice peut avoir plusieurs dispositions par
blocs comme le montre l’exemple suivant:
0 1
1 0 2 1 6
B 0 2 1 1 3 C
Soit A = B@ 2
C
3 0 2 0 A
4 1 7 5 1

Alors on peut écrire:

A11 A12 A13


A=
A21 A22 A23

6
1 0 2 1 6 2 3
avec A11 = ; A12 = ; A13 = ; A21 = ; A22 =
0 2 1 1 3 4 1
0 2 0
; A23 =
7 5 1
Ou encore

B11 B12
A=
B21 B22

1 0 2 1 6 2 3 0
avec B11 = ; B12 = ; B21 = ; B22 =
0 2 1 1 3 4 1 7
2 0
5 1
et la liste de dispositions par blocs de A peut encore continuer.

Dé…nitions 3.10: -Une disposition par blocs A = (Ai;j ) 1 i r est dite


1 j s
une disposition carrée par blocs si r = s et les matrices Aii (1 i r)
appelés les blocs diagonaux ou les blocs de la diagonale (de la disposition
par blocs), sont des matrices carrées. On écrit alors A = (Ai;j )1 i;j r : En
particulier, une matrice qui admet une disposition carrée par blocs est une
matrice carrée.
- A 2 Mn (|) est dite diagonale par blocs s’il existe une disposition carrée
par blocs A = (Ai;j )1 i;j r : de A telle que Ai;j = 0 pour i 6= j:
- A 2 Mn (|) est dite triangulaire supérieure(resp. inférieure) par blocs
s’il existe une disposition carrée par blocs A = (Ai;j )1 i;j r : de A telle que
Aij = 0 pour i > j (resp.i < j):

Remarque 3.2 : Une matrice peut être diagonale ou triangulaire par


blocs sans être diagonale ou triangulaire:
0 1
2 3 0
A11 A12
Par exemple la matrice A = @ 1 5 0 A = avec A11 =
A21 A22
0 0 4
2 3
; A12 = 0; A21 = 0 (matrices nulle) ; A22 = (4) est une matrice
1 5
diagonale par blocs mais elle n’est ni diagonale ni triangulaire.

1.4.2 Opérations par blocs


Combinaison linéaire

7
Proposition 3.5 : Soit A; B 2 Mm;n (|) disposées par blocs de même
format c.à.d A = (Ai;j ) 1 i r et B = (Bi;j ) 1 i r et telles que pour 1 i r
1 j s 1 j s
et pour 1 j s; Aij et Bij soient de même format: Alors 8 ; 2 |; la
matrice C = A + B admet une disposition par blocs de même format :
C = (Ci;j ) 1 i r avec 81 i r; 1 j s; Ci;j = Ai;j + Bi;j :
1 j s

Produit
Proposition 3.6 : Soient A 2 Mm;n (|) ; B 2 Mn;p (|) disposées par
blocs A = (Ai;j ) 1 i r ; B = (Bi;j ) 1 i s :
1 j s 1 j t
On suppose que pour 1 i r; 1 k s; 1 l t; le nombre de
colonnes de Aik est égal au nombre de lignes de Bkl : Alors le produit D = AB
admet une représentation par blocs
X
s
D = (Di;j ) 1 i r avec 1 i r; 1 l t; Di;l = Aik Bkl :
1 j t k=1

Remarque 3.3
Soient A et B deux matrices carrées ayant des dispositions carrées par
blocs respecifs A = (Aij )1 i;j r ; B = (Bij )1 i;j r de même ordre r telles que
81 i; j r; Aij et Bij soient de même format. Alors le produit AB peut
se faire par blocs. En particulier si A 2 Mn (|) admet une disposition carrée
par blocs, alors les puissances Ap ; p 2 N; peuvent se calculer par blocs.
Les deux propositions précédentes a¢ rment que les opérations par blocs
se font comme avec les scalaires.Par suite:
- Le produit de deux matrices diagonales par blocs est une matrice diago-
nale par blocs dont les blocs diagonaux sont les produits des blocs diagonaux
correspondants..
- Le produit de deux matrices triangulaires supérieures (resp. inférieures)
par blocs est une matrice triangulaire (resp. inférieure) par blocs dont les
blocs diagonaux sont les produits des blocs diagonaux correspondants.

Exemple0 3.1 :Soient


1 les matrices
0 : 1
1 2 1 1 2 3 1
A = @ 3 4 0 A et B = @ 4 5 6 1 A
0 0 2 0 0 0 1
On peut calculer AB en utlisant une décomposition par blocs en posant:
A11 A12 1 2 1
A= avec A11 = ; A12 = ; A21 = 0 0 =
A21 A22 3 4 0
0M12 (R) et A22 = 2;

8
B11 B12 1 2 3 1
B = avec B11 = ; B12 = ; B21 =
B21 B22 4 5 6 1
0 0 0 = 0M13 (R) et B22 = 1:
On véri…e bien que les conditions qui rendent possible la multiplication
par blocs sont satisfaites par A; B et les Aij et les Bkl : Alors on a:
A11 A12 B11 B12 A11 B11 + A12 B21 A11 B12 + A12 B22
AB = =
0 A 21 A 22 B21 B22 A21 B11 + A22 B21 A21 B12 +1 A22 B22
1 2 1 2 3 1 2 1 1
@ + 0M23 (R) + 1 A
= 3 4 4 5 6 3 4 1 0 =
013 + 013 0+2 1
0 1
9 12 15 4
@ 19 26 33 7 A
0 0 0 2
0 1
9 12 15 4
Donc AB = @ 19 26 33 7 A
0 0 0 2
Déterminant d’une matrice triangulaire par blocs
Théorème 3.4 : Soit A 2 Mn (|) triangulaire par blocs avec
0 1
A11 A12 A1r
B 0 A22 A2r C
B C
A = B .. . .. .. C
. :
@ . 0 A
0 0 Arr
Alors on a: det A = det A11 det A22 ::: det Arr :

Exemple 3.2 : calculer le déterminant de la matrice


0 1
a 0 0 b
B 0 a 0 0 b 0 C
B . . C
B . C
B . 0 a b 0 .. C
A=B . . C 2 M2n (|):
B .. 0 b a 0 .. C
B C
@ 0 b 0 0 a 0 A
b 0 0 a
(a sur la diagonale, b sur l’antidiagonale et les autres coe¢ cients nuls).
Soit B = (ei )1 i 2n ; la base canonique de |2n et f l’endomorphisme
canoniquement associé à A: Soit B 0 la base (e01 ; e02 ; :::; e02n ) = (e1 ; e2n ; e2 ; e2n 1 e3 ; e2n 2 ; :::; en ; en+1 )
(on a pour 1 k n; e02k 1 = ek ; e02k = e2n+1 k ): Alors la matrice de f dans
la base B 0 est la matrice diagonale par blocs:

9
0 1
a b 0 0
B b a 0 0 C
B ..C
B C
B 0 0 .C
B . . C
B .. .. 0 0 C
B C
@ 0 a b A
0 0 0 b a

d’où det A = (a2 b2 )n

1.4.3 Représentation matricielle par blocs

Dans cette sous section, u est un endomorphisme de E:

Sous espace vectoriel stable


Dé…nition 3.11: Un sous espace vectoriel F de E est dit stable par u
si u(F ) F:

Endomorphisme induit
Dé…nition 3.12: Soit F un sous espace vectoriel de E stable par u:
F !F
Alors l’application uF : qui est la restriction et la corestriction
x 7 ! u(x)
de u à F est un endomorphisme de F appelé l’endomorphime de F induit
par u:

Base adaptée à un sous espace vectoriel


Dé…nition 3.13: Soit F un sous espace vectoriel de E de dimension
p < n: Une base de E adaptée à F est une base (e;1 ; e2 ; :::ep ; ep+1 ; :::; en ) de
E telle que (e1 ; e2 ; :::; ep ) est une base de F:

Théorème 3.5: Soit F un sous espace vectoriel de E de dimension p <


n: Les CSSE:
i) F est stable par u;
ii) Pour toute base B = (e1 ; e2 ; :::; en ) de E adaptée à F c.à.d telle que
F = (e1 ; e2 ; :::; ep ) est une base de F; la matrice de u dans la base B est une
matrice triangulaire par bloc de la forme:
A11 A12
A= où A11 et A22 sont des matrices carrées d’ordre re-
0 A22
spectifs p et n p: ( A11 est alors la matrice de uF ; l’endomorphisme de F
induit par u; dans la base F):

10
Preuve
Posons matB (u) = A = (aij )1 i;j n : F stable par u () u(ej ) 2 F; pour
p
X
1 j p , u(ej ) = aij ei ; pour 1 j p () :aij = 0 dans le
i=1
A11 A12
cadran [i > p; 1 j p] () A est de la forme A = où A11
0 A22
est une matrice carrée d’ordre p dont pour 1 j p; la j eme colonne est
p
X
u(ej ) = uF (ej ) = aij ei d’où A11 = matF (uF ):
i=1

Somme directe d’endomorphismes


On suppose E = E1 E2 ::: Ep et que 81 k p; Ek est stable par
u: on note uk = uEk l’endomorphisme de Ek induit par u:
Comme E = E1 E2 ::: Ep ; alors 8x 2 E; x s’écrit de manière unique
x = x1 + x2 + ::: + xp ; avec xk 2 Ek ; 81 k p; alors on a:
u(x) = u(x1 + x2 + ::: + xp ) = u(x1 ) + u(x2 ) + ::: + u(xp ) = u1 (x1 ) +
u2 (x2 ) + ::: + up (xp ):
p
M
On dit alors que u est somme directe des uk et on écrit u = ui
i=1

Base adaptée à une somme directe


Dé…nition 3.14: On suppose E = E1 E2 ::: Ep : une base de E
adaptée à la somme directe E = E1 E2 ::: Ep ; est une base de E de la
forme B = (B1 ; B2 ; :::; Bp ) où pour 1 k p; Bk une base de Ek :

Théorème 3.6:On suppose E = E1 E2 ::: Ep et que 81 k p;


Ek est stable par u: on note uk = uEk l’endomorphisme de Ek induit par u:
Soit B = (B1 ; B2 ; :::; Bp ) une base de E adaptée à la somme directe E =
E1 E2 ::: Ep; Ak la matrice de uk dans la base Bk : Alors la matrice de
u dans la base B est la matrice diagonale par bloc
0 1
A1 0 0
B .. C
B 0 A2 . C
A=B .. .. C:
@ . . 0 A
0 0 Ap

Preuve
En procédant comme dans la preuve du théo 2.5, il su¢ t d’écrire la ma-
trice de u dans la base B en délimitant les bases Bk des uk :

11
Corollaire : On suppose E = E1 E2 ::: Ep et que 81 k p; Ek est
stable par u: on note uk = uEk l’endomorphisme de Ek induit par u; alors
on a
p
Y
det u = det uk
k=1

1.5 Opérations élémentaires sur les matrices.


Dé…nitions 3.15: Soit A 2 Mm;n (|) : On apelle opération élémentaire sur
les lignes de A, l’une des opérations suivantes:
1) Multiplier la ieme ligne par 2 |; 6= 0, dite opération élémentaire de
dilatation notée Li Li ;
2) ajouter à la ieme ligne, fois la j eme ligne ( 2 |; i 6= j) dite opération
élémentaire de transvection, notée Li Li + L j ;
3) Echanger la ieme et la j eme ligne dite opération élémentaire de trans-
position notée Li ! Lj :

Remarque 3.4: La famille des opérations 1 et 2 est équivalente à la


famille des opérations:
4) Remplacer la ieme ligne par fois la ieme ligne ( 6= 0) + fois la
j eme ligne Li Li + Lj :

Dé…nition 3.16 : On dé…nit de même les opérations de dilatation, de


transvection et de transposition élémentaire sur les colonnes de A notées
respectivement:

Ci Ci ; Ci Ci + Cj ; Ci ! Cj

dont les propriétés sont analogues à celles des opérations sur les lignes et
s’en déduisent par transposition.

Dé…nition 3.17 et notation : Soient i 6= j 2 1; m; ; 2 |; 6= 0 et


A 2 Mm;n (|) : Alors:
Les matrices de Mm (|) transformées de A par les opérations Li Li ;
Li Li + Lj ; Li ! Lj sont notées respectivement:

(i; ) (A); (ij; ) (A); ij (A):

Les matrices de Mm (|) transformées de Im par les opérations Li Li ;


Li Li + Lj ; Li ! Lj sont notées respectivement:

12
Di ( ); Ti;j ( ); Pi;j

et dites respectivement matrice élémentaire de dilation, de transvection et


de transposition.

Une matrice d’opération élémentaire est une matrice élémentaire soit de


dilatation, soit de transvection,soit de transposition.
Proposition 3.5: Les opétations respectives Li L i ; Li Li + L j ;
Li ! Lj transforment A en:

Di ( ) A; Ti;j ( ) A; Pi;j A.

En d’autre termes on a:

(i; ) (A) = (i; ) (Im ) A; (ij; ) (A) = (ij; ) (Im ) A; ij (A) = ij (Im ) A:

Preuve
Simples véri…cations.

Remarque 3.5
a) Pour résumer la proposition 2.5, on retiendra que si e(A) désigne la
transformée d’une matrice quelconque A 2 Mm;n (|) par une opération élé-
mentaire sur les lignes, alors on a:

e(A) = e(Im ) A:

b) Les opérations Li L i ; Li L i + L j ; Li ! Lj sont inversibles


d’inverses respectives:
1
Li Li ; L i Li Lj ; L i ! Lj

donc les matrices d’opération élémentaire sont inversibles et plus précisé-


ment on a:
1 1
[Di ( )] = Di ( 1 ); [Ti;j ( )] = Ti;j ( ); Pi;j1 = Pi;j :

c) Les opérations respectives Ci Ci ; Ci Ci + Cj ; Ci ! Cj


transforment A en

A Di0 ( ); A 0
Tj;i ( ); A 0
Pi;j

où Di0 ( ); Tj;i
0 0
( ); Pi;j sont les matrices de Mn (|) transformées de In par
les opérations Ci Ci ; Ci Ci + Cj ; Ci ! Cj :

13
2 SYSTEMES D’EQUATIONS LINEAIRES

2.1 Echelonnement d’une matrice


2.1.1 Matrice échelonnée
Dé…nition 3.18: - Une Matrice A = (aij ) 2 Mm;n (|) est dite échelonnée
par ligne si le nombre de zéros précédant le 1er élément non nul d’une ligne
augmente de ligne en ligne tant qu’il y a des lignes non nuls c.à.d. s’il existe
des coe¢ cients non nuls a1j1 ; :::; arjr de A ( r m) avec j1 < j2 < ::: < jr
tels que:
aij = 0 pour ( i r et j < ji ) et i > r:
- Les coe¢ cients non nuls a1j1 ; :::; arjr sont alors appelés les éléments
distingués ou pivots de A:
- Une matrice A est dite échelonnée réduite par ligne (en abrégé erl) si
elle est échelonnée par ligne et si chaque élément distingué de A est égal à 1
et est le seul élément non nul sur sa colonne.

Exemple
0 3.3: 1 0 1
2 3 2 0 4 5 6 0 1 3 0 0 4 0
B 0 0 7 0 3 2 0 C B 0 0 0 1 0 3 0 C
A=B C
@ 0 0 0 0 0 6 2 A; B = @ 0 0 0 0
B C
1 8 0 A
0 0 0 0 0 0 0 0 0 0 0 0 0 1
A est une matrice échelonnée (non réduite), B est une matrice erl:
Les éléments distingués sont ceux qui sont entourés.

Proposition 3.7: Soit A une matrice échelonnée par ligne; alors le rang
de A est égal au nombre de lignes non nulles de A:

Preuve
Il s’agit de montrer que les lignes non nulles d’une matrice échelonnée par
ligne sont linéairement indépendantes ce qu’on véri…e facilement.

2.1.2 Matrices équivalentes ligne


Dé…nition 3.19: Deux matrices A et B sont dites équivalentes ligne si B
s’obtient à partir de A par un nombre …ni d’opérations élémentaires sur les
lignes.

14
On écrit alors A~B

Proposition 3.8: Si A et B sont équivalentes ligne, alors rg (A) =


rg (B) :

Preuve
Si A et B sont équivalentes ligne, alors B s’obtient à partir de A par
un nombre …ni d’opérations élémentaires sur les lignes.Par suite d’après la
remarque 2.5a), B est égal au produit de A par un nombre …ni de matrices
d’opération élémentaire. comme chaque matrice d’opération élémentaire est
inversible alors la propriété 2.1d) assure le résultat

Proposition 3.9: Toute matrice est équivalente ligne à une matrice éch-
elonnée par ligne.
Plus précisément, pour tout A 2 Mm;n (|); il existe une matrice inversible
P 2 Mm (|) et une matrice échelonnée par ligne E 2 Mm;n (|) telles que
P A = E:

Preuve
D’après l’algorithme d’échelonnement d’une matrice (voir un peu plus
bas), A est transformée en une matrice échelonnée par ligne E par des
opérations élémentaires successives sur les lignes. Soient e1 ; e2 ; :::; ek la suite
d’opérations élémentaires qui transforme A en E et E1 ; E2 ; :::; Ek les matrices
d’opération élémentaire correspondant. Alors:
e1 transforme A en e1 (A) = E1 A qui est transformée à son tour par e2 en
e2 [e1 (A)] = E2 E1 A et ainsi de suite on obtient E = ek [ek 1 ::: [e2 [e1 (A)]]] =
Ek Ek 1 ::: E2 E1 A: On pose P = Ek Ek 1 ::: E2 E1 ; alors P
est inversible car produit de matrices d’opérations élémentaires qui d’après
la remarque 2.5b), sont inversibles et on a P A = E:

Proposition 3.10 (et dé…nition): Toute matrice A est équivalente ligne


à une unique matrice erl appelée la forme ligne canonique de A:
Plus précisément, pour tout A 2 Mm;n (|); il existe une unique matrice
inversible P 2 Mm (|) et une unique matrice erl E 2 Mm;n (|) telles que
P A = E:

Proposition 3.11: Une matrice de Mn (|) est inversible si et seulement


si sa forme ligne canonique est égale à In :

Preuve
Si la forme ligne canonique de A est égal à In ; alors en vertu de la propo-
sition 3.9, A et In ont le même rang donc A est inversible. Réciproquement

15
si A est inversible, alors pour la même raison que précédemment la forme
ligne canonique E de A est inversible. Alors pour achever la preuve il su¢ t
de remarquer que In est la seule matrice erl inversible de Mn (|) : En e¤et
Si une matrice erl de Mn (|) est inversible, alors aucune de ses lignes n’est
nulle, donc il y a un élément distingué sur chaque ligne. Par conséquent E
possède n éléments distingués et la condition 1 j1 < j2 < ::: < jn n
de la dé…nition 3.10 implique que jk = k pour 1 k n et donc que ces
éléments distingués sont les éléments de la diagonale de E: Comme en plus E
est réduite, alors ces éléments sont tous égaux à 1 et sont les seuls éléments
non nuls sur leurs colonnes respectives. En somme, les coe¢ cients de E sont
égaux à 1 sur la diagonale et à 0 ailleurs donc on a E = In :

Application au calcul de l’inverse d’une matrice


Corollaire 1 : Soit A 2 Mn (|) une matrice inversible. Alors A 1 est
égal au produit des matrices d’opérations élémentaires correspondant à la
suite des opérations élémentaires qui transforme A en In :
En conséquence A 1 est égale à la transformée de In par cette suite d’
opérations élémentaires sul les lignes

Preuve
Soient e1 ; e2 ; :::; ek la suite d’opérations élémentaires qui transforme A en
In et E1 ; E2 ; :::; Ek les matrices d’opération élémentaire correspondant. Alors
on a:
Ek Ek 1 ::: E2 E1 A = In d’où A 1 = Ek Ek 1 ::: E2 E1 =
ek [ek 1 ::: [e2 [e1 (In )]]] :

Exemple 3.4 :
NB : Avant de suivre cet exemple lire d’abord l’algorithme d’échelonnement
d’une matrice et l’exemple 3.5

Calculons l’inverse de la matrice suivante en utilisant les opérations élé-


mentaires0 sur les lignes.
1
1 0 2
A=@ 2 1 3 A
4 1 8
On échelonne A et on applique simultanément les mêmes opérations sur
les lignes
0 de I3 : 1 0 1 0 10 1
1 0 2 1 0 0 1 0 2 1 0 0
@ 2 1 3 A @ 0 1 0 A ! L2 2L1 @ 0 1 1 A@ 2 1 0 A !
4 1 8 0 0 1 L3 4L1 0 1 0 4 0 1

16
0 10 1
1 0 2 1 0 0
@ 0 1 1 A@ 2 1 0 A
L3 + L2 0 00 1 6 1101 1 0 10
1 0 0 11 2 2 1 0 0 11 2 2
L1 + 2L3 @
! 0 1 0 A@ 4 0 1 A ! L2 @ 0 1 0 A @ 4 0 1
L 2 L3
0 0 0 1 1 6 1 1 L3 0 0 1 6 1 1
11 2 2
Donc A 1 = @ 4 0 1 A
6 1 1

Corollaire 2 : Une matrice est inversible si et seulement si elle est produit


…ni de matrices d’opération élémentaire.

Preuve
Si A 2 Mn (|) est produit …ni de matrices d’opération élémentaire, alors
A est inversible puisque toute matrice d’opération élémentaire est inversible.
Réciproquement si A est inversible, alors A 1 est inversible et d’après le
1
corollaire 1, A (= (A 1 ) ) est égal au produit des matrices d’opérations élé-
mentaires correspondant à la suite des opérations élémentaires qui transforme
A 1 en In :

Dé…nition 3.20 : Echelonner une matrice A (par ligne) c’est construire


une matrice échelonnée par ligne équivalente ligne à A:

2.1.3 Algorithme d’échelonnement d’une matrice


Soit A = (aij ) 2 Mm;n (|): On construit une matrice échelonnée par ligne
équivalente ligne à A de la manière suivante:
* Si la j1 eme colonne est la 1 ere colonne de A possédant au moins un
élément non nul par exemple apj1 situé sur la p eme ligne, alors:
- Si p = 1; alors on e¤ectue successivement pour 2 i m; l’opération
Li a1j1 Li aij1 L1 pour annuler tous les éléments de la j1 eme colonne à
l’exception de a1j1 qui est non nul (c’est le pivot de la 1ere ligne).
- Si p 6= 1; alors on permute les lignes Lp et L1 (Lp ! L1 ) avant
d’e¤ectuer les opérations.
Supposons que les opérations ci-avant soient e¤ctuées au rang k (k 1) :
* Si la jk+1 eme colonne est la 1 ere colonne après la jk eme colonne
possédant au moins un élément non nul en dessous de la k eme ligne, par
exemple qjk+1 (nouvelle valeur de aqjk+1 après les opérations précédentes)
situé sur la q eme colonne, alors:

17
- Si q = k + 1; alors on e¤ectue successivement pour k + 2 i m les
opérations Li k+1jk+1 Li ijk+1 Lk+1 pour annuler tous les éléments de
la jk+1 eme colonne en dessous de k+1jk+1 :
- Si q 6= k + 1; alors on permute les (nouvelles) lignes Lq et Lk+1 avant
d’e¤ectuer les opérations.
On obtient …nalement une matrice échelonnée par ligne équivalente ligne
à A:
0 1
0 1 2 2 0
B 0 2 4 4 2 C
Exemple 3.5: Echelonner la matrice A = B @ 0
C
3 6 5 0 A
0 1 2 2 3
puis donner sa forme ligne canonique.
Echelonnons A :
0 1 0 1
0 1 2 2 0 0 1 2 2 0
B
L2 + 2L1 B 0 0 0 0 C
2 C B 0 0 0 1 0 C
A @ A L 2 ! L3 B @
C
L3 3L1 0 0 0 1 0 0 0 0 0 2 A
L4 + L1 0 0 0 4 3 0 0 0 4 3
0 1 0 1
0 1 2 2 0 0 1 2 2 0
B 0 0 0 1 0 C B 0 0 0 1 0 C
B C B C
@ 0 0 0 0 2 A @ 0 0 0 0 2 A
L4 + 4L2 0 0 0 0 3 2L4 + 3L2 0 0 0 0 0
On a ainsi échelonné la matrice A. Donnons sa forme ligne canonique
c.à.d poursuivons l’échelonnement jusqu’à sa forme erl:
A partir de la forme obtenue par l’algorithme précédent, on poursuit les
combinaisons pour éliminer les éléments non nuls au dessus des éléments
distingués de A:
Dans cette phase on opère dans le sens inverse de la 1ere phase de l’échelonnement,
donc de la dernière ligne à la première, et de bas en haut.
Lorsque la colonne de chaque élément distingué est débarassée des élé-
ments non nuls, on

Résolution des systèmes d’équations linéaires par la méthode de


Gauss

Donnons d’abord ce résultat général utile dans toutes les structutes


abéliennes en commençant par la dé…nition d’un Truc:

18
Dé…nition 3.21 : On appelle Truc l’une des structures abéliennes suiv-
antes: un groupe abélien, un anneau commutatif, un corps commutatif, un
espace vectoriel sur un corps commutatif, un module sur un anneau commu-
tatif, une algèbre sur un anneau (ou un corps) commutatif.

NB: Sauf mention contraire, la loi de groupe d’un Truc est notée +; et
son élément neutre 0

Lemme : Soit f : T ! T 0 un morphisme de Truc et soit b 2 T 0 :


Soit l’équation (E) x 2 T; f (x) = b: Alors:
- Si b 2= Im f; (E) n’a pas de solution;
- Si b 2 Im f; l’ ensemble des solutions de (E) est: S(E) = x0 + ker f;
où x0 est une solution particulière de (E)

Preuve
8x 2 T; x solution de (E) () f (x) = b () x est un antécédent de b:
- Si b 2
= Im f; alors b n’a pas d’antécédent, alors (E) n’a pas de solution;
- Si b 2 Im f; alors b a au moins un antécédent x0 qui est donc une
solution de (E) : Alors 8x 2 T; x solution de (E) () f (x) = b () f (x) =
f (x0 ) () f (x) f (x0 ) = 0 () f (x x0 ) = 0 () x x0 2 ker f () x 2
x0 + ker f d’où le résultat.

Théorème 83.7
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
soit (S) ..
>
> .
>
: a x + a x + ::: + a x = b
m1 1 m2 2 mn n m
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système
linéaire de m équations
0 à n inconnes1 x1 ; x2 ; :::; xn :
a11 a1n
B .. .. C 2 M (|) la matrice associée à (S) :
Soient A = @ . . A m;n
am1 amn
Alors l’ensemble des solutions de (S) est soit l’ensemble vide, soit un sous
espace a¢ ne de |n de dimension n rg(A):

Preuve
Soit f l’endomorphisme caqnoniquement associé à A: On pose v = (x1 ; x2 ; :::xn ) 2
|n et b = (b1 ; b2 ; :::bm ) 2 |m :
L’écriture de (S) sous forme d’application linéaire est l’équation : v 2 |n ;
f (v) = b:

19
D’après le lemme si b admet au moins un antécédent c..à.d si (S) est
compatible, alors la solution de (S) est
S|n = v0 + ker f où v0 est une solution particulière de (S): D’après
la formule du rang, ker f est un sous espace vectoriel de |n de dimension
n rg (f ) = n rg(A); par suite v0 + ker f est un sous espace a¢ ne de |n
de dimension n rg(A):

L’essentiel de notre approche et des résultat de cette section se résume


au théorème suivant:

Théorème83.8:
>
> a11 x1 + a12 x2 + ::: + a1n xn = b1
>
< a21 x1 + a22 x2 + ::: + a2n xn = b2
Soit (S) ..
>
> .
>
: a x + a x + ::: + a x = b
m1 1 m2 2 mn n m
avec aij 2 |; 81 i m; 1 j n; bi 2 |; 81 i m; un système
linéaire de m équations
0 à n inconnes1 x1 ; x2 ; :::; xn :
a11 a1n
B .. C 2 M (|) la matrice associée à (S) et
Soient A = @ ... . A m;n
am1 a
0 1 mn
a11 a1n b1
B .. .. .. C 2 M
A=@ . . . A m;n+1 (|) sa matrice complète.
am1 amn bm
On échelonne A pour obtenir une matrice A0 et soit (S 0 ) le système asso-
cié à A0 ; et A0 la matrice associée à (S 0 ) : (Alors d’après les propositions ci-
avant, d’une part (S) et (S 0 ) sont équivalents, d’autre part rg (A) = rg (A0 )
et rg A = rg A0 :
Trois cas se présentent:
1er cas: rg A > rg (A)
Alors (S) est incompatible: S|n = ?
2eme cas: rg A = rg (A) = n (nombre d’inconnues)
Alors (S) est déterminée et donc admet une solution unique qu’on déter-
mine en résolvant (S 0 ) en escalier à partir de la dernière ligne.
3eme cas: rg A = rg (A) = r < n
Alors (S) admet une in…nité de solutions. Les inconnues xj1 ; :::; xjr de
mêmes colonnes que les r éléments distingués de A0 ; appelées les inconnues
principales,.sont fonctions a¢ nes des n r autres inconnues xjr+1 ; :::; xjn ,
appelées inconnues secondaires et mises en paramètre.
L’ensemble des solutions de (S) est donc de la forme:

20
80 1 9
>
> xj1 xjr+1 ; :::; xjn >
>
>
> B .. C >
>
>
> B . C >
>
>
<B C >
=
B x x ; :::; xjn C
S|n = B jr jr+1 C ; xjr+1 ; :::; xjn 2 | sous réserve d’une
>
> B xjr+1 C >
>
>
> B .. C >
>
>
> @ . A >
>
>
: >
;
xjn
permutation de Sn qui remet les composantes à leur place initiale

Preuve
Ce théorème précise le théo 3.7
1 Si rg A > rg (A) alors (S) est incompatible;
2 Si rg A = rg (A) alors (S) est compatible et d’après le théo 3.7, la
solution de (S) est un sous espace a¢ ne F de dimension n rg(A): Par suite:
a) si rg(A) = n; alors dim F = 0 et par suite F est réduit à un point
c.à.d que (S) admet une unique solution;
b) si rg(A) < n; alors dim F > 0 et par suite F possède une in…nité
déléments c.à.d que (S) admet une in…nité de solutions. En outre la matrice
A0 étant échelonnée de rang r; alors les r lignes non nulles de A0 sont linéaire-
ment indépendantes et l’expression de S|n dans l’énoncé de ce théo est une
écriture paramétrique de F:

Remarque 3.6
1) Le choix des inconnues principales n’est pas unique mais dépend de la
façon dont l’échelonnement de A a été e¤ectué.
Plus généralement, on peut prendre comme suite d’inconnues principales
toute suite d’inconnues situées sur les colonnes utilisées pour obtenir un
mineur non nul de A d’ordre r = rg (A).

Exemple 3.6: Résoudre par la méthode de Gauss le système d’équations


linéaires: 8
< x + 2y z = 3
2x y + 3z = 0
(S) :
x + y + 2z = 3 0 1
1 2 1
la matrice associée à (S) est A = @ 2 1 3 A et la matrice aug-
0 1 1 1 2
1 2 1 3
mentée est A = @ 2 1 3 0 A:
1 1 2 3
Echelonnée A

21
0 1 0 1
1 2 1 3 1 2 1 3
A L2 + 2L1 @ 0 3 1 6 A @ 0 3 1 6 A:
L3 + L1 0 3 1 6 L3 L2 0 0 0 0
On a rg A = rg (A) = 2 < 3 donc (S) admet une in…nité de solutions;
x et y sont les inconnues principales et z devient un paramètre.
x + 2y = 3 + z x = 1 + 53 z
(S) () (S 0 ) ()
3y = 6 z y = 2 13 z
S R3 = 1 + 35 z; 2 13 z; z ; z 2 R

2.1.4 Autres méthodes


Méthode de Cramer La méthode de Cramer n’est pas pratique car
longue et fastidieuse (surtout lorsque le nombre d’inconnues est > 3) et ne
s’applique qu’au cas où le nombre d’équations est égal au nombre d’inconnues.
Par contre, son intérêt théorique nécessite son rappel.

Résolution des systèmes d’équations linéaires par la méthode de Cramer


Théorème 3.9
: 8
>
< a11 x1 + ::: + a1n xn = b1
Soit ..
(S) > .
: a x + :::a x = b
n1 1 nn n n
un système de n équations linéaires à n inconnues, A 2 Mn (|) la matrice
associée. Alors
(S) est déterminé c.à.d. (S) admet une solution unique si et seulement
si 4 = det A 6= 0:
Dans ce cas la solution unique (x1 ; :::; xn ) est donnée par:
4j
xj = 4
;

où 81 j n; 4j est le déterminant de la matrice 0


obtenue
1 en remplaçant
b1
B C
la j eme colonne de A par la colonne des constantes @ ... A
bn
8
>
< a11 x1 + ::: + a1n xn = 0
Cas des systèmes d’équations homogènes Soit ..
(S) > .
: a x + :::a x = 0
m1 1 mn n
un système d’équations homogènes et A la matrice associée.

22
Dans le cas où rg(A) = r < n; il est souvent plus rapide d’e¤ectuer des
combinaisons directes de lignes qu’un échelonnement formel en procédant
comme suit:
On choisit comme inconnues principales les inconnues situées sur les
colonnes utilisées pour calculer un mineur non nul d’ordre r de A qu’on
exprime directement en fonction des autres inconnues devenues paramètres,
par des combinaisons directes de lignes.

8 3.7: Résoudre le système d’équations homogènes


Exemple
< x + 2y z = 0
2x y + 3z = 0
(S) :
x + y + 2z = 0 0 1
1 2 1
La matrice associée à (S) est A = @ 2 1 3 A:
1 1 2
On a jAj = 0 car L3 = L1 + L2 donc rg (A) < 3: Par contre le mineur
1 1
est non nul. Donc rg (A) = 2 et x et z sont des inconnues
1 2
principales qui s’expriment en fonction du paramètre z:
L1 +L3 =) 3y+z = 0 =) z = 3y; 2L1 +L3 =) x+5y = 0 =) x = 5y
Donc SR3 = f( 5y; y; 3y) ; y 2 Rg

Méthodes imaginatives Certaines méthodes imaginatives (changement


de variables, combinaisons remarquables de lignes etc...) se révèlent plus
rapides et plus e¢ caces dans la résolution de certaines types de systèmes
linéaires.

8 3.8 : Résoudre le système


Exemple
>
> x2 + x3 + ::: + xn = a1
>
< x1 + x3 + ::: + xn = a2
(S) .. n 2
>
> .
>
: x + x + ::: + x
1 2 n 1 = an
On a : L1 + L2 + ::: + Ln =) (n 1) x1 + (n 1) x2 + ::: (n 1) xn =
a1 + a2 + ::: + an =)
L0 : x1 + x2 + ::: + xn = a1 +an2 +:::+a
1
n

81 j n; L0 Lj =) xj = a1 +an2 +:::+a 1
n
aj :

23
2.2 Application au calcul de l’inverse d’une matrice
0 1 0 1
x1 y1
B x2 C B y2 C
B C B C
Soit A = (aij ) 2 Mn (|) inversible. Soient X = B .. C et Y = B .. C
@ . A @ . A
xn yn
deux suites de variables dans |:
Lorsque Y est donné, l0 égalité AX = Y exprime y1 ; y2 ; :::; yn en fonc-
tion de x1 ; x2 ; :::; xn : C’est un système linéaire.ayant une unique solution
(x1 ; x2 ; :::; xn ) qu’on exprime en fonction de (y1 ; y2 ; :::; yn ) en résolvant le sys-
tème. Or AX = Y =) X = A 1 Y: Donc A 1 est la matrice du système qui
exprime x1 ; x2 ; :::; xn en fonction de y1 ; y2 ; :::; yn :
0 1
2 5 4
Exemple 3.9 : Montrer que la matrice M = @ 0 1 3 A est in-
0 0 6
versible et calculer son inverse.

M est une matrice triangulaire donc det(M ) = 2 ( 1) 6= 12 6= 0;


donc M est inversible. 0 1 0 0 1
x x
Maintenant, soient X = @ y A ; X 0 = @ y 0 A : Le système M X = X 0
z z0
s’écrit:
8
< 2x + 5y 4z = x0
y + 3z = y 0
:
6z = z 0
La
8 résolution en cascade du système donne:
< x = 21 x0 + 52 y 0 1112
z0
1
y = y0 + 2 z0
:
z =061 z 0 1 0 1
1 5 11
2 2 12
6 30 11
d’où M = 1 @ 0 1 2 1 A 1 @
= 12 0 12 6 A
1
0 0 6
0 0 2

24

Vous aimerez peut-être aussi