Vous êtes sur la page 1sur 14

CHAPITRE 2.

MATRICES

Table des matières


1. Matrices 1
2. Déterminant et trace d’une matrice 5
3. Systèmes linéaires 10
4. Matrices et applications linéaires 11

1. Matrices
1.1. Premières définitions. Les matrices sont des tableaux de nombres très pra-
tiques pour résoudre divers problèmes d’algèbre liés à l’étude d’applications linéaires
ou de systèmes linéaires. Elles interviennent aussi de manière fondamentale dans
des problèmes de géométrie et de topologie (via les groupes de matrices). Les ma-
trices peuvent être à coefficients dans un corps quelconque. Rappelons quelques
définitions de base :
Définition 1.1. Une matrice de taille m × n à coefficients dans K est un tableau
d’éléments de K à m lignes et n colonnes. Elle est représentée sous la forme
 
a1,1 a1,2 · · · a1,j · · · a1,n
 a2,1 a2,2 · · · a2,j · · · a2,n 
 
 ··· ··· ··· ··· ··· ··· 
A=  
 ai,1 ai,2 · · · ai,j · · · ai,n 

 ··· ··· ··· ··· ··· ··· 
am,1 am,2 · · · am,j · · · am,n
ou A = (ai,j )1≤i≤m,1≤j≤n = (ai,j ). Le scalaire ai,j est le coefficient situé à la i-ème
ligne et à la j-ème colonne.
On note Mm,n (K) l’ensemble des matrices à coefficients dans K. Certaines ma-
trices ont une dénomination particulière, notamment :
• La matrice nulle, notée 0, est la matrice dont tous les coefficients sont nuls.
• Lorsque m = n, la matrice est dite matrice carrée, et l’ensemble des matrices
carrées de taille n × n est noté Mn (K). Sur une telle matrice
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
 
 .. .. .. .. 
 . . . . 
an,1 an,2 · · · an,n
les coefficients ai,i forment ce que l’on appelle la diagonale de cette matrice.
Notons par ailleurs que l’on appelle matrice diagonale une matrice carrée
dont tous les coefficients hors de la diagonale sont nuls.
1
CHAPITRE 2. MATRICES 2

• Une matrice carrée dont tous les coefficients situés en-dessous de sa diagonale
sont nulle est une matrice triangulaire supérieure. Une matrice carrée dont
tous les coefficients situés au-dessus de sa diagonale sont nulle est une matrice
triangulaire inférieure.
• La matrice identité, un cas particulier de matrice diagonale notée
 
1 0 ··· 0
0 1 · · · 0
I = . . .
 
 .. .. . . ... 

0 0 ··· 1

Son nom vient du fait qu’il s’agit de la matrice associée à l’application identité
sur un espace vectoriel de dimension n.
• Une matrice à une seule colonne est appelée matrice colonne ou vecteur co-
lonne, et une matrice à une seule ligne est appelée matrice ligne ou vecteur
ligne.

Proposition 1.2. L’ensemble Mm,n (K) forme un espace vectoriel, avec la multi-
plication par un scalaire définie coefficient par coefficient

(λA)ij = λaij

pour λ ∈ K et A = (aij ) ∈ Mm,n (K), et la somme de deux matrices A = (aij ) et


B = (bij ) définie coefficient par coefficient

(A + B)ij = aij + bij .

On peut aussi faire le produit de deux matrices :

Définition 1.3. Soient A = (aij ) une matrice de taille m × n et B = (bij ) une


matrice de taille n×p. Le produit C = AB est une matrice m×p dont les coefficients
sont définis par
n
X
cij = aik bkj
k=1

Proposition 1.4. (1) Le produit de matrices est associatif et distributif par rapport
à l’addition.
(2) Pour toute matrice A on a A.0 = 0.A = 0.
(3) Pour toute matrice A on a AI = IA = A (où I est la matrice identité définie
plus haut).

Démonstration. On va démontrer l’associativité. Les deux autres relations se prouvent


exactement de la même manière et sont laissées en exercice au lecteur. Considérons
trois matrices A = (ai j) ∈ Mm,n (K), B = (bi j) ∈ Mn,p (K) et C = (ci j) ∈ Mp,q (K).
On va prouver que A(BC) = (AB)C en montrant que les matrices A(BC) et
(AB)CPont les mêmes coefficients. Le coefficient d’indice (i, k) de AB est par défi-
n
nition l=1 ail blk , donc le coefficient d’indice (i, j) de (AB)C est
p n
!
X X
ail blk ckj .
k=1 l=1
CHAPITRE 2. MATRICES 3

Pp
Le coefficient d’indice (l, j) de la matrice BC est k=1 blk ckj , donc le coefficient
d’indice (i, j) de A(BC) est
p
n
!
X X
ail blk ckj .
l=1 k=1
La multiplication est associative et distributive dans K donc les coefficients de
(AB)C et A(BC) coïncident. 
Remarque 1.5. Attention ! Le produit de matrices n’est pas commutatif, en général
AB 6= BA. De plus, toute matrice n’est pas inversible pour la multiplication. Il
existe des matrices A, B, C telles que AB = AC mais B 6= C, et des matrices A, B
telles que A 6= 0, B 6= 0 et AB = 0.

Remarque 1.6. Le produit d’un vecteur ligne u = u1 · · · un par un vecteur
 
v1
 .. 
colonne  .  est le scalaire u1 v1 + · · · + un vn . Lorsque K = R, on verra dans le
vn
chapitre sur les espaces euclidiens qu’il s’agit en fait du produit scalaire canonique
de u et v vus comme vecteurs de Rn .
Lorsqu’on restreint la multiplication aux matrices carrées n × n, on obtient une
application linéaire Mn (K) × Mn (K) → Mn (K). En particulier, il y a un sens à
parler de puissances d’une matrice carrée A0 = I, A1 = A, · · · , Ap+1 = Ap × A, · · · ,
et celles-ci vérifient la formule du binôme de Newton :
Proposition 1.7. Soient A, B ∈ Mn (K), alors pour tout entier naturel p on a
p
X
p
k Ap−k B k .

(A + B) = p
k=0

1.2. Transposition.
Définition 1.8. La transposée d’une matrice de taille m × n
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
A= .
 
.. .. .. 
 .. . . . 
am,1 am,2 · · · am,n
est la matrice t A de taille n × m définie par
 
a1,1 a2,1 ··· am,1
 a1,2 a2,2 ··· am,2 
t
A= . ..  .
 
.. ..
 .. . . . 
a1,n a2,n ··· am,n
L’opération de transposition satisfait les propriétés suivantes :
Proposition 1.9. Soient A et B deux matrices n × n. Alors
(1) t (A + B) = t A + t B
(2) t (λA) = λt A
(3) tt A = A
(4) t (AB) = t B t A
CHAPITRE 2. MATRICES 4

Certaines matrices se comportent d’une manière particulière par rapport à la


transposition :

Définition 1.10. (1) Une matrice A de taille n × n est dite symétrique si t A = A,


c’est-à-dire aij = aji pour tous 1 ≤ i, j ≤ n.
(2) Une matrice A de taille n × n est dite antisymétrique si t A = −A, c’est-à-dire
aij = −aji pour tous 1 ≤ i, j ≤ n.

Remarque 1.11. Les éléments diagonaux d’une matrice antisymétrique sont forcé-
ment nuls, puisqu’on a aii = −aii pour tout 1 ≤ i ≤ n.

Exemple 1.12. Toute matrice est la somme d’une matrice symétrique et d’une
matrice antisymétrique. En effet, soit A une matrice, posons
1
B= (A + t A)
2
et
1
C= (A − t A).
2
Alors on a
1
B+C = (A + t A + A − t A) = A,
2
1t 1 1
tB = (A + t A) = (t A + tt A) = (t A + A) = B
2 2 2
et
t 1t 1 1
C= (A − t A) = (t A − tt A) = (t A − A) = −C.
2 2 2
1.3. Conjugaison. Dans cette sous-section, on suppose que K = C (les matrices
sont donc à coefficients complexes). On peut alors introduire la notion de conjugai-
son pour une matrice :

Définition 1.13. (1) La matrice conjuguée A d’une matrice A = (ai,j ) ∈ Mn (C)


est définie par A = (ai,j ) (on prend les conjugués des coefficients de A).
(2) La matrice adjointe A∗ d’une matrice A = (ai,j ) ∈ Mn (C) est la transposée
de sa conjuguée, c’est-à-dire A∗ = t A = t A.

Cette opération “d’adjonction” vérifie les propriétés suivantes :

Proposition 1.14. (1) Pour toutes M, N ∈ Mn (C), on a (M N )∗ = N ∗ M ∗ .


(2) Pour toute M ∈ Mn (C), on a (M ∗ )∗ = M .

Les matrices invariantes par rapport à (−)∗ forment une classe importante des
matrices à coefficients complexes sur lesquelles on reviendra plus tard dans le cours :

Définition 1.15. (1) Une matrice A ∈ Mn (C) est dite hermitienne ou auto-adjointe
si A = A∗ .
(2) Une matrice A ∈ Mn (C) est dite antihermitienne si A = −A∗ .

Remarque 1.16. Les matrices auto-adjointes jouent un rôle crucial en mécanique


quantique.
CHAPITRE 2. MATRICES 5

2. Déterminant et trace d’une matrice


2.1. Propriétés du déterminant.
Exemple 2.1. En dimension 2, le déterminant d’une matrice (ou du système de
vecteurs (v1 = (a, c), v2 = (b, d) de K2 ) est défini par la formule
 
a b
det = ad − bc.
c d
Pour K = R, il a une interprétation géométrique naturelle : sa valeur absolue est
l’aire du parallélogramme engendré par les vecteurs v1 et v2 .
Exemple 2.2. En dimension 3, le déterminant d’une matrice (ou du système de
vecteurs v1 = (a11 , a21 , a31 ), v2 = (a12 , a22 , a32 ), v3 = (a13 , a23 , a33 ) de K3 ) peut se
calculer par la règle dite de Sarrus
 
a11 a12 a13
det a21 a22 a23  = a11 a22 a33 + a12 a23 a31 + a13 a21 a32
a31 a32 a33
−a31 a22 a13 − a32 a23 a11 − a33 a21 a12 .
Cette formule a une interprétation géométrique naturelle pour K = R : la valeur
absolue de ce déterminant est le volume du parallélépipède engendré par les vecteurs
v1 , v2 , v3 .
Ces exemples se généralisent en la définition suivante :
Définition 2.3. Le déterminant d’une matrice 1×1 est det(a) = a. Le déterminant
d’une matrice n×n se réduit au calcul de déterminants d’une matrice (n−1)×(n−1)
en développant suivant la première colonne :

a1,1 a1,2 · · · a1,n

a2,1 a2,2 · · · a2,n
det(A) = .

.. .. ..
.. . . .

an,1 an,2 · · · an,n

a1,2 · · · a1,n
a2,2 · · · a2,n a1,2 ··· a1,n
a3,2 · · · a3,n
.. .
= a1,1 . . .. .. − a1,2 . + · · · + (−1) n+1
an,1 ... .. ..

. . . .
.. .. ..

an,2 · · · an,n an−1,2 ··· an−1,n
an,2 · · · an,n

On peut aussi définir le déterminant d’un système de vecteurs (v1 , · · · , vn ) de


Kn comme celui de la matrice dont les colonnes sont les coordonnées des vecteurs
(v1 , · · · , vn ) dans la base canonique de Kn . Plus généralement, pour un système de
vecteurs v1 , ·, vn dans un espace vectoriel E de dimension n muni d’une base B,
on peut définir le déterminant du système (v1 , · · · , vn ) comme le déterminant de la
matrice A ayant pour i-ème colonne les coordonnées de vi dans B. On peut ainsi
détecter des bases :
Proposition 2.4. Le système (v1 , · · · , vn ) est une base de E si et seulement si
det(A) 6= 0.
La définition ci-dessus du déterminant fait intervenir des matrices de taille (n −
1) × (n − 1) particulières :
CHAPITRE 2. MATRICES 6

Définition 2.5. Soit A = (aij ) une matrice carrée de taille n × n. La matrice de


taille (n − 1) × (n − 1) obtenue en effaçant la i-ème ligne et la j-ème colonne de A
est notée Aij . Le nombre det(Aij ) est un mineur d’ordre n − 1 de A. Le nombre
Cij = (−1)i+j det(Aij ) est appelé le cofacteur de A relatif au coefficient aij .
Un point important dans le calcul des déterminants est que l’on peut en fait
“développer” le déterminant suivant n’importe quelle ligne ou colonne, c’est-à-dire :
Proposition 2.6. (1) Pour tout 1 ≤ i ≤ n, on peut développer le déterminant
suivant la i-ème ligne :
n
X n
X
det(A) = (−1)i+j aij det(Aij ) = aij Cij .
j=1 j=1

(2) Pour tout 1 ≤ j ≤ n, on peut développer le déterminant suivant la j-ème


colonne :
n
X n
X
det(A) = (−1)i+j aij det(Aij ) = aij Cij .
i=1 i=1

Lorsqu’on effectue des opérations élémentaires sur les colonnes d’une matrice,
cela affecte le déterminant de la manière suivante :
Proposition 2.7. (1) Echanger deux colonnes change le signe du déterminant.
(2) Ajouter à une colonne donnée une combinaison linéaire des autres colonnes
ne change pas le déterminant.
(3) Multiplier une colonne par un réel λ multiplie le déterminant par λ.
Sur certaines matrices, le déterminant est particulièrement simple à calculer :
Proposition 2.8. Le déterminant d’une matrice triangulaire supérieure (ou infé-
rieure) est égal au produit de ses termes diagonaux :

a1,1 a1,2 · · · a1,n

0 a2,2 · · · a2,n
.. = a1,1 · · · an,n .

.. .. ..
.
. . .
0 ··· 0 an,n
Enfin, voici comment se comporte le déterminant par rapport à d’autres opéra-
tions sur les matrices :
Proposition 2.9. (1) Soient A et B deux matrices carrées, alors det(AB) =
det(A)det(B).
(2) Soit A une matrice carrée, alors det(t A) = det(A).
(3) Soit A ∈ Mn (C), on a det(A∗ ) = det(A).
Remarque 2.10. On déduit du point (3) de la Proposition ci-dessus que le détermi-
nant d’une matrice auto-adjointe est un nombre réel.
Puisque la transposition transforme les colonnes de A en lignes, ce résultat im-
plique que les opérations élémentaires sur les lignes d’une matrice affectent le dé-
terminant de la même manière que les opérations élémentaires sur les colonnes :
(1) Echanger deux lignes change le signe du déterminant.
(2) Ajouter à une ligne donnée une combinaison linéaire des autres lignes ne
change pas le déterminant.
(3) Multiplier une ligne par un scalaire λ multiplie le déterminant par λ.
CHAPITRE 2. MATRICES 7

2.2. Inverse d’une matrice.


Définition 2.11. On appelera matrice inversible une matrice qui est inversible
pour le produit de matrices. Si A est une matrice inversible, alors son inverse est
noté A−1 .
Proposition 2.12. Le sous-ensemble des matrices inversibles de Mn (K) forme un
groupe pour le produit de matrices, appelé le groupe général linéaire de degré n du
corps K et noté GLn (K).
Remarque 2.13. Contrairement à ce qui se passe dans le cas général, dans le cas
particulier où A est une matrice inversible, l’égalité AB = AC implique B = C
puisqu’on peut multiplier les deux membres de l’égalité par A−1 .
Les matrices inversibles vont être particulièrement utiles pour étudier les au-
tomorphismes d’un espace vectoriel, donc les changements de base au sein d’un
espace vectoriel. Calculer l’inverse d’une matrice permettra donc en particulier de
savoir comment changer de système de coordonnées. Pour ce faire, il nous faut une
formule permettant de calculer cet inverse :
Proposition 2.14.
 
a b
Remarque 2.15. Dans le cas n = 2, l’inverse d’une matrice inversible A =
c d
s’écrit tout simplement
 
1 d −b
A−1 = .
ad − bc −c a
Remarquons qu’une telle matrice A est donc inversible si et seulement si ad−bc 6= 0.
On peut généraliser cette remarque au théorème suivant :
Proposition 2.16. Une matrice A est inversible si et seulement si det(A) 6= 0, et
dans ce cas det(A−1 ) = det(A)
1
.
Corollaire 2.17. Une matrice triangulaire est inversible si et seulement si ses
éléments diagonaux sont tous non nuls.
Proposition 2.18. Si A est inversible, alors t A l’est aussi et (t A)−1 = t A−1 .
La formule générale pour calculer l’inverse d’une matrice quelconque est la sui-
vante :
Proposition 2.19. Soient A une matrice et C = (Cij ) la matrice des cofacteurs
de A, appelée aussi comatrice de A. Alors
1 t
A−1 = C.
det(A)
 
1 1 0
Exemple 2.20. Soit A = 0 1 1, alors
1 0 1
 
1 1 −1
C = −1 1 1
1 −1 1
CHAPITRE 2. MATRICES 8

et  
1 1 −1
1
A−1 = −1 1 1 .
2
1 −1 1
2.3. Trace.
Définition 2.21. La trace tr(A) d’une matrice carrée A est la somme de ses coef-
ficients diagonaux, i.e. tr(A) = a11 + · · · + ann .
Proposition 2.22. Soient A et B deux matrices n × n, alors
(1) tr(A + B) = tr(A) + tr(B)
(2) tr(AB) = tr(BA)
(3) tr(λA) = λtr(A)
(4) tr(t A) = tr(A)
2.4. Rang.
Définition 2.23. Le rang d’une matrice est le rang du système de vecteurs formé
par ses vecteurs colonnes, c’est-à-dire la dimension de l’espace vectoriel engendré
par ses vecteurs colonnes.
On peut déterminer le rang d’une matrice en étudiant des déterminants de ma-
trices extraites de A appelés mineurs :
Définition 2.24. Soient A = (aij ) une matrice de taille m × n, et k un entier
inférieur à m et à n. Un mineur d’ordre k de A est le déterminant d’une matrice
obtenue à partir de A en supprimant m − k lignes et n − k colonnes.
Il s’agit de la généralisation naturelle des mineurs d’ordre n−1 (pour une matrice
carrée de taille n × n) que l’on a déjà vu auparavant dans le développement des
déterminants le long d’une ligne ou d’une colonne.
Proposition 2.25. Le rang d’une matrice A de taille m×n est le plus grand entier
k tel qu’il existe un mineur d’ordre k non nul extrait de A.
On peut généraliser ce que l’on avait vu auparavant sur le lien entre bases et
déterminants (un système libre de n vecteurs dans un espace vectoriel de dimension
est une base si et seulement si son déterminant est non nul) à tout système libre
de vecteurs. Soient E un espace vectoriel de dimension n et B = {e1 , · · · , en } une
base de E. Soient v1 , · · · , vk des vecteurs de E, avec k ≤ n. Chaque vecteur de ce
système se décompose dans B en
Xn
vj = aij ei .
i=0

Proposition 2.26. La famille de vecteurs v1 , · · · , vk est libre si et seulement si il


existe un mineur d’ordre k non nul extrait de A = (aij ).
C’est en fait une réécriture de la Proposition 2.25 : la famille v1 , · · · , vk est libre si
et seulement si le sous-espace vectoriel engendré par v1 , · · · , vk est de rang k, c’est-
à-dire si et seulement si le rang de cette famille est k. Or d’après la proposition
2.25, cela revient à dire que la matrice dont les colonnes sont les coordonnées des
vecteurs v1 , · · · , vk dans B est de rang k, donc qu’elle admet un mineur non nul
d’ordre k (et vu que cette matrice est de taille m × k, c’est forcément le plus grand
mineur non nul).
CHAPITRE 2. MATRICES 9

Les opérations élémentaires que nous avons vues dans les sections précédentes
ne changent pas le rang :
Proposition 2.27. Le rang d’une matrice de vecteurs colonnes C1 , · · · , Cn est
invariants sous les opérations élémentaires
(1) Ci 7→ λCi pour λ 6= 0 ;
(2) Ci 7→ Ci + λCj pour λ 6= 0 et i 6= j ;
(3) Ci ↔ Cj .
De plus, l’espace vectoriel engendré par les vecteurs colonnes est préservé par ces
opérations.
On peut donc déterminer le rang d’une matrice en appliquant la méthode de
Gauss sur les colonnes pour la ramener à une matrice triangulaire. Son rang est
alors le nombre de coefficients non nuls sur la diagonale.
Dans la résolution de systèmes linéaires, on a appliqué la méthode de Gauss
sur les lignes. On peut aussi l’appliquer sur les lignes pour calculer le rang d’une
matrice, car celui-ci est invariant sous l’opération de transposition :
Proposition 2.28. Le rang de A est égal au rang de t A.
Le rang d’une matrice est donc égal au rang de son système de vecteurs lignes.
Ainsi, l’espace vectoriel engendré par les vecteurs lignes a la même dimension que
l’espace vectoriel engendré par les vecteurs colonnes. On peut donc bien calculer le
rang d’une matrice en appliquant des opérations élémentaires à ses lignes.
Remarque 2.29. Attention à ne pas s’emmêler les pinceaux entre lignes et colonnes :
• Si l’on part d’un système de vecteurs et qu’on lui associe une matrice dont les
lignes sont les coordonnées de ces vecteurs, le sous-espace vectoriel engendré
par les lignes de la matrice obtenue après méthode de Gauss, lorsque celle-ci
est appliquée sur les lignes, est bien celui engendré par ce système de vecteurs.
• Si l’on part d’un système de vecteurs et qu’on lui associe une matrice dont
les colonnes sont les coordonnées de ces vecteurs, le sous-espace vectoriel
engendré par les colonnes de la matrice obtenue après méthode de Gauss,
lorsque celle-ci est appliquée sur les lignes, n’est alors plus le même que celui
engendré ce système de vecteurs. Ils ont seulement même dimension.
Pour conclure cette section, voici le lien entre inversibilité et rang d’une matrice :
Proposition 2.30. Une matrice carrée de taille n est inversible si et seulement si
elle est de rang n.
Démonstration. Ce résultat se base sur le lien entre matrices et applications li-
néaires développer dans la section suivante. Une matrice carrée réelle A = (aij ) de
taille n définit une application linéaire Kn → Kn : une application linéaire est en
effet déterminée, comme nous l’avons vu dans le Chapitre 1, par ses valeurs sur les
vecteurs d’une base de l’espace vectoriel de départ. L’application linéaire associée
à A est tout simplement définie par
m
X
f (ej ) = aij ei
i=1
où (e1 , · · · , en ) est la base canonique de Kn . Le rang d’une telle matrice A est égal
au rang de l’application f : Kn → Kn associée. Le rang de A est n si et seulement
si le rang de f est n, c’est-à-dire dim(Im(f )) = n, ce qui revient à dire que f est
CHAPITRE 2. MATRICES 10

surjective. Une application linéaire surjective entre deux espaces vectoriels de même
dimension est bijective, et f est bijective si et seulement A est inversible. 

3. Systèmes linéaires
Définition 3.1. (1) Une équation linéaire d’inconnues x1 , · · · , xn est une relation
de la forme a1 x1 + · · · + an xn = b où a1 , · · · , an ∈ K. Un système linéaire de m
équations à n inconnues est une liste de m équations linéaires à n inconnues.
(2) Une solution d’un tel système linéaire est un n-uplet de scalaires (s1 , · · · , sn )
tel que si l’on remplace les variables x1 , · · · , xn dans le système par s1 , · · · , sn , alors
les égalités définissant les équations du système sont vérifiées.
(3) Deux systèmes linéaires sont équivalents s’ils ont le même ensemble de solu-
tions.
(4) Un système linéaire tel que tous les seconds membres bi de ses équations sont
nuls est dit homogène.
Un système linéaire est donc de la forme


 a11 x1 + · · · + a1n xn = b1

a21 x1 + · · · + a2n xn = b2




... ..



.

 ai1 x1 + · · · + ain xn = bi
.. ..



. .





a x + · · · + a x =
m1 1 mn n bm
On remarque directement que l’on peut, de manière équivalente, écrire un tel sys-
tème sous forme matricielle. En effet, en notant
 
a11 · · · a1n
 a21 · · · a2n     
 .. ..  b1 x1
 
 . ··· .   ..   .. 
A= 
,B =  . ,X =  . 
 ai1 · · · ain 
 . ..  bn xn
 .. ··· . 
am1 · · · amn
on voit que le système linéaire ci-dessus revient à l’égalité AX = B. On dit que
A est la matrice associée au système, et résoudre ce système correspond donc à
trouver les vecteurs X de Kn satisfaisant cette égalité. La i-ème ligne de A est aussi
appelée la i-ème ligne du système, et on la notera Li . La résolution d’un système
linéaire se conclut toujours sur les trois possibilités suivantes :
Théorème 3.2. Un système d’équations a soit une seule solution, soit aucune
solution, soit une infinité de solutions.
Dans la pratique, on cherchera à remplacer le système que l’on veut résoudre
par des systèmes équivalents plus simples, jusqu’à ce qu’on obtienne un système
équivalent dont on peut déterminer explicitement les solutions (et l’on sera alors
dans l’un des trois cas de figure ci-dessus). Pour ce faire, on effectue sur les lignes
de ce système des opérations dites élémentaires, qui ne changent pas l’ensemble des
solutions (et transforment donc le système en un système équivalent) :
CHAPITRE 2. MATRICES 11

(1) Remplacer Li par λLi avec λ 6= 0 (on peut multiplier une équation par un
scalaire non nul). Cette opération sera notée Li 7→ λLi .
(2) Remplacer Li par Li + λLj avec λ 6= 0 et i 6= j (on peut ajouter à l’équation
Li un multiple d’une autre équation Lj ). Cette opération sera notée Li 7→
Li + λLj .
(3) Echanger deux lignes Li et Lj (on peut permuter deux équations). Cette
opération sera notée Li ↔ Lj .
On peut utiliser ces opérations élémentaires pour transformer un système linéaire
en un système échelonné, c’est-à-dire un système dont la matrice associée est trian-
gulaire supérieure (le nombre de coefficients nuls du système commençant une ligne
croit strictement ligne après ligne). Le procédé qui consiste à transformer A en une
matrice triangulaire supérieure par des opérations élémentaires sur ses lignes est
appelé la méthode du pivot de Gauss. Le fait que l’on puisse toujours se ramener à
un système échelonné implique de plus le résultat suivant :
Proposition 3.3. Un système linéaire homogène ayant strictement plus d’incon-
nues que d’équations admet une infinité de solutions.
Dans le cas d’un système de n équations à n inconnues avec une unique solution,
on peut aussi la déterminer en inversant la matrice associée :
Proposition 3.4. Si A est inversible, alors il existe une unique solution au système
AX = B donnée par X = A−1 B.
On a vu plus haut la formule permettant d’inverser une matrice en toute géné-
ralité. La formule de l’unique solution X à ce système est alors donnée par la règle
de Cramer. Pour cela, notons Aj la matrice définie par
 
a11 · · · a1,j−1 b1 a1,j+1 · · · a1n
 a21 · · · a2,j−1 b2 a2,j+1 · · · a2n 
Aj =  . ..  ,
 
.. .. ..
 .. . . . . 
an1 ··· an,j−1 bn an,j+1 ··· ann
c’est-à-dire la matrice obtenue à partir de A en remplaçant sa j-ème colonne par
B. On a alors
Proposition 3.5 (Règle de Cramer). Soit AX = B un système de n équations à n
inconnues. Supposons que det(A) 6= 0. Alors ce système admet une unique solution
(x1 , · · · , xn ) donnée par
det(Aj )
xj = .
det(A)
Ce n’est néanmoins pas toujours la manière la plus rapide de résoudre le système.
On préfèrera selon la situation la méthode de Gauss (qui fonctionne dans tous les
cas, que la matrice soit inversible ou non).

4. Matrices et applications linéaires


4.1. Matrice associée à une application linéaire. Nous allons voir précisé-
ment quel est le lien entre matrices et applications linéaires, qui permet d’exploiter
efficacement les propriétés du calcul matriciel pour étudier celles des applications
linéaires. Pour débuter, rappelons d’après le Chapitre 1 qu’une application linéaire
f : E → F est déterminée de manière unique par ses valeurs sur les vecteurs
CHAPITRE 2. MATRICES 12

d’une base de E. Supposons que F est de dimension finie m et muni d’une base
C = (f1 , · · · , fm ). L’application f est déterminée de manière unique par les vecteurs
f (e1 ), · · · , f (en ), et chacun de ces vecteurs se décompose de manière unique dans
la base C en
m
aij fi = a1j a2j ... anj .
X  
f (ej ) =
C
i=1
L’application f est donc entièrement déterminée, et de manière unique, par les
coefficients aij pour 1 ≤ i ≤ m et 1 ≤ j ≤ n, d’où la notion de matrice associée à
une application linéaire :
Définition 4.1. La matrice de l’application linéaire f par rapport aux bases B et C
est la matrice de taille m × n dont la j-ème colonne est constituée des coordonnées
f
du vecteur f (ej ) dans la base C. On note cette matrice MC,B .
Remarque 4.2. Attention, les coefficients de cette matrice dépendent du choix d’une
base de E et d’une base de F !
L’écriture matricielle d’une application linéaire se fait donc comme suit : si f :
E → F est une application linéaire entre deux espaces vectoriels E et F munis
respectivement de bases B et C, alors l’équation f (x)= y pour x ∈ E et y ∈ F
se traduit par l’égalité AX = Y , où A = MC,B f
, X = x1 ... xn est le vecteur
B
colonne des coordonnées de x dans la base B et Y = y1 ... ym est le vecteur
 

colonne des coordonnées de y dans la base C.


Les opérations sur les applications linéaires se transforment en opérations sur les
matrices associées :
Proposition 4.3. (1) Soient f, g : E → F deux applications linéaires. Soient B
une base de E et C une base de F . Alors
f +g f g
MC,B = MC,B + MC,B
et
λf f
MC,B = λMC,B
pour tout réel λ.
(2) Soient f : E → F et g : F → G deux applications linéaires. Soit B une base
de E, C une base de F et D une base de G. Alors
g◦f g f
MC,B = MD,C MC,B .
C’est là que l’on voit le sens de la formule du produit matriciel, définie dans la
première section de ce chapitre : il s’agissait de construire un produit sur les matrices
qui corresponde à la composition des applications linéaires associées. Notons aussi
que le passage par le produit matriciel permet un grand gain de temps de calcul
lorsqu’il s’agit de déterminer la composée de deux applications linéaires. Dans le cas
particulier d’un endomorphisme f : E → E sur un espace vectoriel E de dimension
n, toute matrice associée à f est une matrice carrée de taille n. On la note toujours
f
MC,B pour le choix de deux bases C et B de E, mais lorsqu’on choisit B comme base
de départ et comme base d’arrivée, on la notera simplement MBf . Voici quelques
exemples simples de matrices associées à des endomorphismes :
CHAPITRE 2. MATRICES 13

(1) L’application identité Id : E → E, x 7→ x a toujours pour matrice MBId = In


quelle que soit la base B choisie (mais ce n’est plus vrai si on choisit une base
d’arrivée différente de la base de départ).
(2) Une homothétie λId : E → E, x 7→ λx de rapport λ a pour matrice MBλId =
λIn .
(3) Une rotation r : R2 → R2 , (x, y) 7→ (xcosθ − ysinθ, xsinθ + ycosθ) d’angle
θ et de centre l’origine dans l’espace vectoriel R2 muni de sa base canonique
a pour matrice  
cosθ −sinθ
MBr = .
sinθ cosθ
Pour finir d’établir le lien entre les structures algébriques vues sur les espaces de
matrices auparavant (structure d’espace vectoriel des matrices Mm,n (R), structure
additionnelle d’anneau sur Mn (K), structure de groupe sur GLn (K)) et les opéra-
tions correspondantes sur les applications linéaire associées, il nous faut encore voir
ce qui se passe par rapport à l’inversion de matrices :
Proposition 4.4. Soit f : E → F une application linéaire entre deux espaces
vectoriels de même dimension finie. Soient B une base de E et C une base de F .
Alors
f
(1) f est un isomorphisme si et seulement si MC,B est inversible.
−1
f
(2) Si f est un isomorphisme, alors la matrice de f −1 est donnée par MB,C =
f −1
(MC,B ) .
4.2. Changements de bases et matrices semblables. Le formalisme matriciel
est aussi très pratique pour savoir comment passer d’une base à une autre dans un
même espace vectoriel.
Définition 4.5. Soit E un espace vectoriel de dimension n. Soient B et C deux
bases de E. La matrice de passage de B vers C, notée PC,B , est la matrice carrée
de taille n dont la j-ème colonne est formée des coordonnées du j-ème vecteur de
C dans la base B.
La matrice de passage est donc constituée des coordonnées dans l’ancienne base
des vecteurs de la nouvelle base. On remarquera (et c’est important) que cette
IdE
matrice de passage n’est autre que MC,B .
Exemple 4.6.
Proposition 4.7. (1) La matrice de passage d’une base B vers une base C est
inversible, et son inverse est la matrice de passage de C vers B.
(2) Si B, C et D sont trois bases de E, alors PD,B = PD,C PC,B .
(3) Soit x un vecteur de E. Notons X x1 .. xn. le vecteur colonne de ses co-
B
ordonnées dans la base B, et X 0 x0 ... x0
 
le vecteur colonne de ses coordonnées
1 n C
0
dans la base C. Alors X = PC,B X .
On en arrive aux formules de changement de bases pour une application linéaire :
Proposition 4.8. Soit f : E → F une application linéaire entre deux espaces
0
vectoriels de dimension finie. On note BE , BE deux bases de E et BF , BF0 deux
bases de F . Alors
MBf 0 ,B0 = PB−1 F
f
0 ,B MB ,B PB 0 ,BE .
F E E
F E F
CHAPITRE 2. MATRICES 14

0
En particulier, si F = E et qu’on considère deux bases BE , BE de E, on a
MBf 0 = PB−1 E
f
0 ,B MB PB 0 ,BE .
E E
E E

On se restreint à présent aux matrices carrées de taille n. On peut définir sur les
matrices carrées la relation suivante :
Définition 4.9. Soient A et B deux matrices carrées de taille n. On dit que B est
semblable à A s’il existe une matrice inversible P telle que B = P −1 AP .
Proposition 4.10. Cette relation est une relation d’équivalence sur Mn (K).
On voit que la formule définissant cette relation est similaire à celle de la Pro-
position 4.8, et ceci pour une bonne raison : deux matrices exprimant un même
endomorphisme dans deux bases sont semblables, et inversement deux matrices
semblables déterminent le même endomorphisme, mais exprimé dans deux bases.