Vous êtes sur la page 1sur 21

c Christophe Bertault - MPSI

Matrices
Dans tout ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p, q . . . désignent des entiers naturels non nuls.

1 Matrices et opérations sur les matrices

1.1 Matrices

Définition (Matrice)
• On appelle matrice à n lignes et p colonnes à coefficients dans K ou matrice  de taille n × p à coefficients
 dans K toute
a11 a12 · · · a1p
 a21 a22 · · · a2p  
 
famille A de np éléments de K présentée sous la forme d’un tableau de la forme  . .. .. , noté A = aij 16i6n ,
 .. . .  16j6p

an1 an2 · · · anp


où aij ∈ K pour tout (i, j) ∈ J1, nK × J1, pK.  
a1j
 a2j  ème
 . est appelée la j
Le scalaire aij est appelé coefficient de A de position (i, j). Si j ∈ J1, pK, la matrice  colonne de A, et
i ∈ J1, nK, la matrice ai1 ai2 · · · aip est appelée la i ème
ligne de A. .
 . 
anj
• L’ensemble des matrices de taille n × p à coefficients dans K est noté Mn,p (K). Pour n = p, on parle des matrices
carrées de taille n ; l’ensemble des matrices carrées de taille n à coefficients dans K est noté Mn (K). Pour p = 1, on parle de
matrices colonnes de taille n. Enfin, pour n = 1, on parle de matrices lignes de taille p.
Si A est carrée, la famille (a11 , a22 , . . . , ann ) est appelée diagonale de A.

• La matrice de Mn,p (K) dont tous les coefficients sont nuls est appelée la matrice nulle de taille n × p.

   Explication
• Une matrice de taille n × p à coefficients dans K n’est finalement qu’un élément de Knp , i.e. une famillede np éléments
a11 a12
de K, mais qu’on a préféré écrire sous forme d’un tableau à n lignes et p colonnes. Ainsi, au lieu d’écrire , on
a21 a22
np
pourrait écrire (a11 , a12 , a21 , a22 ). En ce sens, on peut affirmer que Mn,p (K) = K .
Cependant, nous introduirons bientôt une loi interne de produit sur les matrices, et vous verrez alors qu’il est bien pratique
d’écrire les matrices comme des tableaux et non comme des familles.
• L’usage veut qu’on utilise le plus possible la lettre i pour indice des lignes, et la lettre j pour indice des colonnes.

Par convention, dans ce cours, si A (majuscule) est une matrice de taille n × p, nous noterons aij (minuscule) le coefficient
de A de position (i, j).

1.2 Structure vectorielle sur Mn,p (K)

Définition (Structure vectorielle sur Mn,p (K))



• Si A, B ∈ Mn,p (K), on appelle somme de A et B, notée A + B, la matrice aij + bij 16i6n .
16j6p

• Si A ∈ Mn,p (K) et si λ ∈ K, on appelle multiplication de A par le scalaire λ, notée λA, la matrice λaij 16i6n .
16j6p
• Muni de l’addition et de la multiplication par un scalaire définies ci-dessus, Mn,p (K) est un K-espace vectoriel de
dimension finie np. Son vecteur nul est la matrice nulle de taille n × p.
• Pour tout (i, j) ∈ J1, nK × J1, pK, si Ei,j est la matrice dont le coefficient de position (i, j) est égal à 1 et dont tous les
autres coefficients sont nuls, alors (Ei,j )16i6n est une base de Mn,p (K), dit base canonique de Mn,p (K).
16j6p

1
c Christophe Bertault - MPSI

   Explication
             
1 3 1 0 1+1 3+0 2 3 0 1 4×0 4×1 0 4
• Exemple : + = = et 4 = = .
2 4 −1 1 2−1 4+1 1 5 −1 2 4 × (−1) 4×2 −4 8
• Nous l’avons vu, une matrice n’est qu’une famille que l’on décide de noter comme un tableau ; ce n’est vraiment qu’une
question de notation. C’est pourquoi on peut affirmer que Mn,p (K) = Knp . Que deviennent l’addition et la multiplication
par un scalaire introduites ci-dessus quand on les exprime au moyen de familles, dans Knp ? Elles deviennent exactement
l’addition et la multiplication par un scalaire qui font de Knp un K-espace vectoriel bien connu. Bref, la structure vectorielle
introduite sur Mn,p (K) n’a rien d’une nouveauté : elle n’est que la copie conforme de la structure vectorielle de Knp que
nous connaissons bien.
• Dans le même registre, que sont les matrices Ei,j , (i, j) ∈ J1, nK × J1, pK, quand on les voit comme des familles de Knp et
non plus comme des tableaux ? Elles deviennent exactement les vecteurs de la base canonique de Knp . Rien d’étonnant
alors au fait que (Ei,j )16i6n soit une base de Mn,p (K).
16j6p

   En pratique L’identification Mn,p (K) = Knp vous servira peu souvent dans le cas général ; elle vous aidera seulement,
je l’espère, à comprendre d’où viennent les matrices. Par contre, dans le cas p = 1, vous serez constamment amenés à identifier  
x1
 x2 
en pratique les éléments de Kn et les éléments de Mn,1 (K) ; bref, à manipuler les égalités de la forme (x1 , x2 , . . . , xn ) =  .  .
 
 .. 
xn

De même, si n = 1, vous manipulerez les égalités de la forme (x1 , x2 , . . . , xp ) = x1 x2 · · · xp .

1.3 Produit matriciel

Définition (Produit matriciel)! Soient A ∈ Mp,q (K) et B ∈ Mq,r (K). Par définition, le produit de A par B, noté A × B ou
q
X
AB, est la matrice aik bkj de taille p × r.  
k=1 16i6p
16j6r  b11 b12 · · · b1r 
 
 
 
 ··· 
 b21 b22 b2r 
 
 
 
 . . . 
 . . . 
 . . . 
 
 
 
Produit bq1 bq2 ··· bqr
et somme
   Xq q q 
X X
 a11 a12 ··· a1q   a1k bk1 a1k bk2 ··· a1k bkr 
   k=1 k=1 k=1 
   
   q q q

   X X X 
   
 a21 a22 · · · a2q   a2k bk1 a2k bk2 ··· a2k bkr 
   
   k=1 k=1 k=1 
   
   
   
 . . .   .. .. .. 
 .. .. ..   . . . 
   
   
   
   Xq q q 
   X X 
ap1 ap2 ··· a pq a pk b k1 a pk b k2 · · · a pk b kr
k=1 k=1 k=1

L’illustration ci-dessus fournit la méthode pratique de calcul du produit de deux matrices. Cela dit, sur une copie, vous n’êtes
pas autorisés à écrire ainsi les matrices les unes au-dessus des autres.

$ $ $ Attention ! Nous venons de définir le produit d’une matrice de taille p × q par une matrice de taille q × r ; c’est une
matrice de taille p × r. Nous ne savons pas faire le produit de deux matrices en général, s’il n’y a pas, comme on dit, compatibilité
des formats.

Matrice de taille p × q Matrice de taille q × r Matrice de taille p × r

2
c Christophe Bertault - MPSI

 p 
X
    a1i xi   
a11 · · · a1p x1  k=1  y1 n
   .  X
Exemple  . ..   ..  =  ..  et x1 · · · xn  ..  = x k yk .
 .. .   .   . 
  k=1
an1 · · · anp xp X p  yn
 
ani xi
k=1

Le premier exemple implique que tout système linéaire peut être écrit matriciellement sous la forme Y = AX où A est la matrice
des coefficients du système, X la colonne des inconnues et Y la colonne du second membre. Par exemple :
     
 2x + y − 3z = a 2 1 −3 x a
5y + z = b ⇐⇒ 0 5 1  y =  b .

9x + 10y = c 9 10 0 z c
C’est très pratique car la matrice associée au système n’est autre que la matrice de ses coefficients rangés naturellement, les
places vides étant bien sûr complétées par des zéros.

$ $ $ Attention !
• En général, le produit de deux matrices n’est pas commutatif — c’est même pire que cela, car si le produit est défini dans
un sens, il ne l’est généralement pas dans l’autre pour une raison de compatibilité des formats. Par exemple :
         
1 1 0 0 1 0 0 0 0 0 1 1
= 6= = .
0 1 1 0 1 0 1 1 1 0 0 1
    
0 1 1 0
• Un produit de matrices peut être nul sans qu’aucune de ces matrices soit nulle. Par exemple : = .
0 0 0 0

 
1 0 ··· 0
0 1 ··· 0
 
Définition (Matrice identité) On appelle matrice identité de taille n la matrice In =  . .. .. ..  carrée de taille n.
 .. . . .
0 0 ··· 1

Théorème (Propriétés du produit matriciel) Sous réserve de compatibilité des formats :


• Associativité : Soient A ∈ Mp,q (K), B ∈ Mq,r (K), C ∈ Mr,s (K) et λ ∈ K.

(AB)C = A(BC) et λ(AB) = (λA)B = A(λB).

• Bilinéarité : Soient A, B ∈ Mp,q (K), C ∈ Mq,r (K) et λ, µ ∈ K.

(λA + µB)C = λAC + µBC et C(λA + µB) = λCA + µCB.

• Elément neutre : Soit A ∈ Mn,p (K). In A = AIp = A.

Démonstration Contentons-nous
! de démontrer l’associativité
" q du# produit
! matriciel : (AB)C = A(BC).
q r
X X X
Puisque AB = aik bkj , alors (AB)C = aik bkl clj .
k=1 16i6p l=1 k=1 16i6p
16j6r 16j6s
r
! q
" r
#!
X X X
De même, puisque BC = bil clj , alors A(BC) = aik bkl clj .
l=1 16i6q k=1 l=1 16i6p
16j6s 16j6s
On obtient le résultat voulue en permutant les symboles de sommation dans (AB)C et A(BC). 


Kp −→ Kn
Définition (Application linéaire associée à une matrice) Soit A ∈ Mn,p (K). L’application est
X 7−→ AX
linéaire ; on l’appelle l’application linéaire associée à A.

   Explication Bien sûr, dans cette définition, le vecteur X de Kp doit être vu comme une matrice colonne, via
l’identification Mp,1 (K) = Kp , sans quoi le produit AX n’aurait pas de sens.
  
0 1 2 R3 −→ R2
Exemple Soit A = . L’application linéaire associée à A est .
3 4 5 (x, y, z) 7−→ (y + 2z, 3x + 4y + 5z)

3
c Christophe Bertault - MPSI

1.4 Transposition

Définition (Transposée) Soit A ∈ Mn,p (K). On appelle transposée de A la matrice (aji ) 16i6p de Mp,n (K), notée t A.
16j6n

   Explication
• La transposition échange les lignes et les colonnes des matrices. A quoi cette opération peut-elle bien servir ? A montrer
que tout résultat théorique sur les colonnes d’une matrice est valable au sujet de ses lignes, et réciproquement. Nous y
reviendrons.
• La transposition échange le nombre de colonnes et le nombre de lignes, de sorte que la transposée d’une matrice de taille
n × p est une matrice de taille p × n. Chose intéressante : la transposée d’une matrice carrée est une matrice carrée de
même taille.
 
 

3 5
 tλ1
t
3 0 1  .  
Exemple = 0 2 et  ..  = λ1 · · · λn .
5 2 7
1 7 λn

Théorème (Propriétés de la transposition)


t
• Linéarité : Soient A, B ∈ Mn,p (K) et λ, µ ∈ K. (λA + µB) = λt A + µt B.
t t

• Involutivité : Soit A ∈ Mn,p (K). A = A.
t
• Produit : Soient A ∈ Mp,q (K) et B ∈ Mq,r (K). (AB) = t B t A.

Démonstration Seule l’assertion sur le produit mérite d’être démontrée. Posons C = t (AB) et D = t B t A.
Montrons que C et D ont les mêmes coefficients. Soit (i, j) ∈ J1, rK×J1, pK. Il suffit alors d’observer qu’on a l’égalité
q
X
suivante : cij = ajk bki = dij — évidemment, il faut réfléchir deux secondes (voire plus). 
k=1

2 Représentation matricielle des familles de vecteurs


et des applications linéaires

2.1 Matrice d’une famille de vecteurs dans une base

Définition (Matrice d’une famille de vecteurs dans une base) Soient E un K-espace vectoriel de dimension n,
(e1 , e2 , . . . , en ) une base de E et (x1 , x2 , . . . , xp ) une famille quelconque de vecteurs de E. Pour tout (i, j) ∈ J1, nK × J1, pK, notons
aij la ième coordonnée  de xj dans la base (e1 , e2 , . . . , en ).
La matrice aij 16i6n , notée Mat (x1 , x2 , . . . , xp ), est appelée matrice de la famille (x1 , x2 , . . . , xp ) dans la base
16j6p (e1 ,e2 ,...,en )
(e1 , e2 , . . . , en ). x1 x2 xj xp
↓ ↓ ↓ ↓
 
a11 a12 ··· a1j ··· a1p ← e1
 
 
 ← e2
 a21 a22 ··· a2j ··· a2p 

 
 
 . .. .. .. 
 . 
 . . . . 
 
Mat (x1 , x2 , . . . , xp ) =  
(e1 ,e2 ,...,en )  
 ai1 ai2 ··· aij ··· aip  ← ei
 
 
 
 .. .. .. .. 
 . . . . 
 
 
an1 an2 · · · anj ··· anp ← en

Coordonnées de xj dans (e1 , e2 , . . . , en ), écrites en colonne

4
c Christophe Bertault - MPSI

Exemple
• Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, Mat(x) est la colonne des
B
coordonnées de x dans B.  
1 2
 0 −1 
4
• Soit B4 la base canonique de R . Alors Mat (1, 0, 3, 1), (2, −1, 0, −1) =   .
B4 3 0
1 −1
   
1 0 0 0 0 0
2 1 −1 1 0 0
   
• Mat (X 3 +2X +1, X, X 2 −X) = 
0 0  et (X 4 ,XMat
1  (X 3 +2X +1, X 2 −X, X) = 
0 1 .
0
(1,X,X 2 ,X 3 ,X 4 ) 1 0 3 ,X 2 ,X,1)
0  2 −1 1
0 0 0 1 0 0

$ $ $ Attention ! Si on change la base dans laquelle on exprime la matrice d’une famille de vecteurs, il est bien évident que
la matrice en question change aussi. L’exemple ci-dessus montre en particulier qu’en changeant l’ordre des vecteurs on modifie
complètement la tête de la matrice.

Théorème (Toute matrice est égale à la matrice de ses colonnes dans la base canonique) Soit A ∈ Mn,p (K) de
colonnes C1 , C2 , . . . , Cp ∈ Mn,1 (K) rangées dans l’ordre naturel.
Si BMn,1 (K) est la base canonique de Mn,1 (K), alors : A = Mat (C1 , C2 , . . . , Cp ).
BM
n,1 (K)

Démonstration Réfléchissez ! 

2.2 Matrice d’une application linéaire dans des bases

Définition (Matrice d’une application linéaire dans des bases) Soient E et F deux K-espaces vectoriels de dimensions
respectives p et n, B = (e1 , e2 , . . . , ep ) une base de E et C = (f1 , f2 , . . . , fn ) une base de F .
Soit f une application linéaire de E dans F . On appelle matrice de f dans B et C et on note Mat(f ) la matrice de la famille
B,C
 
f (B) = f (e1 ), f (e2 ), . . . , f (ep ) dans la base C = (f1 , f2 , . . . , fn ) de F .
f (e1 ) f (e2 ) f (ej ) f (ep )
↓ ↓ ↓ ↓
 
a11 a12 ··· a1j ··· a1p ← f1
 
 
 a21 a22 a2j a2p 
 ··· ···  ← f2
 
 
 . .. .. .. 
 . 
    . . . . 
 
Mat(f ) = Mat f (B) = Mat f (e1 ), f (e2 ), . . . , f (ep ) =  
B,C C (f1 ,f2 ,...,fn )  
 ai1 ai2 ··· aij ··· aip  ← fi
 
 
 
 .. .. .. .. 
 . . . . 
 
 
an1 an2 · · · anj ··· anp ← fn

Coordonnées de f (ej ) dans (f1 , f2 , . . . , fn ), écrites en colonne

Si E = F et si B = C, la matrice Mat(f ) est simplement notée Mat(f ).


B,B B

$ $ $ Attention ! Si on change les bases dans lesquelles on exprime la matrice d’une application linéaire, il est bien
évident que la matrice en question change aussi. Un exemple le montre un peu plus bas.

 
1 0 ··· 0
0 1 ··· 0
 
Exemple Si E est de dimension finie n et si B est une base de E, alors Mat(IdE ) est la matrice  . . .. ..  carrée de
B  .. .. . .
0 0 ··· 1
taille n, notée In , dont tous les coefficients diagonaux sont égaux à 1 et dont tous les autres coefficients sont nuls.

5
c Christophe Bertault - MPSI


R2 −→ R3
Exemple Soit ϕ l’application linéaire .
(x, y) 7−→ (x, x + y, y − x)
 
1 0
2 3
(i) Notons B2 et B3 les bases canoniques respectives de R et R . Alors : Mat (ϕ) =  1 1 .
B 2 ,B 3
−1 1
   
(ii) Posons B02 = (0, 1), (1, 0) et B03 = (1, 1, 1), (1, 1, 0), (1, 0, 0) , bases de R2 et R3 respectivement.
 
1 −1
Alors : Mat (ϕ) =  0 2 .
B 02 ,B 03
−1 0
En effet
(i) Déterminons les coordonnées de ϕ(1, 0) et ϕ(0, 1) dans la base canonique B3 de R3 .
ϕ(1, 0) = (1, 1, −1) et ϕ(0, 1) = (0, 1, 1). Ce sont déjà les coordonnées voulues.

(ii) Déterminons les coordonnées de ϕ(0, 1) et ϕ(1, 0) dans B03 .


ϕ(0, 1) = (0, 1, 1) = (1, 1, 1) − (1, 0, 0) et ϕ(1, 0) = (1, 1, −1) = −(1, 1, 1) + 2(1, 1, 0).


R4 [X] −→ R5 [X]
Exemple Soit T l’application linéaire . Si B4 et B5 désignent les bases canoniques
P 7−→ X 4 P (3) + P (2) + P (−X)
 
2 2 4 8 16
0 −1 0 0 0
 
0 0 1 0 0
respectives de K4 [X] et K5 [X], alors : Mat (T ) =  .
B 4 ,B 5 0 0 0 −1 0  
0 0 0 6 1
0 0 0 0 24
En effet Il nous suffit de déterminer les coordonnées des vecteurs T (1), T (X), T (X 2 ), T (X 3 ) et T (X 4 ) dans la
base (1, X, X 2 , X 3 , X 4 , X 5 ), puis de les ranger convenablement dans un tableau.

T (1) = 0 + 1 + 1 = 2, T (X) = 0 + 2 + (−X) = −X + 2, T X 2 = 0 + 22 + (−X)2 = X 2 + 4,
 
T X 3 = X 4 × 6 + 23 + (−X)3 = 6X 4 − X 3 + 8 et T X 4 = X 4 × 24X + 24 + (−X)4 = 24X 5 + X 4 + 16.

Théorème (Toute matrice est égale à la matrice de l’application linéaire qui lui est associée
 p dans lesn bases
K −→ K
canoniques) Soit A ∈ Mn,p (K). Nous savons que A peut être vue comme une application linéaire que
X 7−→ AX
nous notons aussi A.
Si Bp et Bn sont les bases canoniques respectives de Kp et Kn , alors : A = Mat (A).
B p ,B n

Démonstration Réfléchissez ! 

Théorème (Une application linéaire est entièrement déterminée par sa matrice dans des bases) Soient E et F
deux K-espaces vectoriels
( de dimensions respectives p et n, B une base de E et C une base de F .
L(E, F ) −→ Mn,p (K)
Alors l’application f 7−→ Mat(f ) est un isomorphisme de L(E, F ) sur Mn,p (K).
B,C

En particulier, avec des notations évidentes : Mat(λf + µg) = λMat(f ) + µMat(g).


B,C B,C B,C

Démonstration
• La construction de la matrice d’une application linéaire rend évidente la linéarité de l’application Mat du
B,C
théorème — c’est le genre de choses qu’on ne comprend bien qu’en les écrivant proprement soi-même.
• Nous savons que : dim L(E, F ) = dim E × dim F = np = dim Mn,p (K). Pour montrer que l’application
du théorème est bijective, il nous suffit donc de montrer qu’elle est injective.
• Soient f, g ∈ L(E, F ) telles que Mat(f ) = Mat(g). Notons e1 , e2 , . . . , ep les vecteurs de B, dans l’ordre. Alors
B,C B,C
par définition de la matrice d’une application linéaire, f (ej ) et g(ej ) ont la même colonne de coordonnées dans
C pour tout j ∈ J1, pK ; on a donc f (ej ) = g(ej ). Or les applications linéaires sont entièrement déterminées
par l’image qu’elles renvoient d’une base de l’espace de départ, donc ici f = g comme voulu. 

6
c Christophe Bertault - MPSI

Théorème (Règles de calcul pour passer d’un point de vue vectoriel à un point de vue matriciel, et vis versa)
(i) Soient E et F deux K-espaces vectoriels de dimension finie, B une base de E et C une base de F .
Soient en outre u une application linéaire de E dans F , x ∈ E et y ∈ F . Posons U = Mat(u), X = Mat(x) et Y = Mat(y).
B,C B C
On a l’équivalence fondamentale suivante :
y = u(x) ⇐⇒ Y = U X.

(ii) Soient E1 , E2 , E3 trois K-espaces vectoriels de dimension finie, de bases respectives B1 , B2 , B3 .


Soient en outre f une application linéaire de E1 dans E2 et g une application linéaire de E2 dans E3 . Alors :
Mat (g ◦ f ) = Mat (g) × Mat (f ).
B 1 ,B 3 B 2 ,B 3 B 1 ,B 2

   Explication Théorème fondamental s’il en est !


• Dans l’assertion (i), on rappelle que Mat(x) est la colonne des coordonnées de x dans B ; même chose pour Mat(y).
B C
Cette assertion montre que le calcul de u(x) (point de vue vectoriel) est équivalent au calcul du produit matriciel U X
(point de vue matriciel) ; précisément, U X est le vecteur des coordonnées de u(x) dans la base C. Ceci va nous permettre
de profiter du calcul matriciel pour parler des applications linéaires abstraites.
• L’assertion (ii) montre que le produit matriciel et la composition des applications linéaires sont deux faces d’une même
pièce. Le produit est aux matrices ce que la composition est aux applications linéaires.

Démonstration
(i) Introduisons les vecteurs de B et C : B = (e1 , e2 , . . . , ep ) et C = (f1 , f2 , . . . , fn ).
n p
! n p n p n
X X X X X X X
y = u(x) ⇐⇒ yi fi = u x j ej ⇐⇒ yi fi = xj u(ej ) ⇐⇒ yi fi = xj uij fi
i=1 j=1 i=1 j=1 i=1 j=1 i=1
n n p
! p
X X X X
⇐⇒ yi fi = uij xj fi ⇐⇒ ∀i ∈ J1, nK, yi = uij xj ⇐⇒ Y = U X.
i=1 i=1 j=1 j=1

(ii) Posons A = Mat (f ), B = Mat (g) et C = Mat (g ◦ f ). Nous devons montrer que BA = C, i.e. que C
B 1 ,B 2 B 2 ,B 3 B 1 ,B 3
et BA ont les mêmes colonnes.
Introduisons les vecteurs de B1 : B1 = (e1 , e2 , . . . , en ). Soit alors j ∈ J1, nK. La j ème colonne de C est,
par définition, la colonne des coordonnées de g ◦ f (ej ) dans B3 .
Or si Ej désigne la colonne des coordonnées de ej dans B1 — un 1 en j ème position, que des 0 ailleurs — alors
AEj est la colonne des coordonnées de f (ej ) dans B2 via (i). Mais pour la même raison, B(AEj ) = (BA)Ej
est donc la colonne des coordonnées de g ◦ f (ej ) dans B3 , i.e. la j ème colonne de C. Pour finir, on remarque
que (BA)Ej n’est autre que la j ème colonne du produit BA, de sorte que C et BA ont la même j ème colonne,
comme prévu. 

 
4 0 0

Exemple Soit R l’endomorphisme de R3 dont la matrice dans la base canonique de R3 est 0 1
√ − 3 .
0 − 3 3
 √ 
Alors Ker R = Vect (0, 3, 1) .

En effet Soit (x, y, z) ∈ R3 .


    
4 0 0
√ x 0
(x, y, z) ∈ Ker R ⇐⇒ R(x, y, z) = (0, 0, 0) ⇐⇒ 0 1
√ − 3  y  =  0
0 − 3 3 z 0

 4x √ = 0 
x = √0

⇐⇒ √y − 3z = 0 ⇐⇒
y = 3z.
− 3y + 3z = 0
 √ 
Comme annoncé, Ker R = Vect (0, 3, 1) .

 
0 0 1 −1
−1 1 1 −1
Exemple L’endomorphisme θ de R3 [X] dont la matrice dans la base canonique de R3 [X] est Θ =   0
 est la
2 1 −2
−1 2 1 −2
symétrie par rapport à Vec(X 3 + X 2 + X, X 2 + 1) parallèlement à Vect(X 3 + X + 1, X 3 + X 2 ).

7
c Christophe Bertault - MPSI

En effet
• Par définition, θ est linéaire. Montrer que θ est une symétrie revient donc à montrer que θ2 = IdR3 [X] . D’un
point de vue matriciel, cela revient donc à dire que Θ2 = I4 . On vérifie aisément que cette égalité est correcte.
• Cherchons le sous-espace vectoriel de R3 [X] par rapport auquel θ est une symétrie, à savoir Ker(θ − IdR3 [X] ).
Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X] :
    
d d 
 b − a = d
 c  c 
− d + c + b − a = c
P ∈ Ker(θ − IdR3 [X] ) ⇐⇒ θ(P ) = P ⇐⇒ Θ b =  b
   ⇐⇒

 2c + b − 2a = b

a a − d + 2c + b − 2a = a


 − d + b − a = 0 

− d + b − a = 0 − d + b − a = 0
⇐⇒ ⇐⇒

 c − a = 0 c − a = 0

− d + 2c + b − 3a = 0


 a = λ

b = λ+µ
⇐⇒ ∃ λ, µ ∈ R/ . Ainsi Ker(θ − IdR3 [X] ) = Vec(X 3 + X 2 + X, X 2 + 1).

 c = λ

d = µ

Dans cet exemple, on travaille


 dans la base canonique de R3 [X], c’est pourquoi la colonne des coordonnées
d
 c
de P est tout simplement  
 . Dans une autre base, le calcul aurait été plus délicat.
b
a

• On montre de la même manière que Ker(θ + IdR3 [X] ) = Vect(X 3 + X + 1, X 3 + X 2 ).

3 Etude de l’anneau Mn (K)

3.1 L’anneau Mn(K)


Le produit de deux matrices carrées de taille n est une matrice carrée de taille n. Ceci signifie que la multiplication des
matrices est une loi de composition interne sur Mn (K). Si A ∈ Mn (K) et k ∈ N, nous pouvons donc noter Ak la matrice
k fois
z }| { ∞
X
A × A × . . . × A, avec la convention A0 = In . Il a dès lors un sens, pour tout P = pk X k ∈ K[X], de noter P (A) la matrice
k=0

X
pk Ak (somme finie).
k=0
Le théorème suivant est une conséquence immédiate des résultats démontrés précédemment. Quant aux formules qui le
suivent, on les démontrerait ici comme on l’a fait dans C en début d’année.


Théorème (Anneau Mn (K)) Mn (K), +, × est un anneau d’élément neutre In pour la multiplication. Pour n > 2, cet
anneau n’est ni commutatif ni intègre.

Théorème (Deux formules à connaître) Soient A, B ∈ Mn (K). On suppose que A et B commutent. Alors pour tout
k∈N: !
k
k
X k
(A + B) = Ai B k−i (formule du binôme de Newton)
i=0
i
k−1
X
et Ak − B k = (A − B) Ai B k−i−1 .
i=0

$ $ $ Attention ! L’hypothèse que A et B commutent n’est pas là pour décorer !

8
c Christophe Bertault - MPSI

   
1 1 2 1 k 2k
k
Exemple Soit A = 0 1 0 . Alors pour tout k ∈ N : A = 0 1 0 .
0 0 1 0 0 1


0 1 2
En effet Pour calculer les puissances de A, écrivons A = I3 + J avec J = 0 0 0. Bien sûr, I3 et J
0 0 0
commutent car I3 commute avec toute matrice carrée de taille 3, et on remarque
 que J2 = 0, donc que J i = 0
k
! 1 k 2k
X k i k−i
pour tout i > 2. Par conséquent : ∀k ∈ N, Ak = I J = I3 + kJ = 0 1 0 .
i 3
i=0 0 0 1

Théorème (Les anneaux( L(E) et Mn (K) sont isomorphes) Soit E un K-espace vectoriel de dimension n et B une base
L(E) −→ Mn (K)
de E. Alors l’application f 7−→ Mat(f ) est un isomorphisme d’anneaux.
B

Démonstration Cette application, on l’a déjà vu, est un isomorphisme linéaire, donc une bijection et un
morphisme de groupes pour l’addition. Nous avons également déjà vu qu’elle transforme les produits en produits,
ici sous la forme suivante : ∀f, g ∈ L(E), Mat(f ◦ g) = Mat(f ) × Mat(g). Enfin : Mat(IdE ) = In . 
B B B B

3.2 Matrices inversibles



Puisque Mn (K), +, × est un anneau, on peut chercher à savoir quels en sont les éléments inversibles (pour la multiplication).
Conformément à la définition générale, une matrice A de Mn (K) sera dite inversible (dans Mn (K)) s’il existe une matrice
B ∈ Mn (K) telle que AB = BA = In ; nous savons déjà qu’une telle matrice B, si elle existe, est unique, notée A−1 et appelée
l’inverse de A.
Rappelons quelques faits généraux bien connus — 4) est une nouveauté. Si A, B ∈ Mn (K) sont deux matrices inversibles :
1) A−1 est inversible et (A−1 )−1 = A ;
2) AB est inversible et (AB)−1 = B −1 A−1 — eh oui, attention !
3) pour tout k ∈ N, Ak est inversible et (Ak )−1 = (A−1 )k ;
−1 t −1 
4) t A est inversible et t A = A .
Démonstration Nous devons seulement démontrer le résultat 4). Il s’agit d’une simple vérification :
t
  
A × t A−1 = t A−1 A = t In = In et de même t A−1 × t A = In . 

A
$ $ $ Attention ! La notation , où A et B sont deux matrices, est rigoureusement interdite.
B


Définition (Groupe linéaire) L’ensemble des matrices inversibles de Mn (K) est noté GLn (K). Alors GLn (K), × est un
groupe d’élément neutre In appelé le groupe linéaire de degré n sur K.

(
L(E) −→ Mn (K)
Remarque Soient E un K-espace vectoriel de dimension n et B une base de E. Nous savons que f 7−→ Mat(f )
B
(
GL(E) −→ GLn (K)
est un isomorphisme d’anneaux. Alors l’application restreinte f 7−→ Mat(f ) est un isomorphisme de groupes.
B

 
a c
Théorème (Inversibilité des matrices carrées de taille 2) Soient a, b, c, d ∈ K. On appelle déterminant de ,
b d
 
a c a c
noté det ou
, le scalaire ad − bc.
b d b d
   −1  
a c a c 1 d −c
La matrice est inversible si et seulement si son déterminant est non nul. Alors = .
b d b d ad − bc −b a

9
c Christophe Bertault - MPSI

Démonstration
       
1 d −c a c a c 1 d −c
• Si ad − bc 6= 0, alors × = × = I2 — simple calcul
  ad − bc −b a b d

b d
 ad − bc −b a
a c 1 d −c
— donc est inversible d’inverse .
b d ad − bc −b a
    
a c d −c a c
• Si ad − bc = 0, alors = 0. Supposons (par l’absurde) inversible. Alors en
b d −b a b d
 −1  
a c d −c
multipliant par l’égalité précédente on obtient = 0, i.e. a = b = c = d = 0, et donc
b d −b a
     
a c a c a c
= 0. Contradiction, car nous avons supposé inversible, donc non nulle. Ainsi est
b d b d b d
non inversible comme voulu. 

Pour pouvoir donner d’autres exemples de matrices inversibles, nous avons besoin de résultats théoriques sur l’inversiblité
des matrices.

Théorème (Bijectivité = inversibilité) Soient E et F deux K-espaces vectoriels de même dimension finie, B une base de
E, C une base de F . Soit en outre f une application linéaire de E dans F . Alors :

f est un isomorphisme de E sur F si et seulement si Mat(f ) est inversible.


B,C

 −1

Dans ce cas : Mat f −1 = Mat(f ) .
C,B B,C

Démonstration
 
• Si f est bijective, alors Mat(f ) × Mat f −1 = Mat(IdF ) = In et Mat f −1 × Mat(f ) = Mat(IdE ) = In , et
B,C C,B C C,B B,C B

donc Mat(f ) est inversible d’inverse Mat f −1 .
B,C C,B

• Réciproquement, si A = Mat(f ) est inversible, soit g l’unique application linéaire de F dans E pour laquelle
B,C
Mat(g) = A−1 . Alors Mat(g ◦ f ) = Mat(g) × Mat(f ) = A−1 A = In et de même Mat(f ◦ g) = In . On en
C,B B C,B B,C C
déduit que g ◦ f = IdE et que f ◦ g = IdF , bref que f est bijective de E sur F , comme voulu. 

Corollaire (AB = In suffit) Soient A, B ∈ Mn (K) telles que AB = In . Alors A et B sont inversibles, inverses l’une de
l’autre.

   Explication En principe, montrer que A est inversible revient à montrer l’existence d’une matrice B telle que
AB = In et BA = In . Ce théorème montre que l’une ou l’autre des assertions suffit en réalité, ce qui est bien pratique.

Démonstration Notons encore A et B les endomorphismes de Kn associés aux matrices A et B.



• Montrons que B est injectif, i.e. que Ker B = 0Kn .
n
Soit X ∈ K tel que BX = 0. Alors X = In X = (AB)X = A(BX) = A0 = 0, comme voulu.
• Or B est un endomorphisme de Kn . Donc son injectivité implique sa bijectivité ; bref, B est un automorphisme
de Kn .
• Or enfin, si Bn est la base canonique de Kn , nous savons que B = Mat(B). Cela montre, via le théorème
Bn
précédent, que B, comme matrice, est inversible. Alors A = AIn = A(BB −1 ) = (AB)B −1 = In B −1 = B −1 ,
ce qui prouve l’inversibilité de A et le fait que A et B sont inverses l’un de l’autre. 

Corollaire (Caractérisation des matrices inversibles en termes de systèmes linéaires) Soit A ∈ Mn (K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) Pour tout second membre Y ∈ Kn , le système linéaire Y = AX d’inconnue X ∈ Kn possède une et une seule
solution ; en d’autres termes : ∀Y ∈ Kn , ∃ ! X ∈ Kn / Y = AX.

Démonstration Si Bn désigne la base canonique de Kn et si on note A l’endomorphisme de Kn associé à A,


nous savons que A = Mat(A). L’assertion (ii) exprime précisément l’idée que l’endomorphisme A est bijectif, i.e.
Bn
qu’il est un automorphisme de Kn . Le théorème précédent montre donc aussitôt l’équivalence (i) ⇐⇒ (ii). 

10
c Christophe Bertault - MPSI

   En pratique Ce théorème nous fournit une méthode en or pour montrer qu’une matrice carrée est inversible et
calculer son inverse.
• En effet, soit A ∈ Mn (K). Faisons l’hypothèse que, pour tout second membre Y ∈ Kn , nous avons su trouver une unique
solution X ∈ Kn au système linéaire Y = AX. Alors A est inversible.
• De plus, avoir trouvé cet unique X, c’est avoir transformé le système linéaire Y = AX en un système linéaire de la forme
X = BY , où B ∈ Mn (K). Ce qui est intéressant, c’est qu’on a alors B = A−1 . La méthode de résolution des systèmes
linéaires la plus systématique est bien sûr la méthode du pivot de Gauss.
   
1 3 1 −2 3 −4
Exemple La matrice 1 2 2 est inversible d’inverse  1 −1 1 .
0 0 1 0 0 1
En effet Notons A la matrice étudiée.
• Soit Y = (y1 , y2 , y3 ) ∈ R3 . Pour tout X = (x1 , x2 , x3 ) ∈ R3 :
     
1 3 1 x1 y1  x1 + 3x2 + x3 = y1
Y = AX ⇐⇒ 1 2 2  x2  = y2  ⇐⇒ x1 + 2x2 + 2x3 = y2

0 0 1 x3 y3 x3 = y3

 x1 + 3x2 + x3 = y1
⇐⇒ x2 − x3 = y1 − y2 L1 ← L1 − L2

x3 = y3 .
Si on est juste intéressé par l’inversibilité de A, on peut conclure dès maintenant. En effet, le système obtenu
ci-dessus est triangulaire à coefficients diagonaux non nuls, donc possède une et une seule solution. Ceci
montre que l’équation Y = AX d’inconnue X possède une et une seule solution pour tout second membre
Y , i.e. que A est inversible.
• Et si on veut aussi calculer A−1 ? On reprend la résolution du système Y = AX où l’a laissé ci-dessus.
     
 x1 = −2y1 + 3y2 − 4y3 x1 −2 3 −4 y1
Y = AX ⇐⇒ x2 = y1 − y2 + y3 ⇐⇒ x2  =  1 −1 1   y2  .

x3 = y3 x3 0 0 1 y3
 
−2 3 −4
Et voilà : A−1 =  1 −1 1  comme annoncé.
0 0 1
 
1 0 2
Exemple La matrice 2 3 −2 n’est pas inversible.
3 6 −6
En effet Soit Y = (y1 , y2 , y3 ) ∈ R3 . Pour tout X = (x1 , x2 , x3 ) ∈ R3 :
     
1 0 2 x1 y1  x1 + 2x3 = y1
Y = AX ⇐⇒ 2 3 −2 x2  = y2  ⇐⇒ 2x1 + 3x2 − 2x3 = y2

3 6 −6 x3 y3 3x1 + 6x2 − 6x3 = y3

 1 x + 2x 3 = y 1
⇐⇒ 3x2 − 6x3 = y2 − 2y1 L2 ← L2 − 2L1

6x2 − 12x3 = y3 − 3y1 L3 ← L3 − 3L1

 x1 + 2x3 = y1
⇐⇒ 3x2 − 6x3 = y2 − 2y1

0 = y3 − 2y2 + y1 L3 ← L3 − 2L2 .
Le système obtenu est triangulaire, mais l’un de ses coefficients diagonaux est nul, il ne possède donc pas une
unique solution, ce qui prouve la non-inversibilité de la matrice considérée.

Théorème (Base = inversibilité) Soient E un K-espace vectoriel de dimension n, B une base de E et F une famille de n
vecteurs de E. Les assertions suivantes sont équivalentes :
(i) F est une base de E. (ii) Mat(F) est inversible.
B

Démonstration Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fn ) et


notons f l’unique endomorphisme de E tel que : ∀k ∈ J1, nK, f (ek ) = fk . On a l’équivalence :
F est une base de E ⇐⇒ f est un automorphisme de E ⇐⇒ Mat(f ) est inversible.
B
 
On conclut en remarquant que : Mat(f ) = Mat f (e1 ), f (e2 ), . . . , f (en ) = Mat(f1 , f2 , . . . , fn ) = Mat(F). 
B B B B

11
c Christophe Bertault - MPSI

Corollaire (Caractérisation des matrices inversibles au moyen de leurs lignes/colonnes) Soit A ∈ Mn (K). Les
assertions suivantes sont équivalentes :
(i) A est inversible.
(ii) La famille des colonnes de A est une base de Kn — cela revient à dire qu’elle est libre ou génératrice.
(iii) La famille des lignes de A est une base de Kn — cela revient à dire qu’elle est libre ou génératrice.

Démonstration
(i) ⇐⇒ (ii) Nous savons que A est égale à la matrice de ses colonnes dans la base canonique de Kn . Le théorème
précédent montre donc l’équivalence (i) ⇐⇒ (ii).
(ii) ⇐⇒ (iii) Nous savons que A est inversible si et seulement t A l’est, et que la transposition échange les lignes
et les colonnes de A. L’équivalence (i) ⇐⇒ (iii) se déduit donc de l’équivalence (i) ⇐⇒ (ii). 

3.3 Matrices carrées particulières


3.3.1 Matrices triangulaires

Définition (Matrice triangulaire) Une matrice carrée est dite triangulaire supérieure (resp. inférieure) si ses coefficients
situés strictement au-dessous (resp. strictement au-dessus) de la diagonale sont nuls.

   
1 2 3 1 0 0
Exemple 0 4 5 est triangulaire supérieure et 2 4 0 est triangulaire inférieure.
0 0 6 3 5 6

Théorème (Anneau des matrices triangulaires supérieures/inférieures)


(i) L’ensemble des matrices triangulaires supérieures (resp. inférieures) de taille n à coefficients dans K est un sous-espace
vectoriel et un sous-anneau de Mn (K).
(ii) Une matrice triangulaire est inversible si et seulement si ses coefficients diagonaux sont tous non nuls.
L’inverse d’une matrice triangulaire supérieure (resp. inférieure) est triangulaire supérieure (resp. inférieure).

   Explication Nous avons montré dans ce chapitre qu’une matrice est inversible si et seulement si le système linéaire
associé à cette matrice possède une et une seule solution pour tout second membre. La caractérisation des matrices triangulaires
énoncée dans ce théorème est équivalente au principe suivant que nous avons massivement utilisé jusqu’ici : « Un système linéaire
triangulaire possède une et une seule solution si et seulement si ses coefficients diagonaux sont tous non nuls ».

Démonstration Nous pouvons nous contenter de travailler avec les matrices triangulaires supérieures ; le cas
des matrices triangulaires inférieures s’en déduit par transposition.

(i) Il est facile de montrer que l’ensemble des matrices triangulaires supérieures de taille n est un sous-espace
vectoriel de Mn (K). Il est en outre clair que In est triangulaire supérieure. Pour montrer que nous avons aussi
affaire à un sous-anneau, il nous reste à montrer que le produit de deux matrices triangulaires supérieures
est encore une matrice triangulaire supérieure.
Soient A, B ∈ Mn (K) triangulaires supérieures. Posons C = AB et montrons que C est triangulaire supé-
n
X
rieure. Soient i, j ∈ J1, nK tels que i > j. Alors cij = aik bkj . J’affirme que chacun des termes de cette
k=1
somme est nul. En effet, soit k ∈ J1, nK. Comme i > j, alors k < i ou k > j forcément. Dans le premier cas,
aik = 0 ; dans le second, bkj = 0. Dans les deux cas, on a donc aik bkj = 0 comme annoncé.

(ii) Raisonnons par récurrence sur la taille n des matrices.



Initialisation : Toute matrice triangulaire supérieure de taille 1 est de la forme a où a ∈ K. Une
−1 
telle matrice est inversible si et seulement si a 6= 0 et dans ce cas a = a−1 . L’inverse d’une matrice
triangulaire supérieure inversible de taille 1 est donc bien triangulaire supérieure.
Hérédité : Soit n ∈ N× . Faisons l’hypothèse que toute matrice triangulaire supérieure de taille n est
inversible si et seulement si ses coefficients diagonaux sont tous non nuls, et que l’inverse d’une matrice
triangulaire supérieure inversible de taille n est encore une matrice triangulaire supérieure.

12
c Christophe Bertault - MPSI

Fixons T ∈ Mn+1 (K) triangulaire supérieure et notons T 0 la sous-matrice de T obtenue par suppression des
dernière ligne et dernière colonne. Alors T 0 ∈ Mn (K) est triangulaire supérieure. Pour tous X, Y ∈ Kn+1 :
    
t11 t12 t13 · · · t1,n+1 x1 y1
 0 t22 t23 · · · t2,n+1    x 2   y2 
   

0 0 t 33 · · · t 3,n+1   x3  =  y3 
Y = TX ⇐⇒     
 . .. .. .. ..  .   . 
 .. . . . .   ..   .. 
0 0 0 · · · tn+1,n+1 xn+1 yn+1


 t11 x1 + t12 x2 + . . . + t1,n+1 xn+1 = y1

 t22 x2 + . . . + t2,n+1 xn+1 = y2
⇐⇒ ..


 .

tn+1,n+1 xn+1 = yn+1


 t11 x1 + t12 x2 + . . . + t1n xn = y1 − t1,n+1 xn+1

 t22 x2 + . . . + t2n = y2 − t2,n+1 xn+1
⇐⇒ .. et tn+1,n+1 xn+1 = yn+1


 .

tnn xn = yn − tn,n+1 xn+1
    
t11 t12 t13 · · · t1n x1 y1 − t1,n+1 xn+1
 0 t22 t23 · · · t2n   x2   y2 − t2,n+1 xn+1 
    
0 0 t33 · · · t3n    x3  =  y3 − t3,n+1 xn+1  et tn+1,n+1 xn+1 = yn+1
   
⇐⇒ 
 . . . . .  .   . 
 .. .. .. .. ..   ..   .. 
0 0 0 · · · tnn xn yn − tn,n+1 xn+1
| {z } | {z }
X0 Y0

⇐⇒ Y 0 = T 0X 0 et tn+1,n+1 xn+1 = yn+1 .


La résolution du système Y = T X se ramène donc à la résolution de deux sous-systèmes : Y 0 = T 0 X 0 de
taille (n − 1) et tn+1,n+1 xn+1 = yn+1 . Par hypothèse de récurrence, Y = T X possède finalement une unique
solution si et seulement si tous les coefficients diagonaux de T 0 sont non nuls et si tn+1,n+1 6= 0, i.e. si et
seulement si tous les coefficients diagonaux de T sont non nuls. C’est la première partie du résultat voulu.
Supposons désormais T inversible, i.e. que ses coefficients diagonaux sont tous non nuls. En particulier T 0
est inversible par hypothèse de récurrence car ses coefficients diagonaux sont alors tous non nuls. De plus,
toujours par hypothèse de récurrence, T 0−1 est une matrice triangulaire supérieure que nous noterons S pour
simplifier. Reprenons les notations et les calculs précédents :
yn+1
Y = TX ⇐⇒ Y 0 = T 0 X 0 et tn+1,n+1 xn+1 = yn+1 ⇐⇒ X 0 = SY 0 et xn+1 =
tn+1,n+1
 t1,n+1 
s11 s12 s13 · · · s1n  y1 − tn+1,n+1 yn+1 
   
x1
 0 s 22 s 23 · · · s 2n  
 t2,n+1   x2 
   y2 − yn+1   

yn+1
 0 0 s33 · · · s3n  tn+1,n+1 = x3 
⇐⇒      et xn+1 =
 . . . . .   ..  .  t n+1,n+1
 .. .. .. .. ..   .
  . 
 .
0 0 0 · · · snn
 t n,n+1

x
yn − yn+1 n
tn+1,n+1


 s11 y1 + s12 y2 + . . . + s1n yn + $ yn+1 = x1
$



 s 22 y 2 + . . . + s 2n y n + y n+1 = x2

 ..
⇐⇒ .



 snn yn + $ yn+1 = xn


 1
 yn+1 = xn+1
tn+1,n+1
Les symboles $ désignent des quantités que l’on n’a pas souhaité expliciter par souci de simplicité. Ce qui
compte de  soit triangulaire supérieur. La matrice T −1 est finalement
tout façon, c’est que le système obtenu 
s11 s12 s13 · · · s1n $
$
 
 0 s22 s23 · · · s2n 
 
 0 0 s33 · · · s3n $ 
 
la matrice  .. .. .. . . .
. .
.  triangulaire supérieure. 
 .
 . . . . . 

$
 0 0 0 · · · snn 
 
 1 
0 0 0 ··· 0
tn+1nn+1
   
1 2 5 1 2 −11
Exemple L’inverse de la matrice 0 −1 3 est la matrice 0 −1 3 .
0 0 1 0 0 1

13
c Christophe Bertault - MPSI

3.3.2 Matrices diagonales

Définition (Matrice diagonale, matrice scalaire)


• Une matrice carrée est dite diagonale si tous ses coefficients non diagonaux sont nuls.
 
λ1 0 · · · 0
 0 λ2 · · · 0
Pour tout (λ1 , λ2 , . . . , λn ) ∈ Kn , la matrice  .
 
. .
. . . ..  est souvent notée diag(λ1 , λ2 , . . . , λn ).
 . . . . 
0 0 · · · λn
• Une matrice carrée est dite scalaire si elle est diagonale et si tous ses coefficients diagonaux sont égaux. Les matrices
scalaires de taille n à coefficients dans K sont donc toutes les matrices λIn , λ décrivant K.

Théorème (Anneau des matrices diagonales)


(i) L’ensemble des matrices diagonales de taille n à coefficients dans K est un sous-espace vectoriel et un sous-anneau
de Mn (K). Plus précisément, pour tous (λ1 , λ2 , . . . , λn ), (µ1 , µ2 , . . . , µn ) ∈ Kn et tous α, β ∈ K :

α diag(λ1 , λ2 , . . . , λn ) + β diag(µ1 , µ2 , . . . , µn ) = diag(αλ1 + βµ1 , αλ2 + βµ2 , . . . , αλn + βµn )

et diag(λ1 , λ2 , . . . , λn ) × diag(µ1 , µ2 , . . . , µn ) = diag(λ1 µ1 , λ2 µ2 , . . . , λn µn ).

(ii) Une matrice diagonale est inversible si et seulement si ses coefficients diagonaux sont tous non nuls. Plus précisément,
pour tout (λ1 , λ2 , . . . , λn ) ∈ Kn tel que λk 6= 0 pour tout k ∈ J1, nK :
 
1 1 1
diag(λ1 , λ2 , . . . , λn )−1 = diag , ,..., .
λ1 λ2 λn

3.3.3 Matrices symétriques et antisymétriques

Définition (Matrice symétrique, matrice antisymétrique) Soit A ∈ Mn (K).


• On dit que A est symétrique si t A = A. • On dit que A est antisymétrique si t A = −A.

   
1 2 3 0 1 −5
Exemple 2 5 0 est symétrique et −1 0 2  est antisymétrique.
3 0 6 5 −2 0
Remarquez bien ceci : la diagonale d’une matrice antisymétrique est nulle car chaque coefficient diagonal est égal à son opposé.

$ $ $ Attention !
• Le produit de deux matrices symétriques (resp. antisymétriques) n’a aucune raison d’être symétrique (resp. antisymétrique).
En effet, si A et B sont symétriques, alors t (AB) = t B t A = BA et ainsi t (AB) 6= AB en général.
 
1 1
• La matrice d’une symétrie (géométrique) n’est pas forcément symétrique ; ainsi la matrice est une symétrie de
0 −1
2
R car son carré vaut I2 , mais elle n’est pas symétrique.
 De
 la même manière toute matrice symétrique ne  représente
 pas
1 2 5 4
forcément une symétrie (géométrique) ; la matrice est symétrique mais son carré est la matrice 6= I2 .
2 1 4 5

4 Changements de base et matrices semblables

4.1 Changements de base

Définition (Matrice de passage d’une base à une autre) Soient E un K-espace vectoriel et B et B0 deux bases de E.
On appelle matrice de passage de B à B0 la matrice Mat(B0 ) de B0 dans B.
B

14
c Christophe Bertault - MPSI

Théorème Soient E un K-espace vectoriel, B, B0 et B00 trois bases de E, P la matrice de passage de B à B0 et P 0 la matrice
de passage de B0 à B00 .
(i) P est inversible, P = Mat
0
(IdE ) et P −1 est la matrice de passage de B0 à B.
B ,B

(ii) P P est la matrice de passage de B à B00 .


0

Démonstration
(i) P est inversible comme matrice d’une base dans une autre base.
L’identité P = Mat (IdE ) découle de la définition de la matrice d’une application linéaire dans des bases.
B 0 ,B
 −1

Il en résulte aussitôt que P −1 = Mat 0
Id E = Mat0 Id−1
E = Mat0 (IdE ), donc que P −1 est la matrice de
B ,B B,B B,B
passage de B0 à B.
(ii) P P 0 = Mat
0
(IdE ) × Mat
00 0
(IdE ) = Mat
00
(IdE ◦ IdE ) = Mat
00
(IdE ), donc P P 0 est bien la matrice de passage
B ,B B ,B B ,B B ,B
de B à B00 . 

   Explication L’assertion (i) du théorème précédent admet une réciproque


 :
toute matrice inversible peut être vue
1 2 1
comme une matrice de passage. Voyons cela sur l’exemple de la matrice P = 0 4 2, inversible car elle est triangulaire à
0 0 8
coefficients diagonaux tous non nuls.
 
1) On peut voir P comme la matrice de passage de la base canonique à la base (1, 0, 0), (2, 4, 0), (1, 2, 8) de R3 .
2) On peut voir P comme la matrice de passage de la base canonique à la base (1, 4X + 2, 8X 2 + 2X + 1) de R2 [X].
3) Plus abstraitement, si E est un R-espace vectoriel de dimension 3 et si (e1 , e2 , e3 ) en est une base, alors P est la
matrice de passage de (e1 , e2 , e3 ) à la base (e1 , 2e1 + 4e2 , e1 + 2e2 + 8e3 ).

Théorème (Théorème du changement de base) Soient E et F deux K-espaces vectoriels, B et B0 deux bases de E, C
et C0 deux bases de F , P la matrice de passage de B à B0 et Q la matrice de passage de C à C0 .
(i) Version coordonnées : Soit x ∈ E. On pose X = Mat(x) et X 0 = Mat
0
(x). Alors : X = P X 0.
B B

(ii) Version matrice d’une application linéaire : Soit f une application linéaire de E dans F . On pose A = Mat(f )
B,C
et A0 = Mat
0 0
(f ). Alors : A0 = Q−1 AP .
B ,C

Démonstration Nous savons que P = Mat


0
(IdE ) et que Q = Mat
0
(IdF ).
B ,B C ,C

(i) En termes matriciels, l’égalité x = IdE (x) s’écrit, dans les bases adaptées, X = P X 0 .
(ii) C’est un simple calcul :
 
A0 = Mat
0 0
(f ) = Mat
0 0
Id−1
F ◦ f ◦ IdE = Mat
0
Id−1
F × Mat(f ) × Mat
0
(IdE )
B ,C B ,C C,C B,C B ,B
 −1
= Mat
0
(IdF ) × Mat(f ) × Mat
0
(IdE ) = Q−1 AP. 
C ,C B,C B ,B

Exemple Cet exemple important sera repris


 dans un futur chapitre. On fixe un certain θ ∈ R. On rappelle qu’en géométrie,
2 ~
uθ = cos θ ~ı + sin θ ~
on note (~ı, ~) la base canonique de R et : .
~vθ = − sin θ ~ı + cos θ ~
uθ , ~vθ ) est une base de R2 .
(i) (~
   0
2 x 0 x
(ii) Soit ~
u = (x, y) un vecteur de R . Les coordonnées de ~ u dans (~ı, ~) sont bien sûr X = . Notons X = les
y y0
   
cos θ − sin θ cos θ sin θ
coordonnées de ~ u dans la base (~
uθ , ~vθ ). Alors : X = X 0 et X 0 = X. Ces formules
sin θ cos θ − sin θ cos θ
sont exactement celles que nous avions trouvé dans notre chapitre de géométrie élémentaire du plan en début d’année.
En effet
(i) Nous pourrions  démontrer laliberté de (~ uθ , ~vθ ) par exemple. Mais il y a plus simple. La matrice de (~
uθ , ~vθ )
cos θ − sin θ 2 2
dans (~ı, ~) est . Son déterminant est cos θ +sin θ = 1 6= 0, donc cette matrice est inversible.
sin θ cos θ
Comme voulu, la famille (~ uθ , ~vθ ) est donc une base de R2 .

15
c Christophe Bertault - MPSI

   
cos θ − sin θ cos θ − sin θ
(ii) Puisque est la matrice de passage de (~ı, ~) à (~
uθ , ~vθ ), la formule X = X0
sin θ cos θ sin θ cos θ
est démontrée. L’autre formule se démontre de la même manière ; on peut remarquer que la matrice de
 −1  
cos θ − sin θ cos θ sin θ
passage de (~
uθ , ~vθ ) à (~ı, ~) est = .
sin θ cos θ − sin θ cos θ

4.2 Matrices semblables

Définition (Matrices semblables) Soient A, B ∈ Mn (K). On dit que B est semblable à A (dans Mn (K)) s’il existe une
matrice inversible P ∈ GLn (K) telle que B = P −1 AP .

Exemple Soient E un K-espace vectoriel de dimension finie, f ∈ L(E) et B et B0 deux bases de E. Alors Mat
0
(f ) est
B
semblable à Mat(f ) puisque comme on l’a vu, si P désigne la matrice de passage de B à B0 : Mat
0
(f ) = P −1 Mat(f )P .
B B B

Théorème (Propriétés de la relation de similitude) La relation de similitude sur Mn (K) est réflexive, symétrique et
transitive.

Démonstration
• Réflexivité : Soit A ∈ Mn (K). Alors A est semblable à A car In est inversible et A = In−1 AIn .
• Symétrie : Soient A, B ∈ Mn (K). On suppose B semblable à A. Il existe donc P ∈ GLn (K) telle que
−1
B = P −1 AP . Alors P − est inversible et A = P −1 BP −1 , de sorte que A est semblable à B.
• Transitivité : Soient A, B, C ∈ Mn (K). On suppose B semblable à A et C semblable à B. Il existe
donc P, Q ∈ GLn (K) telles que B = P −1 AP et C = Q−1 BQ. Alors P Q est inversible par produit et
C = Q−1 BQ = Q−1 P −1 AP Q = (P Q)−1 A(P Q), donc C est semblable à A. 

5 Rang d’une matrice

Définition (Rang d’une matrice) Soit A ∈ Mn,p (K). Le rang de A, vue comme application linéaire de Kp dans Kn , est
égal au rang de la famille des colonnes de A dans Kn .
On appelle rang de A, noté rg(A), la valeur commune de ces deux notions de rang.

Démonstration Notons C1 , C2 , . . . , Cp les colonnes de A dans l’ordre naturel et (E1 , E2 , . . . , Ep ) la base


canonique de Kp . Alors : Vect(C1 , C2 , . . . , Cp ) = Vect(AE1 , AE2 , . . . , AEp ) = Im A.
En particulier, Vect(C1 , C2 , . . . , Cp ) et Im A sont de même dimension. C’est le résultat voulu. 

Remarque Soit A ∈ Mn,p (K). Si A possède une colonne nulle, et si A0 est la matrice obtenue à partir de A après suppression
de cette colonne nulle, alors rg(A) = rg(A0 ).
En effet Le rang de A est la dimension du sous-espace vectoriel de Kn engendré par les colonnes de A. Or
dans un Vect, on peut toujours se défaire des vecteurs nuls. C’est pourquoi le rang de A est conservé quand on
supprime une colonne nulle de A.

Corollaire (Rang et inversibilité) Soit A ∈ Mn (K). Les assertions suivantes sont équivalentes :
(i) A est inversible. (ii) rg(A) = n.

Démonstration
A est inversible ⇐⇒ La famille des colonnes de A est une base de Kn
⇐⇒ La dimension du sous-espace vectoriel de Kn engendré par les colonnes de A est n
⇐⇒ rg(A) = n. 

16
c Christophe Bertault - MPSI

Théorème (Relation entre les différentes notions de rang) Soient E et F deux K-espaces vectoriels de dimension finie,
B une base de E et C une base de F .
 
(i) Soit F une famille (finie) de vecteurs de E. Alors : rg Mat(F) = rg(F).
B
 
(ii) Soit f une application linéaire de E dans F . Alors : rg Mat(f ) = rg(f ).
B,C

   En pratique Ce théorème montre que tout rang (famille de vecteurs ou application linéaire) peut être calculé
comme le rang d’une matrice. Or le calcul d’un rang fournit de précieux renseignements. Par exemple, nous avons démontré les
équivalences suivantes, dans notre chapitre sur les espaces vectoriels de dimension finie :
1) f est injective si et seulement si rg(f ) = dim E. 2) f est surjective si et seulement si rg(f ) = dim F .
N’oubliez pas également le précieux théorème du rang. Nous étudierons bientôt une technique de calcul rapide et simple du rang.

Démonstration
(i) Introduisons les vecteurs de B et F : B = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fp ), ainsi que les colonnes
C1 , C2 , . . . , Cp de Mat(F) dans l’ordre naturel.
B 

 Kn −→ E
n
Notons en outre ϕ l’isomorphisme bien connu X — B est une base de E. Alors
 (λk )16k6n
 7−→ λk e k
k=1
ϕ(Ck ) = fk pour tout k ∈ J1, pK puisque Ck est la colonne des coordonnées de fk dans B.
Or ϕ induit par restriction
 un
 isomorphisme de Vect(C1 , C2 , . . . , Cp ) sur Vect(f1 , f2 , . . . , fp ) = Vect(F).
En particulier : rg Mat(F) = rg(C1 , C2 , . . . , Cp ) = dim Vect(C1 , C2 , . . . , Cp ) = dim Vect(F) = rg(F).
  B  (i)  
(ii) rg Mat(f ) = rg Mat f (B) = rg f (B) = dim Vect f (B) = dim Im f = rg(f ). 
B,C C

Théorème (Invariance du rang par produit par une matrice inversible)


(i) Soient A ∈ Mn,p (K), P ∈ GLp (K) et Q ∈ GLn (K). Alors rg(AP ) = rg(A) et rg(QA) = rg(A).
(ii) Deux matrices semblables ont le même rang.

Démonstration Pour prouver (i), considérons chaque matrice comme une application linéaire. Alors tout
matrice P ∈ GLp (K) est un automorphisme de Kp et toute matrice Q ∈ GLn (K) est un automorphisme de Kn . Or
nous savons que le rang d’une application linéaire n’est pas modifié quand on compose cette application par un
automorphisme. Ici, avec des matrices, composer revient à faire un produit. Le résultat s’en déduit aussitôt. 

Théorème (Décomposition U Jn,p,r V d’une matrice) Soit A ∈ Mn,p (K). On note r le rang de A. Il existe alors deux
matrices U ∈ GLn (K) et V ∈ GLp (K) telles que A = U Jn,p,r V , où Jn,p,r est la matrice de taille n × p suivante :
r colonnes
z }| {
 
1
 .. 

 . 

 1 
Jn,p,r = , les positions vides de cette matrice étant à compléter par des 0.

 0 

 .. 
 . 
0

Démonstration
• Considérons A comme une application linéaire de Kp dans Kn et notons I un supplémentaire de Ker A dans
Kp . Fixons en outre une base B = (e1 , e2 , . . . , ep ) de Kp dont les r premiers vecteurs forment une base de I
et les (p − r) suivants une base de Ker A.
• Nous savons que A induit par restriction un isomorphisme de I sur Im A. Par conséquent l’image de la base
(e1 , e2 , . . . , er ) de I par A est une base de Im A que nous notons (f1 , f2 , . . . , fr ). Complétons cette base de
Im A en une base C = (f1 , f2 , . . . , fn ) de Kn .

17
c Christophe Bertault - MPSI

• La matrice de A dans les bases B et C est alors la matrice Jn,p,r , comme on s’en convainc aisément en
écrivant cette matrice. Notons alors Bp et Bn les bases canoniques respectives de Kp et Kn , V la matrice
de passage de B à Bp et U la matrice de passage de Bn à C. La formule de changement de base pour les
applications linéaires donne ceci :
 
A = Mat (A) = Mat IdKn × Mat(A) × Mat IdKp = U × Mat(A) × V = U Jn,p,r V.
B p ,B n C,B n B,C B p ,B B,C

On obtient Jn,p,r en calculant tout simplement Mat(A). Il suffit de remarquer que A(ek ) = fk pour tout
B,C
k ∈ J1, rK, et que A(ek ) = 0Kn pour k ∈ Jr + 1, pK. 


Corollaire (Invariance du rang par transposition) Soit A ∈ Mn,p (K). Alors : rg t A = rg(A).

Démonstration  Soient r le rang


 de A, U ∈ GLn (K)  et V ∈ GLp (K)telles que A = U Jn,p,r V .
Alors : rg t A = rg t (U Jn,p,r V ) = rg t V t Jn,p,r t U = rg t V Jp,n,r t U car t Jn,p,r = Jp,n,r .
Or t U et t V sont inversibles
 car U et V le sont, donc puisque le rang est invariant par multiplication par une
matrice inversible : rg t A = rg(Jp,n,r ) = r. 

6 Opérations élémentaires sur les matrices

6.1 Définition

Définition (Opérations élémentaires sur les lignes et les colonnes) On appelle opération élémentaire sur les lignes
d’une matrice les opérations suivantes :
• permutation des ième et j ème lignes, notée Li ↔ Lj ;
ème
• multiplication de la i ligne par le scalaire λ 6= 0, notée Li ← λLi ;
ème ème
• addition de la j ligne multipliée par le scalaire λ à la i ligne (avec i 6= j), notée Li ← Li + λLj .
On définit de même la notion d’opération élémentaire sur les colonnes d’une matrice. Les notations associées sont respectivement
Ci ↔ Cj , Ci ← λCi et Ci ← Ci + λCj .

La démonstration du théorème suivant requiert seulement un minimum d’enthousiasme calculatoire. Calculez.

Théorème (Opérations élémentaires = multiplication par certaines matrices inversibles) Soit A ∈ Mn,p (K).

• Soient i, j ∈ J1, nK. L’opé- • Soient i ∈ J1, nK et λ ∈ K× . • Soient i, j ∈ J1, nK, i 6= j


ration élémentaire Li ↔ Lj est L’opération élémentaire Li ← λLi et λ ∈ K. L’opération élémentaire
équivalente à la multiplication de A est équivalente à la multiplication de Li ← Li + λLj est équivalente à
à gauche par : A à gauche par : la multiplication de A à gauche par :
 
1 i j
..

 . 
  ↓   ↓ 
 1  1 1
  .. ..
i −→

 0 1 


 . 


 . 

 1   1   1 

 .. 


 λ



 .. 

 .     . 
 1   1  i −→
 λ 1 
   ..   .. 
j −→

 1 0 

 .   . 

 1

 1 1
 .. 
.
1

Toutes les matrices par lesquelles on a multiplié A ci-dessus sont inversibles.

Si, au lieu de multiplier à gauche, on multiplie A à droite par les matrices décrites ci-dessus, on obtient une simulation des
opérations élémentaires sur les colonnes, respectivement : Ci ↔ Cj , Ci ← λCi et Cj ← Cj + λCi — à condition de faire
varier i et j dans J1, pK et non plus dans J1, nK.

18
c Christophe Bertault - MPSI


Opération élémentaire sur les lignes = Multiplication à gauche
$ $ $ Attention ! .
Opération élémentaire sur les colonnes = Multiplication à droite

Démonstration La matrice associée à l’opération élémentaire Li ↔ Lj est inversible car son carré vaut In
— c’est une symétrie. Quant aux matrices associées aux opérations élémentaires Li ← λLi et Li ← Li + λLj ,
elle sont triangulaires à coefficients diagonaux tous non nuls, donc inversibles. 

6.2 Méthode du pivot de Gauss pour le calcul du rang

Théorème (Propriétés d’invariance du rang)


(i) Les opérations élémentaires sur les matrices préservent le rang.
(ii) La suppression d’une colonne nulle ou d’une ligne nulle préserve le rang.

Démonstration
(i) Les opérations élémentaires ne sont que des multiplications par des matrices inversibles, donc préservent
le rang.
(ii) Nous avons déjà prouvé le résultat de l’assertion (ii) pour les colonnes. Le cas des lignes s’en déduit par
transposition, le rang étant invariant par transposition. 

   En pratique Décrivons à présent comment l’algorithme du pivot de Gauss peut être utilisé pour calculer rapidement
le rang d’une matrice. Partons d’une matrice A ∈ Mn,p (K). Chaque étape de l’algorithme ramène le calcul du rang de A au
calcul du rang d’une matrice de taille strictement plus petite.
0) Si A = 0, alors rg(A) = 0 — sortie de l’algorithme.
1) Sinon au moins un coefficient de A est non nul. En permutant les lignes et les colonnes de A, on se ramène au
calcul du rang d’une matrice de même rang que A dont le coefficient a de position (1, 1) est non nul. Ce coefficient a est
alors qualifié de pivot.
2) A l’aide du pivot a, on annule par des opérations élémentaires sur les lignes tous les termes de la première colonne
de la matrice obtenue à l’issue de l’étape 1) (à l’exception du pivot).
3) Toujours à l’aide du pivot a, on annule ensuite par des opérations élémentaires sur les colonnes tous les termes de
la première ligne de la matrice obtenue à l’issue de l’étape 2) (à l’exception du pivot).
4) La première colonne de la matrice obtenue à l’issue de l’étape 3) est clairement non combinaison linéaire des
autres colonnes de cette matrice. Ceci explique le résultat de l’étape 4) figuré ci-dessous.

Etape 1) Etape 2) Etape 3) Etape 4)


     
a × ··· × a × ··· × a 0 ··· 0
× × ··· × 0  0 
0
A0 0
     
rg(A) = rg  . ..  = rg  ..  = rg  .  = rg(A ) + 1.
 ..
..
. .  .   .. A 
× × ··· × 0 0
| {z }
Cette étape n’a pas à figurer sur vos copies,
vous pouvez directement passer à l’étape 4).

Finalement, on reprend les étapes 0) à 4) avec la matrice A0 . L’algorithme se termine avec certitude car A0 est strictement
plus petite que A de par sa taille.

 
0 0 1 3
 1 0 −1 2
 
Exemple  0
rg  0 1 2
 = 4.
−2 4 −4 1
−1 0 3 0

19
c Christophe Bertault - MPSI

En effet
     
0 0 1 3 0 0 1 3 4 −2 −4 1
 1 0 −1 2 0 1 −1 2 0 1 −1 2
     
 0 0 1  = rg 0
2 0 1 2
rg   C 1 ↔ C 2 = rg 0 0 1 2 L1 ↔ L4
  
−2 4 −4 1 4 −2 −4 1 0 0 1 3
−1 0 3 0 0 −1 3 0 0 −1 3 0
   
1 −1 2 1 −1 2
 0 1 2 0 1 2
= 1 + rg 
 0
 = 1 + rg  
1 3 0 1 3
1 1
−1 3 0 0 1 1 L4 ← L1 + L4
2 2
 
1 2
= 2 + rg 1 3 = 2 + 2 = 4 car les deux vecteurs de R3 obtenus sont clairement non colinéaires.
1 1

6.3 Méthode du pivot de Gauss pour l’inversiblité d’une matrice


   En pratique En résolvant un système linéaire au moyen de l’algorithme du pivot de Gauss, on a vu qu’on pouvait
savoir aisément si une matrice est inversible ou non et, le cas échéant, calculer l’inverse de ladite matrice. Nous présentons ici la
même méthode d’une autre façon, sans systèmes linéaires. Soit A ∈ Mn (K).

• Supposons qu’on puisse ramener A à la matrice In par des opérations élémentaires uniquement sur les lignes de A. Si k
opérations élémentaires sont nécessaires, et si chaque opération élémentaire est représentée par une matrice Pi , i ∈ J1, kK, on
a donc : Pk Pk−1 . . . P1 A = In , les opérations élémentaires sur les lignes correspondant à des multiplications matricielles
à gauche. Bref, si P est la matrice Pk Pk−1 . . . P1 , alors P A = In . Dans ces conditions, on a montré que A est inversible
et que P = A−1 , ou encore A−1 = Pk Pk−1 . . . P1 × In ; A−1 s’obtient donc à partir de la matrice In à partir des mêmes
opérations qui nous ont fait passer de A à In , dans le même ordre.
• Réciproquement, nous admettrons que, si A inversible, alors on peut ramener A à la matrice In par des opérations
élémentaires uniquement sur les lignes. La preuve de ce résultat n’est pas difficile, mais ne perdons pas de temps : les
exemples donnés ci-dessous vous suffiront amplement.

Et concrètement, comment on fait ? Facile, on écrit A et In côte à côte. Ensuite on fait subir les mêmes opérations élémentaires
aux lignes de ces deux matrices, guidés par le souci de transformer A en In . Si cela est possible, alors A est inversible, et dans
ce cas In a été transformée en A−1 . Le tour est joué.

$ $ $ Attention ! Il est impératif que vos opérations élémentaires se fassent ici toutes sur les lignes — ou bien toutes sur
les colonnes, c’est également possible. Les mélanges sont interdits !

   
1 0 2 −3 4 2
Exemple La matrice A = 1 −1 2  est inversible d’inverse A−1 =  1 −1 0 .
0 2 −1 2 −2 −1
En effet Introduisez toujours vos calculs par une petite phrase rituelle d’explication. Par exemple : nous allons
faire subir aux matrices A et In les mêmes opérations élémentaires sur les lignes jusqu’à obtenir, si possible, In à
la place de A ; c’est alors A−1 que nous trouverons à la place de In .
   
1 0 2 1 0 0
A = 1 −1 2 In =  0 1 0
0 2 −1  0 0 1 
1 0 2 1 0 0
0 1 0  1 −1 0 L2 ← L1 − L2
0 2 −1  0 0 1 
1 0 2 1 0 0
0 1 0 1 −1 0
 0 0 1  2 −2 −1  L3 ← 2L2 − L3
1 0 0 −3 4 2 L1 ← L1 − 2L3
In = 0 1 0 A−1 =  1 −1 0
0 0 1 2 −2 −1

20
c Christophe Bertault - MPSI

 
1 0 2
Exemple La matrice A = −1 −3 1  n’est pas inversible.
0 1 −1
En effet Nous allons faire subir aux matrices A et In les mêmes opérations élémentaires sur les lignes jusqu’à
obtenir, si possible, In à la place de A ; c’est alors A−1 que nous trouverons à la place de In .
   
1 0 2 1 0 0
A = −1 −3 1 In = 0 1 0
 0 1 −1  0 0 1
1 0 2 1 0 0
 0 −3 3 1 1 0 L2 ← L1 + L2
0 1 −1 0 0 1
1 0 2 1 0 0
 0 −3 3 1 1 0
0 0 0 1 1 3 L3 ← L2 + 3L3
Aïe ! Dans la partie gauche de la matrice, nous avons transformé A en une matrice possédant une ligne nulle par
des opérations élémentaires. Les opérations élémentaires étant des opérations inversibles, cela montre que A n’est
pas inversible. Ici, le travail sur la matrice In à droite était donc inutile.

7 Un brin de vocabulaire sur les systèmes linéaires




 a11 x1 + a12 x2 + ··· + a1p xp = b1

 a21 x1 + a22 x2 + ··· + a2p xp = b2
Soient A ∈ Mn,p (K) et B ∈ Kn fixés. Notons (S) le système linéaire .. .. .. .. ,


 . . . .

an1 x1 + an2 x2 + · · · + anp xp = bn
ou encore AX = B, d’inconnue X ∈ Kp . L’objectif de ce paragraphe est mince : vous donner un peu de vocabulaire et quelques
résultats sur les systèmes linéaires, conséquences triviales de nos tribulations matricielles.

Définition (Système linéaire homogène) On appelle système linéaire homogène associé à (S) ou système linéaire sans
second membre associé à (S) le système linéaire AX = 0 d’inconnue X ∈ Kp .

Définition (Rang d’un système linéaire) On appelle rang de (S) le rang de la matrice A.

Théorème (Structure de l’ensemble des solutions d’un système linéaire)


(i) L’ensemble S des solutions du système linéaire homogène associé à (S) est un sous-espace vectoriel de Kp de dimension
p − rg(A).
(ii) Si (S) possède une solution, alors l’ensemble de ses solutions est un sous-espace affine de Kp de direction S.

Démonstration
(i) Par définition, S n’est autre que le noyau de A vue comme application linéaire de Kp dans Kn ; S est donc
un sous-espace vectoriel de Kp . Le théorème du rang nous fournit dim S :
dim S = dim Ker A = dim Kp − rg(A) = p − rg(A).

(ii) Supposons l’existence d’une solution X0 de (S). On montre alors aisément que l’ensemble des solutions de
(S) est l’ensemble X0 + S, sous-espace affine de Kp . 

Définition (Système de Cramer) On dit que (S) est de Cramer si A est inversible (n = p nécessairement).

Théorème (Résolution d’un système de Cramer) Si (S) est de Cramer, (S) admet A−1 B comme unique solution.

Démonstration Résultat déjà démontré dans notre paragraphe sur les matrices inversibles. 

21

Vous aimerez peut-être aussi