Vous êtes sur la page 1sur 12

Christophe Bertault — Mathématiques en MPSI

REPRÉSENTATION MATRICIELLE
DES APPLICATIONS LINÉAIRES

Dans ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p, q . . . désignent des entiers naturels non nuls.

1 RAPPELS SUR LA MATRICE D’UNE FAMILLE DE VECTEURS


DANS UNE BASE

Pour plus de détails, refaites donc un tour du côté de notre précédent chapitre « Structure d’espace vectoriel ».

Définition (Matrice d’une famille finie de vecteurs dans une base finie) x1 xj xj
↓ ↓ ↓
 
Soient E un K-espace vectoriel de dimension finie n, B = (e1 , . . . , en ) a11 · · · a1 j · · · a1p ← e1
une base de E et X = (x 1 , . . . , x p ) une famille finie de vecteurs de E.  . .. .. 
Pour tout j ∈ ¹1, pº on note (a1 j , . . . , an j ) les coordonnées de x j dans  .. . . 
  
B . La matrice ai j 1¶i¶n , notée MatB (X ), est alors appelée matrice  
MatB (X ) =  ai1 · · · ai j ··· ai p  ← ei
1¶ j¶p  
de X dans B .  .. .. .. 
 . . . 
an1 · · · an j · · · anp ← en

Coordonnées de x j dans B écrites en colonne

Exemple Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, MatB (x) est tout
simplement la colonne des coordonnées de x dans B .

Théorème (Interprétation vectorielle de l’inversibilité, cas des familles de vecteurs) Soient E un K-espace vectoriel
de dimension finie n, B une base de E et F une famille de n vecteurs de E. Alors F est une base de E si et seulement si
MatB (F ) est inversible.

Rappelons que le rang d’une matrice peut être défini de deux manières — soit comme le rang de la famille de ses colonnes,
soit comme le rang de l’application linéaire canoniquement associée.


Théorème (Rang d’une famille de vecteurs, rang d’une matrice associée) Soient E 6= 0 E un K-espace vectoriel
€ Š
de dimension finie, B une base de E et X une famille finie de vecteurs de E. Alors : rg(X ) = rg MatB (X ) .

 En pratique  Tout rang d’une famille de vecteurs peut donc être calculé comme le rang d’une matrice grâce à
l’algorithme du pivot.

Démonstration Introduisons les vecteurs de B et X : B = (e1 , . . . , en ) et X = (x 1 , . . . , x p ), ainsi que


X n
les colonnes C1 , . . . , C p de MatB (X ) et ϕ l’isomorphisme (λi )1¶i¶n 7−→ λi ei de Kn sur E.
i=1
Pour tout j ∈ ¹1, pº : ϕ(C j ) = x j , donc ϕ est un isomorphisme de Vect(C1 , . . . , C p ) sur Vect(X ),
Vect(C1 ,...,C p )
€ Š
donc : rg(X ) = dim Vect(X ) = dim Vect(C1 , . . . , C p ) = rg(C1 , . . . , C p ) = rg MatB (X ) . „

1
Christophe Bertault — Mathématiques en MPSI

2 MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES

f (e1 ) f (e j ) f (e p )
Définition (Matrice d’une application linéaire dans des bases finies)
↓ ↓ ↓
Soient E et F deux K-espaces vectoriels de di-  
mensions respectives p et n, B = (e1 , . . . , e p ) une a11 · · · a1 j · · · a1p ← f1
base de E, C = ( f1 , . . . , f n ) une base de F et  . .. .. 
 .. . . 
f ∈ L (E, F ). On appelle matrice de f dans B et   

C et on note MatB,C ( f ) la matrice de la famille Mat B,C ( f ) = Mat C f (B ) =  a i1 · · · a i j · · · a i p  ← fi
€ Š  
 .. .. .. 
f (B ) = f (e1 ), . . . , f (e p ) dans la base C .  . . . 
Si : E = F et B = C, la matrice an1 · · · an j · · · anp ← fn
MatB,B ( f ) est simplement notée MatB ( f ). Coordonnées de f (e j ) dans B
écrites en colonne

 Explication  On connaît tout d’une application linéaire quand on connaît la valeur qu’elle prend sur une base,
donc on connaît tout d’une application linéaire quand on connaît sa matrice dans deux bases données. Un exercice peut
ainsi commencer
  sans la moindre ambiguïté de la manière suivante : « On note f l’endomorphisme de R2 [X ] de matrice
1 0 2
3 1 4 dans la base canonique. » Il faut alors comprendre que : f (1) = 3X + 1, f (X ) = 4X 2 + X
0 4 5 
et f X 2 = 5X 2 + 4X + 2.

Exemple Si E est un K-espace vectoriel de dimension finie n et si B est une base de E : MatB (Id E ) = I n .

Exemple On note T l’endomorphisme P 7−→ X 2 P ′′ + P(1) de R3 [X ] et B3 la base canonique de R3 [X ].


 
1 1 1 1
0 0 0 0
Alors : MatB3 (T ) =  .
0 0 2 0
0 0 0 6
 
Démonstration T (1) = 1, T (X ) = 1, T X 2 = 2X 2 + 1 et T X 3 = 6X 3 + 1.

Théorème (Matrice dans les bases canoniques de l’application linéaire canoniquement associée à une matrice)
Soit A ∈ Mn,p (K). Si on note Ab l’application linéaire canoniquement associée à A et B p et Bn les bases canoniques

p n
respectives de K et K , alors : A = MatBp ,Bn A b .

Démonstration Réfléchissez, il suffit d’appliquer scrupuleusement la définition. Ce petit résultat doit couler
dans vos veines. „
 
1 0 € Š
Exemple On note ϕ l’application linéaire canoniquement associée à la matrice  1 1, B2′ la famille (0, 1), (1, 0)
−1 1
€ Š
′ ′ ′
et B3 la famille (1, 1, 1), (1, 1, 0), (1, 0, 0) . Ces familles B2 et B3 sont alors respectivement des bases de R2 et R3 , et :
 
1 −1
MatB2′ ,B3′ (ϕ) =  0 2 . Conclusion naturelle : si on change les bases, on change la matrice !
−1 0

Démonstration

‹
0 1
• La famille B2′ est une base de R2 car sa matrice dans la base canonique est inversible — d’in-
1 0
 
1 1 1
verse elle-même. Même idée pour B3′ , sa matrice 1 1 0 dans la base canonique est inversible car
1 0 0
triangulaire à coefficients diagonaux non nuls après échange de ses première et troisième colonne.

2
Christophe Bertault — Mathématiques en MPSI

 
1 0  ‹
0
• Ensuite : ϕ(0, 1) =  1 1 = (0, 1, 1) = (1, 1, 1) − (1, 0, 0).
1
−1 1
De même : ϕ(1, 0) = (1, 1, −1) = −(1, 1, 1) + 2(1, 1, 0). Les coordonnées de ϕ(0, 1) dans B3′ sont donc
(1, 0, −1) et celles de ϕ(1, 0) sont (−1, 2, 0). C’est le résultat voulu.

Théorème (Rang d’une application linéaire, rang d’une matrice associée) Soient E et€F deux K-espaces Š vectoriels
de dimension finie, B une base de E, C une base de F et f ∈ L (E, F ). Alors : rg( f ) = rg MatB,C ( f ) .

 En pratique  Tout rang d’une application linéaire peut donc être calculé comme le rang d’une matrice grâce à
l’algorithme du pivot.

Démonstration D’après le théorème analogue pour les familles de vecteurs :


€ Š € Š  
rg MatB,C ( f ) = rg MatC f (B ) = rg f (B ) = dim Vect f (B ) = dim Im f = rg( f ). „

 
Théorème (Calcul matriciel de l’image d’un vecteur par une application linéaire) Soient E 6= 0 E et F 6= 0 F
deux K-espaces vectoriels de dimension finie, B une base de E, C une base de F , u ∈ L (E, F ) et x ∈ E.

Alors : MatC u(x) = MatB,C (u) × MatB (x).

 Explication  L’ÉVALUATION pour une application linéaire se traduit matriciellement en termes de PRODUIT.

Démonstration Introduisons les vecteurs de B et C : B = (e1 , . . . , e p ) et C = ( f1 , . . . , f n ), ainsi que


les coordonnées de x dand B : X = MatB (x) et la matrice de u dans les bases B et C : U = MatB,C (u).
! !
Xp Xp p
X X
n X
n X p
u(x) = u x jej = x j u(e j ) = xj ui j f i = ui j x j f i ,
j=1 j=1 j=1 i=1 i=1 j=1
!
p
X p
X
donc les coordonnées de u(x) dans C sont u1 j x j , . . . , un j x j , i.e. le produit MatB,C (u) × MatB (x). „
j=1 j=1

 
3 3 6
Exemple On note f l’endomorphisme de R2 [X ] de matrice 0 1 2 dans la base canonique.
0 2 4
 
2 2
Alors : Im f = Vect 3, 2X + X et Ker f = Vect X − 2X .
Démonstration Pour commencer :
€ Š   
Im f = Vect f (1), f (X ), f X 2 = Vect 3, 2X 2 + X + 3, 4X 2 + 2X + 6 = Vect 3, 2X 2 + X + 3 = Vect 3, 2X 2 + X .
    
3 3 6 c 0
Ensuite, pour tout P = aX 2 +bX +c ∈ R2 [X ] : P ∈ Ker f ⇐⇒ f (P) = 0 ⇐⇒ 0 1 2  b = 0
 0 2 4 a 0
 3c + 3b + 6a = 0 L1 ←L1 −3L2
⇐⇒ b + 2a = 0 ⇐⇒ c = 0 et b = −2a ⇐⇒ P = aX 2 −2aX .
 2b + 4a = 0

Conclusion : Ker f = Vect X 2 − 2X .

$ ATTENTION ! $ Deux remarques sur l’exemple précédent.


• Les coordonnées de aX 2 + bX + c dans la base canonique de R2 [X ] sont (c, b, a) ET NON PAS (a, b, c).
• On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier€ à la fin de
Š l’exemple précédent
de réincarner le résultat dans le monde vectoriel R3 [X ]. La réponse : Ker R = Vect (0, −2, 1) n’est pas correcte.

3
Christophe Bertault — Mathématiques en MPSI

Théorème (Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)
(i) Soient E et F deux K-espaces vectoriels de dimensions finies respectives p et n, B une base de E et C une base
de F . L’application f 7−→ MatB,C ( f ) est un isomorphisme de L (E, F ) sur Mn,p (K).
(ii) Soient E, F, G trois K-espaces vectoriels de dimensions finies non nulles de bases respectives B , C , D et
f ∈ L (E, F ) et g ∈ L (F, G). Alors : MatB,D (g ◦ f ) = MatC ,D (g) × MatB,C ( f ).
(iii) Soient E et F deux K-espaces vectoriels de MÊMES DIMENSIONS finies non nulles, B une base de E, C une base
de F et f ∈ L (E, F ). Alors f est un isomorphisme de E sur F si et seulement si MatB,C ( f ) est inversible.
 € Š−1
Dans ce cas, en outre : MatC ,B f −1 = MatB,C ( f ) .

 Explication 
• En résumé, l’assertion (i) exprime deux choses :
— une propriété de linéarité : MatB,C (λ f + µg) = λ MatB,C ( f ) + µ MatB,C (g) avec des notations évidentes,
— une propriété de bijectivité déjà mentionnée informellement plus haut — on connaît entièrement f quand on
connaît MatB,C ( f ).
Elle relie aussi en passant deux résultats bien connus : dim Mn,p = np et dim L (E, F ) = dim E × dim F .
• L’assertion (ii) montre que le PRODUIT est aux matrices ce que la COMPOSITION est aux applications linéaires. Nous
connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.

Démonstration Vous démontrerez seuls l’assertion (i).


  (ii) Introduisons les vecteurs de B : B = (e1 , . . . , en ). Pour tout j ∈ ¹1, nº :
0
 
 ..  MatB,D (g◦ f )×MatB (e j ) = MatD g◦ f (e j ) = MatC ,D (g)×MatC f (e j ) = MatC ,D (g)×MatB,C ( f )×MatB (e j ),
.
 
MatB (e j ) = 1
. mais n’oublions pas que MatB (e j ) est le j ème vecteur de la base canonique de Kn . Nous venons donc
.
position j . de montrer que MatB,D (g ◦ f ) et MatC ,D (g) × MatB,C ( f ) ont les mêmes j èmes colonnes, et ce pour tout
0 j ∈ ¹1, nº. Comme voulu : MatB,D (g ◦ f ) = MatC ,D (g) × MatB,C ( f ).

(iii) Si f est bijective et si on pose n = dim F : MatB,C ( f ) × MatC ,B f −1 = MatC (Id F ) = I n , donc

MatB,C ( f ) est inversible d’inverse MatC ,B f −1 .
Réciproquement, si A = MatB,C ( f ) est inversible, notons g l’unique application linéaire de F dans E pour
laquelle : MatC ,B (g) = A−1 . Aussitôt : MatB (g ◦ f ) = MatC ,B (g) × MatB,C ( f ) = A−1 A = I n et :
MatC ( f ◦ g) = I n , donc : g ◦ f = Id E et f ◦ g = IdF , et enfin f est bijective de E sur F . „

 
0 0 1 −1
−1 1 1 −1
Exemple L’endomorphisme ω de R3 [X ] dont la matrice dans la base canonique de R3 [X ] est Ω =  est
0 2 1 −2
−1 2 1 −2
 
la symétrie par rapport à Vect X 3 + X 2 + X , X 2 + 1 parallèlement à Vect X 3 + X + 1, X 3 + X 2 .
Démonstration
• Par définition, ω est linéaire. Montrer que c’est une symétrie revient donc à montrer que : ω2 = IdR3 [X ] ,
ou encore matriciellement que : Ω2 = I4 — ce qui est très facile à vérifier.

• Cherchons le sous-espace vectoriel de R3 [X ] par rapport auquel θ est une symétrie : Ker ω − IdR3 [X ] .

Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X ] : P ∈ Ker ω − IdR3 [X ] ⇐⇒ ω(P) = P
    
d d  b − a = d

c c − d + c + b − a = c
⇐⇒ Ω  =   ⇐⇒
b b  2c + b − 2a = b

a a − d + 2c + b − 2a = a

 − d + b − a = 0
 §
− d + b − a = 0 − d + b − a = 0
⇐⇒ ⇐⇒
 c − a = 0 c − a = 0

− d + 2c + b − 3a = 0

4
Christophe Bertault — Mathématiques en MPSI


 a = λ
  
b = λ+µ
⇐⇒ ∃ λ, µ ∈ R/ Ainsi : Ker ω − IdR3 [X ] = Vect X 3 + X 2 + X , X 2 + 1 .
 c = λ

d = µ.
 
• On montre de la même manière que : Ker ω + IdR3 [X ] = Vect X 3 + X + 1, X 3 + X 2 .

Définition-théorème (Condition nécessaire et suffisante d’inversibilité d’une matrice de Vandermonde) Soient


x 1 , . . . , x n ∈ K.  
1 x 1 x 12 · · · x 1n−1
1 x 2 x 22 · · · x 2n−1 
€ Š  
= 
j−1
On appelle matrice de Vandermonde de x 1 , . . . , x n la matrice : xi  .. .. .. .. .
1¶i, j¶n
. . . . 
Cette matrice est inversible si et seulement si les scalaires x 1 , . . . , x n sont distincts. 1 xn x n2 · · · x nn−1

Démonstration
• Si deux des scalaires x 1 , . . . , x n sont égaux, leur matrice de Vandermonde possède deux lignes égales, donc
n’est pas inversible.
€ Š
• Réciproquement, supposons x 1 , . . . , x n distincts et notons ϕ l’application linéaire P 7−→ P(x 1 ), . . . , P(x n )
de Kn−1 [X ] dans Kn . Cette application est injective car pour tout P ∈ Ker ϕ : P(x 1 ) = . . . = P(x n ) = 0,
donc le polynôme P possède n racines distinctes alors qu’il est de degré au plus n − 1 — ainsi P = 0. Or :
dim Kn−1 [X ] = n = dim Kn , donc son injectivité fait de ϕ un isomorphisme de Kn−1 [X ] sur Kn .
En particulier, la matrice de ϕ dans la base canonique de Kn−1 [X ] au départ et la base canonique de
Kn à l’arrivée est inversible d’après le théorème précédent, or cette matrice est exactement la matrice de
Vandermonde de x 1 , . . . , x n . „

 Explication  (Interprétation géométrique des blocs) Soient E un K-espace vectoriel, F et G deux sous-espaces
vectoriels supplémentaires de E de dimensions respectives p et q et B = (e1 , . . . , e p+q ) une base de E adaptée à la décompo-
sition : E = F ⊕ G. Pour rappel, cela signifie que (e1 , . . . , e p ) est une base de F et (e p+1 , . . . , e p+q ) une base de G.
 ‹
A C
Soit f ∈ L (E). La matrice de f dans B s’écrit : MatB ( f ) = pour certaines matrices A ∈ M p (K), B ∈ Mq,p (K),
B D
C ∈ M p,q (K) et D ∈ Mq (K). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocs
A, B, C et D peuvent être interprétés géométriquement.
• À quelle condition a-t-on : B=0 ?
B=0 ⇐⇒ ∀ j ∈ ¹1, pº, f (e j ) ∈ Vect(e1 , . . . , e p ) ⇐⇒ ∀x ∈ F, f (x) ∈ F ⇐⇒ F est stable par f .
€ Š
Dans ces conditions, la restriction f F
est un endomorphisme de F , et de plus : A = Mat(e1 ,...,ep ) f F
.

• À quelle condition a-t-on : B = C = 0 ? Comme au point précédent : B = C = 0 si et seulement si F et G


sont tous les deux stables par f . Dans ces conditions, les restrictions f F et f G sont des endomorphismes de F et G
€ Š € Š
respectivement, et de plus : A = Mat(e1 ,...,ep ) f F et D = Mat(ep+1 ,...,ep+q ) f G .

Exemple Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E de dimensions respec-
tives q et r et B une base de E adaptée à la décomposition : E = F ⊕ G. Notons
‹ p la projection sur
 F parallèlement
‹ àG
Iq Iq
et s la symétrie par rapport à F parallèlement à G. Alors : MatB (p) = et MatB (s) = .
0r −I r
Démonstration Introduisons les vecteurs de B : B = (e1 , . . . , eq+r ). Par définition d’une projection :
∀i ∈ ¹1, qº, p(ei ) = ei et ∀ j ∈ ¹q + 1, q + rº, p(e j ) = 0 E ,
et par définition d’une symétrie : ∀i ∈ ¹1, qº, s(ei ) = ei et ∀ j ∈ ¹q + 1, q + rº, s(e j ) = −e j .
Le résultat en découle.

L’exemple qui suit est emblématique de nombreux exercices. En dimension finie, on peut calculer la matrice d’un endo-
morphisme dans n’importe quelle base, mais n’y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus joli que
dans d’autres ? L’étude de cette question est une branche de l’algèbre linéaire que vous étudierez davantage en deuxième
année, appelée réduction. Réduire un endomorphisme, c’est trouver une base dans laquelle sa matrice est jolie — par exemple
diagonale, triangulaire, pleine de zéros. . .

5
Christophe Bertault — Mathématiques en MPSI

Exemple Soient E un K-espace vectoriel de dimension 3 et f∈ L (E). On


 suppose que : f 2 = 0L (E) mais f 6= 0L (E) .
0 0 1
Dans une certaine base de E, f a pour matrice : 0 0 0.
0 0 0
Démonstration  
0 0 1
• Analyse : Soit (e1 , e2 , e3 ) une base de E. On suppose que : Mat(e1 ,e2 ,e3 ) ( f ) = 0 0 0, i.e. que :
0 0 0
f (e1 ) = f (e2 ) = 0 E et f (e3 ) = e1 . Nous en tirons trois choses, d’abord que (e1 , e2 ) est une famille
libre de Ker f , ensuite que : e3 ∈ / Ker f , et enfin que e3 devra être défini AVANT e1 dans la synthèse
puisque : e1 = f (e3 ).
• Synthèse : Commençons par calculer dim Ker f . Par hypothèse : f 2 = 0L (E) ,
Im f ⊂ Ker f , donc :
3
donc d’après le théorème du rang : dim E − dim Ker f ¶ dim Ker f , i.e. : dim Ker f ¾ . Or
2
n’oublions pas que : f 6= 0L (E) , donc : dim Ker f < dim E = 3. Conclusion : dim Ker f = 2.
Donnons-nous à présent un vecteur quelconque e3 de E \ Ker f et posons : e1 = f (e3 ). Clairement :
e1 ∈ Ker f \ 0 E car : f 2 = 0L (E) et e3 ∈ / Ker f . Complétons alors la famille libre (e1 ) de Ker f
en une base (e1 , e2 ) de Ker f . La famille (e1 , e2 , e3 ) est libre car : e3 ∈
/ Ker f ,  donc estune base de E
0 0 1
car : dim E = 3. En outre, tout a été fait pour qu’on ait : Mat(e1 ,e2 ,e3 ) ( f ) = 0 0 0.
0 0 0

3 CHANGEMENTS DE BASES, ÉQUIVALENCE ET SIMILITUDE

3.1 CHANGEMENTS DE BASES


Définition-théorème (Matrice de passage d’une base à une autre) Soient E 6= 0 E un K-espace vectoriel de
dimension finie et B , B ′ et B ′′ trois bases de E.

On appelle matrice de passage de B à B ′ la matrice : MatB (B ′ ) = MatB ′ ,B (Id E ) B
souvent notée PB .
′ ′ ′′ ′′
B B B B B
Alors : (i) PB est inversible d’inverse PB ′. (ii) PB PB ′ = PB .

Démonstration
′ ′ −1
€ Š−1  Id−1 =IdE
B B
= MatB,B ′ Id−1 B
E
(i) PB est la matrice d’un isomorphisme : PB = MatB ′ ,B (Id E ) E = PB ′.

′ ′′ ′′
B B B
(ii) PB PB ′ = MatB ′ ,B (Id E ) × MatB ′′ ,B ′ (Id E ) = MatB ′′ ,B (Id E ◦ Id E ) = MatB ′′ ,B (Id E ) = PB . „


Théorème (Changement de base pour un vecteur) Soient E 6= 0 E un K-espace vectoriel de dimension finie et B
B′
et B ′ deux bases de E. On pose : P = PB . Pour tout x ∈ E de coordonnées X dans B et X ′ dans B ′ : X = PX ′ .

Démonstration L’égalité : x = IdE (x) s’écrit matriciellement dans les bases adaptées : X = PX ′ . „

¨ −
 u→ = cos θ −
→ı + sin θ −
→
Soit θ ∈ R fixé. Notons B = −
→ı ,−
→ θ
Exemple  la base canonique de R2 et posons : −→ −
→ −

v θ = − sin θ ı + cos θ .
2
On définit ainsi une base Bθ de R .
 ‹  ′‹

→ 2 −
→ x ′ x
En outre, soit u = (x, y) ∈ R . Les coordonnées de u dans B sont bien sûr X = . Si nous notons X = les
y y′
§ ′ ′ § ′
x = x cos θ − y sin θ x = x cos θ + y sin θ
coordonnées de − →
u dans la base Bθ : et
y = x ′ sin θ + y ′ cos θ y ′ = −x sin θ + y cos θ .

6
Christophe Bertault — Mathématiques en MPSI

Démonstration  ‹

→ −
→ cos θ − sin θ
vθ  − • D’abord : MatB (Bθ ) = , matrice de déterminant : cos2 θ + sin2 θ = 1 6= 0 donc
u→
θ
sin θ cos θ
inversible. Comme voulu, Bθ est une base de R2 .
 ‹  ‹

→ B cos θ − sin θ cos θ − sin θ
ı • Ensuite, sachant que PB θ = : X= X ′ . Pour l’autre formule, simple-
sin θ cos θ sin θ cos θ
  ‹
Bθ B Bθ −1 cos θ sin θ
ment calculer l’inverse de PB : PB = PB = .
θ − sin θ cos θ

 
Théorème (Changement de bases pour une application linéaire) Soient E 6= 0 E et F 6= 0 F deux K-espaces
vectoriels de dimension finie, B et B ′ deux bases de E, C et C ′ deux bases de F et f ∈ L (E, F ).
B′ ′
On pose : P = PB , Q = PCC , A = MatB,C ( f ) et A′ = MatB ′ ,C ′ ( f ). Alors : A′ = Q−1 AP.

 Explication  Il est important de se donner des mots pour décrire chacune des données IdE , P
E, B ′ E, B
de cet énoncé. Tout simplement, E est l’espace de départ de f , F son espace d’arrivée, B et C sont
les « anciennes » bases, i.e. les bases avant changement de bases, et B ′ et C ′ les « nouvelles » bases,
i.e. les bases après changement. Départ/arrivée/ancien/nouveau ! f , A′ f,A

Démonstration Le diagramme ci-contre peut presque tenir lieu de preuve. L’égalité :


f ◦ Id E = Id F ◦ f s’écrit matriciellement : AP = QA′ , i.e. : A′ = Q−1 AP. „ F, C ′ F, C
IdF , Q

$ ATTENTION ! $ Il y a DEUX formules de changement de bases, une pour les vecteurs et une pour les applications
linéaires, merci de ne pas les confondre !

Théorème (Changement de bases et matrice J r ) Soient E et F deux K-espaces vectoriels de dimensions respectives
p et n et f ∈ L (E, F ) de rang r. Alors pour une certaine base B de E et une certaine base C de F : MatB,C ( f ) = J r ,
 ‹
I 0
où J r est la matrice de taille n × p suivante : J r = r .
0 0

Démonstration Soient B = (ei )1¶ j¶p une base de E et C = ( f i )1¶i¶n une base de F . Est-il possible d’imposer
à ces bases que la matrice de f y soit J r ?
• Pour que les p − r dernières colonnes de MatB,C ( f ) soient nulles, il faut et il suffit que les vecteurs
e r+1 , . . . , e p soient éléments de Ker f et linéairement indépendants. Comme Ker f est de dimension p − r
d’après le théorème du rang, nous n’avons qu’à choisir pour famille (e j ) r+1¶ j¶p une base de Ker f et la
compléter simplement en une base B de E.
• Pour que les r premières colonnes de MatB,C ( f ) soient ce qu’on veut, on peut poser : f j = f (e j ) pour
tout j ∈ ¹1, rº, puis compléter en une base C de F , MAIS CE N’EST POSSIBLE QUE SI LA FAMILLE ( f j )1¶ j¶r
EST LIBRE . Or la famille (e j )1¶ j¶r engendre par construction un supplémentaire I de Ker f dans E, donc
€ Š
f I est un isomorphisme de I sur Im f . La famille ( f j )1¶ j¶r = f (e j ) est ainsi libre.
1¶ j¶r
Ces deux points garantissent bien l’existence de deux bases B et C pour lesquelles : MatB,C ( f ) = J r . „

3.2 MATRICES ÉQUIVALENTES

Définition-théorème (Matrices équivalentes)


• Soient A, B ∈ Mn,p (K). On dit que B est équivalente à A s’il existe deux matrices P ∈ GL p (K) et Q ∈ GLn (K)
inversibles pour lesquelles : B = Q−1 AP.
• Premier exemple fondamental : Si, à partir d’une matrice A ∈ Mn,p (K), on obtient une matrice B après un
certain nombre d’opérations élémentaires, les matrices A et B sont équivalentes.
 
• Deuxième exemple fondamental : Soient E 6= 0 E et F 6= 0 F deux K-espaces vectoriels de dimension finie,
B et B ′ deux bases de E, C et C ′ deux bases de F et f ∈ L (E, F ). Les matrices MatB,C ( f ) et MatB ′ ,C ′ ( f ) sont
alors équivalentes.

7
Christophe Bertault — Mathématiques en MPSI

Démonstration Pour le premier exemple fondamental, se souvenir du fait que les opérations élémentaires
peuvent être vues comme des multiplications par des matrices inversibles. Le deuxième exemple fondamental
n’est qu’une reformulation du théorème de changement de base pour une application linéaire. „

Théorème (Propriétés de la relation d’équivalence)


(i) Relation d’équivalence : La relation d’équivalence sur Mn,p (K) est une. . . relation d’équivalence — mais pas
dans le même sens !
(ii) Caractérisation par le rang : Deux matrices de Mn,p (K) sont équivalentes si et seulement si elles ont le même
rang. Cela revient aussi à dire que toute matrice de Mn,p (K) de rang r est équivalente à J r .

Démonstration
(i) Soient A, B, C ∈ Mn,p (K).
Réflexivité : A est équivalente à A car I p et I n sont inversibles et : A = I n−1 AI p .
Symétrie : Si B est équivalente à A, i.e. : B = Q−1 AP pour certaines matrices P ∈ GL p (K) et Q ∈ GLn (K),
−1 −1
−1
alors P et Q sont inversibles et : A = Q−1 BP −1 , donc A est équivalente à B.
Transitivité : Si B est équivalente à A et C équivalente à B, i.e. : B = Q−1 AP et C = Q′−1 BP ′ pour
certaines matrices P, P ′ ∈ GL p (K) et Q, Q′ ∈ GLn (K), alors P P ′ et QQ′ sont inversibles et :

C = Q′−1 BP ′ = Q′−1Q−1 AP P ′ = (QQ′ )−1 A(P P ′ ), donc C est équivalente à A.


(ii) Soit A ∈ Mn,p (K) de rang r. Notons A b l’application linéaire canoniquement associée à A et Bn et B p
les bases canoniques respectives de K et K p . D’après un théorème précédent : MatB,C (A) = J r pour
n
B C
certaines bases B de K p et C de Kn , donc si on pose : P = PB et Q = PB , alors : J r = Q−1 AP,
p n
donc en effet A et J r sont équivalentes. „

Le résultat qui suit n’est pas tout à fait à sa place dans ce paragraphe sur les matrices équivalentes, mais il découle de la
caractérisation précédente.


Théorème (Invariance du rang par transposition) Pour tout A ∈ Mn,p (K) : rg t A = rg(A).

Démonstration D’après le théorème précédent, A est équivalente à J r pour : r = rg(A), donc par simple
transposition dans la définition, t A est équivalente
 à t J r — attention, J r est de taille n × p tandis que t J r est de
t t
taille p × n. Conclusion : rg A = rg J r = r = rg(J r ) = rg(A). „

La définition et les résultats qui suivent n’ont rien à voir avec les matrices équivalentes, mais ils requièrent l’invariance
du rang par transposition, donc nous ne pouvions pas les énoncer jusqu’ici.

Définition-théorème (Matrices extraites) Soient A ∈ Mn,p (K).  


ai1 j1 · · · ai1 jp′
 . .. 
(i) Définition : On appelle matrice extraite de A toute matrice de la forme  .. .  où i1 , . . . , in′ , j1 , . . . , jp′
ain′ j1 · · · ain′ jp′
sont des entiers tels que : 1 ¶ i1 < . . . < in′ ¶ n et 1 ¶ j1 < . . . < jp′ ¶ p.
(ii) Rang d’une matrice extraite : Pour toute matrice B extraite de A : rg(B) ¶ rg(A).
(iii) Caractérisation du rang par les matrices carrées extraites : Le rang de A est la taille maximale des matrices
inversibles qu’on peut extraire de A.

Démonstration
(ii) La matrice B est obtenue à partir de A par supression d’un certain nombre de lignes et de colonnes. Notons
B ′ la matrice intermédiaire obtenue quand on supprime seulement les colonnes. On passe de A à B ′ par
une suppression de colonnes, puis de B ′ à B par une suppression de lignes. Le rang d’une matrice étant par
définition le rang de la famille de ses colonnes : rg(A) ¾ rg(B ′ ) = rg t B ′ ¾ rg t B = rg(B).

8
Christophe Bertault — Mathématiques en MPSI

(iii) Il nous suffit d’établir l’équivalence suivante — avec r ∈ N∗ :

rg(A) ¾ r ⇐⇒ On peut extraire de A une matrice inversible de taille r.

• Si on peut extraire de A une matrice inversible de taille r : rg(A) ¾ r d’après (ii).


• Réciproquement, supposons : rg(A) ¾ r. On peut donc extraire de la famille des colonnes de A
une famille libre de r vecteurs, ce qui revient à dire matriciellement que nous pouvons extraire de A
une matrice B ∈ Mn,r (K) de rang r par suppression de certaines colonnes. Par le même raisonnement,
nous pouvons extraire de t B une matrice C ∈ M r (K) de rang r par suppression de certaines colonnes
— i.e. par suppression de certaines lignes de B. La matrice t C est finalement une matrice extraite de A
inversible de taille r. „

 
 ‹ 1 4 7 10
4 10
Exemple La matrice est extraite de 2 5 8 11 — on a retenu les lignes 1 et 2 et les colonnes 2 et 4.
5 11
3 6 9 12
   
1 1 2 0
3 1 0
2 3 1 0
Exemple rg  ¾3 car la matrice extraite 0 3 1 est inversible — pourquoi, d’ailleurs ?
1 0 3 1
0 0 2
3 0 0 2

3.3 MATRICES SEMBLABLES ET TRACE D ’UN ENDOMORPHISME

Définition-théorème (Matrices semblables)


• Soient A, B ∈ Mn (K). On dit que B est semblable à A (sur K) s’il existe une matrice P ∈ GLn (K) inversible pour
laquelle : B = P −1 AP.
• Exemple fondamental : Soient E un K-espace vectoriel de dimension finie, B et B ′ deux bases de E et f ∈ L (E).
Les matrices MatB ( f ) et MatB ′ ( f ) sont alors semblables.


B
Démonstration Dans l’exemple fondamental, si on pose : P = PB , alors : MatB ′ ( f ) = P −1 MatB ( f )P
par changement de base. „

$ ATTENTION ! $ On a vite fait de confondre équivalence et similitude. La relation de similitude N’est définie QUE
pour des matrices CARRÉES, et dans son exemple fondamental, on travaille avec des ENDOmorphismes et on a les MÊMES
BASES AU DÉPART ET À L’ARRIVÉE — donc deux bases B et B ′ au lieu des quatre B , C , B ′ et C ′ de l’équivalence.

Théorème (Propriétés de la relation de similitude)


(i) Relation d’équivalence : La relation de similitude sur Mn (K) est une relation d’équivalence.
(ii) Invariance de la trace par similitude : Deux matrices semblables de Mn (K) ont même trace.

Démonstration
(i) Reprendre la preuve du résultat analogue pour les matrices équivalentes.
(ii) Soient A, B ∈ Mn (K). Si A et B sont semblables, i.e. : B = P −1
 AP pour une  certaine matrice P ∈ GLn (K),
alors d’après les propriétés de la trace : tr(B) = tr P −1 (AP) = tr (AP)P −1 = tr(A). „

     
0 1 1 1 0 0 0 4 2
Exemple Les matrices 0 0 0, 1 0 1 et 0 0 0 sont semblables.
0 0 1 0 0 0 0 0 1

9
Christophe Bertault — Mathématiques en MPSI

3 3
Démonstration  Notons  (e1 , e2 , e3 ) la base canonique de R et f l’endomorphisme de R canoniquement associé
0 1 1
à la matrice 0 0 0. Comme : f (e1 ) = (0, 0, 0), f (e2 ) = e1 et f (e3 ) = e1 + e3 , la matrice de f

0 0 1
     
1 0 0 0 1 1 1 0 0
dans la base (e3 , e1 , e2 ) est 1 0 1, donc les matrices 0 0 0 et 1 0 1 sont semblables.
0 0 0 0 0 1 0 0 0
De la même manière : f (e1 ) = (0,  0, 0), f (4e 2 ) = 4e 1 et f (2e
 3 ) = +
 1 2e3 ,  donc la matrice de f dans
2e
0 4 2 0 1 1 0 4 2
la base (e1 , 4e2 , 2e3 ) est 0 0 0, donc les matrices 0 0 0 et 0 0 0 sont semblables.
0 0 1 0 0 1 0 0 1


Définition (Trace d’un endomorphisme en dimension finie) Soit E 6= 0 E un K-espace vectoriel de dimension finie.
• Définition : Soit f ∈ L (E). La trace de la matrice MatB ( f ) ne dépend pas du choix de la base B de E choisie.
On l’appelle trace de f , notée tr( f ) ou Tr( f ).
• Linéarité : Pour tous f , g ∈ L (E) et λ, µ ∈ K : tr(λ f + µg) = λtr( f ) + µtr(g).
• Effet sur une composée : Pour tous f , g ∈ L (E) : tr( f ◦ g) = tr(g ◦ f ).

Démonstration Il nous suffit de justifier la définition. Or pour toutes bases B et B ′ de E, les matrices MatB ( f )
et MatB ′ ( f ) étant semblables, nous venons de voir qu’elles ont même trace. „

Exemple Soient E un K-espace vectoriel de dimension finie et p un projecteur de E. Alors : tr(p) = rg(p).
Démonstration Nous avons vu dans un précédent exemple que si B est une base de E adaptée à la
 décompo-‹
I
sition : E = Im p ⊕ Ker p et si on pose : n = dim E et r = rg(p), alors : MatB (p) = r .
0n−r
€ Š  ‹
I
A fortiori : tr(p) = tr MatB (p) = tr r = r = rg(p).
0n−r

3.4 INTRODUCTION À LA DIAGONALISATION D ’UNE MATRICE CARRÉE

Les concepts de ce dernier paragraphe ne sont pas au programme de MPSI, il font partie du domaine de la réduction dont
nous avons parlé plus haut et vous les étudierez en deuxième année. Cependant, parce qu’ils apparaissent sous forme cachée
dans de nombreux exercices de première année, je préfère vous les livrer en partie dès maintenant, cela ne pourra que vous
aider à comprendre la logique des exercices en question.
Je me contenterai toutefois de vous initier au point de vue matriciel de la diagonalisation, i.e. à la diagonalisation des
matrices carrées. On peut sans difficulté étendre ce qui suit au cas des endomorphismes en dimension finie.

Définition (Valeurs propres, vecteurs propres, sous-espaces propres d’une  matrice carrée) Soit A ∈ Mn (K). On
appelle valeur propre de A tout scalaire λ ∈ K pour lequel : Ker (A − λI n ) 6= 0 , i.e. pour lequel il existe un vecteur
n
NON NUL X ∈ K tel que : AX = λX .
Un tel vecteur X est alors appelé un vecteur propre de A associé à la valeur propre λ.
Enfin, l’ensemble Ker (A − λI n ) de ces vecteurs propres — vecteur nul en plus — est appelé le sous-espace propre de A
associé à la valeur propre λ.

 
−1 3 3
Exemple On pose : A =  3 −1 −3. La matrice A possède exactement deux valeurs propres, à savoir 2 et −1.
−3 3 5
€ Š € Š
De plus : Ker (A − 2I3 ) = Vect (1, 1, 0), (1, 0, 1) et Ker (A + I3 ) = Vect (1, −1, 1) .

10
Christophe Bertault — Mathématiques en MPSI

Démonstration Il s’agit seulement de résoudre pour tout λ ∈ R le système : AX = λX d’inconnue X ∈ R3 .


Fixons donc un tel λ. Pour tout X = (x, y, z) ∈ R3:
 −(λ + 1)x + 3y + 3z = 0
AX = λX ⇐⇒ (A − λI3 )X = 0 ⇐⇒ 3x − (λ + 1) y − 3z = 0
 −3x + 3y + (5 − λ)z = 0

 −(λ + 1)x + 3y + 3z = 0
⇐⇒ (2 − λ)x + (2 − λ) y = 0 L2 ← L1 + L2
 −3x + 3y + (5 − λ)z = 0.

Du coup, si λ = 2, la deuxième équation disparaît :


§
−3x + 3y+ 3z = 0
AX = 2X ⇐⇒ ⇐⇒ x = y + z.
−3x + 3y+ 3z = 0
¦ © € Š
Conclusion : Ker (A − 2I3 ) = ( y + z, y, z) = Vect (1, 1, 0), (1, 0, 1) . À présent, si λ 6= 2 :
y,z∈R

 −(λ + 1)x + 3y + 3z = 0
AX = λX ⇐⇒ x + y = 0
 −3x + 3y + (5 − λ)z = 0

 −(λ + 4)x + 3z = 0 L 1 ← L 1 − 3L 2
⇐⇒ x + y = 0
 −6x + (5 − λ)z = 0 L 3 ← L 3 − 3L 2

 −(λ + 4)x + 3z = 0
⇐⇒ x + y = 0
 2 + λ − λ2  x = 0 L 3 ← 3L 3 − (5 − λ)L 1

 −(λ + 4)x + 3z = 0
⇐⇒ x + y = 0
 (2 − λ)(λ + 1)x = 0.
§ §
−3x + 3z = 0 y = −x
Finalement, si λ = −1 : AX = −X ⇐⇒ ⇐⇒
x + y = 0 z = x.
€ Š
Conclusion : Ker (A + I3 ) = Vect (1, −1, 1) . Enfin, si : λ 6= 2 et λ 6= −1, le système étudié admet
(0, 0, 0) pour unique solution, donc 2 et −1 sont les seules valeurs propres de A.

Définition-théorème (Matrice diagonalisable) Soit A ∈ Mn (K). On dit que A est diagonalisable (sur K) si Kn possède
une base constituée de vecteurs propres de A.
Dans ce cas, si on note (X 1 , . . . , X n ) une telle base et λ1 , . . . , λn les valeurs propres associées, ainsi que P la matrice de
 
λ1
colonnes X 1 , . . . , X n , alors : A = P  ..  P −1 .
.
λn

Démonstration Faisons l’hypothèse que A est diagonalisable et conservons les notations du théorème, mais
b l’application linéaire canoniquement associée à A et Bn la base canonique de Kn .
notons en outre A
Pour tout i ∈ ¹1, nº, par définition de X i et λi : b i ) = λi X i ,
A(X b i ) dans la base
donc les coordonnées de A(X
 
λ1
 ..
b =
(X 1 , . . . , X n ) sont (0, . . . , 0, λi , 0, . . . , 0). A fortiori : Mat(X 1 ,...,X n ) A . .
λn
(X 1 ,...,X n )  
Or par définition de P : P = PBn b = P −1 MatB A
, donc par changement de base : Mat(X 1 ,...,X n ) A b P,
n
 
λ1
et finalement comme voulu : A = P  ..  P −1 . „
.
λn

   
−1 3 3 (−1)k ak ak
Exemple On pose : A= 3 −1 −3. Pour tout k ∈ N : A =  ak
k
(−1)k −ak  avec : ak = 2k −(−1)k .
k
−3 3 5 −ak ak 2 + ak

11
Christophe Bertault — Mathématiques en MPSI

Démonstration Idée de la preuve : Parce que les puissances d’une matrice diagonale sont très faciles à calculer,
nous allons commencer par montrer que A est diagonalisable.
• Nous avons calculé les valeurs propres et les sous-espaces propres de A dans un exemple précédent. En
l’occurrence, si nous posons : e1 = (1, 1, 0), e2 = (1, 0, 1) et e3 = (1, −1, 1), alors :

Ae1 = 2e1 , Ae2 = 2e2 et Ae3 = −e3 .

Notons à présent P la matrice


 , e3 ) dans la base canonique de R3 . Il n’est pas dur de montrer que P
de (e1 , e2
1 0 −1
est inversible d’inverse −1 1 2 . En particulier, (e1 , e2 , e3 ) est donc une base de R3 , ce qui montre
1 −1 −1
que A est diagonalisable, et P est la matrice de passage de la base canonique à (e1 , e2 , e3 ).
   
2 0 0 2 0 0
Conclusion : A = P 0 2 0  P −1 par changement de base, où 0 2 0  n’est autre que la
0 0 −1 0 0 −1
matrice de l’application linéaire canoniquement associée à A dans (e1 , e2 , e3 ).
   k    
2 0 0 2 0 0 2 0 0
• Finalement, pour tout k ∈ N : Ak =  P 0 2 0  P −1  = P 0 2 0  P −1 ×. . .×P 0 2 0  P −1
0 0 −1 0 0 −1 0 0 −1
 k    
2 0 0 2k 0 0 (−1)k ak ak
= P 0 2 0  −1 
P =P 0 2k 0  −1
P =  ak (−1)k −ak  si on pose : ak = 2k −(−1)k .
0 0 −1 0 0 (−1)k −ak ak k
2 + ak

12