Vous êtes sur la page 1sur 11

Christophe Bertault — Mathématiques en MPSI

REPRÉSENTATION MATRICIELLE
DES APPLICATIONS LINÉAIRES

Dans ce chapitre, K est l’un des corps R ou C et les lettres n, p, q . . . désignent des entiers naturels non nuls. Tous les
résultats présentés demeurent cela dit vrais sur un corps K quelconque.

1 MATRICE D’UNE APPLICATION LINÉAIRE DANS DES BASES

Définition (Matrice d’une application linéaire dans des bases finies) u(e1 ) u(e j ) u(e p )
Soient E et F deux K-espaces vectoriels de di-
mensions respectives p et n, B = (e1 , . . . , e p ) une  
a11 · · · a1 j · · · a1p f1
base de E, C = ( f1 , . . . , f n ) une base de F et
 
b

b
b

b
b

u ∈ L (E, F ). On appelle matrice de u dans B et   


b b b

C et on note MatB,C (u) la matrice de la famille MatB,C (u) = MatC u(B ) =  ai1 · · · ai j · · · aip 

 fi
€ Š  b

b
 b

b
b

u(B ) = u(e1 ), . . . , u(e p ) dans la base C . b b b

an1 ··· an j ··· anp fn


Si : E = F et B = C, la matrice Coordonnées de u(e j ) dans C
MatB,B (u) est simplement notée MatB (u). écrites en colonne

On connaît tout d’une application linéaire quand on connaît la valeur qu’elle prend sur une base, donc quand on connaît
sa matrice dans deux bases données. Un exercice peut ainsi commencer sans la moindre ambiguïté de la manière suivante :
 
1 0 2
« On note f l’endomorphisme de R2 [X ] de matrice 3 1 4 dans la base canonique. » Il faut alors comprendre que :
0 4 5

f (1) = 3X + 1, f (X ) = 4X 2 + X et f X 2 = 5X 2 + 4X + 2.


Exemple Pour tout K-espace vectoriel E de dimension finie n et pour toute base B de E : MatB IdE = I n .

Exemple On note T l’endomorphisme P 7−→ X 2 P ′′ + P(1) de R3 [X ] et B3 la base canonique de R3 [X ].


 
1 1 1 1
Alors : MatB3 (T ) = 0 0 0 0
.
0 0 2 0
0 0 0 6
 
Démonstration T (1) = 1, T (X ) = 1, T X 2 = 2X 2 + 1 et T X 3 = 6X 3 + 1.

Théorème (Matrice dans les bases canoniques de l’application linéaire canoniquement associée à une matrice)
Soit A ∈ Mn,p (K). Si on note A b l’application linéaire canoniquement associée à A et B p et Bn les bases canoniques

respectives de K p et Kn , alors : A = MatBp ,Bn A b .

Démonstration Réfléchissez, il suffit d’appliquer scrupuleusement la définition. Ce petit résultat doit couler
dans vos veines. „

 1 0
€ Š
Exemple On note ϕ l’application linéaire canoniquement associée à la matrice 1 1 , B2′ la famille (0, 1), (1, 0)
€ Š −1 1
et B3′ la famille (1, 1, 1), (1, 1, 0), (1, 0, 0) . Ces familles B2′ et B3′ sont alors respectivement des bases de R2 et R3 , et :
 
1 −1
MatB2′ ,B3′ (ϕ) = 0 2 . En résumé, si on change les bases, on change la matrice !
−1 0

1
Christophe Bertault — Mathématiques en MPSI

Démonstration  
0 1
• La famille B2′ est une base de R2 car sa matrice 1 0 dans la base canonique est inversible — d’inverse
1 1 1
elle-même. Même idée pour B3′ , sa matrice 1 1 0 dans la base canonique est inversible car triangulaire
1 0 0
à coefficients diagonaux non nuls après échange de ses première et troisième colonne.
 
1 0  
0
• Ensuite : ϕ(0, 1) = 1 1 1 = (0, 1, 1) = (1, 1, 1) − (1, 0, 0).
−1 1
De même : ϕ(1, 0) = (1, 1, −1) = −(1, 1, 1) + 2(1, 1, 0). Les coordonnées de ϕ(0, 1) dans B3′ sont donc
(1, 0, −1) et celles de ϕ(1, 0) sont (−1, 2, 0). C’est le résultat voulu.

Théorème (Rang d’une application linéaire, rang d’une matrice associée) Soient E et €F deux K-espaces
Š vectoriels
de dimension finie, B une base de E, C une base de F et u ∈ L (E, F ). Alors : rg(u) = rg MatB,C (u) .

Tout rang d’application linéaire peut donc être calculé comme le rang d’une matrice grâce à l’ALGORITHME DU PIVOT.

Démonstration D’après le théorème analogue pour les familles de vecteurs :


€ Š € Š  
rg MatB,C (u) = rg MatC u(B ) = rg u(B ) = dim Vect u(B ) = dim Im u = rg(u). „

 
Théorème (Calcul matriciel de l’image d’un vecteur par une application linéaire) Soient E 6= 0 E et F 6= 0 F
deux K-espaces vectoriels de dimension finie, B une base de E, C une base de F , u ∈ L (E, F ) et x ∈ E. Alors :

MatC u(x) = MatB,C (u) × MatB (x).

En d’autres termes, l’ÉVALUATION par une application linéaire se traduit matriciellement en termes de PRODUIT.

Démonstration Introduisons les vecteurs de B et C : B = (e1 , . . . , e p ) et C = ( f1 , . . . , f n ), ainsi que


les coordonnées de x dans B : X = MatB (x) et la matrice de u dans les bases B et C : U = MatB,C (u).
! !
p
X Xp p
X X
n X
n X p
u(x) = u x jej = x j u(e j ) = xj ui j f i = ui j x j f i ,
j=1 j=1 j=1 i=1 i=1 j=1
!
p
X p
X
donc les coordonnées de u(x) dans C sont u1 j x j , . . . , un j x j , i.e. le produit MatB,C (u) × MatB (x). „
j=1 j=1

 
3 3 6
Exemple On note f l’endomorphisme de R2 [X ] de matrice 0 1 2 dans la base canonique.
0 2 4
 
Alors : Im f = Vect 1, 2X 2 + X et Ker f = Vect X 2 − 2X .
Démonstration Pour commencer :
€ Š   
Im f = Vect f (1), f (X ), f X 2 = Vect 3, 2X 2 + X + 3, 4X 2 + 2X + 6 = Vect 1, 2X 2 + X + 3 = Vect 1, 2X 2 + X .
3 3 6  c  0
Ensuite, pour tout P = aX 2 + bX + c ∈ R2 [X ] : P ∈ Ker f ⇐⇒ f (P) = 0 ⇐⇒ 0 1 2 b = 0
 0 2 4 a 0
 3c + 3b + 6a = 0 L1 ←L1 −3L2
⇐⇒ b + 2a = 0 ⇐⇒ c = 0 et b = −2a ⇐⇒ P = aX 2 −2aX .
 2b + 4a = 0

Conclusion : Ker f = Vect X 2 − 2X .

$ Attention ! Deux remarques sur l’exemple précédent.


• Les coordonnées de aX 2 + bX + c dans la base canonique de R2 [X ] sont (c, b, a) ET NON PAS (a, b, c).
• On raisonne matriciellement sur un squelette numérique, mais il ne faut pas oublier€ à la fin de
Š l’exemple précédent
de réincarner le résultat dans le monde vectoriel R3 [X ]. La réponse : Ker R = Vect (0, −2, 1) n’est pas correcte.

2
Christophe Bertault — Mathématiques en MPSI

Théorème (Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)
(i) Soient E et F deux K-espaces vectoriels de dimensions finies respectives p et n, B une base de E et C une base
de F . L’application u 7−→ MatB,C (u) est un isomorphisme de L (E, F ) sur Mn,p (K).
(ii) Soient E, F, G trois K-espaces vectoriels de dimensions finies non nulles de bases respectives B , C , D et
u ∈ L (E, F ) et v ∈ L (F, G). Alors : MatB,D (v ◦ u) = MatC ,D (v) × MatB,C (u).
(iii) Soient E et F deux K-espaces vectoriels de MÊMES DIMENSIONS finies non nulles, B une base de E, C une base
de F et u ∈ L (E, F ). Alors u est un isomorphisme de E sur F si et seulement si MatB,C (u) est inversible.
 € Š−1
Dans ce cas, en outre : MatC ,B u−1 = MatB,C (u) .

En résumé, l’assertion (i) exprime deux choses :


— une propriété de linéarité : MatB,C (λu + µv) = λ MatB,C (u) + µ MatB,C (v) avec des notations évidentes,
— une propriété de bijectivité déjà mentionnée informellement — on connaît entièrement f quand on connaît MatB,C (u).
Elle relie aussi en passant deux résultats bien connus : dim Mn,p = np et dim L (E, F ) = dim E × dim F .
L’assertion (ii) montre que le PRODUIT est aux matrices ce que la COMPOSITION est aux applications linéaires. Nous
connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.

Démonstration Vous démontrerez seuls l’assertion (i).


(ii) Introduisons les vecteurs de B : B = (e1 , . . . , en ). Pour tout j ∈ ¹1, nº :
   
0
. MatB,D (v◦u)×MatB (e j ) = MatD v◦u(e j ) = MatC ,D (v)×MatC u(e j ) = MatC ,D (v)×MatB,C (u)×MatB (e j ),
 .. 
  mais n’oublions pas que MatB (e j ) est le j ème vecteur de la base canonique de Kn . Nous venons donc
MatB (e j ) = 1
 .. 
. de montrer que MatB,D (v ◦ u) et MatC ,D (v) × MatB,C (u) ont les mêmes j èmes colonnes, et ce pour tout
position j
0 j ∈ ¹1, nº. Comme voulu : MatB,D (v ◦ u) = MatC ,D (v) × MatB,C (u).
 
(iii) Si u est bijective et si on pose n = dim F : MatB,C (u) × MatC ,B u−1 = MatC Id F = I n , donc

MatB,C (u) est inversible d’inverse MatC ,B u−1 .
Réciproquement, si A = MatB,C (u) est inversible, notons v l’unique application linéaire de F dans E pour
laquelle : MatC ,B (v) = A−1 . Aussitôt : MatB (v ◦ u) = MatC ,B (v) × MatB,C (u) = A−1 A = I n et :
MatC (u ◦ v) = I n , donc : v ◦ u = Id E et u ◦ v = Id F , et enfin u est bijective de E sur F . „

 
0 0 1 −1
 −1 1 1 −1
Exemple L’endomorphisme ω de R3 [X ] dont la matrice dans la base canonique de R3 [X ] est Ω= 0 2 1 −2
est la
 
symétrie par rapport à Vect X 3 + X 2 + X , X 2 + 1 parallèlement à Vect X 3 + X + 1, X 3 + X 2 . −1 2 1 −2

Démonstration
• Par définition, ω est linéaire. Montrer que c’est une symétrie revient donc à montrer que : ω2 = IdR3 [X ] ,
ou encore matriciellement que : Ω2 = I4 — ce qui est très facile à vérifier.

• Cherchons le sous-espace vectoriel de R3 [X ] par rapport auquel ω est une symétrie : Ker ω − IdR3 [X ] .

Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X ] : P ∈ Ker ω − IdR3 [X ] ⇐⇒ ω(P) = P
    
d d  b − a = d

c c − d + c + b − a = c
⇐⇒ Ω  b =  b ⇐⇒
 2c + b − 2a = b
a a 
− d + 2c + b − 2a = a

 − d + b − a = 0
 §
− d + b − a = 0 − d + b − a = 0
⇐⇒ ⇐⇒
 c − a = 0 c − a = 0

− d + 2c + b − 3a = 0

 a = λ
  
b = λ+µ
⇐⇒ ∃ λ, µ ∈ R, Ainsi : Ker ω − IdR3 [X ] = Vect X 3 + X 2 + X , X 2 + 1 .
 c = λ

d = µ.
 
• On montre de la même manière que : Ker ω + IdR3 [X ] = Vect X 3 + X + 1, X 3 + X 2 .

3
Christophe Bertault — Mathématiques en MPSI

Définition-théorème (Condition nécessaire et suffisante d’inversibilité d’une matrice de Vandermonde) Soient


x 1 , . . . , x n ∈ K.  
1 x 1 x 12 · · · x 1n−1
€ Š 1 x 2 x 22 · · · x 2n−1 
= . .
j−1
On appelle matrice de Vandermonde de x 1 , . . . , x n la matrice : xi  ... ... .
. . 
1¶i, j¶n . .
Cette matrice est inversible si et seulement si les scalaires x 1 , . . . , x n sont distincts. 1 xn x n2 ··· x nn−1

Démonstration
• Si deux des scalaires x 1 , . . . , x n sont égaux, leur matrice de Vandermonde possède deux lignes égales, donc
n’est pas inversible.
€ Š
• Réciproquement, supposons x 1 , . . . , x n distincts et notons ϕ l’application linéaire P 7−→ P(x 1 ), . . . , P(x n )
de Kn−1 [X ] dans Kn . Cette application est injective car pour tout P ∈ Ker ϕ : P(x 1 ) = . . . = P(x n ) = 0,
donc le polynôme P possède n racines distinctes alors qu’il est de degré au plus n − 1 — ainsi P = 0. Or :
dim Kn−1 [X ] = n = dim Kn , donc son injectivité fait de ϕ un isomorphisme de Kn−1 [X ] sur Kn .
En particulier, la matrice de ϕ dans la base canonique de Kn−1 [X ] au départ et la base canonique de
Kn à l’arrivée est inversible d’après le théorème précédent, or cette matrice est exactement la matrice de
Vandermonde de x 1 , . . . , x n . „

Quelques mots à présent sur l’interprétation géométrique des blocs qu’on lit sur la une matrice d’application linéaire.
Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E de dimensions respectives p et q
et B = (e1 , . . . , e p+q ) une base de E adaptée à la décomposition : E = F ⊕ G. Pour rappel, cela signifie que (e1 , . . . , e p )
est une base de F et (e p+1 , . . . , e p+q ) une base de G.
 ‹
A C
Soit u ∈ L (E). La matrice de u dans B s’écrit : MatB (u) = pour certaines A ∈ M p (K), B ∈ Mq,p (K),
B D
C ∈ M p,q (K) et D ∈ Mq (K). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocs
A, B, C et D peuvent être interprétés géométriquement.
• À quelle condition a-t-on : B = 0 ? Tout simplement : B=0 ⇐⇒ ∀ j ∈ ¹1, pº, u(e j ) ∈ Vect(e1 , . . . , e p )
⇐⇒ ∀x ∈ F, u(x) ∈ F ⇐⇒ F est stable par u.

Dans ces conditions, u F
est un endomorphisme de F et : A = Mat(e1 ,...,ep ) u F .
• À quelle condition a-t-on : B = C = 0 ? Comme au point précédent : B = C = 0 si et seulement si F et G
sont tous les deux stables par u. Dans ces conditions, u F et u G sont des endomorphismes de F et G respectivement
 
et : A = Mat(e1 ,...,ep ) u F et D = Mat(ep+1 ,...,ep+q ) u G .

Exemple Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E de dimensions respec-
tives q et r et B une base de E adaptée à la décomposition : E = F ⊕ G. Notons
‹ p la projection sur
 F parallèlement
‹ àG
Iq Iq
et s la symétrie par rapport à F parallèlement à G. Alors : MatB (p) = et MatB (s) = .
0r −I r
Démonstration Introduisons les vecteurs de B : B = (e1 , . . . , eq+r ). Par définition des projections et
des symétries : p(ei ) = s(ei ) = ei pour tout i ∈ ¹1, qº et : p(e j ) = 0 E et s(e j ) = −e j pour tout
j ∈ ¹q + 1, q + rº. Le résultat en découle.

L’exemple qui suit est emblématique de nombreux exercices. En dimension finie, on peut calculer la matrice d’un en-
domorphisme dans n’importe quelle base, mais n’y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus
joli que dans d’autres ? L’étude de cette question est une branche de l’algèbre linéaire que vous étudierez davantage en
deuxième année, appelée réduction. Réduire un endomorphisme, c’est trouver une base dans laquelle sa matrice est jolie —
par exemple diagonale, triangulaire, pleine de zéros. . . et réduire une matrice carrée, c’est réduire l’endomorphisme qui lui
est canoniquement associé.

Exemple Soient E un K-espace vectoriel de dimension 3 et f ∈ L (E). On suppose que : f 2 = 0L (E) mais : f 6= 0L (E) .
 
0 0 1
Dans une certaine base de E, f a pour matrice : 0 0 0 .
0 0 0
Démonstration  
0 0 1
• Analyse : Soit (e1 , e2 , e3 ) une base de E. On suppose que : Mat(e1 ,e2 ,e3 ) ( f ) = 0 0 0 , i.e. que :
0 0 0
f (e1 ) = f (e2 ) = 0 E et f (e3 ) = e1 . Nous en tirons trois choses, d’abord que (e1 , e2 ) est une famille
libre de Ker f , ensuite que : e3 ∈ / Ker f , et enfin que e3 devra être défini AVANT e1 dans la synthèse
puisque : e1 = f (e3 ).

4
Christophe Bertault — Mathématiques en MPSI

• Synthèse : Commençons par calculer dim Ker f . Par hypothèse : f 2 = 0L (E) ,


Im f ⊂ Ker f , donc :
3
donc d’après le théorème du rang : dim E − dim Ker f ¶ dim Ker f , i.e. : dim Ker f ¾ . Or
2
n’oublions pas que : f 6= 0L (E) , donc : dim Ker f < dim E = 3. Conclusion : dim Ker f = 2.
Donnons-nous à présent un vecteur quelconque e3 de E \ Ker f et posons : e1 = f (e3 ). Clairement :
e1 ∈ Ker f \ 0 E car : f 2 = 0L (E) et e3 ∈ / Ker f . Complétons alors la famille libre (e1 ) de Ker f
en une base (e1 , e2 ) de Ker f . La famille (e1 , e2 , e3 ) est libre car : e3 ∈
/ Ker f , donc est une base de E
 
0 0 1
car : dim E = 3. En outre, tout a été fait pour qu’on ait : Mat(e1 ,e2 ,e3 ) ( f ) = 0 0 0 .
0 0 0

2 CHANGEMENTS DE BASES, ÉQUIVALENCE ET SIMILITUDE

2.1 CHANGEMENTS DE BASES


Définition-théorème (Matrice de passage d’une base à une autre) Soient E = 6 0 E un K-espace vectoriel de
dimension finie et B , B ′ et B ′′ trois bases de E.

B′
On appelle matrice de passage de B à B ′ la matrice : MatB (B ′ ) = MatB ′ ,B Id E , souvent notée PB .
′ ′ ′′ ′′
B B B B B
Alors : (i) PB est inversible d’inverse PB ′. (ii) PB PB ′ = PB .

Démonstration
 € Š−1  Id−1
B′ B ′ −1 E =Id E
(i) PB est la matrice d’un isomorphisme : PB = MatB ′ ,B Id E = MatB,B ′ Id−1
E
= PB B
′.


B B ′′     B ′′
(ii) PB PB ′ = MatB ′ ,B Id E × MatB ′′ ,B ′ IdE = MatB ′′ ,B Id E ◦ Id E = MatB ′′ ,B Id E = PB . „


Théorème (Changement de base pour un vecteur) Soient E 6= 0 E un K-espace vectoriel de dimension finie et B
B′
et B ′ deux bases de E. On pose : P = PB . Pour tout x ∈ E de coordonnées X dans B et X ′ dans B ′ : X = PX ′ .

Démonstration L’égalité : x = IdE (x) s’écrit matriciellement dans les bases adaptées : X = PX ′ . „
 #” #” #”
 uθ = cos θ ı + sin θ 
Exemple Soit θ ∈ R fixé. Notons B = #”  la base canonique de R2 et posons :
ı , #”
 v#” θ = − sin θ #”
ı + cos θ #”.
On définit ainsi une base B = u# ”, v#” de R2 .
θ θ θ
   
x x
u = (x, y) ∈ R2 . Les coordonnées de #”
En outre, soit #” u dans B sont bien sûr X = y . Si nous notons X θ = yθ les
θ
§ §
#” x = x θ cos θ − yθ sin θ x θ = x cos θ + y sin θ
coordonnées de u dans la base Bθ : et
y = x θ sin θ + yθ cos θ yθ = −x sin θ + y cos θ .

Démonstration  
cos θ − sin θ
v#”
θ
#”
 • D’abord : MatB (Bθ ) = sin θ cos θ , matrice de déterminant : cos2 θ + sin2 θ = 1 6= 0 donc
u# ”
θ
inversible. Comme voulu, Bθ est une base de R2 .
   
b
B cos θ − sin θ cos θ − sin θ
#” • Ensuite, sachant que PB θ = sin θ cos θ : X = sin θ cos θ X ′ . Pour l’autre formule, simplement
ı  
B B −1
 cos θ sin θ
B
calculer l’inverse de PB θ : PB = PB θ = − sin θ cos θ .
θ

 
Théorème (Changement de bases pour une application linéaire) Soient E 6= 0 E et F 6= 0 F deux K-espaces
vectoriels de dimension finie, B et B ′ deux bases de E, C et C ′ deux bases de F et u ∈ L (E, F ).
′ ′
B
On pose : P = PB , Q = PCC , A = MatB,C (u) et A′ = MatB ′ ,C ′ (u). Alors : A′ = Q−1 AP.

5
Christophe Bertault — Mathématiques en MPSI

IdE , P
E, B ′ E, B
Il est important de se donner des mots pour décrire chacune des données de cet énoncé. Tout
simplement, E est l’espace de départ de u, F son espace d’arrivée, B et C sont les « anciennes »
bases, i.e. les bases avant changement de bases, et B ′ et C ′ les « nouvelles » bases, i.e. les bases u, A′ u, A

après changement. Départ/arrivée/ancien/nouveau !


F, C ′ F, C
Démonstration Le diagramme ci-contre peut presque tenir lieu de preuve. L’égalité : IdF , Q
u ◦ Id E = Id F ◦ u s’écrit matriciellement : AP = QA′ , i.e. : A′ = Q−1 AP. „

$ Attention ! Il y a DEUX formules de changement de bases, une pour les vecteurs et une pour les applications linéaires,
merci de ne pas les confondre !

Théorème (Changement de bases et matrice J r ) Soient E et F deux K-espaces vectoriels de dimensions respectives
p et n et u ∈ L (E, F ) de rang r. Alors pour une certaine base B de E et une certaine base C de F : MatB,C (u) = J r ,
 ‹
Ir 0
où J r est la matrice de taille n × p suivante : J r = .
0 0

Démonstration Soient B = (ei )1¶ j¶p une base de E et C = ( f i )1¶i¶n une base de F . Est-il possible d’imposer
à ces bases que la matrice de u y soit J r ?
• Pour que les p−r dernières colonnes de MatB,C (u) soient nulles, il faut et il suffit que les vecteurs e r+1 , . . . , e p
soient éléments de Ker u et linéairement indépendants. Comme Ker u est de dimension p − r d’après le
théorème du rang, nous n’avons qu’à choisir pour famille (e j ) r+1¶ j¶p une base de Ker u et la compléter
simplement en une base B de E.
• Pour que les r premières colonnes de MatB,C (u) soient ce qu’on veut, on peut poser : f j = u(e j ) pour
tout j ∈ ¹1, rº, puis compléter en une base C de F , MAIS CE N’EST POSSIBLE QUE SI LA FAMILLE ( f j )1¶ j¶r
EST LIBRE . Or la famille (e j )1¶ j¶r engendre par construction un supplémentaire I de Ker u dans E, donc u I
€ Š
est un isomorphisme de I sur Im u. La famille ( f j )1¶ j¶r = u(e j ) est ainsi libre.
1¶ j¶r
Ces deux points garantissent bien l’existence de deux bases B et C pour lesquelles : MatB,C (u) = J r . „

2.2 MATRICES ÉQUIVALENTES

Définition-théorème (Matrices équivalentes)


• Définition : Soient A, B ∈ Mn,p (K). On dit que B est équivalente à A s’il existe deux matrices P ∈ GL p (K) et
Q ∈ GLn (K) inversibles pour lesquelles : B = Q−1 AP.
• Premier exemple fondamental : Si B a été obtenue à partir de A après une série d’opérations élémentaires,
alors B est équivalente à A.
 
• Deuxième exemple fondamental : Soient E 6= 0 E et F 6= 0 F deux K-espaces vectoriels de dimension finie,
B et B ′ deux bases de E, C et C ′ deux bases de F et u ∈ L (E, F ). La matrice MatB ′ ,C ′ (u) est équivalente à la
matrice MatB,C (u).

Démonstration Pour le premier exemple fondamental, se souvenir du fait que les opérations élémentaires
peuvent être vues comme des multiplications par des matrices inversibles. Le deuxième exemple fondamental
n’est qu’une reformulation du théorème de changement de base pour une application linéaire. „

Théorème (Propriétés de la relation d’équivalence)


(i) Relation d’équivalence : La relation d’équivalence sur Mn,p (K) est une. . . relation d’équivalence — mais pas
dans le même sens !
(ii) Caractérisation par le rang : Deux matrices de Mn,p (K) sont équivalentes si et seulement si elles ont le même
rang. Cela revient aussi à dire que toute matrice de Mn,p (K) de rang r est équivalente à J r .

6
Christophe Bertault — Mathématiques en MPSI

Démonstration
(i) Soient A, B, C ∈ Mn,p (K).
Réflexivité : A est équivalente à A car I p et I n sont inversibles et : A = I n−1 AI p .
Symétrie : Si B est équivalente à A, i.e. : B = Q−1 AP pour certaines matrices P ∈ GL p (K) et Q ∈ GLn (K),
−1
alors P −1 et Q−1 sont inversibles et : A = Q−1 BP −1 , donc A est équivalente à B.
Transitivité : Si B est équivalente à A et C équivalente à B, i.e. : B = Q−1 AP et C = Q′−1 BP ′ pour
certaines matrices P, P ′ ∈ GL p (K) et Q, Q′ ∈ GLn (K), alors P P ′ et QQ′ sont inversibles et :
C = Q′−1 BP ′ = Q′−1Q−1 AP P ′ = (QQ′ )−1 A(P P ′ ), donc C est équivalente à A.
(ii) Soit A ∈ Mn,p (K) de rang r. Notons Ab l’application linéaire canoniquement associée à A et Bn et B p

les bases canoniques respectives de K et K p . Rappel : MatBp ,Bn A
n b = A. Or d’après un théorème

précédent : MatB,C A b = J r pour certaines bases B de K p et C de Kn , donc si on pose : P = P B
Bp
C
et Q = PB , alors : J r = Q−1 AP, donc A et J r sont équivalentes. „
n

Le résultat qui suit n’est pas tout à fait à sa place dans ce paragraphe sur les matrices équivalentes, mais il découle de la
caractérisation précédente.


Théorème (Invariance du rang par transposition) Pour tout A ∈ Mn,p (K) : rg A⊤ = rg(A).

Démonstration D’après le théorème précédent, A est équivalente à J r pour : r = rg(A), donc par simple
transposition dans la définition, A⊤ est équivalente à J r⊤ — attention, J r est de taille n × p tandis que J r⊤ est de
 
taille p × n. Conclusion : rg A⊤ = rg J r⊤ = r = rg(J r ) = rg(A). „

La définition et les résultats qui suivent n’ont rien à voir avec les matrices équivalentes, mais ils requièrent l’invariance
du rang par transposition, donc nous ne pouvions pas les énoncer jusqu’ici.

Définition-théorème (Matrices extraites) Soient A ∈ Mn,p (K).  


ai1 j1 ··· a i1 j p ′
. .
(i) Définition : On appelle matrice extraite de A toute matrice de la forme  .. .
.
 où i1 , . . . , in′ , j1 , . . . , jp′
ain′ j1 ··· ain′ jp′
sont tels que : 1 ¶ i1 < . . . < in′ ¶ n et 1 ¶ j1 < . . . < jp′ ¶ p.
(ii) Rang d’une matrice extraite : Pour toute matrice B extraite de A : rg(B) ¶ rg(A).
(iii) Caractérisation du rang par les matrices carrées extraites : Le rang de A est la taille maximale des matrices
inversibles qu’on peut extraire de A.

Démonstration
(ii) La matrice B est obtenue à partir de A par supression d’un certain nombre de lignes et de colonnes. Notons
B ′ la matrice intermédiaire obtenue quand on supprime seulement les colonnes. On passe de A à B ′ par
une suppression de colonnes, puis de B ′ à B par une suppression de lignes.Le rang d’une
 matrice étant par
définition le rang de la famille de ses colonnes : rg(A) ¾ rg(B ′ ) = rg B ′⊤ ¾ rg B ⊤ = rg(B).
(iii) Il nous suffit d’établir l’équivalence suivante — avec r ∈ N∗ :
rg(A) ¾ r ⇐⇒ On peut extraire de A une matrice inversible de taille r.
• Si on peut extraire de A une matrice inversible de taille r : rg(A) ¾ r d’après (ii).
• Réciproquement, supposons : rg(A) ¾ r. On peut donc extraire de la famille des colonnes de A une
famille libre de r vecteurs, ce qui revient à dire matriciellement que nous pouvons extraire de A une
matrice B ∈ Mn,r (K) de rang r par suppression de certaines colonnes. Par le même raisonnement, nous
pouvons extraire de B ⊤ une matrice C ∈ M r (K) de rang r par suppression de certaines colonnes —
i.e. par suppression de certaines lignes de B. La matrice C ⊤ est finalement une matrice extraite de A
inversible de taille r. „

7
Christophe Bertault — Mathématiques en MPSI

   
1 4 7 10
4 10
Exemple La matrice 5 11
est extraite de 2 5 8 11 — on a retenu les lignes 1 et 2 et les colonnes 2 et 4.
3 6 9 12
 
1 1 2 0  
3 1 0
 2 3 1 0
Exemple rg 1 0 3 1
¾3 car la matrice extraite 0 3 1 est inversible — pourquoi, d’ailleurs ?
0 0 2
3 0 0 2

2.3 MATRICES SEMBLABLES ET TRACE D ’UN ENDOMORPHISME

Définition-théorème (Matrices semblables)


• Définition : Soient A, B ∈ Mn (K). On dit que B est semblable à A (sur K) s’il existe une matrice P ∈ GLn (K)
inversible pour laquelle : B = P −1 AP.
• Exemple fondamental : Soient E un K-espace vectoriel de dimension finie, u ∈ L (E) et B et B ′ deux bases
de E. Les matrices MatB (u) et MatB ′ (u) sont alors semblables.


B
Démonstration Dans l’exemple fondamental, si on pose : P = PB , alors : MatB ′ (u) = P −1 MatB (u)P
par changement de base. „

$ Attention ! On a vite fait de confondre équivalence et similitude. La relation de similitude N’est définie QUE pour des
matrices CARRÉES, et dans son exemple fondamental, on travaille avec des ENDOmorphismes et on a les MÊMES BASES AU
DÉPART ET À L’ARRIVÉE — donc deux bases B et B ′ au lieu des quatre B , C , B ′ et C ′ de l’équivalence.

Théorème (Propriétés de la relation de similitude)


(i) Relation d’équivalence : La relation de similitude sur Mn (K) est une relation d’équivalence.
(ii) Invariance du rang et de la trace par similitude : Deux matrices semblables de Mn (K) ont même trace et
même rang.

Démonstration
(i) Reprendre la preuve du résultat analogue pour les matrices équivalentes.
(ii) Soient A, B ∈ Mn (K). Si A et B sont semblables, disons : B = P −1 AP avec P ∈ GLn (K), elles sont en
particulier équivalentes, donc de même rang, et : tr(B) = tr P −1 (AP) = tr (AP)P −1 = tr(A) d’après
les propriétés de la trace. „

   
1 2 3 1 2 3
Exemple Les matrices 1 1 3 et 2 2 0 ne sont pas semblables car elles n’ont pas la même trace, mais elles sont
2 2 0 1 1 3
équivalentes car on passe de l’une à l’autre par une opération élémentaire très simple — n’est-ce pas ?

     
0 1 1 1 0 0 0 4 2
Exemple Les matrices 0 0 0 , 1 0 1 et 0 0 0 sont semblables.
0 0 1 0 0 0 0 0 1

Démonstration Notons (e1 , e2 , e3 ) la base canonique de R3 et f l’endomorphisme de R3 canoniquement associé


0 1 1
à la matrice 0 0 0 . Comme : f (e1 ) = (0, 0, 0), f (e2 ) = e1 et f (e3 ) = e1 + e3 , la matrice de f dans
0 0 1
     
1 0 0 0 1 1 1 0 0
la base (e3 , e1 , e2 ) est 1 0 1 , donc les matrices 0 0 0 et 1 0 1 sont semblables.
0 0 0 0 0 1 0 0 0
De la même manière : f (e ) = (0, 0, 0), f (4e2 ) = 4e1 et f (2e3 ) = 2e1 + 2e3 , donc la matrice de f dans
 1     
0 4 2 0 1 1 0 4 2
la base (e1 , 4e2 , 2e3 ) est 0 0 0 , donc les matrices 0 0 0 et 0 0 0 sont semblables.
0 0 1 0 0 1 0 0 1

8
Christophe Bertault — Mathématiques en MPSI


Définition (Trace d’un endomorphisme en dimension finie) Soit E 6= 0 E un K-espace vectoriel de dimension
finie.
• Définition : Soit u ∈ L (E). La trace de la matrice MatB (u) ne dépend pas du choix de la base B de E choisie.
On l’appelle trace de u, notée tr(u) ou Tr(u).
• Linéarité : Pour tous u, v ∈ L (E) et λ, µ ∈ K : tr(λu + µv) = λtr(u) + µtr(v).
• Effet sur une composée : Pour tous u, v ∈ L (E) : tr(u ◦ v) = tr(v ◦ u).

Démonstration Il nous suffit de justifier la définition. Or pour toutes bases B et B ′ de E, les matrices MatB (u)
et MatB ′ (u) étant semblables, nous venons de voir qu’elles ont même trace. „

Exemple Soient E un K-espace vectoriel de dimension finie et p un projecteur de E. Alors : tr(p) = rg(p).
Démonstration Nous avons vu dans un précédent exemple que si B est une base de E adaptée à la décom-‹
Ir
position : E = Im p ⊕ Ker p et si on pose : n = dim E et r = rg(p), alors : MatB (p) = .
€ Š  ‹ 0n−r
Ir
A fortiori : tr(p) = tr MatB (p) = tr = r = rg(p).
0n−r

2.4 INTRODUCTION À LA DIAGONALISATION D ’UNE MATRICE CARRÉE

Les concepts de ce dernier paragraphe ne sont pas au programme de MPSI, il font partie du domaine de la réduction dont
nous avons parlé plus haut et vous les étudierez en deuxième année. Cependant, parce qu’ils apparaissent sous forme cachée
dans de nombreux exercices de première année, je préfère vous les livrer en partie dès maintenant, cela ne pourra que vous
aider à comprendre la logique des exercices en question.

Définition (Valeurs propres, vecteurs propres, sous-espaces propres)



• Cas des endomorphismes : Soient E 6= 0 E un K-espace vectoriel de dimension finie et u ∈ L (E). On appelle
 
valeur propre de u tout scalaire λ ∈ K pour lequel : Ker u− λIdE 6= 0 E , i.e. pour lequel il existe un vecteur
NON NUL x ∈ E tel que : u(x) = λx.

Un tel vecteur x est appelé un vecteur propre de u (associé à la valeur propre λ). L’ensemble Ker u − λIdE de ces
vecteurs propres — avec le vecteur nul en plus — est quant à lui appelé le sous-espace propre de u associé à la
valeur propre λ.
Enfin, l’ensemble des valeurs propres de u appelé spectre de u.
• Cas des matrices carrées : Soit A ∈ Mn (K). On appelle valeur propre de A toute valeur propre de l’endomor-
phisme A b de Kn canoniquement associé à A, i.e. tout vecteur NON NUL X ∈ Kn pour lequel : AX = λX . Un
tel vecteur X est appelé un vecteur propre de A et l’ensemble Ker (A − λI n ) est appelé le sous-espace propre de A
b est aussi appelé le spectre de A.
associé à λ. Enfin, le spectre de A

 
−1 3 3
Exemple On pose : A= 3 −1 −3 . La matrice A possède exactement deux valeurs propres, à savoir 2 et −1.
−3 3 5
€ Š € Š
De plus : Ker (A − 2I3 ) = Vect (1, 1, 0), (1, 0, 1) et Ker (A + I3 ) = Vect (1, −1, 1) .

Démonstration Il s’agit seulement de résoudre pour tout λ ∈ R le système : AX = λX d’inconnue X ∈ R3 .


Fixons donc un tel λ. Pour tout X = (x, y, z) ∈ R3 :

 −(λ + 1)x + 3y + 3z = 0
AX = λX ⇐⇒ (A − λI3 )X = 0 ⇐⇒ 3x − (λ + 1) y − 3z = 0
 −3x + 3y + (5 − λ)z = 0

 −(λ + 1)x + 3y + 3z = 0
⇐⇒ (2 − λ)x + (2 − λ) y = 0 L2 ← L1 + L2
 −3x + 3y + (5 − λ)z = 0.

9
Christophe Bertault — Mathématiques en MPSI

Du coup, pour λ = 2, la deuxième équation disparaît :


§
−3x + 3 y + 3z = 0
AX = 2X ⇐⇒ ⇐⇒ x = y + z.
−3x + 3 y + 3z = 0
¦ © € Š
Conclusion : Ker (A − 2I3 ) = ( y + z, y, z) | y, z ∈ R = Vect (1, 1, 0), (1, 0, 1) . À présent, pour λ 6= 2 :

 −(λ + 1)x + 3 y + 3z = 0
AX = λX ⇐⇒ x + y = 0
 −3x + 3 y + (5 − λ)z = 0

 −(λ + 4)x + 3z = 0 L 1 ← L 1 − 3L 2
⇐⇒ x + y = 0
 −6x + (5 − λ)z = 0 L 3 ← L 3 − 3L 2

 −(λ + 4)x + 3z = 0
⇐⇒ x + y = 0
 2 + λ − λ2  x = 0 L 3 ← 3L 3 − (5 − λ)L 1

 −(λ + 4)x + 3z = 0
⇐⇒ x + y = 0
 (2 − λ)(λ + 1)x = 0.
§ §
−3x + 3z = 0 y = −x
Finalement, pour λ = −1 : AX = −X ⇐⇒ ⇐⇒
x + y = 0 z = x.
€ Š
Conclusion : Ker (A + I3 ) = Vect (1, −1, 1) . Enfin, si : λ 6= 2 et λ 6= −1, le système étudié admet
(0, 0, 0) pour unique solution, donc 2 et −1 sont les seules valeurs propres de A.


Théorème (Familles de vecteurs propres) Soient E 6= 0 E un K-espace vectoriel de dimension finie et u ∈ L (E).
Toute famille de vecteurs propres de u associée à des valeurs propres distinctes est libre.
En particulier, le spectre de u est un ensemble fini de cardinal inférieur ou égal à dim E.

On peut dire aussi de façon équivalente que les sous-espaces propres de u sont en somme directe. Ce résultat a été
démontré sous forme d’exercice au chapitre « Applications linéaires » grâce à des polynômes de Lagrange.
On dispose naturellement d’un énoncé analogue sur les familles de vecteurs propres et le spectre d’une matrice carrée —
simple cas particulier.

Démonstration Par récurrence sur le cardinal de la famille considérée.


Initialisation : Par définition, tout vecteur propre est non nul, donc forme à lui seul une famille libre.
Hérédité : Soit p ∈ N∗ . On suppose que toute famille de p vecteurs propres de u associée à des valeurs propres
distinctes est libre. Soit (x 1 , . . . , x p+1 ) une famille de vecteurs propres de u associées à des valeurs propres res-
pectives distinctes λ1 , . . . , λ p+1 . Montrons que la famille (x 1 , . . . , x p+1 ) est libre. Soient α1 , . . . , α p+1 ∈ K. On
suppose que : α1 x 1 + . . . + α p+1 x p+1 = 0 E ♣. Par définition des vecteurs propres, après composition par u :
α1 λ1 x 1 + . . . + α p+1 λ p+1 x p+1 = 0 E ♠. Soustrayons alors « λ p+1 fois ♣ » de ♠ pour y tuer le vecteur x p+1 :
α1 (λ1 − λ p+1 ) x 1 + . . . + α p (λ p − λ p+1 ) x p = 0 E .
Or la famille (x 1 , . . . , x p ) est libre par hypothèse de récurrence, donc : αi (λi − λ p+1 ) = 0 pour tout i ∈ ¹1, pº,
et comme λ1 , . . . , λ p+1 sont distincts : α1 = . . . = α p = 0. Par non-nullité de x p+1 , enfin : α p+1 = 0. „

Définition-théorème (Endomorphisme/matrice carrée diagonalisable)



• Cas des endomorphismes : Soient E 6= 0 E un K-espace vectoriel de dimension finie et u ∈ L (E). On dit que
u est diagonalisable si E possède une base constituée de vecteurs propres de u. Le caséchéant,‹si B = (x 1 , . . . , x n )
λ1
est une telle base et si λ1 , . . . , λn sont les valeurs propres associées : MatB (u) = .
b

λn
• Cas des matrices carrées : Soit A ∈ Mn (K). On dit que A est diagonalisable (sur K) si l’endomorphisme de Kn
qui lui est canoniquement associé est diagonalisable, i.e. si Kn possède une base constituée de vecteurs propres
de A. Le
 cas échéant,
‹ si (X 1 , . . . , X n ) est une telle base et si λ1 , . . . , λn sont les valeurs propres associées, alors :
λ1
A= P P −1 où l’on a noté P la matrice de colonnes X 1 , . . . , X n .
b

λn

10
Christophe Bertault — Mathématiques en MPSI

b l’endomorphisme de Kn qui lui


Démonstration Dans le cas matriciel, supposons A diagonalisable et notons A
n
est canoniquement associée ainsi que Bn la base canonique de K .
Pour tout i ∈ ¹1, nº, par définition de X i et λi : b i ) = λi X i , donc b i ) dans la base
A(X  les coordonnées
 de A(X
λ1

(X 1 , . . . , X n ) sont (0, . . . , 0, λi , 0, . . . , 0). A fortiori : b =
Mat(X 1 ,...,X n ) A ..
.
.
λn
(X ,...,X )
 
Or par définition de P : P = PBn1 n
, donc par changement de base : b = P −1 MatB A
Mat(X 1 ,...,X n ) A b P,
n

et finalement comme voulu : A = P diag(λ1 , . . . , λn ) P −1 . „

−1  ‚ Œ
3 3 (−1)k ak ak
k
Exemple On pose : A= 3 −1 −3 . Pour tout k ∈ N : A = ak (−1)k −ak avec : ak = 2k − (−1)k .
−3 3 5 −ak ak 2k + ak

Démonstration Idée de la preuve : Parce que les puissances d’une matrice diagonale sont très faciles à calculer,
nous allons commencer par montrer que A est diagonalisable.
• Nous avons calculé les valeurs propres et les sous-espaces propres de A dans un exemple précédent. En
l’occurrence, si nous posons : e1 = (1, 1, 0), e2 = (1, 0, 1) et e3 = (1, −1, 1), alors :
Ae1 = 2e1 , Ae2 = 2e2 et Ae3 = −e3 .
La famille (e1 , e2 , e3 ) est libre car c’est une famille de vecteurs propres de A associés à des valeurs propres
distinctes, et c’est même une base de R3 pour une raison de cardinal. Conclusion : A est diagonalisable.
En outre, la matrice P de (e1 , e2 , e3 ) dans la base canonique de R3 est inversible, et après calcul :
   
1 0 −1 2 0 0
P −1 = −1 1 2 , puis : A= P 0 2 0 P −1 par changement de base.
1 −1 −1 0 0 −1
   k    
2 00 2 0 0 2 0 0
• Finalement, pour tout k ∈ N : Ak = P 0 0 P −1
2 = P 0 2 0 P −1 × . . . × P 0 2 0 P −1
0 −10 0 0 −1 0 0 −1
 k ‚ k Œ ‚ Œ
2 0 0 2 0 0 (−1)k ak ak
=P 0 2 0 P −1 = P 0 2k 0 −1
P = ak (−1)k −ak si on pose : ak = 2k − (−1)k .
0 0 −1 0 0 (−1)k −ak ak 2k + ak

11

Vous aimerez peut-être aussi