Académique Documents
Professionnel Documents
Culture Documents
REPRÉSENTATION MATRICIELLE
DES APPLICATIONS LINÉAIRES
Dans ce chapitre, K est l’un des corps R ou C. Tous les résultats présentés dans ce chapitre demeurent vrais si K est un
corps quelconque, mais nous ne nous en préoccuperons pas ici. Les lettres n, p, q . . . désignent des entiers naturels non nuls.
Pour plus de détails, refaites donc un tour du côté de notre précédent chapitre « Structure d’espace vectoriel ».
Définition (Matrice d’une famille finie de vecteurs dans une base finie) x1 xj xj
↓ ↓ ↓
Soient E un K-espace vectoriel de dimension finie n, B = (e1 , . . . , en ) a11 · · · a1 j · · · a1p ← e1
une base de E et X = (x 1 , . . . , x p ) une famille finie de vecteurs de E. . .. ..
Pour tout j ∈ ¹1, pº on note (a1 j , . . . , an j ) les coordonnées de x j dans .. . .
B . La matrice ai j 1¶i¶n , notée MatB (X ), est alors appelée matrice
MatB (X ) = ai1 · · · ai j ··· ai p ← ei
1¶ j¶p
de X dans B . .. .. ..
. . .
an1 · · · an j · · · anp ← en
Exemple Soient E un K-espace vectoriel de dimension finie et B une base de E. Alors pour tout x ∈ E, MatB (x) est tout
simplement la colonne des coordonnées de x dans B .
Théorème (Interprétation vectorielle de l’inversibilité, cas des familles de vecteurs) Soient E un K-espace vectoriel
de dimension finie n, B une base de E et F une famille de n vecteurs de E. Alors F est une base de E si et seulement si
MatB (F ) est inversible.
Rappelons que le rang d’une matrice peut être défini de deux manières — soit comme le rang de la famille de ses colonnes,
soit comme le rang de l’application linéaire canoniquement associée.
Théorème (Rang d’une famille de vecteurs, rang d’une matrice associée) Soient E 6= 0 E un K-espace vectoriel
de dimension finie, B une base de E et X une famille finie de vecteurs de E. Alors : rg(X ) = rg MatB (X ) .
En pratique Tout rang d’une famille de vecteurs peut donc être calculé comme le rang d’une matrice grâce à
l’algorithme du pivot.
1
Christophe Bertault — Mathématiques en MPSI
f (e1 ) f (e j ) f (e p )
Définition (Matrice d’une application linéaire dans des bases finies)
↓ ↓ ↓
Soient E et F deux K-espaces vectoriels de di-
mensions respectives p et n, B = (e1 , . . . , e p ) une a11 · · · a1 j · · · a1p ← f1
base de E, C = ( f1 , . . . , f n ) une base de F et . .. ..
.. . .
f ∈ L (E, F ). On appelle matrice de f dans B et
C et on note MatB,C ( f ) la matrice de la famille Mat B,C ( f ) = Mat C f (B ) = a i1 · · · a i j · · · a i p ← fi
.. .. ..
f (B ) = f (e1 ), . . . , f (e p ) dans la base C . . . .
Si : E = F et B = C, la matrice an1 · · · an j · · · anp ← fn
MatB,B ( f ) est simplement notée MatB ( f ). Coordonnées de f (e j ) dans B
écrites en colonne
Explication On connaît tout d’une application linéaire quand on connaît la valeur qu’elle prend sur une base,
donc on connaît tout d’une application linéaire quand on connaît sa matrice dans deux bases données. Un exercice peut
ainsi commencer
sans la moindre ambiguïté de la manière suivante : « On note f l’endomorphisme de R2 [X ] de matrice
1 0 2
3 1 4 dans la base canonique. » Il faut alors comprendre que : f (1) = 3X + 1, f (X ) = 4X 2 + X
0 4 5
et f X 2 = 5X 2 + 4X + 2.
Exemple Si E est un K-espace vectoriel de dimension finie n et si B est une base de E : MatB (Id E ) = I n .
Théorème (Matrice dans les bases canoniques de l’application linéaire canoniquement associée à une matrice)
Soit A ∈ Mn,p (K). Si on note Ab l’application linéaire canoniquement associée à A et B p et Bn les bases canoniques
p n
respectives de K et K , alors : A = MatBp ,Bn A b .
Démonstration Réfléchissez, il suffit d’appliquer scrupuleusement la définition. Ce petit résultat doit couler
dans vos veines.
1 0
Exemple On note ϕ l’application linéaire canoniquement associée à la matrice 1 1, B2′ la famille (0, 1), (1, 0)
−1 1
′ ′ ′
et B3 la famille (1, 1, 1), (1, 1, 0), (1, 0, 0) . Ces familles B2 et B3 sont alors respectivement des bases de R2 et R3 , et :
1 −1
MatB2′ ,B3′ (ϕ) = 0 2 . Conclusion naturelle : si on change les bases, on change la matrice !
−1 0
Démonstration
0 1
• La famille B2′ est une base de R2 car sa matrice dans la base canonique est inversible — d’in-
1 0
1 1 1
verse elle-même. Même idée pour B3′ , sa matrice 1 1 0 dans la base canonique est inversible car
1 0 0
triangulaire à coefficients diagonaux non nuls après échange de ses première et troisième colonne.
2
Christophe Bertault — Mathématiques en MPSI
1 0
0
• Ensuite : ϕ(0, 1) = 1 1 = (0, 1, 1) = (1, 1, 1) − (1, 0, 0).
1
−1 1
De même : ϕ(1, 0) = (1, 1, −1) = −(1, 1, 1) + 2(1, 1, 0). Les coordonnées de ϕ(0, 1) dans B3′ sont donc
(1, 0, −1) et celles de ϕ(1, 0) sont (−1, 2, 0). C’est le résultat voulu.
Théorème (Rang d’une application linéaire, rang d’une matrice associée) Soient E etF deux K-espaces vectoriels
de dimension finie, B une base de E, C une base de F et f ∈ L (E, F ). Alors : rg( f ) = rg MatB,C ( f ) .
En pratique Tout rang d’une application linéaire peut donc être calculé comme le rang d’une matrice grâce à
l’algorithme du pivot.
Théorème (Calcul matriciel de l’image d’un vecteur par une application linéaire) Soient E 6= 0 E et F 6= 0 F
deux K-espaces vectoriels de dimension finie, B une base de E, C une base de F , u ∈ L (E, F ) et x ∈ E.
Alors : MatC u(x) = MatB,C (u) × MatB (x).
Explication L’ÉVALUATION pour une application linéaire se traduit matriciellement en termes de PRODUIT.
3 3 6
Exemple On note f l’endomorphisme de R2 [X ] de matrice 0 1 2 dans la base canonique.
0 2 4
2 2
Alors : Im f = Vect 3, 2X + X et Ker f = Vect X − 2X .
Démonstration Pour commencer :
Im f = Vect f (1), f (X ), f X 2 = Vect 3, 2X 2 + X + 3, 4X 2 + 2X + 6 = Vect 3, 2X 2 + X + 3 = Vect 3, 2X 2 + X .
3 3 6 c 0
Ensuite, pour tout P = aX 2 +bX +c ∈ R2 [X ] : P ∈ Ker f ⇐⇒ f (P) = 0 ⇐⇒ 0 1 2 b = 0
0 2 4 a 0
3c + 3b + 6a = 0 L1 ←L1 −3L2
⇐⇒ b + 2a = 0 ⇐⇒ c = 0 et b = −2a ⇐⇒ P = aX 2 −2aX .
2b + 4a = 0
Conclusion : Ker f = Vect X 2 − 2X .
3
Christophe Bertault — Mathématiques en MPSI
Théorème (Un dictionnaire entre les points de vue vectoriel et matriciel sur les applications linéaires)
(i) Soient E et F deux K-espaces vectoriels de dimensions finies respectives p et n, B une base de E et C une base
de F . L’application f 7−→ MatB,C ( f ) est un isomorphisme de L (E, F ) sur Mn,p (K).
(ii) Soient E, F, G trois K-espaces vectoriels de dimensions finies non nulles de bases respectives B , C , D et
f ∈ L (E, F ) et g ∈ L (F, G). Alors : MatB,D (g ◦ f ) = MatC ,D (g) × MatB,C ( f ).
(iii) Soient E et F deux K-espaces vectoriels de MÊMES DIMENSIONS finies non nulles, B une base de E, C une base
de F et f ∈ L (E, F ). Alors f est un isomorphisme de E sur F si et seulement si MatB,C ( f ) est inversible.
−1
Dans ce cas, en outre : MatC ,B f −1 = MatB,C ( f ) .
Explication
• En résumé, l’assertion (i) exprime deux choses :
— une propriété de linéarité : MatB,C (λ f + µg) = λ MatB,C ( f ) + µ MatB,C (g) avec des notations évidentes,
— une propriété de bijectivité déjà mentionnée informellement plus haut — on connaît entièrement f quand on
connaît MatB,C ( f ).
Elle relie aussi en passant deux résultats bien connus : dim Mn,p = np et dim L (E, F ) = dim E × dim F .
• L’assertion (ii) montre que le PRODUIT est aux matrices ce que la COMPOSITION est aux applications linéaires. Nous
connaissions déjà ce résultat dans le cas particulier des applications linéaires canoniquement associées à des matrices.
0 0 1 −1
−1 1 1 −1
Exemple L’endomorphisme ω de R3 [X ] dont la matrice dans la base canonique de R3 [X ] est Ω = est
0 2 1 −2
−1 2 1 −2
la symétrie par rapport à Vect X 3 + X 2 + X , X 2 + 1 parallèlement à Vect X 3 + X + 1, X 3 + X 2 .
Démonstration
• Par définition, ω est linéaire. Montrer que c’est une symétrie revient donc à montrer que : ω2 = IdR3 [X ] ,
ou encore matriciellement que : Ω2 = I4 — ce qui est très facile à vérifier.
• Cherchons le sous-espace vectoriel de R3 [X ] par rapport auquel θ est une symétrie : Ker ω − IdR3 [X ] .
Pour tout P = aX 3 + bX 2 + cX + d ∈ R3 [X ] : P ∈ Ker ω − IdR3 [X ] ⇐⇒ ω(P) = P
d d b − a = d
c c − d + c + b − a = c
⇐⇒ Ω = ⇐⇒
b b 2c + b − 2a = b
a a − d + 2c + b − 2a = a
− d + b − a = 0
§
− d + b − a = 0 − d + b − a = 0
⇐⇒ ⇐⇒
c − a = 0 c − a = 0
− d + 2c + b − 3a = 0
4
Christophe Bertault — Mathématiques en MPSI
a = λ
b = λ+µ
⇐⇒ ∃ λ, µ ∈ R/ Ainsi : Ker ω − IdR3 [X ] = Vect X 3 + X 2 + X , X 2 + 1 .
c = λ
d = µ.
• On montre de la même manière que : Ker ω + IdR3 [X ] = Vect X 3 + X + 1, X 3 + X 2 .
Démonstration
• Si deux des scalaires x 1 , . . . , x n sont égaux, leur matrice de Vandermonde possède deux lignes égales, donc
n’est pas inversible.
• Réciproquement, supposons x 1 , . . . , x n distincts et notons ϕ l’application linéaire P 7−→ P(x 1 ), . . . , P(x n )
de Kn−1 [X ] dans Kn . Cette application est injective car pour tout P ∈ Ker ϕ : P(x 1 ) = . . . = P(x n ) = 0,
donc le polynôme P possède n racines distinctes alors qu’il est de degré au plus n − 1 — ainsi P = 0. Or :
dim Kn−1 [X ] = n = dim Kn , donc son injectivité fait de ϕ un isomorphisme de Kn−1 [X ] sur Kn .
En particulier, la matrice de ϕ dans la base canonique de Kn−1 [X ] au départ et la base canonique de
Kn à l’arrivée est inversible d’après le théorème précédent, or cette matrice est exactement la matrice de
Vandermonde de x 1 , . . . , x n .
Explication (Interprétation géométrique des blocs) Soient E un K-espace vectoriel, F et G deux sous-espaces
vectoriels supplémentaires de E de dimensions respectives p et q et B = (e1 , . . . , e p+q ) une base de E adaptée à la décompo-
sition : E = F ⊕ G. Pour rappel, cela signifie que (e1 , . . . , e p ) est une base de F et (e p+1 , . . . , e p+q ) une base de G.
A C
Soit f ∈ L (E). La matrice de f dans B s’écrit : MatB ( f ) = pour certaines matrices A ∈ M p (K), B ∈ Mq,p (K),
B D
C ∈ M p,q (K) et D ∈ Mq (K). Nous allons tâcher de comprendre sur deux situations importantes de quelle manières les blocs
A, B, C et D peuvent être interprétés géométriquement.
• À quelle condition a-t-on : B=0 ?
B=0 ⇐⇒ ∀ j ∈ ¹1, pº, f (e j ) ∈ Vect(e1 , . . . , e p ) ⇐⇒ ∀x ∈ F, f (x) ∈ F ⇐⇒ F est stable par f .
Dans ces conditions, la restriction f F
est un endomorphisme de F , et de plus : A = Mat(e1 ,...,ep ) f F
.
Exemple Soient E un K-espace vectoriel, F et G deux sous-espaces vectoriels supplémentaires de E de dimensions respec-
tives q et r et B une base de E adaptée à la décomposition : E = F ⊕ G. Notons
p la projection sur
F parallèlement
àG
Iq Iq
et s la symétrie par rapport à F parallèlement à G. Alors : MatB (p) = et MatB (s) = .
0r −I r
Démonstration Introduisons les vecteurs de B : B = (e1 , . . . , eq+r ). Par définition d’une projection :
∀i ∈ ¹1, qº, p(ei ) = ei et ∀ j ∈ ¹q + 1, q + rº, p(e j ) = 0 E ,
et par définition d’une symétrie : ∀i ∈ ¹1, qº, s(ei ) = ei et ∀ j ∈ ¹q + 1, q + rº, s(e j ) = −e j .
Le résultat en découle.
L’exemple qui suit est emblématique de nombreux exercices. En dimension finie, on peut calculer la matrice d’un endo-
morphisme dans n’importe quelle base, mais n’y a-t-il pas des bases dans lesquelles le résultat est plus simple et plus joli que
dans d’autres ? L’étude de cette question est une branche de l’algèbre linéaire que vous étudierez davantage en deuxième
année, appelée réduction. Réduire un endomorphisme, c’est trouver une base dans laquelle sa matrice est jolie — par exemple
diagonale, triangulaire, pleine de zéros. . .
5
Christophe Bertault — Mathématiques en MPSI
Définition-théorème (Matrice de passage d’une base à une autre) Soient E 6= 0 E un K-espace vectoriel de
dimension finie et B , B ′ et B ′′ trois bases de E.
′
On appelle matrice de passage de B à B ′ la matrice : MatB (B ′ ) = MatB ′ ,B (Id E ) B
souvent notée PB .
′ ′ ′′ ′′
B B B B B
Alors : (i) PB est inversible d’inverse PB ′. (ii) PB PB ′ = PB .
Démonstration
′ ′ −1
−1 Id−1 =IdE
B B
= MatB,B ′ Id−1 B
E
(i) PB est la matrice d’un isomorphisme : PB = MatB ′ ,B (Id E ) E = PB ′.
′ ′′ ′′
B B B
(ii) PB PB ′ = MatB ′ ,B (Id E ) × MatB ′′ ,B ′ (Id E ) = MatB ′′ ,B (Id E ◦ Id E ) = MatB ′′ ,B (Id E ) = PB .
Théorème (Changement de base pour un vecteur) Soient E 6= 0 E un K-espace vectoriel de dimension finie et B
B′
et B ′ deux bases de E. On pose : P = PB . Pour tout x ∈ E de coordonnées X dans B et X ′ dans B ′ : X = PX ′ .
Démonstration L’égalité : x = IdE (x) s’écrit matriciellement dans les bases adaptées : X = PX ′ .
¨ −
u→ = cos θ −
→ı + sin θ −
→
Soit θ ∈ R fixé. Notons B = −
→ı ,−
→ θ
Exemple la base canonique de R2 et posons : −→ −
→ −
→
v θ = − sin θ ı + cos θ .
2
On définit ainsi une base Bθ de R .
′
−
→ 2 −
→ x ′ x
En outre, soit u = (x, y) ∈ R . Les coordonnées de u dans B sont bien sûr X = . Si nous notons X = les
y y′
§ ′ ′ § ′
x = x cos θ − y sin θ x = x cos θ + y sin θ
coordonnées de − →
u dans la base Bθ : et
y = x ′ sin θ + y ′ cos θ y ′ = −x sin θ + y cos θ .
6
Christophe Bertault — Mathématiques en MPSI
Démonstration
−
→ −
→ cos θ − sin θ
vθ − • D’abord : MatB (Bθ ) = , matrice de déterminant : cos2 θ + sin2 θ = 1 6= 0 donc
u→
θ
sin θ cos θ
inversible. Comme voulu, Bθ est une base de R2 .
−
→ B cos θ − sin θ cos θ − sin θ
ı • Ensuite, sachant que PB θ = : X= X ′ . Pour l’autre formule, simple-
sin θ cos θ sin θ cos θ
Bθ B Bθ −1 cos θ sin θ
ment calculer l’inverse de PB : PB = PB = .
θ − sin θ cos θ
Théorème (Changement de bases pour une application linéaire) Soient E 6= 0 E et F 6= 0 F deux K-espaces
vectoriels de dimension finie, B et B ′ deux bases de E, C et C ′ deux bases de F et f ∈ L (E, F ).
B′ ′
On pose : P = PB , Q = PCC , A = MatB,C ( f ) et A′ = MatB ′ ,C ′ ( f ). Alors : A′ = Q−1 AP.
Explication Il est important de se donner des mots pour décrire chacune des données IdE , P
E, B ′ E, B
de cet énoncé. Tout simplement, E est l’espace de départ de f , F son espace d’arrivée, B et C sont
les « anciennes » bases, i.e. les bases avant changement de bases, et B ′ et C ′ les « nouvelles » bases,
i.e. les bases après changement. Départ/arrivée/ancien/nouveau ! f , A′ f,A
$ ATTENTION ! $ Il y a DEUX formules de changement de bases, une pour les vecteurs et une pour les applications
linéaires, merci de ne pas les confondre !
Théorème (Changement de bases et matrice J r ) Soient E et F deux K-espaces vectoriels de dimensions respectives
p et n et f ∈ L (E, F ) de rang r. Alors pour une certaine base B de E et une certaine base C de F : MatB,C ( f ) = J r ,
I 0
où J r est la matrice de taille n × p suivante : J r = r .
0 0
Démonstration Soient B = (ei )1¶ j¶p une base de E et C = ( f i )1¶i¶n une base de F . Est-il possible d’imposer
à ces bases que la matrice de f y soit J r ?
• Pour que les p − r dernières colonnes de MatB,C ( f ) soient nulles, il faut et il suffit que les vecteurs
e r+1 , . . . , e p soient éléments de Ker f et linéairement indépendants. Comme Ker f est de dimension p − r
d’après le théorème du rang, nous n’avons qu’à choisir pour famille (e j ) r+1¶ j¶p une base de Ker f et la
compléter simplement en une base B de E.
• Pour que les r premières colonnes de MatB,C ( f ) soient ce qu’on veut, on peut poser : f j = f (e j ) pour
tout j ∈ ¹1, rº, puis compléter en une base C de F , MAIS CE N’EST POSSIBLE QUE SI LA FAMILLE ( f j )1¶ j¶r
EST LIBRE . Or la famille (e j )1¶ j¶r engendre par construction un supplémentaire I de Ker f dans E, donc
f I est un isomorphisme de I sur Im f . La famille ( f j )1¶ j¶r = f (e j ) est ainsi libre.
1¶ j¶r
Ces deux points garantissent bien l’existence de deux bases B et C pour lesquelles : MatB,C ( f ) = J r .
7
Christophe Bertault — Mathématiques en MPSI
Démonstration Pour le premier exemple fondamental, se souvenir du fait que les opérations élémentaires
peuvent être vues comme des multiplications par des matrices inversibles. Le deuxième exemple fondamental
n’est qu’une reformulation du théorème de changement de base pour une application linéaire.
Démonstration
(i) Soient A, B, C ∈ Mn,p (K).
Réflexivité : A est équivalente à A car I p et I n sont inversibles et : A = I n−1 AI p .
Symétrie : Si B est équivalente à A, i.e. : B = Q−1 AP pour certaines matrices P ∈ GL p (K) et Q ∈ GLn (K),
−1 −1
−1
alors P et Q sont inversibles et : A = Q−1 BP −1 , donc A est équivalente à B.
Transitivité : Si B est équivalente à A et C équivalente à B, i.e. : B = Q−1 AP et C = Q′−1 BP ′ pour
certaines matrices P, P ′ ∈ GL p (K) et Q, Q′ ∈ GLn (K), alors P P ′ et QQ′ sont inversibles et :
Le résultat qui suit n’est pas tout à fait à sa place dans ce paragraphe sur les matrices équivalentes, mais il découle de la
caractérisation précédente.
Théorème (Invariance du rang par transposition) Pour tout A ∈ Mn,p (K) : rg t A = rg(A).
Démonstration D’après le théorème précédent, A est équivalente à J r pour : r = rg(A), donc par simple
transposition dans la définition, t A est équivalente
à t J r — attention, J r est de taille n × p tandis que t J r est de
t t
taille p × n. Conclusion : rg A = rg J r = r = rg(J r ) = rg(A).
La définition et les résultats qui suivent n’ont rien à voir avec les matrices équivalentes, mais ils requièrent l’invariance
du rang par transposition, donc nous ne pouvions pas les énoncer jusqu’ici.
Démonstration
(ii) La matrice B est obtenue à partir de A par supression d’un certain nombre de lignes et de colonnes. Notons
B ′ la matrice intermédiaire obtenue quand on supprime seulement les colonnes. On passe de A à B ′ par
une suppression de colonnes, puis de B ′ à B par une suppression de lignes. Le rang d’une matrice étant par
définition le rang de la famille de ses colonnes : rg(A) ¾ rg(B ′ ) = rg t B ′ ¾ rg t B = rg(B).
8
Christophe Bertault — Mathématiques en MPSI
1 4 7 10
4 10
Exemple La matrice est extraite de 2 5 8 11 — on a retenu les lignes 1 et 2 et les colonnes 2 et 4.
5 11
3 6 9 12
1 1 2 0
3 1 0
2 3 1 0
Exemple rg ¾3 car la matrice extraite 0 3 1 est inversible — pourquoi, d’ailleurs ?
1 0 3 1
0 0 2
3 0 0 2
′
B
Démonstration Dans l’exemple fondamental, si on pose : P = PB , alors : MatB ′ ( f ) = P −1 MatB ( f )P
par changement de base.
$ ATTENTION ! $ On a vite fait de confondre équivalence et similitude. La relation de similitude N’est définie QUE
pour des matrices CARRÉES, et dans son exemple fondamental, on travaille avec des ENDOmorphismes et on a les MÊMES
BASES AU DÉPART ET À L’ARRIVÉE — donc deux bases B et B ′ au lieu des quatre B , C , B ′ et C ′ de l’équivalence.
Démonstration
(i) Reprendre la preuve du résultat analogue pour les matrices équivalentes.
(ii) Soient A, B ∈ Mn (K). Si A et B sont semblables, i.e. : B = P −1
AP pour une certaine matrice P ∈ GLn (K),
alors d’après les propriétés de la trace : tr(B) = tr P −1 (AP) = tr (AP)P −1 = tr(A).
0 1 1 1 0 0 0 4 2
Exemple Les matrices 0 0 0, 1 0 1 et 0 0 0 sont semblables.
0 0 1 0 0 0 0 0 1
9
Christophe Bertault — Mathématiques en MPSI
3 3
Démonstration Notons (e1 , e2 , e3 ) la base canonique de R et f l’endomorphisme de R canoniquement associé
0 1 1
à la matrice 0 0 0. Comme : f (e1 ) = (0, 0, 0), f (e2 ) = e1 et f (e3 ) = e1 + e3 , la matrice de f
0 0 1
1 0 0 0 1 1 1 0 0
dans la base (e3 , e1 , e2 ) est 1 0 1, donc les matrices 0 0 0 et 1 0 1 sont semblables.
0 0 0 0 0 1 0 0 0
De la même manière : f (e1 ) = (0, 0, 0), f (4e 2 ) = 4e 1 et f (2e
3 ) = +
1 2e3 , donc la matrice de f dans
2e
0 4 2 0 1 1 0 4 2
la base (e1 , 4e2 , 2e3 ) est 0 0 0, donc les matrices 0 0 0 et 0 0 0 sont semblables.
0 0 1 0 0 1 0 0 1
Définition (Trace d’un endomorphisme en dimension finie) Soit E 6= 0 E un K-espace vectoriel de dimension finie.
• Définition : Soit f ∈ L (E). La trace de la matrice MatB ( f ) ne dépend pas du choix de la base B de E choisie.
On l’appelle trace de f , notée tr( f ) ou Tr( f ).
• Linéarité : Pour tous f , g ∈ L (E) et λ, µ ∈ K : tr(λ f + µg) = λtr( f ) + µtr(g).
• Effet sur une composée : Pour tous f , g ∈ L (E) : tr( f ◦ g) = tr(g ◦ f ).
Démonstration Il nous suffit de justifier la définition. Or pour toutes bases B et B ′ de E, les matrices MatB ( f )
et MatB ′ ( f ) étant semblables, nous venons de voir qu’elles ont même trace.
Exemple Soient E un K-espace vectoriel de dimension finie et p un projecteur de E. Alors : tr(p) = rg(p).
Démonstration Nous avons vu dans un précédent exemple que si B est une base de E adaptée à la
décompo-
I
sition : E = Im p ⊕ Ker p et si on pose : n = dim E et r = rg(p), alors : MatB (p) = r .
0n−r
I
A fortiori : tr(p) = tr MatB (p) = tr r = r = rg(p).
0n−r
Les concepts de ce dernier paragraphe ne sont pas au programme de MPSI, il font partie du domaine de la réduction dont
nous avons parlé plus haut et vous les étudierez en deuxième année. Cependant, parce qu’ils apparaissent sous forme cachée
dans de nombreux exercices de première année, je préfère vous les livrer en partie dès maintenant, cela ne pourra que vous
aider à comprendre la logique des exercices en question.
Je me contenterai toutefois de vous initier au point de vue matriciel de la diagonalisation, i.e. à la diagonalisation des
matrices carrées. On peut sans difficulté étendre ce qui suit au cas des endomorphismes en dimension finie.
Définition (Valeurs propres, vecteurs propres, sous-espaces propres d’une matrice carrée) Soit A ∈ Mn (K). On
appelle valeur propre de A tout scalaire λ ∈ K pour lequel : Ker (A − λI n ) 6= 0 , i.e. pour lequel il existe un vecteur
n
NON NUL X ∈ K tel que : AX = λX .
Un tel vecteur X est alors appelé un vecteur propre de A associé à la valeur propre λ.
Enfin, l’ensemble Ker (A − λI n ) de ces vecteurs propres — vecteur nul en plus — est appelé le sous-espace propre de A
associé à la valeur propre λ.
−1 3 3
Exemple On pose : A = 3 −1 −3. La matrice A possède exactement deux valeurs propres, à savoir 2 et −1.
−3 3 5
De plus : Ker (A − 2I3 ) = Vect (1, 1, 0), (1, 0, 1) et Ker (A + I3 ) = Vect (1, −1, 1) .
10
Christophe Bertault — Mathématiques en MPSI
Définition-théorème (Matrice diagonalisable) Soit A ∈ Mn (K). On dit que A est diagonalisable (sur K) si Kn possède
une base constituée de vecteurs propres de A.
Dans ce cas, si on note (X 1 , . . . , X n ) une telle base et λ1 , . . . , λn les valeurs propres associées, ainsi que P la matrice de
λ1
colonnes X 1 , . . . , X n , alors : A = P .. P −1 .
.
λn
Démonstration Faisons l’hypothèse que A est diagonalisable et conservons les notations du théorème, mais
b l’application linéaire canoniquement associée à A et Bn la base canonique de Kn .
notons en outre A
Pour tout i ∈ ¹1, nº, par définition de X i et λi : b i ) = λi X i ,
A(X b i ) dans la base
donc les coordonnées de A(X
λ1
..
b =
(X 1 , . . . , X n ) sont (0, . . . , 0, λi , 0, . . . , 0). A fortiori : Mat(X 1 ,...,X n ) A . .
λn
(X 1 ,...,X n )
Or par définition de P : P = PBn b = P −1 MatB A
, donc par changement de base : Mat(X 1 ,...,X n ) A b P,
n
λ1
et finalement comme voulu : A = P .. P −1 .
.
λn
−1 3 3 (−1)k ak ak
Exemple On pose : A= 3 −1 −3. Pour tout k ∈ N : A = ak
k
(−1)k −ak avec : ak = 2k −(−1)k .
k
−3 3 5 −ak ak 2 + ak
11
Christophe Bertault — Mathématiques en MPSI
Démonstration Idée de la preuve : Parce que les puissances d’une matrice diagonale sont très faciles à calculer,
nous allons commencer par montrer que A est diagonalisable.
• Nous avons calculé les valeurs propres et les sous-espaces propres de A dans un exemple précédent. En
l’occurrence, si nous posons : e1 = (1, 1, 0), e2 = (1, 0, 1) et e3 = (1, −1, 1), alors :
12