Académique Documents
Professionnel Documents
Culture Documents
4 Applications diverses 12
4.1 Suites récurrentes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4.2 Systèmes différentiels linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
4.3 Exponentielle d’endomorphismes et de matrices . . . . . . . . . . . . . . . . . . . . . . . . 13
4.4 Commutant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.5 Équations polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4.6 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5 Résultats supplémentaires 17
5.1 Coréduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.2 Aspects topologiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1
Dans tout ce chapitre, K vaut R ou C.
1 Préliminaires
1.1 Retour sur les projections et symétries
Quelques rappels :
– Si E1 ⊕ E2 = E, alors la projection u sur E1 parallèlement à E2 est un endomorphisme de E qui
vérifie u ◦ u = u, avec de plus Ker (u − IdE ) = E1 , et Ker (u) = E2 .
– Réciproquement, si v ∈ L(E) vérifie v ◦ v = v, alors F1 := Ker (v − IdE ) et F2 := Ker (v) sont
supplémentaires, et v est la projection sur F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v−IdE ) et Ker (v) soient supplémentaires est : si on concatène
des bases de ces deux sous-espaces, on trouve une base
de l’espace ambiant, dans laquelle la matrice de
1
..
..
. (0)
Ir . 0
1 = · · · · · · · (écriture par blocs).
v est Diag(1, ..., 1, 0, ..., 0) =
0
..
. ..
0 . 0
(0)
0
Une autre famille d’applications vérifie ce type de propriétés :
– Si E1 ⊕ E2 = E, alors la symétrie u par rapport à E1 parallèlement à (dans la direction) E2 est un
endomorphisme de E qui vérifie u ◦ u = IdE , avec Ker (u − IdE ) = E1 , et Ker (u + IdE ) = E2 .
– Réciproquement, si v ∈ L(E) vérifie v ◦ v = IdE , alors F1 := Ker (v − IdE ) et F2 := Ker (v + IdE )
sont supplémentaires, et v est la symétrie par rapport à F1 parallèlement à F2 .
Une traduction matricielle du fait que Ker (v − IdE ) et Ker (v + IdE ) soient supplémentaires est : si on
concatène des bases de ces deux sous-espaces, on trouve unebase de l’espace ambiant, dans laquelle la
..
Ip . 0
matrice de v est Diag(1, ..., 1, −1, ..., −1) =
· · · · · ··
.
..
0 . −In−p
Exercice 1 Soit u ∈ L(E) vérifiant u2 − (a + b)u + abIdE = 0. Montrer que Ker (u − aIdE ) et Ker (u −
bIdE ) sont supplémentaires. Donner la matrice de u dans une base adaptée.
Exercice 2 Soient E un espace euclidien de dimension 2, et u une rotation (non triviale). Montrer
qu’il n’existe pas de base dans laquelle la matrice de u soit diagonale.
1.2 Objectifs
Diagonaliser un endomorphisme consiste, quand c’est possible, à trouver une base dans laquelle sa
matrice est diagonale.
Définition 1 — Diagonalisabilité
En dimension finie, un endomorphisme de E est dit diagonalisable lorsqu’il existe une base
de E dans laquelle sa matrice est diagonale.
Remarque 1 Cela est équivalent au fait qu’il existe des sous-espaces V1 , ..., Vk tels que E = V1 ⊕· · ·⊕Vk ,
Xk
avec u|Vi qui est une homothétie x 7→ λi x pour tout i ∈ [[1, k]]. On a alors u = λi pi , avec pi la
i=1
projection sur Vi selon la décomposition précédente. C’est d’ailleurs ainsi qu’on définit la diagonalisabilité
en dimension infinie.
2
Définition 2 — Valeurs, vecteurs et sous-espaces propres
Si u ∈ L(E), on appelle valeur propre de u tout scalaire λ ∈ C tel que u − λIdE n’est pas
injective. Les vecteurs propres associés à la valeur propre λ sont alors les vecteurs x ∈ E non
nuls tels que u(x) = λx. Le sous-espace propre associé à la valeur propre λ est Ker (u−λIdE ).
On note souvent ce sous-espace Eλ (u), ou Eλ si cela ne prête pas à confusion.
Le spectre de u, noté Sp(u), est l’ensemble de ses valeurs propres.
Remarques 2
→
−
– Ainsi, 0 est dans tous les sous-espace propres... mais n’est pas vecteur propre. C’est ainsi ; inutile
de grogner.
– En anglais, «valeur propre» (respectivement vecteur propre) se dit «eigenvalue» (respectivement
«eigenvector»). Et maple ne parle pas danois.
– Supposons : Mat(u) = Diag(λ1 , ..., λn ). Les λi sont alors clairement des valeurs propres. Mais
E
réciproquement, si λ est une valeur propre, alors u − λIdE est non injective, donc Mat(u − λIdE ) =
E
Diag(λ1 − λ, ..., λn − λ) est non inversible, donc λ est l’une des valeurs diagonales λi .
Trouver le spectre d’une matrice diagonale ne donnera donc jamais lieu à de sordides
calculs. BIEN ENTENDU...
Exemples 1
Une projection (respectivement une symétrie) non triviale est diagonalisable. Ses valeurs propres sont
1 et 0 (respectivement 1 et −1). Avec une grande finesse dans le choix d’une base, on doit également
pouvoir prouver que les homothéties x 7→ λx sont diagonalisables.
Remarque 3 Il est souvent préférable d’«avoir des λi distincts». Plutôt que Diag(λ 1 , ..., λn ), on préfère
µ1 In1 0
donc réordonner la base, pour se ramener à une matrice écrite par blocs sous la forme
. . ,
.
0 µk Ink
avec n1 + · · · + nk = n et les µi distincts deux à deux.
Exercice 4 Soit u un endomorphisme nilpotent. Quelles sont ses valeurs propres ? Est-il diagonalisable ?
Exercice 6 Montrer que si λ1 , λ2 et λ3 sont trois valeurs propres distinctes, alors Eλ1 , Eλ2 et Eλ3
sont en somme directe.
Et sans surprise...
Théorème 1 — Sous-espaces propres en somme directe
Si λ1 , ..., λk sont des valeurs propres distinctes pour un endomorphisme, alors les sous-espaces
propres associés sont en somme directe.
Autrement dit : toute famille de vecteurs propres associés à des valeurs propres distinctes est
libre.
Preuve : Par récurrence, ou à la Vandermonde.
La somme est directe, certes, mais... vaut-elle l’espace ambiant ?
3
Proposition 2 Si u ∈ L(E) et v ∈ GL(E), alors u et w = v −1 ◦ u ◦ v ont le même spectre, et «v permet
de passer de Eλ (w) à Eλ (u)»
Preuve : Résoudre, à λ fixé, l’équation w(x) = λx.
Exemple 2 Si E est un espace euclidien de dimension 2 ou 3, r est une rotation et s une réflexion,
alors r−1 ◦ s ◦ r est une réflexion, et s ◦ r ◦ s est une rotation (c’est même r, en dimension 2).
Calculer l’ensemble des endomorphismes commutant avec u ∈ L(E) fixé est une activité classique,
qui utilise à haute dose le résultat suivant :
P (u) := a0 IdE + a1 u + · · · + ak uk ,
avec ui = u
| ◦ u ◦{z· · · ◦ u}.
i fois
Proposition 4 Si u ∈ L(E) et P ∈ K[X], alors Ker (P (u)) et Im (P (u)) sont stables par u.
Preuve : Left to the reader.
4
1.5 «Réduction de matrices»
Définition 4 — Diagonalisation/réduction de matrices
Si A ∈ Mn (K) est une matrice carrée, diagonaliser A consiste à (tenter de) diagonaliser
l’endomorphisme canoniquement associé à A. On parle de même des valeurs propres, vecteurs
propres et spectre d’une matrice.
On travaille donc dans Kn , en notant en colonnes les vecteurs. La traduction matricielle de «il existe
une base dans laquelle la matrice de u est diagonale» est : «il existe P ∈ GLn (K) telle que P −1 AP est
diagonale».
1 1 1
Exemple 4 Prenons A = 1 1 1. Elle est de rang 1, donc la dimension du noyau (de l’application
1 1 1
1 1
linéaire u canoniquement associée) vaut 2. On trouve facilement une base du noyau : −1 et 0
0 −1
1
sont de bons candidats. Par ailleurs, en notant C = 1, on a AC = 3C, ce qui nous donne un
1
3
vecteur pour obtenir une base de diagonalisation
de u. notant E la base canonique de R , F la base
En
1 1 1
diagonalisation, P = Pas = Mat IdE = −1 0 1 et D = Mat(u) = Diag(1, 1, 3), on a alors :
E→F F ,E F
0 −1 1
– si on retranscrit en une seule fois les trois relations ACi = λCi : AP = P D ;
– si on applique le théorème de changement de base pour les endomorphismes : D = Mat(u) = P −1 AP
F
u
E −−−−→ E
A
x
IdE yP −1
IdE P
u
F −−−−→ F
D
Cela signifie que A et B représentent le même endomorphisme de Kn .. dans deux bases différentes.
Exercice
8 Lesmatrices
suivantes
sont-elles semblables ?
2 0 0 2 1 0
– 0 2 0 et 0 2 0 ;
0 0 2 0 0 2
5
1 0 0 3 0 0
– 0 2 0 et 0 2 0 ;
0 0 3 0 0 1
1 0 0 1 1 0
– 0 2 0 et 0 2 0.
0 0 3 0 0 3
Réduire une matrice A revient finalement à chercher une matrice la plus simple possible (idéalement :
diagonale) semblable à A.
Le résultat suivant n’est pas à proprement parler un résultat de cours, mais est tellement classique...
Proposition 6 Soient A, B ∈ Mn (R) semblables sur C (au sens : il existe P ∈ GLn (C) telle que
B = P −1 AP ). Montrer qu’elles sont semblables sur R (au sens... maintenant clair).
Preuve : On écrit P = P1 + iP2 , avec P1 , P2 ∈ Mn (R). La relation (P1 + iP2 )B = A(P1 + iP2 )
fournit P1 B = AP1 et P2 B = AP2 . C’est gagné si P1 ou P2 est inversible. Sinon, il suffit de considérer
les combinaisons Mt = P1 + tP2 , avec t ∈ R : on a toujours Mt B = AMt . Considérons maintenant
ϕ : t 7→ det(P1 + tP2 ) : ϕ est une application polynomiale non nulle sur C (puisque ϕ(i) 6= 0), donc non
nulle sur R (elle possède un nombre fini de racines), donc il existe t ∈ R tel que ϕ(t) 6= 0, et c’est gagné.
2. Si le rang est petit, alors le noyau est grand, ce qui nous fournit une valeur propre (0) dont le
sous-espace associé est grand...
1 ··· 1 1
.. .
.. a pour rang 1, et en prenant C = ...
Exemple 7 La matrice A = . , on a AC = nC.
1 ··· 1 1
Ainsi, il existe une base (clair ?) de Kn dans laquelle l’endomorphisme canoniquement associé à A
vaut Diag(0, ..., 0, n).
Exercice 10 Soit A ∈ Mn (K). Montrer que l’application ϕ : M ∈ Mn (K) 7→ tr(M )A est diago-
nalisable.
6
3. On arrive parfois à résoudre directement l’équation u(x) = λx.
Remarque 5 Soit u une projection et P = X(X − 1)(X − 933) : on a P (u) = 0, mais toutes les racines
de P ne sont pas des valeurs propres pour u...
Théorème 2 — Théorème des noyaux
Si P et Q sont deux polynômes premiers entre eux et u ∈ L(E), alors
Exemples 9
Ce théorème s’applique bien entendu dans les cas où P = X 2 − X = X(X − 1), P = X 2 − 1 =
(X − 1)(X + 1). Si on reprend la matrice A de l’exemple 7, on a immédiatement A2 = nA, donc
X 2 − nX = X(X − n) est un polynôme annulateur de A, donc E = Ker (A) ⊕ Ker (A − nIdE ).
7
Remarque 6 Le théorème des noyauxYs’étend au produit de k polynômes P1 , ..., Pk premiers entre eux
deux à deux : les polynômes Qi = Pj sont alors premiers entre eux dans leur ensemble (aucun
j6=i
polynôme ne les divise tous), et on peut Bezouter de la même façon que pour k = 2. Une autre façon de
1
faire (lorsque les Pi sont irréductibles) est de décomposer en éléments simples puis de multiplier
P1 ...Pk
le résultat de cette décomposition par P1 ...Pk .
Théorème 3 — Théorème des noyaux - cas général
Si P1 , ..., Pk sont k polynômes premiers entre eux deux à deux, et u ∈ L(E), alors
k
M
Ker ((P1 ...Pk )(u)) = Ker (Pi (u)) .
i=1
Exemples 10
– Supposons que λ1 , ..., λn ∈ K sont distincts deux à deux, et notons D = Diag(λ1 , ..., λn ). Si
P ∈ K[X], on a P (D) = Diag (P (λ1 ), ..., P (λn )), donc P (D) = 0 si et seulement si P (λ1 ) = ... =
P (λn ) = 0. Ainsi : µD =(X − λ1 )...(X − λn ).
0 1 (0)
.. ..
. .
. On calcule facilement N k , puis, en notant P =
– Soit maintenant N =
. .. 1
(0) 0
a0 a1 · · · an−1
.. .. ..
. . .
a0 + a1 X + · · · + an−1 X n−1 + · · · + ad X d : P (N ) = , puis : µN = X n .
..
. a1
(0) a0
8
933 1 (0)
.. ..
. .
Exercice 15 Déterminer le polynôme minimal de
..
. 1
(0) 933
Notons enfin que si B = P −1 AP , alors Q(B) = P −1 Q(A)P , donc A et B ont les mêmes polynômes
annulateurs, donc le même polynôme minimal.
Remarques 7
– Si on veut s’abstraire 1 de la désagréable condition sur K, on peut directement définir χu :=
det(XIn − A), avec A la matrice représentant u dans une base donnée : ce calcul de déterminant
a lieu dans Mn (K(X)), et le résultat ne dépend pas de la base choisie...
– On 2 choisit parfois de noter χu (λ) = det(u − λIdE ). Le polynôme caractéristique est alors toujours
de degré n, mais de coefficient dominant (−1)n .
– La réponse à la question qui vous brûle les lèvres est : CharacteristicPolynomial(A,X)
Exercice 16 Calculer le polynôme caractéristique d’une matrice diagonale. D’abord sous forme facto-
risée, puis développée : que vaut le coefficient constant ? Et le coefficient de X n−1 ?
Exercice 19 Calculer le polynôme caractéristique de A ∈ Mn (R) telle que Ai,j = 1 pour tout (i, j) ∈
[[1, N ]]2 .
1. et c’est indispensable par sur les corps finis
2. pas moi, mais des tas de gens très respectables
9
3 Alors, diagonalisable ou pas ?
On a déjà vu que certaines matrices n’étaient pas diagonalisables. Il y a essentiellement deux raisons
de nature très différentes :
– les valeurs propres peuvent être «complexes non réelles» (ce qui pose problème lorsqu’on est dans
R : voir les rotations) ;
– les valeurs propres sont bien réelles, mais les sous-espaces propres sont «trop petits» : leur somme
ne remplit pas l’espace : c’est le cas des nilpotents, qui possèdent comme unique valeur propre 0,
mais qui sont «rarement» diagonalisables...
Remarque 8 Pour que u soit diagonalisable, il SUFFIT donc que χu soit scindé à racines simples, mais
ce n’est pas nécessaire (donner un contre-exemple).
Exercice 20 Montrer que u est diagonalisable si et seulement si µu est scindé à racines simples.
Exercice 22 (CCP 2010 - PC) Soit f ∈ L(R5 ) tel que f 3 + f 2 + f = 0. Déterminer les valeurs
possibles pour la trace de f .
Proposition 9 La dimension du sous-espace propre associé à une valeur propre est majorée par l’ordre
de multiplicité de cette valeur propre.
Preuve : Considérer la restriction de l’endomorphisme au sous-espace propre (qui est stable) : son
polynôme caractéristique divise celui de l’endomorphisme global...
10
On a même un peu mieux :
1 1 a
Exercice 23 (CCP 2007, 2008) Soit A = 0 2 0.
0 0 a
1. Quel est le rang de A ? A est-elle inversible ?
2. La matrice A est-elle diagonalisable ?
3.3 Trigonalisation
Exercice 24 Soient E un espace de dimension 4, u ∈ L(E), E = (e1 , e2 , e3 , e4 ) une base de E, et
F = (e4 , e3 , e2 , e1 ). Comparer Mat(u) et Mat(u).
E F
Remarques 10
– Dans Mn (C), toute matrice est donc trigonalisable.
– Finalement, un endomorphisme est trigonalisable si et seulement si son polynôme caractéristique
est scindé. C’est clair ?
– Une étude fine des nilpotents permet d’affiner nettement les choses. On obtient alors une forme
réduite portant beaucoup d’information : c’est la réduction de Jordan.
11
4 Applications diverses
4.1 Suites récurrentes linéaires
un+1 = 3un
Résoudre 3 n’est guère compliqué. Ça se gâte pour un système à dépendances
v
n+1 = −5vn
un+1 = 17un + 60vn
mutuelles tel que ....
vn+1 = −5un − 18vn
On traduit donc ce système en l’équation matricielle Xn+1 = AXn . Si A est diagonale, c’est gagné.
Sinon, on essaie de réduire A sous la forme A = P.D.P −1 avec D diagonale. On a alors en posant
Yn = P −1 Xn :
Yn+1 = P −1 Xn+1 = P −1 .AXn = P −1 .P DP −1 Xn = DYn ,
d’où le calcul simple de Yn puis de Xn = P Yn .
On aura noté qu’il n’est pas utile de calculer P −1 ...
17 60 −1 −4 −3
Exemple 12 Dans le cas vu plus haut, A = = P.D.P , avec P = et D =
−5 −18 1 1
2 0 xn xn+1 = 2xn
. En posant Yn = P −1 Xn = , on obtient donc , d’où xn = 2n x0 et
0 −3 yn yn+1 = −3yn
yn = (−3)n y0 . Il reste à écrire Xn = P Yn pour obtenir l’existence de constantes 4 K1 et K2 telles que
un = −4K1 2n − 3K2 (−3)n
∀n ∈ N,
vn = K1 2n + K2 (−3)n
Exercice 25 Comment l’auteur de ce poly a-t-il engendré cette matrice A pourrie, mais finalement pas
tant que ça ?
Exercice 26 Trouver les suites (u, v, w) vérifiant les relations de récurrence mutuelle
un+1 = −3un − 4vn + 10wn
∀n ∈ N, vn+1 = −2un − 5vn + 10wn
wn+1 = −un − 4vn + 8wn
u0 = 1
avec les conditions initiales v0 = −1
w0 = 2
λ 1 0
Notons que si D n’est pas diagonale mais par exemple de la forme 0 λ 0 , le calcul de Dn donc
0 0 µ
de An (donc de Xn = An X0 ) se fait bien également.
Exercice 27 Trouver les suites (u, v) vérifiant les relations de récurrence mutuelle
un+1 = 3un + 2vn
∀n ∈ N,
vn+1 = −2un − vn
Remarques 11
– Je ne suis pas fan de cette méthode de diagonalisation pour calculer finalement An (c’est le moins
qu’on puisse dire...) : en pratique, le calcul de An en réalisant 5 la division euclidienne de X n par
un polynôme annulateur est presque toujours plus efficace 6 . M’enfin...
– On peut ramener l’étude des récurrences linéaires d’ordre p pour UNE suite d’éléments de K à
p
celle d’une
récurrence
d’ordre 1, dans K . Par exemple pour fn+2 = fn + fn+1 , on pose
linéaire
fn 0 1
Xn = et A = , de sorte que Xn+1 = AXn , etc...
fn+1 1 1
3. au sens : «trouver LES suites u et v telle que la relation de récurrence soit vérifiée pour tout n ∈ N»
4. Les exprimer à l’aide de u0 et v0 n’a que peu d’intérêt
5. seul le reste nous intéresse
6. le gain par rapport à la première année est l’obtention rapide et mécanique d’un polynôme annulateur
12
4.2 Systèmes différentiels linéaires
Même principe que dans la section précédente : il s’agit de résoudre des systèmes différentiels linéaires
de la forme : 0
x (t) = ax(t) + by(t)
y 0 (t) = cx(t) + dy(t)
où x et y sont deux fonctions de classe C 1 que l’on recherche. Si b = c = 0 (système diagonal), ce n’est
guère compliqué...
x
Dans le cas général, on pose X = , de sorte que le système différentiel s’écrit X 0 = AX. On
y
x1
tente de diagonaliser A sous la forme A = P.D.P −1 . On pose alors X1 = P −1 X = , de sorte que
y1
X10 = DX1 , ce qui nous donne X1 puis X = P X1 . Il est à nouveau inutile de calculer P −1 , et on peut
noter que tout ceci se passe par équivalence : on a bien trouvé exactement les solutions au problème
initial.
0
x = 17x + 60y x
Exemple 13 Résolvons le système différentiel en posant X = , A =
y 0 = −5x − 18y y
17 60 −4 −3 2 0
= P.D.P −1 , avec P = et D = (ça n’a pas changé...). Le sys-
−5 −18 1 1 0 −3
x1
tème X 0 = AX devient, en posant X1 = P −1 X = : X10 = DX1 , c’est-à-dire x1 (t) = x1 (0)e2t et
y1
y1 (t) = y1 (0)e−3t , puis grâce à la relation X = P X1 :
0
x(t) = −4K1 e2t − 3K2 e−3t
x = 17x + 60y
0 ⇐⇒ ∃K1 , K2 ∈ R; ∀t ∈ R,
y = −5x − 18y y(t) = K1 e2t + K2 e−3t
13
Définition 10 — Exponentielle d’un endomorphisme et d’une matrice (rappel)
+∞ n
X u
Soient u ∈ L(E). L’endomorphisme eu est la somme de la série absolument convergente ·
n=0
n!
+∞
X An
De même, si A ∈ Mn (K), la matrice eA est la somme de la série convergente ·
n=0
n!
Remarque 12 Bien entendu, si U = Mat(u), alors Mat (eu ) = eU ... Le vérifier tout de même !
E E
Exercice 31 Calculer l’exponentielle d’une matrice diagonale. Que vaut son déterminant ? Énoncer et
prouver une formule de ce type pour toute exponentielle de matrice.
17 60
Exercice 32 Calculer l’exponentielle de (encore elle...)
−5 −18
Le résultat qui suit nous dit que eu est certes une série en u... mais aussi un polynôme !
−3 1 3 2
Exercice 33 Calculer l’exponentielle de puis celle de .
0 −3 −2 −1
Remarque 13 Vous aimeriez un énoncé qui vous dise que pour résoudre X 0 = AX, on peut faire comme
pour x0 = ax (équations différentielles de terminale) ? Attendez quelques mois, ou bien créez votre propre
énoncé : le seul qui a un sens et est raisonnable... est correct !
4.4 Commutant
On sait déjà que si u◦v = v◦u, alors les sous-espaces propres de u sont stables par v (et vice-versa bien
entendu). Pour trouver toutes les matrices B commutant avec A donnée, on raisonne géométriquement
en notant u et v les endomorphismes canoniquement associés à A et B. On va supposer ici que A a le
bon goût d’être diagonalisable.
– Analyse : si AB = BA alors u ◦ v = v ◦ u, donc les sous-espaces propres de u sont stables par v.
– Synthèse : réciproquement, si les sous-espaces propres de u sont stables par v, alors sur chacun de
ces sous-espaces propres, les restrictions de u ◦ v et de v ◦ u sont égales. Or ces sous-espaces sont
supplémentaires, donc u ◦ v = v ◦ u globalement.
17 60
Exemple 14 On cherche les matrices commutant avec notre nouvelle amie A = . On note
−5 −18
u l’endomorphisme canoniquement associé à A, et v canoniquement associée à B : AB = BA si et
seulement si u ◦ v = v ◦ u. Une condition nécessaire est que les sous-espaces propres de u soient stables
par v, ce qui impose Mat(v) diagonale. Réciproquement, cette dernière condition nous assurera que effec-
F
tivement u ◦ v = v◦ u. Les matrices recherchées sont donc celles de la forme P D1 P −1 , avec D1 diagonale
−4 −3
et P = .
1 1
14
On aurait pu raisonner directement matriciellement :
AB = BA ⇐⇒ P −1 ABP = P −1 BAP ⇐⇒ P −1 AP.P −1 BP = P −1 BP.P −1 AP ⇐⇒ D.P −1 BP = P −1 BP.D,
2 0
Donc B commute avec A si et seulement si B 0 = P −1 BP commute avec D = , ce qui est
0 −3
équivalent par un calcul très simple à : B 0 diagonale. On retrouve bien le résultat précédent.
−3 −4 10
Exercice 34 Déterminer l’ensemble des matrices commutant avec −2 −5 10.
−1 −4 8
Remarque 14 Si A n’est pas diagonalisable,on décompose en général l’espace en somme directe de sous-
k
espaces stables par u : typiquement, les Ker (u − λIdE ) , avec k l’ordre de multiplicité de λ ∈ Sp(u).
Ces sous-espaces sont stables par v. Comme à l’intérieur de ces sous-espaces, les sous-espaces propres de
u sont également stables, ça réduit furieusement les possibilités pour v. On fait alors la synthèse.
3 2
Exercice 35 Déterminer l’ensemble des matrices commutant avec
−2 −1
Exemple 15 Pour l’exercice précédent : on note u et v les applications linéaires canoniquement associées
à M et A. Il existe une base de Kn dans laquelle Mat(u) = Diag(λ1 , ..., λn ).
F
– si K = C, il existe µ1 , ..., µn tels que pour tout k ∈ [[1, n]], µ2k = λk . On prend alors v telle que
Mat(v) = Diag(µ1 , ..., µn ) : v 2 = u, donc en observant cette relation depuis la base canonique de
F
Kn , on trouve bien A2 = B.
– si K = R et que chacun des λi est positif, le raisonnement précédent s’applique.
– si K = R et que l’un au moins des λi est strictement négatif : pour avoir u2 = v, Mat(u) doit
F
être diagonale et son carré doit être égal à Diag(λ1 , ..., λn ) : c’est impossible à cause du λi < 0 :
l’équation A2 = B n’a donc pas de solution.
Notons qu’ici dans le cas favorable (complexe) on pouvait facilement raisonner sans géométrie : «on
a M = P DP −1 , et il suffit alors de prendre A = P D0 P −1 ». Mais dans le cas défavorable, il semble
difficile de prouver la non-existence de A autrement que par une analyse nous fournissant des conditions
nécessaires impossibles à tenir ; et ce sont essentiellement des arguments géométriques («tel sous-espace
est stable par telle application») qui nous ont donné des conditions nécessaires : point de calculs sordides !
−3 −4 10
Exercice 37 Résoudre dans M2 (C) puis dans M2 (R) : B 2 = −2 −5 10.
−1 −4 8
15
Si les sous-espaces propres ne sont pas des droites, ça complique la situation puisqu’on est amené à
résoudre des équations de la forme P (u) = λIdE , qui peuvent être en général plus compliquées. On peut
tout de même utiliser sur chacun de ces sous-espaces propres le théorème des noyaux pour u. Enfin, si v
n’est pas diagonalisable, tout n’est pas perdu !
1 1
Exercice 38 (X 2010 - PC) Soit n > 2. Déterminer les A ∈ M2 (C) telles que An =
0 1
Remarque 15 Si on n’est pas sur Rn , on s’en sort en choisissant le produit scalaire pour lequel la base
de travail est orthonormée. Mais en fait si cela se produit à un oral de concours, c’est probablement
parce que l’interrogateur pense que la transposition est au programme. S’il a prononcé ce mot, il n’est
plus dans les clous, et on avise alors en fonction du résultat de l’oral !
Exemple 16 (TPE 2008 )Déterminer les sous-espaces de R3 stables par l’application canoniquement
3 1 −1
associée à A = 1 1 1 .
2 0 2
L’unique valeur propre de A est 2, et le sous-espace propre associé est une droite, donc il y a une seule
droite stable par u. Un plan sera stable si et seulement s’il est l’orthogonal d’un vecteur propre de t A.
Mais t A a les mêmes valeurs propres que A et de plus les dimensions des sous-espaces propres sont les
même (le rang de t A − λI3 est le même que A − I3 ), donc il y a un seul plan stable par u.
Pour être plus précis :
1 1 −1 0
– la matrice A − 2I3 = 1 −1 1 est bien de rang 2 et possède X1 = 1 dans son noyau,
2 0 0 1
donc la droite stable par A/u est Vect(X1 ) ;
16
1 1 2 1
– pour le plan, A − 2I3 = 1 −1 0 est comme attendu de rang 2 et possède X2 = 1 dans
−1 1 0 −1
son noyau, donc le plan stable est X2⊥ , c’est-à-dire le plan d’équation x + y − z = 0.
N’oublions pas les sous-espaces triviaux (R3 et {0}) qui sont bien entendu stables par u.
Signalons
ici un point de vue alternatif utilisant la trigonalisation. Dans une base adaptée, on a
2 1 0
Mat(u) = 0 2 1 : le plan P = Vect (f1 , f2 ) est stable par u, et si un vecteur x n’est pas dans P ,
F
0 0 2
alors la famille x, u(x), u2 (x) est de rang 3 (calcul du rang de la matrice les représentant dans F) donc
aucun plan ne contenant x ne peut être stable. Ceci prouve que Vect (f1 , f2 ) est l’unique plan stable par
u.
2 1 0
Exercice 39 (X 2010 - PC) Soient M = 0 2 0 et u ∈ L(R3 ) canoniquement associée à M .
0 0 1
Déterminer les sous-espaces stables par u.
5 Résultats supplémentaires
5.1 Coréduction
Définition 11 — Cobidulisation
Deux endomorphismes sont dits codiagonalisables (respectivement cotrigonalisables) lors-
qu’il existe une base de l’espace dans laquelle la matrice de l’un et de l’autre est diagonale
(respectivement triangulaire supérieure).
Les deux outils pour aborder ces questions sont essentiellement, comme souvent : le théorème des
noyaux, et le fait que deux endomorphismes qui commutent stabilisent leurs espaces propres mutuels.
Exercice 40 Soient p et q sont deux projections qui commutent. Montrer qu’il existe une base dans
laquelle les matrices de l’un et de l’autre sont diagonales.
Théorème 7 — Codiagonalisation
Si deux endomorphismes commutent et sont diagonalisables, alors ils sont codiagonalisables.
Preuve : Succinctement : on suppose u ◦ v = v ◦ u. On décompose l’espace comme somme des sous-
espaces propres Vi de E. Ces sous-espaces sont stables par v, et le polynôme scindé à racines simples
annulant v... annule aussi la restriction vi = v|Vi . Cette dernière est donc diagonalisable. Il n’y a plus
qu’à recoller les bases de diagonalisation des vi pour obtenir une base de E (les Vi sont supplémentaires)
dans laquelle les matrices de u et de v sont par construction diagonales.
Signalons pour la forme un dernier résultat, encore plus hors programme que le précédent !
Théorème 8 — Cotrigonalisation
Si u, v ∈ L(E), avec E un C-espace vectoriel, vérifient u ◦ v = v ◦ u, alors u et v sont cotrigo-
nalisables.
Preuve : (Succinctement) On prouve le résultat par récurrence sur la dimension de l’espace. On se
ramène grâce aux outils usuels au cas où u est nilpotent. On prend une base de E commençant par une
base de Ker (u). Puisque Ker (u)est stable
par v, lesmatricesde u et v dans ces bases sont respectivement
(0) A C D
de la forme (par blocs) : Mu = et Mv = . Le polynôme scindé qui annulait v annule
(0) B (0) E
également C et E, donc on peut déjà faire un changement de base dans le «premier» sous-espace pour
ramener C à une matrice triangulaire supérieure. Ensuite, on a BE = EB avec E et B cotrigonalisables
(même argument du polynôme annulateur scindé, pour B), donc «par hypothèse de récurrence», on peut
changer la de base dans le deuxième sous-espace pour amener E et B en situation triangulaire supérieure.
Attention, E et B ne représentent pas des matrices de restriction...
17
5.2 Aspects topologiques
Pour chaque résultat, on donne «le» bon énoncé, quitte à le reformuler en termes de limites dans la
preuve
Proposition 15 Dans Mn (C), les matrices diagonalisables à spectre simple (n valeurs propres dis-
tinctes) sont denses.
Preuve : Soit A ∈ Mn (C). On va montrer qu’il existe une suite de matrices diagonalisables à spectre
simple convergeant vers A. Déjà, A est trigonalisable, donc il existe P ∈ GLn (C) telle que T =
P −1 AP soit triangulaire, disons avec comme coefficients (λ1 , ..., λn ) sur la diagonale. Notons alors
DN = Diag(1, 2, ..., n)/N : pour N assez grand, T + DN a ses n éléments diagonaux distincts (en
i j
effet, la condition λi + = λj + est équivalente à N (λi − λj ) = j − i ne peut être vérifiée, pour i 6= j,
N N
que pour un nombre fini de valeurs de N ). Ainsi, pour N assez grand, T + DN est à spectre simple, donc
P (T + DN )P −1 également. Il reste à noter que P (T + DN )P −1 = A + P DN P −1 −→ A.
N →+∞
On a déjà vu une application simple mais de bon goût : la démonstration du théorème de Cayley-
Hamilton.
Exercice 42 Montrer que les matrices diagonalisables à spectre simple constituent un ouvert de Mn (K).
18