Académique Documents
Professionnel Documents
Culture Documents
Reduction
Reduction
fr 20 août 2010
Réduction
1 0 1 0
a. Etudier la diagonalisabilité de A.
b. Montrer que R4 = ker(A − I)2 ⊕ ker(A + I)2 , où I désigne la matrice identité de M4 (R).
c. Montrer que A est semblable à la matrice
1 1 0 0
0 1 0 0
B= 0 0 −1 1 .
0 0 0 −1
réduction, page 1
http ://collesdemaths.free.fr
a. Etudier la diagonalisabilité de A.
b. Déterminer une matrice P inversible telle que
a 0 0
P −1 AP = 0 b c ,
0 0 b
Diagonaliser la matrice At .
réduction, page 2
http ://collesdemaths.free.fr
Exercice 16. On se donne (Mj )16j6p des matrices de Mn (C) telles que
Exercice 17. Soient A, B ∈ Mn (R) semblables sur C, ie ∃ P, Q ∈ Mn (R), (P + iQ) ∈ GLn (C) et
(P + iQ)A = B(P + iQ).
a. Montrer que ∀λ ∈ R, (P + λQ)A = B(P + λQ).
b. En déduire que A et B sont semblables sur R.
réduction, page 3
http ://collesdemaths.free.fr 20 août 2010
Solutions : Réduction
Exercice 1. a. On calcule det(A) = 2a, donc la matrice est inversible (donc de rang 3), si a 6= 0. Sinon,
pour a = 0, les deux premières colonnes sont libres, le rang est donc 2 et la matrice est non-inversible.
b. On calcule le polynôme caractéristique χA de la matrice A, il vaut χA (X) = (X − 1)(X − 2)(X − a).
Si a 6= 1 et a 6= 2, alors χA est scindé à racines simples, ainsi la matrice
est diagonalisable.
Si a = 1, la
1
multiplicité algébrique de 1 est 2, et alors on calcule ker(A − I) = R −1 qui est de dimension 1,
0
donc la matrice n’est pas diagonalisable.
De même, si a = 2, la multiplicité algébrique de 2 est 2, et alors
0
on calcule ker(A − 2I) = R 1 qui est de dimension 1, donc la matrice n’est pas diagonalisable.
0
Exercice 3. Si a = b = 0, A est la matrice nulle, et il n’y a rien à faire. On suppose donc jusqu’à la
fin de l’exercice que a et b sont non tous nuls, ie a2 + b2 6= 0. On calcule le polynôme caractéristique
de A,
−X a b p p
χA (X) = a −X 0 = −X(X 2 − (a2 + b2 )) = −X(X − a2 + b2 )(X + a2 + b2 ),
b 0 −X
et ce polynôme est scindé à racine simples d’après les hypothèses faites sur a et b. A est donc diago-
nalisable. On nous demande de réduire la matrice, puis de calculer An . On va suivre les consignes (à
la fin on donnera une “solution” beaucoup plus rapide du calcul de An ), et commencer par réduire A,
mais de façon “intelligente” afin de ne pas trop compliquer les calculs de An . Remarquant que A est
réduction, page 1
http ://collesdemaths.free.fr
A3 = (a2 + b2 )A
puis
An+2 = (a2 + b2 )An
qui donne par récurrence le résultat demandé (initialiser à n = 1 et n = 2).
réduction, page 2
http ://collesdemaths.free.fr
Exercice
5. Onva montrer
a.et b. directement.
considère la base de M2 (R) formée de e1 =
On
1 0 0 1 0 0 0 0
, e2 = , e3 = , e4 = . Dans cette base, f a pour matrice
0 0 0 0 1 0 0 1
0 0 0 1
0 0 −1 0
M =
0 −1 0 0 .
1 0 0 0
L’exercice revient donc à diagonaliser (si possible) M . La matrice étant symétrique réelle, elle est
diagonalisable (en base orthonormée). On calcule
−X 0 0 1
0 −X −1 0
χM (X) =
0 −1 −X 0
1 0 0 −X
−X 1 0 0
1 −X 0 0
=− (après permutation de lignes et colonnes)
0 0 −1 −X
0 0 −X −1
= (X − 1)2 (X + 1)2 .
On calcule directement que
−1 0 0 1 0 1
0 −1 −1 0 1 0
ker(A − I2 ) = ker = R
0 −1 −1 0
+ R
−1 0
1 0 0 −1 0 1
et
1 0 0 1 0 1
0 1 −1 0 1
+ R 0 .
0 −1 1 0 = R
ker(A + I2 ) = ker
1 0
1 0 0 1 0 −1
a b
Ainsi, f est diagonalisable, et ses éléments propres sont de la forme , a, b ∈ R, associé à la
−b a
a b
valeur propre 1 et , a, b ∈ R, associé à la valeur propre −1.
b −a
−X 1 0 1
−6 −X −7 0
χA (X) = .
0 −1 −X 0
1 0 1 −X
−6 −X −7 −X 1 0
1+4 4+4
χA (X) = (−1) ∗1∗ 0 −1 −X + (−1) ∗ (−X) ∗ −6 −X −7 .
1 0 1 0 −1 −X
Maintenant, soit on redéveloppe par rapport à une ligne ou une colonne chacun des deux déterminants,
soit on connait la forumle pour un déterminant 3 ∗ 3 (d’ailleurs dans tous les cas on doit connaitre la
formule), pour obtenir finallement
réduction, page 3
http ://collesdemaths.free.fr
1 0 1 −1
0
1
1
ker(A − I) = R
−1 .
A ce stade, on peut déjà dire que A n’est pas diagonalisable, en effet, une condition nécessaire de
diagonalisabilité est que la dimension du sous-espace propre (ici 1) associé à une valeur propre soit
égale à la multiplicité de la valeur propre dans le polynôme caractéristique (ici 2). Finissons tout de
même le calcul des sous-espaces propres.
Calculons maintenant ker(A + I). On a
1 1 0 1
−6 1 −7 0
0 −1 1 0 .
ker(A + I) = ker
1 0 1 1
0
1
−1
ker(A + I) = R
−1 .
b. Pour montrer cette égalité, il existe beaucoup de façons d’argumenter. Le plus simple peut-être est
de bien connaitre son cours. Le théorème de Cayley-Hamilton permet d’écrire R4 = ker(A−I)2 (A+I)2 ,
réduction, page 4
http ://collesdemaths.free.fr
puisque χA (A) = 0, et le lemme de décomposition des noyaux permet d’avoir l’égalité ker((A − I)2 (A +
I)2 ) = ker(A−I)2 ⊕ker(A+I)2 , puisque X −1 et X +1 sont des polynômes premiers entre eux (on a une
relation de Bezout 21 ((X − 1) + (X + 1)) = 1). On a donc établi l’égalité R4 = ker(A − I)2 ⊕ ker(A + I)2 .
c. Maintenant, l’exercice devient plus fin. Il faut faire le lien entre la structure par blocs de la matrice
B, et la décomposition de la question b.. Les sous-espaces ker(A±I)2 sont stables, et donc si l’on forme
une base de R4 en concaténant une base de chacun de ces deux espaces (de dimensions 2, comme on le
pense intuitivement et comme le suggère la forme de la matrice B), on se retrouve, après changement de
base, avec une matrice par blocs diagnonaux. Si de plus chacune de ces deux bases contient un vecteur
propre, alors on obtient “presque” la matrice B. Voilà pour l’idée, passons donc à la justification et aux
calculs.
On va donc calculer une base de chacun des sous-espaces ker(A ± I), en imposant au premier vecteur
de base d’être un vecteur propre (ce qui est possible d’après l’inclusion ker(A ± I) ⊂ ker(A ± I)2 ).
Calculons d’abord ker(A − I)2 . On a
−4 −2 −6 −2
12 2 14 −6
(A − I)2 = 6
.
2 8 0
−2 0 −2 −2
On résout le système d’inconnues x, y, z, t ∈ R :
−4x −2y −6z −2t =0
12x +2y +14z −6t =0 −x −z +t = 0
⇔
6x +2y +8z =0 y +z +3t = 0
−2x −2z +2t =0
On a deux équations
liées, la dimension de l’espace des solutions est donc 4 − 2 = 2. Une solution
non
1
1
est donnée par −1 qui est un vecteur propre. Pour trouver une deuxième solution qui n’est pas
0
colinéaire à la première,
onfixe t = 1 et on obtient alors nécessairement
(d’après
les équations
du
1 1 1
−3 1 −3
système) le vecteur . Donc on a montré que ker(A − I)2 = R + R
0 .
0 −1
1 0 1
Calculons maintenant ker(A + I)2 . On a
−4 2 −6 2
−12 2 −14 −6
(A + I)2 = .
6 −2 8 0
2 0 2 2
On résout le système d’inconnues x, y, z, t ∈ R :
−4x +2y −6z +2t =0
−12x +2y −14z −6t =0 x +z +t = 0
⇔
6x −2y +8z =0 −y +z −3t = 0
2x 2z +2t =0
On a deux équations
liées, la dimension de l’espace des solutions est donc 4 − 2 = 2. Une solution
non
1
−1
est donnée par −1 qui est un vecteur propre. Pour trouver une deuxième solution qui n’est pas
0
colinéaire à la première,
onfixe t = 1 et on obtient alors nécessairement
(d’après
les équations
du
−1 1 −1
−3 −1 −3
2
0 . Donc on a montré que ker(A + I) = R −1 + R 0 .
système) le vecteur
1 0 1
réduction, page 5
http ://collesdemaths.free.fr
Calculons maintenant
la matrcie
de
l’endomorphisme
canoniquement
associé
à la matrice A dans la
1 1 1 −1
1 −3 −1 −3
nouvelle base e1 =
−1 , e2 = 0 , e3 = −1 , e4 = 0 .
0 1 0 1
On a Ae1 = e1 , Ae3 = −e3 . Calculons ensuite
0 1 0 1 1 −2
−6 0 −7 0 −3 −6
Ae2 = 0 −1 0 0 0 = 3 .
1 0 1 0 1 1
Ce dernier vecteur étant dans l’espace ker(A − I)2 , puisqu’il s’agit d’un espace stable, il s’exprime en
fonction de e1 et de e2 . Seul e2 ayant sa dernière coordonnée non nulle, on en déduit que Ae1 = αe1 +e2 .
Et une vérification montre que l’on a en fait Ae2 = −3e1 + e2 .
Calculons
0 1 0 1 −1 −2
−6 0 −7 0 −3 6
Ae4 = 0 −1 0 0 0 = 3 .
1 0 1 0 1 −1
Ce dernier vecteur étant dans l’espace ker(A + I)2 , puisqu’il s’agit d’un espace stable, il s’exprime en
fonction de e3 et de e4 . Seul e4 ayant sa dernière coordonnée non nulle, on en déduit que Ae4 = βe3 −e4 .
Et une vérification montre que l’on a en fait Ae4 = −3e3 − e4 .
Finalement on a montré que A est semblable à la matrice
1 −3 0 0
0 1 0 0
B̃ =
0 0 −1 −3 ,
0 0 0 −1
ce qui n’est pas tout à fait le résultat demandé. Il reste un dernier petit effort à faire. On se doute
que notre choix de vecteurs de base n’est pas tout à fait celui qu’il fallait. Ce ne sont ni e1 ni e3 qui
sont en cause, puisqu’ils sont vecteurs propres. C’est donc sur e2 et e4 qu’il faut jouer. Modifions donc
e2 en cherchant un vecteur ẽ2 sous la forme ẽ2 = ae1 + be2 , avec b 6= 0. On a alors A(ae1 + be2 ) =
ae1 + (be2 − 3be1 ) = (ae1 + be2 ) − 3be1 . Ainsi, on voit qu’il suffit de prendre a = 0 (en fait a ne joue
aucun rôle) et b = − 13 pour avoir Aẽ2 = ẽ2 + e1 comme demandé. De même, en changeant e4 par
ẽ4 = −1
3 e4 on a Aẽ4 = ẽ4 + e3 comme demandé.
Conclusion : A est bien semblable à la matrice
1 1 0 0
0 1 0 0
B= 0 0 −1 1 ,
0 0 0 −1
1 − 13 1 1
3
1 1 −1 1
P = −1 0 −1 0
.
0 − 13 0 − 31
13 − X −9 45
χA (X) = −3 3−X −11 = −X 3 + 6X 2 − 9X + 4 = −(X − 1)2 (X − 4).
−3 2 −10 − X
réduction, page 6
http ://collesdemaths.free.fr
Le polynôme est scindé, donc A est au moins trigonalisable. Mais à ce stade, on ne peut pas conclure
sur la diagonalisabilité de la matrice A. On peut cependant éviter quelques calculs. En effet, le sous-
espace propre associé à la valeur propre 4 est de dimension au moins 1 car 4 est valeur propre, et au
plus 1 car la multiplicité de la racine 4 dans χA est 1, donc la dimension du sous-espace propre associé
à 4 est 1. Il suffit donc de calculer la dimension du sous-espace propre associé à la valeur propre 1, qui
est 1 ou 2. On calcule :
12 −9 45
ker(A − I) = ker −3 2 −11 .
−3 2 −11
Il s’agit donc de résoudre le système d’inconnues x, y, z ∈ R :
12x −9y +45z = 0
−3x +2y −11z = 0 x = −3y
−3x +2y −11z = 0 ⇔ ⇔ .
−y +z = 0 z=y
−3x +2y −11z = 0
−3
Donc finalement, ker(A − I) = R 1 . La matrice n’est donc pas diagonalisable (il aurait fallu
1
que la dimension soit 2, voir le cours).
b. A défaut de pouvoir diagonaliser A, nous allons la trigonaliser (puisque le polynôme caractéristique
χA est scindé c’est possible). On a déjà calculé ker(A − I), calculons maintenant ker(A − 4I). On a
9 −9 45
ker(A − 4I) = ker −3 −1 −11 .
−3 2 −14
Il s’agit donc de résoudre le système d’inconnues x, y, z ∈ R :
9x −9y +45z = 0
x −y +5z = 0 x = −4y
−3x −y −11z = 0 ⇔ ⇔ .
−y +z = 0 z=y
−3x +2y −14z = 0
−4
Donc finalement, ker(A − 4I) = R 1 .
1
A ce stade, sans calcul supplémentaire,
on peut A. il suffit de former une nouvelle base de
trigonaliser
−4 −3
R3 en complétant la famille (libre) 1 , 1 en une base de R3 (en ajoutant par exemple
1 1
0
le vecteur 0 ), mais la matrice obtenue par changement de base serait de la forme
1
4 0 ∗
0 1 ∗ ,
0 0 1
on ne contrôlerait pas le coefficient de la première ligne et troisième colonne, alors que l’énoncé de-
mande qu’il soit égal à 0. Pour cela, nous alors choisir le troisième vecteur de base dans le sous-espace
caractéristique ker(A − I)2 car cet espace est stable et en somme directe avec ker(A − I) (voir le cours,
c’est le lemme de décomposition des noyaux). Calculons donc :
36 −36 144
ker(A − I)2 = ker −9 9 −36 .
−9 9 −36
Il s’agit donc de résoudre le système d’inconnues x, y, z ∈ R :
36x −36y +144z = 0
−9x +9y −36z = 0 ⇔ −x + y − 4z = 0 .
−9x +9y −36z = 0
réduction, page 7
http ://collesdemaths.free.fr
−3 1
Donc finalement, ker(A − I)2 = R 1 + R 1 . Le dernier vecteur étant le troisième vecteur
1 0
de base
recherché. Ainsi dans la nouvelle base, la matrice a la forme demandée. reste à calculer l’image
1
de 1 par A, on a :
0
13 −9 45 1 4 −3 1
−3 3 −11 1 = 0 = − 1 + 1 .
−3 2 −10 0 −1 1 0
Exercice 8. a. Dans un premier temps, cherchons quelles peuvent être les valeurs propres de Γ.
Supposons qu’il existe A ∈ Mn (C), A 6= 0, et λ ∈ C, tels que Γ(A) = λA, c’est à dire que l’on a
−A + tr(A)In = λA. Prenons la trace de chacun des deux membres de l’égalité, on obtient −tr(A) +
ntr(A) = λtr(A), c’est à dire (λ−(n−1))tr(A) = 0. Soit tr(A) 6= 0, alors nécessairement λ−(n−1) = 0,
et donc λ = n − 1. Soit tr(A) = 0, et alors on avait −A = λA, c’est à dire que λ = −1 (6= n − 1). Donc
les seules valeurs propres éventuelles de Γ sont −1 et n − 1.
b. Calculons maintenant la dimension des sous-espaces propres associés à chacune des valeurs propres
(éventuelles) trouvées.
Soit A une matrice (non nulle) de trace nulle, alors Γ(A) = −A, et −1 est bien valeur propre. L’espace
propre E−1 associé à −1 contient l’espace des matrices de trace nulle, qui est de dimension n2 − 1 (c’est
le noyau de la forme linéaire trace sur Mn (C)), donc il est de dimension > n2 − 1.
De plus, Γ(In ) = (n − 1)In , donc (n − 1) 6= −1 est valeur propre, et son sous-espace propre associé
En−1 est de dimension > 1.
On a alors établi
n > dim(E−1 ) + dim(En−1 ) > n − 1 + 1 = n
d’où les égalités dim(E−1 ) = n − 1 et dim(En−1 ) = 1 et la diagonalisabilité de Γ.
Exercice 9. On remarque tout d’abord que t − 1 est valeur propre de At , la matrice At − (t − 1)In est
alors une matrice carrée de taille n avec que des 1. Le rang de cette matrice est 1 (toutes les colonnes
sont proportionnelles), et donc d’après le théorème du rang, le noyau est un espace de dimension n − 1.
Ainsi, t − 1 est valeur propre, et le sous-espace propre associé à t − 1 est de dimension n − 1.
La somme des coefficients de chaque ligne est égale à t + (n − 1). Ainsi, le vecteur colonne qui n’a
que des composantes égales à 1 est vecteur propre asssocié à la valeur propre t + n − 1 (c’est une
chose qu’il faut savoir absolument !), et comme n > 2, t + n − 1 6= t − 1 on a trouvé une deuxième
valeur propre pour la matrice At . L’espace propre associé est de dimension au moins 1, et comme le
sous-espace propre associé à t − 1 était de dimension n − 1, le sous-espace propre associé à t + n − 1
est de dimension inférieure ou égale à n − (n − 1) = 1, donc il est exactement de dimension 1.
A ce stade, on peut conclure que At est diagonalisable car la somme des dimensions des sous-espaces
propres est égale à la dimension de l’espace tout entier (cours !). Pour terminer proprement l’exercice,
il convient de donner une base de vecteurs propres, ainsi que la matrice diagonale et la matrice de
changement de base. On a déjà exhibé les vecteurs propre associé à la valeur propre t+n−1. Maintenant,
cherchons ceux associés à la valeur propre t−1,
on en veut n−1qui forment une famille libre. Ils doivent
1 ... 1
former une base de ker(At −(t−1)In ) = ker ... (1) ... . Les n−1 vecteurs e1 −ei , 2 6 i 6 n (où
1 ... 1
réduction, page 8
http ://collesdemaths.free.fr
(ei )16i6n est la base canonique de Rn ) forment une famille libre et vérifient (At −(t−1)In )(e1 −ei ) = 0,
ils forment donc une base du sous-espace propre associé à t − 1.
Ainsi, on a montré que l’on a
1 ... ... 1 1
(t − 1) (0) −1 0 . . . 0 1
. ..
−1
.. .. ..
..
At = P
P avec P = 0
. . . .
.
(t − 1) .. . . . .
(0) (t + n − 1)
. . . 0 1
0 . . . 0 −1 1
wk+1 = w ◦ wk = w ◦ (u ◦ vk − vk ◦ u) = w ◦ u ◦ vk − w ◦ vk ◦ u
= u ◦ w ◦ vk − w ◦ vk ◦ u car u et w commutent
= u ◦ vk+1 − vk+1 ◦ u où on a posé vk+1 = w ◦ vk .
On a donc établi le résultat à l’ordre k + 1, donc on a bien ∀k > 1, ∃ vk ∈ L(E), wk = u ◦ vk − vk ◦ u.
Ensuite, par passage à la trace dans l’égalité précédente, et par le même argument qu’à la première
question, il vient que ∀k > 1, tr(wk ) = 0.
c. On note λ1 , . . . , λq les valeurs propres distinctes non nulles de w (et donc s’il n’y a pas de valeurs
propres non nulles on a q = 0). On note aussi α1 , . . . , αq leurs multiplicités respectives (elles sont
donc non nulles avec nos conventions de numérotation). Lorsque le polynôme caractéristique d’un
endomorphisme est scindé, la trace de l’endomorphisme est la somme de ses valeurs propres (avec
multiplicités), c’est ici le cas car le corps de base est C. Quitte à trigonaliser (le corps de base étant
C, le polynôme caractéristique de w est scindé, et donc w est trigonalisable), on constate en regardant
les coefficients diagonaux des matrices représentatives des puissances de w, que la trace de wk est
la sommes
Pq des puissances k-ièmes des valeurs propres de w (avec multiplicités). On a alors, ∀k ∈
k
N, j=1 j λj = 0, c’est à dire, en écrivant les choses matriciellement
α
1 1 ... 1 α1
λ1 λ2 ... λq α2
= 0.
.. .. ..
..
. . . .
λq−1
1 λq−1
2 . . . λq−1
q αq
Mais ceci est impossible si q > 1, car la matrice est inversible (son déterminant est un déterminant de
Vandermonde, non nul car les λi sont deux à deux distincts), et le vecteur est non-nul (par hypothèse).
Donc finallement, q = 0 et 0 est la seule valeur propre de w (rappel, sur C, tout endomorphisme admet
au moins une valeur propre).
Exercice 11. a. On a
0 1 (0)
.. ..
. .
A := J =
..
.
(0) . 1
1 0
On constate que
0 0 1 (0)
.. .. .. 0 1
. . .
1 . . . (0)
J2 =
.. ..
,..., J p−1
=
, J p = I,
(0) . . 1 .. ..
..
. .
1 . 0 (0) 1 0
0 1 0
réduction, page 9
http ://collesdemaths.free.fr
2πi
ainsi, le polynôme X n − 1 = n−1 k
Q
k=0 (X − ζn ), avec ζn := e
n , est scindé (sur C) à racines simples et
annule J. On en déduit que J est C-diagonalisable, et à ce stade, on sait que les valeurs propres de J
sont parmi les racines n-ièmes de l’unité. Montrons que ce sont exactement elles, ce qui répondra à la
question posée. On a
−X 1 (0)
.. ..
. .
det(J − XIn ) = .
(0) . . 1
1 −X
−X 1 (0) 1 (0)
.. .. ..
. . −X .
= (−1)(1+1) (−X) .. + (−1)n+1 .. .. = (−1)n (X n − 1).
(0) . 1 . .
−X −X 1
Or, les racines du polynôme caractéristique, qui sont ici les racines n-ièmes de l’unité, sont exactement
les valeurs propres.
b. On a, d’après les calculs successifs des puissances de J faits dans la question précédente, que A =
ζn0
(0)
ζ 1
Pn−1 k −1 = D = n
k=0 ak J . J étant diagonalisable, il existe P ∈ GLn (C) telle que P JP .
..
.
(0) ζnn−1
P (1) (0)
Pn−1 Pn−1 Pn−1 P (ζn )
Alors P AP −1 = ak P J k P −1 = ak (P JP −1 )k = ak Dk = ,
k=0 k=0 k=0 ..
.
(0) P (ζnn−1 )
Pn−1 k
où P (X) = k=0 ak X . Ceci montre que A est diagonalisable et que ses valeurs propres sont les
P (ζnk ), 0 6 k 6 n − 1.
A − XIn 0
Exercice 12. a. On calcule le polynôme caractéristique χB de B. On a χB (X) = =
A A − XIn
|A − XIn |2 = χA (X)2 . Ainsi χA et χB ont exactement les mêmes racines, donc les valeurs propres de
B sont les mêmes que celles de A. 2
A 0
2
b. Calculons B . On a B = 2 . Une récurence facile montre que ∀k ∈ N∗ , B k =
2A2 A2
k
A 0 Pd i
k k (et le résultat est vrai aussi pour k = 0). Notons alors P (X) = i=0 ai X , on a
kA A
Pd !
i
i=0 a i A 0 P (A) 0
alors P (B) = = .
A di=1 iai Ai−1 AP 0 (A) P (A)
P Pd i
i=0 ai A
c. • Supposons B diagonalisable. Alors ∃P ∈ K[X] scindé à racines simples (non constant) tel que
P (B) = 0. Ainsi d’après la question précédente, on a P (A) = 0 et AP 0 (A) = 0. Soit donc Q le pgcd
des polynômes P et XP 0 . D’après le théorème de Bezout, il existe U, V ∈ K[X] tels que Q(A) =
U (A)P (A) + V (A)AP 0 (A), et cette dernière quantité est nulle, puisque A annule P et XP 0 . Q est donc
un polynôme annulateur de A, en particulier il est non constant. On a aussi que Q|P et Q|XP 0 . Mais,
P étant scindé à racines simples, il est premier avec P 0 (voir si besoin ∗ à la fin). Ainsi, on a Q|P
donc Q est premier avec P 0 , et de Q|XP 0 on tire d’après le théorème de Gauss que Q|X. Q étant non
constant, on a Q = X (rappel, par définition du pgcd, Q est unitaire), si bien que finalement, on a
l’égalité 0 = Q(A) = A, et A est la matrice nulle.
• Inversement, A = 0 convient, car alors B = 0 aussi (et est donc diagonalisable)...
∗ A propos du fait que Q P et P 0 soient premiers entre eux lorsque P est scindé à racines simples. On
écrit (dans C) P (X) = di=1 (X − αi ), où les αi , 1 6 i 6 d sont les racines 2 à 2 distinctes de P , donc
P 0 (X) = di=1 16j6d,j6=i (X − αj ), et alors ∀i ∈ J1; dK, P 0 (αi ) = 16j6d,j6=i (αi − αj ) 6= 0, puisque les
P Q Q
αi , 1 6 i 6 d, sont 2 à 2 distincts. Ainsi, P et P 0 n’ont aucune racine (complexe) en commun, ils sont
donc premiers entre eux.
réduction, page 10
http ://collesdemaths.free.fr
Ce polynôme n’admet pas de factorisation évidente, suivons donc l’indication. On calcule (entre autre)
que χA (−1) = 1 > 0, χA (0) = −1 < 0, χA (1) = 1 > 0, χA (2) = 1 > 0, χA (3) = −7 < 0. Ainsi, d’après
le théorème des valeurs intermédiaires, χA admet trois racines réelles distinctes α ∈] − 1, 0[ (partie
entière −1), β ∈]0, 1[ (partie entière 0), γ ∈]2, 3[ (partie entière 2). D’après le cours, il vient que A est
diagonalisable.
b. On a d’après le théorème de Cayley-Hamilton que χA (A) = 0, et donc A3 = 2A2 + A − In , d’où l’on
déduit que ∀n > 3, An = 2An−1 + An−2 − An−3 . Par passage à la trace dans la dernière équation, on
en tire que tn = 2tn−1 + tn−2 − tn−3 . On a aussi que tr(An ) = tr(P Dn P −1 ) = tr(P −1 P Dn ) = tr(Dn ) =
αn + β n + γ n .
c. On utilise la deuxième relation (la première étant ici essentiellement pour vérifier le cours, on
pourrait aussi la suivre, mais ce serait plus long). On a tn z n = (αz)n + (βz)n + (γz)n . Ces séries étant
géométriques, il vient que la série des tn z n converge si |γz| < 1, et diverge grossièrement si |γz| > 1, le
rayon de convergence est donc γ1 . La somme de la série vaut alors
∞
X 1 1 1
tn z n = + + .
1 − αz 1 − βz 1 − γz
n=0
Cette dernière expression peut être nettement simplifiée se rappelant la forme des fractions rationnelles
P0
P pour P un polynôme. On a ici
χ0A (X) 1 1 1
= + + ,
χA (X) X −α X −β X −γ
et donc finalement
1 1 1 1 χ0A ( z1 ) 3 − 4z − z 2
+ + = = .
1 − αz 1 − βz 1 − γz z χA ( z1 ) 1 − 2z − z 2 + z 3
Exercice 14. a. On peut dire que A2 = In , donc elle est inversible, et elle est annulée par le polynôme
scindé à racines simples X 2 − 1, et est donc diagonalisable. Comme elle est symétrique réelle, elle est
même diagonalisable en base orthonormée. Sa trace est 0 si n est pair, 1 sinon, et donc le sous-espace
propre associé à la valeur propre 1 est de dimension k si n = 2k est pair, et k + 1 si n = 2k + 1 est
impair, le sous-espace propre associé à la valeur propre −1 est lui toujours de dimension k, ou n = 2k
ou 2k + 1. Enfin, on en déduit (par calcul direct ou à partir des multiplicités des valeurs propres) que
det(A) = (−1)k , avec n = 2k si n pair, ou n = 2k + 1 si n impair.
b. et c. On va donner les éléments propres de A, ce qui d’ailleurs diagonalisera la matrice A.
Si n = 2k est pair, on a
±1 0 . . . . . . . . . . . . 0 1
. .
0 ±1 . . .. 1 0
. ..
. .. .. . .
. . . 0 0 .. .. .
. ..
.
. 0 ±1 1 0 .
ker(A ± In ) = ker . .. .
.. 0 1 ±1 0 .
. . .. .. .. ..
.. . . . 0 0 . . .
. . ..
0 1 . . ±1 0
1 0 . . . . . . . . . . . . 0 ±1
Alors, on peut voir que les k vecteurs propres associés à la valeur propre 1 sont, en notant
e1 , . . . , ek , ek+1 , . . . , e2k la base canonique de Rn , e1 +en , e2 +en−1 , . . . , ek +ek+1 . Les k vecteurs propres
associés à la valeur propre −1 sont e1 − en , e2 − en−1 , . . . , ek − ek+1 .
réduction, page 11
http ://collesdemaths.free.fr
Si n = 2k + 1 est impair, on a
Alors, on peut voir que les k + 1 vecteurs propres associés à la valeur propre 1 sont, en notant
e1 , . . . , ek , ek+1 , . . . , e2k+1 la base canonique de Rn , e1 + en , e2 + en−1 , . . . , ek + ek+2 et ek+1 . Les k
vecteurs propres associés à la valeur propre −1 sont e1 − en , e2 − en−1 , . . . , ek − ek+2 .
Dans ces deux cas, les familles de vecteurs obtenues sont orthogonales, et il suffit de les normaliser
pour obtenir une base orthonormale de vecteurs propres.
Exercice 16. a. La matrice Mj est inversible d’inverse −Mj , et Mj est par hypothèse annulée par le
polynôme X 2 + 1 scindé simple (sur C !), elle est donc diagonalisable.
b. On choisit k 6= j dans {1, n} : alors, Mk Mj = −Mj Mk , et par conséquent,
d’où comme les matrices Mk et Mj sont inversibles d’après la question précédente, (−1)n = 1 et n est
pair.
c. Comme Mj2 = −In , si λ est valeur propre de Mj et X vecteur propre non nul de Mj associé à la
valeur propre λ alors Mj2 X = λ2 X = −X d’où λ2 = −1 et Sp(Mj ) ⊂ {−i, i}.
Supposons que le spectre de Mj soit réduit à un seul élément, par exemple Sp(Mj ) = {i}. Alors,
comme Mj est diagonalisable, Mj est semblable à iIn , donc Mj = iIn , ce qui contredit la propriété
d’anticommutation Mj Mk = −Mk Mj sachant que Mk est non nulle. Ainsi, Sp(Mj ) = {−i, i}.
réduction, page 12
http ://collesdemaths.free.fr
d. Soient k 6= j et Ei (resp. E−i ) le sous espace propre de Mj associé à la valeur propre i (resp. −i).
Comme Mj Mk = −Mk Mj , Mk (Ei ) ⊂ E−i et Mk (E−i ) ⊂ Ei , donc nécéssairement Ei et E−i sont de
même dimension, et dim E−i = dim Ei = n/2.
Exercice 17. En prenant la partie réelle et la partie imaginaire de l’égalité (P + iQ)A = B(P + iQ),
on en déduit P A = BP et QA = BQ, d’où pour tout réel λ, (P + λQ)A = B(P + λQ).
La fonction φ : C → C définie par φ(λ) := det(P + λQ) est polynômiale, et n’est pas le polynôme nul
(car φ(i) 6= 0 par hypothèse), elle admet donc un nombre fini de racines, et il existe un réel x tel que
φ(x) 6= 0.
Ainsi, P + xQ est une matrice inversible à coefficients réels, et comme (P + xQ)A = B(P + xQ), A et
B sont semblables sur R.
réduction, page 13