Vous êtes sur la page 1sur 8

Réduction d'endomorphismes (corrigé des classiques).

Valeurs propres, vecteurs propres, spectre.


27. On peut ici développer directement χA puisqu’il n’y a pas de transformation simple du déterminant.
On trouve : χ A (λ ) = λ4 − 3.λ3 + 4 = (2 − λ ) 2 (−1 − λ ) 2 .
 4   2 
   
On trouve, en résolvant les systèmes associés : E 2 ( A) = Vect   − 7   , E −1 ( A) = Vect   − 4   .
 6   3 
   
On remarque que A n’est pas diagonalisable, f non plus, et : E2(f) = Vect((4,-7,6)), E-1(f) = Vect((2,-4,3)).

28. D est évidemment un endomorphisme de E, et f est vecteur propre associé à λ si et seulement si :


• f ∈ E, f ≠ 0,
•λ∈ ,
• u(f) = λ.f, soit : ∀ ∈ x ∈ , f’(x) = λ.f(x).
Or ce dernier problème a toujours des solutions, pour tout λ réel, qui sont :
∀ x ∈ , y ( x) = A.e λ . x = A. y λ ( x) ,
où on a posé : ∀ λ ∈ , ∀ x ∈ , yλ(x) = eλ.x, qui est bien une fonction non nulle.
En conclusion, on a : Sp(D) = , et : ∀ λ ∈ , Eλ(D) = Vect(yλ), qui est donc une droite.

29. a. On peut calculer le polynôme caractéristique de A et montrer que 1 est toujours racine de χA (par
exemple en ajoutant à la première colonne toutes les autres, ce qui permet de factoriser (1 – λ).
On peut aussi remarquer que si on note X la matrice colonne dont tous les termes valent 1, on a :
A.X = X = 1.X, en développant le produit matriciel.
1 est bien valeur propre de A.
b. On peut remarquer que i0 existe bien puisqu’on cherche le maximum d’un nombre fini de réel et puisque
X est non nul, xi0 est non nul.
Si on développe le produit : A.X = λ.X, alors en examinant la ligne i0, on obtient :
n n n n n

∑a
j =1
i0 , j .x j = λ.xi0 , et donc : λ.xi0 = λ . xi0 = ∑a
j =1
i0 , j .x j ≤ ∑ ai0 , j .x j ≤ ∑ ai0 , j . x j ≤ ∑ ai0 , j . xi0 .
j =1 j =1 j =1

 n 
Il suffit alors de diviser par xi0 , pour obtenir : λ ≤  ∑a i0 , j
 = 1.

 j =1 

30. a. On peut calculer les premières puissance, puis démontrer par récurrence que :
∀ k ∈ *, Ak.B – B.Ak = k.Ak.
Cette égalité est vraie pour : k = 1, et si on la suppose vraie pour un entier k donnée, alors :
Ak+1.B – B.Ak+1 = A.(Ak.B) – B.Ak+1 = A.(k.Ak + B.Ak) – B.Ak+1 = k.Ak+1 + (B.A + A).Ak – B.Ak+1 = (k+1).Ak+1,
ce qui termine la récurrence.
b. Si A n’est pas nilpotente, alors : ∀ k ∈ *, Ak n’est pas nulle.
Mais alors pour tout entier : k ∈ *, Ak est vecteur propre de u associé à la valeur propre k.
Donc u admet une infinité de valeurs propres, à savoir au moins tous les entiers naturels non nuls.
c. Puisque u est un endomorphisme d’un espace vectoriel de dimension finie (n2), il ne peut avoir qu’un
nombre fini de valeurs propres.
Conclusion : A est nilpotente.

31. a. Tout d’abord u est linéaire, par dérivation de la dérivation des polynômes.
Puis c’est une application qui à tout polynôme réel P fait correspondre un polynôme réel.
Enfin : u(1) = -2.X, et : ∀ 1 ≤ k ≤ 2, u(Xk) = (k – 2).Xk+1 – 2.k.Xk – 3.k.Xk-1.
Donc si : k < 2, u(Xk) est de degré au plus : k+1 ≤ 2, et si : k = 2, le coefficient de Xk+1 s’annule et u(X2)
est de degré 2.
Par linéarité, on en déduit : ∀ P ∈ 2[X], deg(u(P)) ≤ 2.
b. Cette question est immédiate puisque :
(u(P) = λ.P) ⇔ (∀ x ∈ , (x + 1).(x – 3).P’(x) = (2.x + λ).P(x)).
c. L’équation différentielle précédente est linéaire, du premier ordre et homogène.
Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -1-
On peut la résoudre sur (-∞,-1[, sur ]-1,+3[ ou sur ]+3,+∞).
Sur chacun de ces intervalles, les solutions de l’équation sont :
 2. x + λ 
∀ x ∈ Ik, y ( x) = exp∫ .dx  .
 ( x + 1).( x − 3) 
On décompose alors la fraction en éléments simples et on intègre :
2. x + λ a b 2−λ 6+λ
= + , et on trouve : a = , b= , puis :
( x + 1).( x − 3) x + 1 x − 3 4 4
2. x + λ 2−λ 6+λ 2− λ 6+λ

∫ ( x + 1).( x − 3) .dx =
4
. ln x + 1 +
4
. ln x − 3 + K , et enfin : y ( x ) = C . x + 1 4 .x −3 4 .

Les solutions trouvées sont polynomiales si et seulement si les exposants sont des entiers naturels, ce
2−λ
qui conduit à : λ = 4.k – 6, k ∈ , et : = 2 − k , autrement dit on considère : 0 ≤ k ≤ 2.
4
Finalement, les valeurs qui conduisent à des solutions polynomiales sont : -6, -2, +2 (pour : k = 0, 1, 2).
En fait, les fonctions trouvées sont solutions sur de l’équation différentielle initiale puisque l’égalité
qu’on obtient sur chaque intervalle étant polynomiale (par exemple sur ]3,+∞)) est alors vraie aussi sur
, par égalité de polynômes en une infinité de valeurs.
d. Les valeurs et vecteurs propres de u sont donc :
• λ = -6, E-6(u) = Vect((X + 1)2),
• λ = -2, E-2(u) = Vect((X + 1).(X – 3)),
• λ = 2, E2(u) = Vect((X – 3)2).
e. Pour n[X], on définit u en posant : ∀ P ∈ n[X], u(P) = (X + 1).(X – 3).P – n.X.P.
3.n + λ
Les valeurs propres de u sont alors : λ k = , avec : 0 ≤ k ≤ n, et :
4
3.n + λk n − λk

∀ 0 ≤ k ≤ n, E λk = Vect (( X + 1) 4
.( X − 3) 4
)

λ a2 L an
a1 O O M
32. a. P s’écrit : P (λ ) = det(λ.I n + A) = .
M O O an
a1 L a n −1 λ
a1 a2 L L an
a1 a2 L an
0 a1 − a 2 0 L 0
a1 O O M n
Donc : P (a1 ) = = M 0 O O M = a1 .∏ (a1 − a k ) .
M O O an k =2
M M O O 0
a1 L a n −1 a1
0 0 L 0 a1 − a n
De même : ∀ 1 ≤ i ≤ n, P ( a i ) = a i . ∏ (a
k ≠i
i − ak ) .

b. Comme polynôme caractéristique de A, P est unitaire et son coefficient dominant est bien 1.
c. La fraction proposée est tout d’abord irréductible puisque les racines du dénominateur n’annulent pas le
numérateur ; par ailleurs, elle admet n pôles simples donc sa décomposition théorique est :
P P n
αk
= = 1+ ∑ ,
Q n
X − ak
∏(X − a )
i =1
i
k =1

car la partie entière est le quotient de la division du numérateur par le dénominateur qui ici vaut 1.
P(a k )
Puisque les pôles sont simples, on peut calculer αk avec : ∀ 1 ≤ k ≤ n, α k = = ai .
∏ (a k − ai )
i≠k

d. Pour calculer det(A), il suffit de calculer P(0), donc : det( A) = (1 − n).Q (0) = (1 − n).(−1) n .a1 ...a n .

Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -2-


 n
ak  n
Pour le deuxième, on calcule P(1), soit : det( A + I n ) = 1 + ∑ .∏ (1 − a k ) .
 k =1 1 − a k  k =1

Diagonalisation, trigonalisation.
33. On peut par exemple calculer le polynôme caractéristique de u dans une base de Mn( ), qui peut être la
base canonique ou une autre base, plus adaptée, comme par exemple obtenue en juxtaposant une base
de l’espace des matrices symétriques et une de l’espace des matrices antisymétriques.
Dans cette dernière base, la matrice de u est même diagonale.
Les valeurs propres de u sont 1 et -1 (pour : n ≥ 2, sinon 1 seulement), et les espaces propres sont Sn( )
pour la valeur propre 1 et An( ) pour la valeur propre -1.
On peut aussi remarquer que : u2 = idMn( ), et donc u admet un polynôme annulateur scindé à racines
simples qui est : X2 – 1.
Donc u est diagonalisable, ses valeurs propres ne peuvent valoir que 1 et -1 et on retrouve ainsi les
espaces propres précédents.

34. Le polynôme caractéristique de A vaut : χ A (λ ) = λ3 + λ .(a.b + b.c + c.a ) .


On peut en effet développer directement puisque : rg(A) ≤ 2, en sommant toutes les lignes et donc 0 est
valeur propre de A.
Distinguons alors trois cas :
• a.b + b.c + c.a > 0, χA n’étant pas scindé sur , A ne peut être diagonalisable.
• a.b + b.c + c.a = 0, χA admet une unique racine (triple) qui vaut 0.
Dans ce cas, si A est diagonalisable, alors A est semblable à la matrice nulle, donc A est nulle, et :
a = b = c = 0.
Réciproquement, si : a = b = c = 0, A est évidemment diagonalisable.
• a.b + b.c + c.a < 0, χA admet alors trois racines réelles distinctes et A est diagonalisable dans M3( ).

35. • Pour la première matrice, on calcule χA en ajoutant les deux dernières colonnes et :
1 1
   
χ A (λ ) = (λ − 1) .(λ + 1) , puis : E1 ( A) = Vect   0   , E −1 ( A) = Vect   1   .
2

1  2
   
On choisit alors une troisième colonne avec les deux que l’on vient de trouver, et on construit la matrice P
 1 1 1 −1 0 1 
  −1
 
correspondante : P =  1 0 0  , puis : P . A.P =  0 1 − 2  = T .
 2 1 0 0 0 1 
   
On aurait pu aussi choisir la troisième colonne de P pour que la troisième colonne de T soit (0,1,1).
• Pour la deuxième matrice, on procède de même en ajoutant les colonnes 1 et 3, et on obtient :
1
 
χ B (λ ) = (1 − λ ) , E1 ( B) = Vect   0   .
3

1
 
On choisit un deuxième vecteur C2 pour que : B.C2 = C1 + C2, puis C3 tel que : B.C3 = C2 + C3.
0 0 1 0 0  1 1 0
       
 − 1 , puis : P =  0 1 − 1 , T =  0 1 1  , et : P .A.P = T.
-1
On trouve par exemple : C2 =  1  , C3 =
0 1 1 0 1  0 0 1
       
1  0 
   
• Pour la troisième matrice, on a à nouveau : χ C (λ ) = (1 − λ ) 3 , et on trouve : E1 (C ) = Vect   0 ,  − 1  .
 0  1 
   
0 1 0 0 1 0 0
     
On choisit de même une troisième colonne  1  , puis on pose : P =  0 − 1 1  , et : T =  0 1 1  , et
0 0 1 0 0 0 1
     
Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -3-
on a l’égalité : P-1.A.P = T.

36. La matrice A est clairement de rang 1, donc 0 est valeur propre de A de multiplicité au moins 3.
En effet, ker(A) est de dimension 3 du fait du théorème du rang et la multiplicité de 0 comme valeur propre
est donc supérieure ou égale à cette dimension.
De plus, la trace de A est égale à la somme des racines de χA.
Notons alors 0, 0, 0, λ les quatre racines de χA ; on a donc : 0 + 0 + 0 + λ = 14 = tr(A).
Donc : λ = 10, qui est donc une racine simple de χA.
Puis l’espace propre associé E10(A) est donc de dimension 1 et comme E0(A) est de dimension 3, A est
donc diagonalisable.

37. Soit donc A une matrice de rang 1.


Alors ker(A) est de dimension (n – 1).
Donc 0 est valeur propre de A de multiplicité au moins égale à (n – 1), puisque cette multiplicité est
supérieure ou égale à la dimension de l’espace propre correspondant c'est-à-dire celle de ker(A).
La dernière racine λ du polynôme caractéristique de A est telle que : 0 + 0 + … + 0 + λ = tr(A).
• si : tr(A) = 0, alors : λ = 0, et A ne peut être diagonalisable car elle serait alors semblable à la matrice
diagonale nulle, donc on aurait : A = P.0.P-1 = 0, ce qui n’est pas le cas.
• si : tr(A) ≠ 0, alors : λ = tr(A) ≠ 0, est valeur propre simple de A, avec un sous-espace propre associé de
dimension 1.
Mais alors la somme des dimensions des sous-espaces propres de A vaut n et A est diagonalisable.
Conclusion : (A diagonalisable) ⇔ (tr(A) ≠ 0).

2 1 L 1
 
1 O O M 
38. a. La matrice se construit comme d’habitude : A = matB(f) =  .
M O O 1
 
1 L 1 2
 
b. Il est clair que, pour : n ≥ 2, 1 est valeur propre de A puisque toutes les colonnes de (A – In) sont égales.
L’espace propre associé à 1 correspond au noyau de (A – In) et c’est l’hyperplan d’équation, dans la
base B : x1 + … + xn = 0.
La multiplicité de 0 comme valeur propre est donc au moins (n – 1).
Puisque la somme des racines de χf doit donner tr(f) (ou tr(A)) la dernière racine vaut :
1.(n – 1) + λ = 2.n, soit : λ = n + 1, qu’on aurait pu trouver aussi en remplaçant la première colonne de
det(A – x.In) par la somme de toutes les colonnes, ce qui permet de factoriser ((n + 1) – x).
L’espace propre associé à cette dernière valeur propre est : En+1(f) = Vect((1,1,…,1)).
Enfin, on en déduit aussi que 1 est valeur propre de multiplicité (n – 1).
c. f est donc diagonalisable puisque la somme des dimensions des espaces propres est égale à n.
Enfin f est inversible puisque 0 n’est pas valeur propre de f.

39. On peut calculer le polynôme caractéristique de A2.n+1 en ajoutant les colonnes Ck et C2.n+1-k, ce qui permet
de factoriser (λ– a – b)n+1, puis de remplacer Lk par L2.n+1-k, ce qui permet de factoriser (λ – a + b)n.
Autrement dit (a+b) est valeur propre d’ordre n+1 et (a – b) est valeur propre d’ordre n.
On peut trouver les espaces propres en s’inspirant des opérations effectuées dans le calcul du polynôme
caractéristique, à savoir :
• toute matrice colonne Xk comportant des 0 partout sauf sur les lignes k et (2.n+1 – k) est vecteur propre
associé à (a+b), et vérifie donc : A2.n+1.Xk = (a + b).Xk.
• toute matrice colonne Yk comportant des 0 partout sauf sur les lignes k où il y a un 1 et (2.n+1 – k) où il y
a un -1, est vecteur propre associé à (a – b) et vérifie : A2.n+1.Yk = (a – b).Yk.
Comme il est clair que la famille (X1, …, Xn+1) est libre, de même que la famille (Y1, …, Yn), on déduit :
E(a+b)(A2.n+1) = Vect(X1, …, Xn+1), de dimension n+1,
E(a–b)(A2.n+1) = Vect(Y1, …, Yn), de dimension n.
Finalement, A2.n+1 est diagonalisable.

40. Soit : B = (e1, …, en), une base de E formée de vecteurs propres de f associés à λ1, …, λn.
Posons alors :
• g1,k(e1) = ek, et : ∀ 2 ≤ i ≤ n, g1,k(ei) = 0.
Alors : φ(g1,k)(e1) = f(g1,k(e1)) – g1,k(f(e1)) = f(ek) – g1,k(λ1.e1) = (λk – λ1).ek = (λk – λ1).g1,k(e1), et :
Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -4-
∀ 2 ≤ i ≤ n, φ(g1,k)(ei) = f(g1,k(ei)) – g1,k(f(ei)) = 0 – g1,k(λi.ei) = 0 = (λk – λ1).g1,k(ei).
Autrement dit : φ(g1,k) = (λk – λ1).g1,k.
Plus généralement, on peut définir gj,k en posant : ∀ 1 ≤ i ≤ n, gj,k(ei) = δi,j.ek, et ces endomorphismes gj,k
sont vecteurs propres de φ associés aux valeurs propres (λk – λj).
On vient donc de construire n2 éléments de L(E), vecteurs propres de φ.
Mais comme de plus la famille est libre, puisque :
n

∑ α j ,k .g j ,k = 0 , entraîne : ∀ 1 ≤ i ≤ n,
1≤ j , k ≤ n
∑ α j ,k .g j ,k (ei ) = 0 = ∑ α i ,k .ek ,
1≤ j , k ≤ n k =1
et tous les coefficients sont nuls.
Donc on a construit une base de L(E) formée de vecteurs propres de φ et φ est diagonalisable.

Utilisation de la diagonalisabilité.
41. a. Supposons que λ soit valeur propre de M.
Alors : ∃ X ∈ M2,1( ), X ≠ 0, M.X = λ.X, et donc : (M2 + M).X = (λ2 + λ).X = A.X.
 1 1
Autrement dit (λ2 + λ) est valeur propre de : A =   , et vaut donc 0 ou 2.
 1 1
Donc λ ne peut valoir que 0, -1, 1 ou -2.
b. Posons : Q = X.(X – 1).(X + 1).(X + 2) = (X2 + X).(X2 + X – 2).
Alors : Q(M) = (M2 + M).(M2 + M – 2.I2).
Si donc M est solution de l’équation, alors : Q(M) = A.(A – 2.I2) = 0, et M est diagonalisable.
Si on note α et β les valeurs propres de M, celles de (M2 + M) sont (α2 + α) et (β2 + β).
Donc par exemple : α2 + α = 0, et : β2 + β = 2, soit : (α = 0, ou : α = -1) et (β = 1, ou : β = -2).
1
• Si : α = 0, β = 1, alors : M2 = M, (puisqu’une matrice D semblable à M le vérifie) et : M = .A .
2
• Si : α = 0, β = -2, alors : M2 = -2.M, (même argument) et : M = − A .
• Si : α = -1, β = 1, alors : M2 = I2, et : M = A − I 2 ,
• Si : α = -1, β = -2, alors on a : M2 + 3.M + 2.I2 = 0 (théorème de Cayley-Hamilton) et : M2 = – 3.M – 2.I2.
1
Donc dans ce cas : – 2.M = A + 2.I2, soit : M = − I 2 − .A .
2
Réciproquement, on vérifie que les quatre matrices trouvées satisfont à l’équation et en sont solutions.
1 1  3 1
   − 1 − 1   0 1  − − 
Ce sont donc les solutions de l’équation :  2 2,   ,   , et :  2 2.
 1 1
  − 1 − 1  1 0   − 1 3
− 
2 2  2 2

42. a. Puisque les valeurs propres sont simples (et donc distinctes), les espaces propres sont tous de
dimension 1.
b. Supposons que g soit donc solution du problème.
Alors : gou = gog2 = g3 = g2og = uog, et u et g commutent.
c. Soit e un vecteur propre de u.
Il existe alors : λ ∈ , tel que : u(e) = λ.e, et : gou(e) = g(λ.e) = λ.g(e) = uog(e) = u(g(e)).
Donc g(e) est dans le sous-espace propre de u associé à λ, qui est de dimension 1 et dont e est donc
une base.
Par conséquent : ∃ µ ∈ , g(e) = µ.e, et e est vecteur propre de g.
d. On peut donc choisir une base de E formée de vecteurs propres de u : B = (e1, …, en).
On a donc : ∀ 1 ≤ i ≤ n, u(ei) = λi.ei.
De plus, si g est solution du problème, alors : ∀ 1 ≤ i ≤ n, ∃ µi ∈ , g(ei) = µi.ei, et déterminer g revient
donc à déterminer les µi.
Or g est solution si et seulement si : ∀ 1 ≤ i ≤ n, µi2 = λi.
Trois cas se présentent alors :
• une des valeurs propres de u est strictement négative et il n’y a pas de solutions,
• toutes les valeurs propres de u sont strictement positives et il y a deux solutions pour chaque valeur
µi, ce qui donne 2n solutions pour g définies par : ∀ 1 ≤ i ≤ n, g(ei) = ± λi .ei.
• une des valeurs propres vaut 0, toutes les autres (distinctes) étant strictement positives, et il y a 2n-1
Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -5-
solutions définies par : g(ek) = 0, pour la valeur : λk = 0, et : ∀ 1 ≤ i ≠ k ≤ n, g(ei) = ± λi .ei.

Polynômes de matrices, utilisation de polynômes.


43. Posons : P = X3 – X – 1.
L’étude des variations de la fonction polynôme associée montre qu’elle admet une unique racine réelle.
1 1  2 − 3. 3   1  − 2 − 3. 3
En effet, P’ s’annule en ± , et on a : P −
 = < 0 , et : P  = < 0.
3  3 3. 3  3 3. 3
Donc les racines de P sont simples et on les note : α ∈ +*, λ ∈ \ , et λ .
A comme une matrice à coefficients complexes, admet un polynôme annulateur scindé à racines simples
et est donc diagonalisable sur , étant semblable à une matrice diagonale comportant sur sa diagonale α,
λ et λ .
Mais la somme de ces valeurs doit être réelle puisque A est réelle, donc il y a autant de λ que de λ (on
peut aussi remarquer que comme racines de : χA ∈ [X], λ et λ ont la même multiplicité).
mult ( λ ) 2.mult ( λ )
Donc : det( A) = α mult (α ) .λmult ( λ ) .λ = α mult (α ) . λ > 0.

44. a. Si X est solution, alors le polynôme : P(T) = T5 – 1, est annulateur pour X dans M5( ).
Or P est scindé à racines simples dans , donc X est diagonalisable.
b. Posons alors : X = Q.D.Q-1, où Q est inversible et D diagonale.
L’équation devient : D5 = I5, autrement dit D est solution si et seulement si ses coefficients diagonaux
sont des racines 5èmes de l’unité.
Cela fournit donc : 55 = 3125, matrices D possibles, et Q étant quelconque, on aura 3125 familles de
solutions potentielles.
Réciproquement (puisqu’on a en fait travaillé par analyse-synthèse), toutes ces matrices sont solutions
du problème.

45. On peut faire ce calcul de façon propre, en posant : B = A2.


n
 n 2  n 2  n 2
Dans ce cas, on a : ∀ 1 ≤ i,j ≤ n, bi , j = ∑a
k =1
i ,k .a k , j = a i . ∑ a k .a j =  ∑ a k .a i , j , et donc : B =  ∑ a k . A .
 k =1   k =1   k =1 
 n 2
Puisque : A =  ∑ a k . A , on dispose du polynôme annulateur : P = X2 – S.X = X.(X – S), pour A où on a
2

 k =1 
 n

posé : S =  ∑ a k2  .
 k =1 
On distingue alors deux cas :
• S ≠ 0, et P est scindé à racines simples.
Dans ce cas, A est diagonalisable.
• S = 0, et puisqu’on travaille dans , tous les ak sont nuls, A est également la matrice nulle.
Dans ce cas, A est évidemment diagonalisable.
Conclusion : A est toujours diagonalisable.
Remarque : cet exercice constitue un cas particulier de l’étude des matrices de rang 1 (si : A ≠ 0).

46. Dans cet exercice, il est plus simple de commencer par la deuxième question.
En effet : ∀ u ∈ L(E), Φ2(u) = po(pou) = p2ou = pou = Φ(u),
autrement dit on dispose d’un polynôme annulateur pour Φ (P = X2 – X), scindé à racines simples.
Φ est donc diagonalisable et c’est même un projecteur de E.
Ses seules valeurs propres possibles sont 0 et 1.
On étudie alors :
• 0 valeur propre de Φ si et seulement si : ∃ u ∈ L(E), u ≠ 0, pou = 0.
Si p est l’identité (p = idE), alors 0 n’est pas valeur propre de Φ,
et si p est un projecteur distinct de l’identité, alors u est vecteur propre de Φ si et seulement si :
Im(u) ⊂ ker(p), et : u ≠ 0.
Matriciellement, si on appelle : B = (e1, …, en), une base de E adaptée à : E = ker(p) ⊕ Im(p), u est dans

Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -6-


 A
E0(Φ) si et seulement si : matB(u) =   , où : A ∈ Mn-r,n( ), r = rg(p).
0  
Donc : dim(E0(Φ)) = (n – r).n.
• 1 est valeur propre de Φ si et seulement si : ∃ u ∈ L(E), u ≠ 0, pou = u.
Si p est l’endomorphisme nul (p = 0), alors 1 n’est pas valeur propre de Φ,
et si p est un projecteur distinct de 0, alors u est vecteur propre de Φ si et seulement si :
Im(u) ⊂ ker(p – idE) = ker(q), u ≠ 0.,
où q est le projecteur associé à p, de E sur ker(p) dans la direction Im(p) ; on a alors : ker(q) = Im(p).
Matriciellement et toujours avec la base B précédente, u est dans E1(Φ) si et seulement si :
0
matB(u) =   , où cette fois : B ∈ Mr,n( ).
B 
Donc : dim(E1(Φ)) = r.n.
On retrouve bien le fait que : dim(E0(Φ)) + dim(E1(Φ)) = (n – r).n + r.n = n2.

47. a. Il est clair que u est un endomorphisme de K[X].


De plus, u est un automorphisme de K[X] car on peut proposer un inverse, à savoir v défini par :
X
∀ P ∈ K[X], v(P) = Q, avec : Q = P .
2
Attention à ne pas se contenter de ker(u), puisque l’espace de référence n’est pas de dimension finie.
Pour ses valeurs (et vecteurs) propres, on cherche : P ∈ K[X], P ≠ 0, et : λ ∈ K, tels que : u(P) = λ.P.
n
Notons alors : P = ∑a
k =0
k . X k , avec : n = deg(P), an ≠ 0.

Le problème revient à : ∀ 0 ≤ k ≤ n, 2 n .a k = λ .a k , et comme : an ≠ 0, on en déduit : λ = 2n, puis :


∀ 0 ≤ k ≤ n – 1, ak = 0.
En conclusion : Sp(u) = {2n, n ∈ }, et : ∀ n ∈ , E 2 n (u ) = Vect ( X n ) .
b. Si on pouvait trouver un tel polynôme Q, on aurait : id = Q(u)ou, et le polynôme : R = X.Q – 1, serait
annulateur pour u.
Or toutes les valeurs propres de u seraient dans ce cas racines de R qui admettrait ainsi un nombre
infini de racines, ce qui est impossible.
On ne peut donc trouver un tel polynôme Q.

48. a. On obtient en développant : M 2 − (λ + µ ).M + λ .µ .I n = 0 .


Puisque : λ.µ ≠ 0, on en déduit que M est inversible, et : M .( M − (λ + µ ).I n ) = −λ .µ .I n , soit :
1
M −1 = .((λ + µ ).I n − M ) .
λ.µ
b. On peut remarquer que : ( M − µ .I n ) = (λ − µ ). A , et : ( M − λ .I n ) = ( µ − λ ).B , donc :
0 = ( M − µ .I n ).( M − λ .I n ) = ( µ − λ ).(λ − µ ).B. A , et : 0 = ( M − λ .I n ).( M − µ .I n ) = (λ − µ ).( µ − λ ). A.B .
Et comme λ et µ sont distincts, on en déduit que : A.B = B.A = 0.
Il suffit alors de calculer : A = A.I n = A 2 + A.B = A 2 , de même pour B.
A et B sont bien des matrices de projecteurs.
c. On dispose d’un polynôme annulateur pour M qui est : P = X 2 − (λ + µ ). X + λ .µ = ( X − λ ).( X − µ ) , qui
est donc scindé à racines simples : M est diagonalisable.
Les seules valeurs propres possibles de M sont ainsi λ et µ, et comme la dimension de l’espace de
référence est au moins 1, l’une de ces deux valeurs est valeur propre de M.
Si on suppose que λ est valeur propre de M, alors c’est la seule si et seulement si M est semblable à
λ.In, autrement dit si : M = λ.In, mais dans ce cas : λ.A + µ.B = λ.(A + B), soit : (λ – µ).B = 0, et : B = 0.
En conclusion :
• si A et B sont non nulles, λ et µ sont les valeurs propres de M,
• si l’une est nulle, par exemple B, on a : M = λ.In, et λ est la seule valeur propre de M.

Sous-espaces vectoriels stables.

Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -7-


49. a. On sait que : p(x) = p(xi) + p(xk) = xi.
De plus : p(x) ∈ F, puisque F est stable par p, donc : xi ∈ F, puis : xk = x – xi ∈ F.
b. Notons alors : Fi = F ∩ Im(p), et : Fk = F ∩ ker(p).
Il est clair que la somme (Fi + Fk) est directe puisque Im(p) et ker(p) sont supplémentaires dans E.
De plus : Fi + Fk ⊂ F.
Enfin, pour : x ∈ F, la question a a montré que : ∃ xi ∈ F ∩ Im(p) = Fi, ∃ xk ∈ F ∩ ker(p) = Fk, x = xi + xk.
Donc on en déduit que : F = Fi ⊕ Fk, avec les deux espaces précédents.
c. Les sous-espaces vectoriels de E stables par p peuvent s’écrire comme la somme directe de deux sous-
espaces vectoriels de E, l’un inclus dans Im(p), l’autre dans ker(p) d’après la question b.
Il est immédiat, réciproquement que tout sous-espace du type précédent est stable par p.

50. a. On remarque que : ∀ x ∈ n, ∀ 0 ≤ k ≤ n, p(un-k(x)) ∈ Im(p),


et comme : Im(p) = E, est stable par u, on a aussi : uk(p(un-k(x))) ∈ E.
On en déduit, E étant stable par combinaison linéaire, que : ∀ x ∈ n, q(x) ∈ E.
Autrement dit : Im(q) ⊂ E.
Soit maintenant : x ∈ E.
Alors : ∀ 0 ≤ k ≤ n, un-k(x) ∈ E, puisque E est stable par u, et : p(un-k(x)) = un-k(x), puisque : E = Im(p).
1 n k 1 n k n−k 1 n
Donc : q ( x) = .∑ u o p o u n − k ( x) = .∑ u (u ( x)) = .∑ x = x , puisque : u n = Id C n .
n + 1 k =0 n + 1 k =0 n + 1 k =0
Donc : E ⊂ Im(q), et finalement : Im(q) = E.
Si enfin : x ∈ E ∩ ker(q), alors : q(x) = x, d’après ce qui précède, et : q(x) = 0, donc : x = 0.
La somme (E + ker(q)) est donc directe et le théorème du rang montre que : dim(E) + dim(ker(q)) = n.
En conclusion, on a bien : ker(q) ⊕ E = n.
b. Soit maintenant : x ∈ n, écrit avec : x = xE + xk, où : xE ∈ E, xk ∈ ker(q).
Alors : q(x) = xE, d’après ce qu’on a vu au dessus, et : q2(x) = q(xE) = xE = q(x), donc : q2 = q.
q est donc un projecteur de n, sur : Im(q) = E, dans la direction ker(q).

51. a. Il est immédiat que T est involutif : ∀ P ∈ K[X], T(T(P)) = P(1 – (1 – X)) = P(X), soit : T2 = idK[X].
Donc T, qui est évidemment linéaire, et aussi bijectif sur K[X], et T est un automorphisme de K[X].
b. Puisqu’on a en plus un polynôme annulateur pour T qui est : X2 – 1, T ne peut admettre comme valeurs
propres que 1 et -1.
1 1 1
Enfin, si on pose : P = X − , alors : T ( P ) = (1 − X ) − = − X = − P , autrement dit -1 est valeur
2 2 2
propre de T.
1
Et si on pose : P = ( X − ) 2 , alors : T(P) = P, et 1 est valeur propre de T.
2
Les valeurs propres de T sont donc effectivement 1 et -1.
1 1
Remarque : on peut montrer que : E1 (T ) = Vect (( X − ) 2.k , k ∈ ),et : E −1 (T ) = Vect (( X − ) 2.k +1 , k ∈ ).
2 2

Chapitre 07 : Réduction d’endomorphismes – Exercices (corrigé des classiques). -8-

Vous aimerez peut-être aussi