Vous êtes sur la page 1sur 7

MPSI 1 2006-2007

DM no 20 – Le théorème d’Engel – corrigé

Problème 1 – Barycentres itérés

Partie 1
−
→ − → − → →
1. On lit sur la matrice J, f (−

u ) = √13 k + i + j = − u.


D’autre part, soit v ∈ E et (x, y, z) ses coordonnées dans B ; f (−

− →
v ) a alors pour coordonnées
(y, z, x) donc


v ∈ Q ⇐⇒ x + y + z = 0
⇐⇒ y + z + x = 0
⇐⇒ f (−

v)∈Q

Donc Q est stable par f.


2. (a) Q est en fait le plan de vecteur normal →
− →

v ∈ Q ⇐⇒ − →v .−

   u, donc u = 0, ce que l’on
1 1
vérifie aisément : −
→u .−

v =  √13  1  |  −1 2
 = 0, donc − →v ∈ Q ; d’autre part,
1
1 2


w =− →
u ∧− →
v , donc −

w ⊥− →u , et donc aussi −

w ∈ Q ; enfin, −

u et −

v étant deux vecteurs


orthogonaux non nuls, ( u , v , u ∧ v ) est une base orthogonale de E donc (−

− →
− →
− →
− →v ,−

w ) est

− →

un famille libre de deux vecteurs dans Q, qui est de dimension 2, donc ( v , w ) est une
base de Q.
(b) (−

u,− →v ,−

w ) est une base orthogonale directe, mais n’est pas une base orthonormée,
puisque k− → 2
vk = 3 2
(c) On a vu que − →
v ∈ Q, que Q est stable par f et que Q a pour base (− →
v ,−
→w ) , donc il existe

− →
− →

deux réels α et β tels que f ( v ) = α v + β w .
f (→
−v ).→
− f (→

v ).→

De plus, puisque (−→v ,−
→ v w
w ) est orthogonale, on a α = → − 2 et β = → − 2 . On calcule
kvk kwk
alors les coordonnées de −→
w puis les produits scalaires dans la base orthonormée directe
B:
√ √ !

− →
− →
− 3−
→ 3−→
w = u ∧ v = j − k
2 2
 −1   
1
 |  −1  = − 3
2
f (−
→v ) .−

v =  −1 2 2
−1 4
1 2
   
−1 0 √


− →
−  −1   √3  −3 3
2
f ( v ).w =  2 |  2√  =
4
1 − 23

On a donc déjà démontré f (−

−1 3
−

D’où on déduit α = 2 et β = − 2 . v ) = cos − 2π
3 v +
sin −2π →

w.
3 √ −
→ −→
Enfin, le calcul matriciel de f (−

w ) donne f (−

w) = 2
3
i − j , mais d’autre part :
√ √   √ √ ! √ √
3−
→ 1→− 3 −
→ 1− → 1−→ 1 3−
→ 3−
→ 3−
→ 3−

v − w = i − j − k − j − k = i − k
2 2 2 2 2 2 2 2 2 2

1

Donc f (−
→ 3−
→ − 21 →
− −
→ −2π
−

w) = 2 v w = − sin − 2π
3 v + cos 3 w . D’où pour θ = − 2π
3 , on a

f (−

v ) = cos (θ) −

v + sin (θ) −

w et f (−

w ) = − sin (θ) −

v + cos (θ) −

w

(d) La restriction de f au plan Q est donc la rotation vectorielle d’angle − 2π 3 . (ces deux
applications linéaires coı̈ncident en effet sur la base (−

v ,−

w ) donc aussi sur le plan Q
qu’elle engendre).

Partie 2
 
1 1 √ 1 √
 
1 1 1
−1 −1
1. (a) On obtient P =  1 + i √23 − i√ 3
c’est-à-dire P =  1 j j2  .
 
2 2 2
1 −1
− i 23 −1
+ i 23 1 j2 j
2 2

(b) Le calcul donne immédiatement P P = 3I, en tenant compte de la relation 1+j +j 2 = 0.


2. (a) On effectue les produits matriciels :
    
0 1 0 1 1
– JX1 =  0 0 1   1  =  1  = X1
 1 0 0   1  1 
0 1 0 1 j
– JX2 =  0 0 1   j  =  j 2  = jX2
 1 0 0   j2   1 
0 1 0 1 j2
2
– JX2 =  0 0 1   j  =  j  = j 2 X2
1 0 0 j 1
(b) On a donc
J [X1 X2 X3 ] = [JX1 JX2 JX3 ] = X1 jX2 j 2 X3 ,
 

mais aussi  
1 0 0
j 0  = X1 jX2 j 2 X3 ,
 
[X1 X2 X3 ]  0
0 0 j2

Par définition de M (a, b, c)d’où en posant ∆ = diag 1, j, j 2 , il vient JP = P ∆.
 
a1 b1 c1
3. (a) La matrice M =  a2 b2 c2  commute avec J si et seulement si :
a3 b3 c3
     
a1 b1 c1 0 1 0 0 1 0 a1 b1 c1
 a2 b2 c2   0 0 1  =  0 0 1   a2 b2 c2 
a3 b3 c3 1 0 0 1 0 0 a3 b3 c3

Soit si et seulement si
   
c1 a1 b1 a2 b2 c2
 c2 a2 b2  =  a3 b3 c3 
c3 a3 b3 a1 b1 c1

 a1 = b2 = c3
Donc si et seulement si a2 = b3 = c1 ; ainsi M commute avec J si et seulement si
a3 = b1 = c2

il existe trois complexes a, b, c tels que M = aI + bJ + cJ 2 . Ce qui se traduit en disant
que C (J) est le sous-espace vectoriel de M3 (C) engendré par la famille I, J, J 2 .
(b) Cette famille est libre dans M3 (C), c’est donc une base de C (J) , qui par suite est de
dimension 3.

2
4. (a) Par définition de M (a, b, c), on a
P −1 M (a, b, c) P = P −1 aI + bJ + cJ 2 P


= aI + bP −1 JP + cP −1 J 2 P
2
Or P −1 JP = ∆ et par suite P −1 J 2 P = P −1 JP = ∆2 , d’où on déduit :

P −1 M (a, b, c) P = diag a + b + c, a + bj + cj 2 , a + bj 2 + cj


(b) Par la règle de Sarrus, det (M (a, b, c))) = a3 +b3 +c3 −3abc, et D (a, b, c) étant diagonale,
son déterminant est le produit des éléments diagonaux, donc
det (D (a, b, c)) = (a + b + c) a + bj + cj 2 a + bj 2 + cj .
 

(c) Mais on a la relation P −1 M (a, b, c) P = D (a, b, c) et


– le déterminant d’un produit matriciel est le produit des déterminants
– le déterminant de l’inverse d’une matrice inversible est l’inverse du déterminant,
d’où det (M (a, b, c)) = det (D (a, b, c)) . Ce qui fournit la factorisation demandée :
a3 + b3 + c3 − 3abc = (a + b + c) a + bj + cj 2 a + bj 2 + cj
 

(d) M (a, b, c) est singulière si et seulement si


son déterminant est nul, donc d’après la forme
 (a + b + c) =0
factorisée précédente si et seulement si ou a + bj + cj 2  = 0 .
ou a + bj 2 + cj = 0

Or (a + b + c) = 0 se traduit géométriquement par O est l’isobarycentre de (A, B, C) et
b−a
(T ) est équilatéral si et seulement si les affixes respectives de A, B, C vérifient c−a =
2iπ
 −→ −−→ 
2π b−a 2
±e 3 (traduction de AB = AB et AC, AB ≡ ± 3 [2π] . Enfin, c−a = ±j s’écrit
encore 
a + bj + cj 2 =

 0 , donc finalement,
ou a + bj 2 + cj = 0
M (a, b, c) est singulière si et seulement si O est centre de gravité de (T ) ou (T ) est équilatéral

Partie 3

 an+1 = λbn + (1 − λ) cn
1. Notons que les relations traduisant les barycentres bn+1 = (1 − λ) an + λcn s’écrivent
cn+1 = λan + (1 − λ) bn

matriciellement
 
0 λ 1−λ
Yn+1 =  1 − λ 0 λ  Yn
λ 1−λ 0
2

= λJ + (1 − λ) J Yn
= M (0, λ, 1 − λ) Yn
Passons alors à la relation de récurrence sur les vecteurs Zn = P −1 Yn :
Zn+1 = P −1 M (0, λ, 1 − λ) P Yn
Et donc d’après les résultats de la deuxième partie :
Zn+1 = D (0, λ, 1 − λ) Zn

2. Toujours d’après la deuxième partie, et sachant que les produits de matrices diagonales sont
des matrices diagonales dont les éléments diagonaux sont obtenus par produits terme à terme,
il vient :
n  n n 
n
(D (0, λ, 1 − λ)) = diag 1, λj + (1 − λ) j 2 = diag 1, λj + (1 − λ) j 2 , λj 2 + (1 − λ) j

3
3. (a) On met√le nombre complexe λj + (1 − λ) j 2 sous forme algébrique : λj + (1 − λ) j 2 =
− 12 + i 23 (2λ − 1) , et on en déduit

λj + (1 − λ) j 2 2 = 1 + 3 (2λ − 1)2

4 4
2
Donc λj + (1 − λ) j 2 < 1 si et seulement si 34 (2λ − 1) < 43 ce qui équivaut à λ ∈ ]0, 1[ .
2 n
 
On en déduit que λj + (1 − λ) j n∈N
converge si et seulement si λ ∈ ]0, 1[ .

(b) Si cette condition est vérifiée, alors on a aussi λj + (1 − λ) j 2 < 1, soit λj 2 + (1 − λ) j <

n 
1 et donc la suite géométrique λj 2 + (1 − λ) j n∈N
converge aussi. Notons alors pour
 
xn
n
tout n ∈ N, Zn =  yn  . On a Zn = (D (0, λ, 1 − λ)) Z0 , donc
zn

 xn = x0 n
yn = λj + (1 − λ) j 2  y0
n
zn = λj 2 + (1 − λ) j z0

et donc (xn )n∈N converge vers x0 , (yn )n∈N et (zn )n∈N convergent vers 0.
Mais de plus Yn = P Zn , donc les suites (an ) , (bn ) , (cn ) sont combinaison linéaire des
suites (xn ) , (yn ) et (zn ) . La convergence de ces dernières permet alors d’assurer que
lorsque λ ∈ ]0, 1[ les suites (an ) , (bn ) et (cn ) sont convergentes.
 
0 λ 1−λ
4. (a) On a montré la relation Yn+1 =  1 − λ 0 λ  Yn , donc
λ 1−λ 0

an+1 + bn+1 + cn+1 = (λbn + (1 − λ) cn ) + ((1 − λ) an + λbn ) + (λan + (1 − λ) bn )


= an + bn + cn

(b) Lorsque λ ∈ ]0, 1[ , on peut passer à la limite dans la relation de récurrence matricielle
précédente. Posons l1 = lim an , l2 = lim bn et l3 = lim cn , il vient :
n→+∞ n→+∞ n→+∞

 l1 = λl2 + (1 − λ) l3
l2 = (1 − λ) l1 + λl3
l3 = λl1 + (1 − λ) l2

Remplaçons la deuxième ligne de ce système par elle même multipliée par (1 − λ) addi-
tionnée de la première ligne multipliée par −λ, on en déduit :

 l1 = λl2 + (1 − λ) l3
2
−λl1 + (1 − λ) l2 = −λ2 l2 + (1 − λ) l1
l3 = λl1 + (1 − λ) l2

puis 
  2 + (1 − λ) l3 
l1 = λl
1 − λ + λ 2 l 1 = 1 − λ + λ2 l 2
l3 = λl1 + (1 − λ) l2


Enfin comme 1 − λ + λ2 ne s’annule pas sur ]0, 1[ on en déduit l1 = l2 puis l3 = l1 ,
donc si les suites (an ) , (bn ) , (cn ) convergent, alors elles ont même limite l.
(c) Enfin sachant que la suite (an + bn + cn ) est constante égale à a+b+c, on peut conclure
en passant de nouveau à la limite 3l = a + b + c, donc
a+b+c
lim an = lim bn = lim cn =
n→+∞ n→+∞ n→+∞ 3

4
Problème 2 – Le théorème d’Engel

Partie 1 - Généralités sur les endomorphismes nilpotents

1. Comme ud−1 6= 0, il existe un x ∈ E tel que ud−1 (x) 6= 0. (En particulier x 6= 0.) Soient
Pd
λ1 , ..., λd ∈ K tels que j=1 λj uj−1 (x) = 0. Montrons que les λj sont tous nuls. Par l’absurde.
Sinon il existe un plus petit entier r tel que λr 6= 0.
Pd
On a alors 0 = λr ur−1 (x) + j=r+1 λj uj−1 (x). On applique la fonction ud−r : on a alors
d
X
d−r d−1
0=u (0) = λr u (x) + λj udr +j−1 (x) = λr ud−1 (x)
j=r+1

car dans la somme sur j, d − r + j − 1 ≥ d. Comme ud−1 (x) 6= 0, on a λr = 0, contradiction.


Comme (x, u(x), u2 (x), ..., ud−1 (x)) est une famille libre de cardinal d dans un espace de
dimension dim E, d ≤ dim E.
2. Il est commode de poser Vk = {0} pour tout entier négatif k. On a alors encore u(Vk ) ⊂ Vk−1
pour tout entier relatif k ≤ n. Mais alors, pour tout entier k ≤ n, on a un (Vk ) ⊂ Vk−n et en
particulier pour k = n, un (E) = un (Vn ) = {0}. Donc u est nilpotent d’ordre au plus n.
Soit A = (αij ) une matrice triangulaire supérieure stricte et u l’endomorphisme dont A est la
Pj−1
matrice dans (ej ). Alors u(ej ) = k=1 αij ei ∈ Vj−1 . Donc u(Vj ) ⊂ Vj−1 et A est nilpotente
d’après le début de la question.
3. Montrons que pour tout entier k, Ker uk ⊂ Ker uk+1 . Soit x ∈ Ker uk . Alors 0 = u(0) =
u(uk (x)) = uk+1 (x), gagné. On a donc

{0} = ker u0 ⊂ ker u ⊂ ker u2 ⊂ · · · ker ud−1 ⊂ ker ud = E

car Ker ud = E.
Montrons maintenant que pour tout entier r compris entre 0 et d−1, on a Ker ur 6= Ker ur+1 .
Par l’absurde. On a alors Ker ur = Ker ur+1 pour un certain r < d. Montrons par récurrence
sur k que pour tout entier k, Ker ur = Ker ur+k . C’est vrai si k = 0 ou 1. Supposons que
c’est vrai pour k. Alors si x ∈ Ker ur+k+1 , ur+1 (uk (x)) = 0, d’où uk (x) ∈ Ker ur+1 = Ker ur ,
et donc ur (uk (x)) = 0 et x ∈ Ker ur+k = Ker ur , ce qui conclut la récurrence. On a alors
Ker ur = Ker ud−1 = Ker ud , absurde car Ker ud−1 6= Ker ud par définition de l’ordre de
nilpotence.
2
4. Par l’absurde
 : si B1 estune base  de K dans laquelle u et v ont pour matrices respectives
0 α 0 β
A= et B = . Alors puisque AB = 0, on a par isomorphisme d’algèbre
0 0 0 0
    
0 1 0 0 1 0
u ◦ v = 0. Or = . Contradiction.
0 0 1 0 0 0
 k
A B
5. Soient A ∈ M(r, K) et D ∈ M(n−r, K). Montrons par récurrence sur k ≥ 1 : =
0 D
 k 
A ∗
. C’est clair si k = 1. Supposons que c’est vrai pour k, k ≥ 1.
0 Dk
Alors
 k+1   k   k   k+1 
A B A B A B A B A Bk A ∗
= = = .
0 D 0 D 0 D 0 D 0 Dk 0 Dk+1
Ce qui conclut la récurrence.
 d
A B
En particulier, si d et supérieur à l’ordre de nilpotence de A et D, alors =
0 D
   2  
0 C 0 C 0 0
. Mais = en vertu de la formule du produit par blocs.
0 0 0 0 0 0
 2d
A B
Donc = 0.
0 D

5
 
0 1
6. Première méthode : on part de A = et on conjugue par une matrice de passage
0 0  
2 1
au hasard et on espère que les coefficients seront tous non-nuls. Par exemple P = .
    1 1
1 −1 −2 4
Donc P −1 = . Donc P AP −1 = . Gagné !
−1 2 −1 2
Deuxième méthode : on regarde de quel coté il faut chercher. Pour une matrice 2 × 2, il faut
avoir le noyau égalà l’image.
 Soit donc (a, b) un vecteur non nul de K2 et F = Vect((a, b)).
a 
La matrice A = b −a a bien pour noyau la droite d’équation bx − ay = 0,
b    
x a
c’est-à-dire F , et pour image F . En effet A = (bx − ay) .
y b

Partie 2 - La démonstration du théorème

1. (a) Il s’agit de montrer que adu est linéaire. Or pour tous v, w ∈ L(E) et λ, µ ∈ K, on a

adu (λv + µw)= u(λv + µw) − (λv + µw)u


= λuv + µuw − λvu − µwu
= λ(uv − vu) + µ(uww u)
Pn
(b) On peut montrer par récurrence que adnu = n−j n j
 n−j
j=0 (−1) j u vu . Mais on peut
aussi remarquer qu’en posant Lu (v) = uv et Ru (v) = vu, Lu et Ru sont deux endo-
morphismes de L(E) qui commutent, car Ru Lu (v) = u(vu) et Lu Ru (v) = (uv)u (c’est
l’associativité). On peut appliquer alors la formule du binôme de Newton :
n  
n−j n
X
n n
adu = (Lu − Ru ) = (−1) Luj Run−j .
j=0
j

Or Ruk = Ruk et de même pour L. Donc si u est nilpotent d’ordre d, on a ad2d u = 0 car
pour tout entier j compris entre 0 et 2d, on a uj = 0 ou u2d−j = 0.
2. On a N = Ku où u est nilpotent non nul, donc d’ordre d ≥ 1. Ker u 6= {0} par la question
I.3 et donc tout x ∈ Ker u convient.
3. Soit H l’ensemble des sous-espaces vectoriels distincts de N , stables par [, ]. H est non-vide
car contient {0}, mais aussi toute les droites de N car [u, u] = 0. Soit X = {dim F | F ∈ H}.
Comme X est une partie non vide majorée majoré par dim N = d de N, r = max X existe.
Soit N1 ∈ H tel que dim N1 = r. On a bien sûr r ≤ d − 1 car N1 6= N par définition de H.
4. On regarde adu comme endomorphisme de N . Il s’agit de montrer que si j ≤ r et u ∈ N − 1,
adu (ej ) a toutes ses coordonnées nulles suivant er+1 , ..., ed . Mais adu (ej ) = [u, ej ] ∈ N1 car
N1 est stable pour [, ]. Donc adu (ej ) = Vect(e1 , ..., er ).
5. Montrons d’abord que ad[u,v] = [adu , adv ]. En effet, pour tout w :

[adu , adv ] adu (adv (w)) − adv (adu (w))


=
u(vw − wv) − (vw − wv)u − v(uw − wu) + (uw − wu)v
=
uvw + wvu − vuw − wuv
=
(uv − vu)w − w(uv − vu) = ad[u,v] (w)
=
 
A B
En passant aux matrices et en désignant par MatB (adu ) = et MatB (adv ) =
 0 0 D
0

A B
, on a
0 D0
 0
A B0
  0
A B0
      
A B A B ∗ ∗ ∗ ∗
− = = .
0 D 0 D0 0 D0 0 D 0 DD0 − D0 D 0 [ρ(u), ρ(v)]

On a donc bien [ρ(u), ρ(v)] = ρ([u, v]).

6
6. Par hypothèse de récurrence, on peut appliquer le théorème d’Engel à N 0 = {ρ(u) | u ∈ N1 }.
C’est bien un sous-espace vectoriel d’une algèbre d’endomorphismes de dimension finie stable
par [, ], dont tous les éléments sont nilpotents car ρ(u) est nilpotente d’après la question I.5.
D’où l’existence de X0 .
7. Soit X = X00 ∈ Md,1 (K)

 et v0 le vecteur de N représenté dans B par X. Si M =
A B
, M X = BX

MatB (adu ) = 0
0
car ρ(u)X0 = 0 par définition de X0 . D’où
0 ρ(u)
adu a toutes ses coordonnées suivant D nulles, i.e. adu (v0 ) ∈ N1 .
8. Soit N2 = Kv0 ⊕ N1 . Montrons que N2 est stable par [, ]. Soient u, v ∈ N1 , λ, µ ∈ K. Alors
[λv0 + u, µv0 + v] = λµ[v0 , v0 ] + λ[v0 , v] + µ[u, v0 ] + [u, v]. Or [v0 , v0 ] = 0, [u, v] ∈ N1 car
N1 stable par [, ], [u, v0 ] = adu (v0 )N1 par définition de v0 et parce que u ∈ N1 et enfin
[v0 , v] = − adv (v0 ) ∈ N1 . Par maximalité de N1 , N2 = N . D’où dim N1 = dim N − 1.
Remarquons qu’on a de plus pour tout u ∈ N et v ∈ N1 , [u, v] ∈ N1 .
9. Soit x ∈ E1 et v ∈ N . Il s’agit de montrer que pour tout u ∈ N1 , uv(x) = 0. Or uv(x) =
[u, v](x) + vu(x) = w(x) + v(0) = 0 car w = [u, v] ∈ N1 d’après la question précédente.
10. Remarquons déjà que E1 6= {0}. En effet, puisque dim N1 ≤ d − 1, par hypothèse de ré-
currence, il existe un x 6= 0 annulé par tous les éléments de N1 . Mais v0 restreint à E1 est
encore nilpotent en tant qu’endomorphisme de E1 . Donc son noyau n’est pas réduit à {0}.
Tout vecteur x de ce noyau convient. Le théorème d’Engel est démontré.
11. Application : On raisonne par récurrence sur dim E. D’après le théorème d’Engel, il existe
x 6= 0 tel que pour tout u ∈ N , u(x) = 0.
Si dim E = 1, N est réduit à {0} car tout endomorphisme de E est une homothétie ; elle
n’est nilpotente que si elle est nulle. Supposons le résultat vrai pour dim E = n − 1. Soit
0 0 0
E de dimension n. Considérons
  B = (x0 , e2 , ..., en ) une base de E. Dans cette base, tout
0 ∗
élément de N s’écrit . D’après I.5, Au est nilpotente. Pour tout u, Au représente
0 Au
un endomorphisme de F = Vect(e02 , ..., e0n ). Comme les Au sont nilpotente et forment un
espace vectoriel stable par produits (conséquence du produit par blocs), on peut appliquer
le théorème d’Engel à N 0 = {Au | u ∈ N }. Donc il existe une base (e2 , ..., en ) de F dans
laquelle les matrices des éléments de N 0 sont toutes triangulaires supérieures strictes. Dans
B = (x0 , e2 , ..., en ), les matrices des u ∈ N sont toutes triangulaires supérieures strictes.

Vous aimerez peut-être aussi