Vous êtes sur la page 1sur 14

Classe MP*– CPGE Moulay Youssef

Devoir libre 1
Algèbre linéaire
À rendre le samedi 19 septembre

Énoncé
On considère dans tout le problème un entier 𝑛 > 2. 𝑟 désignera à chaque fois
un entier compris entre 1 et 𝑛.
On dira qu’une partie 𝐹 de M𝑛 (C) vérifie la propriété (𝑃𝑟 ) si et seulement si

𝐹 est un sous-espace vectoriel de M𝑛 (C) ;
Tout élément de 𝐹 est une matrice de rang inférieur ou égal à 𝑟 .
Le but du problème est de prouver l’existence de tels sous-espaces vectoriels de
M𝑛 (R) et de donner une majoration de leurs dimensions en fonction de 𝑟 .
On rappelle que
I. deux matrices 𝐴, 𝐵 de M𝑛 (C) sont dites équivalentes s’il existe des
matrices inversibles 𝑃 et 𝑄 dans GL𝑛 (C) telles que 𝐵 = 𝑃𝐴𝑄 ;
II. deux matrices de M𝑛 (C) sont équivalentes si et seulement si elles ont
le même rang ;
III. en particulier, une matrice 𝐴 de M𝑛 (R) est de  rang 𝑟 si et seulement
si elle est équivalente à la matrice 𝐽𝑟 = 𝐼0𝑟 00
𝑥1 ! 𝑦1
𝑥2
© 𝑦2 ª
On prêtera attention au fait que si 𝑋 = .. et 𝑌 = ­ .. ® sont deux éléments
. .
𝑥𝑛 « 𝑦𝑛 ¬
de M𝑛,1 (C) alors 𝑋𝑌 est un scalaire et 𝑋 𝑌 est une matrice carrée d’ordre 𝑛
𝑡 𝑡

𝑛
Õ
𝑡
𝑋𝑌 = 𝑥𝑘 𝑦𝑘 et 𝑋 𝑡 𝑌 = (𝑥𝑖 𝑦 𝑗 )16𝑖,𝑗 6𝑛
𝑘=1

On admet que pour tout 𝐴 ∈ M𝑛 (C), la fonction 𝑥 ∈ C ↦−→ det(𝐴 + 𝑥𝐼𝑛 ) est
polynomiale unitaire de degré 𝑛.

1
I
Matrices de rang inférieur ou égal à
𝑟 et exemples de parties vérifiant la
propriété (𝑃𝑟 )

Soir 𝑝 ∈ [[1, 𝑛]]. On notera R𝑝 l’ensemble des éléments de M𝑛 (C) de rang


inférieur ou égal à 𝑝.
1. R𝑝 est-il un sous-espace vectoriel de M𝑛 (C) ? Justifiez votre réponse.
2. Montrer que pour tout 𝑃 ∈ GL𝑛 (C) et 𝑀 ∈ M𝑛 (C), la matrice 𝑃 𝐽𝑝 𝑀
est un élément de R𝑝 .
3. Réciproquement ; soit un élément 𝐴 de R𝑝 . Soit 𝑞 = rg 𝐴.
3a. Que vaut 𝐽𝑝 𝐽𝑞 ?
3b. En déduire qu’il existe 𝑃 ∈ GL𝑛 (C) et 𝑀 ∈ M𝑛 (C) telles que
𝐴 = 𝑃 𝐽𝑝 𝑀.
On aura ainsi démontré que

R𝑝 = 𝑃 𝐽𝑝 𝑀 / 𝑃 ∈ GL𝑛 (C) et 𝑀 ∈ M𝑛 (C)

4. Application : soient 𝐴, 𝐵 deux matrices de M𝑛 (C). Montrer que

rg 𝐵 6 rg 𝐴 ⇐⇒ ∃𝑄 ∈ GL𝑛 (C), ∃𝑁 ∈ M𝑛 (C) ; 𝑄𝐵 = 𝐴𝑁

5. On fixe 𝑃 ∈ GL𝑛 (C) et on pose

𝐹𝑃 = {𝑃 𝐽𝑟 𝑀 / 𝑀 ∈ M𝑛 (C)}

Montrer que 𝐹𝑃 vérifie la propriété (𝑃𝑟 ). Montrer que sa dimension


est 𝑟𝑛.
6. Soit maintenant une matrice quelconque non nulle 𝐴 de M𝑛 (C) et
soit 𝑟 = rg 𝐴. On pose

𝐺𝐴 = {𝐴𝑁 / 𝑁 ∈ M𝑛 (C)}

Montrer que 𝐺𝐴 vérifie la propriété (𝑃𝑟 ) et donner sa dimension.

2
II
Les parties qi vérifient 𝑃1

A. Formes linéaires de 𝑀𝑛,1 (C)

On considère pour tout 𝐶 ∈ M𝑛,1 (C) l’application 𝜑𝐶 de M𝑛,1 (C) dans C


définie par
∀𝑋 ∈ M𝑛,1 (C), 𝜑𝐶 (𝑋 ) = 𝑡 𝐶𝑋
7. Montrer que pour tout 𝐶 ∈ M𝑛,1 (C), 𝜑𝐶 est une forme linéaire de
M𝑛,1 (C).
8. Montrer que l’application Φ qui à tout 𝐶 ∈ M𝑛,1 (C) associe 𝜑𝐶 est
un isomorphisme de M𝑛,1 (C) sur son espace dual.

B. Sur les matrices carrées de rang 1

9. Soit une matrice carrée 𝐴 ∈ M𝑛 (C) de rang 1 et soit 𝑢 l’endo-


morphisme de M𝑛,1 (C) qui lui est canoniquement associé. (∀𝑋 ∈
M𝑛,1 (C), 𝑢 (𝑋 ) = 𝐴𝑋 .)
Montrer qu’il existe une forme linéaire non nulle 𝜑 de M𝑛,1 (C) et
un vecteur non nul 𝑈 de M𝑛,1 (C) tels que 𝑢 (𝑋 ) = 𝜑 (𝑋 )𝑈 pour tout
𝑋 ∈ M𝑛,1 (C).
En déduire qu’il existe 𝑉 ∈ M𝑛,1 (C) tel que 𝐴 = 𝑈 𝑡 𝑉 .
Exprimer en fonction de (𝑈 , 𝑉 ) tous les couples de vecteurs (𝑈 0, 𝑉 0)
tels que 𝐴 = 𝑈 0𝑡 𝑉 0.
10. Soient 𝐴 = 𝑈 𝑡 𝑉 et 𝐴 0 = 𝑈 0𝑡 𝑉 0 deux matrices carrées dans M𝑛 (C) de
rang 1, écrites selon le résultat de la question précédente.
Montrer que rg(𝐴 + 𝐴 0) 6 1 si et seulement si (𝑈 , 𝑈 0) est liée ou
(𝑉 , 𝑉 0) est liée.
En déduire que si rg(𝐴 + 𝐴 0) 6 1 alors on peut supposer que 𝑈 0 = 𝑈
ou 𝑉 0 = 𝑉 .

3
C. Les sous-espaces 𝑃 1

11. Soient un vecteur non nul 𝑈 ∈ M𝑛,1 (C) et un sous-espace vectoriel


𝐶 de M𝑛,1 (C). On pose 𝐹𝑈 ,𝐶 = {𝑈 𝑡 𝑉 / 𝑉 ∈ 𝐶}. Montrer que 𝐹𝑈 ,𝐶 est
une partie vérifiant la propriété 𝑃 1 . Montrer que sa dimension est
égale à dim 𝐶.
12. Étudier les ensembles 𝐺𝑉 ,𝐿 = {𝑈 𝑡 𝑉 /𝑈 ∈ 𝐿} où 𝑉 est un vecteur non
nul de M𝑛,1 (C) et 𝐿 un sous-espace vectoriel de M𝑛,1 (C).
13. On voudrait maintenant montrer qu’une partie vérifiant 𝑃 1 est soit
de la forme 𝐹𝑈 ,𝐶 , soit de la forme 𝐺𝑉 ,𝐿 .
On considère donc une parte 𝐹 vérifiant 𝑃 1 .
13a. Montrer que le résultat est vrai si dim 𝐹 = 1 On suppose désor-
mais que dim 𝐹 > 2 et on considère deux éléments non colinéaires 𝐴
et 𝐴 0 de 𝐹 .
13b. Montrer que 𝐴 et 𝐴 0 sont respectivement soit de la forme 𝑈 𝑡 𝑉 et
𝑈 𝑡 𝑉 0 soit de la forme 𝑈 𝑡 𝑉 et 𝑈 0𝑡 𝑉 , où 𝑈 , 𝑈 0, 𝑉 , 𝑉 0 sont des éléments
de M𝑛,1 (C).
On suppose désormais que 𝐴 = 𝑈 𝑡 𝑉 et 𝐴 0 = 𝑈 𝑡 𝑉 0.
13c. Montrer que tout élément de 𝐹 est de la forme 𝑈 𝑡 𝑌 où 𝑌 est un
élément de M𝑛,1 (C).
13d. Montrer que {𝑌 ∈ M𝑛,1 (C) / 𝑈 𝑡 𝑌 ∈ 𝐹 } est un sous-espace
vectoriel de M𝑛,1 (C).
13e. Conclure.
14. Quelle est la dimension maximale que peut avoir une partie qui vérifie
𝑃1 ?

III
Majoration de la dimension des
sous-espaces (𝑃𝑟 )

Soit 𝐹 une partie vérifiant la propriété (𝑃𝑟 ) et soit 𝑝 le rang maximal atteint
par les éléments de 𝐹 :
𝑝 = max {rg 𝑀 / 𝑀 ∈ 𝐹 }

4
15. Montrer que 𝐹 est isomorphe à un sous-espace vérifiant (𝑃𝑟 ) et conte-
nant la matrice 𝐽𝑝 .
On suppose désormais que 𝐹 contient 𝐽𝑝 .

16. Soit 𝑀 un élément de 𝐹 qu’on écrit sous la forme 𝐶𝐴 𝐷𝐵 , où 𝐴 ∈
M𝑝 (C).
Soit (𝑖, 𝑗) ∈ [[𝑝 + 1, 𝑛]] 2 . On note 𝐶𝑖 le ième vecteur ligne de 𝐶, 𝐵 𝑗 le
jème vecteur colonne de 𝐵 et 𝑑𝑖,𝑗 le coefficient d’indice (𝑖, 𝑗) de 𝐷.
On pose pour tout 𝑥 ∈ C,

𝐴 + 𝑥𝐼𝑝 𝐵 𝑗
𝑄𝑖,𝑗 (𝑥) =
𝐶𝑖 𝑑𝑖,𝑗
16a. Expliquer pourquoi 𝑄𝑖,𝑗 est une fonction polynomiale partout
nulle sur C.
16b. Montrer 𝑑𝑖,𝑗 est le coefficient du terme en 𝑥 𝑝 de 𝑄𝑖,𝑗 .
En déduire que 𝐷 = 0.
16c. Montrer en examinant le coefficient du terme en 𝑥 𝑝−1 que
𝐶𝑖 𝐵 𝑗 = 0.
En déduire que 𝐶𝐵 = 0
Ainsi on aura démontré que les éléments de 𝐹 sont tous de la forme
 
𝐴 𝐵
𝐶 0

avec 𝐴 ∈ M𝑝 (C), 𝐵 ∈ M𝑝,𝑛−𝑝 (C), 𝐶 ∈ M𝑛−𝑝,𝑝 (C) et 𝐶𝐵 = 0.


17. Montrer que l’application

𝑓 : 𝐹 −→ M𝑝 (C) × M𝑝,𝑛−𝑝 (C)


𝐴𝐵
𝐶 0 ↦−→ (𝐴, 𝐵 + 𝑡 𝐶)

est linéaire injective.


18. En déduire que dim 𝐹 6 𝑛𝑟 .
19. Montrer qu’un sous-espace vectoriel de M𝑛 (C) qui ne contient au-
cune matrice inversible est de dimension inférieure ou égale à 𝑛 2 − 𝑛.

5
Corrigé

I
Matrices de rang inférieur ou égal à
𝑟 et exemples de parties vérifiant la
propriété 𝑃𝑟

1. Sauf dans le cas trivial où 𝑟 = 𝑛 (R𝑛 = M𝑛 (C)), R𝑝 n’est jamais un


sev de 𝐸. Il suffit en effet de remarquer que 𝐽𝑝 + 𝐸𝑝+1,𝑝+1 est une matrice de
rang 𝑝 + 1 alors que 𝐽𝑝 et 𝐸𝑝+1,𝑝+1 sont des éléments de R𝑝 .
2. Soient 𝑃 ∈ GL𝑛 () et 𝑀 ∈ M𝑛 (C). 𝑃 est inversible donc rg(𝑃 𝐽𝑝 𝑀) =
rg(𝐽𝑝 𝑀). Ensuite Im 𝐽𝑝 𝑀 ⊂ Im 𝐽𝑝 donc rg(𝐽𝑝 𝑀) 6 𝑝.
3. 3a. 𝐴 ∈ R𝑝 donc 𝑞 = rg 𝐴 6 𝑝. D’où 𝐽𝑝 𝐽𝑞 = 𝐽𝑞 .
3b. 𝐴 est équivalente à la matrice 𝐽𝑞 . Soit donc 𝑃, 𝑄 ∈ GL𝑛 () telles que
𝐴 = 𝑃 𝐽𝑞 𝑄. On peut alors écrire 𝐴 = 𝑃 𝐽𝑝 𝐽𝑞 𝑄 = 𝑃 𝐽𝑝 𝑀, où on a posé 𝑀 = 𝐽𝑞 𝑄.
4. Posons 𝑝 = rg 𝐴.
=⇒) si rg 𝐵 6 rg 𝐴 alors rg 𝐵 6 𝑝, et donc d’après la question précédente,
il existe 𝑃 ∈ GL𝑛 () et 𝑀 ∈ M𝑛 (C) telles que 𝐵 = 𝑃 𝐽𝑝 𝑀. Ensuite 𝐴 étant
équivalente à 𝐽𝑝 , on peut considérer des matrices 𝑃 0, 𝑄 0 ∈ GL𝑛 () telles que
𝐽𝑝 = 𝑃 0𝐴𝑄 0. On a alors 𝐵 = 𝑃𝑃 0𝐴𝑄 0𝑀. En posant 𝑄 = (𝑃𝑃 0) −1 et 𝑁 = 𝑄 0𝑀
on a 𝑄𝐵 = 𝐴𝑁 .
⇐=) On suppose qu’il existe 𝑄 ∈ GL𝑛 () et 𝑁 ∈ M𝑛 (C) telles que 𝑄𝐵 = 𝐴𝑁 .
On a rg 𝑄𝐵 = rg 𝐵 et rg 𝐴𝑁 6 rg 𝐴 (car Im 𝐴𝑁 ⊂ Im 𝐴) donc rg 𝐵 6 rg 𝐴.
5. L’ensemble 𝐹𝑃 = {𝑃 𝐽𝑟 𝑀 / 𝑀 ∈ M𝑛 (C)} est bien un sev de M𝑛 (C) et
tous ses éléments sont de rang inférieur ou égal à 𝑟 d’après la question 2. Il
vérifie donc la propriété 𝑃𝑟 .
Ensuite ; grâce à l’inversibilité de 𝑃 l’application 𝑀 ↦−→ 𝑃𝑀 est un automor-
phisme de M𝑛 (C). 𝐹𝑃 a donc la même dimension que l’ensemble

𝐾𝑟 = {𝐽𝑟 𝑀 / 𝑀 ∈ M𝑛 (C)}

6
Cet ensemble est celui des matrices de M𝑛 (C) dont les (𝑛 − 𝑟 ) dernières
lignes sont nulles. Il est donc isomorphe à M𝑟,𝑛 (C) et de ce fait
dim 𝐹𝑃 = 𝑛𝑟
6. Si on considère 𝑃, 𝑄 ∈ GL𝑛 () telles que 𝐴 = 𝑃 𝐽𝑟 𝑄 alors
𝐺𝐴 = {𝑃 𝐽𝑟 𝑄𝑁 / 𝑁 ∈ M𝑛 (C)}
𝑄 étant inversible, l’application 𝑁 ↦−→ 𝑄𝑁 est une bijection de M𝑛 (C) sur
lui même. On peut donc écrire
𝐺𝐴 = {𝑃 𝐽𝑟 𝑀 / 𝑀 ∈ M𝑛 (C)} = 𝐹𝑃
Donc 𝐺𝐴 vérifie la propriété 𝑃𝑟 et dim 𝐺𝐴 = 𝑟𝑛.

II
Les parties qi vérifient 𝑃1

A. Formes linéaires de M𝑛,1 (C)


7. 𝜑𝐶 est bien une application de M𝑛,1 (C) dans C et pour tous 𝑋, 𝑌 ∈
M𝑛,1 (C) et 𝜆 ∈ C,
𝜑𝐶 (𝑋 + 𝜆𝑌 ) = 𝑡𝐶 (𝑋 + 𝜆𝑌 ) = 𝑡𝐶𝑋 + 𝜆𝑡𝐶𝑌 = 𝜑𝐶 (𝑋 ) + 𝜆𝜑𝐶 (𝑌 )
d’où la linéarité de 𝜑𝐶 . Alors 𝜑𝐶 est une forme linéaire de M𝑛,1 (C).
8. Φ est une application de M𝑛,1 (C) dans son espace dual. Elle est linéaire
car pour tous 𝐶, 𝐶 0 ∈ M𝑛,1 (C), 𝜆 ∈ C et pour tout 𝑋 ∈ M𝑛,1 (C)

Φ(𝐶 + 𝜆𝐶 0) (𝑋 ) = 𝑡(𝐶 + 𝜆𝐶 0)𝑋


= 𝑡𝐶𝑋 + 𝜆𝑡𝐶 0𝑋
= Φ(𝐶) + 𝜆Φ(𝐶 0) (𝑋 )


et donc Φ(𝐶 + 𝜆𝐶 0) = Φ(𝐶) + 𝜆Φ(𝐶 0).


Ensuite ; soit 𝐶 ∈ Ker Φ. Alors 𝑡𝐶𝑋 = 0 pour tout 𝑋 ∈ M𝑛,1 (C). Si (𝐸 1, 𝐸 2, . . . ,
𝐸𝑛 ) désigne la base canonique de M𝑛,1 (C) et 𝑐 1, 𝑐 2, . . . , 𝑐𝑛 les coordonnées
de 𝐶 dans cette base alors pour tout 𝑘 ∈ [[1, 𝑛]], 𝑡𝐶𝐸𝑘 = 𝑐𝑘 et donc 𝑐𝑘 = 0.
Ainsi 𝐶 = 0. Ce qui démontre l’injectivité de Φ. Maintenant, M𝑛,1 (C) étant
de même dimension que son espace dual, cela aboutit à la bijectivité de Φ.

7
B. Sur les matrices carrées de rang 1

9. 𝑢 étant un endomorphisme de rang 1 de M𝑛,1 (C), soit 𝑈 un vecteur


directeur de son image. Pour tout 𝑋 ∈ M𝑛,1 (C), il existe donc un unique
scalaire qu’on va noter 𝜑 (𝑋 ) tel que 𝑢 (𝑥) = 𝜑 (𝑋 )𝑈 . La linéarité de 𝑢 va
ensuite induire celle de 𝜑. Maintenant que 𝜑 est une forme linéaire de
M𝑛,1 (C), il existe, par isomorphisme, un unique vecteur 𝑉 ∈ M𝑛,1 (C) tel
que 𝜑 (𝑋 ) = 𝑡𝑉 𝑋 pour tout 𝑋 ∈ M𝑛,1 (C). On a ainsi, pour tout 𝑋 ∈ M𝑛,1 (C)

𝐴𝑋 = 𝜑 (𝑋 )𝑈 = (𝑡𝑉 𝑋 )𝑈 = (𝑈 𝑡𝑉 )𝑋

Les endomorphismes canoniquement associés aux matrices carrées 𝐴 et


𝑈 𝑡𝑉 sont donc égaux. Par suite 𝐴 = 𝑈 𝑡𝑉 .
N.B : 𝑈 est un vecteur directeur de Im 𝐴, donc tous les vecteurs colonnes de
𝐴 sont colinéaires à 𝑈 .

Plus précisément si 𝑡𝑉 = 𝑣 1 𝑣 2 · · · 𝑣𝑛 alors les vecteurs colonnes de
𝐴 = 𝑈 𝑡𝑉 sont 𝑣 1𝑈 , 𝑣 2𝑈 , . . . , 𝑣𝑛𝑈 . De même ses vecteurs lignes sont 𝑢 1𝑡𝑉 ,
𝑢 2𝑡𝑉 , . . . , 𝑢𝑛 𝑡𝑉 où 𝑢 1, . . . , 𝑢𝑛 sont les coefficients de 𝑈 .
Il devient ainsi clair que si 𝑈 , 𝑉 sont non nuls alors rg(𝑈 𝑡𝑉 ) = 1, et que
𝑈 𝑡𝑉 = 0 si et seulement si 𝑈 = 0 ou 𝑉 = 0. Résumons :
(
𝑡 0 si 𝑈 = 0 ou 𝑉 = 0
rg(𝑈 𝑉 ) =
1 sinon

N.B : 𝑈 étant un vecteur non nul de M𝑛,1 (C), l’ensemble

{𝑉 ∈ M𝑛,1 (C) / 𝑈 𝑡𝑉 = 0}

est réduit au sev {0} de M𝑛,1 (C), tandis que {𝑉 ∈ M𝑛,1 (C) / 𝑡𝑈𝑉 = 0} est
un hyperplan de M𝑛,1 (C).

Soient ensuite 𝑈 0, 𝑉 0 ∈ M𝑛,1 (C) tels que 𝐴 = 𝑈 0𝑡𝑉 0. 𝑈 0 est un vecteur de


Im 𝐴 donc il est colinéaire à 𝑈 . Il est non nul car sinon 𝐴 serait nulle. Il
existe donc 𝛼 ∈ C∗ tel que 𝑈 0 = 𝛼𝑈 . On a alors 𝑈 𝑡𝑉 = 𝛼𝑈 𝑡𝑉 0 et donc
𝑈 𝑡(𝑉 − 𝛼𝑉 0) = 0. Les vecteurs lignes de cette dernières matrices sont tous
nuls, et comme ils sont de la forme 𝑢𝑘 𝑡(𝑉 − 𝛼𝑉 0) et que l’un au moins des
coefficients 𝑢𝑘 de 𝑈 est non nul alors 𝑉 − 𝛼𝑉 0 = 0 soit 𝑉 0 = 1/𝛼𝑉 .
Réciproquement si 𝑈 0 = 𝛼𝑈 et 𝑉 0 = 1/𝛼𝑉 pour un certain scalaire non nul
𝛼 alors 𝑈 𝑡𝑉 = 𝑈 0𝑡𝑉 0.
Les couples (𝑈 0, 𝑉 0) d’éléments de M𝑛,1 (C) tels que 𝐴 = 𝑈 0𝑡𝑉 0 sont donc
ceux de la forme (𝛼𝑈 , 1/𝛼𝑉 ) où 𝛼 est un scalaire non nul quelconque.

8
10. Noter que puisque 𝑈 𝑡𝑉 et 𝑈 0𝑡𝑉 0 sont supposées de rang 1 alors les
vecteurs 𝑈 , 𝑈 0, 𝑉 et 𝑉 0 sont tous non nuls.
On suppose que rg(𝐴 + 𝐴 0) 6 1 et que (𝑈 , 𝑈 0) est libre. Montrons qu’alors
(𝑉 , 𝑉 0) est forcément liée.
Pour tout vecteur 𝑋 de Ker(𝐴 + 𝐴 0) on a 𝑈 𝑡𝑉 𝑋 + 𝑈 0𝑡𝑉 0𝑋 = (𝑡𝑉 𝑋 )𝑈 +
(𝑡𝑉 0𝑋 )𝑈 0 = 0, et donc par indépendance des vecteurs 𝑈 et 𝑈 0, 𝑡𝑉 𝑋 = 0 et
𝑡𝑉 0𝑋 = 0 (noter que 𝑡𝑉 𝑋 et 𝑡𝑉 0𝑋 sont bien des scalaires). Ce qui donne avec

les notations de la section II.1 𝜑𝑉 (𝑋 ) = 0 et 𝜑𝑉 0 (𝑋 ) = 0.


Les hyperplans Ker 𝜑𝑉 et Ker 𝜑𝑉 0 contiennent donc l’hyperplan Ker(𝐴 + 𝐴 0)
et de ce fait Ker 𝜑𝑉 = Ker 𝜑𝑉 0 . Les formes linéaires 𝜑𝑉 et 𝜑𝑉 0 sont donc
colinéaires et à causse de l’isomorphisme Φ, (𝑉 , 𝑉 0) sont aussi colinéaires.
CQFD.
Réciproquement ; si (𝑈 , 𝑈 0) est liée il existe 𝛼 ∈ C∗ tel que 𝑈 0 = 𝛼𝑈 et par
suite 𝐴 + 𝐴 0 = 𝑈 𝑡(𝑉 + 𝛼𝑉 0). Donc rg(𝐴 + 𝐴 0) 6 1. De la même façon si
(𝑉 , 𝑉 0) est liée alors rg(𝐴 + 𝐴 0) 6 1.
Ensuite ; selon le cas, si 𝑈 0 = 𝛼𝑈 on peut poser 𝐴 0 = 𝑈 𝑡(𝛼𝑉 0), et si 𝑉 0 =
𝛽𝑉 on peut poser 𝐴 0 = (𝛽𝑈 0)𝑡𝑉 . Ce qui nous permet de supposer que,
respectivement, soit 𝑈 0 = 𝑈 , soit 𝑉 0 = 𝑉 .
N.B : Si 𝑉 et 𝑉 0 sont des vecteurs non nuls de M𝑛,1 (C) alors la famille
(𝑉 , 𝑉 0) est liée si et seulement si (𝜑𝑉 , 𝜑𝑉 0 ) est liée, ce qui est équivalent à
Ker 𝜑𝑉 = Ker 𝜑𝑉 0 .
Par contre-apposée, la famille (𝑉 , 𝑉 0) est libre si et seulement s’il existe un
vecteur 𝑋 ∈ M𝑛,1 (C) tel que 𝑡𝑉 𝑋 = 0 et 𝑡𝑉 0𝑋 ≠ 0, si et seulement s’il existe
un vecteur 𝑌 ∈ M𝑛,1 (C) tel que 𝑡𝑉 𝑌 ≠ 0 et 𝑡𝑉 0𝑌 = 0.
On peut utiliser ce constat pour montrer la question par contre-apposée :
on suppose que (𝑈 , 𝑈 0) et (𝑉 , 𝑉 0) sont libres et on considère deux vecteurs
𝑋, 𝑌 ∈ M𝑛,1 (C) tels que 𝑡𝑉 𝑋 = 0 et 𝑡𝑉 0𝑋 ≠ 0, 𝑡𝑉 𝑌 ≠ 0 et 𝑡𝑉 0𝑌 = 0. On aura
alors
(𝐴 + 𝐴 0)𝑋 = 𝑈 0𝑡𝑉 0𝑋 = (𝑡𝑉 0𝑋 )𝑈 et (𝐴 + 𝐴 0)𝑌 = 𝑈 𝑡𝑉 𝑌 = (𝑡𝑉 𝑌 )𝑈
Les vecteurs 𝑈 et 𝑈 0 sont donc dans Im(𝐴 + 𝐴 0) et puisque (𝑈 , 𝑈 0) est libre
alors rg(𝐴 + 𝐴 0) > 2.

C. Les sous-espaces 𝑃 1
11. Il est aisé de vérifier que 𝐹𝑈 ,𝐶 est un sev de M𝑛 (C). En outre la forme
même des éléments de 𝐹 indique qu’il sont tous de rang inférieur ou égal à
1. Alors 𝐹𝑈 ,𝐶 vérifie la propriété 𝑃 1 .

9
Ensuite l’application

𝜓𝑈 : M𝑛,1 (C) −→ M𝑛 (C)


𝑉 ↦−→ 𝑈 𝑡𝑉 .

est linéaire injective. En effet 𝑈 étant non nul, pour tout 𝑉 ∈ M𝑛,1 (C),
𝑈 𝑡𝑉 = 0 si et seulement si 𝑉 = 0.
On constate que 𝐹𝑈 ,𝐶 = 𝜓𝑈 (𝐶). L’injectivité de 𝜓𝑈 implique alors que
dim 𝐹𝑈 ,𝐶 = dim 𝐶.
12. De la même façon 𝐺𝑉 ,𝐿 = {𝑈 𝑡𝑉 / 𝑈 ∈ M𝑛,1 (C)}, où 𝑉 ∈ M𝑛,1 (C) \
{0} et 𝐿 est un sev de M𝑛,1 (C), vérifie 𝑃 1 et dim 𝐺𝑉 ,𝐿 = dim 𝐿
13. 13a. Si dim 𝐹 = 1 alors 𝐹 = Vect{𝑈 𝑡 𝑉 } pour certains vecteurs non
nuls 𝑈 et 𝑉 de M𝑛,1 (C). En posant 𝐶 = Vect{𝑉 }, il est aisé de voir que
𝐹 = 𝐹𝑈 ,𝐶 .
13b. Puisque 𝐴 + 𝐴 0 ∈ 𝐹 alors rg(𝐴 + 𝐴 0) 6 1 et donc d’après la question
10 on peut poser (𝐴 = 𝑈 𝑡𝑉 et 𝐴 0 = 𝑈 𝑡𝑉 0) ou (𝐴 = 𝑈 𝑡𝑉 et 𝐴 0 = 𝑈 0𝑡𝑉 ).
On suppose dans la suite que 𝐴 = 𝑈 𝑡𝑉 et 𝐴 0 = 𝑈 𝑡𝑉 0.
Noter que puisque 𝐴 et 𝐴 0 ne sont pas colinéaires alors forcément (𝑉 , 𝑉 0)
est libre.
13c. Soit 𝐵 ∈ 𝐹 . De la même façon que pour 𝐴 0, soit 𝐵 = 𝑈 𝑡𝑌 , soit 𝐵 = 𝑋 𝑡𝑉 ,
où 𝑋, 𝑌 ∈ M𝑛,1 (C).
Si on suppose que 𝐵 est de la forme 𝑋 𝑡𝑉 , le fait que 𝐴 0 = 𝑈 𝑡𝑉 0, que 𝐴 0 +𝐵 ∈ 𝐹
et que (𝑉 , 𝑉 0) est libre implique que (𝑋, 𝑈 ) est liée. On peut donc poser
𝑋 = 𝛼𝑈 , 𝛼 ∈ C. Ce qui entraine que 𝐵 = 𝑈 𝑡(𝛼𝑉 ). Ainsi dans tous les cas il
existe 𝑌 ∈ M𝑛,1 (C) tel que 𝐵 = 𝑈 𝑡𝑌 .
13d. Soit 𝐶 = {𝑌 ∈ M𝑛,1 (C) / 𝑈 𝑡𝑌 ∈ 𝐹 }. 𝐶 est non vide car il contient
𝑉 . Soient 𝑌, 𝑌 0 ∈ 𝐶 et 𝜆 ∈ 𝐾. 𝑈 𝑡𝑌 ∈ 𝐹 et 𝑈 𝑡𝑌 0 ∈ 𝐹 donc 𝑈 𝑡(𝑌 + 𝜆𝑌 0) =
𝑈 𝑡𝑌 + 𝜆𝑈 𝑡𝑉 0 ∈ 𝐹 et donc 𝑌 + 𝜆𝑌 0 ∈ 𝐶. Ce qui démontre que 𝐶 est un sev de
M𝑛,1 (C).
13e. Par définition de 𝐶, pour tout 𝑌 ∈ M𝑛,1 (C)

𝑌 ∈ 𝐶 ⇐⇒ 𝑈 𝑡𝑌 ∈ 𝐹

Ce qui signifie que 𝐹 = 𝐹𝑈 ,𝐶 .


Ainsi, dès qu’on suppose que deux éléments non colinéaires de 𝐹 sont de la
forme 𝑈 𝑡𝑉 et 𝑈 𝑡𝑉 0, il existe un sev 𝐶 de M𝑛,1 (C) tel que 𝐹 = 𝐹𝑈 ,𝐶 .

10
De la même façon s’il existe deux éléments non colinéaires de 𝐹 de la forme
𝑈 𝑡𝑉 et 𝑈 0𝑡𝑉 alors il existe un sev 𝐿 de M𝑛,1 (C) tel que 𝐹 = 𝐺𝑉 ,𝐿 . Pour cela
il suffit d’appliquer le constat précédent au sev 𝐺 = {𝑡𝐴 / 𝐴 ∈ 𝐹 }.

III
Majoration de la dimension des
sous-espaces 𝑃𝑟

14. Soit une matrice 𝐴 ∈ 𝐹 telle que rg 𝐴 = 𝑝. Il existe ensuite 𝑃 et 𝑄


telles que 𝐴 = 𝑃 𝐽𝑝 𝑄. Maintenant l’application

Ψ : M𝑛 (C) −→ M𝑛 (C)
𝑀 ↦−→ 𝑃 −1 𝑀𝑄 −1

est un automorphisme qui conserve en plus le rang des matrices. De ce fait,


l’image de 𝐹 par Ψ est un sev de M𝑛 (C) qui vérifie la propriété 𝑃𝑟 et qui a
la même dimension que 𝐹 . En outre Ψ(𝐹 ) contient la matrice 𝐽𝑝 .
15. 15a. 𝑄𝑖,𝑗 (𝑥) est un déterminant d’ordre 𝑝 + 1 extrait de la matrice
𝐴 + 𝑥 𝐽𝑝 . Cette dernière étant étant un élément de 𝐹 , elle est de rang égal ou
plus petit que 𝑝. 𝑄𝑖,𝑗 (𝑥) est donc nul. Par suite 𝑄𝑖,𝑗 est partout nulle sur C.
En outre c’est une fonction polynomiale grâce à l’expression du déterminant
d’une matrice carrée 𝑀 = (𝑚𝑖,𝑗 ) ∈ M𝑛 (C) :
Õ
det(𝑀) = 𝜀 (𝜎)𝑚𝜎 (1)1 · · · 𝑚𝜎 (𝑛)𝑛
𝜎 ∈S𝑛


𝐴 + 𝑥𝐼𝑝 𝐵 𝑗
15b. 𝑄𝑖,𝑗 (𝑥) =

𝐶𝑖 𝑑𝑖,𝑗

On développe 𝑄𝑖,𝑗 (𝑥) selon la dernière ligne. Les cofacteurs des coefficients
de 𝐶𝑖 sont des fonctions polynomiales de 𝑥 de degrés inférieurs ou égaux à
𝑝 − 1. Celui du coefficient 𝑑𝑖,𝑗 est det(𝐴 +𝑥𝐼𝑝 ) qui est de degré 𝑝. det(𝐴 +𝑥𝐼𝑝 )
est unitaire donc le coefficient de 𝑥 𝑝 dans 𝑄𝑖,𝑗 (𝑥) est 𝑑𝑖,𝑗 . Puisque 𝑄𝑖,𝑗 est le
polynôme nul, alors 𝑑𝑖,𝑗 = 0, ceci pour tout (𝑖, 𝑗) ∈ [[𝑝 + 1, 𝑛]]. Alors 𝐷 = 0.
Autre façon : la fonction 𝑥 ↦→ det(𝐴 + 𝑥𝐼𝑝 ) est polynomiale de degré 𝑝.
Elle admet donc au plus 𝑝 zéro dans C. Soit 𝑥 ∈ C qui n’en soit pas un zéro.

11
La matrice 𝐴𝑥 = 𝐴 + 𝑥𝐼𝑝 est alors inversible. On peut alors écrire

𝐼𝑝 0 𝐴𝑥 𝐵 𝑗 𝐴𝑥 𝐵𝑗

−𝐶𝑖 𝐴 −1 = −1

𝑥 1 𝐶𝑖 𝑑𝑖,𝑗 0 𝑑𝑖,𝑗 − 𝐶𝑖 𝐴𝑥 𝐵 𝑗
= det(𝐴𝑥 ) det(𝑑𝑖,𝑗 − 𝐶𝑖 𝐴𝑥−1 𝐵 𝑗 )

𝐼 0
Comme −𝐶𝑖𝑝𝐴−1 1 = 1, 𝑑𝑖,𝑗 − 𝐶𝑖 𝐴𝑥−1 𝐵 𝑗 est un scalaire et det(𝐴𝑥 )𝐴𝑥−1 =
𝑥
𝑡 Com(𝐴 ) alors
𝑥

𝑄𝑖,𝑗 (𝑥) = det(𝐴𝑥 )(𝑑𝑖,𝑗 − 𝐶𝑖 𝐴𝑥−1 𝐵 𝑗 )


= 𝑑𝑖,𝑗 det(𝐴 + 𝑥𝐼𝑝 ) − 𝐶𝑖 𝑡 Com(𝐴 + 𝑥𝐼𝑝 )𝐵 𝑗

Cette égalité qui fait intervenir des fonctions polynomiales se vérifie pour
une infinité de valeurs de 𝑥. Les polynômes associés sont donc égaux.
Les coefficients de la matrice Com(𝐴+𝑥𝐼𝑝 ) sont tous polynomiaux en 𝑥 mais
de degrés inférieurs ou égaux à 𝑝 − 1. Donc la fonction 𝑥 ↦→ 𝐶𝑖 𝑡 Com(𝐴 +
𝑥𝐼𝑝 )𝐵 𝑗 est polynomiale de degré inférieur ou égal à 𝑝 − 1. On en déduit que
le coefficient de 𝑥 𝑝 dans 𝑄𝑖,𝑗 (𝑥) est 𝑑𝑖,𝑗 .
15c. On a maintenant

𝐴 + 𝑥𝐼𝑝 𝐵 𝑗
𝑄𝑖,𝑗 (𝑥) =
𝐶𝑖 0

Soient 𝑉1, 𝑉2, . . . , 𝑉𝑝 les vecteurs colonnes de 𝐴 et B𝑝 = (𝐸 1, 𝐸 2, . . . , 𝐸𝑝 ) la


base canonique de M𝑝,1 (C) de telle sorte que les vecteurs colonnes de
𝐴 + 𝑥𝐼𝑝 soient 𝑉1 + 𝑥𝐸 1 , 𝑉2 + 𝑥𝐸 2 , . . . , 𝑉𝑝 + 𝑥𝐼𝑝 .
On pose 𝐶 = (𝑐𝑖,𝑗 )1≤𝑖 ≤𝑛−𝑝,1≤ 𝑗 ≤𝑝 et 𝐵 = (𝐵𝑖,𝑗 )1≤𝑖 ≤𝑝,1≤ 𝑗 ≤𝑛−𝑝 .
Soit 𝑘 ∈ [[1, 𝑝]]. Le cofacteur Δ𝑘 (𝑥) de 𝑐𝑖,𝑘 dans 𝑄𝑖,𝑗 (𝑥) s’obtient en élimi-
nant le 𝑘 ème vecteur colonne de 𝐴 + 𝑥𝐼𝑝 et en ajoutant 𝐵 𝑗 comme dernier
vecteur colonne. Après 𝑝 − 𝑘 transposition de colonnes on voit que
Δ𝑘 (𝑥) = (−1) (𝑝+1+𝑘)+(𝑝−𝑘) det B𝑝 (𝑉1 + 𝑥𝐸 1, . . . , 𝑉𝑘−1 + 𝑥𝐸𝑘−1, 𝐵 𝑗 , 𝑉𝑘+1 + 𝑥𝐸𝑘+1, . . . , )
= − det B𝑝 (𝑉1 + 𝑥𝐸 1, . . . , 𝑉𝑘−1 + 𝑥𝐸𝑘−1, 𝐵 𝑗 , 𝑉𝑘+1 + 𝑥𝐸𝑘+1, . . . , 𝑉𝑝 + 𝑥𝐸𝑝 )

où on voit que Δ𝑘 (𝑥) est polynomiale de degré inférieur ou égal à 𝑝 − 1


en 𝑥. det B𝑝 est multilinéaire donc le seul terme en 𝑥 𝑝−1 qui va subsister en
développant Δ𝑘 (𝑥) est

−𝑥 𝑝−1 det B𝑝 (𝐸 1, . . . , 𝐸𝑘−1, 𝐵 𝑗 , 𝐸𝑘 + 1, . . . , 𝐸𝑝 )

12
Í
en effectuant l’opération 𝐶𝑘 ← 𝐶𝑘 − ℎ≠𝑘 𝑏ℎ,𝑗 𝐶ℎ , ce dernier déterminant
devient

1

..

.

𝑏𝑘,𝑗 = 𝑏𝑘,𝑗

..

.
1
Í𝑝
Le coefficient de 𝑥 𝑝−1 dans 𝑄𝑖,𝑗 (𝑥) est donc − 𝑘=1 𝑐𝑖,𝑘 𝑏𝑘,𝑗 . Ce coefficient
est nul. Ce qui revient à 𝐶𝑖 𝐵 𝑗 = 0. Il s’agit du produit de la 𝑖 ème ligne de 𝐶
et de la 𝑗 ème colonne de 𝐵, qui n’est autre que le coefficient d’indice (𝑖, 𝑗) de
𝐶𝐵. Alors 𝐶𝐵 = 0.
À ce stade, tout élément de 𝐹 est de la forme
 
𝐴 𝐵
𝐶 0
où 𝐴 ∈ M𝑝 (C), 𝐵 ∈ M𝑝,𝑛−𝑘 (C), 𝐶 ∈ M𝑛−𝑝,𝑝 (C) et 𝐶𝐵 = 0.
15d. Il est aisé de vérifier que l’application
𝑓 : 𝐹  −→ M𝑝 (C) × M𝑝,𝑛−𝑝 (C)
𝐴𝐵
𝐶 0 ↦−→ (𝐴, 𝐵 + 𝑡𝐶)

est linéaire. Soit maintenant 𝑀 = 𝐶𝐴 𝐵0 un élément de Ker 𝑓 . Alors 𝐴 = 0
et 𝐵 + 𝑡𝐶 = 0. Sachant que 𝐶𝐵 = 0, en multipliant cette deuxième relation
par 𝐶 on obtient 𝐶 𝑡𝐶 = 0. En particulier Tr(𝐶 𝑡𝐶) = 0. Si on pose 𝐶 = (𝑐𝑖,𝑗 )𝑖,𝑗
ceci signifie que
𝑛−𝑝
ÕÕ 𝑝
2
𝑐𝑖,𝑗 =0
𝑖=1 𝑗=1

Si on avait K = R cela implique que 𝐶 = 0 et comme 𝐵 = −𝑡 𝐶 alors on a


aussi 𝐵 = 0.
Mais si K = C, la technique ne fonctionne tout simplement plus. En fait on
est amené à démontrer que si deux matrices 𝐵 ∈ M𝑝,𝑞 (C) et 𝐶 ∈ M𝑞,𝑝 (C)
vérifient
(
𝐵 + 𝑡𝐶 = 0
𝐶𝐵 = 0

13
alors 𝐵 = 0 et 𝐶 = 0. Ce qui suit donne un contre-exemple dans M2 (C)
 
1 𝑖
𝐶= et 𝐵 = −𝑡𝐶
0 0

La fonction 𝑓 n’est donc pas forcément injective dans certaines situations


(selon le sous-espace 𝐹 ). Il faut lui chercher une alternative qui soit valable
dans M𝑛 (C) et qui permette de justifier que dim 𝐹 6 𝑝𝑛.
Une solution sera proposée dès que j’aurai le temps pour y réfléchir :)

14

Vous aimerez peut-être aussi