Vous êtes sur la page 1sur 124

Problèmes d’algèbre linéaire

______________

« La langue de l’algèbre, mystérieuse et lumineuse, me saisissait. Ce que


j’admirais surtout dans cet idiome, c’est qu’il ne consent à exprimer, à articuler
que des vérités générales, universelles, et qu’il dédaigne les vérités particulières.
Je lui attribuais en cela une fierté que je refusais aux idiomes humains ; à ce
point de vue l’algèbre me semblait la langue du Dieu de l’esprit. »
Edgar Quinet, Histoire de mes idées

Sont ici réunis quelques dizaines de problèmes d’algèbre linéaire, mis au point au cours de
trente années d’enseignement, de 1979 à 2014. En somme, pour reprendre la jolie expression
de Laurent Schwartz, il s’agit de mon « château intérieur » linéaire : tours de guet, donjon,
redoutes, murs d’enceinte, machicoulis, pont-levis, douves, j’espère que rien ne manque à ce
très pacifique monument d’architecture militaire. Une forteresse de mathématiques est
toujours, en quelque manière, une forteresse contre les mathématiques, mais c’est d’abord, et
avant tout, une façon efficace de compléter le cours, et d’organiser les savoirs.
Les énoncés ont des sources diverses : cours de taupe, manuels français et étrangers,
problèmes et exercices de concours (les références sont indiquées chaque fois que possible),
mais ils ont parfois été remaniés à des fins pédagogiques. Il arrive souvent que plusieurs
problèmes abordent le même thème : un professeur est obligé de poser régulièrement un
problème sur un sujet important, avec de légères variantes selon les idées mises en valeur ou
l’état d’avancement du programme. Ainsi, plusieurs énoncés portent sur les pseudo-inverses
(thème fort à la mode dans les années 1980), les produits tensoriels, les endomorphismes
monogènes, le théorème de Jordan... Enfin, la plupart de ces problèmes sont corrigés.
Pierre-Jean Hormière

____________

Documents :
Adhérence d’une classe de similitude : RMS novembre 1990, p. 198 (Sifre)
Dimension maximale d’un sev de Mn(C) ne rencontrant pas Gln(C) :
RMS 1988-89 n° 7, 1989-90 n° 2 et 8 (Barani, Exbrayat, Clarisse)
Dimension maximale d’une sous-algèbre commutative de Mn(C) :
RMS Octobre 1993, p. 186 ; ENS 1998, Oral n° 294 ; ENS 2005, Oral n° 149, RMS mai 2006.
Dimension maximale d’un sous-espace formé de matrices diagonalisables : RMS mars 1992, Randé
Hyperplans de Mn(K) stables par le crochet de Lie : RMS 2001 n° 3, p. 234, Gozard
Sous-espaces vectoriels de matrices nilpotentes : RMS oct 2007, de Seguins Pazzis
Sous-espaces vectoriels de matrices de rang au plus p : RMS mai 2008, de Seguins Pazzis
Dénombrement de matrices nilpotentes d’indice donné : RMS septembre 2010
1. Algèbre linéaire sur les corps finis.
2. Restriction du corps des scalaires.
3. Complexification.
4. Factorisation d’applications linéaires.
5. Propriétés des projecteurs.
6. Endomorphismes tripotents.
7. Automorphismes de L(E) ; théorème de Skolem-Noether.
8. Espaces vectoriels en dualité.
9. Dualité en dimension infinie.
10. Idéaux à gauche et à droite de L(E).
11. Dimension maximale de certains sous-espaces de Mn(R).
12. Exemples de groupes multiplicatifs matriciels.
13. Inverses généralisées d’une application linéaire.
14. Matrices pseudo-inversibles.
15. Matrices-blocs.
16. Construction matricielle de corps.
17. Générateurs et groupe dérivé de Sln(K).
18. Nilespace et cœur d’un endomorphisme.
19. Matrices de Hessenberg.
20. Matrices magiques.
21. Matrices de Hadamard.
22. Matrices positives.
23. Discrétisation d’une équation différentielle linéaire.
24. Matrices harmoniques.
25. Températures de plaques.
26. Localisation des valeurs propres.
27. Produits tensoriels de vecteurs et de matrices.
28. Déterminants de Hankel.
29. Déterminants de Casorati.
30. Equations fonctionnelles.
31. Théorème des drapeaux.
×2.
32. Matrices 2×
33. Réduction des matrices de rang 1.
34. Réduction des matrices de petit rang.
35, 36. Endomorphismes diagonalisables.
37. Diagonalisation d’une dérivation.
38. Symétries commutantes et anticommutantes.
39. Sous-groupes finis de Gln(C).

2
n
40. L’algèbre K , algèbres diagonales.
41. D’Hamilton à Frobenius.
42. Matrice de Vandermonde des racines de l’unité.
43. Primarité des nombres de Mersenne.
44. Matrices de tournoi.
45. Théorème de l’amitié d’Erdös.
46. Graphes et arbres ; théorème de Borchardt-Cayley.
47. Propriétés du polynôme caractéristique.
48. Un théorème de Kronecker.
49 et 50. Résultant et déterminant d’Hermite.
51 et 52. Endomorphismes monogènes.
53. Equations matricielles du second degré.
54. Racines carrées de matrices.
55. Endomorphismes semi-simples.
56, 57, 58. Endomorphismes nilpotents.
59. Trace.
60. I est-il un commutateur ?
61. Trace et commutateurs.
62. s-triplets.
63. Algèbres de Lie, théorème de Lie.
64. Endomorphismes de L(E), de Mn(K).
65 et 66. Produits kroneckériens.
67. Topologie matricielle.
68. Géométrie matricielle.
69, 70, 71. Matrices stochastiques.
72. Puissances d’une matrice.
73. Contractions larges.
74. Applications semi-linéaires.
75. Fonctions propres d’un noyau.
76. Matrices à éléments polynomiaux.
77. Générateurs de Sl2(Z) et Gl2(Z).
78. Matrices à éléments dans un anneau euclidien.
79. Modules sur les anneaux commutatifs.

___________

3
Problème 1 : Algèbre linéaire sur les corps finis

Dans ce problème, K désigne un corps fini commutatif 1 ayant q éléments.


1) Soit E un K-espace vectoriel. Montrer que E est de dimension finie sur K si et seulement si E
est un ensemble fini. Exprimer alors N = card E en fonction de q et n = dim E.
On suppose cette condition remplie dans toute la suite.
2) Soit Lk(E) l’ensemble des familles libres (x1, x2, ..., xk) formées de k vecteurs de E.
Montrer par récurrence : card Lk(E) = ( qn − 1 )( qn − q ) ... ( qn − qk−1 ) .
3) Combien E possède-t-il de bases ? Montrer que le cardinal du groupe linéaire de E est :
n
card Gl(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ) = qn² ∏(1− q1 ) .
i =1
i

4) Soit Gk(E) l’ensemble des sous-espaces vectoriels de dimension k de E ( " grassmannienne


k −1 q n −q i
d’indice k " ). On note card Gk(E) = [ kn ]q . Montrer que [ kn ]q = ∏ q k −qi
.
i =0

5) a) Montrer que [ kn ]q = [ n−nk ]q pour 0 ≤ k ≤ n.

b) Montrer que [ nk+1 ]q = [ kn−1 ]q + qk [ kn ]q = qn+1−k [ kn−1 ]q + [ kn ]q pour 1 ≤ k ≤ n.

c) Montrer que [ kn ]q est une fonction polynomiale de q, de degré k(n−k) à coefficients dans N.

d) Que deviennent les [ kn ]q lorsque l’on fait q = 1 ?


n
6) Soit Gn = ∑ [ kn ]q le nombre total de sous-espaces vectoriels de E (n-ième nombre de Galois).
k =0
n
Montrer que G0 = 1 , G1 = 2 , Gn+1 = 2 Gn + ( q − 1 ).Gn−1 pour tout n ≥ 1.
Calculer Gn pour tout n ≤ 5.
7) Soit F un sous-espace vectoriel fixé de dimension k de E.
k(n−k)
a) Montrer que F admet q supplémentaires dans E.
[ On pourra montrer que, si G0 est un supplémentaire de F, f → { x − f(x) ; x ∈ G0 } est une bijec-
tion de L(G0, F) sur l’ensemble des supplémentaires de F dans E ; cette méthode n’est pas imposée.]
b) Combien y a-t-il de sous-espaces affines de E de direction F ?
8) Soit Ak(E) l’ensemble des sous-espaces affines de E de dimension k. Exprimer card Ak(E) .
9) a) Combien y a-t-il d’applications de E dans E ? Parmi elles, combien sont bijectives ?
b) Combien y a-t-il d’endomorphismes de E ? Parmi eux combien sont bijectifs ? de dét 1 ?
c) Combien y a-t-il de projecteurs dans E, resp. de symétries si K est de caractéristique ≠ 2 ?
d) Combien y a-t-il d’applications affines de E dans E ? de bijections affines ?
10) Soient E un K-ev de dimension p, F un K-ev de dimension n.
a) Combien y a-t-il d’applications linéaires de E dans F ?
b) Si p ≤ n, combien y a-t-il d’injections linéaires de E dans F ?
c) Si n ≤ p, combien y a-t-il de surjections linéaires de E dans F ?
d) Si 1 ≤ r ≤ min(n, p), combien y a-t-il d’applications linéaires de rang r de E dans F ?
11) Soit u un endomorphisme de E. Montrer qu’il est diagonalisable ssi uq = u.

1 On peut montrer que tout corps fini est commutatif (théorème de Wedderburn-Dickson, 1905).

4
12) Dans cette question, on se place dans M2(K).
a) Montrer que, si A = 
a b  est de la forme a.I , A n’est semblable qu’à elle-même, et que,
c d  2

sinon, elle est semblable à 


0 bc−ad  . Conclure que A est semblable à une, et une seule, des
1 a +d 
matrices 
a 0  , 0 − D , où (a, T, D) ∈ K3. Combien M (K) a-t-elle de classes de similitudes ?
0 a  1 T  2

b) Combien y a-t-il de matrices diagonalisables, resp. nilpotentes, dans M2(K) ?


13) Exemple 1 : K = Z/2Z, n = 2. On pose E = {0, x, y, z}. Reconnaître le groupe additif (E , +).
À quel groupe connu est isomorphe (Gl(E) , o) ?
14) Exemple 2 : K = Z/3Z, n = 2. Montrer que E contient 4 droites. Combien Gl(E) a-t-il d’élé-
ments ? En observant que tout élément de Gl(E) permute les droites de E, construire un morphisme
de groupes ε : Gl(E) → S4 (groupe symétrique). Quel est son noyau ? En déduire que ε est surjectif.
Montrer que ε définit un homomorphisme de Sl(E) = {f ∈Gl(E) ; det f = 1} dans A4 (groupe alterné).
2
15) Exemple 3 : Soit G un groupe multiplicatif tel que (∀x ∈ G) x = e.
a) Montrer que G est commutatif. On le note désormais additivement.
b) Munir G d’une structure de Z/2Z-espace vectoriel. En déduire que si G est fini, il a pour
cardinal une puissance de 2 et est isomorphe à (Z/2Z)n.
16) Exemple 4 : Soient K un corps fini à q éléments, p la caractéristique de K.
Montrer que p est un nombre premier. Munir K d’une structure de Z/pZ-espace vectoriel.
n
En déduire que q est une puissance de p : q = p . Montrer que tout sous-corps de K a pour cardinal
d
p , où d divise n.
____________

Solution
1) Dénombrement des vecteurs.
Si E est de dimension finie n sur le corps K, il admet une base (e1, …, en).

L’application (λ1, …, λn) → λi ei est une bijection de K sur E, donc E est fini de cardinal N = q .
n n

Réciproquement, si E est fini, il admet une famille génératrice finie : E lui-même ! C’est donc un
espace de type fini.
2) Dénombrement des familles libres.
Montrons la propriété par récurrence sur k.
n
L1(E) est l’ensemble des vecteurs non nuls ; il y en a q − 1.
Supposons la propriété vraie au rang k. Alors (x1, …, xk, xk+1) est une famille libre ssi (x1, …, xk)
est libre et xk+1 ∉ Vect(x1, …, xk). Il y a donc (qn − 1)(qn − q) ... (qn − qk−1)×(qn − qk) possibilités.
Remarque : Cela revient à appliquer le principe des bergers à la surjection
(x1, …, xk, xk+1) ∈ Lk+1(E) → (x1, …, xk) ∈ Lk(E) .
3) Dénombrement des bases et du groupe linéaire.
Soit B(E) l’ensemble des bases de E. B(E) = Ln(E), donc :
card B(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ).
Choisissons une base B0 = (e1, …, en) de E. Pour tout f ∈ Gl(E), f(B0) = (f(e1), …, f(en)) est une
base de E, et l’application f ∈ Gl(E) → f(B0) ∈ B(E) ainsi définie est une bijection.

5
n
Par conséquent, card Gl(E) = card B(E) = ( qn − 1 )( qn − q ) ... ( qn − qn−1 ) = qn² ∏(1− q1 ) .
i =1
i

Remarques : 1) Plus généralement, si un groupe G agit de manière simplement transitive sur un


ensemble E, les ensembles G et E sont équipotents.
Qn+1 n n+1
2) Notons Qn = card Gln(K), il vient Q1 = q − 1 , =q (q − 1 ) : (Qn) croit strictement.
Qn
Ceci montre au passage que si K est corps fini, Glm(K) et Gln(K) sont isomorphes ssi m = n.
n

∏(1− q1 ) la probabilité qu’une matrice d’ordre n soit inversible.


cardGln (K)
3) Notons θn = = i
cardM n (K) i =1
+∞
Lorsque n → ∞, la suite (θn) tend en décroissant vers φ( 1 ), où φ(x) =
q ∏(1−x ) .
k =1
k

4) Dénombrement des grassmanniennes.


A toute famille libre L = (x1, …, xk) ∈ Lk(E) associons le sous-espace F = Vect(x1, …, xk) qu’elle
engendre. F est un sous-espace de dimension k, et l’application u : L → F est surjective.
Mais un même sous-espace F de dimension k peut provenir de plusieurs familles libres L : en fait,
k k k k−1
autant que de bases de F. Or F admet ( q − 1 )( q − q ) ... ( q − q ) bases.
k −1 q n −q i
Il reste à appliquer le principe des bergers : card Gk(E) ≡ [ kn ]q = ∏i =0 q k −qi
.

n] = q −1
n
n−1
En particulier, E a [ 1 = q + … + q + 1 droites vectorielles, et autant d’hyperplans.
q
q−1
5) Triangle de Gauss-Pascal.
a) On peut montrer la symétrie [ kn ]q = [ n−nk ]q , pour 0 ≤ k ≤ n , de deux façons :

n−1 qn −1
• Si l’on introduit les q-entiers nq = 1 + q + … + q = et les q-factorielles n!q = 1q.2q….nq ,
q−1
il vient, après simplification, [ kn ]q =
n!q , forme symétrique.
k!q (n−k)!q
• Par dualité, l’orthogonalité externe F ∈ Gk(E) → F° ∈ Gn−k(E*) met en bjiection les sev de dimen-
sion k de E et ceux de dimension n−k du dual. Il reste à passer aux cardinaux.
On pourrait aussi munir E d’une forme bilinéaire symétrique non dégénérée B, par exemple le

« produit scalaire standard » B(x, y) = xi yi relativement à une base, et considérer l’orthogonalité

interne F ∈ Gk(E) → F ∈ Gn−k(E).
b) Il est facile de s’assurer que [ kn−1 ]q + qk [ kn ]q = qn+1−k [ kn−1 ]q + [ kn ]q .
Il reste une seule formule à montrer, qui est facile en se plaçant dans C(q) ou Q(q).
Voici une preuve combinatoire de : [ nk+1 ]q = qn+1−k [ kn−1 ]q + [ kn ]q .
Soit E un K-espace de dimension n + 1. Choisissons un hyperplan H de E.
Dénombrons les sous-espaces F de dimension k de E.
• Soit F ⊂ H : [ kn ]q possibilités.
• Soit F ⊄ H. Alors dim(F ∩ H) = k − 1 par Grassmann, car F + H = E.

6
Il faut donc se donner une famille libre (x1, …, xk−1) de k − 1 vecteurs de H, complétée en une base
(x1, …, xk) au moyen d’un vecteur xk de E − H, puis diviser par le nombre de bases de l’espace ainsi
(qn −1)(qn −q)...(qn −qk −2)(qn+1−qn)
construit :
(qk −1)(qk −q)...(qk −qk −1)
= q
n+1−k
[ kn−1 ]q . Cqfd ! Vive moi !
> #introduction au q-calcul
> ent:=proc(n,q)
> local k;sum(q^k,k=0..n-1);end;
> fact:=proc(n,q)
> local k;if n=0 then 1;else
expand(simplify(product(ent(k,q),k=1..n)));fi;end;
> binom:=proc(n,k,q)
> if k>=0 and n>=k then expand(simplify(fact(n,q)/(fact(k,q)*fact(n-
k,q))));else 0;fi;end;
> ent(0,q);ent(1,q);ent(3,q);
0
1
1 + q + q2
> fact(4,q);
5 q4 + 6 q3 + 5 q2 + 3 q + 3 q5 + q6 + 1
> for k from 0 to 4 do binom(4,k,q);od;
1
q +q +q+1
3 2

q + q3 + 2 q2 + q + 1
4

q3 + q2 + q + 1
1
> with(linalg):A:=matrix(5,5,(n,k)->binom(n-1,k-1,q));
1 0 0 0 0
 
1 1 0 0 0

 
A := 1 q+1 1 0 0

 
1 q +q+1
2
q +q+1
2
1 0
 
 
1 q + q + q + 1 q + q + 2 q + q + 1 q + q + q + 1
3 2 4 3 2 3 2
1
k(n − k)
c) On peut montrer par récurrence sur n, que, pour tout k : [ kn ]q = ∑cn,k,a.qa ,
a =0

polynôme unitaire de degré k(n − k), où les cn,k,a sont des entiers naturels
Remarque : Les coefficients c(n, k, a) ont une interprétation combinatoire tout à fait remarquable :
c(n, k, a) est le nombre de chemins croissants joignant dans N×N le point O au point (k, n − k), et
délimitant avec Ox une aire égale à a. Cela est laissé en exercice.
d) Lorsque « q = 1 », les [ kn ]q deviennent les binomiaux usuels ( kn ).
En effet, le triangle de Gauss de 5.b) devient le triangle de Pascal.
k −1 q n −q i
Cela se voit aussi si l’on fait tendre q vers 1 dans [ kn ]q = ∏ q k −qi
.
i =0
n i n−i
Cela découle de ce que q – q ∼ q – 1 ∼ (n − i)(q − 1) quand q → 1.
6) Nombres de Galois.
n
Pour montrer Gn+1 = 2 Gn + (q − 1) Gn−1 , nous allons utiliser les deux formules trouvées en 5.b).

7
Gn+1 = ∑ [ nk+1 ]q = ∑ [ kn−1 ]q + ∑q [ kn ]q
k k k
k = Gn + ∑q [ kn ]q
k
k

= Gn + ∑q k (q n−k
[ kn−−11 ]q + [ nk−1 ]q ) = Gn + qn ∑ [ kn−−11 ]q + ∑q [ nk−1 ]qk
k k k

∑( [ kn ]q − [ kn−−11 ]q ) = 2 Gn + (q − 1) Gn−1 .
n n
= Gn + q Gn−1 +
k

Ces formules, jointes à G0 = 1 et G1 = 2, permettent un calcul récurrent des Gn.


> # nombres de Galois
> g:=proc(n);if n=0 then 1
> elif n=1 then 2
> else expand(2*g(n-1)+(q^(n-1)-1)*g(n-2));fi;end;
> for n from 0 to 8 do g(n);od;
1
2
3+q
4 + 2 q + 2 q2
5 + 3 q + 4 q2 + 3 q3 + q4
6 + 4 q + 6 q2 + 6 q3 + 6 q4 + 2 q5 + 2 q6
7 + 5 q + 8 q 2 + 9 q 3 + 11 q 4 + 9 q 5 + 7 q 6 + 4 q 7 + 3 q 8 + q 9
8 + 6 q + 10 q 2 + 12 q 3 + 16 q 4 + 16 q 5 + 18 q 6 + 12 q 7 + 12 q 8 + 8 q 9 + 6 q 10 + 2 q 11 + 2 q 12
Remarque : On observe que Gn est un polynôme en q, à coefficients dans N, de coefficient dominant
m² m(m+1)
q si n = 2m, et 2q si n = 2m+1. Cela se montre par récurrence sur n.

7) Dénombrement des supplémentaires.


a) Soient F un sous-espace de dimension k, (a1, …, ak) une base de F.
n k n k−1 n n−1
Il y a ( q − q )( q − q ) ... ( q − q ) façons de compléter (a1, …, ak) en une base de E.
Chaque (ak+1, …, an) engendre un supplémentaire G de F. Mais plusieurs (n−k)-uplets engendrent le
même supplémentaire G, à savoir autant que de bases de G. En vertu du principe des bergers, il y a
(qn −qk )(qn −qk −1)...(qn −qn−1) k(n−k)
donc =q supplémentaires de F.
(qn−k −1)(qn−k −q)...(qn−k −qn−k −1)
Si l’on utilise le lemme suggéré par l’énoncé, et que nous admettrons (cf. mes exercices d’algèbre
linéaire), alors il y a autant de supplémentaires de F que d’éléments de L(G0, F). Or L(G0, F) est un
sous-espace de dimension (n − k)k. Je renvoie aussi au problème sur les projecteurs.
k(n−k)
Conséquence : Il y a q projecteurs d’image F, et autant de symétries par rapport à F (si K est de
caractéristique ≠ 2).
n−k
b) Il y a q sous-espaces affines de E de direction F.
En effet, si l’on choisit un supplémentaire G de F, tout sous-espace affine de direction F s’écrit de
façon unique x + F, où x ∈ G.
Variante : les sous-espaces affines de direction F sont exactement les éléments de l’espace quotient
E/F, qui est de dimension n − k.
8) Dénombrement des sous-espaces affines de dimension k.
Il découle de ce qui précède que ce nombre est card Ak(E) = q
n−k
[ kn ]q .
9) Dénombrements d’applications de E dans E.
nq n n
a) Il y a q applications de E dans E. Parmi elles, il y en a (q )! Bijectives.

8
b) Il y a qn² applications linéaires de E dans E, car L(E) est un K-espace vectoriel de dimension
2
n , ou car L(E) est isomorphe à Mn(K). Parmi elles, card Gl(E) = (qn − 1)(qn − q) ... (qn − qn−1)
cardGl(E) cardGl(E)
sont bijectives. Enfin, le sous-groupe Sl(E) = {u ; det u = 1} a = éléments,
card(K*) q−1
en vertu du lemme suivant, conséquence du principe des bergers :
Lemme : Si G est un groupe fini et f : G → H un homomorphisme de groupes, alors :
card G = card ( Ker f ) × card ( Im f ).
Or u → det u est un morphisme surjectif de Gl(E) dans K*.
c) Se donner un projecteur, ou une symétrie en caractéristique ≠ 2, équivaut à se donner un
n
couple (F, G) de sous-espaces supplémentaires. Il y a ∑q
k =0
k(n −k)
[ kn ]q tels couples.

Autre solution, matricielle : Les projecteurs de rang k sont les matrices semblables à Ir O .
O O

Il suffit d’appliquer le principe de bergers à l’application Φ : P ∈ Gln(K) → P . Ir O .P .


−1
O O

Cela revient à dénombrer les matrices inversibles qui commutent à Ir O , car Φ(P) = Φ(Q) ⇔
O O

Q .P commute à Ir O . Or ces matrices sont de la forme 


−1 A O , où (A, B)∈Gl (K)×Gl (K)…
O O O B  r n−r

d) Une application affine est de la forme f(x) = f(0) + u(x), où u est linéaire, une bijection affine
de la forme f(x) = f(0) + u(x), où u est linéaire bijective. La correspondance f ↔ (f(0), u) est
n n²
bijective, donc il y a : • q .q applications affines de E dans E ;
n
• q .(qn − 1)(qn − q) ... (qn − qn−1) bijections affines de E dans E.
10) Dénombrements d’applications linéaires.
np
a) L(E, F) est un K-espace vectoriel de dimension np, donc card L(E, F) = q .
b) Nombre d’injections linéaires de E dans F (si p ≤ n).
Soit (e1, …, ep) une base de E. Si f est une injection linéaire de E dans F, ( f(e1), …, f(ep) ) est une
famille libre à p éléments de F, et la correspondance f → ( f(e1), …, f(ep) ) est bijective.
Il y a donc card Lp(F) = (qn − 1)(qn − q) ... (qn − qp−1) injections linéaires de E dans F.
On peut aussi se donner un sev G de dimension p de F, et un isomorphisme de E sur G.
c) Nombre de surjections linéaires de E dans F (si p ≥ n).
t
Sortons notre joker : la dualité ! f ∈ L(E, F) est surjective ssi f ∈ L(F*, E*) est injective.
Donc le nombre de surjections linéaires est : (qp − 1)(qp − q) ... (qp − qn−1).
Remarque : C’est aussi le nombre de famille génératrices de p vecteurs dans un K-espace vectoriel
de dimension n, mais je ne vois pas de justification directe à ce constat.
d) Nombre d’applications linéaires de rang r (1 ≤ r ≤ min(n, p)).
Pour se donner une application linéaire de rang r de E dans F, il faut se donner un sous-espace G de
dimension r de F et une surjection linéaire de E sur G.

[ nr ]q × (qp − 1)(qp − q) ... (qp − qr−1) = ∏ (q −(qqr)(−qqi)−q )


r −1 n i p i
En tout : applications.
i =0

Autre méthode : L’application Φ : (Q, P) ∈ Gln(K)×Glp(K) → Q.Jr.P ∈ MK(n, p) est une surjection
sur l’ensemble des matrices de rang r. Or cette surjection obéit au principe des bergers…
Remarque : Si l’on tient compte de l’application nulle, il vient :

9
min( n, p)

∑ [ nr ]q × ( qp − 1 )( qp − q ) ... ( qp − qr−1 ) .
np
q =1+
r =1
Cette formule implique, et découle de celle-ci, rencontrée en q-calcul :
n
∑ [ nr ]q × ( X − 1 )( X − q ) ... ( X − qr−1 ) .
n
X = 1+
r =1

11) Cns de diagonalisabilité.


• Si u est diagonalisable, il existe une base B telle que Mat(u, B) = diag(λ1, λ2, …, λn). Alors
q
Mat(u , B) = In, en vertu du petit théorème de Fermat dans le corps K.
q q
• Si u = u, u annule le polynôme P(X) = X – X qui est scindé sans facteurs carrés dans K[X]. En
effet P’ = −1 est premier à P. Du reste, P(X) = ∏
(X −α) . On conclut via le théorème de Schreier.
α
∈K

×2.
12) Dénombrements de matrices 2×
a) Confondons une matrice et l’endomorphisme canoniquement associé.
Si A est scalaire, c’est une homothétie, et A n’est semblable qu’à elle-même.
2
Sinon, il existe un vecteur x tel que Ax ne soit pas colinéaire à x. (x, Ax) est alors une base de K , et
A est semblable à 
0 − D , où T est la trace, et D le déterminant de A.
1 T 

En résumé A est semblable à une, et une seule, des matrices 


a 0  , 0 − D , où (a, T, D)∈K3.
0 a  1 T 
4 2
Conclusion : M2(K) a q éléments qui se groupent en q + q classes de similitude.
b) Commençons par résoudre le problème suivant : étant donnée une matrice A∈Mn(K), combien
y-a-t-il de matrices semblables à A ?
Notons S(A) la classe de similitude de A, C(A) = { P ∈ Gln(K) ; PA = AP }. Je dis que :
cardGln (K)
card S(A) = .
cardC(A)
−1 −1
Indeed, l’application f : P ∈ Gln(K) → P AP ∈ S(A) est surjective, et f(P) = f(Q) ⇔ P .Q ∈ C(A).
Chaque élément de S(A) a donc card C(A) antécédants. On conclut via les bergers.
Notons Dn(K) l’ensemble des matrices diagonalisables d’ordre n, Dn(K) son cardinal.
Si A = 
λ 0  , sa classe de similitude est réduite à A : il y a q matrices de ce type.
0 λ 
Si A = 
λ 0  (λ ≠ µ), C(A) = { α 0  ; α, β ≠ 0} a (q − 1)2 éléments.
0 µ   0 β 
(q²−1)(q²−q)
Il y a donc = q(q + 1) matrices semblables à A.
(q−1)²
Mais attention, diag(λ, µ) est semblable à diag(µ, λ). Il faut donc compter les paires {λ, µ}.
q(q−1) q4 q2
Conclusion : D2(K) = q + q(q + 1) = − +q.
2 2 2
Notons Nn(K) l’ensemble des matrices nilpotentes d’ordre n, Nn(K) son cardinal.
Le principe est le même : toute matrice nilpotente d’ordre 2 est semblable à O ou à   .
01
0 0
Si N =   , C(N) = { 
01 α β  ; α ≠ 0} a q(q − 1) éléments.
0 0  0 α 

10
(q²−1)(q²−q) 2
Conclusion : N2(K) = 1 + = q . On peut aussi faire un comptage direct.
q(q−1)
2 q(q+1)
Remarques : 1) Sur les q+q classes de similitude trouvées en a), correspondent aux
2
matrices diagonalisables, 2 aux matrices nilpotentes (dont une commune aux deux familles).
2 q−1
2) Supposons K de car. ≠ 2. Le groupe Γ = { x ; x ∈ K* } des carrés a éléments.
2
Choisissons un ω ∉ Γ∪{0}. Je dis que toute matrice de M2(K) est semblable à l’une des
λ 0 λ 0  λ 1  α ωβ 
matrices suivantes :
0 λ  , 0 µ  , 0 λ  , β α  ( λ ≠ µ, β ≠ 0 ).
q(q−1)
Les premières forment q classes, les secondes (on compte les paires {λ, µ}), les troisièmes
2
q(q−1)
q classes, et les quatrièmes (β peut être changé en −β). Le compte est bon ! La situation est
2
analogue à celle de M2(R).
n²−n
3) On peut montrer que, pour tout n, Nn(K) = q . J’ai calculé D3K) et D4(K) (RMS mai 2006),
mais n’ai pas trouvé de formule générale.
13) Plans sur Z/2Z.
Si K = Z/2Z et n = 2, posons E = {0, x, y, z}, où (x, y) est une base de E.
Le groupe additif (E , +) est isomorphe à Z/2Z×Z/2Z : on reconnaît le groupe de Klein.
En vertu de ce qui précède, E admet 3 droites vectorielles, 6 droites affines, 6 bases : (x, y), (y, x),
(x, z), (z, x), (y, z) et (z, y), et le groupe (Gl(E) , o) a 6 éléments. Comme il permute {x, y, z}, on en
déduit que les 6 permutations de {0, x, y, z} laissant fixe le point 0 sont Z/2Z-linéaires. Matricielle-
ment : Gl2(Z/2Z) = {   ,   ,   ,   ,   ,   }.
10 01 11 10 11 01
0 1 1 0 0 1 1 1 1 0 1 1
Il y a 4×6 = 24 bijections affines, ce qui signifie que toute permutation
de E est une bijection affine.
Remarque : Géométriquement, E est un curieux parallélogramme ! Ses
diagonales ne se coupent pas, donc sont parallèles, car x + y = x – y. Le
plan projectif associé est encore plus intéressant : il a 7 éléments, et le
groupe projectif associé est le fameux groupe simple à 168 éléments…
14) Plans sur Z/3Z.
Rapportons le plan E sur Z/3Z à une base (e1, e2). E a 4 droites
vectorielles D1, D2, D3 et D4, Gl(E) a 48 éléments, et Sl(E) a 24
éléments. Gl(E) agit naturellement sur l’ensemble D des 4
droites, via (u, D) → u(D). On en déduit un morphisme de
groupes ϕ de Gl(E) dans S4. Ce morphisme a pour noyau les
deux homothéties ± IdE. Du coup ϕ est surjectif. Il reste à
montrer que u∈Sl(E) ssi ϕ(u) est une permutation paire. Pour
cela, il suffit de montrer que ε(ϕ(u)) = det u pour toute u∈Gl(E).
15) Groupes finis involutifs.
−1 −1 −1 −1
a) Pour tout x ∈ G, x = x, d’où yx = (yx) = x y = xy : G est commutatif.
b) Si on note G additivement, il vient (∀x ∈ G) x + x = 0.
De plus G est un Z-module pour les lois (x, y) ∈ G×G → x + y ∈ G et (n, x) ∈ Z×G → n.x ∈ G.
Comme nx ne dépend que de la classe de n modulo 2, posons n .x = n.x, i.e. 1 .x = x et 0 .x = 0.

11
On munit G d’une structure de Z/2Z-espace vectoriel, les axiomes (EVI à EVIV) étant automatique-
n
ment vérifiés. Dès lors G est isomorphe à (Z/2Z) en tant que Z/2Z-espace vectoriel, et a fortiori en
tant que groupe additif.
16) Corps finis.
a) Si K était de caractéristique nulle, n → n.1K serait une injection de Z dans K ; or K est fini.
Si K était de caractéristique c = ab (a, b > 1), on aurait ab1K = 0, donc (a1K)(b1K) = 0. Par
intégrité, on aurait a1K = 0 ou b1K = 0, contredisant la minimalité de c.
En résumé, K est de caractéristique p, premier.
b) K est un Z-module pour les lois (x, y) ∈ K×K → x + y ∈ K et (n, x) ∈ Z×K → n.x ∈ K.
Comme nx ne dépend que de la classe de n modulo p, posons n .x = n.x. On munit K d’une structure
de Z/pZ-espace vectoriel, les axiomes (EVI à EVIV) étant automatiquement vérifiés. Dès lors K est
n n
isomorphe à (Z/pZ) en tant que Z/pZ-espace vectoriel, donc q = p .
c) Si L est un sous-corps de K, K est un L-espace vectoriel, et dimZ/pZ K = dimL K×dimZ/pZ L.
d
Passant aux effectifs, card L = p , où d divise n.
Remarque : On peut montrer que, pour tout premier p et tout n ≥ 1, il existe un corps commutatif à
n
p éléments, unique à isomorphisme près.

Annexe : et s’il existait un corps à un élément ?


Que faire ? Il faut rêver.
Lénine
Il n’y a pas de corps à un élément, disent les livres, et donc les profs. Passons outre, inventons un tel
corps, et notons-le F1 ! Nous appellerons F1–espace vectoriel de dimension n tout ensemble E à n
éléments, application linéaire de E dans E toute application de E dans E, bijection linéaire de E dans
E toute permutation de E, et sous-espace vectoriel de dimension k de E toute partie de E à k
éléments. Alors les résultats précédents restent vrais avec q = 1.

Références :
K. F. Gauss : Summatio quarundam serierum singularium, Opera, vol. 2, p. 16-17
N. Bourbaki : Algèbre II 202, ex. 9
P.-J. H., août 1971
G. Polya, G. Szegö : Problems and theorems in analysis, t. 1, p. 11 à 13 (Springer)
Agrégation d’analyse, 1994
Victor Kac et Pokman Cheung : Quantum calculus (Springer, 2001)
C. de Seguins Pazzis : Dénombrements matriciels (RMS, mai 2006)
N. Tosel : Quelques dénombrements (RMS, oct. 2006)
X. Caruso : Le rêve du corps à un élément (RMS, oct. 2006)
Oral ENS 1994 et Oral Centrale 2006
__________

12
Problème 2 : Restriction du corps des scalaires

Soit E un C-espace vectoriel. Si l’on munit le groupe additif (E, +) de la loi externe (λ, x) ∈ R×E
→ λ x ∈ E, on fait de l’ensemble E un R-espace vectoriel, dit sous-jacent à E et noté ER.
Une application f : E → E est dite semi-linéaire si elle vérifie :
∀(x, y) ∈ E×E f(x + y) = f(x) + f(y) et ∀(λ, x) ∈ C×E f(λ x) = λ f(x) .
Dans les questions 1 et 2, E est supposé de C-dimension n ; soit B = (e1, e2, …, en) une C-base de E.

1) Montrer que ER est un R-espace vectoriel de dimension finie ; quelle est cette dimension ?
2
2) a) Montrer que l’application j : x → i.x est un endomorphisme de ER ; calculer j .
Matrice de j relativement à B0 = (e1, e2, …, en, i.e1, i.e2, …, i.en) ?
b) Montrer que les applications C-linéaires E → E ne sont autres que les applications R-
linéaires ER → ER qui commutent à j ; caractériser de même les applications semi-linéaires E → E.
c) Montrer que tout endomorphisme f de ER s’écrit de façon unique comme somme d’une
application C-linéaire et d’une application semi-linéaire. Expressions matricielles ?
3) Soit F un R-espace vectoriel de dimension finie p. Démontrer l’équivalence des 3 propriétés :
i) F est l’espace vectoriel sous-jacent d’un espace vectoriel complexe ;
2
ii) Il existe un endomorphisme u de F tel que u = − IdF ;
iii) p est pair p = 2n.
O − I 
n
Démontrer qu’il existe alors une base de F telle que u ait pour matrice 
 I n O  .
2
4) Application : Résoudre et discuter dans Mp(R) l’équation A = − Ip .
___________

Solution
Ce problème, facile au début, démontre un résultat non trivial. Ne le sous-estimons donc pas !
1) Dimension de l’espace réel sous-jacent.
Montrons que l’espace vectoriel ER admet pour base B0 = (e1, e2, …, en, i.e1, i.e2, …, i.en). Il aura
donc comme R-dimension 2n.
C’est une famille génératrice, car si x est un vecteur de E, il s’écrit : x = λ1.e1 + … + λn.en,
où les λj sont complexes. Posons λj = αj + i.β j , où αj et β j sont réels, alors
x = α1.e1 + … + αn.en + β 1.ie1 + … + β n.ien ,
C’est une famille libre, car α1.e1 + … + αn.en + β 1.ie1 + … + β n.ien = 0 s’écrit aussi :
(α1 + i.β 1).e1 + … + (αn + i.β n).en = 0.
Comme (e1, e2, …, en) est C-libre, αj + i.β j = 0 pour tout j.
Comme (1, i) est R-libre dans C, αj = β j = 0 pour tout j. cqfd.
Remarque : Attention à un point de rigueur ! Il n’y a pas moyen de raccourcir cette preuve.
Deux existences et unicités emboîtées n’impliquent pas une existence et unicité, mais seulement une
existence ! S’il y a un chemin unique joignant Lyon à Saint-Etienne, et un chemin unique joignant
Saint-Etienne à Clermont-Ferrand, il y a au moins un chemin joignant Lyon à Clermont-Ferrand !
2) Applications R-linéaires, C-linéaires, semi-linéaires.

13
2
a) j est C-linéaire, donc a fortiori R-linéaire, et j = − id.
O − I 
n
La matrice de j relativement à BR = (e1, e2, …, en, i.e1, i.e2, …, i.en) s’écrit J =   .
 I n O
 H O ... O 
La matrice de j relativement à (e1, i.e1, …, en, i.en) s’écrit par blocs 
O H ... ...  , où H = 0 −1 .
 ... ... O  1 0 
 O ... O H 
b) Les applications C-linéaires E → E ne sont autres que les applications R-linéaires ER → ER
qui commutent à j. Les applications semi-linéaires E → E sont les applications R-linéaires ER → ER
qui anticommutent à j.
c) Tout endomorphisme f de ER s’écrit de façon unique comme somme d’une application C-
linéaire et d’une application semi-linéaire.
Analyse. Supposons que f = g + h, où g o j = j o g et h o j = − j o h.
f − jofoj f + jofoj
Alors j o f o j = − g + h , donc g = et h = .
2 2
Synthèse. Réciproquement, g et h ainsi définies, vérifient g + h = f , j o g = g o j et h o j = − j o h.
En termes de somme directe, on a : LR(ER) = LC(E) R ⊕ LC (E) R.

Matriciellement, 
A B  =  P −Q + R S  , où P = A+ D , Q = C−B , R = A−D , S = C+ B .
C D Q P  S −R 2 2 2 2
3) Dévissage des endomorphismes de carré − id.
Soit F un R-espace vectoriel de dimension finie p. Montrons l’équivalence des propriétés :
i) F est l’espace vectoriel sous-jacent d’un espace vectoriel complexe ;
2
ii) Il existe un endomorphisme u de F tel que u = − IdF ;
iii) p est pair p = 2n.
O − I 
n
Sous ces hypothèses, il existe une base de F telle que u ait pour matrice   .
 n
I O
Preuve : i) ⇒ ii) Si F est l’espace sous-jacent d’un C-espace vectoriel E, l’endomorphisme j : x → ix
2
déjà considéré vérifie j = − IdF .
ii) ⇒ iii) se montre aisément par les déterminants :
2 2 p
det(u ) = det(− IdF) ⇒ (det u) = (−1) . Or un carré est ≥ 0…
iii) ⇒ ii) Soient (a1, a2, …, a2n) une base de F, u l’endomorphisme ayant pour matrice relativement
O − I  2
à cette base  n
. On a aussitôt u = − IdF .
 I n O 
2
ii) ⇒ i) est le point le plus abstrait de la preuve. Soit u un endomorphisme de F tel que u = − IdF .
Adjoignons à l’addition de F une loi externe (λ, x) ∈ C×F → λ.x ∈ F telle que (∀x ∈ F) u(x) = i.x.
Pour cela, si λ = α + i.β où (α, β) ∈ R×R, posons λ.x = α.x + β.u(x).
Il reste à vérifier les quatre axiomes :
λ.(x + y) = λ.x + λ.y , (λ + µ).x = λ.x + µ.x , λ.(µ.x) = (λ.µ).x , 1.x = x.
et enfin vérifier que la loi prolonge la loi externe R×F → F. Tout repose sur λ.x = (α.I + β.u)(x). Les
axiomes I, II et IV sont immédiats. Seul le III mérite le détour : si µ = α’ + i.β’,
λ.(µ.x) = (α.I + β.u) o (α’.I + β’.u)(x) = [(αα’ − ββ’).I + (α’β + αβ’).u](x) = (λ.µ).x.
4) Traduction matricielle.
2
Si p est impair, l’équation A = − Ip est sans solution dans Mp(R).

14
2
Si p est pair, p = 2n, l’équation A = − Ip a, à similitude près, une unique solution dans Mp(R), à
O − I n  2 −1
savoir H =
 I n O  . Autrement dit, { A ; A = − Ip } = { P .H.P ; P ∈ Gl2n(R) }.
Remarque finale : Ce problème sera généralisé plus tard, dans le problème sur les équations
matricielles du second degré et dans le problème sur les endomorphismes semi-simples.
___________

Problème 3 : Complexification

Soit E un R-espace vectoriel. On munit l’ensemble E×E des deux lois


(x, y) + (x’, y’) = (x + x’, y + y’) et (ζ, z) ∈ C×(E×E) → ζ.z ∈ E×E
ζ.z étant défini par ζ.z = (λ.x − µ.y, λ.y + µ.x) si ζ = λ + iµ ∈ C et z = (x, y) ∈ E×E.
C
1) a) Montrer que, pour ces deux lois, E×E est un C-espace vectoriel ; on le note E et on l’appelle
complexifié de E.
C
b) Quel est le R-espace vectoriel sous-jacent de E ?
C
c) On plonge E dans E via x → (x, 0). Montrer que l’application :
σ : (x, y) = x + i.y → (x, −y) = x – i.y
C
est une involution semi-linéaire de E , dite conjugaison, que E = { z ; σ(z) = z }, et que E×E = E ⊕
iE (en tant que R-espaces vectoriels).
2) a) On suppose que E est de R-dimension finie n. Soit (e1, e2, …, en) une R-base de E.
C C
Montrer que (e1, e2, …, en) est une C-base de E . En déduire que dimR E = dimC E .
C
b) On suppose que (a1, a2, …, an) est une C-base de E . Montrer que les 2n vecteurs
aj + σ(aj) et 1 ( aj − σ(aj) ) (1 ≤ j ≤ n)
i
appartiennent à E, et que l’on peut extraire de cette famille une R-base de E.
3) Soient E et F deux R-espaces vectoriels, f : E → F une application R-linéaire.
C C C C
a) Montrer qu’il existe une unique application C-linéaire f : E → F telle que f |E = f.
C C
b) Montrer que σ o f = f o σ pour les conjugaisons de E et F.
C
c) Si f a pour matrice A pour deux R-bases de E et F, montrer que f a pour matrice A pour ces
C C
mêmes bases considérées comme bases de E et F resp.
C C C
d) Enfin, si g : F → G est R-linéaire, montrer que ( g o f ) = g o f .
C
4) Soient E un R-espace vectoriel, F un sous-espace vectoriel de E. Montrer que F est un sous C-
C
espace vectoriel de E , et qu’il est engendré par F.
C
Réciproquement, soit S un sous C-espace vectoriel de E tel que σ(S) = S ; montrer que S ∩ E est
C
un sous R-espace vectoriel de E, tel que dimR S ∩ E = dimC S ; en outre S = (S ∩ E) .
5) Soit E un R-espace vectoriel de dimension finie, f un endomorphisme de E. Montrer qu’il existe
au moins un sous-espace vectoriel P de E, de dimension 1 ou 2, et f-stable, i.e. tel que f(P) ⊂ P.
___________

15
Problème 4 : Factorisation d’applications linéaires

Dans ce problème, tous les espaces vectoriels sont supposés de dimension finie.
1) Soient E et F deux espaces vectoriels, L(E, F) l’espace des applications linéaires de E dans F.
a) Soit B un sous-espace vectoriel de F. Montrer que { f ∈ L(E, F) ; Im f ⊂ B } est un sous-
espace vectoriel de L(E, F). Trouver sa dimension à l’aide des dimensions de E, F et B.
b) Soit A un sous-espace vectoriel de E. Montrer que { f ∈ L(E, F) ; Ker f ⊃ A } est un sous-
espace vectoriel de L(E, F). Trouver sa dimension à l’aide des dimensions de E, F et A.
c) Montrer que { f ∈ L(E, F) ; Ker f ⊃ A et Im f ⊂ B } est un sous-espace vectoriel de L(E, F).
Trouver sa dimension à l’aide des dimensions de E, F, A et B.
d) Même question pour { f ∈ L(E, F) ; f(A) ⊂ B }.
2) Soient E, F et G trois espaces vectoriels, u ∈ L(F, E) et v ∈ L(G, E).
Montrer l’équivalence des propriétés suivantes :
a) Il existe w ∈ L(F, G) telle que u = v o w ;
b) Im u ⊂ Im v.
3) Soient E, F et G trois espaces vectoriels, u ∈ L(E, F) et v ∈ L(E, G).
Montrer l’équivalence des propriétés suivantes :
a) Il existe w ∈ L(G, F) telle que u = w o v ;
b) Ker v ⊂ Ker u.
4) Soient E, F, G, H quatre espaces vectoriels, a ∈ L(G, H), b ∈ L(E, F), v ∈ L(E, H).
Montrer l’équivalence des propriétés suivantes :
a) Il existe w ∈ L(F, G) telle que v = a o w o b ;
b) Im v ⊂ Im a et Ker b ⊂ Ker v.
____________

Solution : factorisation d’applications linéaires

Nous ne montrons que les points les plus délicats.


1) a) I(B) = { f ∈ L(E, F) ; Im f ⊂ B } « est » l’ensemble des applications linéaires de E dans B.
Du coup, dim I(B) = dim E × dim B .
B
En réalité, il faut dire que f ∈ I(B) → f E
∈ L(E, B) est un isomorphisme (canonique).
Autre preuve, matricielle : Soient (a1, …, ap) une base quelconque de E, et (b1, …, bk) une base de
B complétée en une base (b1, …, bn) de F. Pour que f ∈ I(B), il faut et il suffit que sa matrice
relativement à ces bases soit de la forme O * . Il reste à passer aux dimensions.
[ ]
b) Notons N(A) = { f ∈ L(E, F) ; Ker f ⊃ A }. Choisissons un supplémentaire A’ de A dans E
Pour se donner une application linéaire f ∈ N(A), il suffit de se donner sa restriction g à A’.
En effet, si p et p’ sont les projecteurs associés à la somme directe E = A ⊕ A’, on a f = f o p + f o p’
= g o p’. L’application g ∈ L(A’, F) → g o p’∈N(A) est un isomorphisme d’espaces vectoriels, donc
dim N(A) = (dim E – dim A)×dim F .
Autre preuve, matricielle : Soient (a1, …, ak) une base de A, complétée en une base (a1, …, ap) de E,
et (b1, …, bn) une base de F. Pour que f ∈ N(A), il faut et il suffit que sa matrice relativement à ces

bases soit de la forme [* O] . Il reste à passer aux dimensions.


c) I(B) ∩ N(A) est un sous-espace vectoriel comme intersection de sous-espaces.

16
Soit A’ un supplémentaire de A dans E. Pour se donner un élément f de I(B) ∩ N(A), il suffit de se
donner une application linéaire de A’ dans B, et de la prolonger par 0 sur A.
I(B) ∩ N(A) est donc isomorphe à L(A’, B), donc :
dim I(B) ∩ N(A) = ( dim E – dim A )×dim B .
Matriciellement, soient (a1, …, ak) une base de A complétée en une base (a1, …, ap) de E et (b1, …,
bm) une base de B complétée en une base (b1, …, bn) de F. Pour que f ∈ N(A) ∩ I(B), il faut et il
suffit que sa matrice relativement à ces bases soit de la forme 
O *  . Puis passer aux dimensions.
O O
d) Il est clair que H(A, B) = { f ∈ L(E, F) ; f(A) ⊂ B } est un sev de L(E, F).
Pour se donner f ∈ H(A, B), il suffit de se donner une application linéaire de A dans B, et une
application linéaire de A’ dans F. Ainsi H(A, B) est isomorphe à L(A, B)×L(A’, F).
Donc dim H(A, B) = (dim A)×(dim B) + ( dim E – dim A )×dim F .
Matriciellement, avec les notations de c), pour que f ∈ H(A, B), il faut et il suffit que sa matrice
relativement aux bases de E et F soit de la forme 
* * . Il reste à passer aux dimensions.
O *
2) Factorisation à droite.
Soient E, F et G trois espaces vectoriels, u ∈ L(F, E) et v ∈ L(G, E). Montrons l’équivalence :
a) Il existe w ∈ L(F, G) telle que u = v o w ;
b) Im u ⊂ Im v.
a) ⇒ b) est immédiat.
b) ⇒ a) Soit y un vecteur de F. u(y) est de la forme v(z), pour au moins un vecteur de G. Si, pour
tout y ∈ F on choisit z ∈ G tel que u(y) = v(z), on définit une application w : F → G telle que u(y) =
v(w(y)) pour tout y ∈ F. Mais cette application n’a aucune raison d’être linéaire !…
Reprenons ! Soit (b1, …, bn) une base de F. Pour tout i, choisissons un vecteur ci ∈ G tel que u(bi) =
v(ci). Soit w l’application linéaire de F dans G définie par (∀i) w(bi) = ci .
Alors u = v o w, car ces deux applications sont linéaires et coincident sur la base (b1, …, bn) de F.
Autre méthode.
−1
Si v est bijective, il suffit de poser w = v o u. Dans le cas général, soit G’ un supplémentaire de
Imv −1 Imu
Ker v dans G : G = G’ ⊕ Ker v. Soient v = v G' l’isomorphisme induit, et w = j o v o i o u F , où
i est l’injection canonique de Im u dans Im v, et j l’injection canonique de G’ dans G. w est bien
linéaire de F dans G et l’on a u = v o w.
Autre méthode.
Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des
dimensions. L’application Φ : f ∈ L(F, G) → v o f ∈ L(F, E) est linéaire.
Il s’agit de montrer que Im Φ = { u ∈ L(F, E) ; Im u ⊂ Im v }. Or l’inclusion ⊂ est facile.
Ker Φ = { f ∈ L(F, G) ; v o f = 0 } = { f ∈ L(F, G) ; Im f ⊂ Ker v }.
En vertu de 1), dim Ker Φ = dim F×dim Ker v,
d’où dim Im Φ = dim F×dim Im v = dim{ u ∈ L(F, E) ; Im u ⊂ Im v }.
3) Factorisation à gauche.
Soient E, F et G trois espaces vectoriels, u ∈ L(E, F) et v ∈ L(E, G). Montrons l’équivalence :
a) Il existe w ∈ L(G, F) telle que u = w o v ;
b) Ker v ⊂ Ker u.
a) ⇒ b) est immédiat.

17
b) ⇒ a) On cherche à construire une fonction w telle que (∀x ∈ E) u(x) = w(v(x)).
Commençons par constuire w sur Im v. Soit z ∈ Im v. Il existe x ∈ E tel que z = v(x).
Nous n’avons pas d’autre choix que de poser w(z) = u(x)… Encore faut-il s’assurer que ce u(x) ne
dépend pas du x choisi. Or tel est bien le cas, car
z = v(x) = v(x’) ⇒ x − x’ ∈ Ker v ⇒ x – x’ ∈ Ker u ⇒ u(x) = u(x’).
L’application w ainsi définie est linéaire de Im v dans F. Il reste à la prolonger en une application
linéaire de G dans F, ce qui est facile au moyen d’un supplémentaire.
Autre méthode.
−1
Si v est bijective, il suffit de poser w = u o v . Dans le cas général, soit E’ un supplémentaire de
Imv −1
Ker v dans E : E = E’ ⊕ Ker v. Soient v = v E' l’isomorphisme induit, et w = u o i o v , où i est
F
l’injection canonique de E’ dans E. w est linéaire de Im v dans F, et u E' = w o v .
Il reste à prolonger w en une application linéaire de G dans F.
Autre méthode.
Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des
dimensions. L’application Ψ : f ∈ L(G, F) → f o v ∈L(E, F) est linéaire.
Il s’agit de montrer que Im Ψ = { u ∈ L(E, F) ; Ker v ⊂ Ker u }. Or l’inclusion ⊂ est facile.
Ker Ψ = { f ∈ L(G, F) ; f o v = 0 } = { f ∈ L(G, F) ; Im v ⊂ Ker f }.
En vertu de 1) dim Ker Ψ = dim F×( dim E − dim Im v ) = dim F×dim Ker v,
d’où dim Im Ψ = dim F×(dim E − dim Ker v) = dim { u ∈ L(E, F) ; Ker v ⊂ Ker u }. cqfd.
4) Double factorisation.
Soient E, F, G, H quatre espaces vectoriels, a ∈ L(G, H), b ∈ L(E, F), v ∈ L(E, H).
Montrer l’équivalence des propriétés suivantes :
a) Il existe w ∈ L(F, G) telle que v = a o w o b ;
b) Im v ⊂ Im a et Ker b ⊂ Ker v.
a) ⇒ b) est immédiat.
Nous allons déduire b) ⇒ a) de a) ⇒ b), en dimension finie, via une inclusion et l’égalité des
dimensions. L’application Ξ : f ∈ L(F, G) → a o f o b ∈ L(E, H) est linéaire.
Il s’agit de montrer que Im Ξ = { v ∈ L(E, H) ; Im v ⊂ Im a et Ker b ⊂ Ker v }.
Or l’inclusion ⊂ n’est autre que a).
Ker Ξ = { f ∈ L(F, G) ; a o f o b = 0 } = { f ∈ L(F, G) ; f(Im b) ⊂ Ker a }.
En vertu de 1.d) dim Ker Ξ = dim Im b × dim Ker a + ( dim F − dim Im b )×dim G ,
d’où dim Im Ξ = dim Im b × dim G − dim Im b × dim Ker a
= { v ∈ L(E, H) ; Im v ⊂ Im a et Ker b ⊂ Ker v }.
Remarque finale : Le problème sur les g-inverses et f-inverses d’applications linéaires reprend et
approfondit ces questions.
___________

18
Problème 6 : Propriétés des projecteurs

Soient E un K-espace vectoriel, L(E) l’algèbre des endomorphismes de E, I = idE.


Si (u, v) ∈ L(E)×L(E), on note u.v = u o v le composé, et [u, v] = u.v – v.u le commutant de u et v.
2
1) On appelle projecteur de E tout endomorphisme de E tel que p = p.
Montrer que x ∈ Im p ⇔ x = p(x) , que E = Ker p ⊕ Im p , et que p’ = I − p est un projecteur ;
p’ est dit projecteur associé à p. Liens entre les images et noyaux de p et p’ ?
2) Soient p et q deux projecteurs de E. Montrer les équivalences :
p.q = 0 ⇔ Im q ⊂ Ker p ; p.q = p ⇔ Ker q ⊂ Ker p ; p.q = q ⇔ Im q ⊂ Im p.
3) Soient p un projecteur, u un endomorphisme de E. Montrer les trois équivalences :
a) Im p est u-stable ⇔ p.u.p = u.p ;
b) Ker p est u-stable ⇔ p.u.p = p.u ;
c) Im p et Ker p sont u-stables ⇔ p.u = u.p.
Montrer que { u ∈ L(E) ; u.p = p.u } est une sous-algèbre de L(E), isomorphe à L(Im p)×L(Ker p).
4) Soient p un projecteur, f un endomorphisme de E.
Montrer l’équivalence : f est un projecteur d’image Im p ⇔ p.f = f et f.p = p.
En déduire que les projecteurs ayant même image que p forment un sous-espave affine de L(E), dont
on indiquera la direction vectorielle.
Application : Soient K un corps fini à q éléments, E un K-espace vectoriel de dimension n, F un
sous-espace vectoriel de E de dimension k. Combien F admet-il de supplémentaires ?
5) Soient p, q deux projecteurs de E. Montrer l’équivalence des propriétés :
i) p.q = q.p
ii) q( Im p ) ⊂ Im p et q ( Ker p ) ⊂ Ker p
iii) Il existe quatre sous-espaces F1, F2, F3 et F4 de E tels que E = F1 ⊕ F2 ⊕ F3 ⊕ F4 , et
Im p = F1 ⊕ F2 , Ker p = F3 ⊕ F4 , Im q = F1 ⊕ F3 , Ker q = F2 ⊕ F4 .
Montrer qu’alors p.q et p+q−p.q sont des projecteurs dont on exprimera les images et noyaux
comme sommes et intersections de ceux de p et q. Quel lien voyez-vous entre p.q et p+q−p.q ?
Si E est de dimension finie, donner une traduction matricelle de la commutation de deux projecteurs.
6) Généralisation. Soient p et q deux projecteurs de E.
Montrer l’équivalence : p.q est un projecteur ⇔ [p, q] applique Im q dans Ker p.
Montrer que, s’il en est ainsi, Im(p.q) = Im p ∩ ( Im q + ( Ker p ∩ Ker q ) )
Ker(p.q) = Ker q + ( Ker p ∩ ( Im p + Im q ) )
Etablir des énoncés analogues concernant p + q − p.q.
7) Deux projecteurs p et q sont dits orthogonaux si p.q = q.p = 0. Donner diverses caractérisations
de cette propriété. Montrer que p + q est alors un projecteur ; noyau et image ?
Montrer que, si p et q sont orthogonaux et non nuls, A = { λp + µq ; (λ, µ) ∈ K×K } est une sous-
2
algèbre de L(E), commutative et isomorphe à K .
8) Soient p et q deux projecteurs. Montrer, si K est de caract ≠ 2, l’équivalence des propriétés :
i) p + q est un projecteur ii) p.q = − q.p iii) ∃α ∉ {0, 1} p.q = α.q.p iv) p et q sont orthogonaux.
9) On note P l’ensemble des projecteurs de E.
a) Montrer que p ≤ q ⇔ p = p.q = q.p est une relation d’ordre sur P.
b) Montrer que p ≤ q ⇔ q − p ∈ P.
c) Plus petit, plus grand élément de P ? Vérifier que p ≤ q ⇔ q’ ≥ p’.

19
d) Montrer que, si p et q commutent, ils ont une borne inférieure et une borne supérieure. Cas
où ils sont orthogonaux.
e) Quels sont les projecteurs minimaux parmi ceux qui sont non nuls ?
__________

Propriétés des projecteurs

1) Endomorphismes idempotents.
Montrons x ∈ Im p ⇔ x = p(x) . En effet x ∈ Im p ⇔ (∃y) x = p(y) ⇒ p(x) = (p.p)(y) = p(y) = x.
Réciproque évidente. Ker p ∩ Im p = {0} car x ∈ Ker p ∩ Im p ⇒ x = p(x) = 0.
Et E = Ker p + Im p : écrire x = (x – p(x)) + p(x).
Il est clair que p’ = I − p est un projecteur vérifiant Im p’ = Ker p et Ker p’ = Im p.
2) Soient p et q deux projecteurs de E. Montrons les équivalences :
p.q = 0 ⇔ Im q ⊂ Ker p ; p.q = p ⇔ Ker q ⊂ Ker p ; p.q = q ⇔ Im q ⊂ Im p.
p.q = 0 ⇔ Im q ⊂ Ker p est toujours vraie, dès que p et q sont des endomorphismes.
p.q = p ⇔ p.q’ = 0 ⇔ Im q’ ⊂ Ker p ⇔ Ker p ⊂ Ker p.
p.q = q ⇔ p’.q = 0 ⇔ Im q ⊂ Ker p’ ⇔ Im q ⊂ Im p.
3) Soient p un projecteur, u un endomorphisme de E.
a) Montrons que Im p est u-stable ⇔ p.u.p = u.p ;
Supposons u(Im p) ⊂ Im p. Soit x ∈ E, (u.p)(x) ∈ Im p, donc (p.u.p)(x) = (u.p)(x).
Supposons p.u.p = u.p. Si y ∈ Im p ; alors u(y) = (u.p)(y) = (p.u.p)(y) ∈ Im p.
b) Montrons que Ker p est u-stable ⇔ p.u.p = p.u ;
Ker p est u-stable ⇔ Im p’ est u-stable ⇔ p’.u.p’ = u.p’ ⇔ (I – p).u.(I – p) = u.(I – p) ⇔ p.u.p = p.u.
c) Montrons que Im p et Ker p sont u-stables ⇔ p.u = u.p.
Il découle de a) et b) que Im p et Ker p sont u-stables ⇔ u.p = p.u.p = p.u ⇒ p.u = u.p.
Réciproquement p.u = u.p implique p.u.p = u.p.p = u.p, et finalement p.u = p.u.p = u.p.
Pour tout f ∈ L(E), son commutant C(f) = { u ∈ L(E) ; u.f = f.u } est tjs une sous-algèbre de L(E)
Si u commute à p, soient v et w les endomorphismes induits par u sur Im p et Ker p resp.
L’application u → (v, w) est un isomorphisme d’algèbre de C(p) sur L(Im p)×L(Ker p) .
4) Projecteurs d’image donnée.
Soient p un projecteur, f un endomorphisme de E.
Montrons que f est un projecteur d’image Im p ⇔ p.f = f et f.p = p.
Si f est un projecteur d’image Im p,
(p.f)(x) = f(x) , car f(x) ∈ Im f = Im p . Et (f.p)(x) = p(x) , car p(x) ∈ Im p = Im f.
2
Réciproquement, p.f = f et f.p = p ⇒ f = f.p.f = p.f = f , et Im f ⊂ Im p et Im p ⊂ Im f.
Posons alors f = p + u. Le système p.f = f et f.p = p équivaut à p’.u = u.p = 0.
Soit A l’ensemble des projecteurs de même image que p. On vient d’établir que :
A = p + B, où B = { u ∈L(E) ; p’.u = u.p = 0 } = { u ∈L(E) ; Im u ⊂ Ker p’ = Im p et Im p ⊂ Ker u }
est un sous-espace vectoriel de L(E).
B est isomorphe à L(Ker p, Im p). En effet, si u ∈ B, u est nulle sur Im p, donc entièrement définie
par sa restriction à Ker p. Et cette restriction est à valeurs dans Im p.

En dimension finie, si B est une base telle que Mat(p, B) = I p O , alors Mat(f, B) = I p B  , et il
O O O O
y a autant de supplémentaires de Im p que de matrices B possibles.

20
Conséquence : Soient K un corps fini à q éléments, E un K-espace vectoriel de dimension n, F un
sous-espace vectoriel de E de dimension k. Je dis que F admet qk(n−k) supplémentaires.
En effet, il y a autant de supplémentaires de F que de projecteurs sur F, c’est-à-dire d’applications
linéaires de Ker p dans Im p = F, où p est un projecteur fixé sur F.
5) Projecteurs commutants. Soient p et q deux projecteurs. Montrons l’équivalence :
i) p.q = q.p
ii) q( Im p ) ⊂ Im p et q ( Ker p ) ⊂ Ker p
iii) Il existe quatre sous-espaces F1, F2, F3 et F4 de E tels que E = F1 ⊕ F2 ⊕ F3 ⊕ F4 , et
Im p = F1 ⊕ F2 , Ker p = F3 ⊕ F4 , Im q = F1 ⊕ F3 , Ker q = F2 ⊕ F4 .
i) ⇒ ii) par application de 3.c) à p et u = q.
ii) ⇒ iii) Si Im p est q-stable, q induit un projecteur f de Im p.
Im p = F1 ⊕ F2 , où F1 = Im f = q(Im p) = Im(q.p) et F2 = Ker f = Im p ∩ Ker q.
Si Ker p est q-stable, q induit un projecteur g de Ker p.
Ker p = F3 ⊕ F4 , où F3 = Im g = q(Ker p) et F4 = Ker g = Ker p ∩ Ker q.
Comme E = Im p ⊕ Ker p , E = F1 ⊕ F2 ⊕ F3 ⊕ F4 .
Soit x ∈ E. Ecrivons x = x1 + x2 + x3 + x4 , où xk ∈ Fk pour 1 ≤ k ≤ 4.
On a : p(x) = x1 + x2 et q(x) = x1 + x3 . Par conséquent, Im q = F1 ⊕ F3 et Ker q = F2 ⊕ F4 .
Avec ces notations, (p.q)(x) = x1 et (p + q − p.q)(x) = x1 + x2 + x3
p.q est le projecteur sur F1 parallèlement à F2 ⊕ F3 ⊕ F4 .
Autrement dit, Im(p.q) = Im p ∩ Im q et Ker(p.q) = Ker p + Ker q.
p + q − p.q est le projecteur sur F1 ⊕ F2 ⊕ F3 parallèlement à F4 .
Autrement dit, Im(p + q – p.q) = Im p + Im q et Ker(p + q – p.q) = Ker p ∩ Ker q.
Notons que ces dernières affirmations concernant p + q – p.q se déduisent de celles concernant p.q,
car p’ et q’ commutent et (p + q − p.q)’ = I – (p + q − p.q) = (I – p).(I – q) = p’.q’.
En dimension finie, deux projecteurs p et q commutent ss’ils sont simultanément diagonalisables,
i.e. ss’il existe une base B de E telle que :
I p O O O I p O O O
 O O O O O .
Mat(p, B) = O Iq O et Mat(q, B) = 
O O O O O O Ir O
O O O O O O O O
6) Généralisation. Soient p et q deux projecteurs de E.
Montrons que : p.q est un projecteur ⇔ [p, q] applique Im q dans Ker p ,
et alors : Im(p.q) = Im p ∩ ( Im q + ( Ker p ∩ Ker q ) )
Ker(p.q) = Ker q + ( Ker p ∩ ( Im p + Im q ) ) .
2
a) Si p et q sont deux projecteurs, p.[p, q].q = p.p.q.q – p.q.p.q = p.q – (p.q) .
On en déduit aussitôt que p.q est un projecteur ssi [p, q] envoie Im q dans Ker p.
b) Im(p.q) ⊂ Im p est tjs vrai. Et x ∈ Im(p.q) ⇒ x = (p.q)(x) = q((p.q)(x)) + [ (p.q)(x) − (q.p.q)(x) ].
q((p.q)(x)) ∈ Im q et (p.q)(x) − (q.p.q)(x) ∈ Ker p ∩ Ker q.
En effet (p.p.q)(x) – (p.q.p.q)(x) = (p.q)(x) – (p.q)(x) = 0
Et (q.p.q)(x) – (q.q.p.q)(x) = (q.p.q)(x) – (q.p.q)(x) = 0.
Ainsi Im(p.q) ⊂ Im p ∩ ( Im q + (Ker p ∩ Ker q) )
c) Réciproquement, soit x ∈ Im p ∩ ( Im q + (Ker p ∩ Ker q) ) = Im p ∩ ( Im q + (Im p’ ∩ Im q’) ).
Alors x = p(x) et x = y + z, où y = q(y) et z = z – p(z) = z – q(z), donc p(z) = q(z).
(p.q)(x) = (p.q)(y) + (p.q)(z) = p(y) + (p.p)(z) = p(y) + p(z) = p(x) = x. QED.

21
d) Ker q ⊂ Ker(p.q) est tjs vrai. Et x ∈ Ker p ∩ ( Im p + Im q )) implique 0 = p(x) et x = p(y) + q(z).
Alors 0 = p(y) + (p.q)(z) et (p.q)(x) = (p.q.p)(y) + (p.q)(z) = (p.q) [ p(y) + (p.q)(z) ] = 0.
Ainsi Ker q + ( Ker p ∩ ( Im p + Im q ) ) ⊂ Ker(p.q).
e) Réciproquement, soit x ∈ Ker(p.q). Ecrivons x = q(x) + x’ , où x’ = x – q(x) ∈ Ker q.
Il reste à montrer que q(x) ∈ Ker p ∩ ( Im p + Im q ).
q(x) ∈ Ker p découle de (p.q)(x) = 0 ; et q(x) ∈ Im q ⊂ Im p + Im q.
Je dis que : p + q – p.q est un projecteur ⇔ [p, q] applique Ker q dans Im p ,
et alors : Ker(p + q – p.q) = Ker p ∩ ( Ker q + ( Im p ∩ Im q ) )
Im(p + q – p.q) = Im q + ( Im p ∩ ( Ker p + Ker q ) ).
Il suffit d’appliquer le résultat ci-dessus à p’ et q’.
7) Projecteurs orthogonaux. Deux projecteurs p et q sont orthogonaux si p.q = q.p = 0.
p et q sont orthogonaux ssi Im q ⊂ Ker p et Im p ⊂ Ker p,
ou encore ssi p et q commutent et Im p ∩ Im q = {0}.
En dimension finie, p et q sont orthogonaux ss’il existe une base B de E telle que :
 I q O O O O O
Mat(p, B) = O O O et Mat(q, B) = O Ir O .
O O O O O O

Alors, p + q est un projecteur, d’image Im p ⊕ Im q et de noyau Ker p ∩ Ker q.


Si p et q sont orthogonaux et non nuls, A = {λp + µq ; (λ, µ) ∈ K×K} est une sous-algèbre de L(E),
2
commutative et isomorphe à K .
8) Autres caractérisations de l’orthogonalité.
Soient p et q deux projecteurs. Montrons, si K est de caract ≠ 2, l’équivalence des propriétés :
i) p + q est un projecteur ii) p.q = − q.p iii) ∃α ∉ {0, 1} p.q = α.q.p iv) p et q sont orthogonaux.
2 2 2
Tout d’abord, (p + q) = p + q + p.q + q.p = p + q + p.q + q.p.
On en déduit aussitôt que iv) ⇒ i) ⇔ ii) ⇒ iii). Reste à montrer iii) ⇒ iv).
2 2 2
iv) ⇒ i) car alors (p + q) = p + q + p.q + q.p = p + q .
2 2 2 2
i) ⇔ ii) (p + q) = p + q + p.q + q.p = p + q + p.q + q.p ; donc (p + q) = p + q ⇔ p.q + q.p = 0.
ii) ⇒ iii) découle de l’hypothèse faite sur la caractéristique de K, car −1∉{0, 1}.
−1
iii) ⇒ iv) x ∈ Im q ⇒ x = q(x) ⇒ p(x) = (p.q)(x) = α.q(p(x)) ⇒ p(x) ∈ Ker(αq − I) = Ker(q − α I)
−1
= {0}, car α ≠ 0 et α n’est pas valeur propre de q. Ainsi Im q ⊂ Ker p, i.e. p.q = 0.
−1
De même, en échangeant les rôles de p et q, α devenant α , Im p ⊂ Ker p, i.e. q.p = 0.
iii) ⇒ iv) par le calcul.
Tout d’abord p.q.p = α.q.p.p = α.q.p = p.q, donc p.q.p.q = p.q.q = p.q ; ainsi, p.q est un projecteur.
2 2 2 2 2 2 2 2
p.q = α.q.p ⇒ (p.q) = α .(q.p) ⇒ p.q = α .(q.p) ⇒ α.q.p = α .(q.p) ⇒ q.p = α.(q.p) (car α ≠ 0)
⇒ q.p = α.q.p.q.p = p.q.q.p = p.q.p ; donc p.q.p = p.q = q.p = α.q.p ; comme α ≠ 1, q.p = p.q = 0.
iii) ⇒ iv) par les matrices (en dimension finie).
Choisissons une base de E telle que p ait pour matrice 
I O ; soit alors M =  A B  celle de q.
O O C D
La relation p.q = α.q.p se traduit par A = αA, B = O et O = αC. Comme α est différent de 0 et 1, A,
B et C sont nulles, et M = 
O O  . Il est immédiat que p.q = q.p = 0.
O D
Cette méthode s’étend sans peine en dimension infinie, si l’on généralise les matrices-blocs.
9) L’ensemble ordonné (P , ≤) des projecteurs de E.

22
a) Montrons que p ≤ q ⇔ p = p.q = q.p est une relation d’ordre sur P.
La réflexivité découle de p = p.p ; l’antisymétrie : p ≤ q et q ≤ p impliquent p = p.q = q.
Transitivité : p ≤ q ≤ r implique p = p.q = q.p et q = q.r = r.q, donc
p = p.q.r = p.r et r.p = r.q.p = q.p = p.
On peut retrouver cela en notant l’équivalence :
p ≤ q ⇔ p = p.q = q.p ⇔ p et q’ sont orthogonaux ⇔ Im p ⊂ Im q et Ker q ⊂ Ker p .
b) Montrons que p ≤ q ⇔ q − p ∈ P.
2 2 2
p ≤ q ⇒ (q − p) = q + p – q.p – p.q = q + p – 2p = q – p , donc q – p ∈ P.
2
q − p ∈ P ⇔ (q − p) = q – p ⇔ 2p = p.q + q.p . Multipliant à droite et à gauche par p, il vient
2p = p.q + p.q.p = p.q.p + q.p, donc p.q = q.p = p.
c) Le plus petit élément de P est 0, le plus grand I. Il est clair que p ≤ q ⇔ q’ ≥ p’.
d) Si p et q commutent, ils ont pour borne inférieure inf(p, q) = p.q, et pour borne supérieure
sup(p, q) = p + q – p.q.
En particulier, s’ils sont orthogonaux, leur borne inférieure est 0, leur borne supérieure p + q.
Deux projecteurs associés p et p’ ont pour inf 0 et pour sup I.
Exemple de borne supérieure.
Soient E un plan, D et D’ deux droites distinctes de E, p et p’ des projecteurs sur D et D’ resp.
Alors p ≤ q et p’ ≤ q ⇔ Im p + Im p’ ⊂ Im q et Ker q ⊂ Ker p ∩ Ker p’.
Mais Ker p ∩ Ker p’ = {0}, donc q = I. Donc sup(p, p’) = I.
e) Les projecteurs minimaux parmi ceux qui sont non nuls sont les projecteurs de rang 1, i.e. les
projecteurs sur les droites. Les projecteurs maximaux parmi ceux qui sont ≠ I sont les projecteurs de
rang n – 1, i.e. les projecteurs sur les hyperplans.
Remarque finale : Sur les propriétés topologiques de P, voir le problème de topologie matricielle en
fin de volume.
Références :
Bourbaki, Algèbre linéaire, chap. II, n° 38 p. 283
Chambadal-Ovaert, Algèbre I, n° 32, p. 289 (Gauthier-Villars)
Glazman-Lioubitch, Analyse linéaire dans les espaces de dimension finie, éd. Mir, 1974
__________

Problème 7 : Endomorphismes tripotents

Soient K un corps de caractéristique ≠ 2, E un K-espace vectoriel. Un endomorphisme u de E est dit


3 3
tripotent 2 si u = u. Une matrice carrée A ∈ Mn(K) est dite tripotente si A = A ; on la confond
avec l’endomorphisme canoniquement associé.
1) Exemples.
a) Montrer qu’un projecteur et son opposé, une symétrie, sont des endomorphismes tripotents.
2 3 4 
b) Montrer que A = −8 −11 −14 est tripotente ; est-elle d’un des types précédents ?
 5 7 9 
2) Propriétés générales. Soit u un endomorphisme tripotent.
−1
a) Montrer que −u est tripotent, ainsi que ϕ .u.ϕ pour tout automorphisme ϕ de E.
2
b) Montrer que p = u est un projecteur, dont l’image est Im u, et le noyau Ker u.

2 Un endomorphisme tripotent n’est pas nécessairement tripotant…

23
c) Montrer que Im u est u-stable et que u induit une symétrie vectorielle dans Im u.
d) Montrer que E = Ker( u – idE ) ⊕ Ker( u + idE ) ⊕ Ker(u).
e) Montrer que u est tripotent ssi u s’écrit u = p – q, où p et q sont deux projecteurs tels que p.q
2
= q.p = 0. Montrer que p et q sont uniques ; les exprimer à l’aide de u et u .
3) On suppose E de dimension finie n.
2 2
a) Montrer u tripotent ⇔ u est un projecteur et rg(u) = rg(u ).
b) Soit u tripotent, a = dim Ker u , b = dim Ker( u – idE ) , c = dim Ker( u + idE ).
2 2 2
Montrer que a = tr( I – u ) , b = 1 tr( u + u ) , c = 1 tr( u − u ).
2 2
4) Matrices tripotentes.
Oa O O 
Montrer que A ∈ Mn(K) est tripotente ssi A est semblable à une matrice de la forme  O Ib O  ,
 O O − Ic 
 
où a + b + c = n. Combien y a-t-il de matrices tripotentes d’ordre n, à similitude près ?
5) Application à une équation différentielle.
On cherche les fonctions trois fois dérivables R → R telles que y’’’ = y’ (E).

Montrer qu’elles forment un sous-espace vectoriel de C (R, R) stable par la dérivation D : y → y’.
Que dire de l’endomorphisme induit ? Quelles sont les solutions de (E) ?
__________

Solution

Cet exercice prélude au théorème des noyaux. Il suppose connus les projecteurs et les symétries.
1) b) Avec Maple :
> with(linalg):
> A:=matrix(3,3,[2,3,4,-8,-11,-14,5,7,9]);
2 3 4
 
A := -8 -11 -14
 
5 7 9
> iszero(A^3-A);iszero(evalm(A^2-A));iszero(evalm(A^2+A));iszero(evalm(A^2-
1));
true
false
false
false
> m:=factor(minpoly(A,x));c:=factor(minpoly(A,x));
m := x ( x − 1 ) ( x + 1 )
c := x ( x − 1 ) ( x + 1 )
> k0:=kernel(A);k1:=kernel(A-1);k2:=kernel(A+1);
k0 := { [ 1, -2, 1 ] }
k1 := {  , , 1  }
1 -3
2 2 
k2 := {  , , 1  }
1 -5
3 3 
> P:=transpose(matrix([op(k0),op(k1),op(k2)]));multiply(inverse(P),A,P);

24
 1 1 1 
 
 2 3 
 
P :=  -3 -5 

 -2 
 2 3 
 
 
 1 1 1 
0 0 0
 
0 1 0

 
0 0 -1
2 4 2
2) b) On a p = u = u = p.
2
p = u ⇒ Im p ⊂ Im u et Ker u ⊂ Ker p.
u = pu = up ⇒ Im u ⊂ Im p et Ker p ⊂ Ker u.
Conclusion : p est un projecteur tel que Im p = Im u et Ker p = Ker u.
Du coup, E = Ker u ⊕ Im u.
c) Im u est toujours u-stable, car u(Im u) ⊂ Im u.
2
Soient F = Im u, et v = uF l’endomorphisme induit. Je dis que v = IdF.
2 2 3
En effet y ∈ F ⇒ (∃x) y = u(x) et v (y) = u (u(x)) = u (x) = u(x) = y.
d) Il découle de b) et c) que : E = Ker u ⊕ F = Ker u ⊕ Ker(v − IdF) ⊕ Ker(v + IdF).
Or on vérifie que Ker(v − IdF) = Ker(u − IdE) et que Ker(v + IdF) = Ker(u + IdE).
Variante plus directe : p étant un projecteur, on a, en vertu du petit théorème des noyaux :
2
E = Ker p ⊕ Ker(p − IdE) = Ker u ⊕ Ker(u − IdE) = Ker u ⊕ Ker(u − IdE) ⊕ Ker(u + IdE) .
2 2
e) Analyse. Soit u tripotent. Si u = p – q, avec p = p, q = q et pq = qp = 0, alors
u = p + q, d’où p = u²+u , q = u²−u . Voilà pour l’unicité de p et q !
2
2 2
2 2
Synthèse : p et q ainsi définis vérifient p = p, q = q et pq = qp = 0, et u = p – q.
3) a) Si u est tripotent, p est un projecteur et Im u = Im p, donc rg u = rg p.
b) Soit u tripotent, a = dim Ker u , b = dim Ker(u – idE) , c = dim Ker(u + idE).
Formons une base de E en recollant des bases de Ker u , Ker(u – idE) et Ker(u + idE).
Oa O O 
La matrice de u relativement à la base obtenue est  O Ib O 
 O O − Ic 
 
2 2 2
On voit aussitôt que a = tr( I – u ) , b = 1 tr( u + u ) , c = 1 tr( u − u ).
2 2
4) Matrices tripotentes.
Appliquant le résultat de 3b) à l’endomorphisme canoniquement associé, on voit que A∈Mn(K) est
Oa O O 
tripotente ssi elle est semblable à une matrice de la forme  O Ib O  , où a + b + c = n.
 O O − Ic 
 
Le triplet (a, b, c) est lié aux dimensions de Ker A et Ker (A ± I), donc est unique.
Il y a autant de classes de similitude de telles matrices que de triplets (a, b, c) d’entiers ≥ 0 de
(n+1)(n+2)
somme n, c’est-à-dire .
2
+
Remarque : Une matrice est tripotente ssi elle est pseudo-inversible et telle que A = A (cf. pb 12).
____________

25
Problème 8 : Automorphismes de L(E)

Soient K un corps commutatif, E un K-espace vectoriel de dimension n.


On se propose de déterminer tous les automorphismes d’algèbre de L(E), i.e. toutes les bijections
ϕ : L(E) → L(E) vérifiant :
∀(u, v) ∈ L(E)×L(E) ϕ(λ.u + µ.v) = λ.ϕ(u) + µ.ϕ(v) ϕ(u o v) = ϕ(u) o ϕ(v) ϕ(IdE) = idE .
−1
1) Soit σ ∈ Gl(E). Vérifier que χσ : u → σ o u o σ est un automorphisme de l’algèbre L(E).

2) On appelle système d’unités toute famille (uij)(i,j)∈[1,n]² d’endomorphismes non nuls de E


vérifiant la condition : ∀(i, j, k, l) uij o ukl = δjk.uil (U)

A toute base B = (e1, …, en) on associe la famille d’endomorphismes (uij) définie par :
(∀k) uij(ek) = δjk.ei
Montrer que (uij) est un système d’unités, dit associé à la base B, et une base de L(E).

3) Soit (vij) un système d’unités ; on pose pi = vii pour i = 1, …, n.


a) Calculer pi o pi et pi o pj ( j ≠ i ). Nature géométrique des endomorphismes pi ?
b) Montrer que E = ⊕1≤i≤n Im pi . En déduire que (∀i) rg pi = 1.
c) Soit b1 ∈ Im p1−{0]. On pose bi = vi1(b1) (i = 2, ..., n). Montrer que (b1, …, bn) est une base
de E, et que (vij) est le système d’unités associé à cette base.
4) A l’aide des questions 2) et 3), établir que tout automorphisme ϕ de L(E) est de la forme
−1
u → σ o u o σ , où σ ∈ Gl(E) (théorème de Skolem-Noether). Montrer que σ → χσ est un
morphisme du groupe Gl(E) sur le groupe des automorphismes de L(E) ; quel est son noyau ?
___________

Références :
Michel Cognet, Algèbre linéaire (Bréal) p. 36, Th de Skolem-Noether
___________

Problème 9 : Espaces vectoriels en dualité

Soit K un corps commutatif. Deux K-espaces vectoriels E et F sont dits en dualité s’il existe une
forme bilinéaire B sur E×F séparante, en ce sens que :
2
• ∀(x, x') ∈ E x ≠ x' ⇒ (∃y ∈ F) B(x , y) ≠ B(x' , y)
2
• ∀(y, y') ∈ F y ≠ y' ⇒ (∃x ∈ E) B(x , y) ≠ B(x , y').
1) Soit B une forme bilinéaire séparante. Montrer que x → B(x, .) est linéaire injective de E dans
F*, et y → B(. , y) est linéaire injective de F dans E*. Réciproque ?
2) Soient E et F deux espaces en dualité. Montrer que si l’un est de dimension finie, l’autre aussi,
et qu’alors ils ont même dimension.
3) Les vecteurs x de E et y de F sont dits orthogonaux si B(x, y) = 0.
Pour tout sev L de E, on note L° = { y ∈ F ; (∀x ∈ L) B(x, y) = 0 }
Pour tout sev M de F, on note °M = { x ∈ E ; (∀y ∈ M) B(x, y) = 0 }
Montrer que {0}° = F et E° = {0} ; °{0} = E et °F = {0} ;
L ⊂ L' ⇒ L° ⊃ L'° et M ⊂ M' ⇒ °M ⊃ °M' ;
( L + L' )° = L° ∩ L'° et °( M + M' ) = °M ∩ °M'

26
( L ∩ L' )° ⊃ L° + L'° et °( M ∩ M' ) ⊃ °M + °M'
L ⊂ °(L°) et M ⊂ (°M)° .
4) a) Montrer que, si E et F sont de dimension finie, les 4 dernières inclusions sont des égalités.
(N) N
b) Soient E = K l’espace des suites nulles à partir d’un certain rang, F = K l’espace des
+∞
suites. Montrer que B(x, y) = ∑ x .y
n =0
n n est une forme bilinéaire séparante sur E×F, et donner des

exemples où les inclusions vues en 3) sont strictes.


5) Soient A, B, C ∈ Mn(K). Montrer l’équivalence des propriétés :
i) ∃X ∈ Mn(K) A.X + X.A = B ;
ii) ∀C ∈ Mn(K) A.C + C.A = 0 ⇒ tr(B.C) = 0 .
___________

Solution

1) est très facile.


2) Si E est de dimension finie n, E* aussi, et F est de dimension finie p ≤ n, puisqu’il existe une
injection linéaire de F dans E*. Comme il existe une injection linéaire de E dans F*, n ≤ p.
Finalement p = n.
3) E et F jouant le même rôle, il suffit de montrer les propriétés relatives aux sous-espaces de E.
C’est facile : « L’âne trotte », dirait Bourbaki.
4) a) Si E et F sont de dimension finie n, montrons que :
dim L + dim L° = n et dim M + dim °M = n.
En effet, Φ : x → B(x, .) est alors un isomorphisme de E sur F*.
L° = { y ∈ F ; (∀x ∈ L) B(x, y) = 0 } = { y ∈ F ; (∀x ∈ L) < Φ(x) , y > = 0 } = Φ(L)°, au sens de
l’orthogonalité du cours sur la dualité.
Du coup dim L° = dim Φ(L)° = n − dim Φ(L) = n – dim L.
dim M + dim °M = n s’en déduit aussitôt en échangeant E et F.
b) Tout d’abord B est bien définie E×F → K, et évidemment bilinéaire. Elle est séparante car :
• Si x ∈ E est non nul, il existe y ∈ F tel que B(x, y) ≠ 0 : il existe n tel que xn ≠ 0, et il suffit de
prendre yn = 1, yp = 0 pour p ≠ n .
• Si y ∈ F est non nul, il existe x ∈ E tel que B(x, y) ≠ 0 : il existe n tel que yn ≠ 0, et il suffit de
prendre xn = 1, xp = 0 pour p ≠ n .
Soit (en) la base canonique de E ; c’est une famille libre de F.
On a (∀n) ∀(x, y) ∈ E×F B(en, y) = yn et B(x, en) = xn.
Du coup °F = °E = {0}. Ceci a deux conséquences :
− La correspondance M → °M n’est pas bijective ; en fait °M = {0} pour tout sev de F contenant E.
− De plus (°E)° = F ≠ E.
Remarque : En réalité, F « est » le dual de E, en ce sens que toute forme linéaire sur E s’écrit de
façon unique sous la forme f : x = (xn) → ∑
xn yn , où (yn) est élément de F : poser yn = f(en).
En revanche, E « n’est pas » le dual de F. Il est strictement inclus dans ce dual, en ce sens que
l’application x → B(x, .) est linéaire injective, mais non surjective de E dans F*.
Soit en effet G le sous-espace de F formé des suites constantes à partir d’un certain rang.
On a G = E ⊕ Ke, où e est la suite constante (1, 1, 1, …). L’application f : y ∈ G → lim∞ yn est une
forme linéaire sur G, est n’est pas combinaison linéaire des B(en, .).
F* est en effet de dimension non dénombrable, en vertu du théorème d’Erdös-Kaplansky !

27
Si L et L’ sont des sev de E, je dis que (L ∩ L')° = L° + L'° et L = °(L°).
Soit f une forme linéaire nulle sur L ∩ L'. Complétons une base (ai) de L ∩ L', d’une part en une
base ((ai), (bj)) de L, d’autre part en une base ((ai), (ck)) de L'. Alors ((ai), (bj), (ck)) est une base de
L + L’. Complétons-là en une base ((ai), (bj), (ck), (dp)) de E.
Définissons les formes linéaires g et h sur E par :
g(ai) = 0 , g(bj) = 0 , g(ck) = f(ck) , g(dp) = f(dk) .
h(ai) = 0 , h(bj) = f(bj) , h(ck) = 0 , h(dp) = 0 .
Alors g est nulle sur L, h nulle sur L’, et f = g + h.
Montrons que L = °(L°). Soit (ai) une base de L, complétée en une base ((ai), (bj)) de E.
Notons ((fi), (gj)) la base duale. Je dis que L° = Vect(gj) et que °(L°) = Vect(ai) = L.
Si M et M’ sont des sev de F, je dis que °(M ∩ M') ⊃ °M + °M' et M ⊂ (°M)° .
5) Trace et dualité.
Il est clair que i) ⇒ ii), car tr(B.C) = tr(AXC + XAC) = tr(AXC) + tr(XAC) = tr(XCA) + tr(XAC) =
tr(X(AC + CA)) = 0, par invariance circulaire de la trace.
L’implication réciproque va provenir d’un argument de dualité.
Φ(P, Q) = tr(P.Q) est une forme bilinéaire séparante sur Mn(K).
L : M → AM + MA est un endomorphisme de Mn(K), autoadjoint pour Φ, en ce sens que
Φ(L(P), Q) = Φ(P, L(Q)).
En effet Φ(L(P), Q) = tr((AP + PA).Q) = tr(APQ) + tr(PAQ)
= tr(PQA) + tr(PAQ) = tr(P(QA + AQ)) = Φ(P, L(Q)).
On en déduit que (Im L)° = Ker L.
Car Q∈(Im L)° ⇔ (∀P) Φ(L(P), Q) = 0 ⇔ (∀P) Φ(P, L(Q)) = 0 ⇔ L(Q) = 0 ⇔ Q∈Ker L.
ii) s’écrit ∀C ∈ Mn(K) C ∈ Ker L ⇒ Φ(B, C) = 0 , autrement dit Ker L ⊂ (KB)°.
Mais Ker L ⊂ (KB)° ⇔ KB ⊂ (Ker L)° ⇔ B ∈ (Ker L)° ⇔ B ∈ (Im L)°° = Im L. CQFD!
___________

Problème 10 : Dualité en dimension infinie

Dans ce problème, E désigne un K-espace vectoriel de dimension infinie. Nous nous proposons de
montrer que certaines propriétés de dualité établies en dimension finie subsistent, et d’autres pas.
Rappels : i) Tout K-espace vectoriel E admet au moins un base ; deux bases sont équipotentes, et
l’on appelle dimension de E le cardinal d’une quelconque de ses bases. Toute famille libre peut être
complétée en une base.
ii) Le cardinal ℵ1 est strictement inférieur au cardinal ℵ2 s’il existe une injection de tout
ensemble de cardinal ℵ1 dans tout ensemble de cardinal ℵ2 , et non l’inverse.
A. Dimensions.
1) Soit B = (ei)i∈I une base de E. Tout vecteur x s’écrit de façon unique x = ∑i∈I xi.ei , où les
scalaires xi sont nuls sauf un nombre fini d’entre eux.
Montrer que les formes coordonnées ei* : x → xi forment une famille libre de E*, mais non une
base de E* (considérer la forme linéaire f telle que f(ei) = 1 pour tout i).
2) Montrer que l’homomorphisme ε : x∈E → εx∈E** est injectif mais non surjectif.
3) Pour toute partie J de I, on note fJ la forme linéaire telle que fJ(ei) = 1 si i∈J , 0 sinon.
Montrer que (fJ)J∈ (I) est une famille libre de E* et en déduire que dim(E) < dim(E*) puis que :
dim E < dim E* < dim E** < dim E*** < ... 3

3 La situation en dimension infinie est sur ce point très différente de celle qui prévaut en dimension finie. Un
spectaculaire théorème d’Erdös-Kaplansky établit que si E est de dimension infinie, E* a pour dimension

28
B. Sous-espaces de codimension finie, orthogonalité.
4) Montrer que le crochet de dualité (f , x) → < f , x > = f(x) est une forme bilinéaire séparante, en
2
ce sens que : ∀(x, y) ∈ E x ≠ y ⇒ ∃f ∈ E* f(x) ≠ f(y) ;
2
∀(f, g) ∈ E* f ≠ g ⇒ ∃x ∈ E f(x) ≠ g(x).
5) Soit F un sous-espace de E. Montrer l’équivalence des propriétés :
i) F est un sous-espace de codimension p ;
ii) il existe p formes linéaires indépendantes f1, ..., fp telles que F = ∩ Ker(fi) ;
iii) F est l’orthogonal d’un sous-espace M de dimension p de E* : F = °M ;
iv) E/F est un espace de dimension p.
6) Étude des correspondances L ∈ V(E) → L° ∈ V(E*) et M ∈ V(E*) → °M ∈ V(E).
i) {0}° = E* et E° = {0} ; °{0} = E et °E* = {0} ;
ii) décroissance pour l’inclusion : L ⊂ L' ⇒ L° ⊃ L'° et M ⊂ M' ⇒ °M ⊃ °M' ;
iii) compatibilité avec la structure de treillis :
( L + L' )° = L° ∩ L'° et °( M + M' ) = °M ∩ °M'
( L ∩ L' )° = L° + L'° et °( M ∩ M' ) = °M + °M'
iv) involution : °(L°) = L et M ⊂ (°M)° .
Montrer que si M est de dimension finie, alors M = (°M)° .
Donner un exemple de sous-espace M de E* tel que M ≠ (°M)°.
7) Transposition : Soit u ∈ L(E, F), tu l’application transposée tu ∈ L(F*, E*).
i) Montrer que Ker tu = Im(u)° et Im tu = ° Ker(u) .
ii) Montrer que u est injective ⇔ tu est surjective ; u est surjective ⇔ tu est injective.
iii) Montrer que u est de rang fini ⇔ tu est de rang fini , et alors rg u = rg tu.
_________

Problème 10 : Idéaux d’endomorphismes

Soient K un corps commutatif, V un K-espace vectoriel de dimension finie, L(V) l’algèbre des
endomorphismes de V. On note f.g le produit des éléments f et g de L(V), i.e. f.g = fog. On appelle :
• idéal à gauche de L(V) tout sous-espace M de L(V) tel que : ∀ϕ ∈ L(V) ∀f ∈ M ϕ.f ∈M ;
• idéal à droite de L(V) tout sous-espace M de L(V) tel que : ∀ϕ ∈ L(V) ∀f ∈ M f.ϕ ∈M .
Si W est un sous-espace vectoriel de V, on note :
• JW l’ensemble des endomorphismes de V dont l’image est contenue dans W ;
• KW l’ensemble des endomorphismes de V dont le noyau contient W.
Si f est un endomorphisme de V, on note :
• ∆f = { f.ϕ ; ϕ ∈ L(V) } Df = { ψ ∈ L(V) ; f.ψ = 0 }
• Γf = { ϕ.f ; ϕ ∈ L(V) } Gf = { ψ ∈ L(V) ; ψ.f = 0 }

1) Soit W un sous-espace vectoriel de V.


a) Montrer que JW est un idéal à droite, et KW un idéal à gauche, de L(V) .
b) Exprimer dim JW et dim KW en fonction de dim V et dim W.
2) Soit f un endomorphisme de V.
a) Montrer qu’il existe des sous-espaces W et W' de V tels que Df = JW et Gf = KW' .

card(E*). Cela ne signifie pas que E* est une base de lui-même, mais que toute base de E* est équipotente à E*;
c’est dire qu’elle est très grande ! Ce théorème est établi dans le cours de taupe de Gostiaux, t. 1, p. 221.

29
b) Préciser les dimensions des idéaux Df et Gf à l’aide de dim V et rg f ;
c) Montrer qu’il existe des sous-espaces W" et W''' de V tels que ∆f = JW" et Γf = KW''' .
3) Soit W un sous-espace vectoriel de V. Montrer qu’il existe f, g, h, k ∈ L(V) tels que :
JW = Df = ∆g et KW = Gh = Γk .
4) Soient W et W' deux sous-espaces vectoriels de V.
a) Montrer que JW ∩ JW' = JW∩W' et KW ∩ KW' = KW+W' .
b) Montrer que JW + JW' = JW+W' et KW + KW' = KW∩W' .
5) a) Soit M un idéal à droite de L(V). Soit W un sous-espace de V tel que JW ⊂ M et tel qu'aucun
sous-espace W' de V ne vérifie JW' ⊂ M et dim W' > dim W. Montrer que JW = M .
b) Soit M un idéal à gauche de L(V). Montrer de même qu’il existe un sous-espace W de V tel
que KW = M.
6) a) Soient U et W des sous-espaces de V. Calculer dim( JU ∩ KW ).
b) Montrer que {0} et L(V) sont les seuls idéaux à droite et à gauche de L(V) .
c) Y a-t-il un homomorphisme d’algèbres f : L(V) → K tel que f(IdV) = 1 ?
___________

Solution
à Pierre A*, Fabrice H*, Laurent M* et Laurent D*,
les quatre mousquetaires de l’HX1 1983-84.
1) Les idéaux JW et KW .
a) Montrons que JW est un idéal à droite, et KW un idéal à gauche, de L(V) .
L’application nulle est élément de JW et de KW .
Si g, h ∈ JW , αg + h ∈ JW car ∀y ∈ Im(αg + h) (∃x) y = αg(x) + h(x) ∈ W.
Si g ∈ JW et ϕ ∈ L(V), g.ϕ ∈ JW car ∀y ∈ Im(g.ϕ) (∃x) y = (g.ϕ)(x) = g(ϕ(x)) ∈ Im g ⊂ W.
Si g, h ∈ KW , αg + h ∈KW car ∀x ∈ W (αg + h)(x) = αg(x) + h(x) = 0.
Si g ∈ KW et ϕ ∈ L(V), ϕ.g ∈ KW car ∀x ∈ W (ϕ.g)(x) = ϕ(g(x)) = 0.
Remarque : au fond, tout ceci repose sur les inclusions suivantes :
Im 0 = {0} , Im(g + h) ⊂ Im g + Im h , Im(λg) = {0} si λ = 0, Im g si λ ≠ 0,
Ker 0 = V , Ker(g + h) ⊃ Kerg ∩ Ker h , Ker(λg) = V si λ = 0, Ker g si λ ≠ 0,
−1
Im(g.ϕ) = g( Im ϕ ) ⊂ Im g et Ker(ϕ.g) = g ( Ker ϕ ) ⊃ Ker g.
b) Calcul des dimensions.
• Se donner un endomorphisme g de V dont l’image est incluse dans W, revient à se donner une
application linéaire de V dans W, à savoir sa « corestriction » à W. On peut dire par abus que JW =
W
L(V, W), ou plutôt que JW est isomorphe à L(V, W) via l’application g → g V . Donc
dim JW = (dim V)×(dim W) .
• Se donner un endomorphisme g de V nul sur W, revient à se donner une application linéaire h : W’
→ V, où W’ est un supplémentaire de W : sa restriction à W’. Autrement dit, KW est isomorphe à
V
L(W’, V) via l’application linéaire bijective g → h = g W' . Donc
dim KW = (dim W’)×(dim V) = (dim V − dim W)×(dim V) .
Matriciellement, soient n = dim V, p = dim W.
Complétons une base (a1, …, ap) de W en une base B = (a1, …, ap, ap+1, …, an) de V. Alors :

30
A ] , où A ∈ M (p, n).
g ∈ JW ⇔ Mat(g, B) = [ O K

g ∈ KW ⇔ Mat(g, B) = [O B] , où B ∈ MK(n, n−p).


Par suite, JW est isomorphe à MK(p, n), et KW est isomorphe à MK(n, n−p).
Il reste à passer aux dimensions.
Remarques :
1) Isomorphismes canoniques. JW est canoniquement isomorphe à L(V, W), KW canoniquement
isomorphe à L(V/W, V). En effet, si g ∈ KW, x ≡ y (mod W) ⇒ g(x) = g(y). Notant x la classe de x
modulo W, g(x) ne dépend que de x . Si l’on pose g ( x ) = g(x), on voit que g est une application
linéaire de V/W dans V, et la correspondance g → g est un isomorphisme. Il reste à passer aux
dimensions.
t
2) Approche par dualité. Soient V* le dual de V, g la transposée de g, W° l’orthogonal de W.
t t
Si g ∈ L(V), g ∈ KW ⇔ W ⊂ Ker g ⇔ (Ker g)° ⊂ W° ⇔ Im g ⊂ W° ⇔ g ∈ JW° .
t
Ainsi, g → g induit un isomorphisme de KW sur JW° . Le fait que KW soit un idéal à gauche de L(V)
découle du fait que JW° est un idéal à droite de L(V*). Enfin,
dim KW = dim JW° = (dim V*)×(dim W°) = (dim V)×( dim V − dim W ).

2) Autres exemples d’idéaux.


a) Soit f ∈ L(V). Je dis que Df = JKer f et que Gf = KIm f .
Df = JKer f car ψ ∈ Df ⇔ f.ψ = 0 ⇔ Im ψ ⊂ Ker f ⇔ ψ ∈ JKer f .
Gf = KIm f car ψ ∈ Gf ⇔ ψ.f = 0 ⇔ Ker ψ ⊃ Im f ⇔ ψ ∈ KIm f .
b) Dimensions des idéaux Df et Gf . Il découle de 1) et 2.a) que :
dim Df = dim JKer f = (dim V)×dim( Ker f ) = (dim V)×( dim V − rg f )
dim Gf = dim KIm f = (dim V)×( dimV – rg f )
c) Montrons que ∆f = JIm f et Γf = KKer f .
Nous allons montrer cela par inclusion et égalité des dimensions.
Il est clair que ∆f ⊂ JIm f et Γf ⊂ KKer f .
∆f est l’image, et Df le noyau, de l’endomorphisme ϕ → f.ϕ de L(V) ;
Γf est l’image, et Gf le noyau, de l’endomorphisme ϕ → ϕ.f de L(V).
En vertu du théorème du rang :
2
dim ∆f = (dim V) − dim Df = (dim V)×rg f = dim JIm f .
2
dim Γf = (dim V) − dim Gf = (dim V)×rg f = dim KKer f .
NB : Les égalités ∆f = JIm f et Γf = KKer f sont des théorèmes de factorisation, qu’on peut établir
directement, sans recourir à l’égalité des dimensions, donc aussi en dimension infinie : cf. pb 4.

3) Equivalence des formes.


Soient W un sous-espace vectoriel de V, p un projecteur sur W, q = I – p le projecteur associé.
Il découle de 2) que :
JW = Dq = ∆p et KW = Gp = Γq .

4) Etude des correspondances W → JW et W → KW.


Soient W et W' deux sous-espaces vectoriels de V. Montrons que :

31
JW ∩ JW’ = JW∩W’ et KW ∩ KW’ = KW+W’ .
JW + JW' = JW+W' et KW + KW' = KW∩W' .
4 égalités, donc 8 inclusions ; 6 sont très faciles, 2 demandent du soin.
f ∈ JW ∩ JW’ ⇔ Im f ⊂ W et Im f ⊂ W’ ⇔ Im f ⊂ W ∩ W’ ⇔ f ∈ JW∩W' .
f ∈ KW ∩ KW’ ⇔ W ⊂ Ker f et W’ ⊂ Ker f ⇔ W + W’ ⊂ Ker f ⇔ f ∈ KW+W’ .
• Il est facile de montrer que JW + JW' ⊂ JW+W' .
En effet, soit f ∈ JW + JW' ; ∃(g, h)∈JW×JW' f = g + h.
Alors Im f = Im(g + h) ⊂ Im g + Im h ⊂ W + W’, donc f ∈ JW+W' .
L’inclusion réciproque peut se montrer de deux façons :
1ère méthode : par égalité des dimensions.
dim JW+W’ = (dim V)×dim(W + W’) par 1.b)
= (dim V)×[dim W + dim W’ − dim(W∩W’)] par Grassmann
= (dim V)×(dim W) + (dim V)×(dim W’) − (dim V)×dim(W∩W’)
= dim JW + dim JW’ − dim JW∩W’ par 1.b)
= dim JW + dim JW’ − dim (JW ∩ JW’) par 4.a)
= dim (JW + JW’) par Grassmann .
ème
2 méthode : directe.
Soit f ∈ JW+W’ . Construisons un couple (g, h) ∈ JW×JW' tel que f = g + h.
Soit (ei) une base de V. Comme Im f ⊂ W + W’, pour tout i, on peut choisir (ai, bi)∈W×W’ tel que
f(ei) = ai + bi . Définissons g ∈ L(V) et h ∈ L(V) par (∀i) g(ei) = ai et h(ei) = bi .
Il est clair que f = g + h (elles sont linéaires et coincident sur une base), et que (g, h) ∈ JW×JW' .
Remarque : La seconde méthode est plus générale que la première, car valable même en dimension
infinie, moyennant l’axiome du choix.
• Il est facile de montrer que KW + KW' ⊂ KW∩W' .
En effet, soit f ∈ KW + KW' ; ∃(g, h) ∈ KW×KW' f = g + h.
Alors Ker f = Ker(g + h) ⊃ Ker g ∩ Ker h ⊃ W ∩ W’, donc f ∈ KW∩W' .
L’inclusion réciproque peut se montrer de deux façons :
1ère méthode : par égalité des dimensions.
dim KW∩W’ = (dim V)×[ dim V − dim(W∩W’) ] par 1.b)
= (dim V)×[ dim V − dim W − dim W’ + dim(W∩W’) ] par Grassmann
= (dim V)×(dim V − dim W) + (dim V)×(dim V − dim W’) − (dim V)×(dim V − dim(W∩W’))
= dim KW + dim KW’ − dim KW+W’ par 1.b)
= dim KW + dim KW’ − dim (KW ∩ KW’) par 4.a)
= dim (KW + KW’) par Grassmann
2ème méthode : directe.
Soit f ∈ KW∩W’ . Construisons un couple (g, h) ∈ KW×KW’ tel que f = g + h.
Soit (e1, …, er) une base de W ∩ W’, complétée, d’une part en une base (e1, …, er, er+1, …, es) de
W, d’autre part en une base (e1, …, er, es+1, …, et) de W’. On sait que la famille (e1, …, et) est une
base de W + W’. Complétons-la en une base (e1, …, en) de V.

32
On a f(ei) = 0 pour 1 ≤ i ≤ r. Posons f(ei) = ai pour r+1 ≤ i ≤ n.
Définissons les endomorphismes g et h de V par :
♣ g(ei) = 0 , h(ei) = 0 pour 1 ≤ i ≤ r
♦ g(ei) = 0 , h(ei) = ai pour r+1 ≤ i ≤ s
♥ g(ei) = ai , h(ei) = 0 pour s+1 ≤ i ≤ t
♠ g(ei) = 0 , h(ei) = ai pour t+1 ≤ i ≤ n.
On a f = g + h, car g et h coincident sur la base (ei), et g|W = h|W’ = 0
Remarque : Ici encore, la seconde méthode est plus générale que la première.
Enfin, les fanas de dualité peuvent mettre en dualité les propriétés de J et celles de K, et déduire les
unes des autres : cf. question 1, remarque 2.

5) Caractérisation des idéaux à droite, et des idéaux à gauche, de L(V).


a) Idéaux à droite.
Soit M un idéal à droite de L(V). La famille des sous-espaces vectoriels W de V tels que JW ⊂ M
est non vide, car elle contient {0}. Elle admet des éléments maximaux pour l’inclusion : ce sont
ceux de dimension maximum. Soit W l’un d’entre eux. Je dis que JW = M .
On a déjà JW ⊂ M. Il reste à montrer que M ⊂ JW , i.e. (∀g ∈ M) Im g ⊂ W.
Si g ∈ M, on a ∆g = JIm g ⊂ W, donc JW + JIm g = JW + Im g ⊂ M.
Or l’inclusion W ⊂ W + Im g et la maximalité de W imposent W + Im g = W, donc Im g ⊂ W.

Théorème 1 : L’application W → JW est un isomorphisme du treillis V des sous-espaces vectoriels


de V sur celui des idéaux à droite de L(V). La bijection réciproque est M → W = ∑Im f .
f ∈M

Montrons que M = JW ⇒ W = ∑Im f . L’injectivité de W → JW en découlera. Si f ∈ JW, Im f ⊂


f ∈M

W, donc ∑Im f
f ∈M
⊂ W ; par ailleurs, si p est un projecteur sur W, p ∈ JW et W = Im p ⊂ ∑Im f .
f ∈M

b) Idéaux à gauche.
Soit M un idéal à gauche de L(V). Montrons qu’il existe un sous-espace W de V tel que KW = M.
La famille des sev W de V tels que KW ⊂ M est non vide car elle contient V. Elle a des éléments
minimaux pour l’inclusion : ce sont les sev de dimension minimum. Soit W l’un d’eux. Montrons
que M = KW. On a déjà KW ⊂ M. Il reste à montrer que M ⊂ KW, i.e. (∀g ∈ M) Ker g ⊃ W.
Si g ∈ M, on a Γg = KKerg ⊂ M, donc KW + KKerg = KW∩Kerg ⊂ M. Or l’inclusion W ∩ Ker g ⊂ W
et la minimalité de W imposent W ∩ Ker g = W, donc Ker g ⊃ W. cqfd.

Théorème 2 : L’application W → KW est un anti-isomorphisme du treillis V des sous-espaces vec-


toriels de V sur celui des idéaux à gauche de L(V). La bijection réciproque est M → W = IKerf .
f ∈M

La dernière assertion est laissée en exercice.


Par ailleurs, on peut déduire le théorème 2 du théorème 1 par dualité.

6) Idéaux bilatères et caractères de L(V).


a) Soient U et W des sous-espaces de V. Calculons dim(JU ∩ KW).
Complétons une base (a1, …, ap) de W en une base B = (a1, …, ap, ap+1, …, an) de V.
Complétons une base (b1, …, bq) de U en une base B’ = (b1, …, bq, bq+1, …, bn) de V.

33
Alors g ∈ JU ∩ KW ⇔ Mat(g, B, B’) = 
O B , où B∈M (q, n − p), et la correspondance g → B
O OK

est un isomorphisme : JU ∩ KW est isomorphe à un sous-espace de dimension q×(n − p) de Mn(K).


dim( JU ∩ KW ) = (dim U) × (dim V − dim W) .
U
Une solution linéaire consiste à choisir un supplémentaire W’ de W, et à noter que g → g W' est un
isomorphisme de JU ∩ KW sur L(W’, U).
b) Idéaux bilatères de L(V) .
Soit M un idéal bilatère de L(V). Alors, par 5), il existe U et W tels que M = JU = KW .
Mais alors M = JU ∩ KW . Passant aux dimensions, il vient :
(dim V)×(dim U) = (dim V)×(dim V − dim W) = (dim U)×(dim V − dim W).
Supposons dim V > 0. Alors cela équivaut à dim U = dim V − dim W et (dim U)×(dim W) = 0.
Si dim U = 0, M = {0}. Sinon, dim W = 0 et M = L(V).
Si dim V = 0, il n’y a rien à montrer, car L(V) = {0}.
Théorème 3 : Si V est un espace vectoriel de dimension finie, les seuls idéaux bilaètres de L(V)
sont {0} et L(V).
Remarque : En dimension infinie, il n’en est plus de même. L’ensemble des endomorphismes de
rang fini de V est un idéal bilatère non trivial de L(V).

Exercice : Montrer, par des techniques matricielles, que les seuls idéaux bilatères de Mn(K) sont {0}
et Mn(K).
c) Si dim V ≥ 2, il n’y a pas d’homomorphisme d’algèbres f : L(V) → K tel que f( IdV ) = 1.
En effet, son noyau serait un idéal bilatère de L(V), strictement inclus dans L(V).
Ce serait donc {0}, et f serait injectif. Cela implique dim L(V) = 1, donc dim V = 1.

Références : ENSAE 1983, Deuxième composition de maths, 1ère partie.


___________

Problème 11 : dimension maximale de certains sous-espaces de Mn(R).

Dans ce problème, on confond librement vecteurs et matrices-colonnes, matrices et applications


linéaires canoniquement associées. Soient n un entier ≥ 2, r un entier tel que 1 ≤ r ≤ n − 1.
On se propose de calculer la dimension maximale d’un sous-espace vectoriel de Mn(R) formé de
matrices de rang ≤ r.

A) Résultats préliminaires.
t n t
1) a) Soit X = (x1, …, xn) ∈ R = MR(n, 1). Si X.X = 0, que dire de X ?
t
b) Soit M ∈ Mn(R). Montrer que Ker M = Ker( M.M).

2) Soit M = 
A B  ∈ M (R) une matrice-blocs, où A ∈ Gl (R).
C D n r

34
a) Soit Z = [ YX ] ∈ Rn , où X ∈ Rr , Y ∈ Rn−r . Ecrire les relations entre A, B, C, D, X et Y
−1
traduisant l’appartenance de Z à Ker M. En déduire que Ker M est l’image de Ker(D − C.A .B) par
[ − A YB.Y ] ∈ Rn .
n−r −1
l’application linéaire f : Y ∈ R →
−1
b) Montrer que rg M ≥ r , et que rg M = r ⇔ D = C.A .B.

3) Soit W(r) = {
 O B  ∈ M (R) ; B ∈ M (r, n − r) , D ∈ M (R) }.
 tB D n R n−r

Montrer que W(r) est un sous-espace vectoriel de Mn(R). Quelle est sa dimension ?

B) Dimension maximale.
Dans cette partie, V désigne un sous-espace vectoriel de Mn(R) tel que ∀M ∈ V rg M ≤ r.

1) On suppose dans cette question que I r O ∈ V.


O O

a) Soit
 O B  ∈ V , avec B ∈ M (r, n − r) , D ∈ M (R).
 tB D R n−r

t λ.I B 
Montrer que D = B.B = O, puis que B = O. [ On utilisera la question A.2 avec M =  t r  .]
 B D
b) Prouver que dim V ≤ n×r .
2) a) Montrer que la majoration dim V ≤ n×r subsiste si on ne fait plus l’hypothèse indiquée au
début de la question précédente.
b) Indiquer un sous-espace de Mn(R) de dimension n×r, ne contenant que des matrices de rang
au plus égal à r.
____________

Solution

A) Résultats préliminaires.

∑(x )² = 0
t n t
1) a) Soit X = (x1, …, xn) ∈ R = MR(n, 1). X.X = 0 ⇔ X = 0, car i ⇔ (∀i) xi = 0.
Remarque : Il s’agit là d’une propriété particulière du corps des réels : −1 n’est pas une somme de
carrés. Cette propriété caractérise les corps ordonnés (théorème d’Artin-Schreier).
t t
b) Soit M ∈ Mn(R). Ker M ⊂ Ker( M.M), car M.X = 0 ⇒ ( M.M).X = 0.
t t t t t
Ker( M.M) ⊂ Ker(M) car ( M.M).X = 0 ⇒ X.( M.M).X = 0 ⇒ (M.X).(M.X) = 0 ⇒ M.X = 0.

2) Soit M = 
A B  ∈ M (R) une matrice-blocs, où A ∈ Gl (R).
C D n r

a) Etude de Ker M. Soit Z = [ YX ] ∈ Rn , où X ∈ Rr , Y ∈ Rn−r .


−1 −1
Z ∈ Ker M ⇔ A.X + B.Y = 0 et C.X + D.Y = 0 ⇔ X = − A .B.Y et ( D − C.A .B ).Y = 0
−1
On en déduit que Ker M est l’image de Ker(D − C.A .B) par l’application linéaire :
[ − A YB.Y ] ∈ Rn .
n−r −1
f : Y∈R →
−1
b) Cette application est injective, dim Ker M = dim Ker(D − C.A .B) ≤ n – r , et rg M ≥ r .

35
−1
De plus, rg M = r ⇔ dim Ker M = n – r ⇔ D = C.A .B.

3) Soit W(r) = {
 O B  ∈ M (R) ; B ∈ M (r, n − r) , D ∈ M (R) }.
 tB D n R n−r

L’application u : (B, D) → t
 O B  est linéaire injective de M (r, n − r)×M (R) dans M (R).
 B D R n−r n
2
Son image est donc un sous-espace vectoriel de dimension r×(n − r) + (n− r) = n×(n − r) de Mn(R).

B) Dimension maximale.
Soit V un sous-espace vectoriel de Mn(R) tel que ∀M ∈ V rg M ≤ r.

1) Supposons d’abord que I r O ∈ V.


O O

a) Soit
 O B  ∈ V , avec B ∈ M (r, n − r) , D ∈ M (R).
 tB D R n−r

λ.I B 
Pour tout λ ∈ R , M(λ) =  t r  ∈ V comme combinaison linéaire.
 B D
t
Si λ est non nul, λ.Ir est inversible. Comme rg M(λ) ≤ r , D = 1 B.B en vertu de A.2.
λ
t
Comme cela est vrai pour tout λ ∈ R* , D = B.B = O, donc B = O en vertu de A.1).
b) Il résulte de a) que V ∩ W(r) = {0}.
2
Par conséquent, dim V + dim W(r) ≤ n et dim V ≤ n×r .
2) a) Soient s le rang maximal d’une matrice de V, et M0 une matrice de V de rang s.

Alors ∃P ∈ Gln(R) P .M0.P = Is O . Notons V’ = { P .M.P ; M ∈ V }.


−1 −1
O O
Toutes les matrices de V’ sont de rang ≤ s, et il résulte de 1) que dim V’ ≤ n×s .
V étant isomorphe à V, on a de même dim V ≤ n×s , et a fortiori dim V ≤ n×r .
b) Voici un sous-espace de Mn(R) de dimension n×r, ne contenant que des matrices de rang ≤ r.
Il s’agit de { OA O
B

; A ∈ Mr(R) , B ∈ MR(r, n − r) } et de tous ses conjugués.

Théorème de Flanders (1962) : La dimension maximale d’un sous-espace vectoriel de Mn(R)
formé de matrices de rang ≤ r est n×r .

Remarque : Ce résultat subsiste si l’on remplace R par un corps infini. La preuve est un peu plus
élaborée, car les résultats de A.1) tombent en défaut. Sur ces sujets, cf. :
Dimension maximale d’un sev de Mn(C) ne rencontrant pas Gln(C) :
RMS 1988-89 n° 7, 1989-90 n° 2 et 8 (Barani, Exbrayat, Clarisse)
Sous-espaces vectoriels de matrices de rang au plus p : RMS mai 2008, de Seguins Pazzis
___________

36
Problème 12 : Exemples de groupes multiplicatifs matriciels

Dans ce problème, on étudie quelques sous-groupes multiplicatifs de Gln(K), K corps commutatif.


On note I la matrice unité. Les questions sont indépendantes.

1) Montrer que { 
cosθ −sinθ  ; θ ∈ R } , { chθ shθ  ; θ ∈ R } et { 1 θ  ; θ ∈ R } sont des
sinθ cosθ  shθ chθ  0 1 
sous-groupes multiplicatifs de Gl2(R).
cos 2π −sin 2π 
2) Décrire le sous-groupe de Gl2(R) engendré par R =  n n  et S = +1 0  .
sin 2π cos 2 π   0 −1
 n n 
Interprétation géométrique ?

3) Montrer que R = 
−1 0 et S = 1 1  engendrent un sous-groupe de Gl (R) à 6 éléments,
 1 1 0 −1
2

isomorphe au groupe S3 des permutations de {1, 2, 3}.


 1 tana 
4) Soit D = R − ( Zπ+ π ). Montrer que G = {  cosa  ; a ∈ D } est un sous-groupe de Gl2(R).
2  tana 1 
 cosa 
1 t 2t + 3t² 
5) Montrer que { 0 1 3t  ; t ∈ R } est un sous-groupe de Gl3(R).
2
 
0 0 1 
 

6) Soient A = 
−1 0 et B =  1 1  dans M (R).
 2 1 −1 −1
2
2 n
a) Pour tout couple (x, y) ∈ R , et tout n ∈ N, calculer (x.A + y.B) , puis exp(x.A + y.B).
2
b) Montrer que { exp(x.A + y.B) ; (x, y) ∈ R } est un sous-groupe de Gl2(R).
7) Dans M4(C), on considère les quatre matrices :

0 00 1 0 0 0 i 0 0 1 0 1 0 0 0
A= 
0 01 0 , B = 0 0 −i 0 , C = 0 0 0 −1 , D = 0 1 0 0.
0 10 0 0 i 0 0 1 0 0 0 0 0 −1 0 
1 00 0 −i 0 0 0 0 −1 0 0  0 0 0 −1
4
a) Calculer pour (x, y, z, t) ∈ C , le carré de la matrice M = xA + yB + zC + tD. Quelles relations
en déduit-on pour A, B, C, D ?
b) Soit G le sous-groupe de Gl4(C) engendré par A, B, C et D. Montrer que toute matrice de G se
α β γ δ 4
met sous la forme ± A .B .C .D , où (α, β, γ, δ) ∈ {0, 1} .
c) Trouver le cardinal de G.
0 −2 −2 k
8) Soit A = 1 2 0 −1 ∈ M3(R). Montrer que G = { A ; k ∈ N* } est un groupe pour la
3 2 1 0 
 
multiplication. Quel est son cardinal ? Si U est la matrice élément neutre de ce groupe, quelle est la
nature géométrique de l’endomorphisme canoniquement associé à U ?
9) Soit p un nombre premier.
a) Quel est le cardinal de Gl2(Z/pZ) et de Sl2(Z/pZ) = { A ∈ Gl2(Z/pZ) ; det A = 1 } ?

37
b) Montrer que G = { 
k 0 ; (k, m) ∈ (Z/5Z)*×(Z/5Z) } est un sous-groupe de Gl (Z/5Z) à 20
m 1 2
5 4 2
éléments, ayant deux générateurs A et B vérifiant A = B = I , AB = BA .
_________

Problème 13 : Inverses généralisées d’applications linéaires


Dans ce problème, tous les espaces vectoriels sont supposés de dimensions finies sur le corps
commutatif K.
Le but du problème est de généraliser la notion d’inverse d’une application linéaire u ∈ L(E, F).
Soient u ∈ L(E, F), v ∈ L(F, E). On considère les relations suivantes :
(1) u.v.u = u (2) v.u.v = v (3) dim E = dim F et u.v = v.u.
Si la relation (1) est vérifiée, on dit que v est une inverse généralisée ou g-inverse de u.
Si les relations (1) et (2) sont vérifiées, v est dite inverse faible, ou f-inverse de u.
Si les trois relations sont vérifiées, v est dite pseudo-inverse ou p-inverse de u.

A. Etude des g-inverses.


1) Dans cette question, on suppose que u admet une g-inverse v , et l’on note p = v.u et q = u.v.
2 2
a) Calculer p , q . Montrer que Im q = Im u, Ker p = Ker u .
b) Montrer que rg p = rg q = rg u ≤ rg v.
c) Montrer qu’il existe un supplémentaire E1 de Ker u dans E, tel que v prolonge l’iso-
−1
morphisme ( u Im
E
u ) .
1

2) a) Déduire de l’analyse précédente l’existence d’au moins une g-inverse v de u .


b) Montrer qu’en fait rg v peut prendre toute valeur comprise entre rg u et min(dim E, dim F).
c) Montrer que les g-inverses de u forment un sous-espace affine de L(F, E) ; quelle est sa
dimension ?
d) Quelles sont les g-inverses de u si u est nulle, injective, surjective, bijective ?
3) En choisissant des bases convenables de E et F, et en cherchant v par sa matrice dans ces bases,
retrouver tous les résultats de la question 2).

B. Etude des f-inverses.


1) On suppose dans cette question que u admet une f-inverse v.
Montrer que E = Im v ⊕ Ker u , F = Ker v ⊕ Im u et rg u = rg v .
2) a) Montrer que si E = Ker u ⊕ E1 et F = Im u ⊕ F1, il existe une unique f-inverse v de u telle
que Ker v = F1 et Im v = E1.
b) En déduire l’existence d’une f-inverse de u.
c) Quelles sont les f-inverses de u si u est nulle, injective, surjective, bijective ?
3) Retrouver 2b) et 2c) au moyen de matrices appropriées, et montrer l’équivalence :
v est une f-inverse de u ⇔ v est une g-inverse de u et rg u = rg v.

C. Applications.
1) Résolution d’une équation linéaire.

38
Soient u ∈ L(E, F), v une g-inverse de u. On considère l’équation linéaire u(x) = b, où b ∈ F.
Montrer que cette équation a une solution si et seulement si b = (u.v)(b), et qu’alors ses solutions
sont données par : x = v(b) + ( IdE – v.u )(z) , où z décrit E.
2) Factorisation à droite.
Soient a ∈ L(E, F), c ∈ L(G, F), a’ une g-inverse de a. Montrer l’équivalence des propriétés :
i) ∃x ∈ L(G, E) a.x = c ;
ii) a.a’.c = c ;
iii) Im c ⊂ Im a.
Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de L(G,
E) dont on déterminera la dimension.
3) Factorisation à gauche.
Soient c ∈ L(G, F), b ∈ L(G, H), b’ une g-inverse de b. Montrer l’équivalence des propriétés :
i) ∃x ∈ L(H, F) x.b = c ;
ii) c.b’.b = c ;
iii) Ker b ⊂ Ker c.
Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de L(H,
F) dont on déterminera la dimension.
4) Double factorisation.
Soient a ∈ L(E, F), c ∈ L(G, F), b ∈ L(G, H), a’ une g-inverse de a, b’ une g-inverse de b.
Montrer l’équivalence des propriétés suivantes :
i) ∃x ∈ L(H, E) a.x.b = c ;
ii) a.a’.c.b’.b = c ;
iii) Im c ⊂ Im a et Ker b ⊂ Ker c.
Montrer que si ces conditions sont satisfaites, les solutions x forment un sous-espace affine de
dimension (dim E).(dim H) − (rg a).(rg b), et sont les applications de la forme
x = a’.c.b’ + t − a’.a.t.b.b’ , où t décrit L(H, E).
5) Factorisation simultanée.
On garde a, b, a’, b’ comme en 3), et on considère d ∈ L(H, F) et e ∈ L(G, E). Prouver qu’une cns
pour que le système de deux équations a.z = d et z.b = e ait une solution z ∈ L(H, E) est que chacune
de ces équations ait une solution et qu’on ait l’égalité a.e = d.b.

D. Etude des pseudo-inverses.


Dans la suite, on se place dans L(E). Soit u ∈ L(E).
1) Soient v et v’ deux p-inverses de u. Calculant uovouov’, prouver que u.v’ = v.u, puis v = v’.
2) Si u admet un pseudo-inverse, celui-ci est donc unique. On l’appellera le pseudo-inverse de u
et on le notera v = u+. Montrer que les endomorphismes suivants ont un pseudoinverse, et le
déterminer :
u+ , λu (λ ∈ K*) , uk (k ∈ N*) , r−1.u.r (où r ∈ Gl(E)) , O (application nulle).
Montrer l’implication u inversible ⇒ u pseudoinversible ; que vaut alors u+ ?
3) Caractérisation des endomorphismes pseudoinversibles.
Montrer l’équivalence des douze propriétés suivantes :
i) u est pseudoinversible ;
ii) Im u ∩ Ker u = {0} ;
2
iii) Ker u = Ker u ;
iv) E = Im u + Ker u ;

39
2
v) Im u = Im u ;
2
vi) rg u = rg u ;
vii) E = Im u ⊕ Ker u ;
2
viii) ∃v ∈ L(E) u .v = u ;
2
ix) ∃w ∈ L(E) w.u = u ;
x) Il existe une base B de E telle Mat(u, B) = 
R O ∈ M (K), où R ∈ GL (K), 0 ≤ r ≤ n ;
O O n r
2
xi) Le polynôme minimal µu(X) de u n’est pas divisible par X ;
2 3
xii) u ∈ Vect( u , u , … ).
4) Donner des exemples d’endomorphismes pseudo-inversibles, non pseudo-inversibles, ainsi que
deux endomorphismes pseudoinversibles dont le produit ne l’est pas.
___________

Solution : g-inverses, f-inverses, p-inverses

C’est le mathématicien américain Eliakim Hastings Moore (1862-1932) qui a cherché le premier à
étendre la notion d’inverse à une matrice carrée singulière ou à une matrice rectangulaire, à partir de
1920. En 1955, l’astronome et physicien Roger Penrose a mis en évidence le rôle particulier du
pseudo-inverse de Moore-Penrose, ou pseudo-inverse des moindres carrés. Ces notions ont des
applications considérables en économétrie.
A. Etude des g-inverses.
1) Analyse : propriétés des g-inverses.
2
a) p = v.u est un projecteur de E, car p = v.u.v.u = v.u = p.
2
q = u.v est un projecteur de F, car q = u.v.u.v = u.v = q.
q = u.v ⇒ Im q ⊂ Im u , et u = q.u ⇒ Im u ⊂ Im q . Donc Im q = Im u
p = v.u ⇒ Ker u ⊂ Ker p , et u = u.p ⇒ Ker p ⊂ Ker u. Donc Ker p = Ker u .
b) Montrons que rg p = rg q = rg u ≤ rg v.
rg p = dim E – dim Ker p = dim E – dim Ker u = rg u = dim Im u = dim Im q = rg q.
Enfin, p = v.u ⇒ Im p ⊂ Im v ⇒ rg p ≤ rg v.
c) Soit alors E1 = Im p ; c’est un supplémentaire de Ker p = Ker u dans E.
On sait que u induit un isomorphisme ϕ = u Im
E
u de E sur Im u.
1
1

Soient y un vecteur de Im u, x l’unique vecteur de E1 tel que u(x) = y. Je dis que x = v(y).
En effet v(y) = (v.u)(x) = p(x) = x, puisque x appartient à Im p.
2) Synthèse : existence des g-inverses.
a) Construction d’une g-inverse. Soit E1 un supplémentaire quelconque de Ker u dans E.
Soit ϕ = u Im
E
u l’isomorphisme de E sur Im u induit (restreint-corestreint) par u.
1
1

−1
Enfin, soit v ∈ L(F, E) une application linéaire de F dans E prolongeant ϕ .
Une telle application existe : il suffit de se donner sa restriction w à un supplémentaire F1 de Im u
−1
dans F (par exemple l’application nulle), et de poser v(y) = ϕ ( yImu ) + w( yF ).
1

Je dis que v est une g-inverse de u. Soit en effet x ∈ E ; écrivons x = xKeru + xE .


1

On a u(x) = u( xE ), et (v.u)(x) = xE , et pour finir (u.v.u)(x) = u( xE ) = u(x). CQFD !


1 1 1

b) Le rang de v peut prendre toute valeur comprise entre rg u et min(dim E, dim F).

40
−1 −1
En effet, v prolongeant ϕ est telle que rg v ≥ rg ϕ = rg u .
−1
Si l’on prend pour w une application linéaire de F1 dans Ker u, alors rg v = rg ϕ + rg w .
Or rg w prend toute valeur comprise entre 0 et min(dim F1, Ker u) = min(dim F – rg u, Ker u).
c) Les g-inverses de u forment un sous-espace affine de L(F, E).
En effet, si v0 est une g-inverse, les autres sont de la forme v = v0 + w, où u.w.u = 0, c’est-à-dire
w(Im u) ⊂ Ker u. Or ces fonctions forment un sous-espace vectoriel de dimension
2
(dim Im u)×(dim Ker u) + (dim F − dim Im u)×dim E = (dim E)×(dim F) − (rg u) .
e) Cas particuliers.
• Si u = 0, toute application v est une g-inverse.
• Si u est injective, u.v.u = u ⇔ v.u = idE . Les g-inverses de u sont ses inverses à gauche.
• Si u est surjective, u.v.u = u ⇔ u.v = idF . Les g-inverses de u sont ses inverses à droite.
−1
• Enfin, si u est bijective, u.v.u = u ⇔ v = u , seule g-inverse.
3) Retrouvons ces résultats matriciellement :
Choisissons des bases de E et F telles que Mat(u, BE, BF) = Ir O .
O O

Cherchons v par sa matrice Mat(v, BF, BE) = 


X Y  . Alors u.v.u = u se traduit par
 Z T 
Ir O  X Y  Ir O = Ir O , c’est-à-dire par X = I , Y , Z et T étant quelconques.
O O  Z T  O O O O r

Toute application linéaire de F dans E telle que Mat(v, BF, BE) = Ir Y  est une g-inverse de u.
 Z T 
Cela montre l’existence d’une g-inverse et le fait que les g-inverses forment un espace affine de
dimension n×p − r . De plus, le rang de Ir Y  peut prendre toute valeur comprise entre r et min(n,
2
 Z T 
p) : prendre Y et Z nulles et T = Is , 0 ≤ s ≤ min(n, p) − r.

Bien entendu, la plus simple des g-inverses est celle qui vérifie Mat(v, BF, BE) = Ir O .
O O
B. Etude des f-inverses.
1) Analyse : propriétés des f-inverses.
Supposons que u admette une f-inverse v ; u est alors une g-inverse de u, donc :
p = v.u est un projecteur tel que Ker p = Ker u et Im p = Im v ;
q = u.v est un projecteur tel que Ker q = Ker v et Im q = Im u.
Du coup, E = Im p ⊕ Ker p = Im v ⊕ Ker u , F = Ker q ⊕ Im q = Ker v ⊕ Im u et rg u = rg v .
2) Synthèse : existence de f-inverses.
a) Si E = Ker u ⊕ E1 et F = Im u ⊕ F1, et s’il existe une f-inverse v de u telle que Ker v = F1 et
−1 −1
Im v = E1, alors, soit y ∈ F , y = yImu + yF ; v(y) = v( yImu ) = ( u Im
E
u ) ( y
Imu ) = ( u E ) .q(y), où q
Imu
1 1 1

est le projecteur sur Im u parallèlement à F1. Réciproquement, définissons v ainsi.


Soit x ∈ E , x = xKeru + xE ; u(x) = u( xE ) , v.u(x) = xE et (u.v.u)(x) = u( xE ) = u(x).
1 1 1 1

Soit y ∈ F , y = yImu + yF ; v(y) = ( u Imu )−1( y


E Imu ) , (u.v)(y) = yImu , (v.u.v)(y) = v( yImu ) = v(y).
1 1

c) Cas particuliers.
• Si u est nulle, la seule f-inverse de u est l’application nulle.

41
• Si u est injective, u.v.u = u et v.u.v = v ⇔ v.u = idE . Les f-inverses sont les inverses à gauche.
• Si u est surjective, u.v.u = u et v.u.v = v ⇔ u.v = idF . Les f-inverses sont les inverses à droite.
−1
• Si u est bijective, la seule f-inverse de u est la bijection réciproque v = u .
3) Méthode matricielle.
Choisissons des bases de E et F telles que Mat(u, BE, BF) = Ir O .
O O

Cherchons v par sa matrice Mat(v, BF, BE) = 


X Y  . Alors u.v.u = u et v.u.v = v se traduisent par
 Z T 
Ir O  X Y  Ir O = Ir O et  X Y  Ir O  X Y  =  X Y 
O O  Z T  O O O O  Z T  O O  Z T   Z T 

c’est-à-dire par X = Ir et T = Z.Y, autrement dit Mat(v, BF, BE) = Ir Y  .


 Z ZY 

Exemple : La matrice   a pour f-inverses toutes les matrices 


10 1 y.
0 0 z zy
On retouve l’équivalence : v est une f-inverse de u ⇔ v est une g-inverse de u et rg u = rg v ,
car les matrices Ir Y  de rang r sont les matrices Ir Y  .
 Z T   Z ZY 
 Ir O  Ir Y  Ir −Y  = Ir O  est de rang r ssi T = ZY.
−Z In−r   Z T  O I p−r  O T −ZY 
t
Exemple de f-inverse : Soit A = X. Y une matrice de rang 1. Cherchons ses f-inverses B.
t t t t t
B est une g-inverse de rang 1 ; écrivons B = U. V . On veut X. Y.U. V.X. Y = X. Y .
t t t t t t
Cela s’écrit ( Y.U).( V.X).X. Y = X. Y , i.e. ( Y.U).( V.X) = 1. Il y a beaucoup de couples (U, V).
Si K = R, on peut prendre, U = Y et V = X (norme euclidienne usuelle).
Y² X²

1 1 1 1 1 2 3
Ainsi, si A = 2 2 2 2 , B = 1 1 2 3 est une f-inverse de A.
3 3 3 3 28 1 2 3
1 2 3
Remarque : Contrairement aux g-inverses, les f-inverses de u ne forment pas un sous-espace affine
de L(F, E), en général : la condition v.u.v = v est de nature quadratique.
C. Applications.
Dans cette partie on montre comment l’introduction des g-inverses permet de résoudre les systèmes
linéaires, et simplifie grandement les problèmes de factorisation d’applications linéaires déjà traités
dans un problème antérieur. Dans les questions 2, 3 et 4, pour montrer iii) ⇒ i), on passe par ii).
1) Résolution d’une équation linéaire.
Pour que l’équation u(x) = b ait au moins une solution, il faut et il suffit que b ∈ Im u.
Comme Im u = Im q , b ∈ Im u ⇔ b ∈ Im q ⇔ b = q(b) = (u.v)(b).
• Si b ≠ (u.v)(b), l’équation u(x) = b est sans solution.
• Si b = (u.v)(b), l’équation u(x) = b a au moins une solution, à savoir x0 = v(b).
Ses solutions sont de la forme x = x0 + y , où y décrit Ker u. Or Ker u = Ker p = Im(idE – p).
Par conséquent, les solutions de u(x) = b sont de la forme v(b) + (idE – v.u)(z), où z décrit E.
2) Factorisation à droite.
Soient a ∈ L(E, F), c ∈ L(G, F), a’ une g-inverse de a. Montrons l’équivalence des propriétés :

42
i) ∃x ∈ L(G, E) a.x = c ; ii) a.a’.c = c ; iii) Im c ⊂ Im a.
i) ⇒ ii) a.a’.c = a.a’.a.x = a.x = c ;
ii) ⇒ iii) a.a’.c = c implique Im c ⊂ Im a ;
iii) ⇒ ii) ∀z ∈ G c(z) ∈ Im a ⇒ a.a’(c(z)) = c(z), car a.a’ est projecteur sur Im a.
ii) ⇒ i) évident : prendre x = a’.c !
Supposons ces conditions satisfaites. Les solutions x de a.x = c sont de la forme a’.c + w, où w est
telle que a.w = 0, i.e. Im w ⊂ Ker a. On peut dire que w est une application linéaire de G dans Ker a.
Les solutions de a.x = c forment un sous-espace affine de dimension dim G×dim Ker a de L(G, E) .
3) Factorisation à gauche.
Soient c ∈ L(G, F), b ∈ L(G, H), b’ une g-inverse de b. Montrons l’équivalence des propriétés :
i) ∃x ∈ L(H, F) x.b = c ; ii) c.b’.b = c ; iii) Ker b ⊂ Ker c.
i) ⇒ ii) c.b’.b = x.b.b’.b = x.b = c ;
ii) ⇒ iii) c.b’.b = c implique Ker b ⊂ Ker c ;
iii) ⇒ ii) ∀z ∈ G c(z) ∈ Im a ⇒ a.a’(c(z)) = c(z), car a.a’ est projecteur sur Im a.
ii) ⇒ i) évident : prendre x = a’.c !
Supposons ces conditions satisfaites. Les solutions x de x.b = c sont de la forme c.b’ + w, où w est
telle que w.b = 0, i.e. Im b ⊂ Ker w. w est entièrement déterminée par sa restriction à un
supplémentaire de Im b dans H. Elles forment donc un sous-espace affine de L(H, F) de dimension
(dim H – rg b)×dim F .
4) Double factorisation.
Soient a ∈ L(E, F), c ∈ L(G, F), b ∈ L(G, H), a’ une g-inverse de a, b’ une g-inverse de b.
Montrons l’équivalence des propriétés suivantes :
i) ∃x ∈ L(H, E) a.x.b = c ; ii) a.a’.c.b’.b = c ; iii) Im c ⊂ Im a et Ker b ⊂ Ker c.
i) ⇒ ii) car a.a’.c.b’.b = a.a’.a.x.b.b’.b = a.x.b = c.
ii) ⇒ iii) car a.a’.c.b’.b = c ⇒ Im c ⊂ Im a et Ker b ⊂ Ker c.
iii) ⇒ ii) découle de 2) et 3), car Im c ⊂ Im a et Ker b ⊂ Ker c impliquent a.a’.c = c et c.b’.b = c,
donc a.a’.c.b’.b = c.b’.b = c.
ii) ⇒ i) est évident, car x = a’cb’ est solution de a.x.b = c.
Supposons ces conditions satisfaites. Les solutions x de a.x.b = c sont de la forme a’.c.b’ + w, où
a.w.b = 0, i.e. w(Im b) ⊂ Ker a ; w induit une application de Im b dans Ker a, sa restriction à un
supplémentaire de Im b étant quelconque. Donc ces solutions forment un sous-espace affine de
dimension dim Im b × dim Ker a + (dim H − dim Im b)×dim E = (dim E).(dim H) − (rg a).(rg b).
Je dis que les solutions de a.x.b = c sont données par x = a’.c.b’ + t − a’.a.t.b.b’, où t décrit L(H, E).
Il revient au même de dire que les solutions de a.w.b = 0 sont w = t − a’.a.t.b.b’, où t décrit L(H, E).
Tout d’abord, pour tout t ∈ L(H, E), a.(t − a’.a.t.b.b’).b = a.t.b – (a.a’.a).t.(b.b’.b) = 0.
Réciproquement, si a.w.b = 0, alors w = w − a’.a.w.b.b’ : t existe bel et bien !
Remarque : On peut déduire partiellement 4) de 1).
Considérons en effet l’application linéaire f : x ∈ L(H, E) → a.x.b ∈ L(G, F).
Elle admet pour g-inverse l’application g : y ∈ L(G, F) → a’.x.b’ ∈ L(H, E).
En effet, pour toute x : (f.g.f)(x) = a.a’.a.x.b.b’.b = a.x.b = f(x).
Du coup, en appliquant 1), l’équation f(x) = c a une solution ssi (f.g)(c) = c, i.e. a.a’.c.b.b’ = c et
alors ses solutions sont x = g(c) + (idL(H, E) – g .f)(t) = a’.c.b’ + t – a’.a.t.b.b’ , où t décrit L(H, E).
5) Factorisation simultanée.
Gardons a, b, a’, b’ comme en 4), et soient d ∈ L(H, F) et e ∈ L(G, E).
Montrons que le système de deux équations a.z = d et z.b = e a une solution z ∈ L(H, E) ssi chacune
de ces équations a une solution et a.e = d.b. Un sens est facile, comme toujours !

43
S’il existe z ∈ L(H, E) telle que a.z = d et z.b = e, chacune des équations a.z = b et z.b = e a une
solution, et de plus a.e = a.z.b = d.b.
Réciproquement, en vertu de 4) :
L’équation a.z = d a une solution ssi a.a’.d = d ; et ses solutions sont z = a’.d + t – a’.a.t ;
L’équation z.b = e a une solution ssi e.b’.b = e ; et ses solutions sont z = e.b’ + s – s.b.b’.
Si de plus a.e = d.b , z = a’.d + e.b’ – a’.a.e.b’ = e.b’ + a’.d – a’.d.b.b’ est de l’une et l’autre forme.
D. Etude des pseudo-inverses.
1) Unicité du p-inverse. Soient v et v’ deux p-inverses de u.
D’une part, u.v.u.v’ = (u.v.u)v’ = u.v’.
D’autre part, u.v.u.v’ = (u.v)(u.v’) = (v.u)(v’.u) = v.(u.v’.u) = v.u.
Conclusion : u.v’ = v.u. D’où v = v.u.v = v.v.u = v.u.v’ = u.v’.v’ = v’.u.v’ = v’. CQFD.
2) Généralités.
+ + ++
u et v jouant des rôles symétriques, v = u ⇒ u = v , et u = u.
+ −1 +
Si λ ∈ K* , λu a pour pseudoinverse (λu) = λ u .
k k + + k
Pour tout k ∈ N, u a pour pseudoinverse (u ) = (u ) .
+
En effet, en vertu de la commutation de u et u ,
k + k k + k k k + k k + k k + k k + k
(u ).(u ) .(u ) = (u.u .u) = (A ) , (u ) .(u) .(u ) = u , (u ).(u ) = (u ) .(u) .
tu a pour pseudoinverse (tu)+ = t(u+) . r−1.u.r a pour pseudoinverse (r−1.u.r)+ = r−1.u+.r .
Enfin, O a pour pseudoinverse O elle-même, car OOO = O, etc !
+ −1
c) Si u est inversible, u est pseudoinversible et u = u .
2 +
Remarque : Si u = u, u est un projecteur, u est pseudoinversible et u = u.
k + k−1
Plus généralement encore, si k ≥ 2, u = u ⇔ u est pseudoinversible et u = u .
3) Caractérisation des endomorphismes pseudoinversibles.
Montrons l’équivalence des 12 propriétés suivantes :
i) u est pseudoinversible ;
2
ii) Im u ∩ Ker u = {0} ; iii) Ker u = Ker u ;
2 2
iv) E = Im u + Ker u ; v) Im u = Im u ; vi) rg u = rg u ;
vii) E = Im u ⊕ Ker u ;
2 2
viii) ∃v ∈ L(E) u .v = u ; ix) ∃w ∈ L(E) w.u = u ;
x) Il existe une base B de E telle Mat(u, B) = 
R O ∈ M (K), où R ∈ GL (K), 0 ≤ r ≤ n ;
O O
n r
2
xi) Le polynôme minimal µu(X) de u n’est pas divisible par X ;
2 3
xii) u ∈ Vect(u , u , … ) .
Allons d’abord à l’essentiel.
i) ⇒ vii) En effet, avec les notations de A), p = q, E = Im p ⊕ Ker p s’écrit E = Im u ⊕ Ker u.
vii) ⇒ x) Im u est toujours u-stable, car u( Im u ) ⊂ Im u.
Notons w l’endomorphisme induit. Il est injectif, car Ker w = Ker u ∩ Im u = {0}.
Comme Im u est un espace vectoriel de dimension finie, w est bijectif.
Soient (a1, …, ar) une base de Im u, (ar+1, …, an) une base de Ker u, et B = (a1, …, an) la base
« recollée ». Alors Mat(u, B) = 
R O , où R ∈ Gl (K) en tant que matrice de w relativement à la
O O
r

base (a1, …, ar). Remarque : Si r = 0, u est nul.

x) ⇒ i) Soit v l’endomorphisme tel que Mat(v, B) =


R−1 O .
 O O
Il est facile de vérifier que v est p-inverse de u.

44
x) ⇒ xi) Soit M = diag(A, B), où A ∈ Mr(K) et B ∈ Mn−r(K), une matrice diagonale par blocs.
Le polynôme minimal de M est le ppcm des polynômes minimaux de A et de B.

Du coup, le minimal de M = 
R O ∈ M (K), où R ∈ GL (K), 0 ≤ r ≤ n, est le ppcom des
 O
O n
 
r
minimaux de R et O.
• Si r = n, le minimal d’une matrice inversible R est de valuation nulle.
• Si r = 0, le minimal de M est X.
• Si 0 < r < n, le minimal de A est le ppcm d’un polynôme de valuation 0 et de X.
Dans les trois cas, il est de la forme X, Q(X) ou X.Q(X), avec Q(0) ≠ 0.
L’équivalence de xi) et xii) est facile.
xi) ⇒ i) De deux choses l’une :
• Soit le minimal de u est de la forme µu(X) = a + X.Q(X), avec a ≠ 0.
−1
Alors u est inversible, et u = − 1 Q(u).
a
2
• Soit le minimal de u est de la forme µu(X) = bX + X .Q(X), avec b ≠ 0.
Alors u n’est pas inversible, mais a pour pseudoinverse : v = − 1 Q(u).
b
Le reste est facile, et laissé en exercice.
4) Exemples et contre-exemples.
Les endomorphismes inversibles et les endomorphismes diagonalisables sont pseudo-inversibles.
La matrice A =   n’est pas pseudoinversible, car rg A ≠ rg A , Ker A = Im A, etc.
01 2
0 0
Plus généralement, le seul endomorphisme nilpotent et pseudoinversible est l’endomorphisme nul.
Le produit de deux matrices pseudoinversibles ne l’est pas toujours :     =   .
1 0 01 01
0 0 0 1 0 0
Plus généralement, toute matrice A s’écrit sous la forme E.B, où E est un projecteur et B une matrice
inversible. En effet si Q .A.P = Ir O , il suffit d’écrire A = Q Ir O Q .Q.P .
−1 −1 −1
O O O O
Donc toute matrice carrée est produit de deux matrices pseudoinversibles.
Les endomorphismes pseudoinversibles ne forment donc pas un groupe multiplicatif, mais une
réunion de groupes, comme on le verra dans le problème suivant.
Annexe : division vectorielle et pseudo-inverses
Voici un tout autre exemple d’endomorphisme pseudoinversible.
Soient E un espace vectoriel euclidien orienté de dimension 3, ω un vecteur non nul de E,
u l’endomorphisme de E défini par u(x) = ω ∧ x.
Il est clair que Im u ∩ Ker u = {0}.

En effet, Im u ⊂ (R.ω) car tout vecteur de la forme ω ∧ x est orthogonal à ω, et Ker u = R.ω.

Les résultats précédents impliquent que E = Im u ⊕ Ker u et que Im u = (R.ω) .
Autrement dit u n’est pas inversible mais est pseudo-inversible.
Reste à en trouver un pseudoinverse.
Introduisons une base orthonormée B directe de la forme (i , j , k = ω ).
ω
0 −1 0
La matrice de u relativement à B est A = || ω ||. 1 0 0 .
0 0 0

45
2 2
1 0 0 3 3
0 −1 0 2
On en déduit A = − || ω || . 0 1 0 , puis A = − || ω || . 1 0 0 = − || ω || .A.
0 0 0 0 0 0
+ +
Ainsi A = − 1 .A, et u = − 1 .u.
ω² ω²
Du coup, cherchons à résoudre ω ∧ x = b.
Si (ω | b) ≠ 0, pas de solution.
+
Si (ω | b) = 0, les solutions sont x = u (b) + λω, où λ décrit R.
3 2
Remarque : le polynôme minimal de A, donc de u, est µu(X) = X + || ω || .X.
Références :
Téchené, RMS janvier 1984
Glazman-Lioubitch: Analyse linéaire dans les espaces de dimension finie (Mir), p. 323-325
Ikramov, Exercices d’algèbre linéaire (Mir), p. 179 et 214-219
Rao-Mitra : Generalized inverse of matrices (Wiley)
Problèmes ENSAE 1970 et 1985, X 1981 et 1986, ENS 1988, INT 1989, etc.
____________

Problème 13 : Matrices pseudo-inversibles

Toutes les matrices considérées dans ce problème sont à coefficients dans le corps commutatif K.
Soient Mn(K) l’algèbre des matrices carrées d’ordre n, In sa matrice unité.
Pour tout matrice A ∈ Mn(K), on identifie A et l’endomorphisme de Kn qu’elle définit dans la base
canonique de cet espace, ce qui autorise à considérer l’image Im A et le noyau Ker A de A.
Pour tout entier d ≥ 1, on définit Ad = A.Ad−1 avec A0 = In.
Pour toute matrice A inversible, c’est-à-dire appartenant au groupe linéaire GLn(K), on note A−1
l’inverse de A.

Première partie : matrices pseudoinversibles.


La matrice A ∈ Mn(K) est dite pseudo-inversible s’il existe une matrice B ∈ Mn(K) vérifiant :
ABA = A , BAB = B et AB = BA . B est dite pseudoinverse de A.
1) Premières propriétés.
a) Soit A une matrice pseudoinversible, B et B' deux pseudoinverses de A.
Calculant ABAB' , établir que AB' = BA , puis que B = B'.
Si A est pseudoinversible, sa pseudoinverse est unique : on la note B = A+ .
b) Montrer que les matrices suivantes ont une pseudoinverse, et la déterminer :
A+ , λA (λ ∈ K*) , Ak (k ∈ N*) , tA , R−1AR (R ∈ GLn(K)) , O (matrice nulle).
c) Exemples :
• Montrer que si A est inversible, A est pseudoinversible ; que vaut alors A+ ?
2
• Montrer que si A = A, A est pseudoinversible ; que vaut alors A+ ?
2) Caractérisation des matrices pseudoinversibles.
Dans cette question, on se propose d’établir l’équivalence des 4 propriétés suivantes :
i) A est pseudoinversible ;
ii) Kn = Im A ⊕ Ker A ;
 
iii) A est semblable à une matrice-bloc A1 O ∈ Mn(K) , où A1 ∈ GLr(K), 0 ≤ r ≤ n.
 O O 

46
2
iv) Le polynôme minimal µA(X) de A n’est pas divisible par X .

a) Soit A pseudoinversible, B = A+ . On note P = AB.


2
Comparer P et P , Ker P et Ker A , Im P et Im A. En déduire i) ⇒ ii).
b) Soit A ∈ Mn(K) telle que Kn = Im A ⊕ Ker A . Montrer que Im A est un sous-espace A-
stable de Kn , et que A induit un automorphisme de Im A. En déduire ii) ⇒ iii).
c) Montrer iii) ⇒ i).
d) Soit M = diag(A1, A2)∈Mn(K), où A1 ∈ Mr(K) et A2 ∈ Mn−r(K), une matrice diagonale par
blocs. Exprimer le polynôme minimal de M en fonction de ceux de A1 et A2. En déduire iii) ⇒ iv).
e) On suppose µA(X) = X.Q(X) , où Q(0) ≠ 0 .
Déterminer deux polynômes U et V tels que 1 = X.U(X) + V(X).Q(X).
2
Montrer que A a pour pseudoinverse A+ = A.U(A) . Montrer que iv) ⇒ i)
3) Exemples :
a) Montrer que les matrices suivantes sont pseudoinversibles, et calculer leur pseudoinverse :
1 1 1 1 2 1
D = diag(λ1, …, λr, 0, …, 0) (λk ≠ 0) , 1 1 1 , 2 4 2 .
1 1 1 1 0 0
t
b) Montrer que A est de rang 1 si et seulement si A s’écrit A = X. Y, où X et Y sont des
t
vecteurs colonnes non nuls. Trouver une cns portant sur tr A = Y.X pour que A soit pseudo-
+
inversible ; si cette condition est remplie, que vaut A ?

c) Soit A =  A1 A2  , où A1 ∈ Glr(K). Montrer que A est pseudoinversible et que A a la même


+
 O O 

forme  B1 B2  , où l’on calculera B1 et B2 en fonction de A1 et A2.


 O O 
d) Indiquer une matrice non pseudo-inversible dans M2(K), puis deux matrices pseudo-
inversibles dont le produit ne l’est pas.

Deuxième partie : groupes multiplicatifs matriciels.


Dans cette partie, on se propose d’étudier les groupes multiplicatifs de matrices contenus dans
Mn(K), et de caractériser leurs éléments. On souligne qu’en général de tels groupes G ne sont pas
toujours des sous-groupes de Gln(K), et peuvent contenir des matrices de rang r < n : ainsi, {O} est
un groupe multiplicatif de matrices.
1) Exemples :
a) Montrer que G = { 
x 0 ; x ∈ K−{0}} est un groupe multiplicatif de matrices.
 x 0
0 −2 −2 k
b) La matrice A = 1 2 0 −1 ∈ M3(R) est-elle inversible ? Montrer que G = {A ; k ∈ N*}
3 2 1 0 

est un groupe multiplicatif de matrices. Combien a-t-il d’éléments ? Quel est son neutre E ? Nature
géométrique de l’endomorphisme canoniquement associé à E ? Quel est l’inverse de A dans G ?
2) Soient G un groupe multiplicatif inclus dans Mn(K), et E son élément neutre. Si A ∈ G, on note
A’ son inverse dans G : on a donc A.E = E.A = A et A.A’ = A’.A = E.

47
a) Montrer que Kn = Im E ⊕ Ker E , et que E est semblable à une matrice  I r O  , où 0 ≤ r ≤ n.
O O 
b) Soit A∈G. Comparer Im A et Im E, Ker A et Ker E. En déduire que toutes les matrices A∈G
 
ont même rang r, et sont semblables à des matrices de la forme A1 O , où A1 ∈ GLr(K).
 O O 
3) Pour chaque entier r, caractériser les groupes multiplicatifs de matrices de rang r, à l’aide des
sous-groupes de GLr(K).
4) Soit A ∈ Mn(K). Montrer l’équivalence des propriétés :
i) A appartient à un groupe multiplicatif ;
ii) A est pseudo-inversible.
+
Comparer A et A’. En déduire que A’ est indépendant du groupe G auquel A appartient.
1
5) On se propose de trouver toutes les fonctions M : t∈R → M(t)∈Mn(R) de classe C et vérifiant
∀(s, t) ∈ R×R M(s + t) = M(s).M(t).
a) Montrer que { M(t) ; t ∈ R } est un groupe multiplicatif de matrices.
b) Montrer qu’il existe, dans Mn(R), deux matrices P et A telles que
2 tA
P = P , PA = AP = A et (∀t ∈ R) M(t) = P.e .
____________

Solution

Ce problème un peu dérangeant se propose d’étendre la notion de matrice inversible à une classe
+
plus grande que Gln(K), tout en conservant le caractère involutif de la pseudo-inversion : A → A .
En revanche, la classe des matrices obtenues ne sera pas stable par produit.
Première partie.
1) Généralités.
a) Unicité de la pseudo-inverse.
D’une part, ABAB’ = (ABA)B’ = AB’.
D’autre part, ABAB’ = (AB)(AB’) = (BA)(B’A) = B(AB’A) = BA.
Conclusion : AB’ = BA. D’où B = BAB = BBA = BAB’ = AB’B’ = B’AB’ = B’. CQFD.
+ + ++
b) A et B jouant des rôles symétriques, B = A ⇒ A = B , et A = A.
+ −1 +
Si λ ∈ K* , λA a pour pseudoinverse (λA) = λ A .
k k + + k
Pour tout k ∈ N, A a pour pseudoinverse (A ) = (A ) .
+
En effet, en vertu de la commutation de A et A ,
k + k k + k k k + k k + k k + k k + k
(A ).(A ) .(A ) = (A.A .A) = (A ) , (A ) .(A) .(A ) = A , (A ).(A ) = (A ) .(A) .
tA a pour pseudoinverse (tA)+ = t(A+) .
−1 −1 + −1 +
R AR a pour pseudoinverse (R AR) = R A R .
Enfin, la matrice O a pour pseudoinverse O elle-même, car OOO = O, etc !
+ −1
c) Si A est inversible, A est pseudoinversible et A = A .
2 +
Si A = A, A est un projecteur, A est pseudoinversible et A = A.
Remarques et compléments :
k + k−1
1) Plus généralement, si k ≥ 2, A = A ⇔ A est pseudoinversible et A = A (cf. II.1.b).
2 + −1
2) Si A = MP, où M ∈ Gln(K), P = P et MP = PM, alors A est pseudoinversible et A = M P.

48
+ + +
3) Si A et B sont pseudoinversibles, alors diag(A, B) aussi, et diag(A, B) = diag(A , B ).
+ + +
De même, A ⊗ B est pseudoinversible et (A ⊗ B) = A ⊗ B .
2) Caractérisation des matrices pseudoinversibles.
2
a) Si A a pour pseudoinverse B, P = AB est un projecteur car P = ABAB = AB = P. De plus :
♣ P = AB ⇒ Im P ⊂ Im A
♦ P = BA ⇒ Ker A ⊂ Ker P.
♥ A = ABA = PA ⇒ Im A ⊂ Im P
♠ A = ABA = AAB = AP ⇒ Ker P ⊂ Ker A.
Au final, Ker A = Ker P et Im A = Im P.
n
Comme P est un projecteur, K = Im P ⊕ Ker P = Im A ⊕ Ker A.
n
b) Supposons K = Im A ⊕ Ker A.
Im A est toujours A-stable, car A( Im A ) ⊂ Im A. Notons U l’endomorphisme induit.
Il est injectif, car Ker U = Ker A ∩ Im A = {0}.
Comme Im A est un espace vectoriel de dimension finie, U est bijectif.
Soient (a1, …, ar) une base de Im A, (ar+1, …, an) une base de Ker A, et B = (a1, …, an) la base
recollée. Alors l’endomorphisme ϕA canoniquement associé à A a pour matrice

Mat(ϕA, B) =  A1 O , où A1 ∈ Glr(K) en tant que matrice de U relativement à la base (a1, …, ar).


 O O

Cela revient à dire que R AR =  A1 O , où A1 ∈ Glr(K) et R est la matrice de passage de la base


−1
 O O
n
canonique de K à B.
Remarque : Si r = 0, A est nulle.

c) Si D =  A1 O , où A1 ∈ Glr(K), alors D est pseudoinversible et D =  1


+ A−1 O : facile.
 O O  O O

Par 1b), si R AR =  A1 O , où A1 ∈ Glr(K), A est pseudoinversible et R A R =  1


−1 −1 + A−1 O .
 O O  O O
Ainsi, iii) ⇒ i).
Remarque : On en déduit au passage une réciproque d’une précédente remarque : si A est pseudo-
inversible, elle s’écrit A = MP, où M ∈ Gln(K), P = P et MP = PM. En effet, si R AR =  A1 O ,
2 −1
 O O

où A1 ∈ Glr(K), on posera R MR =
−1  A1 O  , où A ∈ Gl (K), et R−1PR = Ir O .
 O A2  2 n−r O O
d) Soit M = diag(A1, A2), où A1 ∈ Mr(K) et A2 ∈ Mn−r(K), une matrice diagonale par blocs.
Le polynôme minimal de M est le ppcm des polynômes minimaux de A1 et de A2, car
P(M) = diag(P(A1), P(A2)) = O ⇔ P(A1) = P(A2) = 0 ⇔ P est multiple commun des polynômes
minimaux de A1 et A2 .

Du coup, si A est semblable à une matrice-bloc  A1 O  ∈ Mn(K), où A1 ∈ GLr(K), 0 ≤ r ≤ n, alors


 O O
le polynôme minimal de A est le ppcm des minimaux de A1 et O.
• Si r = n, le minimal d’une matrice inversible A est de valuation nulle.
• Si r = 0, le minimal de A est X.
• Si 0 < r < n, le minimal de A est le ppcm d’un polynôme de valuation 0 et de X.
Dans les trois cas, il est de la forme X, Q(X) ou X.Q(X), avec Q(0) ≠ 0.

49
Remarque : Ainsi, comme l’inverse, la pseudoinverse de A est un polynôme de A, dépendant de A.
Il en résulte que si A appartient à une sous algèbre de Mn(K), il en est de même de sa pseudoinverse
+
éventuelle. Par exemple, si A est trigonale supérieure, A itou.
3) Critères de pseudoinversibilité.
2 2 2
a) Si rg A = rg A , alors Ker A = Ker A (inclusion Ker A ⊂ Ker A et égalité des dimensions).
Du coup, Ker A ∩ Im A = {0}.
2
En effet y ∈ Ker A ∩ Im A ⇒ (∃x) y = Ax et Ay = 0 ⇒ A x = 0 ⇒ y = Ax = 0.
En vertu du th. du rang, dim (Ker A ⊕ Im A) = dim Ker A + dim Im A = n, donc E = Im A ⊕ Ker A.
Réciproquement, si R AR =  A1 O , où A1 ∈ Glr(K), R A R =  1  , et r = rg A = rg A .
−1 −1 2 A2 O 2
 O O  O O
2 3 2
b) Si A ∈ Vect( A , A , … ), alors on peut écrire A = A .Q(A), où Q est un polynôme de A.
2 2
Il en résulte que Im A ⊂ Im A ; comme l’inclusion réciproque est toujours vraie, rg A = rg A et A
est pseudoinversible.
2 + 2 2
Remarque : je dis que si A = A .Q(A) où Q ∈ K[X], alors A = A.Q(A) . Notons B = A.Q(A) .
2 2
B étant un polynôme de A, commute avec A. Il reste à montrer que A B = A et B A = B.
2 3 2 2 2
• A B = A .Q(A) = A .Q(A).AQ(A) = AA.Q(A) = A .Q(A) = A.
k k+1
• L’autre égalité n’est pas coton ! Tout d’abord (∀k ≥ 1) A = A .Q(A).
Attention, cela est faux pour k = 0. En tout cas, par linéarité, on en déduit que :
2
∀P ∈ K[X] A.P(A) = A .P(A).Q(A).
2 2
En particulier A.Q(A) = A .Q(A) . Le lecteur peut alors conclure.
4) Exemples.
a) Toute matrice diagonale D = diag( λ1, …, λr, 0, …, 0 ) (λk ≠ 0), est pseudoinversible et
+ −1 −1
D = diag( λ1 , …, λr , 0, …, 0 ) .
Vérification facile directe. On notera que Im D = Vect(e1, …, er) et Ker D = Vect(er+1, …, en).
Conséquence : toute matrice diagonalisable est pseudoinversible.
1 1 1
La matrice A = 1 1 1 ∈ M3(R) est de rang 1. Elle a pour image R.(1, 1, 1) et pour noyau le plan
1 1 1
d’équation x + y + z = 0. Image et noyau sont supplémentaires.
1 1 0  −1
3 0 0
−1 +
1/3 0 0
+
1 1 1
Posons R = 1 −1 1  , alors R .A.R = 0 0 0 , d’où R .A .R =  0 0 0 , et A = 1 1 1 1 .
1 0 −1 0 0 0  0 0 0 9 1 1 1
 
b) Matrices de rang 1.
t
Soit A∈Mn(K) de rang 1. On sait qu’elle s’écrit A = X. Y, où X et Y sont des vecteurs colonnes non
t t
nuls. Im A = K.X et Ker A = {Z ; Y.Z = 0} sont supplémentaires ssi X∉Ker A, i.e. tr A = Y.X ≠ 0.
+ + +
Comme on a toujours Im A = Im A et Ker A = Ker A, on a A = αA.
2 + A .
Et A = (tr A).A implique assez vite que A =
(trA)²
Application à l’étude des matrices de M2(K).
• Si rg A = 2, A est inversible.
• Si rg A = 0, A est nulle, donc pseudoinversible.
• Si rg A = 1 et tr A ≠ 0, A est pseudoinversible.
• Si rg A = 1 et tr A = 0, A n’est pas pseudoinversible.

50
Autrement dit, dans M2(K) on a l’alternative : soit A est pseudoinversible, soit A est nilpotente non
nulle. Ce n’est plus vrai dans M3(K).

c) Soit A =  A1 A2  , A1∈Glr(K). A =  A1 A1 A2  est de rang r, donc A est pseudo-inversible.


2 2

 O O   O
O 
 
Il est logique de chercher B = A sous la même forme B1 B2 , car on sait que Im A = Im A.
+ +
 O O 
2 2 +
Cela découle de la forme réduite, ou de ce que A = BA et B = AB , avec B = A .

Un calcul par blocs montre alors que A =  A1 A1 A2  .


+ −1 −2

 O O 

On peut aussi réduire A par pivot matriciel : si P = Ir − A1 A2  , alors P = Ir A1 A2  ,


−1 −1 −1

O O  O O 

P AP =  A1 O et P A P =  1
−1 −1 + A−1 O ...
 O O  O O
d) Contre-exemples.
La matrice A =   n’est pas pseudoinversible, car rg A ≠ rg A , Ker A = Im A, etc.
01 2
0 0
De façon plus générale, la seule matrice nilpotente et pseudoinversible est la matrice nulle.
Car si r > 0, les puissances successives de  A1 O  ∈ Mn(R), où A1 ∈ Glr(K), ne sont jamais nulles.
 O O

Le produit de deux matrices pseudoinversibles ne l’est pas toujours :     =   .


1 0 01 01
0 0 0 1 0 0
Plus généralement, toute matrice A s’écrit sous la forme E.B, où E est un projecteur et B une matrice
inversible. En effet si Q .A.P = Ir O , il suffit d’écrire A = Q Ir O Q .Q.P .
−1 −1 −1
O O O O
Donc toute matrice carrée est produit de deux matrices pseudoinversibles.
Les matrices pseudoinversibles ne forment donc pas un groupe multiplicatif, mais une réunion de
groupes, comme on le verra dans la partie II

Annexe : Programmes informatiques.

Nous allons donner deux programmes de reconnaissance de la pseudoinversibilité d’une matrice et


de calcul de A+, l’un fondé sur le polynôme minimal, le second plus linéaire.
> #pseudoinversibilité d'une matrice carrée.
> with(linalg):
> pseudoinv1:=proc(A)
> local M,p,R,x;
> M:=minpoly(A,x);M:=M/tcoeff(M);p:=ldegree(M);
> if p=0 then R:=quo(1-M,x,x);
> print(`A est inversible d'inverse:`, evalm(subs(x=A,R)));
> elif p=1 then R:=quo(x-M,x^2,x);
> print(`A est pseudoinversible de
pseudoinverse:`,evalm(subs(x=A,expand(x*R^2))));
> else print(`A n'est pas pseudoinversible`);fi;end;
> A:=diag(1,1/2,3);pseudoinv1(A);

 1 0 0  1 0 0
   
   0 2 0 
A est inversible d'inverse:, 
1
A :=  0 0 
 2   1
   0 0 
 0 3  3 
 0 

51
> A:=diag(1,1/2,0);pseudoinv1(A);
 1 0 0 1 0 0
   

A :=  0
1 
0

A est pseudoinversible de pseudoinverse: ,  0 2 0
   
0
2
  0 0
 0 0
 0
> A:=matrix(3,3,1);pseudoinv1(A);  1 1 1 
 
 9 9 9 
1 1 1  
 
   1 1 1 
A :=  1 1 1 A est pseudoinversible de pseudoinverse: , 
 9 9 9



   
1 1 1 
 1 1 1 

 9 9 9 
 

> A:=matrix(3,3,[1,2,1,2,4,2,1,0,0]);pseudoinv1(A);

1 2 1  -4 2 1
   
A :=  2 4 2 
A est pseudoinversible de pseudoinverse: ,  -8 4 2
   
1 0 0 21 -10 -5
> A:=matrix(2,2,[0,1,0,0]);pseudoinv1(A);
0 1
A :=  
A n'est pas pseudoinversible
0 0
> pseudoinv2:=proc(A)
> local im,ker,P,reduc,B,n,p,r;
> n:=rowdim(A);p:=coldim(A);
> if n<>p then print(`A non carrée`);
> else r:=rank(A);im:=colspan(A);ker:=kernel(A);
> P:=transpose(matrix([op(im),op(ker)]));
> if rank(P)<>n then print(`A n'est pas pseudoinversible`);
> elif iszero(A) then print(`A a pour pseudoinverse:`,A);
> elif r=n then print(`A est inversible, d'inverse:`, inverse(A));
> else reduc:=multiply(inverse(P),A,P);
> B:=multiply(P,diag(inverse(submatrix(reduc,1..r,1..r)),band([0],n-
r)),inverse(P)); print(`A a pour pseudoinverse:`,B);fi;fi;end;
> A:=matrix(3,2,1);pseudoinv2(A);
1 1
  A non carrée
A :=  1 1
 
1 1
> A:=matrix(2,2,0);pseudoinv2(A);

A a pour pseudoinverse: , 


0 0 0 0
A :=   
0
0 0 0
> A:=matrix(2,2,[0,1,0,0]);pseudoinv2(A);
0 1
A :=   A n'est pas pseudoinversible
0 0
> A:=matrix(3,3,1);pseudoinv2(A);
 1 1 1 
 
 9 9 9 
1 1 1  
 
   1 1 1 
A :=  1 1 1 A a pour pseudoinverse: , 
9 9 9


   
1 1 1 
 1 1 1


 
 
 9 9 9 
> A:=matrix(3,3,[1,2,1,2,4,2,1,0,0]);pseudoinv2(A);

52
1 2 1  -4 2 1
   
A :=  2 4 2 A a pour pseudoinverse: ,  -8 4 2
   
1 0 0 21 -10 -5
> A:=diag(1,2,3,0);pseudoinv2(A);
 1 0 0 0
 
1 0 0 0  1 
  
 0 0 0
0 2 0 0  2 
A :=   A a pour pseudoinverse: ,  

0 0 3 0 

1
0
  
0 0
3 
0 0 


 0 0  0 0 0 0

Deuxième partie.
1) Exemples.
a) Les sous-groupes de Gln(K) sont des groupes multiplicatifs de matrices, mais il en est d’autres.
b) Ainsi, si on pose M(x) =   pour tout x ∈ K*, on a aussitôt M(x).M(y) = M(xy).
x0
x 0
L’ensemble G = { M(x) ; x ∈ K* } est stable par multiplication. La loi induite est associative, admet
pour neutre E = M(1), et M(x) est inversible dans G d’inverse M(1/x).
G est donc un groupe multiplicatif de matrices sans être un sous-groupe de Gl2(K).
cosθ −sinθ 0
c) Il en est de même de H = { sinθ cosθ 0 ; θ ∈ R }.
 0 0 0
3 4 2 5 2 3 4
d) On constate que A = − A, A = − A , puis A = A, de sorte que G = { A, A , A , A }.
G a 4 éléments, est stable pour la multiplication, et la loi induite est commutative.
× A 2
A A
3
A
4

A 2 3 4 A
A A A
2 3 4 A 2
A A A A
3 4 A 2 3
A A A A
4 A 2 3 4
A A A A
4
On voit sur la table que l’élément neutre est E = A , et que tout élément est inversible.
Ainsi, G est un groupe, d’ailleurs cyclique et engendré par A.
2
E = E, donc E est un projecteur, auto-adjoint car A est antisymétrique.
On constate après calcul que c’est l’orthoprojecteur sur le plan d’équation x – 2y + 2z = 0.
3
L’inverse de A dans G est A ; c’est aussi (voir la suite !) la pseudo-inverse de A.
k
Plus généralement, si A est une matrice telle que A = A, où k ≥ 2, k étant le plus petit indice tel que
k n k−1
A = A, alors G = { A , n ≥ 1} est un groupe multiplicatif à k éléments, de neutre A , et cyclique.
2 n
2) a) On a aussitôt E = E : E est un projecteur, donc K = Im E ⊕ Ker E.
Soient B la réunion d’une base de Im E et d’une base de Ker E, et P la matrice de passage de la base
−1  
canonique de K à cette base, P EP = I r O .
n
O O 
b) AE = EA = A implique Im A ⊂ Im E et Ker E ⊂ Ker A.
AA’ = A’A = E implique Im E ⊂ Im A et Ker A ⊂ Ker E.
Ainsi P AP =  A1 O , où A1 ∈ Mr(K).
−1
 O O

53
n
De plus A induit un automorphisme de Im A, puisque K = Im A ⊕ Ker A. Donc toutes les matrices
appartenant à G ont même rang, et A1 ∈ Glr(K).
3) L’application Φ : A → A1 est un homomorphisme de groupes de G dans Glr(K). Son image est
un sous-groupe de Glr(K). Réciproquement, si l’on se donne un entier r ∈ {0, 1, …, n}, un sous-
groupe H de Glr(K) et une matrice carrée inversible P, il est facile de vérifier que :

{ P−1  A1 O P ; A ∈ H } est un groupe multiplicatif matriciel.


 O
1
O
4) Il découle de 2b) que si A appartient à un groupe G, elle est pseudoinversible.

Réciproquement, si A est pseudoinversible, et si P AP =  A1 O , où A1 ∈ Glr(K), alors A ∈ G, où


−1
 O O

G = { P B1 O P ; B1 ∈ Glr(K) }.


−1
 O O
+
Du coup, A’AA’ = A, A’AA’ = E et AA’ = A’A : A = A’. En vertu de l’unicité de la pseudo-
inverse, A’ est indépendant du groupe multiplicatif auquel A appartient.
5) Application à une équation fonctionnelle.
a) G = { M(t) ; t ∈ R } est stable car M(s).M(t) = M(s + t).
La loi induite est associative, a pour neutre P = M(0), et M(s) a pour inverse M(−s) dans G.
b) Posons M(0) = P.
Dérivons en s et en t : M’(s + t) = M’(s).M(t) = M(s).M’(t).
En particulier M’(t) = A.M(t) = M(t).A, où A = M’(0), et A = AP = PA.
On conclut que M(t) = P.exp(tA) par la méthode de variation des constantes : t → M(t).exp(−tA) a
une dérivée nulle et vaut P en 0. cqfd.
Remarque : le même résultat vaut si l’on suppose M seulement continue, grâce à la méthode de
renforcement d’Euler.

Références : X M’ 1986, ENS Ulm 1988, etc.


__________

Problème 14 : matrices-blocs

Ce problème est consacré à l’étude des matrices partitionnées en blocs.


K désigne un corps commutatif. A toute matrice A à n lignes et p colonnes à éléments dans K
p n
correspond l’application linéaire canoniquement associée ϕA : K → K .

I. Généralités.
A A 
1) Soit A =  1 2  ∈ MK(n, p) une matrice rectangulaire, partitionnée en blocs rectangulaires.
 A3 A4 
 
De quelles applications linéaires A1 ,  A1 O et A1 sont-elles les matrices ?
 A   O O
 3  
On peut déduire de ces résultats la formule donnant le produit de deux matrices blocs de formats
A A  B B 
convenables,  1 2  et 1 2 ; cette formule sera admise dans la suite.
 A3 A4  B3 B4 

54
2) a) Soit A ∈ MK(n, p) de rang r. Démontrer qu’il existe des matrices inversibles P ∈ Glp(K) et Q

Q .A.P = Ir O .
−1
∈ Gln(K) telles que
O O
b) Montrer qu’une matrice de rang r peut s’écrire comme somme de r matrices de rang 1, mais
ne peut pas s’écrire comme somme de moins de r matrices de rang 1.
c) Soit A une matrice carrée d’ordre n, à termes réels ou complexes, de rang r < n. Montrer
qu’elle est limite d’une suite de matrices inversibles.
3) a) Démontrer qu’il existe au moins une matrice B ∈ MK(p, n) telle que A.B.A = A.
P .B.Q = 
[ On pourra poser −1 X Y  , avec les notations de 1.a) ]
 Z T 
n
b) On cherche à résoudre le système linéaire (S) Ax = b, où b est un vecteur donné de K et x le
p
vecteur-colonne des inconnues dans K . Montrer que (S) a une solution si et seulement si b = AB.b,
p
et que les solutions de (S) sont données par x = B.b + ( Ip – BA ).z , où z décrit K .
4) a) Soient A ∈ MK(n, p) et B ∈ MK(p, n). Montrer que rg( Ip − BA ) + n = p + rg( In − AB ).
En déduire que rg( In − AB ) = n – p ⇔ BA = Ip . [ Raisonner comme en 3.a) ]
 0 −1 −1
b) Soient A ∈ MR(3, 2) et B ∈ MR(2, 3) deux matrices telles que AB = −1 0 −1 .
 1 1 2 
2
Calculer (AB) ; conséquence ? Montrer que BA = I2 .

5) a) Soit A∈Mn(K). Montrer que si A est de rang < n, A est équivalente à une matrice nilpotente.
b) Soit f : Mn(K) → K une application non constante vérifiant ∀(A, B) f(AB) = f(A).f(B).
Montrer l’équivalence : A non inversible ⇔ f(A) = 0.
c) Donner des exemples de telles applications.
6) Soit A ∈ MK(n, p) de rang r. Montrer qu’il existe une sous-matrice carrée d’ordre r inversible.
Que peut-on dire des sous-matrices extraites d’ordre > r ?
A A 
Par quelles opérations peut-on ramener A à la forme  1 2  , où A1 ∈ Glr(K) ?
 A3 A4 
A A 
7) On suppose toujours A ∈ MK(n, p) de rang r, et de la forme A =  1 2  , où A1 ∈ Glr(K).
 A3 A4 
−1
a) Montrer que A4 = A3.A1 .A2 .
b) Im A est un sous-espace de dimension r de Kn. En indiquer une base.
Indiquer une matrice B ∈ MK(n−r , n) telle que : y ∈ Im ϕA ⇔ B.y = 0.
c) Ker A est un sous-espace de dimension p − r de Kp. En indiquer une base.
Indiquer une matrice C ∈ MK(n−r, p) telle que : x ∈ Ker ϕA ⇔ C.x = 0.

Partie II : Inversion de matrices-blocs.

1) Soit M = 
A B  une matrice-blocs carrée, où A et D sont carrées.
O D
 A−1 − A−1.B.D −1 
Montrer que M est inversible ssi A et D le sont, et qu’alors M−1 =  .
O D −1 

2) Soit M = 
A B  une matrice-blocs carrée, où A et D sont supposées carrées.
C D

55
a) Montrer que, si A est inversible, det M = det(A).det( D − C.A−1.B ) .
b) Montrer que, si A, B, C et D sont carrées de même format et commutent,
det M = det( AD – BC ).
[ On commencera par supposer A inversible. ]
c) On suppose que A est inversible, que B est un vecteur-colonne X , C un vecteur-ligne tY,
enfin que D est un scalaire z.
i) Indiquer une cns pour que M soit inversible. On note M−1 = tV w .
B U
 
ii) Exprimer B, U, V, w à l’aide de A, X, Y et z . On trouvera :
w = ( z − tY.A−1.X )−1 , B = A−1 + w.A−1.X.tY.A−1 , U = − w.A−1.X et V = − w.tA−1.Y.
iii) Si l’on connaît A−1, combien d’opérations sont nécessaires pour calculer M−1 ?
3) Inversion de certaines matrices d’ordre 2n.

Si A = 
a b  ∈ M (K) et B ∈ M (K), on note A ⊗ B la matrice aB bB ∈ M (K).
c d  2 n 2n
cB dB
Reconnaître la matrice (A ⊗ B).(A’ ⊗ B’). Indiquer une cns pour que A ⊗ B soit inversible ; quelle
est son inverse ?

Partie III : Factorisations LU et PLU.


Si A = (aij) ∈ Mn(K). Pour tout 1 ≤ k ≤ n, on note Ak = (aij)1≤i,j≤k ∈ Mk(K).
Une matrice triangulaire est dite unipotente si sa diagonale principale est formée de 1.
1) Montrer l’équivalence des propriétés suivantes :
a) (∀k) Ak ∈ Glk(K) ;
b) Il existe trois matrices inversibles L, D, U telles que A = L.D.U , où L est triangulaire infé-
rieure unipotente, U triangulaire supérieure unipotente, et D diagonale.
[ Pour a) ⇒ b), on raisonnera par récurrence. ]
Montrer que la factorisation A = L.D.U est unique. Que dire si A est symétrique ?

2) Soit A = (aij)∈Mn(C) vérifiant (∀i) |aii| > ∑a


j ≠i
ij . Montrer qu’elle satisfait les conditions de 1).

3) Soit A ∈ Gln(K). Montrer qu’il existe une matrice de permutation P telle que P.A satisfait la
condition a) de 1). En déduire que toute matrice A ∈ Gln(K) s’écrit sous la forme A = P.L.D.U.
___________

Solution

Partie I : Généralités.
1) Sous-matrices.
A A 
Soit A =  1 2  ∈ MK(n, p) une matrice rectangulaire, partitionnée en blocs rectangulaires.
 A3 A4 
p n
Supposons A1 ∈ MK(m, q). Notons (a1, … , ap) la base canonique de K , (b1, … , bn) celle de K .
 A1  est la matrice de la restriction de ϕ à Vect(a , … , a ).
 A3  A 1 q

 A1 O est la matrice de p o ϕ o q , où p et q sont des projecteurs de Kn et Kp resp. :


 O O A

56
p
q est le projecteur de K sur F = Vect(a1, … , aq) parallèlement à Vect(aq+1, … , ap)
n
p est le projecteur de K sur G = Vect(b1, … , bm) parallèlement à Vect(bm+1, … , bn).
A1 est alors la matrice de (p o ϕA o q)| GF .
2) Le rang.
a) est une question de cours. Il faut apprendre son cours !
b) Il découle de a) que A = Q. I r O .P =
r
−1
O O ∑Q.E .P
i =1
ii
−1 est somme de r matrices de rang 1.

En vertu de la relation rg(u + v) ≤ rg u + rg v, qui découle de Im(u + v) ⊂ Im u + Im v, A ne peut


s’écrire comme somme de moins de r matrices de rang 1.
Ir O  −1
c) A = Q. I r O .P = lim k→+∞ Q.  1
−1
O O  .P , par exemple.
O In−r 
 k 
3) g-inverses et systèmes linéaires.
a) Soient Q et P inversibles telles que Q AP = Ir O .
−1
O O

Cherchons B sous la forme B = P 


X Y  Q−1.
 Z T 

ABA = A ⇔ Q .A.P.P .B.Q.Q .A.P = Q AP ⇔ Ir O 


−1 −1 −1 −1 X Y   I r O =  I r O ⇔ X = I .
O O  Z T  O O
r O O
b) Si x est solution de Ax = b, alors AB.b = ABA.x = A.x = b. Si ABb = b, (S) a une solution : Bb.
Il reste à montrer que Ker A = Im(I – BA).
A(I – BA) = 0 ⇒ Im(I – BA) ⊂ Ker A, et x∈Ker A ⇒ x = x – BAx = (I − BA)x ∈ Im(I − BA).
4) AB donne BA…
a) Les questions de rang relèvent de l’équivalence matricielle
Soient Q et P inversibles telles que Q .A.P = Ir O . Posons P .B.Q = 
−1 −1 X Y.
O O U V 

Alors AB = Q. 
X Y  .Q−1 et BA = P.  X O .P−1.
O O U O

D’où :
−1
P .( Ip – BA ).P = r
I − X O  et Q−1.( I – AB ).Q = Ir − X −Y  .
 −U I p−r  n  O In−r 

Or il est clair que rg 


D Y
= r + rg D .
O Ir 
Donc rg( Ip – BA ) = p – r + rg( Ir – X ) et rg( In – AB ) = n – r + rg( Ir – X ) . C’est fini !
b) Pour la première question, faisons confiance à Maple :
> with(linalg):
> P:=matrix(3,3,[0,-1,-1,-1,0,-1,1,1,2]);evalm(P^2);rank(P);
 0 -1 -1  0 -1 -1
   
P := -1 0 -1 -1 0 -1 2
 
   
 1 1 2  1 1 2 
Conclusion : P = AB est un projecteur de rang 2.
On peut conclure en appliquant la question a) précédente avec n = 3 et p = 2.
Mais on peut aussi donner de cette question une preuve directe, que voici :
On a 2 = rg(AB) ≤ rg(A) ≤ 2, donc rg(A) = 2 et 2 = rg(AB) ≤ rg(B) ≤ 2, donc rg(B) = 2.
A est donc injective, et B surjective, en tant qu’applications linéaires.

57
2
Or P = P s’écrit ABAB = AB , ou encore A.(BA − I2).B = 0.
Comme A est injective, (BA − I2).B = 0 [car ∀X A.(BA − I2).B.X = 0 ⇒ (BA − I2).B.X = 0].
Comme B est surjective, BA − I2 = 0 [car ∀Y ∃X Y = BA ; donc (BA − I2).Y = (BA − I2).B.X = 0].
Rappelons que rg(AB) ≤ rg(A) découle de Im(AB) ⊂ Im A et que rg(AB) ≤ rg(B) découle de
Ker(AB) ⊃ Ker B et du théorème du rang.
5) Une équation fonctionnelle.
a) Toute matrice de rang r < n est équivalente à N = O I r  (même rang). Or N est nilpotente.
O O 
b) Soit f : Mn(K) → K une application non constante vérifiant ∀(A, B) f(A.B) = f(A).f(B).
2
• On a f(On) = f(On) , donc f(On) = 0 ou 1. Mais f(On) = 1 impliquerait 1 = f(On) = f(On).f(A) =
f(A) pour toute A : impossible, car f n’est pas constante. Donc f(On) = 0.
2
• On a f(In) = f(In) , donc f(In) = 0 ou 1. Mais f(In) = 0 impliquerait f(A) = f(In).f(A) = 0 pour
toute A : impossible, car f n’est pas constante. Donc f(In) = 1.
−1
♦ Si P est inversible, 1 = f(P).f(P ), donc f(P) ≠ 0.
−1
♦ Si P n’est pas inversible, d’après 1), P est équivalente à une matrice nilpotente N : P = A .N.B
−1
(A et B inversibles), donc f(P) = f(A ).f(N).f(B).
r r
Or 0 = f(On) = f(N ) = f(N) ; donc f(N) = 0, et f(P) = 0. cqfd.
2 m
c) Exemples de telles applications f : A → det A , A → (det A) , A → (det A) , etc.
6) Rang et sous-matrices.
Soit A ∈ MK(n, p) de rang r. On peut choisir r colonnes de A libres, disons c1, …, cr. La sous-
matrice n×r obtenue en barrant les autres colonnes est de rang r. Ce rang est aussi celui des lignes :
on peut donc choisir r lignes libres.
Les sous-matrices extraites d’ordre > r ne sont pas inversibles, car si B est une sous-matrice de A, rg
B ≤ rg A.
A A 
A se ramène à la forme  1 2  , où A1 ∈ Glr(K) par simple permutation de lignes et de colonnes.
 A3 A4 
7) Descriptions duales de l’image et du noyau d’une matrice.
A A 
Soit A ∈ MK(n, p) de rang r, et de la forme A =  1 2  , où A1 ∈ Glr(K).
 A3 A4 
−1
a) Montrons que A4 = A3.A1 .A2 .

En effet A.  I − A1 A2  = 1
−1 A O 
O I   A3 A4 − A3 A1−1 A2  .
−1
Nécessairement A4 = A3.A1 .A2 , sans quoi rg A > r.
b) Im A est un sous-espace de dimension r de Kn.
 
rg A = rg A1 . Les colonnes de cette matrice forment base de Im A.
 A3 
Cherchons une matrice de contrôle de Im A, c’est-à-dire une matrice B ∈ MK(n−r, n) telle que :
Y ∈ Im A ⇔ B.y = 0 (autrement dit un système d’équations).
Y1  =  A1 A2   X1  ⇔ Y = A .X + A .X et Y = A .X + A .A −1.A .X
Y2   A3 A4   X 2  1 1 1 2 2 2 3 1 3 1 2 2

58
−1
Cela équivaut à Y2 = A3.A1 .Y1 , donc à [ A3.A1−1 | − In−r ] YY1  = O.
 2
−1 −1
L’implication est facile. Réciproquement, si Y2 = A3.A1 .Y1 , poser X1 = A1 .Y1 , X2 = 0.
   
Alors A. X1 = Y1 .
 X 2  Y2 
c) Ker A est un sous-espace de dimension p − r de Kp.
Cherchons-en une matrice génératrice et une matrice de contrôle.
 A1 A2   X1  −1
 A3 A4   X 2  = 0 ⇔ 0 = A1.X1 + A2.X2 et 0 = A3.X1 + A3.A1 .A2.X2 ⇔ 0 = A1.X1 + A2.X2

Ker A = { − A1 A2 X 2 ; X2 est quelconque }.


 −1 
 X 2 

Une base de Ker A est  Ir  . Enfin X =  X1  ∈ Ker A ⇔ [ I | − A −1 A ]  X1  = O.


− A1−1A2   X 2  r 1 2 
 X 2 
Exemple : matrices de Hamming (théorie des codes correcteurs)
> with(linalg):
> A:=transpose(matrix(7,3,[1,0,0,0,1,0,1,1,0,0,0,1,1,0,1,0,1,1,1,1,1] mod
2));
1 0 1 0 1 0 1
 
A := 0 1 1 0 0 1 1
 
0 0 0 1 1 1 1
> rank(A);colspace(A);Nullspace(A) mod 2;
3
{ [ 0, 1, 0 ], [ 1, 0, 0 ], [ 0, 0, 1 ] }
{ [ 1, 0, 0, 1, 1, 0, 0 ], [ 0, 1, 0, 1, 0, 1, 0 ], [ 1, 1, 1, 0, 0, 0, 0 ], [ 1, 1, 0, 1, 0, 0, 1 ] }
> GenIm:=transpose(matrix([op(colspace(A))]));
> GenKer:=transpose(matrix([op(Nullspace(A) mod 2)]));
1 0 1 1
 
1 1 1 0

0 1 0 
0 0

  
0 1


GenIm :=  1 0 0 GenKer :=  1 1 0 1
   
0 0 1 0
 0 0 1
 
0 1 0 0

 1 0 0 0

Partie II : Inversion de matrices-blocs.


1) Matrices-blocs trigonales.

Soit M = 
A B  une matrice-blocs carrée, où A et D sont carrées et inversibles.
O D
X ] = [ U ] ⇔ AX + BY = U et DY = V ⇔ Y = D−1.V et X = A−1 ( U – B.D−1.V )
M.[ Y V
X ] =  A − A .B.D  [ U ].
−1 −1 −1
⇔ [Y  O D −1  V
 A−1 − A−1.B.D −1 
On en conclut que M est inversible et que M−1 =  .
O D −1 
Si M est inversible, A et D aussi, en vertu de det M = (det A)(det D).

59
Remarque : variantes nombreuses.

2) Soit M = 
A B  une matrice-blocs carrée, où A et D sont supposées carrées.
C D
a) Si A est inversible, je dis que det M = det(A).det( D − C.A−1.B ) .

Cela découle de 
A B   I − A−1B =  A O  , en passant aux déterminants.
C D O I  C D−CA−1B
Remarque : Si D est inversible, on montera de même que det M = det(D).det( A − B.D−1.C ) .
b) Si A, B, C et D sont carrées de même format et commutent, det M = det(AD – BC).
Supposons d’abord A inversible. Alors, en vertu de a) :
det M = det(A).det( D − C.A−1.B ) = det( AD − ACA−1B ) = det(AD – CB) = det(AD – BC).
Si A n’est pas inversible, procédons par densité.
A − λ.I, B, C et D sont de même format et commuent. Or, pour 0 < |λ| < ρ, A − λ.I est inversible, car
A ne possède qu’un nombre fini de valeurs propres. Dès lors, pour ces valeurs de λ :
det 
A−λI B  = det((A − λI).D – B.C).
 C D
Il reste à faire tendre λ vers 0 en restant tel que 0 < |λ| < ρ.
Remarques :
i) Si A et C commutent, det M = det(AD – CB) ; si D et C commutent, det M = det(AD – BC).
ii) Ce raisonnement par densité n’est valable que pour K = R ou C. Si l’on veut l’établir dans le cas
général, il faut procéder par « densité algébrique », en se plaçant dans Mn(K(X)).
Les matrices A − X.I, B, C et D sont de même format et commutent, et A – X.I est inversible dans
Mn(K(X)). Dès lors det 
A− XI B  = det((A − X.I).D – B.C). Il reste à faire X = 0.
 C D
iii) La formule det M = det(AD – BC) n’est pas toujours vraie comme le montre l’exemple de

A=D=  ,B=C= 
01 0 −1 .
1 0 1 0 
c) Inversion de matrices bordées.
A X
i) Cns pour que M = tY z soit inversible.
 
t −1 t −1
Il découle de 2.a) que det M = (det A).det( z – Y.A .X ) = ( z – Y.A .X ).det A.
t −1
Par conséquent, M est inversible ssi z – Y.A .X ≠ 0.
B U
ii) On note M−1 = tV w . Ecrivant que M.M−1 = tY z
A X B U
     tV w  = I, il vient :
t t t t
A.B + X. V = I (1) , A.U + w.X = 0 (2) , Y.B + z. V = 0 (3) , Y.U + z.w = 1 (4).
−1
(2) donne U = − w.A .X. Si l’on reporte dans (4), il vient : w = ( z − tY.A−1.X )−1 .
(1) donne B = A−1 − A−1.X.tV (5).
Reportons dans (3) : Y.A−1 − Y.A−1.X.tV + z. V = 0 .
t t t

Y.A−1 + ( z − Y.A−1.X ).tV = 0 , d’où l’on déduit V = − w.tA−1.Y.


t t
Cela s’écrit :
Reportons dans (5). Il vient : B = A−1 + w.A−1.X.tY.A−1 .
Bref, w = ( z − tY.A−1.X )−1 , B = A−1 + w.A−1.X.tY.A−1 , U = − w.A−1.X et V = − w.tA−1.Y.

iii) Si l’on connaît A−1, combien d’opérations sont nécessaires pour calculer M−1 ?

60
On calcule successivement A−1.X , tY.A−1 , w , U , V et B.
2 2
En tout, si A est de format n×n , 3n – n – 1 additions, 3n + 3n multiplications, et 1 division.

Remarque : Frobenius a généralisé cela à l’inversion de matrices M = 


A B .
C D
3) Inversion de produits tensoriels.

Si A = 
a b  ∈ M (K) et B ∈ M (K), on note A ⊗ B la matrice aB bB ∈ M (K).
c d  2 n 2n
cB dB
Un calcul aisé montre que (A ⊗ B).(A’ ⊗ B’) = (A.A’) ⊗ (B.B’).
Je dis que A ⊗ B est inversible ssi A et B le sont.
Cela découle de 2), car aB, bB, cB et dB commutent, donc
2 n 2
det(A ⊗ B) = det(( ad – bc ).B ) = ( ad – bc ) .det(B) .
Alors, il est facile de vérifier que (A ⊗ B)−1 = A−1 ⊗ B−1.

Partie III : Factorisations LU et PLU.


1) Factorisation L.U.
Montrons l’équivalence des propriétés suivantes :
a) Les sous-matrices principales de A sont toutes inversibles : (∀k) Ak ∈ Glk(K) ;
b) Il existe trois matrices inversibles L, D, U telles que A = L.D.U , où L est triangulaire infé-
rieure unipotente, U triangulaire supérieure unipotente, et D diagonale.
 1 0 ... 0  d1 0 ... 0   1 * ... * 
0 ... ... 
b) ⇒ a) est facile. A = 
* 1 ... ... d2  0 1 ... ... est inversible, et ses sous-matrices
... ... ... 0   ... ... ... 0  ... ... ... * 
 * ... * 1  0 ... dn   0 ... 0 1 
 0
principales Ak sont les produits des sous-matrices principales de L, D et U : Ak = Lk.Dk.Uk, donc Ak
∆k
est inversible. Mieux ! on a d1 … dk = ∆k(A) = det Ak , donc dk = .
∆k −1
a) ⇒ b) Raisonnons par récurrence sur n. Pour n = 1 il n’y a rien à montrer.
Supposons le résultat acquis au rang n−1. Alors si l’on note A =
 B X  , comme les sous-matrices
 tY a 
principales de B sont toutes inversibles, B = L’D’U’, matrices carrées d’ordre n − 1.

Cherchons L, D et U sous les formes : L =


L' 0 , D = D' 0  , U = U' u .
 tv 1  0 d   0 1

L.D.U =
L'D'U' L'D'u  = A ⇔ L’.D’.U’ = B , L’.D’.u = X , tv.D’.U’ = tY , tv.D’.u + d = a.
 tvD'U' tvD'u +d 
−1 t t −1 t
Cela équivaut à u = (L’.D’) .X , v = Y.(D’.U’) et d = a − v.D’.u.
Il reste à montrer que, u, v et d étant ainsi définis, d est non nul.
Or cela découle de ce que det A = det D = det D’.d .
Unicité de la factorisation A = L.D.U. On a déjà noté au passage l’unicité de D.
−1 −1 −1
Si A = L.D.U = L’.D’.U’, alors L’ .L = D’.U’.U .D .
Cette matrice est triangulaire inférieure unipotente et triangulaire supérieure, donc c’est l’identité : L
= L’, et de même U = U’, etc.
t t t t
Si A est symétrique, l’unicité et le fait que A = U.D. L impliquent que L = U.
Remarque : Les matrices dont tous les mineurs diagonaux sont non nuls sont dites cellulaires.

61
Si K = R ou C, elles forment un ouvert dense de Gln(K).
2) Théorème d’Hadamard.
cf. le cours. Les sous-matrices principales sont aussi diagonalement dominantes
3) Factorisation PLU.
Soit A ∈ Gln(K). Montrons par récurrence qu’il existe une matrice de permutation P (autrement dit
un échange des lignes) telle que B = P.A ait tous ses mineurs principaux non nuls.
• Si ∆n−1(A) ≠ 0, il existe une matrice de permutation P’ d’ordre n−1 telle que P.An−1 = Bn−1 soit
cellulaire. La matrice P = 
P' 0 répond à la question.
 0 1
• Si ∆n−1(A) ≠ 0, il y a une sous-matrice AHK , |H| = n−1, K = {1, …, n−1} de déterminant non nul,
donc il y a une permutation des lignes qui nous ramène à la situation précédente.
On en déduit aussitôt que toute matrice A ∈ Gln(K) s’écrit sous la forme A = P.L.D.U.
En particulier, le groupe Gln(K) est engendré par 4 sous-groupes : le sous-groupe des matrices de
permutations, le sous-groupe des matrices trigonales inférieures unipotentes, le sous-groupe des
matrices diagonales inversibles et le sous-groupe des matrices trigonales supérieures unipotentes.
Chacun de ces sous-groupes a lui-même des générateurs.
Attention, la factorisation n’est plus unique.
Annexe : Maple sait tout ça !
> with(linalg):
> A:=matrix(3,3,[1,2,3,1,1,1,3,2,0]);
1 2 3
 
A :=  1 1 1
 
3 2 0
> LUdecomp(A,P='P',L='L',U='U',rank='r',det='d'):print(P);print(L);
print(U);multiply(P,L,U);print(r);print(d);
1 0 0 1 0 0 1 2 3 1 2 3
       
0 1 0 1 1 0 0 -1 -2 1 1 1 3 1
    
       
0 0 1 3 4 1 0 0 -1  3 2 0
> B:=matrix(3,3,[2,2,1,1,1,1,3,2,1]);
2 2 1
 
B :=  1 1 1
 
3 2 1
> LUdecomp(B,P='P',L='L',U='U',rank='r',det='d'):print(P);print(L);
print(U);multiply(P,L,U);print(r);print(d);

 1 0 0  2 2 1 
1 0 0    
   3   -1  2 2 1
0  0  0   
0 1  1  -1  1

  

2 



2 
  1 1 3 -1
0      
0 1
1
 1
1  0 1  3 2
 0  0 
 2   2 
> C:=matrix(4,4,[1,2,1,2,1,2,-1,3,-2,-2,-1,-1,1,3,2,3]);
 1 2 1 2
 
 1 2 -1 3

C :=  

-2 -2 -1 -1
 
 1 3 2 3
 

62
> LUdecomp(C,P='P',L='L',U='U',rank='r',det='d'):print(P);print(L);
print(U);multiply(P,L,U);print(r);print(d);
 1 0 0 0  1 0 0 0 1 2 1 2
       1 2 1 2
 0 0 1 0  -2 1 0 0     
     0 2 1 3   1 2 -1 3
        4
 0 1 0 0  1 0 1 0  0 0 -2 1    1
       -2 -2 -1 -1
 0 0 0 1   


  
   1 -1   0 0
-1
  
 1 1 0
 1 3 2 3
 2 4   4 

Références :
Ikramov : Problèmes d’algèbre linéaire (Moscou)
J. Tuloup, etc.
____________

Problème 16 : Construction matricielle de certains corps

Dans tout ce problème, K désigne un corps commutatif de caractéristique différente de 2.


A. Première partie.
Soient d un élément de K, E la matrice unité de M2(K). Si (x, y) ∈ K , on note M(x, y) = 
2 x dy .
 y x 
1) Montrer que l’ensemble Ad de ces matrices est un plan vectoriel. En indiquer la dimension et
une base ( E, I ). Montrer que Ad est une sous-algèbre commutative de M2(K).
2) Calculer M(x, y).M(x, −y). En déduire une caractérisation des éléments inversibles de Ad.
3) Montrer l’équivalence des propriétés suivantes :
i) d n’est le carré d’aucun élément de K ;
ii) L’algèbre Ad est intègre ;
iii) L’algèbre Ad est un corps.
4) Exemples : a) Si K = R et d = −1, reconnaître Ad .
b) Montrer l’existence d’un corps à 9, 25, 49, 81 éléments. Généraliser.
B. Deuxième partie.
t −x −y −z
On note E la matrice unité de M4(K). Si (t, x, y, z) ∈ K , on note M(t, x, y, z) = 
4 x t −z y .
y z t − x
 z −y x t 
1) Montrer que l’ensemble H des matrices M(t, x, y, z) est un espace vectoriel pour les lois
usuelles. En indiquer la dimension et une base (E, I, J, K).
2) Effectuer les produits deux à deux des matrices E, I, J, K, et présenter les résultats dans un
tableau en précisant l’ordre. En déduire que H est une sous-algèbre de M4(K).
Est-elle commutative ? Quel est son centre ?

63
t t t t
3) a) Montrer que M → M définit une involution linéaire de H telle que (M.M’) = M’. M.
t
Quand a-t-on M = M ?
t t
b) Soit M ∈ H. Vérifier que M. M = M.M = N(M).E, où l’on calculera N(M) ∈ K, et que
N(M.M’) = N(M).N(M’).
c) En déduire une caractérisation des éléments inversibles de H, et calculer leur inverse.
2 2
4) Soit Σ = { z ∈ K* ; ∃(x, y)∈ K×K z = x + y }.
a) Montrer que Σ est un sous-groupe multiplicatif de K*.
b) Montrer l’équivalence : H est un corps ⇔ −1 ∉ Σ.
c) Examiner les cas où K = R, C et Z/pZ ( p premier > 2 ).
2
d) Si K = R, résoudre dans H l’équation M = −E. Ceci contredit-il le théorème relatif au
nombre de racines d’une équation ? En déduire qu’il existe une infinité de façons de plonger le
corps C dans le corps H.
___________

Problème 17 : Générateurs et groupe dérivé de Gln(K)

Dans ce problème, K désigne un corps commutatif, n un entier ≥ 2, Mn(K) l’ensemble des matrices
carrées d’ordre n sur K, I l’élément unité de Mn(K). On note diag(α1, α2, …, αn) la matrice
diagonale dont les éléments diagonaux sont α1, α2, …, αn.

Partie I

I.1) On suppose, jusqu’au I.4), que n ≥ 2.


a) On désigne par Eij la matrice dont tous les termes sont nuls sauf le terme intersection de la ième
ligne et de la jème colonne, qui est égal à 1.
Vérifier que Ejk.Eqr = δkq.Ejr , où δkq = 1 si k = q , 0 si k ≠ q.
b) Soit A ∈ Mn(K). Montrer que l’addition à un vecteur ligne de A d’un vecteur proportionnel à
un autre vecteur ligne peut se faire en multipliant A à gauche par une matrice convenable. Donner
un énoncé analogue relatif aux colonnes.
I.2) On suppose que la première ligne de A comporte au moins un élément ≠ 0. Montrer qu’il existe
des matrices P et Q, produits de matrices de la forme I + λ.Eij avec i ≠ j et λ ∈ K, telles que P.A.Q
 1 0 ... 0
soit de la forme : P.A.Q = B =   . On pourra, dans un premier temps, transformer A en
0
... B' 
 0 
une matrice comportant un élément égal à 1 à l’intersection de la 1ère ligne et de la 1ère colonne.
I.3) On suppose que A est de rang r > 0. Montrer qu’il existe des matrices P et Q, produits de
matrices de la forme I + λ.Eij avec i ≠ j et λ ∈ K, telles que P.A.Q = B = diag(1, …, 1, d, 0, …, 0), le
terme d ≠ 0 étant à la place d’indice r sur la diagonale.

64
Montrer en outre que si r < n, on peut choisir d = 1. [ On pourra raisonner par récurrence. ]

I.4) En déduire que le groupe Sn(K) = { A ∈ Mn(K) ; det A = 1 } est engendré par les matrices
I + λ.Eij avec i ≠ j et λ ∈ K. Montrer que le groupe Gln(K) est engendré par ces mêmes matrices et
par les matrices diag(α, 1, …, 1) où α décrit K*.
I.5) Si G est un groupe multiplicatif, on appelle groupe dérivé de G le sous-groupe engendré par les
−1 −1
commutateurs [a, b] = a .b .a.b , où (a, b) décrit G×G.
i) On suppose n ≥ 3. Montrer que toute matrice de la forme I + λ.Eij avec i ≠ j et λ ∈ K,
−1 −1
s’exprime comme un commutateur de telles matrices : I + λ.Eij = A .B .A .B , où A et B sont de
la forme I + α.Ekl avec k ≠ l et α ∈ K.
1 a b 0  1 −a  1/b 0 ( a ∈ K, b ∈ K* ).
ii) On suppose n = 2 et card K ≥ 4. Calculer   
0 1  0 1/b 0 1   0 b
iii) Montrer que, si n ≥ 3, ou si n = 2 et card K ≥ 4, Sn(K) est égal à son propre groupe dérivé.
Quel est alors le groupe dérivé de Gln(K) ?

Partie II

On suppose n ≥ 3, ou n = 2 et card K ≥ 4. Soient G un groupe abélien noté multiplicativement, de


neutre e, et Φ une application Gln(K) → G vérifiant :
∀A, B ∈ Gln(K) Φ(A.B) = Φ(A).Φ(B)
II.1) Montrer que Φ( I + λ.Eij ) = e ∀λ ∈ K ∀i ≠ j .
II.2) On pose ϕ(α) = Φ(diag(α, 1, …, 1)) pour tout α ∈ K*. Montrer que ϕ est un morphisme de
groupes K* → G.
II.3) Déduire de ce qui précède que ∀X ∈ Gln(K) Φ(X) = ϕ( det X ). Réciproque ?

II.4) Quels sont les homomorphimes continus de Gln(R) dans R*, de Gln(C) dans C* ?

Partie III

On suppose n ≥ 3, ou n = 2 et card K ≥ 4. Soit Φ une application Mn(K) → K vérifiant :


∀A, B ∈ Mn(K) Φ(A.B) = Φ(A).Φ(B)
III.1) Quelles valeurs peut prendre Φ(I) ? Que dire de Φ si Φ(I) = 0 ?
III.2) On suppose désormais Φ(I) = 1. Montrer que ∀A ∈ Gln(K) Φ(A) ∈ K*. Conclusion ?

III.3) Soit A ∈ Mn(K) de rang r < n. Montrer que Φ(A) = Φ(Xr) , où Xr =  I r O  .


O O 

III.4) Quelles valeurs peut prendre ϕ(0) = Φ(diag(0, 1, …, 1)) ?


III.5) Quelle est la forme générale des fonctions Φ cherchées ?

Partie IV

On suppose toujours n ≥ 3, ou n = 2 et card K ≥ 4. Soit Ψ une application de Mn(K) dans un


3
ensemble E telle que : ∀(X, Y, Z) ∈ Mn(K) Ψ(X.Y.Z) = Ψ(X.Z.Y)

65
IV.1) Démontrer que pour toute matrice X de Mn(K) et toute matrice U de Sn(K) on a :
Ψ(X.U) = Ψ(X) = Ψ(U.X).
 
IV.2) Pour tout r ∈ {1, 2, …, n−1}, on définit Xr = I r O comme en III.3).
O O 

a) Montrer que pour A et B, matrices de Mn(K) telles que rg A = rg B = r < n, on a Ψ(A) = Ψ(B).

b) Montrer qu’il existe une matrice Y de rang r telle que Xr−1 = Y.Xr et que Y = Xr.Y.
[ On pourra raisonner sur les endomorphismes associés. ]
c) En déduire que ψ prend la même valeur sur toutes les matrices de rang strictement inférieur à n.
IV.3) En conclure que ∀X, Y ∈ Mn(K) det X = det Y ⇒ Ψ(X) = Ψ(Y).
Quelle est la forme générale des fonctions Ψ ?
___________
Solution : générateurs, groupe dérivé de Gln(K),
caractérisations fonctionnelles liées au déterminant.

I. Groupes dérivés de Sn(K) et Gln(K).


I.1) Opérations élémentaires.
a) Table de multiplication de la base canonique de Mn(K).
t n t t
Notons ei = (0, …, 0, 1, 0, …, 0) la base canonique de K . Alors Eij = ei. ej et ep.eq = δpq.
t t t t t
Du coup Ejk.Eqr = ( ej. ek ).( eq. er ) = ej.( ek.eq ). er = δkq.( ej. eq ) = δkq.Ejr .
b) Notons Li → Li + αLj l’addition à la i-ème ligne de α fois la j-ème (i ≠ j).
La matrice A’ déduite de A par cette transformation est A’ = ( I + α.Eij ).A.
t
En effet, ( I + α.Eij ).A = A + α.ei. ej.A = A + α.ei.Lj , où Lj est la j-ème ligne de A.
Or ei.Lj est la matrice dont toutes les lignes sont nulles, sauf la i-ème, qui est Lj . cqfd.
Si l’on note Ci → Ci + αCj l’addition à la i-ème colonne de α fois la j-ème (i ≠ j).
La matrice A’’ déduite de A par cette transformation est A’’ = A.( I + α.Eji ).
Cela se montre directement, ou se déduit de ce qui précède par transposition.
Les matrices Tij (α) = I + α.Eij s’appellent matrices de transvection.
I.2) Supposons d’abord que a11 = 1. Notons alors :
 1 0 ... 0   1 −a12 ... −a1n 
P=  −a21 1 ... ... = ( I−a21.E21)…( I−an1.En1) et Q =  0 1 ... ...  = ( I−a12.E12)…( I−a1n.E1n).
 ... ... ... 0  ... ... ... 0 
−an1 0 ... 1   0 0 ... 1 
les produits étant d’ailleurs commutatifs, en vertu de I.1.a).
 1 0 ... 0
On a P.A.Q =   compte tenu de I.1.b)
0
... B' 
 0 
La difficulté consiste à se ramener à a11 = 1 en n’effectuant que des transvections.

1er cas : si ∃j ≥ 2 a1j ≠ 0, on fait c1 → c1 +


1−a11 c et A → A’ = A ( I + 1−a11 E ),
a1j j a1j j1
matrice dans laquelle a’11 = 1.

66
a11 0 ... 0 
cas : si ∀j ≥ 2 a1j = 0, alors A =
 
 ... ... ... ... . On fait c2 → c2 + c1 et on est ramené au 1 cas.
ème er
2
 
Remarque : en terme de produits, pour tout a ∈ K*,
1 a   1 0 1 a =  0 a et  0 a 0 −1 = a 0 
0 1  −1/ a 1 0 1 −1/a 0 −1/a 0 1 0  0 1/ a
formules qui s’étendent sans peine à des matrices carrées d’ordre n.
I.3) Forme réduite unicorde d’une matrice de rang r.
Raisonnons par récurrence sur r, quel que soit le format. Pour r = 0, A = O et il n’y a rien à montrer.
Supposons le théorème vrai de toute matrice de rang r – 1. Soit maintenant A de rang r.
Une des lignes de A est non nulle. Quitte à l’échanger avec la première, via une matrice de la forme
 0 0 ... ... −1 0 ... 0 
 0 1 ... ... 0 .. ...
... ... ... ... ... ... ..  (qui est produit de transvections), on peut supposer que c’est la première ligne.
... ... ... 1 0 ... ...
 1 0 ... 0 0 0 ...
 0 ... ... ... 0 1 ...
... ... 0 
 0 ... ... ... ... ... 0 1 

 1 0 ... 0
Alors, par I.2) il existe P et Q, produits de transvections, telles que P.A.Q =   , où rg B’ =
0
... B' 
 0 
r – 1. Par hyp. de récurrence, il existe R et S produits de transvections de Mn−1(K) telles que
R.B’.S = diag(1, …, 1, d, 0, …, 0), d élément non nul placé à la (r – 1)-ème place.
 1 0 ... 0  1 0 ... 0
Les matrices bordées R’ =  0  et S’ = 
0  sont produits de transvections de M (K)
... R  ... S  n
 0   0 
 1 0 ... 0
et R’.P.A.Q.S’ =   = diag(1, …, 1, d, 0, …, 0), d étant placé à la r-ème place.
0
... RB'S 
 0 
Lorsque r < n, multipliant diag(1, …, 1, d, 0, …, 0) par diag(1, …, 1, 1/d, d, 1, …, 1), qui est produit
de transvections (remarque ci-dessus), on ramène B à diag(1, …, 1, 0, …, 0).
Lorsque r = n, cela n’est pas possible car d = det A.
Théorème : Soit H le sous-groupe de Gln(K) engendré par les matrices de transvection. Alors
i) ∀A ∈ Mn(K) rg A = r < n ⇒ ∃(P, Q) ∈ H×H P.A.Q = diag(1, …, 1, 1, 0, …, 0).
ii) ∀A ∈ Gln(K) ∃(P, Q) ∈ H×H P.A.Q = diag( 1, …, 1, d ).
Notons que cela fournit un algorithme de calcul du rang et du déterminant d’une matrice carrée, qui
s’étend pour partie aux matrices rectangulaires.
I.4) Les transvections engendrent le groupe spécial linéaire Sn(K).
−1 −1
En effet, ∀A ∈ Sn(K) ∃(P, Q) ∈ H×H P.A.Q = I . Alors A = P .Q ∈ H.
I.5) Le groupe dérivé de Sn(K) est Sn(K) pour n ≥ 3.
Remarque préliminaire pour bourbakistes zéclairés : Si G est un groupe multiplicatif, on nomme
groupe dérivé de G, et on note D(G), le sous-groupe engendré par les commutateurs [a, b] =
−1 −1
a .b .a.b , où (a, b) décrit G×G. D(G) est un sous-groupe distingué (et même caractéristique) de G
(c’est-à-dire invariant par tous les automorphismes intérieurs, et même par tous les automor-

67
phismes), et l’on montre aisément que le groupe quotient G/D(G) est commutatif. D(G) est le plus
petit sous-groupe distingué de G tel que G/H soit commutatif. Bien entendu, G est commutatif ⇔
D(G) = {e}. D(G) mesure la non-commutativité de G. Pour montrer que D(Sn(K)) = Sn(K) lorsque n
≥ 3, il suffit d’établir que toute transvection est un commutateur de transvections.
i) Supposons n ≥ 3. Soient i ≠ j, k ∉ { i, j }.
−1 −1
( I + α.Ekj) .( I + β.Eik) .( I + α.Ekj).( I + β.Eik) = ( I − α.Ekj).( I − β.Eik).( I + α.Ekj).( I + β.Eik).
= ( I − α.Ekj − β.Eik ).( I + α.Ekj + β.Eik ) = I − αβ.Eij , après développement et utilisation de I.1).
ii) Supposons n = 2 et card K ≥ 4.

Si a ∈ K et b ∈ K*, on a : 1 a  b 0  1 −a  1/b 0 = 1 a(1−b²) .


0 1  0 1/b 0 1   0 b 0 1 
2 2
Or tout scalaire λ s’écrit sous la forme λ = a( 1 – b ) : choisir b tel que b ≠ 1, ce qui est possible à
cause de card K, puis a = λ . Ainsi 1 λ  est un commutateur, et sa transposée aussi.
1−b² 
01 
iii) Concluons : Si n ≥ 3, ou si n = 2 et card K ≥ 4, Sn(K) est égal à son propre groupe dérivé.
Le groupe dérivé de Gln(K) est inclus dans Sn(K), car tout commutateur est de déterminant 1, et
contient Sn(K), dont il est égal à Sn(K).
Remarque : il reste deux cas à examiner : n = 2, K = F2 et n = 2, K = F3.
• Si n = 2 et K = F2, Gl2(K) = S2(K) a 6 éléments, est isomorphe à S3, son groupe dérivée a 3
éléments et est isomorphe à A3.
• Si n = 2 et K = F3, Gl3(K) a 48 éléments, et S3(K) a 24 éléments en tant que noyau du morphisme
surjectif det : Gl3(K) → K*. S3(K) est isomorphe à S4. Or le groupe dérivé S4 est inclus dans A4
donc D(S3(K)) ≠ S3(K) (tout ceci resterait à détailler).

Partie II : Morphismes de groupes Φ : Gln(K) → G , où G est abélien.


On note e le neutre de G et on suppose n ≥ 3, ou n = 2 et card K ≥ 4.
II.1) Montrons que Φ(I + λ.Eij) = e ∀λ ∈ K ∀i ≠ j .
−1 −1
Notons d’abord que Φ(I) = e. Il est résulte que si A ∈ Gln(K), Φ(A).Φ(A ) = Φ(A.A ) = Φ(I) = e.
−1 −1
On a vu (partie I) que I + λ.Eij est un commutateur, I + λ.Eij = A B A B, donc Φ(I + λ.Eij) = e.
II.2) Posons ϕ(α) = Φ(diag(α, 1, …, 1)) pour tout α ∈ K*.
Il est immédiat que ϕ(αβ) = ϕ(α).ϕ(β), donc ϕ est un morphisme de groupes K* → G.
II.3) Montrons que ∀X ∈ Gln(K) Φ(X) = ϕ(det X).
On a vu en I) que le sous-groupe Sn(K) est engendré par les transections, et que
∀X ∈ Gln(K) ∃(P, Q) ∈ Sn(K)×Sn(K) P.A.Q = diag(det A, 1, …, 1),
Par suite Φ(A) = Φ(P).Φ(A).Φ(Q) = Φ(diag(det A, 1, …, 1)) = ϕ(det A).
Réciproquement, si ϕ : K* → G est un morphisme de groupes, alors Φ(X) = ϕ(det X) sera un
morphisme de groupes de Gln(K) dans G comme composé.
Théorème : Si n ≥ 3, ou si n = 2 et card K ≥ 4, et si G est un groupe abélien, les homomorphismes
de groupes Φ : Gln(K) → G sont de la forme Φ(X) = ϕ(det X) ,
où ϕ : K* → G est un morphisme de groupes.

II.4) Homomorphimes continus de groupes de Gln(R) dans R*, de Gln(C) dans C*.
Si K = R ou C et si Φ : Gln(K) → K* est continu, ϕ : K* → K* est un endomorphisme continu.

68
Comme ϕ(1) = 1, ϕ(R*+) ⊂ R*+ en vertu du théorème des valeurs intermédiaires.
a
ϕ induit un endomorphisme continu de R*+ , donc est de la forme ϕ(x) = x sur les x > 0.
De plus, ϕ(−1) = ±1, donc ϕ(x) = ± ϕ(|x|).
a a
En résumé, soit pour tout x, ϕ(x) = |x| , soit pour tout x, ϕ(x) = sgn(x).|x| . Réciproque facile.
Les homomorphismes continus de Gln(R) dans R* sont de l’une des formes suivantes :
a a
Φ(X) = | det X | ou Φ(X) = sgn(det X).| det X | .

Partie III : Applications Φ : Mn(K) → K vérifiant : ∀A, B ∈ Mn(K) Φ(A.B) = Φ(A).Φ


Φ(B).
2
III.1) On a Φ(I) = Φ(I) , donc Φ(I) = 0 ou 1.
Si Φ(I) = 0, alors Φ = 0, car ∀A Φ(A) = Φ(A).Φ(I) = 0.
III.2) On suppose désormais Φ(I) = 1.
Soit A ∈ Gln(K), d’inverse B. Alors Φ(A).Φ(B) = Φ(I) = 1, donc Φ(A) ∈ K*.
Il en résulte que Φ induit un morphisme de groupes multiplicatifs de Gln(K) dans K*, et que Sn(K)
est inclus dans le noyau de Φ. De plus, deux matrices semblables ont même image par Φ.
Désormais on suppose n ≥ 3, ou n = 2 et card K ≥ 4.

III.3) Soit A ∈ Mn(K) de rang r < n. Je dis que Φ(A) = Φ(Xr) , où Xr =  I r O  .


O O 
En effet, ∃P, Q ∈ Sn(K) P.A.Q = Xr. Φ(A) = Φ(P).Φ(A).Φ(Q) = Φ(P.A.Q) = Φ(Xr).
III.4) Valeurs prises par ϕ(0) = Φ(diag(0, 1, …, 1)) .
2 2
Comme diag(0, 1, …, 1) = diag(0, 1, …, 1) , ϕ(0) = ϕ(0) , donc ϕ(0) = 0 ou 1.
Si ϕ(0) = 0, Φ(Xn−1) = Φ(diag(0, 1, …, 1) = 0 (car les matrices sont semblables).
Φ(Xr) = Φ(Xr).Φ(Xn−1) = 0, donc Φ(A) = 0 pour toute matrice de rang < n.
Si ϕ(0) = 1, Φ(diag(1, …, 1, 0, 1, …, 1) = 1 (car les matrices sont semblables), donc Φ(Xr) = 1 pour
tout r, car Xr est produit de telles matrices.
Mais ϕ(0.β) = ϕ(0).ϕ(β) pour tout β, donc ϕ(β) = 1 pour tout β.
III.5) Enonçons le théorème obtenu :

Théorème : Si n ≥ 3, ou si n = 2 et card K ≥ 4, alors les applications Φ : Mn(K) → K vérifiant :


∀A, B ∈ Mn(K) Φ(A.B) = Φ(A).Φ(B).
sont de trois types : i) Φ ≡ 0 , ii) Φ ≡ 1, iii) Φ(A) = ϕ(det A), où ϕ : K → K est telle que ϕ(0) = 0 et
ϕ induit un endomorphisme du groupe multiplicatif K*.
3
Partie IV : Applications Ψ : Mn(K) → E vérifiant ∀(X, Y, Z) ∈Mn(K) Ψ (X.Y.Z) = Ψ (X.Z.Y).
IV.0) Notons d’abord que Ψ(Y.Z) = Ψ(Z.Y) [ prendre X = I ].
D’où Ψ(X.Y.Z) = Ψ(Z.X.Y) = Ψ(Y.Z.X) = Ψ(X.Z.Y) = Ψ(Y.X.Z) = Ψ(Z.Y.X).
Par suite Ψ(A.B.C.D) = Ψ(A.B.D.C) = Ψ(C.B.D.A) = Ψ(C.B.A.D) .
Plus généralement, Ψ(A1 … Am) est inchangé si on échange A1 et Ai.
Cela découle de ce qui précède en coupant A1… Ai … Am en 3 ou 4 selon que i = 2, m ou 2 < i < m.
Comme les transpositions [1, i] engendrent Sm, Ψ est invariante par permutation.
Attention, ceci découle de Ψ(X.Y.Z) = Ψ(X.Z.Y), non de Ψ(X.Y) = Ψ(Y.X) seule.
IV.1) Montrons que ∀X ∈ Mn(K) ∀U ∈ Sn(K) Ψ(X.U) = Ψ(X) = Ψ(U.X).
−1 −1 −1 −1
En effet, ∀A, B ∈ Gln(K) Ψ(X.A .B .A.B) = Ψ(X.A .B .B.A) = Ψ(X).

69
Comme Sn(K) est le groupe dérivé de Gln(K), Ψ(X.U) = Ψ(X).
Enfin Ψ(X.U) = Ψ(U.X) comme observé en IV.0).
IV.2) a) Montrons que ∀A, B ∈ Mn(K) rg A = rg B = r < n ⇒ Ψ(A) = Ψ(B).
 
Soit A ∈ Mn(K) de rang r. En vertu de I.3), ∃P, Q ∈ Sn(K) P.A.Q = Xr = I r O .
O O 
Ψ(Xr) = Ψ(P.A.Q) = Ψ(P.Q.A) = Ψ(A.P.Q) = Ψ(A) par IV.1). On conclut aussitôt.

b) Montrons qu’il existe une matrice Y de rang r telle que Xr−1 = Y.Xr et Y = Xr.Y.
Cherchons Y sous forme blocs Y = 
A B  , A de format r×r.
C D
Soit X’ la matrice r×r obtenue en bordant Ir−1 par une r-ème ligne et une r-ème colonne nulles.
Xr−1 = Y.Xr ⇔ A = X’ et C = O ; Y = Xr.Y ⇔ D = O. On veut de plus que rg Y = r.
Il suffit de prendre Y = 
X' B , où B = O O .
O O  1 O
c) Ψ prend la même valeur sur toutes les matrices de rang < n.

Ψ(Xr−1) = Ψ(Y.Xr) = Ψ(Xr.Y) = Ψ(Y) = Ψ(Xr) par b) et a). On conclut.

IV.3) Montrons que ∀X, Y ∈ Mn(K) det X = det Y ⇒ Ψ(X) = Ψ(Y).


Si det X = det Y = 0, on vient de le voir.
Si det X ≠ 0, soient P et Q dans Sn(K) telles que P.X.Q = diag(1, …, 1 , d), où d = det X.
Par ce qui précède, Ψ(X) = Ψ(X.Q.P) = Ψ(P.X.Q) = Ψ(diag(1, …, 1, d)).
Donc si det X = det Y ≠ 0, Ψ(X) = Ψ(Y).
Par conséquent, Ψ(X) ne dépend que de det X, et il existe une fonction f : K → E telle que, pour
tout X, Ψ(X) = f(det X) ; réciproque évidente.
Théorème : Si n ≥ 3 ou si n = 2 et card K ≥ 4, les fonctions Ψ : Mn(K) → E telles que
∀(A, B, C) Ψ(A.B.C) = Ψ(A.C.B)
sont les fonctions de la forme Ψ(X) = f(det X), où f : K → E est une fonction quelconque.

Références :
Bourbaki : Algèbre II 206 n° 11, 12, 13
Chambadal Ovaert : Algèbre 2, p. 331-334 et 377-379
Concours TPE 1987, Mathématiques I
Oral ENS 2002, etc.
___________

Problème 18 : Nilespace et cœur d’un endomorphisme

Dans ce problème, E désigne un K-espace vectoriel de dimension n, u un endomorphisme de E.


k k 0
Pour tout k ∈ N, on note Nk = Ker u , et Ik = Im u , avec la convention u = idE.
1) a) Montrer que la suite (Nk) est croissante pour l’inclusion et que u(Nk+1) ⊂ Nk pour tout k.
b) Montrer que la suite (Ik) est décroissante pour l’inclusion et que u(Ik) = Ik+1 pour tout k.
2) a) Montrer qu’il existe un entier k tel que Nk = Nk+1. Soit r le plus petit entier tel que Nr =
Nr+1. Montrer que r ≤ n et que Nr = Nr+1 = Nr+2 = … .
b) Montrer que la suite (Ik) décroit strictement pour 0 ≤ k ≤ r, et vérifie Ir = Ir+1 = Ir+2 = … .
3) Il découle de 2) que la suite nk = dim Nk vérifie : n0 = 0 < n1 < … < nr = nr+1 = … .

70
Montrer de plus que cette suite « s’essouffle », en ce sens que nk+2 – nk+1 ≤ nk+1 – nk, ce qui revient
à dire que (nk) est concave. Pour cela, on établira que si F est un supplémentaire de Nk+1 dans Nk+2,
alors u|F est injective, u(F) ⊂ Nk+1 et u(F) ∩ Nk = {0}.
4) Montrer que les espaces N = Nr et I = Ir , appelés resp. nilespace et cœur de l’endomorphisme
u, sont supplémentaires, que u induit un endomorphisme nilpotent de N et un automorphisme de I.
Etablir l’unicité d’un tel couple (N, I).
En déduire que, pour toute matrice A ∈ Mn(K) il existe une matrice P ∈ Gln(K) telle que :

P .A.P = 
−1 T O , où R ∈ Gl (K) et T est nilpotente, et même trigonale supérieure nilpotente.
O R 
k

k
5) Soit P un polynôme non nul annulant u ; on écrit P(X) = X .Q(X), où Q(0) ≠ 0.
Exprimer le nilespace et le cœur de u comme noyaux de polynômes de u.
6) Indiquer une ou deux méthodes pour obtenir le nilespace et le cœur de u, ainsi que la forme
réduite de A indiquée en 3).
3 3 0 −1 0 
19 −4 −4 9 −8
Application (avec Maple) : A =  8 4 −1 0 −2 (Oral Centrale 1999) 4.
22 −4 −5 10 −9
25 2 −4 7 −8
∞ 2
7) Soit E = C (R, C), D l’opérateur de dérivation. Existe-t-il T ∈ L(E) tel que T = D ?

Remarque : Il résulte de ce problème et du problème 12 que, pour toute matrice A ∈ Mn(K), il existe
r
un entier r ≥ 1 tel que A soit pseudo-inversible.
___________

Solution : nilespace et cœur d’un endomorphisme

1) Les suites (Nk) et (Ik).


a) La suite (Nk) est croissante pour l’inclusion et u(Nk+1) ⊂ Nk pour tout k.
k k+1
En effet, x ∈ Nk ⇔ u (x) = 0 ⇒ u (x) = 0 ⇔ x ∈ Nk+1.
k+1
De plus, x ∈ Nk+1 ⇒ u(x) ∈ Nk, car u (x) = 0.
Remarque : plus précisément, u(Nk+1) = Im u ∩ Nk .
b) La suite (Ik) est décroissante pour l’inclusion et u(Ik) = Ik+1 pour tout k.
k+1 k
En effet, x ∈ Ik+1 ⇔ ∃y x = u (y) ⇒ ∃z ( z = u(y) ) x = u (z) ⇒ x ∈ Ik.
k k+1
De plus, x ∈ Ik ⇒ ∃y x = u (y) ⇒ u(x) = u (y) ⇒ u(x) ∈ Ik+1.
k+1 k
Inversement, x ∈ Ik+1 ⇒ ∃y x = u (y) ⇒ x = u(u (y)) ⇒ x ∈ u(Ik).
2) a) Il existe nécessairement un entier k tel que Nk = Nk+1. Sans quoi, la suite (Nk) serait
strictement croissante pour l’inclusion, et E serait de dimension infinie.
Soit r le plus petit entier tel que Nr = Nr+1. Alors r ≤ n , car, les inclusions N0 = {0} ⊂ … ⊂ Nr étant
strictes, dim Nk ≥ k pour 0 ≤ k ≤ r. En particulier, r ≤ dim Nk ≤ n.
Je dis que Nr = Nr+1 = Nr+2 = … .
Il suffit de montrer que Nr = Nr+1 ⇒ Nr+1 = Nr+2 , et de réitérer.
Or x ∈ Nr+2 ⇔ u(x) ∈ Nr+1 . Comme Nr+1 = Nr , u(x) ∈ Nr , donc x ∈ Nr+1 .

4 Les centraliens apprennent à calculer en cent leçons.

71
L’autre inclusion est déjà acquise.
b) La suite (Ik) décroit strictement pour 0 ≤ k ≤ r, et vérifie Ir = Ir+1 = Ir+2 = … .
Cela découle de a) et du théorème du rang : dim Ik + dim Nk = n.
Conclusion : La suite N0 = {0} ⊂ N1 ⊂ N2 ⊂ … est croissante pour l’inclusion, plus exactement
strictement croissante jusqu’à un rang r ≤ n, puis constante. La suite I0 = E ⊃ I1 ⊃ I2 ⊃… est
décroissante pour l’inclusion, strictement croissante jusqu’au même rang r, puis constante.

Remarque : La suite nk = dim Nk vérifie : n0 = 0 < n1 < … < nr = nr+1 = … .


De plus, on peut montrer qu’elle « s’essouffle », en ce sens que nk+2 – nk+1 ≤ nk+1 – nk, ce qui
revient à dire que (nk) est concave. Pour cela, le lecteur montrera que si F est un supplémentaire de
Nk+1 dans Nk+2, alors u|F est injective, u(F) ⊂ Nk+1 et u(F) ∩ Nk = {0}.
3) Nilespace et cœur.
Montrons que les sous-espaces N = Nr et I = Ir sont supplémentaires.
r r 2r
Leur intersection est réduite à {0}, car x ∈ Nr ∩ Ir ⇒ u (x) = 0 et ∃y x = u (y) ⇒ u (y) = 0 ⇒ x =
r
u (y) = 0 , car N2r = Nr . Finalement, Nr ⊕ Ir = E en vertu du théorème du rang.
u induit un endomorphisme nilpotent de N et un automorphisme de I.
r
En effet, N est u-stable, car u(N) = u(Nr+1) ⊂ Nr = N et, si v est l’endomorphisme induit, v = 0.
I est u-stable, car u(I) = u(Ir) = Ir+1 = I.
Le fait que u(I) = I montre que u induit un endomorphisme w de I surjectif, donc bijectif.
Du reste x ∈ Ker w ⇔ x ∈ I et u(x) = 0 ⇒ x ∈ Ir ∩ N1 ⊂ Ir ∩ Nr = {0}.
Unicité du couple (N, I). Si (N’, I’) est un couple de sev supplémentaires u-stables tels que uN’ est
k k k
nilpotent et uI’ inversible, alors soit x = y + z, (y, z) ∈ N’×I’. On a u (x) = u (y) + u (z).
k k
u (x) = 0 implique u (z) = 0, donc z = 0 et Nk ⊂ N’. Donc N ⊂ N’. Comme N’ ∩ I = {0}, N = N’.
k
Tout vecteur z ∈ I’ est élement de Im u , pour tout k, donc I’ ⊂ I, et finalement I = I’.
Traduction matricielle.
Pour toute matrice A ∈ Mn(K) il existe une matrice P ∈ Gln(K) telle que :

P .A.P = 
−1 T O , où R ∈ Glk(K) et T est trigonale supérieure nilpotente.
O R 
En effet, soient u l’endomorphisme canoniquement attaché à A, N le cœur et I le nilespace de u.
Si BN est une base de N, BI une base de I, B = BN ∪ BI, et P la matrice de passage de la base
canonique de K à B, alors P .A.P = 
n −1 T O , où R ∈ Gl (K) en tant que matrice de w, et T est
O R   
k

nilpotente. Pour avoir T trigonale supérieure, il faut construire BN en complétant progressivement


une base de N1 en une base de N2, puis celle-ci en une base de N3, et ainsi de suite jusqu’à Nr.
4) Expressions polynomiales.
Soit P un polynôme non nul annulant u, par exemple le caractérstique, ou le minimal.
k k
Ecrivons P(X) = X .Q(X), où Q(0) ≠ 0. Les polynômes X et Q étant premiers entre eux, il existe A
k k
et B tels que 1 = A.X + B.Q. Je dis que N = Ker u et I = Ker Q(u).
k
En effet, Ker u et I = Ker Q(u) sont supplémentaires u-stables par le théorème des noyaux.
k
La restriction de u à Ker u est nilpotente, celle de u à Ker Q(u) est inversible, car
k
x ∈ Ker u ∩ Nk ⇒ x = [ A(u) o u ](x) + [ B(u) o Q(u) ](x) = 0.
5) Exemple.

72
> with(linalg):A:=matrix(5,5,[3,3,0,-1,0,19,-4,-4,9,-8,8,4,-1,0,-2,22,-4,-
5,10,-9,25,2,-4,7,-8]);
 3 3 0 -1 0
 
19 -4 -4 9 -8
 
 
A :=  8 4 -1 0 -2
 
22 -4 -5 10 -9
 
 
 25 2 -4 7 -8 
1ère solution.
> r1:=rank(A);k1:=kernel(A);i1:=colspan(A);
r1 := 4
k1 := { [ 1, -2, 0, -3, 0 ] }
i1 := { [ 0, 0, 21, 33, 0 ], [ 0, 0, 0, 21, 0 ], [ 3, 19, 8, 22, 25 ], [ 0, -69, -12, -78, -69 ] }
> r2:=rank(A^2);k2:=kernel(A^2);i2:=colspan(A^2);
r2 := 3
k2 := { [ 1, -2, 0, -3, 0 ], [ 0, 1, 2, 2, 1 ] }
i2 := { [ 1, 5, 0, 4, 7 ], [ 0, 42, -7, 35, 42 ], [ 0, 0, -49, -49, 0 ] }
> r3:=rank(A^3);k3:=kernel(A^3);i3:=colspan(A^3);
r3 := 2
k3 := { [ 1, 0, 4, 0, 1 ], [ 1, 1, 6, 0, 0 ], [ -1, 0, -4, 1, 0 ] }
i3 := { [ 0, 343, 0, 343, 343 ], [ -7, -14, -7, -14, -28 ] }
> r4:=rank(A^4);k4:=kernel(A^4);i4:=colspan(A^4);
r4 := 2
k4 := { [ 1, 0, 4, 0, 1 ], [ 1, 1, 6, 0, 0 ], [ -1, 0, -4, 1, 0 ] }
i4 := { [ -49, 49, -49, 49, -49 ], [ 0, -2401, 0, -2401, -2401 ] }
> P:=transpose(matrix([op(k3),op(i3)]));
1 -1 1 0 -7
 
1 0 0 343 -14
 
 
P := 6 -4 4 0 -7
 
0 1 0 343 -14
 
 
0 0 1 343 -28 
> P:=multiply(P,diag(1,1,1,1/7,1/343));
 1 -1 
 -1 1 0 
 49 
 
 
 -2 
 1 0 0 49 
 49 
 
 
 -1 
P :=  6 -4 4 0 

 49 
 
 -2 
 0 
 1 0 49 
 49 
 
 
 0 -4 
 0 1 49 
 49 
> R:=multiply(inverse(P),A,P);
 -9 6 -5 0 0 
 
-12 8 -7 0 0 

 
 3 -2 1 0 0 
R :=  
 3 
 0 0 0 -7 
 343

 
 0 0 0 -4802 7 
0 0 0 0
0
> evalm(R^2);evalm(R^3);  
0 0 0 0 
0

 
0 0 0 0
0
 
 3  73

0 0 0 -49 
 49

 
0 0 0 -33614 49
-6 4 -2 0 0
 
-9 6 -3 0 0

 
0 0 0 0 0
 
0 0 0 7 0

 
0 0 0 0 7

1ère solution, améliorée avec réduite trigonale.


>
Q:=multiply(transpose(matrix([op(k1),op(2,k2),op(3,k3),op(i3)])),diag(1,1,
1,1/7,1/343));
 -1 
 1 0 1 0 
 49 

 -2 

 -2 1 0 49 
 49 

 
 -1 
Q :=  0 2 4 0
 49 
 
 -2 
 -3
 2 0 49
49 

 
 -4 
 0
 1 1 49 
 49 
> det(Q);
-1
> S:=multiply(inverse(Q),A,Q);
0 1 3 0
0 
 
0 0 1 0 
0

 
0 0 0 0 
0
S :=  
 3 
0 0 0 -7 
 343

 
0 0 0 -4802 7 
2ème solution, via le polynôme minimal.
> M:=factor(minpoly(A,x));
M := x 3 ( −7 + x 2 )
> k:=kernel(A^3);l:=kernel(A^2-7);
k := { [ 0, 0, 0, 1, 1 ], [ 0, 1, 2, 1, 0 ], [ 1, 0, 4, -1, 0 ] }
l := { [ 1, -2, 1, -2, 0 ], [ 0, 1, 0, 1, 1 ] }
> F:=transpose(matrix([op(k),op(l)]));
0 0 1 1 0
 
0 1 0 -2 1

 
F := 0 2 4 1 0
 
1 1 -1 -2 1

 
1 0 0 0 1
> T:=multiply(inverse(F),A,F);
> evalm(T^3); 0 0 0 0 0
-1 1 2 0

0
  
 1 -3 -6 0 0
0 0 0 0 0
 
   
T := -1 2 4 0 0 0 0 0 0 0
   
 0 0 0 -1 2
0 0 -7 14
  0
   
0 0 0 3
 1 0 0 0 21 7
2
6) Supposons qu’il existe un endomorphisme T de E tel que D = T .

74
T ne serait pas injectif, sans quoi D le serait.
On a donc {0} ≠ Ker T ⊂ Ker D = {ctes} , donc Ker T = {ctes}.
2 3 4 2n n
Mais alors Ker T = Ker T = Ker T = Ker T = … Or dim Ker T = dim Ker D = n.
n
Autre approche : On a Ker D = Cn−1[X], et comme T et D commutent, Cn−1[X] serait T-stable.
T induirait dans cet espace un endomorphisme nilpotent d’indice 2n ou 2n−1, contredisant la
majoration classique de l’indice de nilpotence.
∞ ∞
Remarque : Ce résultat reste vrai si l’on remplace C (R, C) par C (R, R). Mais Emilien Courtine5

observe qu’il est faux si l’on considère E = C (R, C) comme R-espace vectoriel.
En effet, si f = g + ih, où g et h sont les parties réelle et imaginaire de f, l’opérateur T défini par T(f)
2
= h + ig’ est R-linéaire et tel que T = D.
____________

Problème 19 : Matrices de Hessenberg

Soit K un corps commutatif. Une matrice carrée A = (aij) ∈ Mn(K) est dite de Hessenberg si aij = 0
 a11 a12 a13 ... ... a1n 
a21 a22 a23 ... ... a2n 
pour j ≥ i + 2, autrement dit si A est de la forme :  0 a32 a33 ... ... a3n 
 ... ... ... ... ... ... 
0 0 ... 0 an −1, n ann 

1) Montrer que ces matrices forment un sous-espace vectoriel H de Mn(K) ; quelle est sa
dimension ? H est-elle une sous-algèbre de Mn(K) ?
2) Soient E un K-espace vectoriel de dimension n, u un endomorphisme de E.
Montrer qu’il existe une base de E relativement à laquelle u a une matrice de Hessenberg.
En déduire que toute matrice A = (aij) ∈ Mn(K) est semblable à une matrice de Hessenberg.
2 3 4 
Exemple : Réduire à une forme de Hessenberg la matrice A = 8 11 14 ∈ M3(R).
5 7 9 
3) Calcul du déterminant.
Soient A = (aij) ∈ Mn(K) une matrice de Hessenberg, B la sous-matrice obtenue en barrant la
 a1, n −1   a1, n 
dernière ligne et les deux dernières colonnes de A. Enfin, on note u =  ...  et v =  ...  .
an −1, n −1  an, n 
   
Montrer que det(A) = det(B | c) , où c = ann.u – an,n−1.v
Si l’on procède ainsi, combien d’opérations nécessite le calcul du déterminant d’une matrice de
Hessenberg d’ordre n ?
a 0 0 ... b
b a 0 ... 0
Calculer le déterminant d’ordre n suivant : 0 b a ... ...
... ... ... a 0
0 ... 0 b a
__________

Problème 20 : Matrices magiques

5 Emilien, empereur romain qui a régné trois mois, en 253, le temps d’assassiner son prédécesseur, et d’être
assassiné par son successeur.

75
On rapporte l’espace vectoriel Mn(R) des matrices carrées d’ordre n à coefficients réels à sa base
canonique (Eij). Pour toute matrice A = (aij) ∈ Mn(R), on note :
n n n n
li(A) = ∑a
j =1
ij , cj(A) = ∑a
i =1
ij , t(A) = ∑a
k =1
kk , at(A) = ∑a
k =1
k, n − k +1 .

1) Matrices de permutations.
À toute permutation σ ∈ Sn de {1, 2, ..., n}, on associe la matrice : Pσ = (δiσ(j)).
Montrer que P : σ → Pσ est un morphisme injectif de groupes de Sn dans Gln(R).
2) L’espace vectoriel L.
On note L l’ensemble des matrices A = (aij) ∈ Mn(R) telles que l1(A) = … = ln(A) , et
L0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que l1(A) = … = ln(A) = 0.

a) Montrer que L0 est un sous-espace vectoriel de Mn(R) ; quelle est sa dimension ? Montrer que
les (Eij − Ein ) (1 ≤ i ≤ n, 1 ≤ j ≤ n−1) forment une base de L0.

b) Montrer que L est un sous-espace vectoriel de Mn(R), et que L = L0 ⊕ R.J, où J désigne la


matrice d’élément général 1. Dimension et base de L ?
3) L’espace vectoriel L ∩ C.
On note C l’ensemble des matrices A = (aij) ∈ Mn(R) telles que c1(A) = … = cn(A) , et
C0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que c1(A) = … = cn(A) = 0.

a) Montrer que L0 ∩ C0 est un sous-espace vectoriel de L0 ; quelle est sa dimension ? Montrer


que les (Eij − Ein − Enj + Enn) (1 ≤ i ≤ n−1, 1 ≤ j ≤ n−1) forment une base de L0 ∩ C0 .
b) Montrer que L ∩ C est un espace vectoriel ; en indiquer la dimension et une base. Montrer
que A ∈ L ∩ C ⇒ ∀(σ, σ’) Pσ.A.Pσ’ ∈ L ∩ C.
4) L’espace vectoriel M.
On note M l’ensemble des matrices A = (aij) ∈ Mn(R) telles que :
l1(A) = … = ln(A) = c1(A) = … = cn(A) = t(A) = at(A).
M0 l’ensemble des matrices A = (aij) ∈ Mn(R) telles que :
l1(A) = … = ln(A) = c1(A) = … = cn(A) = t(A) = at(A) = 0.
On note MS, resp. MS0, l’ensemble des matrices A ∈ M, resp. A ∈ M0, symétriques,
MA, resp. MA0, l’ensemble des matrices A ∈ M, resp. A ∈ M0, antisymétriques.

a) Montrer que M = MS ⊕ MA et M0 = MS0 ⊕ MA0 .


b) Montrer que MA0 = MA ; quelle est sa dimension ?
c) Montrer que MS = MS0 ⊕ R.J ; dimensions de MS0 et MS ?
d) Indiquer des bases de M et M0 lorsque n = 2, n = 3 et n = 4.
e) Soit σ une permutation de {1, 2, …, n} telle que (∀k) σ(n + 1 − k) = n + 1 − σ(k).
Montrer que A ∈ M ⇒ Pσ.A.Pσ−1 ∈ M, et que l’on définit ainsi une action d’un sous-groupe G de
Sn sur M ; combien G a-t-il d’éléments ?
5) Carrés magiques.

76
2
Un carré magique d’ordre n est une matrice A ∈ M dont les éléments sont les entiers 1, 2, … , n
rangés dans un certain ordre. On note Γn l’ensemble des carrés magiques d’ordre n.
a) Si A ∈ Γn , que vaut sa somme magique s = t(A) ?
b) Y a-t-il un carré magique d’ordre 2 ?
c) Soit A = (aij) ∈ Γ3, montrer {1, 9} ⊂ { a12 , a21 , a23 , a32 }. En déduire les éléments de Γ3.
Comment se déduisent-ils de l’un d’entre eux ? (Chine, 2200 ans av. J. C.)
d) Montrer que Γ4 est non vide (Indication : rechercher une reproduction de l’eau-forte
d’Albrecht Dürer intitulée Melancholia).
e) Montrer que si Γn est non vide, son cardinal est un multiple de 8.
f) Soient A un carré magique d’ordre p, et B un carré magique d’ordre q. On considère la matri-
2 2 2
ce D = (duv) d’ordre pq, définie par duv = akl + (bij − 1).p pour (k, l) ∈ [1, p] , (i, j) ∈ [1, q] , et
u = (i − 1).p + k , v = (j − 1).p + l.
Montrer que D est un carré magique d’ordre pq. Construire un carré magique d’ordre 9, d’ordre 12.
g) Soit n un nombre impair, non multiple de 3.
2 2
Montrer que, pour tout couple (k, l) ∈ [1, n] , il existe un unique couple (i, j) ∈ [1, n] tel que :
k ≡ 2.i + j ( mod n ) , l ≡ i + 2.j ( mod n ).
On le note (i, j) = (α(k, l), β(k, l)). Soit W = (gkl) ∈ Mn(R) la matrice donnée par wij = n.(i − 1) + j .
Montrer que G = (gkl) donnée par gkl = wα(k,l), β(k,l) est un carré magique d’ordre n.
Expliciter G pour n = 5. Conséquences ?
____________

77
Problème 21 : Matrices de Hadamard

On note Mn(R) l’algèbre des matrices carrées d’ordre n à éléments réels, Gln(R) le groupe des
t
matrices inversibles, In la matrice unité d’ordre n, A la transposée de la matrice A.
On appelle matrice de Hadamard, en abrégé H-matrice, d’ordre n, toute matrice A ∈ Mn(R) à
t
éléments dans U = {+1, −1}, et telle que A.A = n.In.
Une H-matrice est dite normalisée si sa première ligne et sa première colonne ne comportent que
des +1.
On note Hn l’ensemble des H-matrices, NHn l’ensemble des H-matrices normalisées, et SHn
l’ensemble des H-matrices symétriques, d’ordre n.
1) H-matrices d’ordres 2 et 3.
a) Montrer qu’il existe une unique H-matrice normalisée d’ordre 2 ; on la note N .
b) Expliciter les ensembles H2 et SH2 .
c) Existe-t-il une H-matrice d’ordre 3 ?
2) Généralités sur Hn.
t
a) Montrer que A ∈ Hn ⇒ A ∈ Hn .
−1
b) Montrer que Hn ⊂ Gln(R). Si A ∈ Hn, que dire de det A ? A-t-on A ∈ Hn ?
c) A toute permutation σ de {1, 2, ..., n}, on associe la matrice d’ordre n : Pσ = (δi,σ(j)).
Montrer que l’ensemble de ces matrices est un sous-groupe de Gln(R), et que (Pσ)−1 = tPσ .
Montrer que A ∈ Hn ⇒ Pσ.A ∈ Hn et A.Pσ ∈ Hn .
d) Soit Dn l’ensemble des matrices diagonales d’ordre n, dont les termes diagonaux appar-
tiennent à U = {+1, −1}. Montrer que Dn est un sous-groupe de Gln(R), et que :
A ∈ Hn et ∆ ∈ Dn ⇒ ∆.A ∈ Hn et A.∆ ∈ Hn .
e) Montrer que, pour toute A ∈ Hn, il existe un couple (∆, ∆’) ∈ Dn×Dn tel que ∆.A.∆’ soit une
H-matrice normalisée. Le couple (∆, ∆’) est-il unique ?
3) Condition nécessaire pour que Hn soit non vide.
On suppose Hn non vide. Soit A = (ajk) une H-matrice normalisée d’ordre n. On note c1, c2, …, cn
n
les colonnes de A, et l’on munit R du produit scalaire usuel, noté < x , y >.
a) Expliciter les produits scalaires < cj , ck >.
b) En considérant < c1 , c2 >, montrer que n est pair.
c) On suppose n > 2, et on note :
x = card { j ; aj2 > 0 et aj3 > 0 } , y = card { j ; aj2 > 0 et 0 > aj3 }
z = card { j ; aj2 < 0 et 0 < aj3 } , t = card { j ; aj2 < 0 et aj3 < 0 }
Montrer que (x, y, z, t) est solution d’un système linéaire de quatre équations à quatre inconnues.

78
En déduire que 4 divise n.
4) Un procédé de fabrication de H-matrices.

a) Montrer que A ∈ Hn ⇒ 
A A∈H .
2n
 A −A
Si A = (αij) ∈ Mn(R) et B = (β ij) ∈ Mp(R), on note A ⊗ B la matrice carrée d’ordre np, définie par
α11B ... α1n B 
blocs par : A ⊗ B =  ... ... ...  .
α n1B ... α nn B 

b) Montrer que A ∈ Hn et B ∈ Hp ⇒ A ⊗ B ∈ Hn.p .


m
c) Démontrer que si n = 2 , où m ∈ N, Hn et SHn sont non vides .
5) Un autre procédé de fabrication de H-matrices.
Soient A, B, C et D quatre matrices symétriques de Mn(R) ; on suppose qu’elles commutent deux à
deux, et on considère la matrice-blocs d’ordre 4n :
A −B −C − D
M= 
B A D −C  .
C −D A B
 D C −B A 
n n
Soient (e1, e2, …, en) la base canonique de R , p l’endomorphisme de R défini par :
p(e1) = en et p(ej) = ej−1 pour 2 ≤ j ≤ n.
a) Ecrire la matrice P de p dans la base canonique.
k n−1
b) Soit A(P) le sous-espace de Mn(R) engendré par les P , k ∈ N. Montrer que (In, P, …, P )
est une base de A(P).
n −1
c) A quelles conditions portant sur les réels λk la matrice ∑ λ .P
k =0
k
k est-elle symétrique ?

d) On suppose que A, B, C et D appartiennent à A(P), qu’elles ont leurs éléments dans U, et


2 2 2 2
qu’elles vérifient A + B + C + D = 4n.In.
t
Calculer M.M. Conclusion ?
e) Montrer que H12 est non vide.
m+2
f) Montrer plus généralement que si n = 3.2 , où m ∈ N, alors Hn et SHn sont non vides.

Remarque finale : La conjecture selon laquelle Hn est non vide pour tout entier n multiple de 4, est
indémontrée à ce jour.
___________

Références :
A. Tissier, Matrices de Hadamard, RMS, mars 1990
Problème ENSI (CCP) 1991, P, Deuxième épreuve de maths
Codes correcteurs, Agrégation, etc.
V. Mazya et T. Shaposhnikova, Jacques Hadamard, EDP, p. 342.
Wikipedia : matrices de Hadamard
__________

79
Problème 22 : Matrices positives
n
Dans cet exercice, on munit l’espace vectoriel R de la relation d’ordre entre deux vecteurs
n
x = (x1, …, xn) et y = (y1, …, yn) définie par x ≤ y ⇔ (∀i) xi ≤ yi . Si x et y ∈ R ont note :
x ∨ y = (x1 ∨ y1 , … , xn ∨ yn) , x ∧ y = (x1 ∧ y1 , … , xn ∧ yn) , | x | = ( |x1| , … , |xn| ).
Une matrice A = (aij) ∈ Mn(R) est dite positive, et on note A ≥ 0, si ∀(i, j) aij ≥ 0.

1) Soit A = (aij) ∈ Mn(R). Montrer l’équivalence :


a) A ≥ 0
n
b) ∀x ∈ R x ≥ 0 ⇒ A.x ≥ 0
n n
c) ∀(x, y) ∈ R × R x ≤ y ⇒ A.x ≤ A.y
2) Soit A = (aij) ∈ Mn(R). Montrer l’équivalence :
n n
a) ∀(x, y) ∈ R × R A.( x ∨ y ) = A.x ∨ A.y
n n
b) ∀(x, y) ∈ R × R A.( x ∧ y ) = A.x ∧ A.y
n
c) ∀x ∈ R A.|x| = |A.x|
d) Chaque ligne de A contient au plus un élément ≠ 0, qui est > 0.
3) Quelles sont les matrices A ∈ Gln(R) telles que (∀x) x ≥ 0 ⇒ A.x ≥ 0, resp A.|x| = |A.x| ?
−1
4) On dit que A est monotone si A est inversible et A est positive.
Montrer que A est monotone ⇔ [ (∀X) A.X ≥ 0 ⇒ X ≥ 0 ].
Caractériser les matrices positives et monotones.

Références : Oral X 1999


___________

Problème 23 : Discrétisation d’une équation différentielle linéaire

On désigne par a et b des fonctions continues [0, 1] → R ; on suppose ∀t ∈ [0, 1] a(t) ≥ 0.


4
On se propose d’étudier un procédé d’approximation d’une fonction f ∈ C ([0, 1], R), vérifiant :
∀t ∈ [0, 1] f’’(t) − a(t).f(t) = b(t) , f(0) = λ , f(1) = µ ,
où λ et µ sont des réels donnés. A cet effet on introduit une subdivision (t0, t1, …, tn+1) à pas
constant h = 1 de [0, 1], où n est un entier > 2. On a donc ∀k ∈ [0, n+1] tk = kh.
n+1
Dans la partie I on montre que, pour approcher f sur [0, 1], il suffit de connaître une valeur
approchée uk de f(tk) en chaque point tk. Les parties II et III décrivent un algorithme de construction
des valeurs approchées uk.
p (p)
Pour toute g ∈ C ([0, 1], R), on pose Mp(g) = supt∈[0, 1] | g (t) |.

I. Approximation de f par une fonction affine par morceaux.


2
1) Soient g ∈ C ([0, 1], R), (α, β) un couple d’éléments de [0, 1] tel que α < β, g(α) = g(β) = 0.

80
g(t)
a) Soit G la fonction définie sur [0, 1] par G(t) = si t ≠ α , g’(α) si t = α.
t −α
1
Montrer que G est C et que ∀t ∈ [0, 1] | G’(t) | ≤ 1 .M2(g) .
2
b) En conclure que ∀t ∈ [0, 1] | g(t) | ≤ 1 |(t − α).(t − β)|.M2(g) .
2
2) Soit ψh la fonction définie sur [0, 1] par les conditions :
• ∀k ∈ [0, n+1] ψh(tk) = f(tk) • pour tout k ∈ [0, n] la restriction de ψh à [tk, tk+1] est affine.

Montrer que ∀t ∈ [0, 1] | f(t) − ψh(t) | ≤ h² M2(f) .


8
3) Soit enfin (u0, u1, …, un+1) une suite de réels, et ϕh la fonction définie sur [0, 1] par les
conditions :
• ∀k ∈ [0, n+1] ϕh(tk) = uk • pour tout k ∈ [0, n], la restriction de ϕh à [tk, tk+1] est affine.

Montrer que ∀t ∈ [0, 1] | f(t) − ϕh(t) | ≤ h² M2(f) + δh , où δh = sup0≤k≤n+1 | f(tk) − uk | .


8

II. Algorithme de résolution d’un système linéaire.

Soient (a1, …, an) et (b1, …, bn) deux suites de réels. On suppose (∀k) ak ≥ 2, et on considère le
système linéaire :
 a1.u1 – u2 = b1
 − u1 + a2.u2 – u3 = b2
(1)  . . . . . . . . . . . .
 − un−2 + an−1.un−1 – un = bn−1
 − un−1 + an.un = bn
1) Montrer que l’on peut construire une suite (c1, …, cn) de réels appartenant à ]0, 1] vérifiant :

c1 = 1 et ∀k ∈ [1, n − 1] ck+1 = 1
a1 ak +1 −ck
2) Soit (d1, d2, …, dn) la suite de réels définie par les relations de récurrence :
d1 = b1.c1 et ∀k ∈ [1, n − 1] dk+1 = (bk+1 + dk).ck+1 .
Montrer que le système (1) admet une solution et une seule, et que celle-ci est déterminée par les
relations : un = dn et ∀k ∈ [1, n−1] uk = dk + ck.uk+1 .

3) Montrer que si les nombres b1, b2, …, bn sont ≥ 0, il en est de même des nombres u1, u2, …, un.
(n+1)²
4) Dans cette question, on suppose b1 = b2 = … = bn = 1. Montrer ∀k ∈ [1, n] 0 ≤ uk ≤ .
2
(n+1)²
5) Dans le cas général, montrer sup1≤k≤n | uk | ≤ sup1≤k≤n | bk | .
2

III. Obtention de valeurs approchées de f aux point tk.


h4
1) Soit t un réel tel que [t−h, t+h] ⊂ [0, 1]. Montrer | f(t+h) − f(t−h) − 2 f(t) − h2 f’’(t) | ≤ M (f)
12 4
A cet effet, on pourra introduire la fonction auxiliaire :

81
2
F : x ∈ [−h, h] → F(x) = f(t + x) + f(t − x) − 2 f(t) − x f’’(t).
On calculera les dérivées successives de F jusqu’à l’ordre 3 et en particulier leurs valeurs à l’origine,
et on majorera | F’’’(x) | à l’aide de M4(f).
2) En déduire
2 2
∀k ∈ [1, n] − f(tk−1) + [2 + h a(tk)] f(tk) − f(tk+1) = − h b(tk) + εk , où | εk | ≤ h² M4(f) (2).
12
3) On connaît déjà f(t0) = f(0) = λ et f(tn+1) = f(1) = µ. Pour approcher f(t1), f(t2), …, f(tn), on
remplace les relations (2) par le système linéaire :
2 2
 − uk−1 + [2 + h a(tk)].uk − uk+1 = − h b(tk) , 1 ≤ k ≤ n
 u0 = λ , un+1 = µ.
Montrer comment, à l’aide de la partie II, on peut construire la suite (u0, u1, …, un+1).

4) Cette suite étant ainsi définie, établir que δh ≤ h² M2(f) .


24
En conclure ∀t ∈ [0, 1] | f(t) − ϕh(t) | ≤ A.h2 , où A = 1 M2(f) + 1 M4(f) . Conclusion ?
8 24
__________

Problème 24 : Matrices harmoniques

à Nicolas Burq

Dans ce problème, n et p désignent des entiers ≥ 3.


On note M(n, p) l’espace vectoriel des matrices réelles à n lignes et p colonnes.
Mn l’espace vectoriel des matrices réelles carrées d’ordre n.
Enfin, on introduit les deux matrices tridiagonales :
 1 0 0 ... ... 0   2 0 0 ... ... 0 
−1 2 −1 0 ... 0  −1 3 −1 0 ... 0 
 0 −1 2 −1 0  ∈ M et K =
Jn = 
 0 −1 3 −1 0  ∈ M .
... ... ... ... ... ...  n n  ... ... ... ... ... ...  n
 0 0 ... −1 2 −1  0 0 ... −1 3 −1
 0 0 ... 0 0 1   0 0 ... 0 0 2 
n
1) a) Soit X ∈ R . Montrer que Jn.X = 0 ⇒ X = 0. En déduire que Jn est inversible.
b) Montrer de même que Kn est inversible.
2) On note I = [2, n−1] × [2, p−1] et F = [1, n]×[1, p] − I.
La matrice A = (aij) ∈ M(n, p) est dite harmonique si :
∀(i, j) ∈ I aij = 1 ( ai−1,j + ai+1,j + ai,j−1 + ai,j+1 ).
4
Montrer que l’ensemble H(n, p) de ces matrices est un sous-espace vectoriel de M(n, p).
t
3) Soit A = (aij) ∈ M(n, p). Calculer avec soin la matrice Φ(A) = Jn.A + A. Jp .
Que dire de Φ(A) lorsque A ∈ H(n, p) ?
4) Soit A = (aij) ∈ H(n, p).
a) Etablir la relation : ∀(i, j) ∈ I aij ≤ max ( ai−1,j , ai+1,j , ai,j−1 , ai,j+1 ).
b) En déduire que si M = max aij et m = min aij , alors :
∃(i0, j0) ∈ F M = ai , j et ∃(i1, j1) ∈ F m = ai , j .
0 0 1 1

82
c) Que dire de A si ∀(i, j) ∈ F aij = 0 ?
5) Déduire de ce qui précède que Φ est un automorphisme de M(n, p).
Quelle est la dimension de H(n, p) ?
6) On se donne une famille quelconque (xij)(i, j)∈F de réels, indexée par l’ensemble F.
Montrer qu’il existe une unique matrice A = (aij) ∈ H(n, p) telle que ∀(i, j) ∈ F aij = xij .
___________

Problème 25 : Température de plaques

A. Première partie : théorème de Olga Taussky.


Soit A = (aij) ∈ Mn(C) une matrice carrée d’ordre n à éléments complexes.
Pour tout i ∈ [1, n], on pose Pi = ∑a
j ≠i
ij et Qi = ∑a j ≠i
ji .

1) a) Montrer que si (∀i) |aii| > Pi , alors A est inversible. [Considérer le système linéaire A.X = 0.]
b) Montrer que si (∀i) |aii| > Qi , alors A est inversible.
c) Ces conditions suffisantes d’inversibilité sont-elles nécessaires ?
2) Plus généralement on suppose que (∀i) |aii| ≥ Pi , l’inégalité étant stricte pour au moins un
2
indice i0, et que, pour tout couple (i, h) ∈ [1, n] , il existe une suite k1, …, km d’éléments de [1, n]
telle que : ai,k ≠ 0 , ak ,k ≠ 0 , … , ak ,km ≠ 0 , akm,h ≠ 0 .
1 1 2 m −1

Démontrer que, pour tout i, ai,i est non nul, puis que A est inversible.

B. Deuxième partie : températures d’équilibre de plaques.


Notations :
• Si X est un ensemble fini, on note |X| son cardinal, F(X) l’espace vectoriel des fonctions X → R.
2
• On munit Z de la distance euclidienne usuelle, notée (M, M’) → |M M’|.
2
Pour tout point M = (x, y)∈Z on note V(M) l’ensemble des 4 points voisins (x ± 1, y) et (x, y ± 1).
2
• Ω est une partie finie non vide de Z , que l’on suppose incluse dans [1, p]×[1, q].
2
On note ∂Ω l’ensemble des M∈Z −Ω tels que V(M)∩Ω ≠ ∅ et Ω = Ω ∪∂Ω ⊂ [0, p+1]×[0, q+1].

• Pour tout couple (M, M’) ∈ Ω , on pose ε (M, M’) = 1 si |MM’| = 1, 0 sinon.
2

• Un élément f ∈ F( Ω ) est appelé une distribution de températures.

4 M'∑
Elle est dite stationnaire ou harmonique si (∀M ∈ Ω) f(M) = 1 f(M') .
∈V(M)

On se propose de démontrer, par deux méthodes, que, pour toute fonction g ∈ F(∂Ω), il existe une
et une seule f ∈ H( Ω ) prolongeant g, autrement dit qu’il existe une unique distribution de tempé-
rature stationnaire prenant des valeurs données sur le bord de Ω .
1) Montrer que la recherche de f équivaut à la résolution d’un système de |Ω| équations à |Ω|
inconnues. Il s’agit donc de montrer que ce système est cramérien.
2) 1ère méthode. Montrer que, de quelque façon que l’on range les inconnues f(M), M ∈ Ω, la
matrice A de ce système est symétrique, et obéit aux hypothèses de la question A.2), cum grano
salis.

83
3) 2ème méthode.
a) Soit f ∈ H( Ω ). Montrer que f atteint sa valeur maximum en un point de ∂Ω ; en déduire que
si f est nulle sur le bord ∂Ω, alors f est nulle. b) Conclure.
4) Calculer les répartitons d’équilibre thermique dans les cas suivants :
Ω = {(1, 1), (2, 1), (3, 1), (4, 1)} ; f(x, 2) = x et f(x, 0) = 10−x (1 ≤ x ≤ 4), f(0, 1) = 0, f(5, 1) = 5.
2
Ω = {1, 2, 3} f(x, 0) = f(x, 4) = 1 ; f(0, y) = f(4, y) = −1 (1 ≤ x, y ≤ 3)
2
Ω = {1, 2, 3} f(x, 0) = f(0, y) = −1 ; f(x, 4) = f(4, y) = 1 (1 ≤ x, y ≤ 3)
___________

Solution

Ce problème généralise le précédent.


A. Première partie : théorèmes de Hadamard et Olga Taussky.
1) Théorème de Hadamard.
a) Montrons que ∀X ∈ Cn A.X = 0 ⇒ X = 0 .
Raisonnons par absurde, et supposons qu’il existe X ≠ 0 tel que A.X = 0.
Si | xi | = max |xk| , il vient
0
| ai ,i .xi | = | − ∑ai , j.x j | ≤
0 0 0 0
∑a .x j .
i0 , j
j ≠ i0 j ≠ i0

Si l’on divise par | xi |, il vient | ai ,i


0 0 0
|≤ ∑a i0 , j
= Pi : contradiction !
0
j ≠ i0
n n
Par suite, l’application linéaire associée à A est injective de C dans C , donc bijective.
Autre formulation : les lignes de A sont libres, donc rg A = n.
De telles matrices sont dites diagonalement dominantes.
a 1 1  a 1 0
Exemples : 1 a 1  et 1 a 1 sont inversibles dès que |a| > 2.
1 1 a  0 1 a
b) Il suffit de transposer.
c) Ce ne sont là des conditions suffisantes d’inversibilité, comme le montre   , et, plus géné-
01
1 0
ralement, la matrice associée au cycle [1, 2, …, n].
2) Théorème d’Olga Taussky (ou Hadamard-Frobenius).
Associons à la matrice A le graphe orienté G dont les sommets sont {1, 2, …, n}, et les arêtes les
couples (i, j) tels que aij ≠ 0. L’hypothèse faite sur A assure que G est connexe par arcs.
Tout d’abord aii = 0 impliquerait que toute la ligne d’indice i serait nulle, contredisant la connexité
par arcs de G.
Reprenons le raisonnement de 1) en l’affinant. Supposons qu’il existe X ≠ 0 tel que A.X = 0.
Si | xi | = max |xk| , il vient
1
| ai ,i .xi | = | − ∑ai , j.x j | ≤
1 1 1 1
∑a .x j ≤ | xi | ∑ ai , j ≤ | xi |.| ai ,i | .
i1 , j 1 1 1 1 1
j ≠i1 j ≠i1 j ≠i1

Il en résulte en particulier, que : ∑a .x j = | xi | ∑ ai , j .


i1 , j 1 1
j ≠i1 j ≠i1

Cela implique que, pour tout j ≠ i1, on a ai , j ≠ 0 ⇒ | xj | = | xi | (*).


1 1

Notons J = { j ; | xj | = | xi | } et K son complémentaire. Il découle de (*) que ∀(j, k) ∈ J×K a j,k = 0.


1

La connexité par arcs du graphe G implique que K = ∅, donc que J = {1, 2, …, n}.

84
On voit alors que la condition | ai ,i | >
0 0
∑a i0 , j
va être violée.
j ≠i0

En effet : | ai ,i .xi | = | − ∑ai , j.x j | ≤


0 0 0 0
∑a .x j = | xi | ∑ ai , j .
i0 , j 0 0
j ≠i0 j ≠i0 j ≠i0

 1 0 0 ... ... 0   2 −1 0 ... ... 0 


−1 2 −1 0 ... 0  −1 2 −1 0 ... 0 

Exemples : Les matrices d’ordre n 
0 − 1 2 − 1 0   0 −1 2 −1
et 
0  sont inversibles.
... ... ... ... ... ...  ... ... ... ... ... ... 
 0 0 ... −1 2 −1  0 0 ... −1 2 −1
 0 0 ... 0 0 1   0 0 ... 0 −1 2 
Remarque : la nécessité des hypothèses (H2) et (H3) apparaît sur les exemples suivants :
1 1 0 −2 1 1 
1 1 0 vérifie (H1) et (H2) mais pas (H3) ;  1 −2 1  vérifie (H1) et (H3), mais pas (H2).
0 0 1  1 1 −2

B. Deuxième partie : températures de plaques.


0. Préliminaires.
0.1. Si X est un ensemble fini, F(X) est un R-espace vectoriel de dimension |X|.
0.2. On peut toujours supposer Ω inclus dans [1, p]×[1, q], à translation près.
0.3. Filant la métaphore avec le cours de topologie, nous appellerons :
• intérieur de Ω l’ensemble Ω° = { M ∈ Ω ; V(M) ⊂ Ω } ;
• bord intérieur de Ω l’ensemble Ω − Ω° ;
• bord extérieur de Ω l’ensemble ∂Ω = { M ∈ Z×Z − Ω ; V(M) ∩ Ω ≠ ∅ } ;
• adhérence de Ω l’ensemble Ω = Ω ∪ ∂Ω .
On a : 1 ≤ |∂Ω| ≤ 4.|Ω| et |Ω| < | Ω | ≤ 5.|Ω|.
0.4. Si X est une partie finie de Z×Z, la relation dans X : « M = N ou il existe une suite finie M0,
M1, …, Mk de points de X tels que M0 = M, Mk = N et |Mi Mi+1| = 1 pour 0 ≤ i ≤ k − 1 » est une
relation d’équivalence dans X, dont les classes sont les composantes connexes (par arcs) de X. X
est dit connexe par arcs s’il n’a qu’une composante connexe.
Si Ω est connexe par arcs, il en est de même de Ω ; la réciproque est fausse.
1) Mise en équation du problème.
La recherche de f équivaut à la résolution d’un système linéaire de |Ω| équations à |Ω| inconnues.
En effet, les inconnues sont les f(M), où M ∈ Ω, et il y a une équation centrée en chaque point M.
Si M = (x, y), cette équation est de la forme
4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) − f(x, y – 1) = 0
mais attention, certains des 4 points voisins peuvent se trouver sur le bord, donc être connus. Il faut
alors les basculer dans l’autre membre.
Si M = (x, y) est intérieur, l’équation s’écrit :
4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) − f(x, y – 1) = 0
S’il appartient au bord intérieur, elle s’écrira par exemple
4.f(x, y) − f(x – 1, y) − f(x + 1, y) − f(x, y + 1) = g(x, y – 1)
Précisons encore les choses, et introduisons des notations qui permettraient de généraliser le
3 4
problème à Z , Z , etc. Notons :
• pour tout couple (M, M’) ∈ Ω×Ω a(M, M’) = 4 si M = M’ , − 1 si |M M’| = 1 , 0 sinon.
• pour tout couple (M, P) ∈ Ω×∂Ω b(M, P) = 1 si |M P| = 1 , 0 sinon.
Le système linéaire s’écrit très exactement

85
(E) ∀M ∈ Ω ∑a(M,M').f(M') = ∑b(M,P).g(P)
M'∈Ω P∈∂Ω

Il s’agit donc de montrer qu’il est cramérien. Nous supposerons dans la suite Ω connexe par arc, ce
qui ne restreint pas la généralité, car le système linéaire obtenu se scinde en autant de sous-systèmes
que de composantes connexes par arcs de Ω.
2) 1ère méthode : théorème de Hadamard-Frobenius-Taussky.
De quelque façon que l’on range les inconnues, f(M), M ∈ Ω, la matrice A = (a(M, M’)) est
symétrique, car a(M, M’) = a(M’, M).
Elle vérifie a(M, M) = 4 pour tout M. Elle possède au plus 4 éléments non nuls dans l’équation
centrée en M. Elle est donc diagonalement dominante au sesn large.
Il est sûr que A possède une ligne diagonalement dominante au sens strict, car le bord intérieur de Ω
n’est pas vide. Enfin la condition de connexité par arcs de la 1ère partie :
2
∀(i, h) ∈ [1, n] ∃( k1, …, km ) ai,k ≠ 0 , ak ,k ≠ 0 , … , ak ,km ≠ 0 , akm,h ≠ 0
1 1 2 m −1

s’écrit : ∀(M, M’) ∈ Ω×Ω ∃( M k , M k ,… , M km )


1 2

a(M, M k ) ≠ 0 , a( M k , M k ) ≠ 0 , … , a( M k , M km ) ≠ 0 , … , a( M km , M’) ≠ 0 .
1 1 2 m −1

Cela découle de la connexité par arcs de Ω !


3) 2ème méthode : principe du maximum.
Soit f ∈ H( Ω ). Je dis que f atteint sa valeur maximum en un point de ∂Ω .
En effet, f atteint sa valeur maximum M en un point de Ω , car Ω est un ensemble fini.
Si cette valeur est atteinte en un point de ∂Ω , c’est gagné.
Si elle est atteinte en un point intérieur, alors elle est atteinte en les 4 points voisins. De proche en
proche, f prend la valeur M en tous les points de Ω , par connexité par arcs. Bref, f est constante, et
alors sa valeur maximum est encore atteinte sur le bord.
De même, f atteint sa valeur minimum est atteinte en un point de ∂Ω ; cela se déduit de ce qui
précède en changeant f en – f. On en conclut que si f est nulle sur le bord, f est nulle partout.
Cela revient à dire que le système homogène (E0) associé au système linéaire (E) n’a que la solution
triviale. On sait qu’alors (E) est cramérien.
Remarque finale : Il reste à résoudre ce système, qui en général est de très grande taille. Il provient
en effet de la discrétisation d’un problème de Dirichlet. Pour cela on n’utilise ni les formules de
Cramer, ni une méthode de pivot, mais une méthode itérative.
Références :
Chambadal-Ovaert, Algèbre 2 (Gauthier-Villars), ex. n° 25 p. 369, 37 p. 375
Ciarlet, Analyse numérique matricielle et optimisation (Masson), p. 45
Stoer-Burlisch, Introduction to numerical analysis (Springer), p. 588
ENS Ulm 1968, 1986, Cachan 1989, Lyon 1996 (Oral), etc.
___________

Problème 26 : Localisation des valeurs propres

Soit A = (aij) ∈ Mn(C) une matrice carrée d’ordre n à éléments complexes.


On note Sp A le spectre de A, ensemble des valeurs propres.
Pour tout i ∈ [1, n], on pose Pi = ∑a
j ≠i
ij et Qi = ∑a
j ≠i
ji .

1) a) Montrer que si (∀i) |aii| > Pi , alors A est inversible [ Considérer le système linéaire A.X = 0.]
b) Montrer que si (∀i) | aii | > Qi , alors A est inversible.
c) Ces conditions suffisantes d’inversibilité sont-elles nécessaires ?

86
2) Déduire de 1) que Sp A ⊂ D ∩ D’ , où :
• D est la réunion des disques { z ∈ C ; | aii − z | ≤ Pi } (1 ≤ i ≤ n)
• D’ est la réunion des disques { z ∈ C ; | aii − z | ≤ Qi } (1 ≤ i ≤ n)
3) Applications :
 i 1 2   4 + 3i i 2 −1 
a) Localiser les valeurs propres de A = i + 3 3 1  et B =  i −1+i 0 0 .
 1 −1 −3i   1+i −i 5+6i 2i 
   1 −2i 2i −5−5i 
b) Une matrice A = (aij) ∈ Mn(R) est dite stochastique si :
n

∑a
2
∀(i, j) ∈ [1, n] aij ≥ 0 et ∀i ∈ [1, n] ij =1.
j =1

Montrer que ∀λ ∈ Sp A | λ | ≤ 1 , et que 1 ∈ Sp A


Montrer que, si (∀i) aii > 0, 1 est la seule valeur propre de module 1.
n

∑a
2
c) Soit A = (aij) ∈ Mn(R) telle que ∀(i, j) ∈ [1, n] aij ≥ 0 et ∀i ∈ [1, n] ij <1.
j =1

Montrer que det( I – A ) > 0.


n n−1
4) Comparer P(z) = z + a1 z + … + an−1 z + an au polynôme caractéristique de la matrice
 0 0 0 ... −an 
 1 0 0 ... −an −1 
... ... ... ... ... 
 0 0 ... 0 −a 
 0 0 ... 1 −a2 
 1 

En déduire que les racines de P sont contenues dans un disque de centre O dont on précisera le
rayon.
4 3 2
Application : localiser les racines de P(z) = z − 4i z + 6 z − 2i z − 3.

5) Soit A = (aij) ∈ Mn(R) vérifiant (∀i) aii > Pi . On pose A = D + H, où D = diag(a11, …, ann).
En considérant la fonction t → det(D + t.H), montrer que det A > 0.
6) Par une méthode analogue à 1.a), montrer que si ∀(i, j) i ≠ j ⇒ |aii|.|ajj| > Pi.Pj, alors A est
inversible. En déduire que le spectre de A est inclus dans C ∩ C’, où :
n(n−1)
• C est la réunion des ovales de Cassini { z ∈ C ; | aii − z |.| ajj − z | ≤ Pi.Pj } (i < j)
2
n(n−1)
• C’ est la réunion des ovales de Cassini { z ∈ C ; | aii − z |.| ajj − z | ≤ Qi.Qj } (i < j)
2
__________

Références :
Maurice Parodi, Localisation des valeurs caractéristiques des matrices, Gauthier Villars
Centrale, Problème.
__________

Problème 27 : Produits tensoriels

Toutes les matrices, tous les vecteurs ici considérés sont à éléments dans un corps commutatif K.
On note M(n, p) l’espace vectoriel des matrices n×p, et l’on identifie les vecteurs de Kn aux
matrices-colonnes de M(n, 1).

87
 x1   y1 
Si X =  ...  ∈ Kn et Y =  ...  ∈ Kq , on appelle produit tensoriel de X et Y le vecteur
 xn   yq 
 x1 .Y 
X ⊗ Y =  ...  ∈ Knq obtenu en remplaçant dans X, xi par le vecteur xi.Y .
 xn.Y 

1) a) Montrer que l’application (X, Y) → X ⊗ Y est bilinéaire Kn×Kq → Knq .


b) Un vecteur Z de Knq de la forme X ⊗ Y est dit décomposé.
Donner un exemple de vecteur non décomposé. Caractériser les vecteurs décomposés.
Montrer que les vecteurs de la base canonique de Knq sont tous décomposés.
c) Montrer que si (Xi)1≤i≤r est génératrice dans Kn et (Yj)1≤j≤s est génératrice dans Kq , alors
(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] est génératrice dans Knq .
d) Si (Xi)1≤i≤n et (Yj)1≤j≤q sont des bases respectives de Kn et Kq, que dire de (Xi ⊗ Yj)(i,j)∈
[1,n]×[1,q] ?
e) Si (Xi)1≤i≤r est une famille libre dans Kn et (Yj)1≤j≤s une famille libre dans Kq , que dire de
(Xi⊗Yj)(i,j)∈[1,r]×[1,s] ?
f) Dans le cas général, comparer rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] à rg(Xi).rg(Yj), et établir des réci-
proques des résultats établis en c), d) et e).
2) Soit H un espace vectoriel. Montrer que, pour toute application bilinéaire Φ : Kn×Kq → H, il
existe une application linéaire et une seule f : Knq → H telle que :
(∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = f(X ⊗ Y) .
3) Déduire de 2) qu’il existe un isomorphisme M : Knq → M(n, q) vérifiant :
t
(∀X ∈ Kn) (∀Y ∈ Kq) M(X ⊗ Y) = Y. X .
Reconnaître cet isomorphisme. Quelles sont les images par M des vecteurs décomposés ? Soit Z∈
Knp, r le nombre minimum de vecteurs décomposés de somme Z. Caractériser r à l’aide de M(Z).
4) Soient A ∈ M(m, n) et B ∈ M(p, q) deux matrices identifiées aux applications linéaires Kn →
Km et Kq → Kp canoniquement associées.
a) Montrer qu’il existe une unique application linéaire ϕ : Knq → Kmp vérifiant :
(∀X ∈ Kn) (∀Y ∈ Kq) ϕ(X ⊗ Y) = (A.X) ⊗ (B.Y) .
b) Montrer que ϕ a pour matrice :
 a11B ... a1n B 
A ⊗ B ≡  ... ... ...  dans les bases canoniques de Knq et Kmp .
am1B ... amn B
c) Montrer que l’application (A, B) → A ⊗ B est bilinéaire, et que l’on a :
(C ⊗ D).(A ⊗ B) = (C.A) ⊗ (D.B) et A ⊗ (B⊗C) = (A⊗B) ⊗ C dès que les formats le permettent.
d) Exprimer le rang de A ⊗ B à l’aide des rangs de A et B.
5) Si A et B sont carrées, quand A ⊗ B est-elle inversible ? que vaut alors (A ⊗ B)−1 ? Quand A⊗
B est-elle nilpotente ? Montrer enfin que A et B diagonalisables ⇒ A ⊗ B est diagonalisable.
__________

Corrigé : produits tensoriels de vecteurs et de matrices


A l’adolescent que je fus.
Arthur Rimbaud
1) Généralités.

88
a) L’application (X, Y) → X ⊗ Y est bilinéaire Kn×Kq → Knq , car :
(αx1 + x'1 ).Y   x1 .Y   x'1.Y 
(αX + X’) ⊗ Y =  ...  = α.  ...  +  ...  = α.(X ⊗ Y) + (X’ ⊗ Y)
(αxn + x'n).Y   xn.Y  x'n.Y 
x1.(β Y +Y')  x1 .Y  x1.Y'
X ⊗ (βY + Y’) =  ...  = β.  ...  +  ...  = β.(X ⊗ Y) + (X ⊗ Y’) .
xn.(β Y +Y')  xn.Y  xn.Y'
b) Vecteurs décomposés. Un vecteur Z de Knq de la forme X ⊗ Y est dit décomposé.
1
Exemple de vecteur non décomposé. Si n = q = 2, le vecteur 0
0 n’est pas décomposé.
1
 
Z1 
Plus généralement, soit Z un vecteur de Knq , découpé sous la forme  ...  en vecteurs de Kq .
Zn 
Z est décomposé si et seulement s’il existe un vecteur Y de Kq tel que (∀i) (∃xi) Zi = xi.Y,
autrement dit ssi rg(Z1, Z2, …, Zn) ≤ 1.
Montrons que les vecteurs de la base canonique de Knq sont tous décomposés.
Notons (a1, …, an), (b1, …, bq) et (e1, …, enq) les bases canoniques respectives de Kn, Kq et Knq.
Je dis que (ai ⊗ bj) est la base canonique de Knq .
En effet ai ⊗ bj = e(i−1)q+j est un vecteur canonique.
Réciproquement ek = ai ⊗ bj , où k = (i − 1)q + j , c’est-à-dire k − 1 = (i − 1)q + j − 1 .
Donc i − 1 est le quotient, et j − 1 le reste, de la division euclidienne de k − 1 par q.
Il en résulte en particulier que les vecteurs décomposés engendrent Knq.
c) Soient (Xi)1≤i≤r et (Yj)1≤j≤s des familles génératrices respectives de Kn et Kq .
Je dis que (Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] est une famille génératrice de Knq .
Cela va découler de a) et b). En effet, tout vecteur Z de Knq est combinaison linéaire des ai ⊗ bj .
Or par bilinéarité, ai ⊗ bj est combinaison linéaire des Xi ⊗ Yj.
d) Soient (Xi)1≤i≤n et (Yj)1≤j≤q des bases respectives de Kn et Kq .
En vertu de c), (Xi ⊗ Yj)(i,j)∈[1,n]×[1,q] est une famille génératrice de Knq .
Comme elle a nq éléments, c’est une base de Knq .
e) Soient (Xi)1≤i≤r et (Yj)1≤j≤s des familles libres respectives de Kn et Kq .
Je dis que (Xi⊗Yj)(i,j)∈[1,r]×[1,s] est une famille libre de Knq .
En effet, complétons (Xi)1≤i≤r en une base (Xi)1≤i≤n de Kn et (Yj)1≤j≤s en une base (Yj)1≤j≤q de
Kq . En vertu de d), (Xi ⊗ Yj)(i,j)∈[1,n]×[1,q] est une base de Knq .
La sous-famille (Xi⊗Yj)(i,j)∈[1,r]×[1,s] de cette base est une famille libre. Cqfd.
Remarque : on peut aussi démontrer directement la liberté de (Xi⊗Yj). Voici comment :
r s r s  x1i.Yj 
∑∑λ .(X ⊗Y ) = 0. Notons ∑∑λ . x ....Y  = 0.
t
Supposons ij i j Xi = (x1i, …, xni). Alors ij
i =1 j =1 i =1 j =1
 ni j

r s s r
Du coup, chacun des sous-vecteurs est nul : ∑∑λ . xki.Yj = ∑(∑λ . xki).Yj = 0 pour tout k.
i =1 j =1
ij
j =1 i =1
ij

89
r r
Par liberté de (Yj) , ∀(k, j) ∑λij.xki = 0. Du coup
i =1
∑λ .X
i =1
ij i = 0. Par liberté de (Xi) , ∀(i, j) λij = 0.

f) Dans le cas général, montrons que rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] = rg(Xi).rg(Yj). Notons en effet :
• a = rg(Xi) ; quitte à réordonner les Xi, on peut supposer X1, …, Xa libres.
Xa+1, …, Xr sont alors combinaisons linéaires de X1, …, Xa .
• b = rg(Yj) ; quitte à réordonner les Yj, on peut supposer Y1, …, Yb libres.
Yb+1, …, Ys sont alors combinaisons linéaires de Y1, …, Yb .
rg(Xi ⊗ Yj)(i,j)∈[1,r]×[1,s] = dim Vect((Xi ⊗ Yj)(i,j)∈[1,r]×[1,s])
= dim Vect((Xi ⊗ Yj)(i,j)∈[1,a]×[1,b] ) par bilinéarité
= a.b = rg(Xi).rg(Yj) en vertu de e).
Les réciproques des résultats établis en c), d) et e) s’en déduisent aussitôt.
2) Propriété universelle du produit tensoriel.
Soit H un espace vectoriel. Montrons que, pour toute application bilinéaire Φ : Kn×Kq → H, il
existe une application linéaire et une seule f : Knq → H telle que :
(∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = f(X ⊗ Y) .
1ère méthode : procédons par analyse et par synthèse, en utilisant les notations de 1.b)
Analyse. Supposons le problème résolu.
Si f existe, alors, pour tout couple (i, j) ∈ [1, n]×[1, q], on a : f(ai ⊗ bj) = Φ(ai , bj) .
Comme (ai ⊗ bj) est une base de Knq , cela montre l’unicité de l’application linéaire f.
Synthèse. Soit f l’application linéaire de Knq dans H définie par ∀(i, j) f(ai ⊗ bj) = Φ(ai , bj) .
n q n q
Alors (∀X ∈ Kn) (∀Y ∈ Kq) Φ(X, Y) = Φ( ∑xi .ai , ∑ y j.bj ) =
i =1 j =1
∑∑x y Φ(a ,b )
i =1 j =1
i j i j

n q n q
= ∑∑x y
i =1 j =1
i j f(ai ⊗bj ) = f ( ∑∑ xi y j(ai ⊗bj ) ) = f(X ⊗ Y) . Cqfd.
i =1 j =1
ème
2 méthode. Elle est beaucoup plus ardue que la précédente. En voici les étapes :
Lemme 1 : (∀X, X’ ∈ Kn) (∀Y, Y’ ∈ Kq) X ⊗ Y = X’ ⊗ Y’ ⇒ Φ(X, Y) = Φ(X’, Y’) .
Preuve : Elle repose sur les résultats suivants, laissés au lecteur :
• X ⊗ Y = 0 ⇔ X = 0 ou Y = 0.
• Si X ⊗ Y ≠ 0, alors X’ ⊗ Y’ = X ⊗ Y ⇔ (∃λ ≠ 0) X’ = λX et Y’ = (1/λ).Y
Ce lemme une fois acquis, on peut définir f sur l’ensemble des vecteurs décomposés par la formule :
f(X ⊗ Y) = Φ(X, Y). Cette définition est pertinente, mais hélas, un vecteur n’est pas toujours
décomposé ! On est encore loin du but, et on va avoir besoin d’un second lemme, permettant de
construire une application linéaire à l’aide de familles génératrices :
Lemme 2 : Soient E et F deux K-espaces vectoriels, (ai)i∈I une famille génératrice de E, (bi)i∈I une
famille de vecteurs de F. Pour qu’il existe une application linéaire u : E → F telle que : (∀i ∈ I)
u(ai) = bi , il faut et il suffit que toute relation linéaire vérifiée par les ai soit aussi vérifiée par les bi :
∑λ a ∑λ b
(I)
∀λ = (λi)i∈I ∈ K i i =0 ⇒ i i = 0 ; u est alors unique.
i∈I i∈I

Preuve : Soit x un vecteur de E. Il s’écrit sous la forme x = ∑ξ a


i∈I
i i , où la famille de scalaires (ξi)

est à support fini. Alors on doit poser u(x) = ∑ξ b . Cela montre l’unicité de u.
i∈I
i i

90
Encore faut-il s’assurer que y = ∑ξ b ne dépend pas de la famille (ξi) choisie. Or si x = ∑η a
i∈I
i i
i∈I
i i ,

alors ∑(ξ −η )a
i∈I
i i i = 0 ; or cela implique ∑(ξ −η )b , c’est-à-dire ∑ξ b = ∑η a .
i∈I
i i i
i∈I
i i
i∈I
i i

L’application u est bien définie. Reste à montrer sa linéarité ; c’est facile.


Revenant au problème posé, il reste à montrer :
h k h k
Lemme 3 : ∑∑λ .(X ⊗Y ) = 0
i =1 j =1
ij i j ⇒ ∑∑λ .Φ(X ,Y ) = 0.
i =1 j =1
ij i j

Laissons cela en exercice !


3) Une application.
Z1 
Considérons l’application qui au vecteur Z =  ...  ∈ Knq partitionné en blocs, associe la matrice
Zn 
M(Z) = (Z1 | … | Zn) ∈ M(q, n). Cette application est un isomorphisme, qui vérifie :
t
(∀X ∈ Kn) (∀Y ∈ Kq) M(X ⊗ Y) = Y. X .
x1.Y  t
En effet M(X ⊗ Y) = M(  ...  ) = (x1Y | … | xnY) = Y. X .
xn.Y 
Les images par M des vecteurs décomposés sont les matrices de rang ≤ 1.
Soit Z ∈ Knp, r le nombre minimum de vecteurs décomposés de somme Z.
Je dis que r est le rang de la matrice M(Z). En effet, le rang d’une matrice A est le nombre minimum
de matrices de rang 1 dont la somme est A.
4) Produit tensoriel de matrices.
a) L’application Φ : (X, Y) → (A.X) ⊗ (B.Y) est bilinéaire.
En vertu de 2), il existe une unique application linéaire ϕ : Knq → Kmp vérifiant :
(∀X ∈ Kn) (∀Y ∈ Kq) ϕ(X ⊗ Y) = (A.X) ⊗ (B.Y) .
b) Montrons que ϕ a pour matrice :
 a11B ... a1n B 
A ⊗ B ≡  ... ... ...  dans les bases canoniques de Knq et Kmp .
am1B ... amn B
Il suffit de calculer l’action sur les vecteurs canoniques. Avec les notations de 1.b) :
(A ⊗ B )(ek) = (A.ai) ⊗ (B.bj) .
c) Montrons que (A, B) → A ⊗ B est bilinéaire, et que (C ⊗ D).(A ⊗ B) = (C.A) ⊗ (D.B).
Cela peut se montrer par un calcul par blocs, ou en considérant l’action sur les vecteurs décomposés.
(C ⊗ D).(A ⊗ B).(X ⊗ Y) = (C ⊗ D).((AX) ⊗ (B.Y))
= (C.A.X) ⊗ (D.B.Y) = ((C.A) ⊗ (D.B)).(X ⊗ Y) .
Or les vecteurs décomposés X ⊗ Y engendrent Knq .
Remarque : On a aussi A ⊗ (B ⊗ C) = (A ⊗ B) ⊗ C dès que les formats le permettent.
Cela découle de ce que X ⊗ (Y ⊗ Z) = (X ⊗ Y) ⊗ Z sur les vecteurs.
d) Montrons que rg(A ⊗ B) = rg(A).rg(B).
Cela découle de ce que rg(A ⊗ B) = rg((A ⊗ B )(ek)) = rg((A.ai) ⊗ (B.bj)) = rg((A.ai)).rg((B.bj) .
Mais on peut aussi procéder par équivalence matricielle.
5) Inversibilité, nilpotence, diagonalisabilité.
Si A et B sont carrées, A ⊗ B est inversible ssi Aet B le sont, et alors (A ⊗ B)−1 = A−1 ⊗ B−1 .
A ⊗ B est nilpotente ssi A ou B est nilpotente.

91
Enfin A et B diagonalisables ⇒ A ⊗ B est diagonalisable.
___________

Problème 28 : Déterminants de Hankel

Première partie : Identité de Desnanot-Jacobi.


Soit A = (aij) ∈ Mp(C) une matrice carrée d’ordre p ≥ 3 à coefficients complexes.
On note Aij le cofacteur de aij dans A, et B = (bij) la matrice carrée d’ordre p−2, d’élément général
bij = ai+1,j+1 (1 ≤ i , j ≤ p−2) obtenue en supprimant dans A les lignes et colonnes d’indices 1 et p.
 A11 0 0 ... 0 Ap1 
 A12 1 0 ... 0 Ap2 
 A 0 1 ... 0 Ap3  .
1) Soit D =  13 
 ... ... ... ... ... ... 
 A1, p −1 0 0 ... 1 Ap, p −1 
 A1p 0 0 ... 0 Ap, p 
2
a) Montrer l’identité det(A.D) = (det A) .(det B) = (det A).[ A11.App − Ap1.A1p ]
b) En déduire que si det A ≠ 0, (det A).(det B) = A11.App − Ap1.A1p (DJ)
2) Montrer que l’identité (DJ) reste valable si det A = 0.
On pourra pour cela utiliser l’une et/ou l’autre des deux méthodes suivantes :
a) Montrer que toute matrice de Mp(C) est limite d’une suite de matrices de Glp(C).
b) Montrer que la comatrice de A est de rang 0 ou 1.

Deuxième partie : Déterminants de Hankel.

A toute suite u = (un)n≥0 de complexes, on associe ses déterminants de Hankel, ainsi définis :
un un +1 un + 2
H n0 = 1 , H n1 = un , H n2 = un un +1 , H n3 = un+1 un + 2 un + 3 , H nk = det(un+i+j−2)1≤i,j≤k .
un +1 un + 2 un + 2 un +3 un + 4
1) Exemples :
a) Calculer les déterminants de Hankel de la suite de Fibonacci f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .
b) Même question pour la suite (un) = (cos nθ).
c) Soit P ∈ C[X] un polynôme de degré p ≥ 0, (un) = (P(n))). Etablir que ∀n ∀k ≥ p+2 H nk = 0
[ Indication : On pourra considérer les polynômes P(X), P(X + 1), …, P(X + k − 1). ]
2
2) On revient au cas général. Montrer la relation : ∀n ∀k ≥ 1 H nk . H nk+ 2 − H nk +1 . H nk+−21 = ( H nk+1 ) .

3) La suite (un) est dite récurrente linéaire d’ordre k s’il existe des complexes a0, a1, …, ak−1 tels
que : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un (R)
Montrer que, si (un) est récurrente linéaire d’ordre k, alors (∀n ∈ N) H k +1
n = H k +2
n = H nk +3 = … = 0.
4) On suppose inversement qu’existe un entier k ≥ 0 tel que :
i) (∀n ∈ N) H nk +1 = 0 ii) ∃n0 ∈ N* H nk ≠ 0 .
0

a) Trouver une relation entre H nk , H nk+1 et H nk+ 2 .

b) Montrer que (∀n ∈ N) H nk ≠ 0 .

92
c) Montrer qu’il existe un unique k-uplet (a0, a1, …, ak−1) tel que :
 a0.u0 + a1.u1 + … + ak−1.uk−1 = uk
 a0.u1 + a1.u2 + … + ak−1.uk = uk+1
 . . . . . . . . . . . . . .
 a0.uk−1 + a1.uk + … + ak−1.u2k−2 = u2k−1
d) Montrer enfin que (un) vérifie (R).
un un +1 un + 2
5) Trouver la suite (un) vérifiant (∀n) un +1 un + 2 un + 3 = 0 , u0 = 2, u1 = 1, u2 = 3, u3 = 4.
un + 2 un +3 un + 4

Troisième partie : L’algèbre C[[X]] des séries formelles.

On note E le C-espace vectoriel des suites A = (an)n∈N. A deux suites A = (an) et B = (bn) on
associe la suite C = (cn)n∈N définie par (∀n ∈ N) cn = a pbq . On la note C = A.B. ∑
p+ q=n

1) Montrer que E est une algèbre commutative, associative et unifère, et que C[X] est une sous-
algèbre de E. On rappelle que X désigne la suite (0, 1, 0, …), et l’on convient de noter A = (an) sous
+∞
∑a X n 2
la forme A = n (« série formelle »). La famille ( 1, X, X , … ) est-elle une base de E ?
n =0
+∞
2) Soit A = ∑a X
n =0
n
n une série formelle telle que a0 ≠ 0. Montrer qu’il existe une série formelle B =

a1 a0 0 ... 0
+∞ (−1) n a2 a1 a0 ... ...
∑b X
n =0
n
n telle que A.B = 1. Montrer que ∀n ≥ 1 bn =
(a0)n+1
a3 a2 a1 ... 0 .
... ... ... ... a0
an an−1 an−2 ... a1
3) Exemples :
+∞ +∞
a) Vérifier que 1 =
1− X ∑ X n , et que
n =0
X
1− X − X²
= ∑f
n =0
n X n , où (fn) est la suite de Fibonacci.

b) Pour tout n ∈ N, soit an le nombre de triplets (x, y, z) ∈ N×N×N tels que x + 2y + 3z = n .


+∞
Montrer que ∑a X
n =0
n
n = 1
(1− X)(1− X 2)(1− X 3)
.

Quatrième partie : Caractérisation des fractions rationnelles.


+∞
1) Soit A = ∑u .X
n =0
n
n une série formelle non nulle. Montrer l’équivalence des propriétés suivantes :

i) Il existe deux polynômes P et Q ∈ C[X], tels que Q ≠ 0 et A.Q = P ;


q+1
ii) Il existe une suite finie (b0, b1, …, bq) ∈ C et un entier d ≥ q tels que bq ≠ 0 et
(∀n ≥ d) b0.un + b1.un−1 + … + bq.un−q = 0 .
2) Montrer que la condition ii) implique la condition :
iii) (∃k ≥ 0) (∃ m ≥ 0) H mk +1 = H mk ++11 = H mk ++12 = … = 0 .

93
3) On suppose inversement la condition iii) remplie, et l’on note k le plus petit entier vérifiant
cette condition. Etablir que (∃n0 ≥ m+1) H nk ≠ 0 , et en déduire que la suite (un) est récurrente
0

linéaire d’ordre k à partir d’un certain rang. En déduire iii) ⇒ i).


+∞
4) Application : Prouver que pour tout P ∈ C[X], ∑P(n).X
n =0
n est une fraction rationnelle.

__________

Solution : Déterminants de Hankel

Première partie : Identité de Desnanot-Jacobi.


2
1) a) Montrons l’identité det(A.D) = (det A) .(det B) = (det A).[ A11.App − Ap1.A1p ]
 a11 a12 ... a1, p−1 a1p   A11 0 0 ... 0 Ap1  det A a12 ... a1, p−1 0 
 a21 a22 ... a2, p−1 a2p   A12 1 0 ... 0 Ap2   0 a22 ... a2, p−1 0 
A =  a31 a32 ... a3, p−1 a3p  D =  A 0 1 ... 0 Ap3  , A.D =  0 a32 ... a3, p−1 0 
 13   ...

 ... ... ... ... ... 

 ... ... ... ... ... ...   ... ... ... ... 
ap−1,1 ap−1,2 ... ap−1, p−1 a p−1, p   A1, p −1 0 0 ... 1 Ap, p −1  0 a p −1,2 ... a p−1, p−1 0 
 ap1 ap2 ... ap, p−1 ap, p   A1p 0 0 ... 0 Ap, p   0 a p2 ... a p, p−1 det A
t
Cela découle de ce que A. com A = (det A).Ip ; or la première et la dernière colonnes de A.D sont
t
celles de A. com A.
2
Développant A.D par rapport à la 1ère, puis la dernière colonne, il vient det(A.D) = (det A) .(det B).
Or si l’on développe det D par rapport à sa dernière ligne, il vient : det D = A11.App − Ap1.A1p .
b) Si det A ≠ 0, on en déduit après simplification (det A).(det B) = A11.App − Ap1.A1p (DJ)
Si det A = 0, on ne peut plus simplifier par det A dans l’identité obtenue en 1.a)
2) Montrons que l’identité (DJ) reste valable si det A = 0.
1ère méthode : la comatrice de A est de rang 0 ou 1.
En effet, si rg A ≤ p−2, com A = 0 car tous les cofacteurs sont nuls.
t t
Si rg A = p−1, com A ≠ 0 car un cofacteur est non nul. Or com A.A = 0 ⇒ Im A ⊂ Ker com A.
t t
Comme Im A est un hyperplan, Im A = Ker com A, et rg com A = 1.
Du coup, A11.App − Ap1.A1p = 0 en tant que déterminant d’ordre 2 extrait.
2ème méthode : densité topologique. La densité de Gln(C) dans Mn(C) peut s’établir de deux façons :
1ère méthode : raisonnement par équivalence.
Soit r = rg A < n . Il existe P, Q ∈ Gln(K) telles que Q−1.A.P = Jr. Du coup,
A = Q.Jr.P−1 = limk→+∞ Q.( Jr + 1 .I ).P−1 ; or ces dernières matrices sont inversibles.
k
2ème méthode : valeurs propres.
Soient λ1 = 0, λ2,, ... , λr les valeurs propres distinctes de u, α = min 2≤i≤r | λi | > 0.
Alors 0 < | β | < α ⇒ A − β.I ∈ Gln(K). Et A − β.I tend vers A lorsque β tend vers 0 en restant dans
la couronne 0 < | β | < α. Ce second raisonnement est un peu plus précis que le premier car il
montre que A est limite de matrices qui commutent avec elle.
Concluons ! Les deux membres de (DJ) sont des fonctions continues car polynomiales de A. Comme
Glp(C) est dense dans Mp(C), l’identité reste vraie sur l’adhérence de Glp(C), i.e. dans Mp(C).
3ème méthode : densité algébrique.
Valable dans tout corps commutatif, cette méthode est plus puissante que la précédente, mais elle est
aussi plus abstraite.
2
Prenons pour A la matrice générique A = (Xij) ∈ Mp(K(Xij)), où les Xij sont p indéterminées.

94
La matrice A est inversible, car son déterminant det A = ∑ε(σ).Xσ ...Xσ(p)p est un polynôme non
(1)1

nul en les Xij. L’anneau K[Xij] étant intègre, l’identité (DJ) se déduit de 1.a) par simplification.
Il ne reste plus ensuite qu’à resubstituer les scalaires aij aux indéterminées Xij.
Variante moins abstraite : remplacer A par la matrice caractéristique A – X.I ∈ Mp(K(X)) ; cette
matrice est inversible car det(A – XI) ≠ 0, en tant que polynôme de degré p. On simplifie par
intégrité de K[X], puis l’on fait X = 0.
Remarques : 1) La densité algébrique est une méthode de densité topologique, mais il faut utiliser la
topologie de Zariski, qui est moins fine dans Mp(C) que la topologie usuelle.
2) Desnanot, Jacobi ou… Sylvester ? Desnanot si l’on est français, Jacobi si l’on est allemand,
Sylvester si l’on est anglais ! Ami des tommies ou ami des teutons ? Le français est loyal, l’anglais
perfide, et l’allemand dominateur : choisissons ! Cette identité est généralisée dans notre Bourbaki
national (A III 199 n° 9).

Deuxième partie : Déterminants de Hankel.


1) Exemples de déterminants de Hankel :
a) Suite de Fibonacci f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .
fn fn+1 fn+2
H n3 = fn+1 fn+2 fn+3 = 0, car la 3ème colonne est somme des deux premières.
fn+2 fn+3 fn+4
Plus généralement H nk = 0 pour tout k ≥ 3 et tout n, pour la même raison.

H n2 = fn fn+1 = fn fn + fn−1 = fn fn−1 = − H n2−1 , donc H n2 = (−1) H02 = (−1) .


n n+1
fn+1 fn+ 2 fn+1 fn+1+ fn fn+1 fn
n+1
Conclusion : H n0 = 1, H n1 = fn pour tout n, H n2 = (−1) , H nk = 0 pour tout k ≥ 3 et tout n,
b) Suite (un) = (cos nθ).

H n2 = cos(nθ) cos(n+1)θ = − sin θ


2
, avec un peu de trigo.
cos(n+1)θ cos(n+2)θ
cos(nθ) cos(n+1)θ cos(n+2)θ
H n3 = cos(n+1)θ cos(n+2)θ cos(n+3)θ = 0, car les 3 colonnes sont liées par c1 + c3 = 2.cos .c2.
cos(n+2)θ cos(n+3)θ cos(n+4)θ
Plus généralement H nk = 0 pour tout k ≥ 3 et tout n, pour la même raison.
NB : le résultat de a) et b) s’étend aux suites récurrentes linéaires d’ordre 2 un+2 = aun+1 + bun.

H n2 = un un +1 = − b H n2−1 , donc H n2 = (−b) H02 ; et H nk = 0 pour tout k ≥ 3 et tout n,.


n
un +1 un + 2
c) Soit P ∈ C[X] un polynôme de degré p ≥ 0, (un) = (P(n))).
Considérons comme indiqué les polynômes P(X), P(X + 1), …, P(X + k − 1).
Ils sont au nombre de k et éléments de Cp[X]. Comme k > p + 1 = dim Cp[X], ils sont liés.
Du coup, les colonnes de H nk sont liées et ∀n ∀k ≥ p + 2 H nk = = 0
2
2) Relation fondamentale. Montrons que : ∀n ∀k ≥ 1 H nk . H nk+ 2 − H nk +1 . H nk+−21 = ( H nk+1 ) .
Il suffit d’appliquer la formule de Desnanot-Jacobi à la matrice

95
 un un+1 ... un+k −1 un+ k 
 un+1 un+2 ... un+k un+k +1 
A =  un+ 2 un+3 ... un+ k +1 un+k + 2  ∈ Mk+1(C).
 ... ... ... ... ... 
u un+k ... un+2k −2 un+2k −1
 n+ k −1 
 un+ k un+k +1 ... un+2k −1 un+2k 
k
Alors det A = H nk +1 , det B = H nk+−21 , A11 = H nk+ 2 , Ap+1,p+1 = H nk , A1,k+1 = Ak+1,1 = (−1) H nk+1 .
3) Cas des suites récurrentes linéaires.
Soit (un) une suite récurrente linéaire d’ordre k : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un (R)
Alors (∀n ∈ N) H nk +1 = H nk + 2 = H nk +3 = … = 0,
car la (k + 1)-ème colonne est combinaison linéaire des k premières colonnes.
4) Réciproque. Supposons inversement qu’existe un entier k ≥ 0 tel que :
i) (∀n ∈ N) H nk +1 = 0 ii) ∃n0 ∈ N* H nk ≠ 0 .
0

k k k 2
a) Relation entre H , H n n +1 et H n+2 . L’identité (DJ) s’écrit : H nk . H nk+ 2 = ( H nk+1 ) .
Dans la ligne H0k , H1k , H 2k , H3k , … chaque terme a pour carré le produit de ses deux voisins.
b) Montrons que (∀n ∈ N) H nk ≠ 0 .
2
Comme ∃n0 ∈ N* H nk ≠ 0 , ( H nk ) = H nk −1 . H nk +1 est non nul donc H nk −1 et H nk +1 sont non nuls.
0 0 0 0 0 0

De proche en proche vers la droite et vers la gauche (donc par récurrence), on en déduit qu’aucun
terme de la suite H0k , H1k , H 2k , H3k , … n’est nul .
c) Montrons qu’il existe un unique k-uplet (a0, a1, …, ak−1) tel que :
 a0.u0 + a1.u1 + … + ak−1.uk−1 = uk
 a0.u1 + a1.u2 + … + ak−1.uk = uk+1
 . . . . . . . . . . . . . .
 a0.uk−1 + a1.uk + … + ak−1.u2k−2 = u2k−1
C’est en effet un système de Cramer, car H0k ≠ 0.
d) Montrons que (un) vérifie (R) : (∀n ∈ N) un+k = ak−1.un+k−1 + ... + a0.un.
Cette relation est vraie pour n = 0, 1, …, k – 1. Montrons qu’elle est vraie au rang k :
 u0 u1 ... uk −1 uk   u0 u1 ... uk −1 0 
 u1 u2 ... uk uk +1   u1 u2 ... uk 0 
0 = H0k +1 = det  u2 u3 ... uk +1 uk + 2  = det  u2 u3 ... uk +1 0  = Sk. H0k
 ... ... ... ... ...   ... ... ... ... ... 
u u ... u u  u u ... u2k −2 0 
 k −1 k 2k − 2 2k −1
  k −1 k 
 uk uk +1 ... u2k −1 u2k   uk uk +1 ... u2k −1 Sk 
où Sk = u2k – a0.uk − … − ak−1.u2k−1 , en faisant ck+1 → ck+1 – a0.c1 − … − ak−1.ck .
Comme H0k ≠ 0, Sk = 0, donc u2k = a0.uk + … + ak−1.u2k−1 .
Supposons la relation vraie pour p = 0, 1, …, n – 1. Montrons qu’elle est vraie au rang n :
 un−k un−k +1 ... un−1 un   un−k un−k −1 ... un−1 0 
un−k +1 un−k + 2 ... un un+1  un−k −1 un−k +2 ... un 0 
0 = H nk−+k1 = det  u2 u3 ... un+1 un+ 2  = det un−k + 2 un−k +3 ... un+1 0  = Tk. H nk−k
 ... ... ... ... ...   ... ... ... ... ... 
u un ... un+ k −2 un+ k −1   u un ... un+ k −2 0 
 n−1   n−1 
 un un+1 ... un+ k −1 un+k   un un+1 ... un+ k −1 Tk 
où Tk = un+k – a0.un − … − ak−1.un+k−1 , en faisant derechef ck+1 → ck+1 – a0.c1 − … − ak−1.ck .

96
Comme H nk−k ≠ 0, Tk = 0, donc un+k = a0.un + … + ak−1.un+k−1 .
5) Exemple : [ Ecrit Centrale 1980 ]
un un +1 un + 2
Cherchons la suite (un) vérifiant (∀n) un +1 un + 2 un + 3 = 0 , u0 = 2, u1 = 1, u2 = 3, u3 = 4.
un + 2 un +3 un + 4
Ici H n3 = 0 pour tout n, H 02 = 5, H12 = − 5 ≠ 0. En vertu du résultat précédent, la suite (un) est
récurrente linéaire d’ordre 2 un+2 = aun+1 + bun. On trouve aisément a = b = 1.
Finalement, la suite (un) est la suite de Lucas, sœur jumelle de la suite de Fibonacci :
n n
un = ω + ϖ , où ω est le nombre d’or, ϖ son conjugué.

Troisième partie : série entières formelles.


1) Voir mon cours (hors programme) sur les séries entières formelles.
2
La famille ( 1, X, X , … ) n’est pas une base de E = C[[X]] ; c’est une base de C[X].
+∞
2) Soit A = ∑a X
n =0
n
n une série formelle telle que a0 ≠ 0. Montrer qu’il existe une série formelle B =
+∞
∑b X
n =0
n
n telle que A.B = 1, autrement dit que A est inversible dans C[[X]].

Cela conduit à résoudre le système linéaire infini :


a0.b0 = 1
a0.b1 + a1.b0 = 0
. . . . . . . . . . . . . . .
a0.bn + ... + an.b0 = 0
Ce système permet de déterminer les an par récurrence : b0 = 1/a0 , b1 = − a1b0/a0 et si b0 , ..., bn−1
sont connus, bn = − 1 (a1.bn−1 + ... + an.b0).
a 0
+∞
Réciproquement, si A = ∑ a .X
n =0
n
n est inversible d’inverse B, on a a0.b0 = 1, donc a0 ≠ 0.
+∞
Conclusion : Les inversibles de C[[X]] sont les ∑ a .X
n =0
n
n telles que a0 ≠ 0, i.e. de valuation nulle.

Les formules de Cramer appliquées au système précédent impliquent aisément :


a1 a0 0 ... 0
(−1) n a2 a1 a0 ... ...
∀n ≥ 1 bn = a3 a2 a1 ... 0 .
(a0)n+1 ... ... ... ... a0
an an−1 an−2 ... a1
3) Exemples :
+∞
a) Il est facile de vérifier par produit de Cauchy que 1 =
1− X ∑X
n =0
n , 1 =
1−a.X ∑a X
n≥0
n n ,
+∞
et que X
1− X − X²
= ∑f
n =0
n X n , où (fn) est la suite de Fibonacci, f0 = 0 , f1 = 1 , fn+2 = fn+1 + fn .

b) Pour tout n ∈ N, soit an le nombre de triplets (x, y, z) ∈ N×N×N tels que x + 2y + 3z = n .


+∞
Plaçons-nous dans C[[X]]. Je dis que 1
(1− X)(1− X²)(1− X 3)
= ∑a .X
n =0
n
n .

Cela se montre par produit de Cauchy de séries entières :

97
+∞ +∞ +∞ +∞ +∞ +∞ +∞
1 = ( ∑ X a )( ∑ X 2b )( ∑ X 3c ) = ∑∑∑ X a+2b+3c = ∑a X n .
(1− X)(1− X²)(1− X 3)
n
a =0 b =0 b =0 a =0 b =0 c =0 n =0

Il reste à décomposer ces fractions en éléments simples, et à développer en série entière chaque
élément simple. On trouve :
1 = 1
(1− X)(1− X²)(1− X 3) (1− X)3(1+ X)(1− jX)(1− j²X)
= 17 1 + 1 1 + 1 1 + 1 1 + 1 1 + 1 1
72 1− X 4 (1− X)² 6 (1− X)3 8 1+ X 9 1− jX 9 1− j²X
+∞ +∞ +∞ +∞ +∞ +∞

72 ∑ 4 ∑ 12 ∑ 8∑ 9∑ 9∑
= 17 X n +1 (n+1)X n + 1 (n+2)(n+1)X n + 1 (−1) X n n + 1 j X n n + 1 j 2n Xn .
n =0 n =0 n =0 n =0 n =0 n =0
1 2 2
En effet, = D( 1 ) et = D ( 1 ) , où D est l’opérateur de dérivation.
(1− X)² 1− X (1− X)3 1− X
(n+2)(n+1) (−1)n
Du coup, an = 17 + n+1 + + + 2 cos( 2πn ).
72 4 12 8 9 3
(n+3)² (−1)
+ 2 cos( 2πn ).
n
an = − 7 +
12 72 8 9 3
(n+3)²
Au fond an = + P(n), où P(n) est une suite de période 6, facile à calculer.
12
(n+3)² (n+1)(n+5)
Remarque : an est l’entier le plus proche de , mais aussi de .
12 12

Quatrième partie : Caractérisation des fractions rationnelles.


(rédaction inachevée)
Cherchons à caractériser les séries formelles qui sont des fractions, autrement dit C[[X]] ∩ C(X).
+∞
Soit A = ∑u .X
n =0
n
n une série formelle non nulle. Montrons l’équivalence des propriétés suivantes :

i) Il existe deux polynômes P et Q ∈ C[X], tels que Q ≠ 0 et A.Q = P ;


q+1
ii) Il existe une suite finie (b0, b1, …, bq) ∈ C et un entier d ≥ q tels que bq ≠ 0 et
(∀n ≥ d) b0.un + b1.un−1 + … + bq.un−q = 0 .
iii) (∃k ≥ 0) (∃ m ≥ 0) H mk +1 = H mk ++11 = H mk ++12 = … = 0 .
i) ⇒ ii)
ii) ⇒ i)
ii) ⇒ iii)
iii) ⇒ i) Supposons iii) remplie, et notons k le plus petit entier vérifiant cette condition.
Etablir que (∃n0 ≥ m+1) H nk ≠ 0 , et en déduire que la suite (un) est récurrente linéaire d’ordre k à
0

partir d’un certain rang.


4) Application :
+∞
Il découle de ce qui précède que, pour tout P ∈ C[X], ∑P(n).X
n =0
n est une fraction rationnelle.
+∞
Pour calculer cette fraction, commençons par calculer les dérivées de 1 =
1− X ∑Xn =0
n ,
+∞ +∞ +∞
1
(1− X)²
= ∑(n+1)X n ,
n =0
2
(1− X)3
= ∑(n+2)(n+1)X n ,…,
n =0
k!
(1− X)k +1
= ∑(n+k)...(n+1)X
n =0
n ,

98
P(n) étant combinaison linéaire de 1, n + 1, (n+2)(n+1), … , (n+k)…(n+1), … en vertu du critère des
+∞
degrés échelonnés, ∑P(n).X
n =0
n sera combinaison linéaire de 1 , 2 , …,
1− X (1− X)3
k! .
(1− X)k +1
C’est une fraction ayant 1 comme unique pôle.
Références : Bourbaki, A IV ex. 1 p. 85
Polya-Szegö, t. 2, p. 96-98
Chambadal-Ovaert, Alg. 2, n° 74 p. 121
Centrale 1980, ENSAE 1980, Mines-Monts M 1983, Mines PSI 2010
__________

Problème 29 : déterminants de Casorati

___________

Problème 30 : équations fonctionnelles

Soient E = F(R, R), P le sous-espace vectoriel de E formé des fonctions 1-périodiques, A le sous-
espace vectoriel des fonctions 1-antipériodiques, T et ∆ les opérateurs de E définis resp. par :
(T f)(x) = f(x + 1) et (∆ f)(x) = f(x + 1) − f(x).
1) Montrer que ∀(f, g) ∈ E×E ∆(f + g) = ∆(f) + ∆(g) et ∀(p, f) ∈ P×E ∆(p.f) = p.∆(f).
x(x−1)...(x−k +1)
2) On note N0(x) = 1, Nk(x) = pour k ≥ 1. Calculer ∆Nk.
k!
n+1
3) Montrer que Ker ∆ est l’ensemble des fonctions de la forme :
n
f(x) = p0(x) + x p1(x) + … + x pn(x) , où p0, p1, …, pn sont éléments de P.
2
4) Trouver toutes les fonctions f : R → R vérifiant : (∀x) f(x + 2) − 2f(x + 1) + f(x) = x .
5) a) Soit f ∈ E vérifiant : (∀x) f(x + 2) + f(x + 1) − 2.f(x) = 0 .
Montrer que (∀x) 512 f(x) = 341 f(x + 9) + 171 (x + 10) .
b) Comparer { f ∈ E ; (∀x) f(x + 2) = f(x) } à P ⊕ A.
c) Trouver toutes les fonctions f ∈ E vérifiant resp. :
(∀x) f(x + 2) − f(x + 1) − f(x) = 0 .
(∀x) f(x + 3) − 6.f(x + 2) + 11.f(x + 1) − 6.f(x) = 0 .
(∀x) f(x + 3) + 6 f(x + 2) + 11 f(x + 1) + 6 f(x) = 0 .
d) Montrer que f ∈ E est 2-antipériodique ssi elle s’écrit :
f(x) = cos πx .a(x) + sin πx .b(x) , où (a, b) ∈ A×A.
2 2
e) Trouver de même les f ∈ E telles que (∀x) f(x + 2) + f(x + 1) + f(x) = 0 .
6) Trouver les f ∈ E telles que (∀x) f(x + 13) − f(x + 7) − f(x + 6) + f(x) = 0 .
Montrer que celles d’entre elles qui sont bornées sont périodiques.
7) Soient a et b deux réels > 0, f une fonction bornée de R dans R telle que :
∀x ∈ R f(x + a + b) + f(x) = f(x + a) + f(x + b) .
Montrer que f est à la fois a et b périodique.
8) Reprendre les questions précédentes en supposant les fonctions continues.
__________

99
Solution : équations fonctionnelles de translation

0) P = Ker( T − I ) et A = Ker( T + I ) sont deux sous-espaces vectoriels de E, tous deux


isomorphes à F([0, 1[, R), puisque toute fonction ϕ : [0, 1[ → R peut être prolongée d’une seule
manière en une fonction p 1-périodique, resp. a 1-antipériodique…
1) P est aussi un sous-anneau de E. Les formules demandées sont immédiates.
Elles signifient que E est un P-module pour l’addition (f, g) → f + g et la loi externe (p, f) → p.f, et
que T et ∆ sont des endomorphismes de ce P-module.
Dans ce problème, les fonctions 1-périodiques jouent en effet le rôle de scalaires.

2) Polynômes de Newton. On vérifie aisément que ∆N0 = 0 et ∆Nk = Nk−1 pour k ≥ 1.


3) Noyau de ∆ et de ses itérés.
Il est clair que Ker ∆ = P. Si p ∈ P, on vérifie que x.p(x) est solution de f(x + 1) − f(x) = p(x). On en
2
déduit que Ker ∆ = { x.p(x) + q(x) ; (p, q) ∈ P×P }. Montrons par récurrence sur n que :
n −1
∑ p (x).N (x) , où p0, p1, …, pn−1 sont 1-périodiques }.
n
Ker ∆ = { f(x) = k k
k =0
Supposons l’égalité vraie au rang n, et montrons-la au rang n + 1.
n n
∑ pk.Nk , où p0, p1, …, pn ∈ P , alors ∆f = ∑ p .N
n n+1
• Si f = k k −1 , donc (∆ o ∆)(f) = 0 et ∆ f = 0.
k =0 k =1
n −1 n −1
∑qk.Nk = ∆( ∑qk.Nk +1 ), où q0, q1, …, qn−1 ∈ P.
n+1 n
• Si ∆ f = 0, alors (∆ o ∆)(f) = 0 , donc ∆(f) =
k =0 k =0
n −1
On en déduit que f − ∑q .N
k =0
k k +1 ∈ P . cqfd. On conclut par changement de base.
n
Au fond, Ker ∆ est le sous P-module de E ayant pour P-base les polynômes de Newton N0, N1, …,
n−1
Nn−1, ou encore les monômes 1, x, …, x .
n
Cette famille est en effet P-génératrice et P-libre, car supposons ∑ p (x)x
k =0
k
k = 0 pour tout x.
n
∑ p (x)(x+m)
k
Fixons x. On a k
k = 0 pour tout m ∈ Z. Or les fonctions m → pk(x).(x + m) forment
k =0

une famille libre, en raison de leurs comportements distincts en +∞. Donc pk(x) = 0 pour tout k et
tout x.
2 2 2
4) L’équation fonctionnelle proposée s’écrit : ∆ f = x = 2N2 + N1 = ∆ (2N4 + N3).
On déduit de ce qui précède que f = 2.N4 + N3 + p.N1 + q.N0 , où p et q ∈ P.
2 10 9
5) a) Il s’agit de montrer que Ker( T + T − 2.I ) ⊂ Ker( 171.T + 341.T – 512.I ).
2 10 9
Cela découle de ce que P = X + X − 2 divise Q = 171.X + 341.X – 512.
N.-B. : Il n’est pas nécessaire ici d’utiliser le théorème des noyaux, qui affirme que :
2
Ker( T + T − 2.I ) = { f(x) = p(x) + 2x.a(x) ; p ∈ P , a ∈ A } (cf. ci-après).
2
b) Le théorème des noyaux donne aussitôt Ker( T − I ) = Ker( T − I ) ⊕ Ker( T + I ) = P ⊕ A.
A noter que c’est aussi un sous-anneau de E.
c) Nous aurons besoin du :
x x
Lemme : Si α > 0 , Ker( T − α.I ) = { α .p(x) ; p ∈ P } et Ker(T + α.I) = { α .a(x) ; a ∈ A }.
x x+1
Preuve : Posons f(x) = α .g(x). On a f(x+1) ± α.f(x) = α (g(x+1) ± g(x)), et l’on conclut aussitôt.

100
La 1ère équation s’écrit P(T)(f) = 0, où P(X) = (X − ω)(X − ϖ) , avec ω = 1+ 5 , ϖ = 1− 5 .
2 2
Le théorème des noyaux s’écrit Ker P(T) = Ker(T − ω.I) ⊕ Ker(T − ϖ.I).
x x x x
Donc f(x) = ω .p(x) + (−ϖ) .a(x) = ω .p(x) + (ω − 1) .a(x) , où (p, a) ∈ P×A.
La 2ème équation s’écrit Q(T)(f) = 0, où Q(X) = (X − 1)(X − 2)(X − 3).
Le théorème des noyaux donne Ker Q(T) = Ker(T − I) ⊕ Ker(T − 2I) ⊕ Ker(T − 3I).
x x
Donc : f(x) = p(x) + 2 .q(x) + 3 .r(x) , où (p, q, r)∈P×P×P .
La 3ème équation s’écrit R(T)(f) = 0, où R(X) = (X + 1)(X + 2)(X + 3).
Le théorème des noyaux donne Ker R(T) = Ker(T + I) ⊕ Ker(T + 2I) ⊕ Ker(T + 3I).
x x
Donc : f(x) = a(x) + 2 .b(x) + 3 .c(x) , où (a, b, c)∈A×A×A .

d) Si f(x) = cos πx .a(x) + sin πx .b(x) , où (a, b) ∈ A×A, alors :


2 2
f(x + 1) = sin πx .a(x) − cos πx .b(x) et
2 2
f(x + 2) = − cos πx .a(x) − sin πx .b(x) = − f(x) : f est 2-antipériodique.
2 2
Réciproquement, soit f 2-antipériodique. Définissons a et b par :
a(x) = cos πx .f(x) + sin πx .f(x + 1) et b(x) = sin πx .f(x) − cos πx .f(x + 1).
2 2 2 2
On vérifie que a et b sont 1-antipériodiques, et que f(x) = cos πx .a(x) + sin πx .b(x). cqfd.
2 2
2
Remarque : Heuristiquement Ker( T + I ) = Ker( T – iI ) ⊕ Ker( T + iI )…
e) De même f ∈ E est telle que (∀x) f(x + 2) + f(x + 1) + f(x) = 0 si et seulement si f s’écrit :
f(x) = cos 2πx .a(x) + sin 2πx .b(x) , où (a, b) ∈ A×A.
3 3
13 7 6 6 7
6) Nous cherchons ici Ker P(T), où P(X) = X − X − X + 1 = ( X − 1 )( X − 1 ). Il vient :
2 2 2
P(X) = ( X − 1 ) ( X + 1 )( X + X + 1 )( X − X + 1 )
( X − 2cos 2π X + 1 )( X − 2cos 4π X + 1 )( X − 2cos 6π X + 1 ).
2 2 2
7 7 7
Le théorème des noyaux donne ici, en généralisant 5.d) :
f(x) = xp(x) + q(x) + a(x) + cos 2πx .b(x) + sin 2πx .c(x) + cos πx .r(x) + sin πx .s(x)
3 3 3 3
+ cos 2πx .t(x) + sin 2πx .u(x) + cos 4πx .v(x) + sin 4πx .w(x) + cos 6πx .ϕ(x) + sin 6πx .ψ(x),
7 7 7 7 7 7
où p et q sont 1-périodiques, a, b, c, r, s, t, u, v, w, ϕ et ψ sont 1-antipériodiques.
L’opérateur T laissant stable le sous-espace B de E formé des fonctions bornées, le théorème des
noyaux s’applique à TB. Du coup, f est bornée ssi p est nulle et q, a, b, c, r, s, t, u, v, w, ϕ et ψ sont
toutes bornées. f est alors de période 42.

7) Si les fonctions cherchées sont continues (resp. dérivables, resp. C ), toutes les fonctions intro-
duites doivent l’être, car les opérateurs préservent ces propriétés.
Remarque : Si l’on se place dans F(R, C), le problème se présente sous un autre jour, qui l’éclaire…
• Si λ = 0, Ker(T − λI) = Ker T = {0} ;
iθ x iθx
• Si λ ≠ 0, posons λ = r.e (r > 0). Alors Ker(T − λI) = { r .e .p(x) ; p est 1-périodique R → C }.
Si λ est réel, on peut alors chercher, parmi elles, les fonctions à valeurs réelles, et retrouver ainsi les
résultats précédents.
x
C’est en ce sens que l’on peut dire que la fonction x → (−1) , qui n’existe pas, existe cependant,
iπx
sous la forme x → e .

101
Sources :
Oral X PC 1986.
Exercice proposé aux Olympiades de mathématiques 1996.
RMS oct. 2007, p. 125, ex posé aux candidats sénégalais à l’entrée en MPSI à Louis-le-Grand.
____________

Problème 31 : Théorème des drapeaux

Soient K un corps commutatif, V un K-espace vectoriel de dim n ≥ 1, Gl(V) le groupe linéaire de V.


Un drapeau de V est une suite d = (V0, V1, … , Vn) de sous-espaces vectoriels tels que :
V0 ⊂ V1 ⊂ … ⊂ Vn et (∀k) dim Vk = k . En particulier V0 = {0} et Vn = V .
On introduit les groupes matriciels suivants :
• Gln(K) groupe multiplicatif des matrices M ∈ Mn(K) inversibles ;
• Tn(K) sous-groupe des matrices inversibles et trigonales supérieures ;
• Un(K) sous-groupe des matrices A ∈ Tn(K) unipotentnes (i.e. la diagonale n’a que des 1) ;
• Dn(K) sous-groupe de Tn(K) des matrices diagonales et inversibles ;
• Pn(K) sous-groupe de Gln(K) des matrices de permutation.

1) Si d = (V0, V1, … , Vn) est un drapeau de V et u ∈ Gl(V), on note u(d) = (u(V0), u(V1), … ,
u(Vn)).
a) Montrer que l’on définit une action du groupe Gl(V) sur l’ensemble D des drapeaux de V.
b) Montrer que cette action est transitive, i.e. n’a qu’une seule orbite.
c) A quel groupe matriciel est isomorphe le groupe fixateur du drapeau d ?
d) Application : Si K est un corps fini à q éléments, dénombrer les drapeaux de V.
2) Soient d = (V0, V1, … , Vn) et d’ = (V’0, V’1, … , V’n) deux drapeaux de V.
2
Pour (i, j) ∈ {0, 1, …, n} , on pose Aij = V’i + Vj ,
Pour i = 1, 2, …, n, on note sd,d’(i) le plus petit entier j tel que Aij = Ai−1,j.
a) Si j = sd,d’(i), établir successivement les résultats suivants :
♣ (∀k ≥ j) Ai,k = Ai−1,k
♦ V’i ⊂ V’i−1 + Vj et V’i ⊄ V’i−1 + Vj−1
♥ ∃ z ∈ (V’i − V’i−1) ∩ (Vj − Vj−1) ( A−B est la différence ensembliste de A et B )
♠ Ai−1,j−1 ⊂ Ai,j−1 = Ai−1,j = Ai,j , l’inclusion étant stricte.
b) Montrer que sd,d’ est une permutation de { 1, 2, …, n } (Michel Demazure).

3) On dit qu’une base B de V est adaptée au drapeau d si chacun des sous-espaces Vk est engen-
dré par une partie de B. Démontrer qu’il existe une base de V adaptée à la fois aux drapeaux d et d’.
____________

×2
Problème 32 : matrices 2×

Soient A = 
a b  ∈ M (K), D l’endomorphisme de M (K) défini par : D (M) = A.M − M.A.
c d  2 A 2 A

102
2
1) a) Vérifier que A – tr(A).A + (det A).I2 = 0.
b) En déduire que Vect( I2, A) est une sous-algèbre commutative de M2(K) ; on la note K[A].
−1
c) Soit M ∈ K[A] inversible ; montrer que M ∈ K[A].
2) a) Ecrire la matrice de DA relativement à la base B = ( E11, E12, E21, E22 ) de M2(K).
b) Quelle est sa trace ? son déterminant ?
c) Montrer que Ker DA est une sous-algèbre de M2(K).
d) Montrer que, soit Ker DA = M2(K), soit Ker DA = K[A].

3) a) Montrer que A est semblable à l’une, et à une seule, des matrices 


α 0  et 0 −d  .
 0 α  1 t 
b) Montrer que si A et B sont semblables, DA et DB sont semblables
2
4) Soit A ∈ Gl2(C). On cherche à résoudre l’équation M = A.
Après avoir noté que M ∈ Ker DA , et en utilisant ce qui précède, montrer l’existence de M. Plus
2
généralement, à quelle condition portant sur A ∈ M2(C) l’équation M = A a-t-elle une solution ?
__________

Solution
2
1) a) Vérifions avec Maple que A – tr(A).A + (det A).I2 = 0.
> with(linalg):
> A:=matrix(2,2,[a,b,c,d]);P:=x^2-trace(A)*x+det(A);
simplify(evalm(subs(x=A,P)));

A := 
a b

c d
P := x 2 − ( a + d ) x + a d − b c
 0 0
 
 0 0
C’est un cas particulier du théorème de Hamilton-Cayley.
b) K[A] = Vect( I2, A) est une sous-algèbre commutative de M2(K). En effet, Vect( I2, A) est un
sous-espace vectoriel contenant I2 et stable par multiplication, par bilinéarité :
X I A
I I A
A A Tr(A) – det(A).I
−1
c) Soit M ∈ K[A]. Si M est inversible, M ∈ K[A].
2 −1 tr(M).I −M
En effet, M – tr(M).M + (det M).I2 = 0, donc si det M ≠ 0 , M = ∈ K[A].
det M
2 2
Conséquence : Si M = λI + µA, det M = q(λ, µ) = λ + λµ.(tr A) + µ .det A
est une forme quadratique sur K×K. Pour que K[A] soit un corps il faut et il suffit que cette forme
quadratique soit « définie », ou « anisotrope », en ce sens que q(λ, µ) = 0 ⇔ λ = µ = 0.
2) L’opérateur de dérivation DA.
DA est un endomorphisme de M2(K) vérifiant DA(M.N) = DA(M).N + M.DA(M)

a) Si M =   , DA(M) = A.M − M.A = 


x y X Y =  −cy+bz −bx+(a−d)y+bt  .
 z t   Z T  cx+(d −a)z−ct cy−bz 

103
X   0 −c b 0   x
Cela s’écrit  Y  = −b a −d 0 b   y .
T   c
Z 0 d −a −c z
   0 c −b 0  t 
0 −c b 0 
Conclusion : La matrice de DA est 
−b a −d 0 b  .
c 0 d −a −c
 0 c −b 0 
b) La trace de cette matrice est nulle, ainsi que son déterminant (deux colonnes opposées).
c) C(A) = Ker DA = { M ; A.M = M.A }, commutant de A, est une sous-algèbre de M2(K).
En effet, I2 commute avec A. Si M et M’ commutent avec A, λ.M + M’ et M.M’ commutent avec A.
Il est clair que C(A) contient K[A], qui est de dimension 1 ou 2. On retrouve det DA = 0.
d) On a aussitôt A est scalaire ⇔ ( a = d et b = c = 0 ) ⇔ DA = O.
Autrement dit, le centre de M2(K) est formé des matrices scalaires : c’est un résultat général.
Si A n’est pas scalaire, je dis que Ker DA = K[A].
0 −c b 0 0 −c b 0
En effet, −b a −d 0 b  est équivalente à −b a−d 0 0 .
c 0 d −a −c c 0 d −a 0
 0 c −b 0   0 0 0 0
 0 −c b 
Cette matrice a même rang que la sous-matrice −b a−d 0  , qui est de déterminant nul.
 c 0 d −a
Donc le rang de DA est toujours ≤ 2.
 0 −c b 
A non scalaire ⇔ non (a = d et b = c = 0) ⇔ (a ≠ d ou b ≠ 0 ou c ≠ 0) ⇔ rg −b a−d 0  = 2.
 c 0 d −a
Alors Ker DA = K[A] par inclusion et égalité des dimensions.

3) a) Montrons que A est semblable à l’une, et à une seule, des matrices 


α 0  et 0 −d  .
 0 α  1 t 
Confondons la matrice A avec l’endomorphisme canoniquement associé.
En effet, soit A est scalaire, i.e. est une homothétie. Soit A n’est pas une homothétie.
D’après un résultat connu, cela signifie qu’il existe un vecteur u tel que (u, v = Au) est libre.
2
(u, v) est alors une base de K et la matrice de l’endomorphisme associé à A est alors de la forme
F= 
0 −d  . Autrement dit A est semblable à F.
1 t 
Conclusion : Dans M2(K), toute matrice est soit scalaire, soit monogène.

Enfin, un argument de trace et de déterminant montre que deux matrices de la forme 


0 −d  sont
1 t 
semblables ssi elles sont égales.
4 2
Conséquence : si K est un corps fini à q éléments, M2(K) a q éléments, répartis en q + q classes de
similitude, q d’entre elles étant réduites à un singleton (les autres ont combien d’éléments ?).
−1
b) Si A et B sont semblables, DA et DB sont semblables. En effet, B = P .A.P,
−1 −1
DB(M) = B.M − M.B = P .A.P.M – M.P .A.P
−1 −1 −1 −1 −1
= P .(A.P.M.P – P.M.P .A).P = P .DA(P.M.P ).P .

104
−1
Autrement dit, si l’on note Φ : M → P .M.P, qui est un isomorphisme d’espace vectoriel, et même
d’algèbre, de M2(K), on a Φ o DA = DB o Φ.
2
4) L’application M → M est surjective de Gl2(C) dans Gl2(C). [ Oral ENS ]
1er cas : A = 
α 0  , où α ∈ C*. Alors il existe δ tel que δ2 = α et M = δ 0 répond à la question.
 0 α  0 δ 
2ème cas : A = 
0 −d  , où d est non nul. Si M2 = A, M commute à A donc, en vertu des questions
1 t 
2 2 2
précédentes, est de la forme xI + yA. D’où : M = x .I + 2xyA + y ( t.A – d.I ).
2 2 2 2
Comme (I, A) est libre, M = A ⇔ x – dy = 0 et t.y + 2xy = 1.
2 2
Il existe δ tel que δ = d, donc x = ± δy, et l’on reporte dans la 2ème équation. Il vient ( t ± 2δ) y =
1.
Comme δ est non nul, l’un au moins des deux complexes t ± 2δ est non nul. On peut alors trouver y,
puis x.
Il reste à conclure à similitude près.
Remarques : 1) On peut même discuter le nombre de solutions : 0, 2, 4 ou une infinité.
2
2) Lorsque A n’est plus inversible, on montrera que M = A n’a pas de solution lorsque d = t = 0,
seule classe de similitude à enlever.
3) Tout ceci peut être retrouvé autrement dans le chapitre sur la réduction.
__________

Problème 33 : Réduction des matrices de rang 1

1) Soit J ∈ Mn(R) la matrice carrée dont tous les éléments sont égaux à 1.
Montrer que J est diagonalisable. La diagonaliser.
2) Soit A ∈ Mn(K). Montrer que A est de rang 1 si et seulement s’il existe des matrices-colonnes
 x1   y1 
X =  ...  et Y =  ...  non nulles et telles que A = X.tY ; le couple (X, Y) est-il unique ?
 xn   yn 
2
Exprimer A à l’aide de A et de sa trace.
Indiquer une cns portant sur tr A pour que A soit diagonalisable.
2
3) Soient A et B dans Mn(R) telles que rg(AB – BA) = 1. Calculer (AB – BA) .
4) La matrice A = (ai,j) ∈ Mn(R) est dite équitable si ∀(i, j, k) ai,j > 0 et ai,j aj,k = ai,k .
a) Calculer ai,i ; exprimer ai,j à l’aide de ai,1 et de aj,1.
2
b) Montrer que A est de rang 1, et que A = n.A.
c) Montrer que toutes les matrices équitables sont semblables à la matrice J définie en 1), ainsi
qu’à la matrice diag(n, 0, …, 0).
5) Réduire la matrice A = (ai,j) ∈ Mn(R), où ai,j = 1 si 1 ≤ i ≤ q et 1 ≤ j ≤ p , ai,j = 0 sinon.
__________

Solution :
n
1) J est symétrique réelle, donc diagonalisable dans une base orthonormée de R .
Le mieux est de chercher ses éléments propres (λ, X).
x1 + x2 + … + xn = λx1 = λx2 = … = λxn .
λ = 0 donne l’hyperplan x1 + x2 + … + xn = 0 ;

105
λ ≠ 0 donne la droite R (1, 1, …, 1), et λ = n.
J est orthogonalement semblable à la matrice diag(n, 0, …, 0).
2) La première affirmation a déjà été établie dans un exercice antérieur.
∑x y
2
A = (X.tY).(X.tY) = X.(tY.X).tY = (tY.X).(X.tY) = ( i i ) A = (tr A).A.
Si tr A = 0, A est nilpotente et non nulle, donc n’est pas diagonalisable.
Si tr A ≠ 0, A annule le polynôme scindé sans facteurs carrés X.(X − tr A), donc est diagonalisable.
Ses valeurs propres sont 0 et tr A.
Ker(A) est l’hyperplan d’équation tY.Z = 0 , y1.z1 + … + yn.zn = 0.
Ker(A – tr A.I) est la droite K.X.
3) [ Oral Mines PC 2010, RMS n° 606 ].
2 2
La matrice C = AB – BA étant de rg 1 vérifie C = (tr C).C. Comme elle est de trace nulle, C = O.
4) Matrices équitables.
2
(ai,i) = ai,i , donc ai,i = 0 ou 1, mais les ai,j sont > 0, donc ai,i = 1. Du coup ai,j = 1/aj,i .

1 b , si n = 3, A = 1/b 1 c/b .
1 b c
Si n = 2, A =   
1/b 1 1/c b/c 1 
bj
Dans le cas général, notons bk = a1k pour 2 ≤ k ≤ n. Alors aij = ai1.a1j = .
bi
 1 
Donc A = 1/b2  [1 , b2 , … , bn ] est de rang 1 et de trace n. Le reste s’ensuit.
 ... 
1/bn 
t t
5) Ici A = X.tY , où X = (1, …, 1, 0, …, 0) (1 q fois) et Y = (1, …, 1, 0, …, 0) (1 p fois).
tr A = min(p, q) …
Référence : H. Eves, Elementary matrix theory, Dover, p. 274.
___________

Problème 34 : Réduction de matrices de petit rang

1) Soient E un espace vectoriel de dimension n sur le corps K, u un endomorphisme de E.


Montrer l’équivalence des deux propriétés :
i) u est diagonalisable ;
ii) E = Im u ⊕ Ker u, et l’endomorphisme induit v = uImu est diagonalisable.
2) Matrices de rang 1.
Soit A ∈ Mn(K). Montrer que A est de rang 1 si et seulement s’il existe des matrices-colonnes
 x1   y1 
X =  ...  et Y =  ...  non nulles et telles que A = X.tY ; le couple (X, Y) est-il unique ?
 xn   yn 
Indiquer une cns portant sur tr A pour que A soit diagonalisable.
3) On considère les trois matrices suivantes de M7(R) :
1 1 1 1 1 1 1 0 01 10 0 0 1 1 1111 1
1 0 0 0 0 0 0 0 10 01 0 0 1 0 0000 0
1 0 0 0 0 0 0 1 00 00 0 0 1 0 0000 0
F = 1 1 1 1 1 1 1 , C = 1 00 00 0 0 , S = 1 1 1111 1
1 0 0 0 0 0 0 1 00 00 0 0 0 0 0000 1
1 0 0 0 0 0 0 0 10 01 0 0 0 0 0000 1
1 0 0 0 0 0 0 0 01 10 0 0 1 1 1111 1

106
Sont-elles diagonalisables ? Si oui, quels sont leurs polynômes caractéristiques et minimaux ?
On pourra utiliser la question 1). Cette méthode n’est pas imposée.
4) Soient E un espace vectoriel de dimension n sur le corps K, u un endomorphisme de E.
Montrer l’équivalence des cinq propriétés :
i) Im u ∩ Ker u = {0} ;
ii) E = Im u ⊕ Ker u ;
iii) Il existe une base B de E telle que Mat(u, B) = 
R O , où R ∈ Gl (K) , 0 ≤ r ≤ n ;
O O r
2
iv) Le polynôme minimal de u n’est pas divisible par X ;
2 3
v) u ∈ Vect( u , u , … ) .
___________

Solution

Cet exercice donne un critère utile de diagonalisation des matrices de petit rang. Les questions 2) et
3) peuvent être traitées directement, par recherche des éléments propres, mais sont traitées ici dans
l’esprit du problème. La question 4) donne des critères de pseudo-inversiblité.
1) Un critère simple de diagonalisabilité.
Soient E un espace vectoriel de dimension n sur le corps K, u un endomorphisme de E.
Montrons l’équivalence : i) u est diagonalisable ;
ii) E = Im u ⊕ Ker u, et l’endomorphisme induit v = uImu est diagonalisable.
Notons que Im u est toujours un sous-espace u-stable, de sorte que v est bien défini.
i) ⇒ ii). Distinguons deux cas : si u est inversible, il n’y a rien à montrer, car Im u = E, et v = u.
Sinon, λ1 = 0 est valeur propre de u. Le polynôme minimal de u est de la forme P(X) = X.Q(X),
avec Q(X) scindé à racines simples ≠ 0. Le théorème des noyaux dit que E = Ker u ⊕ Ker Q(u).
Je dis que Im u = Ker Q(u). En effet, P(u) = Q(u).u = 0 ⇒ Im u ⊂ Ker Q(u).
Bezout s’écrit ∃(A, B) 1 = A.X + Q.B, donc idE = u.A(u) + B(u).Q(u).
Alors x ∈ Ker Q(u) ⇒ x = [u.A(u)](x) ⇒ x ∈ Im u. Par conséquent, E = Ker u ⊕ Im u.
Enfin, Im u = Ker Q(u) , donc Q(v) = 0 ; v annule un polynôme scindé sans carrés, donc est
diagonalisable. Du reste, Ker Q(u) est la somme directe des espaces propres associés à valeurs
propres non nulles.
NB : On peut donner une preuve bien plus élémentaire de tout cela, en prenant une base propre.
ii) ⇒ i) Si B’ est une base de Ker u et B’’ une base de Im u formée de vecteurs propres de v, alors
B = B’ ∪ B’’ est une base propre de u. Plus généralement, si F et G sont deux supplémentaires u-
stables, tels que uF et uG soient diagonalisables, alors u est diagonalisable.
2) Matrices de rang 1.
a) Caractérisation.
Soit A ∈ Mn(K) de rang 1. Im A est une droite : Im A = K.X, X ≠ 0.
La j-ème colonne de A s’écrit yj.X, donc A = X.tY ; Y ≠ 0, car une des colonnes de A est non nulle.
Réciproquement, si A = X.tY, X et Y non nuls, toutes les colonnes de A sont sur la droite KX, donc
rg A ≤ 1, et rgA = 1, car A est non nulle.
−1
Le couple (X, Y) n’est pas unique, et peut être remplacé par (λX, λ Y), λ ≠ 0.
b) CNS de diagonalisabilité.
n t
Im A est la droite K.X , Ker A est l’hyperplan { Z ∈ K ; Y.Z = 0 }.
n t t
K = Im A ⊕ Ker A ssi X ∉ Ker A, i.e. ssi Y.X ≠ 0. Or Y.X = tr A.
La condition AImA diagonalisable est automatiquement remplie car Im A est une droite A-stable.

107
Conclusion : Une matrice A de rang 1 est diagonalisable ssi sa trace est non nulle.
2
Remarque : une autre méthode consiste à noter que A = (X.tY).(X.tY) = X.(tY.X).tY = tr(A).A.
Si tr A ≠ 0, A annule un polynôme scindé sans carrés ; si tr A = 0, A est nilpotente non nulle…
3) Diagonalisation des matrices F, C et S.
Nous allons montrer que F et C sont diagonalisables à l’aide du critère vu en 1.
• On vérifie qu’image et noyau ont une intersection nulle ; le théorème du rang implique alors qu’ils
sont supplémentaires.
• On considère une base de l’image, et on forme la matrice A de l’endomorphisme induit v = uImu.
Il faut montrer que A est diagonalisable.
Au fond, on diagonalise F et C en deux temps, comme le montrent les calculs Maple ci-après.
t t
a) La matrice F est de rang 2, Im F = Vect(a, b), où a = (1, 1, 1, 1, 1, 1, 1), b = (1, 0, 0, 1, 0, 0, 0).
t
Im F est le plan formé des vecteurs X = (x, y, y, x, y, y, y).
Ker F est le sous-espace de codimension 2, donc de dimension 5, défini par les deux équations :
x1 + x2 + x3 + x4 + x5 + x6 + x7 = 0 , x1 = 0 .
Im F et Ker F sont en somme directe, car leur intersection est nulle :
t
X = (x, y, y, x, y, y, y) ∈ Ker F ⇔ x = 0 et 2x + 5 y = 0 ⇔ x = y = 0.
On conclut via le théorème du rang.
Cherchons la matrice de v = FIm F relativement à la base (a, b).
t t
F(a) = (7, 1, 1, 7, 1, 1, 1) = a + 6.b , F(b) = (2, 1, 1, 2, 1, 1, 1) = a + b .
Donc Mat(v) =   . Or cette matrice a pour valeurs propres 1 ±
11 6 . Elle est diagonalisable.
6 1
Conclusion : F est diagonalisable, Sp F = { 0 , 1 ± 6 }.
5 2 2
χF(X) = − X ( X – 2X – 5 ) , µF(X) = X ( X – 2X – 5 ).
b) La matrice C est de rang 3.
Im C est de dimension 3, engendré par les trois premières colonnes de C :
t 3
Im C = { Y = ( a, b, c, c, c, b, a ) ; ( a, b, c ) ∈ R }.
t t t
Une base en est : c1 = ( 0, 0, 1, 1, 1, 0, 0 ) , c2 = ( 0, 1, 0, 0, 0, 1, 0 ) , c3 = ( 1, 0, 0, 0, 0, 0, 1 ).
t 4
De plus Ker C = { X = ( 0, a, b, − b, − a, c, d ) ; ( a, b, c, d ) ∈ R }.
C’est un espace de dimension 4, dont une base est
t t t t
( 0, 1, 0, 0, −1, 0, 0 ) , ( 0, 0, 1, − 1, 0, 0, 0 ) , ( 0, 0, 0, 0, 0, 1, 0 ) , ( 0, 0, 0, 0, 0, 0, 1 )
Il est facile de vérifier que Im C ∩ Ker C = {0} ; donc Im C et Ker C sont supplémentaires.
Cherchons la matrice relativement à la base (c1, c2, c3) de Im C, de l’endomorphisme v = CIm C.
0 0 1
On a : C.c1 = c2 + 2.c3 , C.c2 = c2 , C.c3 = c1 , de sorte que A = Mat(v) = 1 1 0 ,
2 0 0
1 est valeur propre de A, car C.c2 = c2 . Comme tr A = 1, les deux valeurs propres sont opposées.
2
2 0 0 2
Sp A = { 1, α, −α }. De plus A = 1 1 1 , tr A = 5 et α = 2.
0 0 2
Ainsi Sp A = { 1, 2 , − 2 }. A est diagonalisable dans M3(R).
Finalement, Sp C = { 1, 2 , − 2 , 0 } et C est diagonaliable.
1, 2 , − 2 sont valeurs propres d’ordre 1, 0 étant valeur propre d’ordre 4.

Conclusion : C est diagonalisable, Sp C = { 0 , 1 , 2,− 2}.

108
4
χC(X) = X ( X – 1 ) ( X − 2 ) ( X + 2 ) , µC(X) = X ( X – 1 ) ( X − 2 ) ( X + 2 )

c) La matrice S n’est pas diagonalisable. En effet, rg S = 3,


t 3
Im S = Vect(c1, c2, c7) = { (a, b, b, a, c, c, a) ; (a, b, c) ∈ R }.
Ker S = { X ; x1 + x2 + x3 + x4 + x5 + x6 + x7 = x1 = x7 = 0 }.
t
Ker S ∩ Im S = { (0, b, b, 0, − b, − b, 0) ; b ∈ R } est une droite.
Feuille de calculs Maple. Les calculs sont conduits dans l’esprit du problème.
> with(linalg):F:=matrix(7,7,[1,1,1,1,1,1,1,1,0,0,0,0,0,0,1,0,0,0,0,
0,0,1,1,1,1,1,1,1,1,0,0,0,0,0,0,1,0,0,0,0,0,0,1,0,0,0,0,0,0]);
 1 1 1 1 1 1 1
 
 1 0 0 0 0 0 0
 
 
 1 0 0 0 0 0 0
 
F :=  1 1 1 1 1 1 1
 
 1 0 0 0 0 0 0
 
 
 1 0 0 0 0 0 0
 
 1 0 0 0 0 0 0
 
> Noyau:=kernel(F);Image:=colspan(F);intbasis(Noyau,Image);
P:=transpose(matrix([op(Noyau),op(Image)]));R:=multiply(inverse(P),F,P);
Finduit:=delrows(delcols(R,1..5),1..5);eigenvals(Finduit);
K0:=kernel(R);K1:=kernel(R-1-sqrt(6));K2:=kernel(R-1+sqrt(6));
Q:=transpose(matrix([op(K0),op(K1),op(K2)]));
Diag:=map(simplify,multiply(inverse(Q),R,Q));
Noyau := { [ 0, 0, 0, -1, 1, 0, 0 ], [ 0, 0, 1, -1, 0, 0, 0 ], [ 0, 0, 0, -1, 0, 0, 1 ], [ 0, 1, 0, -1, 0, 0, 0 ],
[ 0, 0, 0, -1, 0, 1, 0 ] }
Image := { [ 0, -1, -1, 0, -1, -1, -1 ], [ 1, 1, 1, 1, 1, 1, 1 ] }
{ }
 0 0 0 0 0 1 0 0 0 0 0 0 0 0
   
 0 0 0 1 0 1 -1 0 0 0 0 0 0 0
  



  0 0 0 0 0 0 0
 1 0 0 0 0 1 -1  
 
P := -1 -1 -1 -1 -1 1 0 R := 0 0 0 0 0 0 0
   
 0 1 0 0 0 1 -1 0 0 0 0 0 0 0
   
   
 0 0 1 0 0 1 -1 0 0 0 0 0 7 -5
   
  0 0 0 0 0 6 -5
 0 0 0 0 1 1 -1   
7 -5
Finduit :=   1 + 6, 1 − 6
 6 -5
K0 := { [ 0, 0, 0, 1, 0, 0, 0 ], [ 0, 0, 0, 0, 1, 0, 0 ], [ 0, 0, 1, 0, 0, 0, 0 ], [ 0, 1, 0, 0, 0, 0, 0 ],
[ 1, 0, 0, 0, 0, 0, 0 ] }
K1 := {  0, 0, 0, 0, 0, 1, − 6  }
6 1
K2 := {  0, 0, 0, 0, 0, 1 − 6 , 1  }
1
 5 5 
0 0 0 0 0 0
6
 0 0 0 0 1 0 0  0 
   
0 0 0 1 0 0 0  0 0 0 0 0
0 0 
   
   
0 0 1 0 0 0 0  0

0 0 0 0
0 0 

  0 
1   
 0 0 0 0 0 0  
0 0 0 0
0 0

 
Q := 0 1 0 0 0 0 0 
 Diag := 0 0 0 0 0
0 0 

   
 1   1 
0 0 
 0 0 0 0 1 1− 6 

0 0 0 0 5
−1 + 6
0 

 6   
   
 6 1   −7 + 2 6 
0 −  0
   0 0 0 0 0
−1 + 6 
0 0 0 0 6 1
 5 5  

109
> with(linalg):C:=matrix(7,7,[0,0,1,1,0,0,0,0,1,0,0,1,0,0,1,0,0,0,0,0,0,1,
0,0,0,0,0,0,1,0,0,0,0,0,0,0,1,0,0,1,0,0,0,0,1,1,0,0,0]);
 0 0 1 1 0 0 0
 
 0 1 0 0 1 0 0
 
 
 1 0 0 0 0 0 0
 
C :=  1 0 0 0 0 0 0
 
 1 0 0 0 0 0 0
 
 
 0 1 0 0 1 0 0
 
 0 0 1 1 0 0 0
 
> Noyau:=kernel(C);Image:=colspan(C);intbasis(Noyau,Image);
P:=transpose(matrix([op(Noyau),op(Image)]));R:=multiply(inverse(P),C,P);
Cinduit:=delrows(delcols(R,1..4),1..4);eigenvals(Cinduit);
K0:=kernel(R);K1:=kernel(R-1);K2:=kernel(R-sqrt(2));K3:=kernel(R+sqrt(2));
Q:=transpose(matrix([op(K0),op(K1),op(K2),op(K3)]));
Diag:=map(simplify,multiply(inverse(Q),R,Q));
Noyau := { [ 0, -1, 0, 0, 1, 0, 0 ], [ 0, 0, 0, 0, 0, 1, 0 ], [ 0, 0, -1, 1, 0, 0, 0 ], [ 0, 0, 0, 0, 0, 0, 1 ] }
Image := { [ 0, 1, 0, 0, 0, 1, 0 ], [ 0, 0, 1, 1, 1, 0, 0 ], [ 1, 0, 0, 0, 0, 0, 1 ] }
{ }
0 0 0 0 0 0 1 0 0 0 0 0 0 0
   
0 0 0 -1 1 0 0 0
   0 0 0 0 0 0
   
0 -1 0 0 0 1 0 0 0
  
0 0 0 0 0

P := 0 1 0 0 0 1 0 R :=  0 0 0 0 0 0 0
   
0 0 0 1 0 1 0 0



  0 0 0 1 1 0
1 0 0 0 1 0 0  
  0 0 0 0 0 0 1
  
 
0 0 1 0 0 0 1
0 0 0 0 0 2 0
1 1 0
 
Cinduit :=  0 0 1 1, 2 , − 2
 
0 2 0
K0 := { [ 0, 0, 1, 0, 0, 0, 0 ], [ 0, 1, 0, 0, 0, 0, 0 ], [ 1, 0, 0, 0, 0, 0, 0 ], [ 0, 0, 0, 1, 0, 0, 0 ] }
K1 := { [ 0, 0, 0, 0, 1, 0, 0 ] }
K2 := {  0, 0, 0, 0,
1 1
2 + 1, 2 , 1  } K3 := { [ 0, 0, 0, 0, 1, −1 − 2 , 2 + 2 ] }
 2 2 
0 1 0 0 0 0  0 0 0 0 0 0 0 0 
   
0 0 0 1 0 0  0 0 0 0 0 0 0 0 
   
  
0


0 0 1 0 0 0  0 
0 0 0 0 0 0

  0 
1   
 0 0 0 0 0  0

0 0 0 0 0 0

 
Q :=  1  Diag := 0 0 0 0 1 0 0 

0 0 0 0 1 2 +1 1  



 2  0 2 +2 
   0 0 0 0 0 
   1+ 2 
 1   
0
 0 0 0 0 2 −1 − 2   
 2   2 + 2 
  0 −
 0 0 0 0 0 
0 0 0 0 0 1 2 + 2   1 + 2 

Exercice complémentaire : diagonaliser P, J, H, E, S, T, U, N, G, E, N, I, E, etc.


Remarque : diagonalisation des matrices de rang 2.
t t
1) Une matrice A est de rang 2 ssi elle s’écrit A = X1. Y1 + X2. Y2, où (X1, X2) et (Y1, Y2) sont des
t t
couples de vecteurs-colonnes libres. Et Im A = Vect(X1, X2) et Ker A = { Z ; Y1.Z = Y2.Z = 0 }.

110
 tY X tY .X 
2) La matrice de l’endomorphisme AImA relativement à la base (X1, X2) est B =  t 1 1 t 1 2  .
 Y2 .X1 Y2 .X 2 
Il découle de 1) que A est diagonalisable si et seulement si B est diagonalisable et inversible.
2 2
On notera que tr B = tr A et det B = 1 [ ( tr A ) − tr(A ) ] .
2
Références : Ecrit Centrale PSI 2010.
__________

Problème 35 : Endomorphismes diagonalisables

Soient E un espace vectoriel de dimension n sur le corps K, u un endomorphisme de E


diagonalisable, de valeurs propres λ1, ... , λr (distinctes). Notons ni l’ordre de multiplicité de λi, et
Ei l’espace propre associé.
1) Polynômes de u.
i) Quel est le polynôme minimal µu(X) de u ?
ii) Exprimer les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei
en tant que polynômes de u. En particulier u = ∑ λi.pi .
iii) Calcul fonctionnel.
 Soit f ∈ K[X]. Montrer que f(u) = ∑ f(λi).pi .
 Si K = R ou C, montrer que exp(u) = ∑ exp(λi).pi . Plus généralement, soit :
∑k≥0 ak.zk une série entière de rayon de convergence R > 0. Quand peut-on définir f(u) ?
f(z) =
Montrer qu’alors f(u) = ∑ f(λi).pi , et que f(u) est un polynôme de u, que l’on déterminera.
2) Sous-espaces stables.
i) Soit F un sous-espace u-stable. Montrer que uF est diagonalisable et que F = ⊕ (F ∩ Ei).
ii) En déduire que les sous-espaces u-stables de E sont de la forme F = ⊕ Fi , où Fi est un sous-
espace quelconque de Ei.
iii) Si u admet n valeurs propres distinctes, combien admet-il de sous-espaces u-stables ?
iv) Indiquer une cns pour que u admette un nombre fini de sous-espaces u-stables.
3) Montrer l’équivalence des propriétés :
a) u est diagonalisable ;
b) le polynôme caractéristique de u est scindé, et tout sous-espace u-stable admet un supplé-
mentaire u-stable.
4) Commutant de u.
i) Soit v ∈ L(E) ; montrer que v commute à u ssi (∀i) v(Ei) ⊂ Ei .
ii) En déduire la dimension de la sous-algèbre C(u) = { v ∈ L(E) ; v o u = u o v }.
2
Montrer que cette dimension est comprise entre n et n et a même parité que n.
iii) Déterminer le bicommutant de u : C(C(u)) = { w ∈ L(E) ; w o v = v o w (∀v ∈ C(u)) }.
5) Algèbres diagonales.
Une K-algèbre de dimension r est dite diagonale si elle est isomorphe à l’algèbre Kr munie des
opérations usuelles (addition et produit terme à terme des r-uplets).
Montrer que u est diagonalisable ssi K[u] est une sous-algèbre diagonale de L(E).
_________

111
Solution
Ce problème est si important qu’il doit être considéré comme un complément de cours.
1) Polynômes de u.
r r
i) u a pour polynôme minimal µu(X) = ∏(X −λi ) , et pour caractéristique χu(X) =
i =1
∏(X −λ )
i =1
i
ni
.

ii) Les projecteurs propres pi associés à la décomposition en somme directe E = ⊕ Ei sont les
X −λ j
polynômes de Lagrange pi = Li(u), où Li(X) = ∏ λ −λ
j ≠i i j
.

2) Sous-espaces stables.
i) Soit F un sous-espace u-stable ; uF est diagonalisable car il annule un polynôme scindé à racines
simples, à savoir le polynôme minimal de u. Le polynôme minimal de uF est donc un diviseur de
µu(X). La formule F = ⊕ (F ∩ Ei) découle alors de l’application du théorème des noyaux à ce
polynôme ; certains des F ∩ Ei peuvent être nuls.
Remarque : il découle de ceci que toute base propre de uF peut être complétée en une base propre de
u. Matriciellement, cela se traduit par :

Si M = 
A B  ∈ M (K), où A et D sont carrées, est diagonalisable, alors A est diagonalisable, et il
O D n

existe une matrice P = 


U V  ∈ Gl (K) telle que P−1 M P soit diagonale.
O W 
n

ii) Un sous-espace u-stable de E est donc de la forme F = ⊕ Fi , où Fi est un sous-espace de Ei. La


réciproque est évidente.
n
iii) Si u admet n valeurs propres distinctes, u admet 2 sous-espaces u-stables.
iv) Une cns pour que u admette un nombre fini de sous-espaces u-stables est que u ait n valeurs
propres distinctes, ou bien que le corps K soit fini.
3) Caractérisation de la diagonalisabilité.
a) ⇒ b) Si u est diagonalisable, son polynôme caractéristique est scindé. De plus, soit E = ⊕ Ei la
décomposition en sous-espaces propres. Par 2.ii), tout sous-espace u-stable est de la forme F = ⊕ Fi,
où Fi est un sous-espace de Ei. Soit Gi un supplémentaire de Fi dans Ei. Alors G = ⊕ Gi est un
supplémentaire u-stable de F.
b) ⇒ a) Si le polynôme caractéristique de u est scindé, u admet une droite propre D1. Cette droite
admet un supplémentaire u-stable H. uH admet un polynôme caractéristique scindé (puisqu’il divise
celui de u), donc admet une droite propre D2. Le plan P = D1 ⊕ D2 admet un supplémentaire u-
stable, etc.
4) Commutant, bicommutant de u.
i) Soit v ∈ L(E). Si v commute à u, (∀i) v(Ei) ⊂ Ei , soit par vérification directe, soit parce que Ei
est le noyau d’un polynôme de u. Réciproquement si (∀i) v(Ei) ⊂ Ei , et si x = x1 + … + xr (xi ∈ Ei),
alors (v o u)(x) = v(λ1.x1 + … + λr.xr) = λ1.u(x1) + … + λp.u(xp) = (u o v)(x).
ii) On en déduit que l’algèbre C(u) = { v ∈ L(E) ; v o u = u o v } est isomorphe à ∏L(E ) , donc
i

a pour dimension ∑(n )² .


i

Il en découle que : n = ∑n ≤ dim C(u) = ∑(n )² ≤ ( ∑n


i i i ) 2 = n2 .
De plus, ∑(n )² ≡ ∑n = n (mod 2).
i i

112
2
Enfin, dim C(u) = n ssi u a n valeurs propres distinctes, dim C(u) = n ssi u est une homothétie.
iii) Bicommutant de u : C(C(u)) = { w ∈ L(E) ; w o v = v o w (∀v ∈ C(u)) }.
r
∑α
r
Je dis que C(C(u)) = { i pi ; (α1, …, αr) ∈ K } est une algèbre commutative de dimension r.
i =1
r
∑α
r
Notant H = { i pi ; (α1, …, αr) ∈ K }, il est clair que H ⊂ C(C(u)).
i =1

Par ailleurs les projecteurs propres pi, 1 ≤ i ≤ r, sont éléments de C(u) : ce sont même des polynômes
de u. Si w ∈ C(C(u)), w commute avec les pi, donc laisse stable chacun des espaces propres Ei.
L’endomorphisme induit wi commute avec tout endomorphisme de Ei, donc est une homothétie.
Conclusion : C(C(u)) = K[u].
Remarque : on peut aussi montrer cela par matrices-blocs.
5) Algèbres diagonales.
r
• Si u est diagonalisable, K[u] est isomorphe à l’algèbre K , où r = card Sp u.
r
En effet, l’application Q ∈ K[X] → (Q(λ1), ... , Q(λr)) ∈ K est un morphisme surjectif d’algèbres,
r
de noyau (µu(X)). Il se factorise en un isomorphisme de K[u] ≈ K[X]/(µu(X)) sur K .
r
• Si K[u] est diagonale, soit f : K → K[u] un isomorphisme d’algèbres. Si (e1, …, er) est la base

r
canonique de K , les relations ei×ej = δi,j.ei et ei = e, impliquent que les pi = f(ei) forment une
base de K[u], formée de projecteurs deux à deux orthogonaux, de somme idE. Donc u = ∑λ .p
i i est
diagonalisable.
_________

Problème 36 : endomorphismes diagonalisables

Soient E un C-espace vectoriel de dimension n, L(E) l’algèbre des endomorphismes de E, I l’identité


de E. On note Sp f l’ensemble des valeurs propres de f.
A. Première partie.
Soit f un endomorphisme de E. On suppose qu’existent deux endomorphismes non nuls p et q et
deux complexes distincts a et b tels que :
2 2 2
I=p+q , f=ap+bq , f =a p+b q .
1) Calculer ( f – a I ) o ( f – b I ). En déduire que f est diagonalisable.
2 2
2) a) Etablir que p o q = q o p = 0 , p = p , q = q .
b) Montrer que Sp f = {a , b}.
m m m
c) Montrer que ∀m ∈ N f = a p + b q, et que cela reste vrai pour tout m ∈ Z si a.b ≠ 0.
3) Montrer que p est le projecteur sur Ker(f – a I) parallèlement à Ker(f – b I), et que q est le
projecteur sur Ker(f – b I) parallèlement à Ker(f – a I).
4) a) Montrer que A = { x p + y q ; (x, y) ∈ C×C } est une sous-algèbre de L(E). Dimension ?
b) Déterminer les projecteurs qui appartiennent à A.
2
c) Résoudre dans A l’équation g = f.

B. Deuxième partie.

113
Soit f un endomorphisme de E. On suppose qu’existent r endomorphismes non nuls p1, p2, … , pr
r
∑(λ ) .p
m
et r complexes distincts λ1, λ2, …, λr, tels que : ∀m ∈ N f = k
m
k .
k =1
r
1) Montrer que ∀P ∈ C[X] P(f) = ∑P(λ ).p
k =1
k k .
r
X −λl .
2) On pose Φ(X) = ∏(X −λ ) et, pour tout entier k ∈ [1, r], Lk(X) = ∏
k =1
k
1≤l ≤n,l ≠ k k −λl
λ
a) Calculer Φ(f). Qu’en déduit-on ?
b) Montrer que (∀k) pk = Lk(f). Vérifier que pk o pl = 0 si k ≠ l, pk si k = l.
c) Démontrer que Sp f = { λ1, λ2, …, λr }.
3) Démontrer que, pour tout entier k, pk est le projecteur sur Ker(f – λk I) parallèlement à
Vk = ⊕l ≠ k Ker(f −λl .I) .
4) On désigne par A le sous-espace vectoriel de L(E) engendré par p1, p2, …, pr .
a) Montrer que A est une sous-algèbre de L(E). Quelle est sa dimension ?
2
b) Résoudre dans A l’équation g = f.
c) Quels sont les projecteurs appartiennant à A (on précisera leur nombre et leurs éléments
caractéristiques).
5) Soit h un endomorphisme diagonalisable de E, Sp h = { λ1, λ2, …, λr }. Montrer qu’il existe r
r
∑(λ ) .q
m
endomorphismes non nuls q1, q2, … , qr tels que : ∀m ∈ N f = k
m
k .
k =1
Référence : ENSI 1988, 2ème épreuve.
_________

Problème 37 : Diagonalisation d’une dérivation.

Soient A ∈ Mn(C), DA l’endomorphisme de Mn(C) défini par DA(M) = A.M – M.A.


On se propose de montrer élémentairement que A est diagonalisable ⇔ DA est diagonalisable.
On note (Eij) la base canonique de Mn(C).
−1
1) On suppose A diagonalisable. Soit P ∈ Gln(C) telle que P .A.P = diag(λ1, …, λn) = D,
( les valeurs propres λk étant distinctes ou non ).
a) Exprimer D.Eij – Eij.D en fonction de Eij , λi et λj.
−1
b) Démontrer que, pour tout couple (i, j), Bij = P.Eij.P est un vecteur propre de DA.
c) En déduire que DA est diagonalisable. Quelles sont ses valeurs propres ?
2) On suppose réciproquement DA diagonalisable, et l’on note (Pij) une base de vecteurs propres
de DA, et αij la valeur propre associée à Pij.
a) Soit λ une valeur propre de A, X un vecteur propre associé. Démontrer que, pour tout couple
(i, j), il existe un complexe µij, que l’on exprimera en fonction de λ et αij, tel que A.Pij.X = µij.Pij.X.
b) En déduire que A est diagonalisable.
____________

Solution

114
−1
1) Supposons A diagonalisable. Soit P ∈ Gln(C) telle que P .A.P = diag(λ1, …, λn) = D,
( les valeurs propres λk étant distinctes ou non ).
a) Je dis que D.Eij – Eij.D = ( λi − λj ).Eij.
En effet, D.Eij = ∑λ .E
k
k kk .Eij = λi.Eij et Eij.D = ∑λ .E .E
k
k ij kk = λj.Eij .
−1
b) Pour tout couple (i, j), Bij = P.Eij.P est un vecteur propre de DA.
−1 −1 −1 −1
En effet DA(Bij) = A.Bij − Bij.A = P.D.P .P.Eij.P − P.Eij.P .P.D.P
−1 −1
= P.( D.Eij − Eij.D).P = ( λi − λj ). P.Eij.P = ( λi − λj ).Bij.
c) Ainsi, (Bij) est une base propre, et DA est diagonalisable. Ses valeurs propres sont les λi − λj.
2) Réciproquement, supposons DA diagonalisable.
Soit (Pij) une base de vecteurs propres de DA, et αij la valeur propre associée à Pij.
a) Soient λ une valeur propre de A, X un vecteur propre associé.
A.Pij − Pij.A = αij.Pij , donc A.Pij.X = Pij.A.X + αij.Pij.X = ( λ + αij ).Pij.X.
2
b) Considérons la famille de n vecteurs (Pij.X). Je dis qu’on peut en extraire une base, autrement
n
dit qu’elle est génératrice. Soit en effet Y un vecteur quelconque de C . Comme X est non nul, il
existe M ∈ Mn(C) telle que Y = M.X (réfléchir un instant).
Or M est combinaison linéaire des Pij, donc Y est combinaison linéaire des Pij.X.
Conclusion : il existe une base propre de A.

____________

Problème 38 : symétries commutantes et anticommutantes

Soient K un corps commutatif de caractéristique ≠ 2, E un K-espace vectoriel de dimension n.


On note I l’identité de E.
A. Première partie.
2 + −
1) Soit s un endomorphisme de E tel que s = I. On note Es = Ker( s − I ) et Es = Ker( s + I ).
+ −
a) Montrer que E = Es ⊕ Es .
+ + − −
b) Soit f ∈ L(E) ; montrer que f o s = s o f ⇔ f(Es ) ⊂ Es et f(Es ) ⊂ Es .
c) Montrer que C(s) = { f ∈ L(E) ; f o s = s o f } est une sous-algèbre de de L(E). Dimension ?
d) Montrer que A(s) = { f ∈ L(E) ; f o s = − s o f } est un sous-espace vectoriel de L(E).
Caractériser ses éléments. Quelle est la dimension de A(s) ?
e) Montrer que L(E) = C(s) ⊕ A(s).

3
1 2 2
2) Soit S l’endomorphisme de R de matrice  2 1 2  . Nature géométrique de S ? Eléments
−2 −2 −3
caractéristiques ?
t
3) Soit f l’endomorphisme de Mn(K) défini par f(A) = A. Calculer la trace et de déterminant de f.
4) Une matrice A = (aij) ∈ Mn(K) est dite en damier si ai,j = 0 lorsque i et j n’ont pas même parité.
On note Dn(K) l’ensemble de ces matrices.

115
 1 0 ... 0 0 
 0 −1 0 0 
Soit J = ... ... ... ... ...  . Vérifier que A ∈ Dn(K) ⇔ AJ = JA. Que dire de Dn(K) ?
 0 0 ... 0 
 0 0 ... 0 (−1)n−1

5) Une matrice A = (aij) ∈ Mn(K) est dite centrosymétrique si ∀(i, j) an+1−i,n+1−j = aij .
On note Cn(K) l’ensemble de ces matrices.
 0 0 ... 0 1 
 0 ... 1 0 
Soit J = ... ... ... ... ... . Vérifier A ∈ Cn(K) ⇔ AJ = JA. Que dire de Cn(K) ?
 0 1 ... 0 
 1 0 ... 0 0 

B. Deuxième partie : symétries commutantes.


2 2
1) Soient s1 et s2 deux endomorphismes de E tels que s1 = s2 = I et s1 o s2 = s2 o s1. Montrer
qu’il existe une base B et des entiers p, q, r et s, éventuellement nuls, tels que p + q + r + s = n et :
I p O O O I p O O O
O Iq O O O − Iq O O
MatB(s1) =  et MatB(s2) = 
O O − Ir O O O Ir O
O − I s  O − I s 
 O O  O O
2) Exemple (Maple) : Soient
 −89 960 −2220 1400   191 −2040 4800 −3080 
 −64 679 −1560 980  136 −1471 3480 −2240 
S1 =  148 2240  et S2 =  320
2751 − 5320 
.
− 520 −1191 −1160
 3 3   3 3 
 −40 420 −960 601   88 −960 2280 −1471 
4
Vérifier que ce sont deux symétries commutantes de R , et trouver une matrice P ∈ Gl4(R) telle que
1 0 0 0 1 0 0 0
P .S1.P = 
−1 0 1 0 0 et P .S2.P = 
−1 0 −1 0 0 .
0 0 −1 0  0 0 1 0
0 0 0 −1 0 0 0 −1
3) On appelle SSC (système de symétries commutantes) un N-uplet (s1, …, sN) d’endo-
2
morphismes de E deux à deux distincts et tels que ∀(i, j) si = I et si o sj = sj o si .
Montrer qu’il existe alors une base B = (e1, …, en) de E telle que, pour tout i ∈ [1, N], MatB(si)
soit de la forme diag( ε i , …, ε in ), où ( ε i , …, ε in ) ∈ {−1, +1} .
n
1 1

[ On pourra raisonner par récurrence sur n et noter que si N ≥ 3, alors ∃i0 si0 ≠ ±I. Cette méthode
n n
n’est pas imposée. ] En déduire que N ≤ 2 . Indiquer une SSC ayant 2 éléments.
4) Application :
Montrer que les groupes Gln(K) et Glm(K) sont isomorphes si et seulement si n = m.

C. Troisième partie : Symétries anticommutantes.


2 2
1) Soient s1 et s2 deux endomorphismes tels que s1 = s2 = I et s1 o s2 = − s2 o s1.
+ −
a) Comparer dim Es1 et dim Es1 . Qu’en déduire pour dim E ?
+
b) On pose n = 2m. Soit (e1, …, em) une base de Es1 ; que dire de (s2(e1), …, s2(em)) ?
Im O   O Im 
Montrer qu’il existe une base de E telle que MatB(s1) =
 O − I m  et MatB(s2) =  I m O  .

116
2) Exemple (Maple) : Soient
 436 −1600 3785 − 7280 
 −89 960 −2220 1400   3 3 
 −64 679 −1560 980  160 −580 1360 − 2597 
S1 =  148 2240  et S2 =  3 3 .
− 520 −1191 141 −304 708 −448 
 3 3   5
 −40 420 −960 601   368
−1313 3040 −820 

 21 7 7 3 
Vérifier que ce sont deux symétries anticommutantes, et trouver une matrice P ∈ Gl4(R) telle que
1 0 0 0 0 01 0
P .S1.P = 
−1 0 1 0 0 et P .S2.P = 
−1 0 00 1 .
0 0 −1 0  1 00 0
0 0 0 −1 0 10 0
3) On appelle SSA (système de symétries anticommutantes) un N-uplet (s1, …, sN) d’endo-
2
morphismes de E tels que ∀k sk = I et p ≠ q ⇒ sp o sq = − sq o sp .
a) Si n est impair, que dire de N ?
b) On suppose n pair, N ≥ 2. On note G le sous-groupe de Gl(E) engendré par s1, …, sN.
Pour toute partie H ⊂ [1, N] ordonnée H = { h1 < h2 < … < hr }, on note sH = sh sh … shr .
1 2

On pose s∅ = I. Démontrer que G = { ± sH ; H ⊂ [1, N] }.


4) Dans la suite du problème, on suppose que le corps des scalaires est K = C.
a) Si (s1, s2) est un SSA , que dire de (s1 , s2 , i.s1s2) ?
b) Soit (s1, …, sN) un SSA, N ≥ 2. Pour 3 ≤ k ≤ N, on pose rk = i.s2sk .
2
Calculer rk ; comparer rp.rq et rq.rp (p ≠ q) , puis s1.rk et rk.s1 , s2.rk et rk.s2.
+ −
c) Pour 3 ≤ k ≤ N, on note rk+ la restriction de rk à Es1 , rk− celle de rk à Es1 .
+ −
Montrer que ( rk+ ) est un SSA de Es1 , et ( rk− ) un SSA de Es1 transmué du précédent.
d) Soit pn le cardinal maximum d’un SSA d’un C-espace vectoriel de dimension n.
Montrer que p2m+1 = 1 et p2m = pm + 2.
En déduire que pn = 2.v2(n) + 1 , où v2(n) est l’exposant de 2 dans la factorisation de n.
n n n
5) On suppose qu’il existe un entier n ≥ 1 et des formes bilinéaires B1, …, Bn : R ×R → R
vérifiant la condition (*)
n

∑B (x, y)²
t n t n 2 2 2 2
∀x = (x1, …, xn) ∈ R ∀y = (y1, …, yn) ∈ R ( x1 + … + xn ).( y1 + … + yn ) = i
i =1
n

∑L (x).y
n
a) On écrit Bi(x, y) = ij j , où Lij est une forme linéaire sur R , et Λ(x) = (Lij(x)).
j =1

 x² 0 ... 0  y1   y1 
0 x ² ... 0  y2  = [y , y , …, y ].tΛ(x).Λ(x).  y2  .
Montrer que (*) s’écrit [y1, y2, …, yn] 
... ... ... ...   ...  1 2 n  ... 
   yn   yn 
0 0 ... x ²
b) On écrit Λ(x) = x1.A1 + … + xn.An , où A1, …, An ∈ Mn(R).
t t t
Montrer que ∀(k, l) Ak.Al = In et k ≠ l ⇒ Ak.Al = − Al.Ak .

c) On pose A’k = i.An.Ak (1 ≤ k ≤ n). Vérifier que (A’1 , … , A’n−1) est un SSA de Mn(C).
d) En déduire que n ∈ { 1, 2, 4, 8 } (Théorème d’Hurwitz, 1898).

117
Remarque : La découverte de telles identités pour n = 2, 4 et 8 remonte à Diophante, Euler et Degen.
2 2 2 2 2 2
Identité de Diophante : ( a + b ).( c + d ) = ( ac − bd ) + ( ad + bc ) .
2 2 2 2 2 2 2 2 2 2 2 2
Identité d’Euler : ( a + b + c + d ).( α + β + γ + δ ) = A + B + C + D ,
où A = aα + bβ + cγ + dδ B = aβ − bα + cδ − dγ
C = aγ − cα − bδ + dβ D = aδ − dα + bγ − cβ
Identité de Degen : (P² + Q² + R² + S² + T² + U² + V² + W²).(p² + q² + r² + s² + t² + u² + v² + w²)
= A² + B² + C² + D² + E² + F² + G² + H² , où :
A = Pp − Qq − Rr − Ss − Tt − Uu − Vv − Ww B = Pq + Qp + Rs − Sr + Tu − Ut − Vw + Wv
C = Pr − Qs + Rp + Sq + Tv + Uw − Vt − Wu D = Ps + Qr − Rq + Sp + Tw − Uv + Vu − Wt
E = Pt − Qu − Rv − Sw + Tp + Uq + Vr + Ws F = Pu + Qt − Rw + Sv − Tq + Up − Vs + Wr
G = Pv + Qw + Rt − Su − Tr + Us + Vp − Wq H = Pw − Qv + Ru + St − Ts − Ur + Vq + Wp
____________

Corrigé : symétries commutantes et anticommutantes.


A Edouard Maurel Ségala
A. Première partie : généralités sur les symétries.
2 + −
1) Soit s un endomorphisme de E tel que s = I. On note Es = Ker( s − I ) et Es = Ker( s + I ).
+ −
a) Montrons rapidement que : E = Es ⊕ Es .
+ − + −
Es ∩ Es = {0} car si x ∈ Es ∩ Es , s(x) = x = −x, donc 2x = 0, donc x = 0 (car 2K = 1K + 1K ≠ 0) .
x+s(x) x−s(x) x+s(x) + x−s(x) −
Enfin, x = + , où ∈ Es et ∈ Es .
2 2 2 2
b) Commutant d’une symétrie.
+ + − −
Soit f ∈ L(E) ; montrons que f o s = s o f ⇔ f(Es ) ⊂ Es et f(Es ) ⊂ Es .
± ±
Supposons f o s = s o f ; x ∈ Es ⇔ s(x) = ±x ⇒ (f o s)(x) = ±x ⇒ (s o f)(x) = ±x ⇒ f(x) ∈ Es .
+ − + − + − + −
Réciproquement, si Es et Es sont f-stables, ( f o s )(x) = ( f o s)(x + x ) = f(x − x ) = f(x ) − f(x )
+ − + − + −
( s o f )(x) = ( s o f )(x + x ) = s ( f(x ) + f(x )) = f(x ) − f(x ) itou…
c) C(s) = { f ∈ L(E) ; f o s = s o f } est une sous-algèbre de L(E) ; d’ailleurs, le commutant de
n’importe quel endomorphisme de E est une sous-algèbre.
+ 2 − 2
Je dis que dim C(s) = ( dim Es ) + ( dim Es ) .
En effet, pour se donner un élément f de C(s), il suffit de se donner le couple d’endomorphismes
+ − + −
induits sur Es et Es ; autrement dit, C(s) est isomorphe à L(Es )×L(Es ), comme espace vectoriel
et même comme algèbre.
d) Il est clair que A(s) = { f ∈ L(E) ; f o s = − s o f } est un sous-espace vectoriel de L(E).
+ − − +
Il est facile d’établir que f ∈ A(s) ⇔ f(Es ) ⊂ Es et f(Es ) ⊂ Es .
+ −
Je dis que dim A(s) = 2 (dim Es )×( dim Es ).
En effet, pour se donner un élément f de A(s), il suffit de se donner le couple d’endomorphismes
+ − − + +
restreints et coresteints à (Es , Es ) et (Es , Es ). Autrement dit, A(s) est isomorphe à L(Es ,
− − +
Es )×L(Es , Es ), comme espace vectoriel.
Remarques : i) On en déduit que L(E) = C(s) ⊕ A(s).
Les projecteurs associés à cette somme directe sont f → 1 ( f + s o f o s ) et f → 1 ( f − s o f o s )
2 2
A(s) n’est pas une algèbre, car le produit de deux éléments de A(s) est un élément de C(s).

118
ii) On peut retrouver ces résultats matriciellement, car il existe une base B de E telle que

S = Mat(s, B) =
I p O  . Les matrices qui commutent à S sont de la forme  A O  , celles qui anti-
O −Iq  O D

commutent à S sont de la forme 


O B , et l’on retrouve tous les résultats précédents.
C O
2) Un exemple. Faisons confiance à Maple.
> with(linalg):
> S:=matrix(3,3,[1,2,2,2,1,2,-2,-2,-3]);evalm(S^2);kernel(S-1);kernel(S+1);
 1 2 2 1 0 0
   
S :=  2 1 2 0
 1 0
   
-2 -2 -3 0 0 1
{ [ 1, 1, -1 ] }
{ [ 1, -1, 0 ], [ 0, -1, 1 ] }
S est une symétrie vectorielle : c’est la symétrie par rapport à la droite R.(1, 1 – 1), par rapport au
plan d’équation x + y + z = 0.
2 2 2 3
Remarque : Cette matrice conserve la forme quadratique q(X) = x + y – z sur R , donc le cône de
2 2 2
révolution x + y = z . Elle joue un rôle-clé dans la théorie des triplets pythagoriciens.
3) Trace et déterminant de la transposition. f est une symétrie vectorielle.
+ −
Or si s est une symétrie, tr s = dim Es − dim Es et det s = (−1)dim Es− .
n(n+1)
Ker( f – I ) = Sn(K), espace des matrices symétriques, de dimension .
2
n(n−1)
Ker( f + I ) = An(K), espace des matrices antisymétriques, de dimension .
2
n(n −1)
n(n+1) n(n−1)
Donc tr f = − = n et det f = (−1) 2 .
2 2
NB : Une autre approche consisterait à écrire la matrice de f dans la base (E11, E22, …, Enn, E12,
E21, E13, E31, …) de Mn(K).
4) L’algèbre des matrices en damier.
Une matrice A = (aij) ∈ Mn(K) est dite en damier si ai,j = 0 lorsque i et j n’ont pas même parité.
Soit J = diag(1, −1, …, (−1)n−1 ). Je dis que A ∈ Dn(K) ⇔ AJ = JA.
En effet AJ a pour élément général (−1) j −1 aij et JA pour élément général (−1)i −1 aij .
Comme J est une symétrie vectorielle, en vertu de 1.c), l’ensemble Dn(K) des matrices en damier est
2 2
une sous-algèbre de Mn(K) de dimension (dim Ker( J – I )) + (dim Ker( J + I )) .
Le résultat dépend de la parité de n :
2 2 2
Si n = 2m, dim Dn(K) = 2m ; si n = 2m + 1, dim Dn(K) = (m + 1) + m .
5) L’algèbre des matrices centrosymétriques.
Une matrice A = (aij) ∈ Mn(K) est dite centrosymétrique si ai,j = an+1−i,n+1−j pour tout couple (i, j).
Si J = antidiag(1, 1, …, 1), je dis que A ∈ Cn(K) ⇔ AJ = JA.
J étant une symétrie vectorielle, en vertu de 1.c), l’ensemble Cn(K) des matrices centrosymétriques
2 2
est une sous-algèbre de Mn(K) de dimension (dim Ker( J – I )) + (dim Ker( J + I )) .
Le résultat dépend de la parité de n :
2 2 2
Si n = 2m, dim Cn(K) = 2m ; si n = 2m + 1, dim Cn(K) = (m + 1) + m .
B. Deuxième partie : symétries commutantes.

119
1) Diagonalisation simultanée de deux symétries commutantes.
Soient s1 et s2 deux symétries commutantes.
Mise en garde ! L’analyse du résultat à atteindre laisse entendre que :
+ + + − − + − −
(*) E = ( E(s1) ∩ E(s2) ) ⊕ ( E(s1) ∩ E(s2) ) ⊕ ( E(s1) ∩ E(s2) ) ⊕ ( E(s1) ∩ E(s2) ).
+ − + −
Or cela semble découler facilement de ce que E = E(s1) ⊕ E(s1) = E(s2) ⊕ E(s2) .
Mais attention ! les lois ∩ et + ne sont pas distributives l’une par rapport à l’autre dans V(E).
Oui, on a bien (*), mais cela va découler de ce que s1 et s2 commutent.
1ère méthode : on peut démontrer (*) directement. C’est long, ce n’est pas facile et il y a mieux !
2ème méthode : utilisons les résultats de A.1.b).
±
Les sous-espaces Es1 sont s2-stables, et s2 induit une symétrie dans chacun d’eux. Par suite, il y a
+
une base convenable de Es1 telle que l’endomorphisme induit par s2 ait pour matrice p
I O
O −Iq  , et

une base convenable de Es1 telle que l’endomorphisme induit par s2 ait pour matrice
Ir O  .
O −Is 
I p O O O
O − Iq O O  .
Si l’on recolle ces deux bases, on obtient une base B de E telle que MatB(s2) = 
O O Ir O 
O O O − I s 

I p O O O 
O Iq O O 
Et il est clair que : MatB(s1) =  .
O O − Ir O 
O O O −Is 
 
Voici un exemple de symétries commutantes : considérons Mn(C) comme R-espace vectoriel (il est
2 t
alors de dimension 2n ) et les applications A → A et A → A. Ce sont deux R-symétries
commutantes. La relation (*) s’écrit : Mn(C) = Sn(R) ⊕ An(R) ⊕ i.Sn(R) ⊕ i.An(R).
De plus : Mn(R) = Sn(R) ⊕ An(R) , i.Mn(R) = i.Sn(R) ⊕ i.An(R) .
t
Hn(C) = Sn(R) ⊕ i.An(R) : ce sont les matrices hermitiennes (i.e. telles que A = A).
2) Exemple.
La commande intbasis (resp. sumbasis) de Maple donne une base de l’intersection (resp. de la
somme) de deux sous-espaces vectoriels donnés par leurs bases
> with(linalg):
> S1:=matrix(4,4,[-89,960,-2220,1400,-64,679,-1560,980,-148/3,520,-1191,
2240/3,-40,420,-960,601]);
> S2:=matrix(4,4,[191,-2040,4800,-3080,136,-1471,3480,-2240,320/3,-1160,
2751,-5320/3,88,-960,2280,-1471]);

 -89 960 -2220 1400 191 -2040 4800 -3080


   
 -64 679 -1560 980  136 -1471 3480 -2240
  
S1 := -148 2240
 S2 := 320 -5320

   
 3 520 -1191
3   3 -1160 2751 3 
 
   
 -40 420 -960 601   88 -960 2280 -1471

120
> evalm(S1^2);evalm(S2^2);evalm(multiply(S1,S2)-multiply(S2,S1));
1 0 0 0 1 0 0 0 0 0 0 0
     
0 1 0 0 0 1 0 0 0 0 0 0
  
     
0 0 1 0 0 0 1 0 0 0 0 0
     
0 1 0 1 0 0
 0 0  0 0  0 0
> S1p:=kernel(S1-1);S1m:=kernel(S1+1);S2p:=kernel(S2-1);S2m:=kernel(S2+1);

S1p := {  -20, , 0, 1 , [ 18, 4, 1, 0 ] }


-10
 3 
S1m := {  -7, , 0, 1 ,  , 3, 1, 0  }
-21 15
 10  2 
S2p := { [ -16, -3, 0, 1 ],  15, , 1, 0  }
 15
 4 
S2m := {  , , 0, 1 ,  9, , 1, 0  }
-35 -7 16
 4 3   5 
> e1:=op(intbasis(S1p,S2p));e2:=op(intbasis(S1p,S2m));
e3:=op(intbasis(S1m,S2p));e4:=op(intbasis(S1m,S2m));
> P:=transpose(matrix([e1,e2,e3,e4]));
 -5 -7 
 4 -2 
 2 4 
 
 
 -5 -3 -7 
 2 
P :=  3 2 5 

 
 4 -5 -6 -7 
 
 
 3 4 5 6 
 
 1 -1 -1 -1 
> D1:=multiply(inverse(P),S1,P);D2:=multiply(inverse(P),S2,P);
1 0 0 0 1 0 0 0
   
0 1 0 0 0 -1 0 0
D1 :=  

D2 :=  

0 0 -1 0 0 0 1 0
   
0 0 0 -1 0 0 0 -1
  
3) Systèmes de symétries commutantes.
Soit (s1, …, sN) un SSC de E. Montrons qu’il existe une base B = (e1, …, en) de E telle que, pour
tout i ∈ [1, N], MatB(si) soit de la forme diag( ε i , …, ε in ), où ( ε i , …, ε in ) ∈ {−1, +1} .
n
1 1

C’est un résultat de diagonalisation simultanée que nous allons montrer par récurrence sur n.
Pour n = 1, il n’y a rien à montrer.
Supposons le résultat vrai dans tout espace vectoriel de dimension < n. Soit alors E un espace
vectoriel de dimension n et (s1, …, sN) un SSC de E. Si N = 1 ou 2, le résultat est acquis.
Si N ≥ 3, alors ∃i0 si0 ≠ ±I, et alors E = F ⊕ G, où F = Ker(si0 − I) et G = Ker(si0 + I) sont tous
deux de dimension < n. Par commutation, (s1, …, sN) induisent des SSC resp. de F et de G (quitte à
élaguer les endomorphismes qui coïncident). Il existe alors une base de F et une base de G
diagonalisant simultanément ces endomorphismes induits. Il suffit de recoller ces deux bases.
n n
On en déduit N ≤ 2 . Enfin, il y a un SSC à 2 éléments : si B = (e1, …, en) est une base de E, consi-
dérer les 2 endomorphismes si tels que MatB(si) soit de la forme diag( ε i , …, ε in ), où ( ε i , …, ε in )
n
1 1
n
∈ {−1, +1} .
4) Application. (Oral ENS)

121
Montrons que les groupes linéaires Gln(K) et Glm(K) sont isomorphes si et seulement si n = m.
Si m = n, les deux groupes sont égaux. Réciproquement, soit f : Gln(K) → Glm(K) un isomorphisme
n
de groupes. Il existe dans Gln(K) un SSC (s1, …, s2n ) à 2 éléments. Son image par f est un SSC à
n n m
2 éléments de Glm(K), donc 2 ≤ 2 et n ≤ m. Il reste à échanger les rôles de m et n.
Remarque : on aimerait savoir si ce résultat reste vrai en caractéristique 2. On a vu (pb. 1) qu’il est
vrai si K est un corps fini.

C. Troisième partie : Symétries anticommutantes.


1) Deux symétries anticommutantes.
2 2
Soient s1 et s2 deux endomorphismes tels que s1 = s2 = I et s1 o s2 = − s2 o s1.
+ − − +
a) Si f ∈ L(E) anticommute avec s1, alors on a vu e, 1.c) ⇔ f(Es1 ) ⊂ Es1 et f(Es1 ) ⊂ Es1 .
+ − − +
Si de plus f est bijective, f conserve les dimensions : dim Es1 ≤ dim Es1 et dim Es1 ≤ dim Es1 .
+ −
Conclusion : dim Es1 = dim Es1 , et dim E est paire.
+
b) Posons n = 2m. Si (e1, …, em) est une base de Es1 , il découle de a) que (s2(e1), …, s2(em)) est

une base de Es1 . Soit B = (e1, …, em, s2(e1), …, s2(em)) la base recollée. Alors :
I O  O I 
MatB(s1) =  m  et MatB(s2) =  m
 .
 O − I m   I m O
2) Exemple.
> with(linalg):
S:=matrix(4,4,[-89,960,-2220,1400,-64,679,-1560,980,-148/3,520,-1191,
2240/3,-40,420,-960,601]);
T:=matrix(4,4,[436/3,-1600,3785,-7280/3,160/3,-580,1360,-2597/3,141/5,
-304,708,-448,368/21,-1313/7,3040/7,-820/3]);

436 -1600 3785 -7280


 -89 960 -2220 1400  
   3 3 

 -64 679 -1560 980  160 -2597
 
 
S := -148   3 -580 1360
2240 3 
 520 -1191  T :=  
 3 3  141
 -304 708 -448 

  5
   
 -40 420 -960 601  
368 -1313 3040 -820 

 
 21 3 
 7 7

> evalm(S^2);evalm(T^2);evalm(multiply(S,T)+multiply(T,S));
1 0 0 0 1 0 0 0 0 0 0 0
     
0 1 0 0 0 1 0 0 0 0 0 0
  
     
0 0 1 0 0 0 1 0 0 0 0 0
     
0 1 0 1 0 0
 0 0  0 0  0 0
> B:=convert(kernel(S-1),list);e1:=op(1,B):e2:=op(2,B):
e3:=multiply(T,e1):e4:=multiply(T,e2):P:=transpose(matrix([e1,e2,e3,e4]));

B :=   -20, , 0, 1 , [ 18, 4, 1, 0 ] 


-10
 3  

122
 -20 18 0 1 
 
 -10 
 0 
 3 4 1
 
 
P :=  4 -2 
 0 1 
 3 5 

 -4 
 10
 1 0 
 7 7 
> A:=multiply(inverse(P),S,P);B:=multiply(inverse(P),T,P);
1 0 0 0 0 0 1 0
   
0 1 0 0 0 1
A := 
0 0
0 0 -1 0
 B :=  
  1 0 0 0
0  
 0 0 -1 0 0
 1 0

_____________

Problème 38 : Sous-groupes finis de Gln(K)

Dans tout ce problème K = R ou C. On s’intéresse aux sous-groupes finis de Gln(K).

Première partie : Exemples.

1) Montrer que 
−1 0 et 1 1  engendrent un sous-groupe de Gl (R) à 6 éléments, isomorphe
 1 1 0 −1 2
au groupe S3 des permutations de {1, 2, 3}.
1 0 −1 0  ,  0 1 , 0 −1 , 0 i  ,  0 −i  , −i 0 ,  i 0  forment un sous-
2) Montrer que   , 
0 1  0 −1 −1 0 1 0   i 0 −i 0   0 i  0 −i 
groupe de Gl2(C). Quelle est sa table ?

Montrer que   , 
10 −1 0  ,  0 1 , 0 −1 , 0 i  ,  0 −i  , −i 0 ,  i 0  forment un
0 1  0 −1 −1 0 1 0   i 0 −i 0   0 i  0 −i 
sous-groupe de Gl2(C) ; table ?
3) Représentation matricielle de Q.
On note F3 le corps Z/3Z et Gl2(F3) le groupe multiplicatif des matrices inversibles à coefficients
dans F3, et Sl2(F3) le sous-groupe des matrices de déterminant 1. On note E la matrice unité.
a) Montrer que Gl2(F3) a 72 éléments, et Sl2(F3) a 24 éléments.

b) On note I = 
0 1 , J = 1 1  et A = 1 1 . Quels sont les ordres de I, J et A ?
−1 0 1 −1 0 1
Montrer que I, J et A engendrent Sl2(F3), et que I et J engendrent un sous-groupe de Sl2(F3)
isomorphe à Q. Ce groupe est ici noté Q.
c) Montrer que Q est un sous-groupe distingué de Sl2(F3) et de Gl2(F3), que le groupe quotient
Sl2(F3)/Q est isomorphe à Z/3Z et le groupe quotient Sl2(F3)/Q est isomorphe à S3.
d) Montrer que le groupe dérivé de Gl2(F3) (i.e. le sous-groupe engendré par les commutateurs)
est Sl2(F3).

e) Montrer que A =   et B =   engendrent Sl2(F3).


11 10
0 1 1 1

123
3) Le groupe des matrices de permutation.
4) Montrer que tout groupe fini admet une représentation matricielle [Penser au théroème de
Cayley, § 9.]
5) Soit H une partie de Gln(K) finie, non vide, stable par multiplication. Montrer que H est un
sous-groupe de Gln(K).
N
5) Soit A ∈ Mn(K) une matrice telle que A = In .
I + A+ A²+...+ AN −1
On pose P = .
N
Montrer que PA = AP = P. En déduire que P est un projecteur.
N −1
Montrer que dim Ker( A – I ) = 1
N ∑tr(A ) .
k =0
k

Deuxième partie :

Soit G un sous-groupe de Gln(K) à N éléments. On note p = 1


N ∑g .
g∈G
2
Montrer que (∀h ∈ G) p o h = h o p = p. En déduire p = p.
Soit F = { x ∈ E ; (∀x ∈ E) g(x) = x }. Comparer Im p et F. En déduire tr p = dim F.
Montrer que F possède un supplémentaire stable par tous les éléments de G.
Application : Quel est le nombre moyen de points fixes d’une permutation de Sn ?
Lemme de Maschke ?

Cf aussi RMS mai 2006, n° 938


____________

124

Vous aimerez peut-être aussi