Vous êtes sur la page 1sur 11

CNC Maths 2 MP 2022

corrigé proposé par R. SAIJ

Exercice
Construction d’une base orthonormée
d’un sous-espace vectoriel de Rn

0.1. Structure de H
0.1.1. • Soient x = (x1 , . . . , xn ) et y = (y1 , . . . , xn ) deux vecteurs de Rn et λ ∈ R. On a

ψ(λx + y) = ψ(λx1 + y1 , . . . , λxn + yn )


Xn Xn n
X
= (λxk + yk ) = λ xk + yk
k=1 k=1 k=1
= λψ(x) + ψ(y).
Ainsi, ψ est une application linéaire sur Rn et à valeurs dans R, c’est donc une forme linéaire
sur Rn .
• e1 = (1, 0, . . . , 0) ∈ Rn et ψ(e1 ) = 1 6= 0, donc ψ est non nulle sur Rn .
On conclut que ψ est une forme linéaire non nulle sur Rn .
0.1.2. Il est clair que H = Ker(ψ). Le résultat de la question précédente montre alors que H le
noyau d’une forme linéaire non nulle sur Rn . Ainsi H est un hyperplan de Rn et par conséquent
H est un sous-espace vectoriel de Rn de dimension n − 1 .
n−1
X
0.2. • Soit α1 , . . . , αn−1 des nombres réels tels que αk vk = 0. On a
k=1

n−1
X n−1
X
αk vk = αk (ek − ek+1 )
k=1 k=1
n−1
X n
X
= αk ek − αk−1 ek
k=1 k=2
n−1
X
= α1 e 1 + (αk − αk−1 )ek − αn−1 en . (1)
k=2

n−1
X
Puisque la famille (e1 , . . . , en ) libre, le système αk vk = 0. est équivalent à
k=1

α1 = 0, αk − αk−1 = 0 (2 6 k 6 n − 1) et αn−1 = 0.

La résolution de ce système montre visiblement que αk = 0 pour tout k ∈ {1, . . . , n − 1}. On en


déduit que la famille (v1 , . . . , vn−1 ) libre .
• Pour tout k ∈ {0, . . . , n − 1}, il est clair que vk = ek − ek+1 ∈ H (la somme des composantes de
vk est nulle), et que le cardinal de la famille (v1 , . . . , vn−1 ) est n − 1 = dim H, on en déduit que
la famille (v1 , . . . , vn−1 ) est une base de H .
0.3. Construction d’une base orthogonale
0.3.1. Soit (j, k) ∈ {1, . . . , n − 1}2 . En utilisant le fait que (e1 , . . . , en ) est une base orthonormée de Rn
muni de son produit scalaire usuel, et la bilinéarité du produit scalaire, on a

(vj | vk ) = (ej − ej+1 | ek − ek+1 ) = δj,k − δj,k+1 − δj+1,k + δj+1,k+1 = 2δj,k − δj,k+1 − δj+1,k .

Notez que δj+1,k+1 = δj,k . Distinguons les cas suivants :

1
• Si k = j − 1 avec j > 2, on a (vj | vj−1 ) = 2δj,j−1 − δj,j − δj+1,j−1 = −1.
• Si k = j + 1, on a (vj | vj+1 ) = 2δj,j+1 − δj,j+2 − δj+1,j+1 = −1.
• Si k = j, on a (vj | vj ) = 2δj,j − δj,j+1 − δj+1,j = 2.
• Si k ∈
/ {j − 1, j, j + 1}, on a (vj | vk ) = 0.
On conclut que

−1
 si k ∈ {j − 1, j + 1}
(vj | vk ) = 2 si k = j

0 si k ∈
/ {j − 1, j, j + 1}

0.3.2. La famille (v1 , . . . , vn−1 ) étant une base de H, le procédé d’orthonormalisation de Gram-Schmidt
permet de construire une base orthogonale (ε1 , . . . , εn−1 ) et une base orthonormale (ϑ1 , . . . , ϑn−1 )
de H telles que Fk = Vect{ϑ1 , . . . , ϑk }, en posant
 ε1
 ε1 = v1 et ϑ1 = ,
kε1 k



k−1
X εk

 ε k = v k − (vk | ϑj )ϑj et ϑk = (2 6 k 6 n − 1),

 kεk k
j=1

où k · k désigne la normée associée au produit scalaire usuel (· | ·).


k−1
X
Puisque la famille (ϑ1 , . . . , ϑk−1 ) est une base orthonormée de Fk−1 , alors pk−1 (vk ) = (vk | ϑj )ϑj
j=1
de sorte que
ε1 = v 1 et εk = vk − pk−1 (vk ) (2 6 k 6 n − 1)
0.3.3. Détermination de εk pour k ∈ {2, . . . , k − 1}
k−1
X
Soit k ∈ {2, . . . , n − 1}. On pose εk = vk − αj vj , où (α1 , . . . , αk−1 ) ∈ Rn−1 .
j=1
t
(i) Posons X = (α1 , . . . , αk−1 ). Pour tout ` ∈ {1, . . . , k − 1}, on a
k−1
X k−1
X
(Ak X)` = (Ak )`,j Xj = (v` | vj )αj .
j=1 j=1

En utilisant la linéarité du produit scalaire, on obtient


 
k−1
X
(Ak X)` = v` | αj vj  = (v` | vk − εk ).
j=1


Puisque εk ∈ Fk−1 et ` ∈ {1, . . . , k − 1}, alors (v` | εk ) = 0, ainsi

(Ak X)` = (v` | vk ) = (Bk )` ,

pour tout ` ∈ {1, . . . , k − 1}, donc Ak X = Bk , et par suite


X = t (α1 , . . . , αk−1 ) est une solution du système linéaire Ak X = Bk .

(ii) On pose X = t (x1 , . . . , xk−1 ). On sait que le système Ak X = Bk est équivalent à :


k−1
X
∀` ∈ {1, . . . , k − 1}, (Ak X)` = (v` , vj )xj .
j=1

En utilisant le résultat obtenu en 0.3.1., on a :

2
• Si ` = 1, on a
(Ak X)1 = (v1 | v1 )x1 + (v1 | v2 )x2 = 2x1 − x2 .
• Si 2 6 ` 6 k − 2, on a
(Ak X)` = (v` | v`−1 )x`−1 + (v` | v` )x` + (v` | v`+1 )x`+1 = −x`−1 + 2x` − x`+1 .
• Si ` = k − 1, on a
(Ak X)k−1 = (vk−1 | vk−2 )xk−2 + (vk−1 | vk−1 )xk−1 = −xk−2 + 2xk−1 .
On en déduit que le système Ak X = Bk est équivaut au système

2x1 − x2
 =0
−xj−1 + 2xj − xj+1 = 0 si 2 6 j 6 k − 2

−xk−2 + 2xk−1 = −1.

(iii) • Résolvons le système précédent en procédant par une récurrence finie. Plus précisément,
prouvons que xj = jx1 pour tout j ∈ {1, . . . , k − 1}.
La propriété est trivialement vérifié pour j = 1 et aussi pour j = 2 en utilisant la première
équation du système.
Soit j ∈ {2, . . . , k − 2}. On suppose que la propriété est vraie pour les rangs j − 1 et j.
Montrons qu’elle est vraie pour le rang j + 1.
On sait, d’après (ii), que −xj−1 + 2xj − xj+1 = 0, donc
xj+1 = −xj−1 + 2xj = −(j − 1)x1 + 2jx1 = (j + 1)x1 .
Ainsi xj = jx1 pour tout j ∈ {1, . . . , k − 1}.
Pour calculer x1 , il suffit de remplacer dans la dernière équation. En effet,
1
−xk−2 + 2xk−1 = 0 équivaut à −(k − 2)x1 + 2(k − 1)x1 = −1, donc x1 = − .
k
j
Ainsi, xj = − pour tout j ∈ {1, . . . , k − 1}.
k  
1 2 k−1
Il est clair que le (k − 1)-uplet − , − , . . . , − est une solution du système en
k k k
question. En conséquence,
 
1 2 k−1
− ,− ,...,− est la seule solution du système
k k k
• En utilisant ce qui précède et le résultat de 0.3.3. (i), on obtient que
k−1 k
1X 1X
εk = v k + jvj = jvj .
k k
j=1 j=1

En s’inspirant de la formule (1) établie en 0.2., on a donc


 
k−1 k−1
1 X 1X
εk = e1 + ek − kek+1  = ek − ek+1
k k
j=2 j=1

où l’on a utilisé indifféremment αj = j pour tout j ∈ {1, . . . , k − 1}. On en déduit que


ε1 = (1, −1, 0 . . . , 0)
 
1 1
εk =  , . . . , , −1 , 0 . . . , 0 (2 6 k 6 n − 1) .

k k ↑
(k+1)èmeplace
v r
u1 1 k+1
u
0.4. Pour tout k ∈ {1, . . . , n − 1}, kεk k = u 2 + · · · + 2 +1 = , ainsi, la famille (ϑ1 , . . . , ϑn−1 )
t|k {z k } k
k termes
définie par

3
1
ϑ1 = √ (1, −1, 0 . . . , 0)
2
 
1
ϑk = p 1, . . . , 1, −k , 0 . . . , 0 (2 6 k 6 n − 1).
 
k(k + 1) ↑
(k+1)èmeplace

est une base orthonormée de H .

Problème
Étude des morphismes de la C-algèbre Mn (C)
1ère Partie
Résultats préliminaires sur les matrices Cn et Dn

1.1. Étude des matrices C3 et D3


   
0 0 1 1 0 0
1.1.1. Dans le cas n = 3, on a C3 = 1 0 0 et D3 = 0 j 0  .
0 1 0 0 0 j2
 3   
1 0 0 1 0 0
1.1.2. Sachant que j 3 = 1, on a D3 3 =  0 j 3 0  = 0 1 0, d’où D3 3 = I3 .
0 0 j6 0 0 1
   
0 1 0 1 0 0
D’autre part C3 2 = 0 0 1 et C3 3 = 0 1 0, d’où C3 3 = I3 .
1 0 0 0 0 1
    
1 0 0 0 0 1 0 0 1
Puis, D3 C3 = 0 j 0  1 0 0 = j 0 0
0 0 j2 0 1 0 0 j2 0
0 0 j2
    
0 0 1 1 0 0
et C3 D3 = 1 0 0 0 j 0  = 1 0 0  Ainsi, D3 C3 = jC3 D3 .
0 1 0 0 0 j2 0 j 0
1.1.3. • Soit (α, β, γ) ∈ C3 tel que αI3 + βD3 + γD3 2 = 0, c-à-d
       
1 0 0 1 0 0 1 0 0 0 0 0
α 0 1 0 + β 0 j 0  + γ 0 j 2 0  = 0 0 0 .
0 0 1 0 0 j2 0 0 j4 0 0 0
On obtient le système suivant :

 α+β+γ = 0
2
α + βj + γj = 0 (2)
α + βj 2 + γj 4 = 0

Le déterminant de la matrice associée à ce système linéaire est de type Vandermonde associé


aux complexes 1, j, j 2 qui sont distincts deux à deux, en l’occurrence, ce déterminant est non
nul, et par suite le système possède (α, β, γ) = (0, 0, 0) comme solution unique. Ainsi,
la famille I3 , D3 , D3 2 est libre .


Variante : Considérons le système (2) et le polynôme P = α + βX + γX 2 . Le polynôme P ,


étant de degré au plus 2, admet trois racines distinctes, à savoir 1, j, j 2 , c’est donc le polynôme
2

nul. Ainsi, α = β = γ = 0 et la famille I3 , D3 , D3 est libre.

4
• Notons par Dn (C) le sous-espace vectoriel des matrices diagonales de Mn (C). On sait que
2

dim D3 (C) = 3 et que le cardinal de la famille libre I, D3 , D3 est 3, on en déduit que
la famille I3 , D3 , D3 2 engendre D3 (C) .


1.1.4. • Le polynôme caractéristique de la matrice C3 est donnée par : χC3 (X) = det (XI3 − C3 ). Ainsi,

X
0 −1
χC3 (X) = −1 X 0
0 −1 X

X − 1 0 −1

= X − 1 X 0 (C1 ← C1 + C2 + C3 )
X − 1 −1 X

X − 1 0 −1

= 0
X 1 (L2 ← L2 − L1 et L3 ← L3 − L1 )
0 −1 X + 1
= (X − 1) (X(X + 1) + 1)

Par suite
χC3 (X) = X 3 − 1 = (X − 1)(X − j)(X − j 2 ) .

Variante : On pourra directement effectuer l’opération C3 ← C3 + XC2 + X 2 C1 suivie d’un


développement par rapport à la dernière colonne, on obtient alors

0 X 3 − 1

X 0 −1 X
 −1 X

3 = X 3 − 1.

χC3 (X) = −1 X
0 = −1 X
0 = X −1

0 −1 X 0 −1 0 −1
0

• les racines 3ème de l’unité 1, j, j 2 sont distinctes deux à deux, donc le polynôme caractéristique
de la matrice C3 est scindé à racines simples.
On en déduit que C3 est diagonalisable dans M3 (C) .
1.2. Étude préliminaire sur les matrices Cn et Dn dans le cas général
n
1.2.1 Pour tout j ∈ {0, . . . , n − 1}, on a ω j = (ω n )j = 1, donc
  
1 0
... 0 1 0 ... 0
.. .
0 ω n . . .  0 1 . . . .. 
  
.
Dn n =
 .. . . . .
=
  .. . . . .
 = In .

. . . 0   . . . 0
n
0 ... 0 ω n−1 0 ... 0 1

Ainsi, Dn n = In .
1.2.2 Soit (i, j) ∈ {1, . . . , n}2 . On a
n
X
(Dn Cn )i,j = (Dn )i,k (Cn )k,j = (Dn )i,i (Cn )i,j = ω i−1 (Cn )i,j ,
k=1
 i−1
ω
 si i > 2 et j = i − 1
donc (Dn Cn )i,j = 1 si i = 1 et j = n

0 sinon

de même,
n
X
(Cn Dn )i,j = (Cn )i,k (Dn )k,j = (Cn )i,j (Dn )j,j = ω j−1 (Cn )i,j
k=1

5
 i−2
ω
 si i > 2 et j = i − 1
donc (Cn Dn )i,j = ω n−1 si i = 1 et j = n

0 sinon

Par suite (Dn Cn )i,j = ω (Cn Dn )i,j pour tout (i, j) ∈ [[1 ; n − 1]]2 . Ainsi, Dn Cn = ωCn Dn .
n−1
X
1.2.3 • Soit (α0 , . . . , αn−1 ) ∈ Cn tel que αk Dn k = 0. Ce système s’écrit explicitement
k=0

 α0 + α1 + · · · + αn−1 = 0
n−1
α0 + α1 ω + · · · + αn−1 ω = 0
α0 + α1 ω 2 + · · · + αn−1 ω 2(n−1) = 0

Le déterminant de la matrice associée à ce système linéaire est de type Vandermonde associé


aux complexes 1, ω, . . . , ω n−1 qui sont distincts deux à deux, en l’occurrence, ce déterminant
est non nul, et par suite le système possède (α0 , . . . , αn−1 ) = (0, . . . , 0) comme solution
unique. Ainsi, la famille In , Dn , . . . , Dn n−1 est libre .


• On sait que dim Dn (C) = n et que le cardinal de la famille libre In , Dn , . . . , Dn n−1 est


n, on en déduit que la famille In , Dn , . . . , Dn n−1 engendre Dn (C) .




1.2.4 • Le polynôme caractéristique de la matrice Cn est donnée par :



X
0 . . . 0 −1
..
−1 X
. 0
χCn (X) = det (XIn − Cn ) = 0 . . .
.. .. .. .
. . .
.. . .

.. ..
. . . . 0

0 ... 0 −1 X

En développant ce déterminant suivant la dernière colonne, on obtient



−1 X 0 . . . 0 X 0 . . . . . . 0

0 ... ... ...
.. −1 . . . . . .
..
. .
χCn (X) = (−1)n+1 (−1) ... . . . . . . . . . 0 + X 0
. . . .
. . . . . . ..

.. .. . . . . . .

.. ..
. . . X . . . 0
.


0 ... ... 0 −1 0 . . . 0 −1 X
= (−1)n+2 (−1)n−1 + XX n−1
= Xn − 1

Notons que le déterminant d’une matrice triangulaire est le produit de ses coefficients
diagonaux. Par suite
n−1
Y 
χCn (X) = X n − 1 = X − ωk .
k=0

• les racines nème de l’unité 1, ω, . . . , ω n−1 sont distinctes deux à deux, donc le polynôme
caractéristique de la matrice Cn est scindé à racines simples.
On en déduit que Cn est diagonalisable dans Mn (C) .
1.2.5 Le théorème de Cayley-Hamilton assure que le polynôme caractéristique de Cn est annulateur
de Cn : χCn (Cn ) = 0, par suite Cn n = In .
1.3. Une base de Mn (C) construite à partir des matrices Cn et Dn
1.3.1. On note e = (e1 , . . . , en ) la base canonique de Mn,1 (C). Par hypothèse, Cn = mat(u),
e
donc u(en ) = e1 et ∀k ∈ J1, n − 1K, u(ek ) = ek+1 .

6
1.3.2. • Montrons par récurrence que uk (e1 ) = ek+1 pour tout k ∈ J1, n − 1K.
La propriété est vraie pour k = 1 d’après le résultat de la question précédente.
On suppose que la propriété est démontrée pour un certain k ∈ J1, n − 2K. On a alors
 
k+1 k
u (e1 ) = u u (e1 ) = u(ek+1 ) = ek+2 puisque 2 6 k + 1 6 n − 1.

On en déduit que ∀k ∈ J1, n − 1K, uk (e1 ) = ek+1 .


• En utilisant le résultat du 1er point, on a

un (e1 ) = u un−1 (e1 ) = u(en ) = e1 .




Ainsi, un (e1 ) = e1 .
1.3.3. Montrons que un = idMn,1 (C) .
Pour cela, on va raisonner par récurrence en montrant que un (ej ) = ej pour tout j ∈ J1, nK.
• La propriété est vraie pour j = 1 d’après le résultat établi en 1.3.2.
On suppose que le résultat est démontré au rang j ∈ J1, n − 1K : un (ej ) = ej .
Puisque j ∈ J1, n − 1K, le résultat établi en 1.3.1. assure que

un (ej+1 ) = un (u(ej )) = u(un (ej )) = u(ej ) = ej+1 .

Ainsi, la propriété est démontrée pour tout j ∈ J1, nK. En conséquence, un = idMn,1 (C) .
• Cn étant la matrice de u dans la base e, l’écriture matricielle du résultat obtenu au 1er point
s’écrit donc Cn n = In .
1.3.4. • Soit (α0 , . . . , αn−1 ) ∈ Cn tel que α0 idMn,1 (C) + α1 u + · · · + αn−1 un−1 = 0.
En appliquant à e1 et en utilisant le résultat obtenu en 1.3.2., on obtient

α0 e1 + α1 e2 + · · · + αn−1 en = 0.

Puisque la famille e est libre, on déduit que αj = 0 pour tout j ∈ J0, n − 1K.
Ainsi, la famille idMn,1 (C) , u, . . . , un−1 est libre .


• On note πu (resp. πCn ) le polynôme minimal de u (resp. Cn ).


Puisque la famille idMn,1 (C) , u, . . . , un−1 est libre dans L (Mn,1 (C)), alors deg πu > n, car


sinon, il existerait une combinaison linéaire nulle des endomorphismes idMn,1 (C) , u, . . . , un−1
avec des coefficients non tous nuls, ce qui contredirait la liberté de la famille idMn,1 (C) , u, . . . , un−1 .
Comme πu est unitaire et divise χu (X) = X n −1, on déduit que πCn (X) = πu (X) = X n − 1 .
1.3.5. • Cn et Dn étant les matrices respectives de u et v dans la base e, l’écriture matricielle du
résultat obtenu en 1.2.2. s’écrit donc vu = ω · uv .
• Puisque Dn = mat(v), on a ∀k ∈ J1, nK, v(ek ) = ω k−1 · ek .
e
1.3.6. • Soit (αj,l )06j,l6n−1 une famille de complexes telle que

n−1
X n−1
X
αj,l uj v ` = 0. (3)
j=0 `=0

En utilisant le résultat établi en 1.3.5., on peut montrer, par une simple récurrence, que

∀k ∈ J1, nK, ∀` ∈ N, v ` (ek ) = ω `(k−1) · ek .

Soit k ∈ J1, nK, en appliquant la relation (3) à ek , on obtient


n−1
X n−1
X
αj,` ω `(k−1) uj (ek ) = 0. (4)
j=0 `=0

7
Soit j ∈ J0, n − 1K. Prouvons que
(
ej+k si j ∈ J0, n − kK,
uj (ek ) =
ej+k−n si j ∈ Jn − k + 1, n − 1K.

En effet, puisque 1 6 k 6 n, on a
 
uj (ek ) = uj uk−1 (e1 ) = uj+k−1 (e1 ) .

Distinguons les deux cas :


Si j ∈ J0, n − kK, on a 0 6 j + k − 1 6 n − 1, ainsi

uj (ek ) = ej+k−1+1 = ej+k .

Si j ∈ Jn − k + 1, n − 1K, on a 0 6 j + k − n − 1 6 n − 2, et puisque un = idMn,1 (C) , on


obtient
 
uj (ek ) = un uj+k−n−1 (e1 ) = uj+k−n−1 (e1 ) = ej+k−n−1+1 = ej+k−n

La formule (4) s’écrit donc


n−k
X n−1
X n−1
X n−1
X
`(k−1)
αj,` ω ej+k + αj,` ω `(k−1) ej+k−n = 0.
j=0 `=0 j=n−k+1 `=0
n o
Or, la famille (ej+k )06j6n−k ; (ej+k−n )n−k+16j6n−1 = {e1 , . . . , en } est une base de Mn,1 (C),
il s’en suit, pour tout j ∈ J0, n − 1K, que
n−1
X
∀k ∈ J1, nK, αj,` ω `(k−1) = 0. (5)
`=0

Pour j ∈ J0, n − 1K fixé, les équations définies par les formules (5) forment un système
homogène, noté (S), de n équations dont les (αj,` )06`6n−1 en sont les inconnues. La matrice
 
associée à (S) est ω `(k−1) 16k6n . Son déterminant est de type Vandermonde associé aux
06`6n−1
complexes 1, ω, . . . , ω n−1 qui sont distincts deux-à-deux. Par suite le système (S) admet la
solution triviale comme seule solution. Ceci étant valable pour tout j ∈ J0,  n −1K, on en
déduit que αj,` = 0 pour tout (j, `) ∈ J0, n−1K . En conséquence, la famille uj v `
2
06j,`6n−1
est libre dans L (Mn,1 (C)).
 
• Puisque le cardinal de la famille uj v ` vaut n2 = dim L (Mn,1 (C)), on conclut
  06j,`6n−1
que la famille uj v ` est une base de L (Mn,1 (C)). Ainsi
06j,`6n−1
 
j `
Cn D n est une base de Mn (C) .
06j,`6n−1

2ème Partie
Une question de réduction

2.1. Par hypothèse, on a f n = g n = idE , donc f f n−1 = gg n−1 = idE , ainsi f et g sont inversibles .
2.2. • On sait que f n = g n = idE , donc X n − 1 est un polynôme annulateur de f et de g. Puisque
n−1
Y 
Xn − 1 = X − ω k est scindé à racines simples sur C, f et g sont diagonalisables .
k=0

8
• Soit λ ∈ C une valeur propre de f (resp. g), alors λ est une racine du polynôme annulateur X n − 1
de f (resp. g). Ainsi λn = 1, c’est-à-dire λ est une racine nème de l’unité .
2.3. Soit λ une valeur propre de f et x0 ∈ E est un vecteur propre associé.
2.3.1. On a f (x0 ) = λx0 , donc f (g(x0 )) = ω · g(f (x0 )) = ωλ · g(x0 ). Puisque g est inversible et x0 6= 0,
alors g(x0 ) 6= 0. Par suite ωλ est une valeur propre de f .
2.3.2. Montrons par récurrence que ω k λ est une valeur propre de f pour tout k ∈ J0, n − 1K.
La propriété est vraie pour k = 0 puisque, par hypothèse, λ est une valeur propre de f .
On suppose que la propriété est démontrée pour un certain k ∈ J0, n − 2K : ω k λ est une valeur
propre de f . En vertu de 2.3.1., on a ω · ω k λ = ω k+1 λ est aussi une valeur propre de f .
Ainsi, ω k λ est une valeur propre de f pour tout k ∈ J0, n − 1K .
2.3.3. On note Un = 1, ω, . . . , ω n−1 l’ensemble des racines nnème de l’unité et Sp(f

o ) l’ensemble des
k
valeurs propres de f . D’après 2.3.2., on sait que λUn := ω λ | k ∈ J0, n − 1K ⊂ Sp(f ). Puisque,
d’après 2.2., λ ∈ Un , alors λ 6= 0, donc card λUn = card Un = n, ainsi card Sp(f ) > n. Puisque
Sp(f ) ⊂ Un , on a card Sp(f ) 6 n, et donc card Sp(f ) = n. On déduit que Sp(f ) = Un .
2.3.4. Les valeurs propres de f étant distinctes deux-à-deux, donc chaque valeur propre de f est simple,
par suite la dimension de chaque sous-espace propre de f vaut 1 .
2.4. Une base de E convenable pour les endomorphismes f et g
 
2.4.1. Montrons par récurrence que f g k (e) = ω k · g k (e) pour tout k ∈ J0, n − 1K.
La propriété est vraie pour k = 0 puisque f (e) = e.
 
On suppose que la propriété est démontrée pour un certain k ∈ J0, n − 2K : f g k (e) = ω k · g k (e).
En utilisant l’hypothèse de récurrence et la linéarité de g, on a
     
f g k+1 (e) = f g g k (e) = ω · gf g k (e) = ω k+1 · g k+1 (e).

Par suite f (g k (e)) = ω k · g k (e) pour tout k ∈ J0, n − 1K .


2.4.2. g étant inversible, il en est de même pour g k , 0 6 k 6 n − 1. Puisque e est non nul, les vecteurs
g k (e), 0 6 k 6 n − 1, sont  non nuls. Le résultat prouvé en 2.4.1. montre alors que la famille
B = e, g(e), . . . , g n−1 (e) est formée par des vecteurs propres de f associés aux valeurs propres
1, ω, . . . , ω n−1 qui sont distinctes deux-à-deux. On en déduit que B est une famille libre dans E.
Puisque le cardinal de B vaut n = dim E, on conclut que
B une base de E formée par des vecteurs propres de f .
2.4.3. Le résultat prouvé en 2.4.1. montre visiblement que la matrice de f dans la base B est Dn .
 
D’autre part, g g k (e) = g k+1 (e) pour tout k ∈ J0, n − 2K et g g n−1 (e) = g n (e) = e. On en


déduit que la matrice de g dans la base B est Cn .


3ème Partie
Application à la détermination des endomorphismes de l’algèbre Mn (C)

3.1. Soit M ∈ Mn (C). Montrons par récurrence que Φ (M p ) = Φ(M )p pour tout p ∈ N.
La propriété est vraie pour p = 0 puisque Φ(In ) = In et immédiate pour p = 1.
On suppose que la propriété est démontrée pour un certain p ∈ N. En utilisant le fait que Φ est un
morphisme de la C-algèbre Mn (C) et l’hypothèse de récurrence, on a

Φ M p+1 = Φ (M M p ) = Φ(M )Φ (M p ) = Φ(M )Φ(M )p = Φ(M )p+1 .




Par suite Φ (M p ) = Φ(M )p pour tout p ∈ N .

9
3.2. En utilisant les résultats obtenus en 1.2.1., 1.2.5. et 3.1., on a

Φ (Dn )n = Φ (Dn n ) = Φ (In ) = In et Φ (Cn )n = Φ (Cn n ) = Φ (In ) = In .

Par suite Φ(Dn )n = Φ(Cn )n = In .


De plus, le résultat obtenu en 1.2.2. entraine que
Φ(Dn )Φ(Cn ) = Φ(Dn Cn ) = Φ(ω · Cn Dn ) = ω · Φ(Cn )Φ(Dn ) .

3.3. On note f1 et f2 les endomorphismes de Mn (C) canoniquement associés aux matrices Φ(Dn ) et Φ(Cn )
respectivement.
3.3.1. La traduction vectorielle des relations obtenues en 3.2. permettent d’écrire :
f1n = g1n = idMn,1 (C) et f1 g1 = ω · g1 f1 .
3.3.2. En vertu des résultats obtenus en 3.3.1., on constate que les hypothèses de la 2ème partie sont
satisfaites pour les endomorphismes f1 et g1 . Le résultat obtenu en 2.4.3. assure donc l’existence
d’une base, notée B, de Mn,1 (C) dans laquelle la matrice de f1 est Dn et celle de g1 est Cn .
3.3.3. Soit P la matrice de passage de la base canonique de Mn,1 (C) à la base B. On sait que Φ(Dn )
(resp. Φ(Cn )) est la matrice de f1 (resp. g1 ) dans la base canonique de Mn,1 (C). Or, on vient
d’établir à la question 3.3.2. que Dn (resp. Cn ) est la matrice de f1 (resp. g1 ) dans la base B. Les
formules de changement de base pour les endomorphismes assurent donc que
Φ(Dn ) = P Dn P −1 Φ(Cn ) = P Cn P −1 .
et
 
3.4. • Commençons par prouver que : ∀(k, `) ∈ J0, n − 1K2 , Φ Dnk Cn` = P Dnk Cn` P −1 .
Tout d’abord, notons que si A, B ∈ Mn (C) et Q ∈ GLn (C) sont des matrices telles que
A = QBQ−1 , alors il est facile d’établir, par une simple récurrence, que Aj = QB j Q−1 pour tout
j ∈ N.
Le résultat de 3.1. et le fait que Φ est un morphisme de la C-algèbre Mn (C) entrainent que
     
Φ Dn k Cn` = Φ Dn k Φ Cn ` = Φ(Dn )k Φ(Cn )` = P Dn k P −1 P Cn ` P −1 = P Dn k Cn ` P −1 . (6)
 
• D’après 1.3.6., la famille Cn k Dn ` est une base de Mn (C) ; considérons alors une
06k,`6n−1
2
X
matrice M = αk,` Dn k Cn` ∈ Mn (C), où (αk,` )06k,`6n−1 ∈ Cn . En utilisant la linéarité de
06k,`6n−1
Φ et la formule (6), on a
 
X X  
Φ(M ) = Φ  αk,` Dn k Cn`  = αk,` Φ Dn k Cn`
06k,`6n−1 06k,`6n−1
X
= αk,` P Dn k Cn` P −1
06k,`6n−1
 
X
=P αk,` Dn k Cn`  P −1
06k,`6n−1

= P M P −1 .

Par suite Φ(M ) = P M P −1 pour tout M ∈ Mn (C) .


3.5. • Vérifions que Φ est un endomorphisme du C-espace vectoriel Mn (C).
En effet, soient M, N ∈ Mn (C) et α ∈ C. On a

Φ(αM + N ) = P (αM + N )P −1 = αP M P −1 + P N P −1 = αΦ(M ) + Φ(N ).

Puisque Φ (Mn (C)) ⊂ Mn (C), alors Φ est un endomorphisme de Mn (C).

10
• Φ(In ) = P In P −1 = P P −1 = In .
• Pour M, N ∈ Mn (C), on a

Φ(M N ) = P M N P −1 = P M P −1 P N P −1 = Φ(M )Φ(N ).

On conclut que Φ est un morphisme de la C-algèbre Mn (C) .

11

Vous aimerez peut-être aussi