Vous êtes sur la page 1sur 8

Lycée Louis-Le-Grand, Paris

MPSI 4 – Mathématiques
A. Troesch

Problème no 20 : Algèbre linéaire matricielle

Correction du problème 1 – Co-diagonalisation (Mines 2001)

Partie I –
Le but de cette partie est d’étudier, pour une application semi-linéaire u donnée, les valeurs et vecteurs co-propres.
1. Premières propriétés.

(a) Soit x 6= 0. Si u(x) = µx = µ′ x, puisque x est non nul (donc la famille (x) est libre), on obtient µ = µ′ .
Ainsi il existe au plus un scalaire µ tel que u(x) = µx .
(b) Soit µ une valeur co-propre de u et x un vecteur co-propre associé. On a alors, pour tout θ ∈ R,
θ θ θ θ
u(e− i 2 x) = ei 2 u(x) = ei 2 µx = (ei θ µ) · e− i 2 x.
θ
Ainsi, ei θ µ est valeur co-propre de u un vecteur propre associé en est e− i 2 x 6= 0 .
(c) Soit x ∈ Eµ non nul, et a = rei θ ∈ C. On a alors u(ax) = au(x) = re− i θ µx = e−2 i θ µ(ax).
Ainsi, si µ 6= 0, on peut choisir a tel que e−2 i θ µ 6= µ (il suffit de choisir a non réel). La question 1 amène
alors u(ax) 6= µx, donc ax 6∈ Eµ .
Par conséquent, si µ 6= 0, Eµ n’est pas un C-espace vectoriel .
Si µ = 0, pour tout x, y ∈ Eµ et a ∈ C, on a

u(ax + y) = au(x) + u(y) = 0,

donc ax + y = 0.
Comme de plus, Eµ ⊂ E et 0 ∈ Eµ , on peut conclure que si µ = 0, Eµ est un sous-espace vectoriel sur C de E .
En revanche, quelle que soit la valeur de µ, si x, y sont dans Eµ et a ∈ R, on a :

u(ax + y) = au(x) + u(y) = au(x) + u(y) = aµx + µy = µ(ax + y).

Donc ax+y ∈ Eµ . Comme Eµ ⊂ E et 0 ∈ E, on en déduit que Eµ est un sous-espace vectoriel sur R de E .


(d) Soient x, y ∈ E et a ∈ C. On a :

u ◦ v(ax + y) = u(av(x) + v(y)) = au(v(x)) + u(v(y)) = au ◦ v(x) + u ◦ v(y).

Ainsi, la composée de deux applications semi-linéaires est une application linéaire .

2. Matrice associée à une application semi-linéaire


(a) On décompose x = ni=1 xi ei . On a alors
P

n
X
y = u(x) = xi u(ei ),
i=1

et en passant aux coordonnées dans la base B :


n
X
Y = xi Ci ,
i=1

où Ci est le vecteur colonne des coordonnées de u(ei ) dans la base B. On reconnaît là un produit matriciel :

Y = AX ,

1
où A est la matrice dont les colonnes sont les Ci , c’est-à-dire les matrices colonnes des coordonnées dans la
base B des images par u des vecteurs de cette base.
On peut montrer réciproquement que A vérifiant cette relation est définie de façon unique (il suffit d’évaluer
en ei , ce qui nous dit que la colonne Ci de A est nécessairement égale aux coordonnées de u(ei ) dans la
base B). La question de l’unicité n’était pas explicitement demandée, mais était nécessaire pour répondre
complètement à la question suivante.
Une autre façon d’aborder cette question est de remarquer que si B = (b1 , . . . , bn ) est une base de E sur C,
alors l’application qui à x = x1 b1 + · · · + xn bn associe x = x1 b1 + · · · + xn bn est clairement une application
semi-linéaire. Attention au fait que cette définition de x dépend du choix de la base B !
On pose alors, pour tout x ∈ E, v(x) = u(x). L’application v est alors linéaire (composée de deux applications
semi-linéaires). Si on note A sa matrice relativement à la base B, on a alors

[u(x)]B = [v(x)]B = AX.

L’unicité de A découle de l’unicité de la matrice d’un endomorphisme.


(b) On ne peut pas vraiment utiliser la formule de changeùent de base sur v définie ci-dessus, car la définition de
v dépend du choix de la base B. Soient B et C deux bases, A et B les matrices de u relativement à chacune
de ces deux bases respectivement, et S la matrice de passage de B à C. Soit x ∈ E et y = u(x). En notant
[x]B le vecteur colonne des coordonnées de x dans la base B, on a alors :

S[x]C = [x]B .

On en déduit que
[y]B = A[x]B = AS[x]C .

En appliquant la formule de changement de base pour le vecteur y, il vient alors :

[y]C = S −1 [y]B = (S −1 AS)[x]C .

On utilise la question précédente, et plus précisément le fait que la relation Y = AX caractérise la matrice
de u dans la base considérée (unicité de cette écriture) pour en déduire que la matrice de u relativement à
la base C est S −1 AS. Ainsi
−1
B = S −1 AS .

On remarquera la forte similitude avec la formule de changement de base pour les endomorphismes, la seule
différence étant la conjugaison supplémentaire effectuée sur la matrice S (à droite).
3. Exemples
!
a
(a) Soit µ ∈ C, µ est une vaeur co-propre de A si et seulement s’il existe X = non nul tel que AX = µX,
b
c’est à dire : 
−b = µa
a = µb

On en déduit que b = −|µ|2 b et a = −|µ|2 a. Comme l’un au moins des deux complexes a et b est non nul,
on en déduit que −|µ|2 = 1, ce qui est impossible. Ainsi, A n’admet pas de valeur co-propre.
En jetant un coup d’oeil à la suite du sujet (c’est toujours conseillé !), on se rend compte que c’est en plein
accord avec la question 4(a), puisque la matrice AA est ici égale à −I2 , donc ne possède pas de valeur propre
positive.
(b) Soit A une matrice réelle admettant une valeur propre réelle λ. On a alors au moins un vecteur propre réel.
En effet, la matrice A − λIn est non inversible dans Mn (C), donc aussi dans Mn (R), et son noyau en tant
que matrice de Mn (R) est donc non réduit à 0, ce qui donne l’existence d’un vecteur propre à coordonnées
réelles.
On peut aussi remarquer que si X est un vecteur propre, en conjuguant, puisque λ est réel, X est aussi
vecteur propre associé à λ, donc aussi leur somme X + X si cette somme est non nulle. Le seul cas où cette

2
condition n’est pas satisfaite est le cas où toutes les coordonnées de X sont imaginaires pures. Dans ce cas
i X est encore un vecteur propre, à coordonnées réelles.
Soit donc X un vecteur propre à coordonnées réelles de A, associé à la valeur propre λ. On a donc :

AX = AX = λX,

donc X est aussi vecteur co-propre associé à la valeur co-propre λ .


4. Correspondance entre les valeurs co-propres de la matrice A et les valeurs propres de la ma-
trice AA.
Soit A une matrice carrée complexe d’ordre n.
(a) Soit µ une valeur co-propre de A, et X un vecteur co-propre associé. On a alors

AAX = A(AX) = A(µX) = µAX = µµX = |µ|2 X.

Comme X 6= 0, on déduire de la relation trouvée que X est un vecteur propre de AA associé à la


valeur propre |µ|2 de AA .
(b) Soit λ une valeur propre positive ou nulle de la matrice AA et X un vecteur co-propre associé.
(i) Supposons AX et X liés. Il existe alors µ ∈ C tel que AX = µA. Ainsi, µ est valeur co-propre de
A, un vecteur co-propre associé étant X. On déduit de la question précédente que X est vecteur
propre de AA associé à la valeur propre |µ|2 . Or, X est vecteur propre associé à la valeur λ, d’où

λ = |µ|2 . Par conséquent, il existe θ ∈ R tel que µ = λ · ei θ . On déduit alors de la question 1(b) que

λ est valeur co-propre de A.

(ii) Supposons les vecteurs AX et X indépendants. On a alors Y = AX + λX 6= 0. De plus,
√ √ √
AY = AAX + λAX = λX + λAX = λY.

Ainsi, Y étant non nul, λ est valeur co-propre de A .
(c) Soit µ un réel positif ou nul.
• Si µ est valeur co-propre de A, |µ|2 = µ2 est valeur propre de AA d’après 4(a).
p
• Réciproquement, si µ2 est valeur propre de AA, alors µ = µ2 est valeur co-propre de A d’après 4(b).
Ainsi, µ étant réel positif, µ est valeur co-propre de A ssi µ2 est valeur propre de A .
5. Cas d’une matrice triangulaire supérieure
Dans cette question, la matrice A est une matrice triangulaire supérieure
(a) Soit λ une valeur propre de A. Notons d1 , . . . , dn les coefficients diagonaux de A. La matrice A étant
triangulaire, ses valeurs propres sont ses coefficients diagonaux. Ainsi, λ est l’un des di .
La matrice A est triangulaire supérieure, ses coefficients diagonaux étant d1 , . . . , dn . Le produit AA est
encore une matrice triangulaire supérieure, dont les coefficients diagonaux sont cette fois les di di . En
particulier, l’un des coefficients diagonaux est |λ|2 . La matrice AA étant triangulaire, il en résulte que
|λ|2 est valeur propre de AA. La question 4(b) permet alors d’affirmer que |λ| est valeur co-propre de
A, puis, d’après 1(b), tous les complexes de même module que λ sont valeurs co-propres de A, donc
tous les λei θ sont valeurs co-propres de A .
(b) Réciproquement, supposons que µ est valeur co-propre de A. D’après 4(a), |µ|2 est valeur propre de AA.
Cette matrice étant triangulaire, |µ|2 est l’un des coefficients diagonaux de AA. Or, ces coefficients diagonaux
s’écrivent di di , avec les notations de la question précédente. Par conséquent, il existe un coefficient diagonal
λ = di de A (donc une valeur propre de A, cette matrice étant triangulaire) telle que |µ|2 = |λ|2 . On en
déduit que |λ| = |µ|, donc qu’il existe θ ∈ R tel que λ = ei θ µ.
On a bien montré qu’ il existe θ ∈ R tel que ei θ µ soit valeur propre de A.
(c) La matrice A étant triangulaire, on peut appliquer les résultats précédents. Sa seule valeur propre est i (la
valeur unique de ses coefficients diagonaux). Ainsi, tout les complexes de même module que i sont valeurs
co-propres d’après 5(a) (et ce sont les seules d’après 5(b)). En particulier, 1 est valeur co-propre de A .

3
!
a + ib
On recherche un vecteur X = (a, b, c, d ∈ R) co-propre associé à 1, c’est-à-dire vérifiant
c + id
! ! ! ! !
i 1 a− ib a+ ib (b + c) + i(a − d) a+ ib
AX = X soit: = soit: = .
0 i c− id c+ id ic + d c + id

Ceci équivaut à c = d et a = b + c. Les vecteurs co-propres associés à 1 sont exactement les vecteurs
!
c + (1 + i)b
, b, c ∈ R
c(1 + i)
!
i π4 1
On peut prendre par exemple X = e (vous pouvez vérifier directement que ce vecteur est bien
0
co-propre associé à 1).
6. Une caractérisation des valeurs co-propres
• Supposons que µ est valeur co-propre de A, |µ| l’est également (question 1(b)). Soit X un vecteur co-propre
associé à |µ|. Notons X = X1 + i X2 , où X1 et X2 sont des vecteurs à coordonnées réelles. On a alors

|µ|(X1 + i X2 ) = AX = A(X1 − i X2 ) = BX1 + CX2 + i(−BX2 + CX1 ).

En identifiant les parties réelles et imaginaires, il vient :

|µ|X1 = BX1 + CX2 et |µ|X2 = −BX2 + CX1 .

D’après les règles du produit matriciel par blocs, ces deux égalités sont équivalentes à l’égalité matricielle
! ! !
B C X1 X1
= |µ| .
C −B X2 X2
!
X1
Le vecteur étant non nul (car X 6= 0), on en déduit que |µ| est valeur propre de D .
X2
• Réciproquement,
! si |µ| est valeur propre de D, il existe un vecteur colonne réel Y , qu’on découpe en blocs
X1
Y = , les deux vecteurs colonnes X1 et X2 étant de même taille, tel que
X2

DY = |µ|Y,

c’est-à-dire
|µ|X1 = BX1 + CX2 et |µ|X2 = −BX2 + CX1 .

En reprenant les calculs précédents dans l’autre sens, on en déduit facilement que X1 + i X2 est vecteur
co-propre de A = B + i C, associé à la valeur co-propre |µ|. Ainsi, |µ| est valeur co-propre de A, puis
µ est valeur co-propre de A (toujours 1(b)).

Partie II –

1. Une relation d’équivalence Montrons que ≈ est reflexive, symétrique et transitive. Soient A, B, C dans
Mn (C).
−1
• A = In AIn , donc A ≈ A, d’où la reflexivité.
• Si A ≈ B, il existe S ∈ GLn (C) tel que
−1 −1
B = SAS donc: A = S −1 BS −1 .

Puisque S −1 ∈ GLn (C) on peut conclure que B ≈ A, d’où la symétrie.

4
• Si A ≈ B et B ≈ C, on a l’existence de S et T dans GLn (C) tels que
−1 −1
B = SAS et C = T BT .

On a alors
C = (T S)A(T S)−1 .
Ainsi, A ≈ C, d’où la transitivité.
Ainsi, ≈ est une relation d’équivalence.
2. Indépendance des vecteurs co-propres
• Soit µ1 , . . . , µq des valeurs co-propres de mudules 2 à 2 distincts, et X1 , . . . , Xq des vecteurs co-propres
associés. Une façon rapide de s’en sortir (mais utilisant un résultat que pour l’instant vous n’avez vu qu’en
DM, mais qui sera un résultat du cours l’année prochaine), est de se ramener à des vecteurs propres : les Xi
sont alors des vecteurs propres de AA, associés aux valeurs propres |µ1 |2 , . . . , |µq |2 , deux à deux distinctes
par hypothèse. Les sous-espaces propres étant en somme directe (propriété du cours de Spé, résultant du
lemme des noyaux vu en DM), on en déduit immédiatement que la famille (X1 , . . . , Xq ) est libre .
• On peut aussi procéder directement par récurrence sur q. La propriété est triviale pour q = 1, les vecteurs co-
propres étant non nuls par définition. Si on la suppose vraie pour une valeur de q ∈ N∗ , et qu’on considère
une famille de q + 1 vecteurs co-propres X1 , . . . , Xq+1 associés à des valeurs co-propres µ1 , . . . , µq+1 de
modules 2 à 2 distinctes, étudions la relation :

a1 X1 + · · · + aq+1 Xq+1 = 0ε(1).

Conjuguons cette relation et appliquons-lui A. On obtient :

a1 µ1 X1 + · · · + aq+1 µq+1 Xq+1 = 0 (2).

Si aq+1 = 0, on peut appliquer directement l’hypothèse de récurrence pour conclure que tous les ai sont
nuls, donc la famille est libre. Sinon, on peut faire une combinaison de ces deux lignes en retranchant à (2)
µ aq+1
la relation (1) multipliée par q+1aq+1 . Cela nous donne une relation entre X1 , . . . , Xq , et les coefficients de
cette relation sont donc tous nuls par hypothèse de récurrence, c’est-à-dire
µq+1 aq+1
∀i ∈ [[1, q]], ai µi − ai = 0.
aq+1
Si ai 6= 0, cette expression est une différence de deux complexes de modules distincts, donc ne peut pas être
nulle. Ainsi, ai = 0, pour tout i ∈ [[1, q]]. La relation initiale se réduit à αq+1 Xq+1 = 0, avec Xq+1 6= 0, donc
aq+1 = 0. Ainsi, la famille (X1 , . . . , Xq+1 ) est libre.
Le principe de récurrence permet de conclure que toute famille de vecteurs co-propres associés à des valeurs
propres 2 à 2 de modules ditincts est libre .
• Supposons maintenant que AA possède n valeurs propres λp , p ∈ [[1, n]], positives ou nulles deux à deux
p
distinctes. D’après I-4(b), les λp sont des valeurs co-propres de A, de modules 2 à 2 distincts. Une famille
X1 , . . . , Xn de vecteurs co-propres associés à ces valeurs co-propres est donc libre,et de cardinal n, dans un
espace de dimension n. Ainsi, (X1 , . . . , Xn ) est une base de E.
Considérons u l’application semi-linéaire de Cn dans lui-même associée à A dans la base canonique. Autre-
ment dit, en identifiant les vecteurs de Cn à des vecteurs colonnes,

u(X) = AX.

La matrice B de u dans la base (X1 , . . . , Xn ) est la matrice donc la colonne i est égale au vecteur des

coordonnées de u(Xi ) dans la base Xi . Or, u(Xi ) = λi Xi , donc
√ 
λ1 0 ··· 0
 √ .. .. 
 0 λ2 . . 
B= .
 
.. ..

 .
 . . . 0 


0 ··· 0 λn

5
La matrice A et la matrice B représentent la même application semi-linéaire dans deux bases différentes.
D’après la question 2(b), on en déduit que A et B sont co-semblables. La matrice B étant diagonale, on en
déduit que A est co-diagonalisable .
3. Quelques propriétés
−1
(a) On a AA = SS SS −1 = SS −1 = In .
(b) • La matrice S(θ) est inversible si et seulement si e2 i θ A + In est inversible. Soit

P (X) = det(AX + In ).

Le caractère polynomial du déterminant permet d’affirmer que P est un polynôme. Il est non nul car
P (0) = det(In ) = 1. Ainsi, il ne peut admettre qu’un nombre fini de racines. Par conséquent, les e2 i θ ,
pour θ ∈ R, ne peuvent pas être tous racines de P . Il existe donc θ ∈ R tel que det(Ae2 i θ + In ) 6= 0, ce
qui équivaut à l’ inversibilité de S(θ) .
• On a alors
AS(θ) = e− i θ AA + ei θ A = e− i θ In + ei θ A soit: AS(θ) = S(θ) .

−1
• On a alors immédiatement, S(θ) étant inversible : S(θ)S(θ) =A.
4. Une condition nécessaire
Soit A une matrice d’ordre n co-diagonalisable, et S une matrice de passage adaptée. Notons D = S −1 AS la
matrice diagonale associée. On a alors
−1
AA = SDS SDS −1 = SDDS −1 .

Or,
• DD est une matrice diagonale, donc AA est diagonalisable .
• les valeurs propres de AA sont les coefficients diagonaux de DD, c’est-à-dire les di di = |di |2 , où les di sont
les coefficients diagonaux de D. Ainsi, les valeurs propres de AA sont toutes positives ou nulles .
• Le rang de AA est égal au rang de DD, donc au nombre de ses coefficients diagonaux non nuls (rang d’une
matrice échelonnée), donc au nombre de |di |2 (donc aussi de di ) non nuls. Il s’agit donc aussi du nombre de
coefficients diagonaux non nuls de D, donc du rang de D. Or, D et A sont co-semblables, donc en particulier
équivalentes. Elles ont donc même rang. Ainsi,

rg(A) = rg(D) = rg(DD) = rg(AA) .

5. Une condition suffisante


Soit A une matrice carrée complexe d’ordre n qui vérifie les trois propriétés suivantes :
(i) la matrice AA est diagonalisable
(ii) les valeurs propres de la matrice AA sont positives ou nulles
(iii) le rang de la matrice A est égal au rang de la matrice AA.

(a) On a
−1
BB = S −1 ASS AS = S −1 AAS soit: BB = Λ .
On obtient de même :
−1
BB = S AAS = Λ soit: BB = Λ ,

puisque les valeurs propres de AA sont supposées réelles. En particulier, on a BB = BB


On en déduit aussi que
BΛ = B(BB) = (BB)B = ΛB .

(b) Notons  
B1,1 ··· B1,n
 . .. 
B= .
 . . 

Bn,1 · · · Bn,n

6
la décomposition en blocs de B, les tailles des blocs étant les mêmes que dans la matrice Λ. En particulier,
les blocs diagonaux Bi,i sont carrés d’ordre ni . La relation BΛ = ΛB amène alors, d’après les règles du
clacul matriciel par blocs :
   
λ1 B1,1 · · · λn B1,n λ1 B1,1 · · · λ1 B1,n
 . ..   . .. 

 .
 . .  =  .. . ,

λ1 Bn,1 · · · λn Bn,n λn Bn,1 · · · λn Bn,n

soit, pour tout (i, j) ∈ [[1, k]]2 , λi Bi,j = λj Bi,j . Comme les λi sont deux à deux distincts, pour tout i 6= j,
il vient Bi,j = 0. Ainsi, la matrice B est diagonale par blocs , les blocs diagonaux Bi = Bi,i étant carrés
d’ordre ni .
(c) Toujours d’après les règles du produit matriciel par blocs, l’identité BB = Λ amène alors :
   
B1 B1 0 ··· 0 λ1 In1 0 ··· 0
 . .. .
..   0
  .. .. 
 0 B2 B2 λ2 In2 . . 
= .
   
 .
.. .. .. ..

 .   .
 . . . 0   . . . 0 

0 ··· 0 Bk Bk 0 ··· 0 λk Ink

• Si λk 6= 0, alors, vu le classement des valeurs propres, les λi sont tous non nuls. On peut alors considérer
les matrices Ci = √1λ Bi . Ces matrices vérifient Ci Ci = Ini . D’après la question 3(b), il existe une
i
matrice inversible Pi telle que
−1 p −1
Ci = P Pi donc: Bi = P ( λi Ini )Pi .

Considérons alors la matrice diagonale par blocs


 
P1 0 ··· 0
 .. .. 
0 P2 . . 
P = . ,
 
 . .. ..
 . . . 0

0 ··· 0 Pk

inversible, d’inverse décrit par blocs de la façon suivante :


 −1 
P1 0 ··· 0
 .. .. 
 0 P2−1 . . 
P −1 =  . .
 
 . .. ..
 . . . 0 

0 ··· 0 Pk−1

Les règles du produit matriciel par blocs amènent facilement

−1
B = P ∆P ,

où ∆ est la matrice diagonale, décrite par blocs de la manière suivante :


√ 
λ1 In1 0 ··· 0
 √ .. .. 
 0 λ2 In1 . . 
∆= . .
 
 . .. ..
 . . . 0 


0 ··· 0 λk Ink

• Si λk = 0, alors les λi , i < k, sont non nuls. Comme rg(AA) = rg(Λ) = rg(A), on en déduit que A est de
rang n − nk , donc B, qui lui est équivalente, est également de rang n − nk . Or, la description diagonale
par blocs de B amène le calcul de son rang :

rg(B) = rg(B1 ) + · · · + rg(Bk ).

7
Par ailleurs, pour tout i < k, Bi Bi = λi In1 , donc Bi est inversible, donc de rang ni . On a alorq

n − nk = n1 + · · · + nk−1 + rg(Bk ),

relation dont il découle que rg(Bk ) = 0, donc Bk = 0. On effectue alors la même construction que
précédemment, mais en définissant Pk = Ink . La relation voulue est obtenue du fait que Bk = 0.
Ainsi, avec les hypothèses (i), (ii) et (iii), A est co-semblable à une matrice B elle-même co-semblable à une
matrice diagonale. Ainsi, la relation ≈ étant transitive, A est co-diagonalisable .

6. Exemples
(a) Soit A une matrice symétrique réelle d’ordre n. Le résultat admis (théorème spectral, cours de Spé) donne
la diagonalisabilité de A dans Mn (R). On a alors l’existence d’une matrice inversible P telle que P −1 AP
soit diagonale, à coefficients diagonaux λ1 , . . . , λn réels. Comme cette diagonalisation se fait dans Mn (R),
P ∈ GLn (R), donc P = P . La relation de diagonalisabilité donne alors également une relation de codiago-
nalisabilité. Ainsi, A est codiagonalisable .
On peut remarquer que ce résultat se généralise facilement de la façon suivante : si A ∈ Mn (R) est diago-
nalisable dans Mn (R) (ce qui équivaut à dire qu’elle est diagonalisable, à valeurs propres réelles), alors A
est codiagonalisable.

On peut aussi vérifier ici que la condition nécessaire et suffisante des questions 4 et 5 est bien vérifiée. Avec
les notations ci-dessus, on a :

P −1 AAP = P −1 A2 P = P −1 AP P −1 AP = D2 .

Il s’agit d’une matrice diagonale à coefficients diagonaux égaux aux λ2i , donc positifs ou nuls, et nuls si et
seulement si λi = 0. Ceci implique que D et D2 ont même rang.
Ainsi, AA est diagonalisable, ses valeurs propres sont les coefficients diagonaux de D2 , dont sont positifs ou
nuls, et son rang est celui de D2 , donc égal au rang de D, lui-même égal au rang de A.
(b) • ∗ La matrice A ne possède qu’une valeur propre, et n’est pas une homothétie, donc A n’est pas diagonalisable .
∗ Un calcul rapide montre que AA = In . A est donc co-diagonalisable (par utilisation de la question
5, ou ici, plus simplement, de la question 3(b), montrant que A est co-semblable à l’identité).
• ∗ Les valeurs propres λ de B sont solutions de l’équation polynomiale det(B − λI2 ) = 0 (équivaut à
dire que B − λI2 est non inversible), c’est-à-dire (1 − λ)2 + 1 = 0. Cette équation admet deux racines
complexes non réelles conjuguées. La matrice B est donc diagonalisable (prendre une base formée
d’un vecteur propre!associé à chaque valeur propre).
0 2
∗ On a BB = , dont les valeurs propres sont 2 et −2 (calculer comme précédemment le déter-
2 0
minant det(BB − λI2 )). La condition nécesaire de codiagonalisation n’étant pas satisfaite (question
4), B n’est pas co-diagonalisable .
• ∗ La matrice C n’est pas diagonalisable , car possède une unique valeur propre 0, et n’est pas égale à
0I2 .
∗ CC = C 2 = 0, donc rg(C) 6= rg(CC. La condition nécessaire de la question 4 n’étant pas satisfaite,
C n’est pas codiagonalisable .
• ∗ Par un calcul de déterminant, on trouve l’existence de deux valeurs propres non réelles conjuguées
de D, donc D est diagonalisable dans Mn (C) (même principe que pour B, les deux matrices sont
même semblables en fait)
∗ On a DD = 2I2 . Cette matrice est diagonale, donc diagonalisable, d’unique valeur propre 2 qui
est positive ou nulle, et de rang 2, donc de même rang que A. On peut appliquer la question 5 :
D est co-diagonalisable .

Vous aimerez peut-être aussi