Vous êtes sur la page 1sur 21

Le 16/03/2024 DS 08 1

Vous résoudrez au choix, en indiquant votre choix clairement en début de copie.


• les exercices 1, 2
• les exercices 3, 4
Les exercices 3 et 4 sont plus difficiles
Exercice 1. [Correction]
a et b étant deux fonctions continues sur R, on note l’équation différentielle :

(E) : x2 y ′′ + a(x)y ′ + b(x)y = 0

On note S + l’espace vectoriel des solutions de (E) sur l’intervalle I =]0, +∞[ et S − l’espace vectoriel des solutions de (E) sur
l’intervalle J =] − ∞, 0[.
L’objectif de cet exercice est d’étudier la dimension de l’espace vectoriel S des fonctions y de classe C 2 sur R vérifiant (E) sur R
tout entier.

Q 1). Donner la dimension des espaces S + et S − .


Q 2). On note φ l’application linéaire de S vers S + × S − définie par φ(f ) = (fI , fJ ) où fI désigne la restriction de f à l’intervalle
I et fJ désigne la restriction de f à l’intervalle J.
Donner le noyau de l’application φ et en déduire que dim S ≤ 4.
Q 3). Dans cette question, on considère a(x) = x et b(x) = 0, d’où

(E) : x2 y ′′ + xy ′ = 0.

Déterminer S + et S − .
Déterminer ensuite S et donner sans détails la dimension de S .
Q 4). Dans cette question (E) : : x2 y ′′ − 6xy ′ + 12y = 0.
Déterminer deux solutions sur I de cette équation de la forme x 7→ xα ( α réel).
En déduire S + puis S − .
Déterminer S et donner la dimension de S.
Q 5). Donner un exemple d’équation différentielle du type (E) : x2 y ′′ + a(x)y ′ + b(x)y = 0 tel que dim S = 0 (on détaillera).
On pourra, par exemple, s’inspirer de la question précédente.

Exercice 2. [Correction]
Notations et rappels
Soit n un entier supérieur à 1. On désigne par diag(α1 , · · · , αn ) la matrice diagonale de Mn (R) dont les coefficients diagonaux
sont les réels α1 , · · · , αn dans cet ordre. Si M ∈ Mn (R), on note M⊤ sa transposée.
On munit l’espace vectoriel E = Rn du produit scalaire canonique noté h | i et de la norme euclidienne k k associée. On note
S(E) le sous-espace des endomorphismes symétriques de E, c’est-à-dire l’ensemble des endomorphismes s de E vérifiant :

∀(x, y) ∈ E 2 , hs(x)|yi = hx|s(y)i.

Un endomorphisme symétrique s de E est dit symétrique positif (respectivement symétrique défini positif) si :

∀x ∈ E, hs(x)|xi ≥ 0 (respectivement ∀x ∈ E \ {0}, hs(x)|xi > 0).

Une matrice S de Mn (R) est dite symétrique positive (respectivement symétrique définie positive) si :

∀X ∈ Mn,1 (R), X⊤ SX ≥ 0 (respectivement ∀X ∈ Mn,1 (R) \ {0}, X⊤ SX > 0).

On note Sn+ (R) (respectivement Sn++ (R)) l’ensemble des matrices symétriques positives (respectivement symétriques définies
positives) de Mn (R).
On rapelle (ou admet) qu’un endomorphisme s de E est symétrique (respectivement symétrique positif, symétrique défini positif)
si, et seulement si, sa matrice dans toute base orthonormée de E est symétrique (respectivement symétrique positive, symétrique
définie positive).
On admet que, pour tous réels positifs a1 , · · · , an ,
!1/n
Y
n
1X
n
ai ≤ ai (inégalité arithmético-géométrique).
i=1
n i=1
Le 16/03/2024 DS 08 2

Objectif du problème
On se donne une matrice S de Sn+ (R) (ou Sn++ (R)) et on étudie le maximum (ou minimum) de la forme linéaire A 7→ Tr(AS)
sur des ensembles de matrices.

Questions préliminaires
Q 6).
(a) Enoncer (sans démonstration) le théorème de réduction des endomorphismes symétriques de l’espace euclidien E et
sa version relative aux matrices symétriques réelles.
(b) Toute matrice symétrique à coefficients complexes est-elle nécessairement diagonalisable ? On pourra par exemple
considérer la matrice de M2 (C) :  
i 1
S= .
1 −i

Q 7). Soit s ∈ S(E), de valeurs propres (réelles) λ1 , · · · , λn rangées dans l’ordre croissant :

λ1 ≤ λ 2 ≤ · · · ≤ λn .

Soit β = (ϵ1 , · · · , ϵn ) une base orthonormée de E telle que, pour tout i ∈ {1, · · · , n}, ϵi est un vecteur propre associé à la
valeur propre λi . Pour tout vecteur x de E, on pose :

Rx (x) = hs(x)|xi.

(a) Exprimer Rs (x) à l’aide des λi et des coordonnées de x dans la base β.


(b) En déduire l’inclusion : Rs (S(0, 1)) ⊂ [λ1 , λn ] où S(0, 1) désigne la sphère unité de E.

Q 8).
(a) On suppose dans cette question que s est symétrique positif (respectivement symétrique défini positif). Démontrer
que les valeurs propres de s sont toutes positives (respectivement strictement positives).
(b) Soit S = (si,j ) ∈ Sn+ (R), de valeurs propres λ1 , · · · , λn rangées dans l’ordre croissant :

λ1 ≤ λ 2 ≤ · · · ≤ λn .

On note s l’endomorphisme de E représenté par S dans la base canonique B = (e1 , · · · , en ). Exprimer le terme général
si,j de S comme un produit scalaire et démontrer que :

∀i ∈ {1, · · · , n} λ1 ≤ si,i ≤ λn .

Un maximum sur On (R)


On note In la matrice unité de Mn (R) et On (R) le groupe des matrices orthogonales de Mn (R).
Q 9). Démontrer que l’application M 7→ M⊤ M − In est continue de Mn (R) dans Mn (R).
Q 10). Justifier que, si A = (ai,j ) est une matrice orthogonale, alors :

∀(i, j) ∈ {1, · · · , n}2 |ai,j | ≤ 1.

Q 11). En déduire que le groupe orthogonal On (R) est une partie compacte de Mn (R).
Q 12). Soit S ∈ Sn+ (R), de valeurs propres (positives) λ1 , · · · , λn . On pose ∆ = diag(λ1 , · · · , λn ).
Si A est une matrice orthogonale, on note T (A) le nombre réel T (A) = Tr(AS).
(a) Soit A ∈ On (R). Démontrer qu’il existe une matrice orthogonale B telle que :

T (A) = Tr(B∆).

(b) Démontrer que l’application T de On (R) dans R admet un maximum sur On (R)
que l’on notera t.
(c) Démontrer que, pour toute matrice orthogonale A de On (R), T (A) ≤ Tr(S), puis déterminer le réel t.
Le 16/03/2024 DS 08 3

Inégalité d’Hadamard
Soit S = (si,j ) ∈ Sn+ (R), de valeurs propres (réelles positives) λ1 , · · · , λn rangées dans l’ordre croissant :

0 ≤ λ1 ≤ λ2 ≤ · · · ≤ λn .

Q 13). Démontrer l’inégalité valable pour tout S ∈ Sn+ (R) :


 n
1
det(S) ≤ Tr(S) (∗).
n

Q 14). Soit α = (α1 , · · · , αn ) ∈ Rn , D = diag(α1 , · · · , αn ) et Sα = D⊤ SD. Démontrer que Sα ∈ Sn+ (R) et calculer Tr(Sα ).
Q 15). Dans cette question, on suppose que les coefficients diagonaux si,i de S sont strictement positifs et, pour 1 ≤ i ≤ n, on
1
pose αi = √ . En utilisant l’inégalité (∗), démontrer que :
si,i

Y
n
det(S) ≤ si,i .
i=1

Y
n
Q 16). Pour tout réel ε > 0, on pose Sε = S + εIn . Démontrer que det(Sε ) ≤ (si,i + ε), puis conclure que :
i=1

Y
n Y
n
λi ≤ si,i (inégalité d’Hadamard).
i=1 i=1

Application de l’inégalité d’Hadamard : détermination d’un minimum


Soit S ∈ Sn++ (R), de valeurs propres 0 < λ1 ≤ · · · ≤ λn , et ∆ = diag(λ1 , . . . , λn ). Soit Ω ∈ On (R) telle que S = Ω∆Ω⊤ .
On désigne par U l’ensemble des matrices de Sn++ (R) de déterminant égal à 1.
Q 17). Démontrer que, pour tout A ∈ U , la matrice B = Ω⊤ AΩ est une matrice de U vérifiant :

Tr(AS) = Tr(B∆).

Q 18). Démontrer que {Tr(AS) | A ∈ U } = {Tr(B∆) | B ∈ U }, puis que ces ensembles admettent une borne inférieure que l’on
notera m.
Q 19). Démontrer que, si B = (bi,j ) ∈ U :

Tr(B∆) ≥ n(λ1 · · · λn )1/n (b1,1 · · · bn,n )1/n .

Q 20). En déduire que, pour B = (bi,j ) ∈ U , Tr(B∆) ≥ n(det(S))1/n .


1
Q 21). Pour tout entier k tel que 1 ≤ k ≤ n, on pose µk = (det(S))1/n et D = diag(µ1 , · · · , µn ).
λk
Déterminer le réel m.
Le 16/03/2024 DS 08 1

Exercice 3. [Correction] On note C([0, 1], R) l’ensemble des fonctions continues de [0, 1] dans R et pour tout k ∈ N∗ , on
note C ([0, 1], R) l’ensemble des fonctions de classe C k de [0, 1] dans R. On dit qu’une fonction f ∈ C([0, 1], R) est positive si :
k

∀x ∈ [0, 1], f (x) ≥ 0

On étudie ici l’équation différentielle avec conditions aux limites suivantes :



−u′′ (x) + c(x)u(x) = f (x), x ∈ [0, 1]
(1)
u(0) = u(1) = 0

où c ∈ C([0, 1], R), f ∈ C([0, 1], R) et c positive.

Q 1). Soit λ ∈ R. Montrer que le problème



 −vλ′′ (x) + c(x)vλ (x) = f (x), x ∈ [0, 1]
vλ (0) = 0 (1bis)
 ′
vλ (0) = λ

admet une unique solution vλ ∈ C 2 ([0, 1], R).


Q 2). Montrer que pour tout λ ∈ R, vλ peut s’exprimer sous la forme :

vλ = λw1 + w2

avec w1 ∈ C 2 ([0, 1], R) l’unique solution du système



 −w1′′ (x) + c(x)w1 (x) = 0, x ∈ [0, 1]
w1 (0) = 0
 ′
w1 (0) = 1
et w2 une fonction indépendante de λ à caractériser.
Q 3). Montrer que w1 (1) 6= 0.
Q 4). En déduire qu’il existe une solution u ∈ C 2 ([0, 1], R) du problème (1). Montrer que cette solution est unique.
Q 5). Montrer que si f est positive, alors u est également positive.
Exercice 4. [Correction]

Caractérisation et exponentielle de matrices normales

Notations
• n désigne un entier naturel non nul.

• Mn désigne l’espace vectoriel des matrices carrées réelles de taille (n, n) dont la matrice unité est notée In .

• En désigne l’espace vectoriel des matrices réelles de taille (n, 1) (matrices colonnes). On le munit de son produit scalaire
usuel et de la norme (euclidienne) associée définis par :

(X|Y ) = X⊤ Y et kXk = X⊤ X.

• Pour A ∈ Mn , on note A⊤ , la transposée de A.

• Sn (respectivement An ) désigne le sous-espace vectoriel de Mn constitué des matrices symétriques (respectivement anti-
symétriques) de Mn .

• On = {A ∈ Mn , AA⊤ = In } est le groupe orthogonal d’ordre n.

• SOn = {A ∈ On , det(A) = 1} est le groupe spécial orthogonal d’ordre n.


   
cos θ − sin θ cos θ sin θ
• Pour tout θ ∈ R, on note R(θ) = et S(θ) = .
sin θ cos θ sin θ − cos θ
On rappelle que SO2 = {R(θ), θ ∈ R} et O2 = SO2 ∪{S(θ), θ ∈ R}.
Le 16/03/2024 DS 08 2

Définition 1 Une matrice A de Mn est dite normale lorsqu’elle commute avec sa transposée, c’est-à-dire lorsque AA⊤ = A⊤ A.

Définition 2 Une matrice A ∈ Mn est dite orthogonalement semblable à B ∈ Mn s’il existe Q ∈ On tel que B = Q⊤ AQ.
(On pourra noter en abrégé : A est ORTS à B.)

Objectifs
• Dans un premier temps, ce problème vise à établir que, pour une matrice A ∈ Mn , les quatre conditions suivantes sont
équivalentes :

(C1 ) Il existe un polynôme P à coefficients réels tel que A⊤ = P (A).

(C2 ) La matrice A est normale.

(C3 ) Pour tout X ∈ En , kA⊤ Xk = kAXk.

(C4 ) La matrice A est orthogonalement semblable à une matrice diagonale par blocs, dont chaque bloc diagonal est :
∗ soit de taille (1, 1),
∗ soit de taille (2, 2) du type rR(θ), où (r, θ) ∈ R∗+ × R.

• Dans un second temps, on définit et caractérise l’exponentielle d’une telle matrice.

On pourra utiliser, sans démonstration, les deux résultats suivants :

Théorème 1 Tout endomorphisme de Rn admet au moins une droite ou un plan stable.

Théorème 2 Si A ∈ Mn et B ∈ Mn sont telles qu’il existe Q ∈ On vérifiant B = Q⊤ AQ, alors pour tout polynôme P à
coefficients réels, on a P (B) = Q⊤ P (A)Q.

Question préliminaire
Q 6). Démontrer que la relation ORTS est une relation d’équivalence sur Mn .

Exemples
Q 7). Montrer que les éléments de Sn vérifient les conditions (C1 ), (C2 ), (C3 ) et (C4 ), et que ceux de An vérifient les conditions
(C1 ), (C2 ) et (C3 ).

Q 8). Montrer que les éléments de On vérifient les conditions (C2 ) et (C3 ).

Q 9). Dans cette question seulement, on suppose n = 2.


Montrer que les matrices rT , où r > 0 et T ∈ O2 , vérifient les conditions (C1 ) et (C4 ).

Deux premières implications


Soit A ∈ Mn .

Q 10). Montrer que si A vérifie la condition (C1 ), alors A vérifie la condition (C2 ).

Q 11). Montrer que si A vérifie la condition (C2 ), alors A vérifie la condition (C3 ).
Le 16/03/2024 DS 08 3

La condition (C3 ) implique la condition (C4 )


 
a c
Dans cette question seulement, on suppose n = 2 et soit A = ∈ M2 vérifiant la condition (C3 ).
b d

Q 12). Montrer que c = b ou bien (b 6= 0 et c = −b et a = d).


   
1 1
On pourra utiliser, par exemple, les vecteurs et de E2 .
0 1
En déduire que A vérifie la condition (C4 ).

Dans toute la suite de cette partie, on se donne A ∈ Mn vérifiant la condition (C3 ).

Q 13). Montrer que pour tout réel λ, la matrice A − λIn vérifie (C3 ).

Q 14). En déduire que A et A⊤ ont les mêmes sous-espaces propres et qu’ils sont deux à deux orthogonaux.

Q 15). En utilisant la question précédente, déterminer une condition nécessaire et suffisante sur la matrice A pour qu’elle soit
diagonalisable.
 
A1 0
Q 16). Pour n ⩾ 3, montrer que A est orthogonalement semblable à une matrice du type , où A1 ∈ Mp et A2 ∈ Mn−p
0 A2
vérifient (C3 ), avec p ∈ {1, 2}.
On pourra commencer par montrer que toute matrice orthogonalement semblable à A vérifie (C3 ).

Q 17). Montrer que si A vérifie la condition (C3 ), alors A vérifie la condition (C4 ).

La condition (C4 ) implique la condition (C1 )


Soit Z = {z1 , . . . , zn } une famille de n complexes deux à deux distincts.

Q 18). Établir l’existence d’un unique polynôme P de Cn−1 [X] tel que :

∀k ∈ {1, . . . , n}, P (zk ) = zk .

On suppose de plus que, pour tout k ∈ {1, . . . , n}, zk ∈ Z.


Montrer alors que le polynôme P est réel.

Soient (r, θ) ∈ R∗+ × R et P ∈ R[X] tels que P (reiθ ) = re−iθ .


Q 19). Montrer que P (rR(θ)) = (rR(θ)) .
Lorsque sin θ 6= 0, on pourra utiliser la division euclidienne de P par le polynôme caractéristique χ de la matrice rR(θ) de
M2 .

Q 20). Montrer que si A ∈ Mn vérifie la condition (C4 ), alors A vérifie la condition (C1 ).

Exponentielle d’une matrice normale


P r k cos(kθ) P r k sin(kθ)
Q 21). Pour tout (r, θ) ∈ R∗ × R, montrer que les séries k! et k! convergent et calculer leur somme.
k∈N k∈N

L’espace vectoriel Mn est désormais muni de la norme k · k∞ définie par :

∀A = (Ai,j )1⩽i,j⩽n ∈ M, kAk∞ = max |Ai,j |.


n 1⩽i,j⩽n
Le 16/03/2024 DS 08 4

Q 22). Montrer que, pour tout (A, B) ∈ M2n , kABk∞ ⩽ nkAk∞ kBk∞ .

P
p
Pour A ∈ Mn et p ∈ N, on pose Sp (A) = 1 k
k! A .
k=0

Q 23). Montrer que la suite (Sp (A))p∈N converge dans Mn , vers une limite que l’on notera Exp(A), et que :

∀Q ∈ O, Exp(Q⊤ AQ) = Q⊤ Exp(A)Q.


n

P (Ak )i,j
On pourra montrer que, pour tous 1 ⩽ i, j ⩽ n, la série numérique k! est absolument convergente.
k∈N

Q 24). Montrer que l’ensemble En constitué des matrices normales de Mn est un fermé de Mn . Qu’en déduit-on pour Exp(A),
lorsque A ∈ En ?

Q 25). Soit (r, θ) ∈ R × R. Montrer que exp(rR(θ)) = er cos θ R(r sin θ).
En déduire que Exp(En ) est l’ensemble des matrices de Mn orthogonalement semblables aux matrices diagonales par blocs,
dont chaque bloc diagonal est :
• soit du type (µ) ∈ M1 , avec µ > 0,
• soit du type αR(β) ∈ M2 , avec α > 0 et β ∈ R.

On note Sn++ l’ensemble des matrices symétriques de Mn à valeurs propres strictement positives, et Fn l’ensemble des matrices
B de Mn vérifiant les conditions :

• les valeurs propres négatives de B sont de multiplicité paire,


• il existe S ∈ Sn++ et T ∈ SOn telles que B = ST = T S.

Q 26). Démontrer que Exp(En ) = Fn .

Q 27). La matrice B = (Bi,j ) ∈ Mn définie par :


(
1 si 1 ⩽ i + 1 = j ⩽ n ou (i, j) = (n, 1)
Bi,j =
0 sinon

est-elle l’exponentielle d’une matrice de En ?


MP 2023-2024 Correction ds08 1

Solution 1 (Énoncé)
d’après CCINP, 2014, MP, Math 1, exercice 1
a(x) ′ b(x)
Q 1). Sur l’intervalle I = ]0, +∞[ l’équation (E) se réécrit sous forme résolue y ′′ + y + 2 y = 0.
x2 x
a(x) b(x)
Les fonctions x 7→ et x 7→ 2 sont continues sur I et l’équation est linéaire homogène d’ordre 2.
x2 x
Donc par théorème, S + est un R-espace vectoriel de dimension 2. De même, S − est un R-espace vectoriel de dimension 2.
Q 2). Soit f ∈ Ker (φ). Alors f est nulle sur les intervalles I et J donc sur R∗ .
Par continuité de f en 0, f (0) = 0.
Donc f = 0 ce qui montre que Ker (φ) = {0}.
φ étant une application linéaire injective, elle définit un isomorphisme de S sur Im (φ).
Or Im (φ) est un sous-espace vectoriel de S1 × S2 qui est un espace vectoriel de dimension 2 + 2 = 4.
Donc Im (φ) est un espace vectoriel de dimension finie et dim(Im (φ)) ≤ 4.
Etant isomorphe à Im (φ), S est aussi de même dimension finie ce qui donne dim(S) ≤ 4.
Q 3).
Soit I0 ∈ {I, J} (l’un des deux intervalles)  ′
′′ 1 ′ z + (1/x) × z = 0
Sur I0 , l’équation est équivalente à y + y = 0 soit au système
x y′ = z
La première équation  du système, linéaire,
 homogène, d’ordre 1 a immédiatement pour ensemble solution sur l’intervalle I0
K
la droite vectorielle x 7→ , K ∈ R .
x
K
Ainsi, y est solution de (E) si et seulement si il existe K ∈ R, y ′ = soit si et seulement si il existe (K, L) ∈ R2 tel que
x
y = K ln(|x|) + L.
Conclusion : sur l’intervalle I ou l’intervalle J, l’ensemble solution est Vect (x 7→ 1, x 7→ ln(|x|))

∀x ∈ R∗+ , f (x) = k1 ln(x) + k2
Soit f ∈ S. Alors il existe (k1 , k2 , k3 , k4 ) ∈ R tel que
4
∀x ∈ R∗− , f (x) = k3 ln(|x|) + k4
f étant continue en 0 donc bornée au voisinage de 0, on obtient k1 = k3 = 0.
La continuité à gauche et à droite en 0 impose alors k2 = f (0) = k4 .
Donc f est une fonction constante.
Réciproquement, il est immédiat de vérifier que les fonctions constantes sont éléments de S.
Conclusion : S = Vect (x 7→ 1) et dim(S) = 1.
Q 4).
• Soit I0 ∈ {I, J} (l’un des deux intervalles)
Notons fα la fonction définie sur I0 par fα (x) = xα .
Alors fα est solution de (E) sur I0 si et seulement si

∀x ∈ I0 , x2 α(α − 1)xα−2 − 6xαxα−1 + 12xα = 0

i. e. si et seulement si
∀x ∈ I0 , xα × (α2 − 7α + 12) = 0
4 et 3 sont solutions de l’équation α2 − 7α + 12 donc les fonctions x 7→ x3 et x 7→ x4 sont solutions de (E) sur I0 .
• Les fonctions x 7→ x3 et x 7→ x4 sont éléments de S + . La famille (x 7→ x3 , x 7→ x4 ) est une famille libre à 2 éléments
(vérification immédiate) d’éléments de S + et S + est de dimension 2.
Donc c’est une base de S + et S + = Vect (x 7→ x3 , x 7→ x4 ).
• De même x 7→ x3 et x 7→ x4 définissent deux fonctions solutions de (E) sur J. Elles forment également une famille
libre à 2 éléments et dim(S − ) = 2.
Donc S − = Vect (x 7→ x3 , x 7→ x4 ).
  
k1 x3 + k2 x4 si x ≥ 0
• Montrons que S = S ′ avec S ′ = x 7→ , (k 1 , .., k 4 ) ∈ R 4
.
k3 x3 + k4 x4 si x < 0
∗ Soit f ∈ S. D’après les points précédents on sait que f restreint à I et J est de la forme voulue. Pour vérifier que
f appartient à l’ensemble S ′ , il suffit de vérifier que f (0) = 0.
On sait qu’il existe k1 , k2 dans R tels que pour x > 0, f (x) = k1 x3 + k2 x4 . La continuité de f en 0 donc à droite en
0 donne immédiatement f (0) = limx→0 k1 x3 + k2 x4 = 0.
∗ Soit f dans S ′ .
MP 2023-2024 Correction ds08 2


k1 x3 + k2 x4 si x ≥ 0
Alors il existe k1 , .., k4 dans R tels que x 7→
k3 x3 + k4 x4 si x < 0
On vérifie que f est de classe C 2 sur R :
Soit α > 0. Au voisinage de α, f coïncide avec la fonction x 7→ k1 x3 + k2 x4 . Donc f est deux fois dérivable en α,
f ′ (α) = 3k1 α2 + 4k2 α3 et f ′′ (α) = 6k1 α + 12k2 α2 .
De même, pour α < 0, f coïncide au voisinage de α avec x 7→ k3 x3 + k4 x4 donc f est deux fois dérivable en α et
f ′ (α) = 3k3 α2 + 4k4 α3 , f ′′ (α) = 6k3 α + 12k4 α2 .
Ainsi, f est deux fois dérivable sur R∗ et sa dérivée seconde f ′′ est continue en tout point de R∗ .
Donc f est de classe C 2 sur R∗ .
De plus, f est continue à droite et à gauche en 0 donc continue en 0 ainsi qu’en tout point de R∗ .
Donc f est continue sur R, de classe C 2 sur R∗ .
Il reste à vérifier que f ′ (x), puis f ′′ (x), admet une même limite finie en 0 à droite et à gauche pour assurer, d’après
le théorème de limite de la dérivée, que f est de classe C 2 sur R.
D’après les expressions précédemment évoquées pour f ′′ et f ′ , ces limites existent et valent 0.
Conclusion : f est de classe C 2 sur R.
On vérifie que f est bien solution de (E) sur R en considérant pour x ∈ R∗+ , x ∈ R∗− et x = 0 ; donc que f ∈ S.
• Conclusion : on a bien l’égalité souhaitée et S est de dimension 4.
Q 5).
• Considérons l’équation (E) : x2 y ′′ + 4xy ′ + 2y = 0.
1 1
On vérifie facilement que x 7→ et x 7→ 2 sont deux solutions de (E) sur I et sur J.
x x
Cette famille de fonctions est libre. Donc comme précédemment, S + et S − sont engendrés par ces deux fonctions.
• Soit f ∈ S une solution de (E) sur R.
k1 k2 k3 k4
Alors il existe k1 , k2 , k3 , k4 ∈ R tel que pour x > 0, f (x) =
+ 2 et pour x < 0, f (x) = + 2.
x x x x
Alors pour x > 0, x2 f (x) − k1 x = k2 donc la continuité de f en 0 à droite donne par passage à la limite en 0+ :
0 = k2 .
k1
D’où pour x > 0, f (x) = et donc pour x > 0, x × f (x) = k1 ce qui, par passage à la limite en 0, donne 0 = k1 .
x
De même, la continuité de f à gauche en 0 donne k3 = k4 = 0.
Donc f = 0 ce qui démontre que S = {0}.

Solution 2 (Énoncé) CCP MP Maths 2 2014 problème


Questions préliminaires
Q 6).
(a) Soit s ∈ S(E). Selon le théorème spectral, il existe une base orthonormée de E constituée de vecteurs propres de s :
s est orthodiagonalisable.
Traduction matricielle : si S ∈ Sn (R), il existe une matrice P orthogonale et une matrice D diagonale telles que
S = P DP −1 = P DP⊤ .
(b) χS (X) = X 2 − Tr(S)X + det(S) = X 2 , donc Sp(S) = {0} et si S était diagonalisable, elle serait semblable à la
matrice nulle, donc elle serait nulle, ce qui est faux.
Ainsi S est symétrique à coefficients complexes sans être diagonalisable.
Q 7).

X
n X
n X
n
(a) Notons x = xi ϵi . Alors s(x) = λi xi ϵi . Or la base β est orthonormée, donc Rs (x) = λi x2i .
i=1 i=1 i=1
X
n
(b) Supposons que x ∈ S(0, 1). Alors 1 = kxk2 = x2i .
i=1
X
n X
n X
n X
n
Ainsi, Rs (x) = λi x2i ≤ λn x2i = λn et Rs (x) = λi x2i ≥ λ1 x2i = λ1 .
i=1 i=1 i=1 i=1
On a bien montré que, pour tout x ∈ S(0, 1), Rs (x) ∈ [λ1 , λn ]

Q 8).
MP 2023-2024 Correction ds08 3

(a) Supposons que s est symétrique positif.


Soit λ une valeur propre de s. Il existe un vecteur propre x : x est non nul et s(x) = λx.
Ainsi 0 ≤ hs(x)|xi = λkxk2 et kxk > 0, donc λ ≥ 0.
Si maintenant s est symétrique défini positif, on a 0 < λkxk2 donc λ > 0.
(b) si,j est la i-ème coordonnée dans la base B du vecteur s(ej ), or B est orthonormée, car on utilise le produit scalaire
canonique de Rn , donc si,j = hei |s(ej )i.
En particulier, si,i = hei |s(ei )i, or ei est un vecteur unitaire, donc d’après la question Q 7)b,
si,i = Rs (ei ) ∈ [λ1 , λn ].

Un maximum sur On (R)


Q 9). Les coefficients de M⊤ M − In sont des fonctions polynomiales des coefficients de M , donc d’après le cours, l’application
M 7→ M⊤ M − In est continue.
X
n
Q 10). D’après le cours, les colonnes de A forment une base orthonormée de Rn , donc pour tout j ∈ {1, · · · , n}, a2i,j = 1, ce
i=1
qui implique : pour tout i ∈ {1, · · · , n}, |ai,j | ≤ 1.
Q 11). Si, pour tout M = (mi,j ) ∈ Mn (R), on pose kM k∞ = max |mi,j |, on définit ainsi d’après le cours une norme
(i,j)∈{1,...,n}2
sur Mn (R), pour laquelle On (R) est bornée d’après la question précédente. En dimension finie, toutes les normes sont
équivalentes, donc On (R) est encore bornée quelque soit la norme utilisée sur Mn (R).
De plus, si l’on note f l’application M 7→ M⊤ M − In de la question Q 9), alors On (R) = f −1 ({0n,n }), or le singleton
{0n,n } est un fermé et f est continue, donc On (R) est un fermé borné de Mn (R), or Mn (R) est de dimension finie, donc
On (R) est une partie compacte de Mn (R).
Q 12). (a) D’après la question Q 6)a, il existe une matrice P orthogonale telle que S = P ∆P −1 = P ∆P⊤ .
Ainsi, T (A) = Tr([AP ∆]P −1 ) = Tr(P −1 [AP ∆]) = Tr(B∆) en posant B = P −1 AP .
A et P sont toutes deux orthogonales et On (R) est un groupe multiplicatif, donc B est orthogonale.
(b) On vérifie que, pour tout (C, D) ∈ Mn (R)2 et pour tout α ∈ R,
Tr((αC + D)S) = αTr(CS) + Tr(DS), donc l’application C 7→ Tr(CS) est linéaire de Mn (R) dans R, or Mn (R)
est de dimension finie, donc c’est une application continue. Sa restriction T sur On (R) est donc aussi continue. Or
On (R) est compact, donc T admet un maximum sur On (R).
(c) Avec les notations de la question Q 12)a, T (A) = Tr(B∆), donc en convenant de noter Mi,j
Xn Xn X n
le (i, j)-ème coefficient d’une matrice M , T (A) = (B∆)i,i = Bi,j ∆j,i , or ∆ est diagonale, donc T (A) =
i=1 i=1 j=1
X
n
λi Bi,i .
i=1
X
n
D’après la question Q 10), et les λi étant positifs, T (A) ≤ λi = Tr(S).
i=1
Ainsi t ≤ Tr(S), mais de plus Tr(S) = T (In ) et In est une matrice orthogonale, donc t = Tr(S).
Inégalité d’Hadamard
Q 13). L’inégalité demandée est une conséquence de l’inégalité aritmético-géométrique, car on sait
Yn Xn
que det(S) = λi et Tr(S) = λi .
i=1 i=1

Q 14). On identifiera Mn,1 (R) avec R . n


Soit X ∈ Rn . X⊤ Sα X = (DX) S(DX) ≥ 0 car DX ∈ Rn et car S est symétrique positive. Ceci montre que Sα ∈ Sn+ (R).
X
n X
n X X
n
Tr(Sα ) = (D⊤ SD)i,i = [D⊤ ]i,j Sj,k Dk,i , mais D est diagonale, donc Tr(Sα ) = αi2 si,i .
i=1 i=1 (j,k)∈{1,...,n}2 i=1

Q 15). On peut appliquer l’inégalité (∗) à la matrice Sα car elle est bien dans Sn+ (R),
!2
Yn
1 1X 1
n
2
or det(Sα ) = det(D) det(S) = αi,i det(S) et Tr(Sα ) = si,i = 1,
i=1
n n i=1 si,i
!2
Yn
1 Yn
donc det(S) ≤ = si,i .
α
i=1 i,i i=1
MP 2023-2024 Correction ds08 4

Q 16). Pour tout X ∈ Rn , X⊤ Sε X = X⊤ SX + εkXk2 ≥ 0, donc Sε ∈ Sn+ (R). De plus d’après la question Q 8)b, pour tout
i ∈ {1, . . . , n}, 0 ≤ λ1 ≤ si,i , donc si,i + ε > 0, ce qui permet d’appliquer l’inégalité de la question précédente à Sε : pour
Yn
tout ε > 0, det(Sε ) ≤ (si,i + ε).
i=1
De plus il existe P ∈ On (R) telle que S = P ∆P −1 , où ∆ = diag(λ1 , . . . , λn ), donc Sε = P (∆ + εIn )P −1 , ce qui prouve
Yn Y
n Y
n
que det(Sε ) = (λi + ε). Ainsi, pour tout ε > 0, (λi + ε) ≤ (si,i + ε) et on conclut en faisant tendre ε vers 0.
i=1 i=1 i=1

Application de l’inégalité d’Hadamard : détermination d’un minimum



Q 17). Soit X ∈ Rn \ {0}. X⊤ BX = (ΩX) A(ΩX) > 0, car A ∈ Sn++ (R) et ΩX ∈ Rn \ {0} (Ω est orthogonale, donc elle est
inversible). Ainsi B ∈ Sn++ (R).
De plus Ω est orthogonale, donc d’après le cours, |det(Ω)| = 1. Or, det(A) = 1,
donc det(B) = det(Ω)2 det(A) = 1 : on a prouvé que B ∈ U .
Tr(AS) = Tr([AΩ∆]Ω⊤ ) = Tr(Ω⊤ [AΩ∆]) = Tr(B∆).
Q 18). D’après la question précédente, {Tr(AS) \ A ∈ U } ⊂ {Tr(B∆) \ B ∈ U }.
Réciproquement, soit B ∈ U . On pose A = ΩBΩ⊤ . En adaptant la démonstration de la question précédente, on montre
que A ∈ U et que Tr(AS) = Tr(B∆), donc {Tr(AS) | A ∈ U } = {Tr(B∆) | B ∈ U }.
X
n
Prenons x ∈ {Tr(B∆) | B ∈ U}. Il existe B ∈ U telle que x = Tr(B∆) = λi Bi,i . Mais B ∈ Sn++ (R), donc d’après Q
i=1
8)b, pour tout i ∈ {1, . . . , n}, Bi,i > 0 et λi,i > 0. Ainsi x > 0. Ceci prouve que {Tr(B∆) | B ∈ U} est une partie non
vide de R minorée par 0. Elle possède donc une borne inférieure.
Q 19). Par application de l’inégalité arithmético-géométrique,
!1/n
1X Y
n n
1
on obtient Tr(B∆) = λi bi,i ≥ λi bi,i , ce qui fournit l’inégalité demandée.
n n i=1 i=1
!1/n
Y
n Y
n
Q 20). Soit B = (bi,j ) ∈ U . D’après la question Q 16), bi,i ≥ det(B) = 1, donc bi,i ≥ 1.
i=1 i=1
!1/n
Y
n
Ainsi, d’après la question précédente, Tr(B∆) ≥ n λi = n(det(S))1/n .
i=1

Q 21). Ainsi n(det(S)) est un minorant de {Tr(B∆) \ B ∈ U}, or la borne inférieure est le plus grand des minorants, donc
1/n

m ≥ n(det(S))1/n .
 
x1
  Xn
Pour tout X =  ...  ∈ Rn \ {0}, X⊤ DX = µi x2i > 0, donc D ∈ Sn++ (R).
xn i=1

Y
n
det(S) X n
De plus det(D) = µi = = 1, donc D ∈ U . Or Tr(D∆) = µi λi = n(det(S))1/n , donc m = n(det(S))1/n .
i=1
λ1 · · · λn i=1
MP 2023-2024 Correction ds08 1

Solution 3 (Énoncé) d’après X-Cachan, PSI, 2018, partie I


Q 1). Le problème (1bis) est un problème de Cauchy pour une équation différentielle linéaire d’ordre 2 à coefficients continus et
le coefficient devant la dérivée seconde ne s’annule pas. Sur l’intervalle [0, 1], le théorème de Cauchy linéaire indique qu’il y
a une unique solution vλ . Comme vλ′′ = cvλ − f est continue, cette solution est de classe C 2 sur [0, 1].

(1bis) admet une unique solution

Q 2). Notons w2 = v0 , c’est à dire que w2 est l’unique fonction de classe C 2 sur [0, 1] telle que

∀x ∈ [0, 1], −w2′′ (x) + c(x)w2 (x) = f (x) et w2 (0) = 0, w2′ (0) = 0

Posons w = λw1 + w2 . On a immédiatement w(0) = 0 et w′ (0) = λ. De plus, w ∈ C 2 ([0, 1]) et

∀x ∈ [0, 1], w′′ (x) = λw1′′ (x) + w2′′ (x) = λc(x)w1 (x) + c(x)w2 (x) − f (x) = c(x)w(x) − f (x)

On en déduit que vλ = λw1 + w2 .

Q 3). Posons h = w12 . On a h′ = 2w1 w1′ et h′′ = 2(w1′ )2 + 2w1 w1′′ = 2(w1′ )2 + 2cw12 ≥ 0. h′ est donc croissante. Comme elle est
nulle en 0, elle est positive. h est donc croissante. Si, par l’absurde, h était nulle en 1, on aurait h nulle sur [0, 1]. w1 serait
aussi nulle sur [0, 1] et ceci contredit w1′ (0) = 1. Ainsi,

w1 (1) 6= 0

w2 (1)
Q 4). On peut alors poser λ = − w 1 (1)
et on a vλ (1) = 0 par choix de λ. vλ est ainsi solution de (1).
Soit u une solution de (1). u est l’unique solution du problème de Cauchy (1bis) avec λ = u′ (0). On a donc u = vu′ (0) =
u′ (0)w1 + w2 . Ainsi, 0 = u(1) = u′ (0)w1 (1) + w2 (1) et u′ (0) = − w 2 (1)
w1 (1) . u est donc égale à la solution vλ exhibée.

(1) possède une unique solution

Q 5). Supposons, par l’absurde, que u prenne des valeurs strictement 0. u étant continue sur le segment [0, 1] admet un minimum
m. Avec notre hypothèse, m < 0. L’ensemble {t ∈ [0, 1]/ u(t) = m} admet une borne inférieure que l’on note α. Par
continuité de u, on a u(α) = m et α ∈]0, 1[ (puisque u(0) = u(1) = 0). Ainsi, u′ (α) = 0 (minimum atteint sur l’ouvert
]0, 1[).
Sur un voisinage ]α − r, α + r[ de α, la fonction u est négative (par continuité) et donc u′′ = cu − f est aussi négative sur
ce voisinage. En particulier, u′ est décroissante sur ce voisinage. Comme u′ (α) = 0, u′ est positive sur ]α − r, α] et u est
croissante sur cet intervalle. Comme u est minimale en α, u est en fait constante sur ]α − r, α]. Ceci contredit la définition
de α.

Si f ≥ 0, l’unique solution de (1) est positive

Solution 4 (Énoncé) Mines-Ponts PSI 2020 Mathématiques 2

Question préliminaire
Q 6). Il s’agit de démontrer que la relation ORTS, définie par :

∀A, B ∈ Mn , A est ORTS à B ⇐⇒ ∃Q ∈ On , B = Q⊤ AQ,

est réflexive, symétrique et transitive.


• Réflexivité : Pour tout A ∈ Mn , A est ORTS à A, car In ∈ On et A = I⊤
n AIn .
• Symétrie : Pour tout A, B ∈ Mn , A est ORTS à B =⇒ B est ORTS à A, car si Q ∈ On est tel que B = Q⊤ AQ,

alors Q⊤ = Q−1 ∈ On et A = QBQ⊤ = (Q⊤ ) BQ⊤ .
• Transitivité : Pour tout A, B, C ∈ Mn , A est ORTS à B et B est ORTS à C =⇒ A est ORTS à C, car si Q, Q′ ∈ On
⊤ ⊤ ⊤
sont tels que B = Q⊤ AQ et C = Q′ BQ′ , alors QQ′ ∈ On et C = Q′ Q⊤ AQQ′ = (QQ′ ) A(QQ′ ).
Donc la relation ORTS est bien une relation d’équivalence sur Mn .
MP 2023-2024 Correction ds08 2

Exemples
Q 7). (a) Soit S ∈ Sn . On a S⊤ = S, donc :
(C1 ) S⊤ = S = P (S) où P est le monôme P (X) = X.
(C2 ) S est normale puisqu’elle commute avec S⊤ = S.
(C3 ) Pour tout X ∈ En , kS⊤ Xk = kSXk de façon évidente.
(C4 ) D’après le théorème spectral, S est ORTS à une matrice diagonale, donc diagonale par blocs avec des blocs
diagonaux tous de taille (1, 1), donc S vérifie (C4 ).
(b) Soit A ∈ An . On a A⊤ = −A, donc :
(C1 ) A⊤ = −A = P (A) où P est le monôme P (X) = −X.
(C2 ) A est normale puisqu’elle commute avec A⊤ = −A.
(C3 ) Pour tout X ∈ En , kA⊤ Xk = k − AXk = kAXk par homogénéité de la norme.
Q 8). Soit Q ∈ On . On a Q⊤ = Q−1 ∈ On , donc :
(C2 ) Q est normale puisqu’elle commute avec Q⊤ = Q−1 .
(C3 ) Pour tout X ∈ En , kQ⊤ Xk = kXk = kQXk puisque les endomorphismes de En canoniquement associés à Q et
Q⊤ = Q−1 sont des isométries.

Rq. Cela se retrouve par le calcul kQXk2 = (QX) QX = X⊤ Q⊤ QX = X⊤ X = kXk2 .
Q 9). La matrice T ∈ O2 est de type R(θ) ou S(θ), où θ ∈ R (voir les rappels de cours en préambule).
(a) Cas T = S(θ).
Dans ce cas, la matrice M = rT est symétrique réelle, donc d’après la question Q 7), elle vérifie les conditions (C1 )
à (C4 ).
(b) Cas T = R(θ).
Dans ce cas, la matrice M = rT = rR(θ) vérifie la condition (C4 ) de façon évidente (M est ORTS à elle-même), et
elle vérifie la condition (C1 ) puisque
   
⊤ cos θ sin θ cos θ − sin θ
M =r = 2r cos(θ)I2 − r ,
− sin θ cos θ sin θ cos θ

donc M⊤ = P (M ) où P (X) = 2r cos(θ) − X ∈ R[X].


Rq. On peut « deviner » ce polynôme en en cherchant un de degré 1, ou en se souvenant que pour toute matrice
inversible A de taille (2, 2), on a A−1 = det(A)
1
(tr(A)I2 − A), ce qui donne ici T⊤ = T −1 = 2 cos(θ)I2 − T , ou en
regardant la question Q 19)

Deux premières implications


Q 10). Si A vérifie (C1 ), alors A vérifie (C2 ) puisque la matrice A commute avec tout polynôme en A.
Q 11). Supposons que A vérifie (C2 ), i.e. que AA⊤ = A⊤ A. Alors pour tout X ∈ En :
⊤ (C2 ) ⊤
kA⊤ Xk2 = (A⊤ X) A⊤ X = X⊤ AA⊤ X = X⊤ A⊤ AX = (AX) AX = kAXk2 .

Donc ∀X ∈ En , kA⊤ Xk = kAXk (puisque les normes sont positives), i.e. A vérifie (C3 ).

La condition (C3 ) implique la condition (C4 )


 
a c
Q 12). On suppose que A = ∈ M2 vérifie la condition (C3 ), i.e. que ∀X ∈ E2 , kA⊤ Xk = kAXk.
b d
(a) Montrons qu’on a nécessairement b = c ou (b = −c 6= 0 et a = d).
 
1 √ √
• Pour X = , on a kAXk = a2 + b2 = kA⊤ Xk = a2 + c2 , donc b2 = c2 , i.e. b = ±c.
0
Si b = c, alors on a le résultat voulu.  
1
• Sinon, alors b = −c 6= 0 et pour X = , on a alors :
1

kA⊤ Xk2 = (a + b)2 + (d − b)2 = kAXk2 = (a − b)2 + (b + d)2

i.e. après simplification (a − d)b = (d − a)b, et donc a = d puisque b 6= 0.


MP 2023-2024 Correction ds08 3

On a donc bien nécessairement b = c ou (b = −c 6= 0 et a = d).


(b) • Si b = c, alors A est symétrique réelle donc A vérifie (C4 ) d’après la question Q 7).
• Si b = −c 6= 0 et a = d, alors
   
a −b r cos θ −r sin θ
A= = rR(θ) =
b a r sin θ r cos θ

où r ∈ R∗+ et θ ∈ R sont tels que a = r cos θ et b = r sin θ, i.e. où r et θ sont respectivement le module et un
argument du complexe a + ib (on a bien r > 0 car b 6= 0).
Donc dans ce cas, A vérifie (C4 ) de façon évidente (A est ORTS à elle-même).
Dans tous les cas, la matrice A vérifie donc bien la condition (C4 ).
Q 13). Rq. Les deux méthodes ci-dessous présentent les mêmes calculs sous deux formes différentes.
Méthode 1.
Les identités remarquables ku ± vk2 = kuk2 + kvk2 ± 2(u|v) donnent, pour tout X ∈ En :

• k(A − λIn )Xk2 = kAX − λXk2 = kAXk2 + λ2 kXk2 − 2λ(AX|X), et



• k(A − λIn ) Xk2 = k(A⊤ − λIn )Xk2 = kA⊤ X − λXk2 = kA⊤ Xk2 + λ2 kXk2 − 2λ(A⊤ X|X).

Or (AX|X) = (AX) X = X⊤ A⊤ X = (X|A⊤ X) = (A⊤ X|X), et on suppose que A vérifie (C3 ), donc kAXk2 =

kA⊤ Xk2 . Ainsi ∀X ∈ En , k(A − λIn )Xk = k(A − λIn ) Xk (car les normes sont positives), i.e. A − λIn vérifie (C3 ).
Méthode 2.
En revenant à la définition de la norme associée au produit scalaire, on a, pour tout X ∈ En :

• k(A − λIn )Xk2 = X⊤ (A⊤ − λIn )(A − λIn )X = X⊤ (A⊤ A − λA − λA⊤ + λ2 In )X .


= X⊤ A⊤ AX − λX⊤ AX − λX⊤ A⊤ X + λ2 X⊤ X

• k(A − λIn ) Xk2 = X⊤ (A − λIn )(A⊤ − λIn )X = X⊤ (AA⊤ − λA − λA⊤ + λ2 In )X .
= X⊤ AA⊤ X − λX⊤ AX − λX⊤ A⊤ X + λ2 X⊤ X

⊤ ⊤
Or A vérifie (C3 ) donc X⊤ A⊤ AX = (AX) AX = kAXk2 = kA⊤ Xk2 = (A⊤ X) A⊤ X = X⊤ AA⊤ X. Ainsi ∀X ∈ En ,

k(A − λIn )Xk = k(A − λIn ) Xk (car les normes sont positives), i.e. A − λIn vérifie (C3 ).
Q 14). (a) Vu la question précédente (et la séparation de la norme), pour tout X ∈ En et tout λ ∈ R :

(A − λIn )X = 0En ⇐⇒ k(A − λIn )Xk = 0



⇐⇒ k(A − λIn ) Xk = 0

⇐⇒ (A − λIn ) X = (A⊤ − λIn )X = 0En .

Ainsi pour tout λ ∈ R, Ker(A − λIn ) = Ker(A⊤ − λIn ), et donc les matrices A et A⊤ ont les mêmes sous-espaces
propres.
(b) Soient λ 6= µ dans R et soient X ∈ Ker(A − λIn ) et Y ∈ Ker(A − µIn ) = Ker(A⊤ − µIn ). Alors AX = λX et
A⊤ Y = µY , donc :

λ(X|Y ) = (AX|Y ) = (AX) Y = X⊤ A⊤ Y = (X|A⊤ Y ) = µ(X|Y )
6 µ.
et donc (X|Y ) = 0 puisque λ =
Les sous-espaces propres de A sont donc bien deux à deux orthogonaux.
Q 15). Montrons que A, qui vérifie (C3 ), est diagonalisable si et seulement si elle est symétrique.
• Si A est symétrique, alors A est diagonalisable d’après le théorème spectral.
• Supposons A diagonalisable. Alors ses sous-espaces propres sont supplémentaires dans En (caractérisation de la dia-
gonalisabilité), et d’après la question Q 14), ils sont deux à deux orthogonaux.
En concaténant des bases orthonormales des sous-espaces propres de A, on obtient donc une base orthonormale de
diagonalisation de A, donc la matrice de passage P de la base canonique à cette base de diagonalisation est orthogonale
et telle que D = P −1 AP = P⊤ AP est diagonale.

Ainsi A = P DP⊤ est symétrique puisque A⊤ = (P DP⊤ ) = P D⊤ P⊤ = P DP⊤ = A.
Q 16). (a) Montrons comme indiqué que toute matrice orthogonalement semblable à A vérifie (C3 ).
Soient Q ∈ On et B = Q⊤ AQ. Alors pour tout X ∈ En , sachant que QQ⊤ = Q⊤ Q = In :
MP 2023-2024 Correction ds08 4


• kBXk2 = (BX) BX = X⊤ B⊤ BX = X⊤ Q⊤ A⊤ QQ⊤ AQX = X⊤ Q⊤ A⊤ AQX = kAQXk2

• kB⊤ Xk2 = (B⊤ X) B⊤ X = X⊤ BB⊤ X = X⊤ Q⊤ AQQ⊤ A⊤ QX = X⊤ Q⊤ AA⊤ QX = kA⊤ QXk2
Or A vérifie (C3 ) et QX ∈ En , donc kAQXk = kA⊤ QXk. Ainsi ∀X ∈ En , kBXk = kB⊤ Xk (car les normes sont
positives), i.e. B vérifie (C3 ).
 
A1 0
(b) Montrons que A est ORTS à une matrice de type où A1 ∈ Mp et A2 ∈ Mn−p vérifient (C3 ), avec
0 A2
p ∈ {1, 2}.
• D’après le théorème 1 du préambule, l’endomorphisme f de Rn canoniquement associé à A admet une droite ou
un plan stable. Notons F ce sous-espace stable, p ∈ {1, 2} sa dimension, et Q la matrice de passage de la base
canonique de Rn à une base orthonormale de Rn adaptée à F (i.e. commençant par une base orthonormale de
F ).
Alors Q est orthogonale (comme matrice de passage entre deux bases orthonormales) et la matrice B = Q−1 AQ =
Q⊤ AQ est la matrice de f dans une base adaptée au sous-espace stable F , donc est triangulaire supérieure par
blocs, de type  
⊤ A1 A3
B = Q AQ =
0 A2
où A1 ∈ Mp , A2 ∈ Mn−p et où A3 est une matrice réelle de taille (p, n − p).
• Montrons que A3 = 0.
D’après l’indication montrée en (a), la matrice B vérifie la condition (C3 ), donc ∀X ∈ En , kBXk2 = kB⊤ Xk2 ,
i.e. en explicitant ces calculs de normes comme en (a) :

(⋆) : ∀X ∈ En , X⊤ B⊤ BX = X⊤ BB⊤ X.

Or pour toute matrice M ∈ Mn et tout i ∈ J1; nK, en notant ei le i-ème élément de la base canonique de En
(i.e. la colonne dont tous les coefficients sont nuls sauf le i-ème qui vaut 1), le calcul e⊤
i M ei donne le i-ème
coefficient diagonal (M )i,i de M .
Vu (⋆), les matrices B⊤ B et BB⊤ ont donc les mêmes coefficients diagonaux. Or un calcul par blocs donne
 ⊤   
⊤ A1 A1 A⊤
1 A3 ⊤ A1 A⊤
1 + A3 A3

A3 A⊤2
B B= ⊤ et BB =
A3 A1 A⊤ ⊤
3 A3 + A2 A2 A2 A⊤3 A2 A⊤2

donc les égalités des coefficients diagonaux de B⊤ B et BB⊤ donnent en particulier, pour tout i ∈ J1; pK,
(A⊤ ⊤ ⊤
1 A1 )i,i = (A1 A1 )i,i + (A3 A3 )i,i et donc en sommant ces égalités :

tr(A⊤ ⊤ ⊤
1 A1 ) = tr(A1 A1 ) + tr(A3 A3 ).

Or par propriété usuelle de la trace, on a tr(A⊤ ⊤


1 A1 ) = tr(A1 A1 ), et donc :

tr(A3 A⊤ ⊤
3 ) = tr(A3 A3 ) = kA3 k = 0
2

où l’on a encore noté k · k la norme associée au produit scalaire usuel (M, N ) 7→ tr(M⊤ N ) sur Mp,n−p (R). Ainsi
kA3 k = 0, et donc A3 = 0 (par séparation de la norme).  
A1 0
Ainsi A est orthogonalement semblable à la matrice B = .
0 A2
• Montre que A1 et A2 vérifient (C3 ).  
X1
En calculant par blocs les produits de l’égalité (⋆) ci-dessus, avec X = où X1 ∈ Ep et X2 ∈ En−p , on
X2
obtient :

∀(X1 , X2 ) ∈ Ep × En−p , X⊤ ⊤ ⊤ ⊤ ⊤ ⊤ ⊤ ⊤
1 A1 A1 X 1 + X 2 A2 A2 X 2 = X 1 A1 A1 X 1 + X 2 A2 A2 X 2 .

En considérant successivement les cas où X2 = 0 puis X1 = 0, on obtient :


(
∀X1 ∈ Ep , X⊤ ⊤ ⊤ ⊤
1 A1 A1 X 1 = X 1 A1 A1 X 1 , i.e. kA1 X1 k2 = kA⊤
1 X1 k
2

∀X2 ∈ En−p , X⊤ ⊤ ⊤ ⊤
2 A2 A2 X 2 = X 2 A2 A2 X 2 i.e. kA2 X2 k2 = kA⊤
2 X2 k
2

où l’on a encore noté k · k les normes associées aux produits scalaires usuels sur Ep et En−p . Ainsi ∀X1 ∈ Ep ,
kA1 X1 k = kA⊤ ⊤
1 X1 k et ∀X2 ∈ En−p , kA2 X2 k = kA2 X2 k (car les normes sont positives), i.e. A1 et A2 vérifient
(C3 ).
Q 17). Montrons par récurrence sur n ∈ N∗ que pour tout A ∈ Mn , A vérifie (C3 ) =⇒ A vérifie (C4 ).
MP 2023-2024 Correction ds08 5

• Initialisation.
Le cas n = 1 est trivial puisque toute matrice de M1 vérifie (C3 ) et (C4 ).
Le cas n = 2 a été démontré en question Q 12).
• Hérédité.
Soit n ⩾ 3 tel que toute matrice carrée de taille inférieure ou égale à n − 1 vérifiant (C3 ) vérifie aussi (C4 ).
Soit A ∈ Mn vérifiant (C3 ).
 
A1 0
D’après la question Q 16), A est orthogonalement semblable à une matrice B = où A1 ∈ Mp et
0 A2
A2 ∈ Mn−p vérifient (C3 ), avec p ∈ {1, 2}. Par hypothèse de récurrence, les matrices A1 et A2 vérifient donc aussi
(C4 ), i.e. sont ORTS à des matrices B1 et B2 diagonales par blocs avec des blocs diagonaux de type (λ) ou rR(θ),
où r > 0 et λ, θ ∈ R.
Notons Q1 ∈ Op et Q2 ∈ On−p des matrices telles que B1 = Q⊤ ⊤
1 A1 Q1 et B2 = Q2 A2 Q2 . Alors un calcul par blocs
donne :    ⊤   
B1 0 Q1 0 A1 0 Q1 0
=
0 B2 0 Q⊤ 2 0 A2 0 Q2
 
Q1 0
et la matrice Q = est orthogonale puisque
0 Q2
 ⊤    ⊤   
Q1 0 Q1 0 Q1 Q1 0 Ip 0
Q⊤ Q = = = = In .
0 Q⊤ 2 0 Q2 0 Q⊤
2 Q2 0 In−p
 
B1 0
Ainsi par transitivité de la relation ORTS, A est ORTS à la matrice , qui est diagonale par blocs avec des
0 B2
blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R, puisque c’est le cas de B1 et B2 . Ainsi A vérifie (C4 ).
• Conclusion.
On en déduit par récurrence que ∀n ∈ N∗ , si A ∈ Mn vérifie (C3 ), alors A vérifie (C4 ).

La condition (C4 ) implique la condition (C1 )


Q 18). (a) Méthode 1.
L’application φ : Cn−1 [X] → Cn , P 7→ (P (z1 ), . . . , P (zn )), est clairement linéaire et injective (car le seul polynôme
de degré inférieur ou égal à n − 1 admettant n racines distinctes est le polynôme nul). Et comme les espaces Cn−1 [X]
et Cn sont de même dimension finie (à savoir n), l’application φ est un isomorphisme.
Ainsi le n-uplet (z1 , . . . , zn ) ∈ Cn a un unique antécédent par φ. Autrement dit, il existe un unique P ∈ Cn−1 [X] tel
que pour tout k ∈ J1; nK, P (zk ) = zk .
Méthode 2 (constructive, avec les polynômes de Lagrange).
Q
n
X−zj
Considérons, pour tout k ∈ J1; nK, le polynôme Lk défini par Lk (X) = zk −zj .
j=1
j̸=k
Par construction, Lk est de degré n − 1, admet les zj pour j 6= k comme racines, et vaut 1 en zk .
P
n
De plus si des scalaires λ1 , . . . , λn ∈ C sont tels que λk Lk = 0, alors en évaluant en zj , où j ∈ J1; nK, on trouve
k=1
λj = 0, donc la famille (L1 , . . . , Ln ) est libre, et est donc une base de Cn−1 [X] au vu de son cardinal.
Ainsi tout P ∈ Cn−1 [X] se décompose de façon unique comme combinaison linéaire
X
n
P = λk L k ,
k=1

où (λ1 , . . . , λn ) ∈ Cn , et l’on a alors, à nouveau en évaluant en zj , P (zj ) = λj , donc :


∀j ∈ J1; nK, P (zj ) = zj ⇐⇒ ∀j ∈ J1; nK, λj = zj .
D’où l’existence et l’unicité de P ∈ Cn−1 [X] tel que ∀j ∈ J1; nK, P (zj ) = zj : c’est l’unique polynôme de Cn−1 [X]
dont les coordonnées dans la base (L1 , . . . , Ln ) sont les scalaires z1 , . . . , zn .
(b) On suppose de plus que pour tout k ∈ J1; nK, zk ∈ Z, donc on a aussi P (zk ) = zk = zk .
Montrer que P ∈ R[X] revient à montrer que P = P , où P est le polynôme dont les coefficients sont les conjugués
de ceux de P . Et vu l’unicité montrée en (a), il suffit pour cela de montrer que pour tout k ∈ J1; nK, P (zk ) = zk .
Or il est clair que pour tout z ∈ C, P (z) = P (z), donc pour tout k ∈ J1; nK, P (zk ) = P (zk ) = zk .
On a donc bien P = P , i.e. P ∈ R[X].
MP 2023-2024 Correction ds08 6

Q 19). Notons χ(X) = X 2 −tr(rR(θ))X +det(rR(θ)) = X 2 −2r cos(θ)X +r2 = (X −reiθ )(X −re−iθ ) le polynôme caractéristique
de la matrice rR(θ), et
P (X) = χ(X)B(X) + aX + b
la division euclidienne de P par χ, où B ∈ R[X] et a, b ∈ R.
Puisque χ(reiθ ) = 0, on a P (reiθ ) = areiθ + b = re−iθ , i.e. en séparant les parties réelle et imaginaire :

ar cos(θ) + b = r cos(θ) et ar sin(θ) = −r sin(θ).

Et comme χ est annulateur de rR(θ) (par le théorème de Cayley-Hamilton ou par calcul direct), on obtient :
   
ar cos(θ) + b −ar sin(θ) r cos(θ) r sin(θ) ⊤
P (rR(θ)) = arR(θ) + bI2 = = = (rR(θ)) .
ar sin(θ) ar cos(θ) + b −r sin(θ) r cos(θ)

Rq. Si sin(θ) = 0, alors P (r cos(θ)) = r cos(θ), et rR(θ) = r cos(θ)I2 , donc de façon évidente, P (rR(θ)) = rR(θ) =

(rR(θ)) . Mais il n’est pas nécessaire de distinguer ce cas dans les calculs précédents.
Q 20). Soit A ∈ Mn vérifiant (C4 ), i.e. A est orthogonalement semblable à une matrice B ∈ Mn diagonale par blocs avec des
blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Soit Q ∈ On telle que B = Q⊤ AQ, i.e. telle que A = QBQ⊤ .
Notons (λ1 ), . . . , (λp ) les (éventuels) blocs diagonaux de B de taille (1, 1), et r1 R(θ1 ), . . . , rq R(θq ) les (éventuels) blocs
diagonaux de B de taille (2, 2), et posons :

Z = {λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq }.

Par construction, pour tout z ∈ Z, on a z ∈ Z, et donc d’après la question Q 18), appliquée en notant z1 , . . . , zn les
éléments deux à deux distincts de la liste λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq , il existe un polynôme réel P tel que
pour tout z ∈ Z, P (z) = z, i.e. tel que :

∀k ∈ J1; pK, P (λk ) = λk et ∀k ∈ J1; qK, P (rk eiθk ) = rk e−iθk .



D’après la question Q 19), on a alors ∀k ∈ J1; qK, P (rk R(θk )) = (rk R(θk )) , et donc par un calcul par blocs, P (B) = B⊤ .
On conclut alors avec le théorème 2 du préambule que :

P (A) = QP (B)Q⊤ = QB⊤ Q⊤ = (QBQ⊤ ) = A⊤ .

Donc A vérifie (C1 ).

Rq. On a ainsi montré par les questions Q 10), Q 11), Q 17) et Q 20) que les conditions (C1 ), (C2 ), (C3 ) et (C4 ) sont
équivalentes, donc le premier objectif du problème est atteint.

Exponentielle d’une matrice normale


r k cos(kθ) |r|k r k sin(kθ) |r|k P |r|k
Q 21). (a) Pour tout k ∈ N, k! ⩽ k! et k! ⩽ k! , et la série exponentielle k! converge, donc par
k∈N
P r k cos(kθ) P r k sin(kθ)
comparaison, les séries k! et k! convergent absolument, donc convergent.
k∈N k∈N

(b) Par linéarité de la somme des séries convergentes, puisque cos(kθ) + i sin(kθ) = eikθ :

X
+∞ k
r cos(kθ) X
+∞ k
r sin(kθ) X
+∞
(reiθ )k iθ
+i = = ere = er cos(θ) eir sin(θ)
k! k! k!
k=0 k=0 k=0

donc en séparant les parties réelle et imaginaire :

X
+∞ k
r cos(kθ) X
+∞ k
r sin(kθ)
r cos(θ)
=e cos(r sin θ) et = er cos(θ) sin(r sin θ).
k! k!
k=0 k=0

P
n
Q 22). Notons A = (ai,j ) et B = (bi,j ), de sorte que AB = (ci,j ) où ci,j = ai,k bk,j .
k=1
P
n P
n
Alors ∀(i, j) ∈ J1; nK2 , |ci,j | ⩽ |ai,k ||bk,j | ⩽ kAk∞ kBk∞ = nkAk∞ kBk∞ .
k=1 k=1
Donc kABk∞ ⩽ nkAk∞ kBk∞ .
MP 2023-2024 Correction ds08 7

Q 23). Comme suggéré par l’énoncé, on note (M )i,j le coefficient d’indices (i, j) d’une matrice M .
Rappels. On rappelle qu’une suite (Mp )p∈N d’éléments de Mn converge vers une matrice M dans Mn si et seulement si
pour tout (i, j) ∈ J1; nK2 , la suite de terme général (Mp )i,j converge vers Mi,j .
(a) Montrer que la suite (Sp (A))p∈N converge dans Mn revient à montrer que pour tout (i, j) ∈ J1; nK2 , la suite de terme
Pp
(Ak )i,j P (Ak )i,j
général (Sp (A))i,j = k! converge, i.e. que la série k! converge.
k=0 k∈N
Or par récurrence immédiate à partir de la question Q 22), on a ∀k ∈ N, kAk k∞ ⩽ (nkAk∞ )k , donc

(Ak )i,j kAk k∞ (nkAk∞ )k


∀k ∈ N, ⩽ ⩽ ,
k! k! k!
P (n∥A∥∞ )k P (Ak )i,j
et la série exponentielle k! converge, donc par comparaison, la série k! converge absolument, donc
k∈N k∈N
converge.
Ainsi la suite (Sp (A))p∈N converge bien dans Mn .
(b) Soit Q ∈ On . Par le théorème 2 du préambule, on a pour tout p ∈ N :

Sp (Q⊤ AQ) = Q⊤ Sp (A)Q.

Or par définition de l’exponentielle d’une matrice donnée en (a), on a Sp (Q⊤ AQ) −→ Exp(Q⊤ AQ).
p→+∞

Et vu la définition du produit matriciel (ou puisque l’application M 7→ Q M Q est continue car linéaire en dimension
finie, ou via la question Q 22)), on a Q⊤ Sp (A)Q −→ Q⊤ Exp(A)Q.
p→+∞
Donc par unicité de la limite :
Exp(Q⊤ AQ) = Q⊤ Exp(A)Q.
Q 24). (a) Par caractérisation séquentielle des fermés, montrer que En est fermé revient à montrer que pour toute suite (Ap )p∈N
d’éléments de En convergeant vers une matrice B ∈ Mn , on a B ∈ En .
Mais si Ap −→ B, alors de façon évidente, A⊤ ⊤
p −→ B (on peut aussi invoquer la continuité de la transposition,
p→+∞ p→+∞
qui est continue car linéaire en dimension finie), et donc vu la définition du produit matriciel (ou via la question Q
22)) :
Ap A⊤p −→ BB

et A⊤ p Ap −→ B B.

p→+∞ p→+∞

Ainsi si pour tout p ∈ N, Ap ∈ En , i.e. si Ap A⊤ ⊤ ⊤ ⊤


p = Ap Ap , alors en passant à la limite, BB = B B, i.e. B ∈ En .
On a donc montré par caractérisation séquentielle que En est une partie fermée de Mn .
(b) Si A ∈ En , i.e. si A et A⊤ commutent, alors tout polynôme en A commute avec tout polynôme en A⊤ , donc en

particulier, pour tout P ∈ R[X], P (A) et P (A⊤ ) = (P (A)) commutent, i.e. P (A) ∈ En .
Ainsi si A ∈ En , alors pour tout p ∈ N, Sp (A) ∈ En , et donc par (a), Exp(A) ∈ En .
Q 25). (a) On sait que pour tout k ∈ N, R(θ)k = R(kθ). Donc pour tout p ∈ N,
 p 
P rk cos(kθ) P
p
r k sin(kθ)
Xr
p k k=0 k! − k! 
Sp (rR(θ)) = R(kθ) = 
 Pp
k=0
P
p
.

k! k
r sin(kθ) r k cos(kθ)
k=0 k! k!
k=0 k=0

Ainsi vu la question Q 21) :


 
r cos(θ) cos(r sin θ) − sin(r sin θ)
Exp(rR(θ)) = lim Sp (rR(θ)) = e = er cos(θ) R(r sin θ).
p→+∞ sin(r sin θ) cos(r sin θ)

(b) Notons Gn l’ensemble des matrices de Mn qui sont ORTS à une matrice diagonale par blocs avec des blocs diagonaux
de type (µ) ou αR(β), où µ, α > 0 et β ∈ R.
On montre que Exp(En ) = Gn par double inclusion.
• Soit A ∈ En . Montrons que Exp(A) ∈ Gn .
Les conditions (C2 ) et (C4 ) étant équivalentes, A est ORTS à une matrice B diagonale par blocs avec des blocs
diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
D’après la question Q 23), Exp(A) est alors ORTS à Exp(B).
MP 2023-2024 Correction ds08 8

Mais pour tout p ∈ N, un calcul par blocs montre que la matrice Sp (B) est diagonale par blocs avec des blocs
P
p
λk
diagonaux de type Sp ((λ)) = ( k! ) ou Sp (rR(θ)), donc en passant à la limite quand p → +∞, on voit avec (a)
k=0
que Exp(B) est diagonale par blocs avec des blocs diagonaux de type (eλ ) ou Exp(rR(θ)) = er cos(θ) R(r sin θ).
Comme µ = eλ > 0, α = er cos(θ) > 0, et β = r sin θ ∈ R, cela montre que Exp(A) ∈ Gn .
D’où l’inclusion Exp(En ) ⊂ Gn .
• Soit M ∈ Gn . Montrons l’existence d’une matrice A ∈ En telle que M = Exp(A).
Puisque M ∈ Gn , M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux de type (µ) ou
αR(β), où µ, α > 0 et β ∈ R.
Soit alors Q ∈ On tel que N = Q⊤ M Q, i.e. M = QN Q⊤ .
Puisque R(0) = R(2π) = I2 , on peut supposer que pour chaque bloc diagonal de type αR(β) dans N , on a
(α, β) 6= (1, 0), quitte à changer β = 0 en β = 2π, ou à voir le bloc R(0) = I2 comme deux blocs (1) de taille
(1, 1).
Soit alors B ∈ Mn la matrice diagonale par blocs déduite de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc (λ) où λ = ln(µ),
∗ chaque bloc diagonal de type αR(β) de N par un bloc rR(θ) où r > 0 et θ ∈ R sont respectivement le
module et un argument du complexe ln(α) + iβ, qui est non nul puisqu’on a supposé (α, β) 6= (1, 0) (ce qui
garantit que r = | ln(α) + iβ| > 0 et que θ est bien défini modulo 2π), de sorte que r cos(θ) = ln(α), i.e.
er cos(θ) = α, et r sin(θ) = β.
Et soit enfin A = QBQ⊤ , de sorte que B = Q⊤ AQ.
Alors par définition, A est ORTS à B qui est du type décrit en (C4 ), donc A vérifie (C4 ), i.e. A ∈ En puisque
les conditions (C4 ) et (C2 ) sont équivalentes.
Et vu la question Q 23), Exp(B) = Q⊤ Exp(A)Q. Mais vu les calculs faits dans le point précédent, on a
Exp(B) = N , donc
Exp(A) = Q Exp(B)Q⊤ = QN Q⊤ = M.
Ainsi M ∈ Exp(En ). D’où l’inclusion Gn ⊂ Exp(En ).
• On a donc bien, par double inclusion, Exp(En ) = Gn .
Q 26). Vu la question Q 25), il s’agit de démontrer que Gn = Fn , avec la notation Gn qui y est introduite. On procède par double
inclusion.
• Soit M ∈ Gn , i.e. M ∈ Mn et M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux de type
(µ) ou αR(β), où µ, α > 0 et β ∈ R. Et soit Q ∈ On tel que N = Q⊤ M Q.
Montrons que M ∈ Fn .
• Montrons que les valeurs propres négatives de M sont de multiplicité paire.
Puisque les matrices M et N sont semblables, elles ont les mêmes valeurs propres, et un calcul par blocs montre
que le polynôme caractéristique de N est un produit de termes de type :
∗ X − µ pour chaque bloc diagonal de N de type (µ), et
∗ χαR(β) = X 2 − tr(αR(β))X + det(αR(β)) = X 2 − 2α cos(β)X + α2 = (X − αeiβ )(X − αe−iβ ) pour
chaque bloc diagonal de N de type αR(β) (calcul déjà fait en question Q 19)).
Les valeurs propres de M sont donc les réels µ > 0 pour chaque bloc diagonal de N de type (µ), et les complexes
αe±iβ pour chaque bloc diagonal de N de type αR(β).
Les valeurs propres négatives de M sont donc les éventuels αe±iβ où β ≡ π [2π], auquel cas αeiβ = αe−iβ = −α.
Ces valeurs propres sont donc de multiplicité paire, chaque bloc αR(π) apportant deux copies de la valeur propre
−α.
• Montrons que M = ST = T S où S ∈ Sn++ et T ∈ SOn .
Un calcul par blocs montre que N = S1 T1 = T1 S1 , où les matrices diagonales par blocs S1 et T1 se déduisent
de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc (µ) dans S1 et un bloc (1) dans T1 ,
∗ chaque bloc diagonal de type αR(β) de N par un bloc αI2 dans S1 et un bloc R(β) dans T1 .
On a alors S1 ∈ Sn++ de façon évidente (car S1 est diagonale et à coefficients diagonaux strictement positifs), et
T1 ∈ SOn puisque des calculs par blocs montrent que T1⊤ T1 = In et det(T1 ) = 1. Et on a alors M = QN Q⊤ =
(QS1 Q⊤ )(QT1 Q⊤ ) = (QT1 Q⊤ )(QS1 Q⊤ ), i.e.

M = ST = T S

où S = QS1 Q⊤ ∈ Sn++ puisque S⊤ = (QS1 Q⊤ ) = QS⊤ ⊤ ⊤
1 Q = QS1 Q = S et que S et S1 sont semblables

donc ont les mêmes valeurs propres, et où T = QT1 Q ∈ SOn puisqu’un produit de matrices orthogonales est
une matrice orthogonale et que T et T1 sont semblables donc ont le même déterminant.
MP 2023-2024 Correction ds08 9

Donc par définition, M ∈ Fn . D’où l’inclusion Gn ⊂ Fn .


• Soit B ∈ Fn , i.e. B a toutes ses (éventuelles) valeurs propres négatives de multiplicité paire, et B = ST = T S où
S ∈ Sn++ et T ∈ SOn .
Montrons que B ∈ Gn , i.e. en notant b l’endomorphisme de En canoniquement associé à B, qu’il existe une base
orthonormale B de En dans laquelle la matrice B ′ de b est diagonale par blocs avec des blocs diagonaux de type (µ)
ou αR(β), où µ, α > 0 et β ∈ R.
• Notons respectivement s et t les endomorphismes de En canoniquement associés à S et T .
Par hypothèse, s est un endomorphisme symétrique à valeurs propres strictement positives, et t est une rotation
(i.e. une isométrie de déterminant 1) de En .
Comme s est symétrique, ses sous-espaces propres sont deux à deux orthogonaux, et d’après le théorème spectral,
ils sont supplémentaires dans En .
• Soit λ > 0 une valeur propre de s.
Comme t commute avec s (car ST = T S), t stabilise le sous-espace propre Ker(S − λIn ) de s, et comme t
est une isométrie, l’endomorphisme tλ induit par t sur Ker(S − λIn ) est encore une isométrie, de sorte que sa
matrice Tλ dans une base orthonormale de Ker(S − λIn ) est une matrice orthogonale.
Mais alors Tλ vérifie (C2 ) (cf. question Q 8)), donc aussi (C4 ) (ces conditions étant équivalentes). Autrement
dit, il existe une base orthonormale Bλ de Ker(S − λIn ) dans laquelle la matrice Tλ′ de tλ est diagonale par blocs
avec des blocs diagonaux de type (ν) ou rR(θ), où r > 0 et ν, θ ∈ R. De plus comme Tλ′ est inversible (car tλ
l’est puisque c’est une isométrie), les blocs diagonaux de type (ν) de Tλ′ sont nécessairement tous non nuls.
Rq. Plus précisément, les blocs diagonaux de Tλ′ de taille (1, 1) sont égaux à (±1), et ceux de taille (2, 2)
sont de type R(θ) (i.e. avec r = 1) puisque Tλ′ est orthogonale (comme matrice d’une isométrie dans une
base orthonormale), donc ses colonnes sont normées.
Cela généralise la réduction des isométries en dimension ⩽ 3, au programme de la classe PSI, au cas des
isométries en dimension finie arbitraire.
Comme l’endomorphisme sλ induit par s sur Ker(S − λIn ) est l’homothétie de rapport λ, sa matrice dans la
base Bλ (comme dans toute base) est λIp où p = dim Ker(S − λIn ).
Ainsi b = s ◦ t = t ◦ s stabilise Ker(S − λIn ) et y induit un endomorphisme bλ dont la matrice dans la base Bλ
est λTλ′ , donc est diagonale par blocs de type (µ) ou αR(θ), où µ = λν 6= 0 et α = λr > 0 (car λ, r > 0 et
ν 6= 0).
• En concaténant les bases orthonormales Bλ de chaque sous-espace propre Ker(S − λIn ) de s, on obtient ainsi
une base orthonormale B de En (car les sous-espaces propres de s sont deux à deux orthogonaux) dans laquelle
la matrice B ′ de b est Diag((λTλ′ )λ∈Sp(s) ), donc est diagonale par blocs avec des blocs diagonaux de type (µ)
ou αR(β), où µ 6= 0, α > 0 et β ∈ R, puisque c’est le cas des matrices λTλ′ .
Enfin, les éventuels blocs diagonaux de type (µ) avec µ < 0 dans B ′ correspondent aux valeurs propres négatives
de b, et apparaissent donc un nombre pair de fois par hypothèse sur B. Quitte à réordonner la base B, on peut
supposer que ces blocs sont consécutifs dans B ′ , ce qui permet de les regrouper deux par deux en des blocs de
type µI2 = −µR(π), où −µ > 0.
Donc B est bien ORTS à une matrice B ′ diagonale par blocs avec des blocs de type (µ) ou αR(β), où µ, α > 0
et β ∈ R.
On a ainsi montré que B ∈ Gn . D’où l’inclusion Fn ⊂ Gn .
• On a donc bien, par double inclusion, Fn = Gn .
 
0 1 ··· 0
 .. . . .. .. 
 . . .
Q 27). Vu la question Q 26), il s’agit de voir si B =  .  ∈ Fn .
0 0 1
1 0 ··· 0
Or par définition, B est une matrice orthogonale (car ses colonnes forment une base orthonormale de En ), de déterminant
(−1)n+1 et de polynôme caractéristique χB (X) = det(XIn − B) = X n − 1 (en développant ces deux déterminants par
rapport à la première colonne, le second redonnant le premier en l’évaluant en 0), d’où la discussion suivante :
• Si n est pair, alors B admet −1 comme valeur propre de multiplicité 1, impaire, donc B ∈
6 Fn .
• Si n est impair, alors B n’admet pas de valeur propre négative et appartient à SOn , donc B ∈ Fn (avec la décompo-
sition évidente B = ST = T S où S = In et T = B).

Vous aimerez peut-être aussi