Académique Documents
Professionnel Documents
Culture Documents
On note S + l’espace vectoriel des solutions de (E) sur l’intervalle I =]0, +∞[ et S − l’espace vectoriel des solutions de (E) sur
l’intervalle J =] − ∞, 0[.
L’objectif de cet exercice est d’étudier la dimension de l’espace vectoriel S des fonctions y de classe C 2 sur R vérifiant (E) sur R
tout entier.
(E) : x2 y ′′ + xy ′ = 0.
Déterminer S + et S − .
Déterminer ensuite S et donner sans détails la dimension de S .
Q 4). Dans cette question (E) : : x2 y ′′ − 6xy ′ + 12y = 0.
Déterminer deux solutions sur I de cette équation de la forme x 7→ xα ( α réel).
En déduire S + puis S − .
Déterminer S et donner la dimension de S.
Q 5). Donner un exemple d’équation différentielle du type (E) : x2 y ′′ + a(x)y ′ + b(x)y = 0 tel que dim S = 0 (on détaillera).
On pourra, par exemple, s’inspirer de la question précédente.
Exercice 2. [Correction]
Notations et rappels
Soit n un entier supérieur à 1. On désigne par diag(α1 , · · · , αn ) la matrice diagonale de Mn (R) dont les coefficients diagonaux
sont les réels α1 , · · · , αn dans cet ordre. Si M ∈ Mn (R), on note M⊤ sa transposée.
On munit l’espace vectoriel E = Rn du produit scalaire canonique noté h | i et de la norme euclidienne k k associée. On note
S(E) le sous-espace des endomorphismes symétriques de E, c’est-à-dire l’ensemble des endomorphismes s de E vérifiant :
Un endomorphisme symétrique s de E est dit symétrique positif (respectivement symétrique défini positif) si :
Une matrice S de Mn (R) est dite symétrique positive (respectivement symétrique définie positive) si :
On note Sn+ (R) (respectivement Sn++ (R)) l’ensemble des matrices symétriques positives (respectivement symétriques définies
positives) de Mn (R).
On rapelle (ou admet) qu’un endomorphisme s de E est symétrique (respectivement symétrique positif, symétrique défini positif)
si, et seulement si, sa matrice dans toute base orthonormée de E est symétrique (respectivement symétrique positive, symétrique
définie positive).
On admet que, pour tous réels positifs a1 , · · · , an ,
!1/n
Y
n
1X
n
ai ≤ ai (inégalité arithmético-géométrique).
i=1
n i=1
Le 16/03/2024 DS 08 2
Objectif du problème
On se donne une matrice S de Sn+ (R) (ou Sn++ (R)) et on étudie le maximum (ou minimum) de la forme linéaire A 7→ Tr(AS)
sur des ensembles de matrices.
Questions préliminaires
Q 6).
(a) Enoncer (sans démonstration) le théorème de réduction des endomorphismes symétriques de l’espace euclidien E et
sa version relative aux matrices symétriques réelles.
(b) Toute matrice symétrique à coefficients complexes est-elle nécessairement diagonalisable ? On pourra par exemple
considérer la matrice de M2 (C) :
i 1
S= .
1 −i
Q 7). Soit s ∈ S(E), de valeurs propres (réelles) λ1 , · · · , λn rangées dans l’ordre croissant :
λ1 ≤ λ 2 ≤ · · · ≤ λn .
Soit β = (ϵ1 , · · · , ϵn ) une base orthonormée de E telle que, pour tout i ∈ {1, · · · , n}, ϵi est un vecteur propre associé à la
valeur propre λi . Pour tout vecteur x de E, on pose :
Rx (x) = hs(x)|xi.
Q 8).
(a) On suppose dans cette question que s est symétrique positif (respectivement symétrique défini positif). Démontrer
que les valeurs propres de s sont toutes positives (respectivement strictement positives).
(b) Soit S = (si,j ) ∈ Sn+ (R), de valeurs propres λ1 , · · · , λn rangées dans l’ordre croissant :
λ1 ≤ λ 2 ≤ · · · ≤ λn .
On note s l’endomorphisme de E représenté par S dans la base canonique B = (e1 , · · · , en ). Exprimer le terme général
si,j de S comme un produit scalaire et démontrer que :
∀i ∈ {1, · · · , n} λ1 ≤ si,i ≤ λn .
Q 11). En déduire que le groupe orthogonal On (R) est une partie compacte de Mn (R).
Q 12). Soit S ∈ Sn+ (R), de valeurs propres (positives) λ1 , · · · , λn . On pose ∆ = diag(λ1 , · · · , λn ).
Si A est une matrice orthogonale, on note T (A) le nombre réel T (A) = Tr(AS).
(a) Soit A ∈ On (R). Démontrer qu’il existe une matrice orthogonale B telle que :
T (A) = Tr(B∆).
(b) Démontrer que l’application T de On (R) dans R admet un maximum sur On (R)
que l’on notera t.
(c) Démontrer que, pour toute matrice orthogonale A de On (R), T (A) ≤ Tr(S), puis déterminer le réel t.
Le 16/03/2024 DS 08 3
Inégalité d’Hadamard
Soit S = (si,j ) ∈ Sn+ (R), de valeurs propres (réelles positives) λ1 , · · · , λn rangées dans l’ordre croissant :
0 ≤ λ1 ≤ λ2 ≤ · · · ≤ λn .
Q 14). Soit α = (α1 , · · · , αn ) ∈ Rn , D = diag(α1 , · · · , αn ) et Sα = D⊤ SD. Démontrer que Sα ∈ Sn+ (R) et calculer Tr(Sα ).
Q 15). Dans cette question, on suppose que les coefficients diagonaux si,i de S sont strictement positifs et, pour 1 ≤ i ≤ n, on
1
pose αi = √ . En utilisant l’inégalité (∗), démontrer que :
si,i
Y
n
det(S) ≤ si,i .
i=1
Y
n
Q 16). Pour tout réel ε > 0, on pose Sε = S + εIn . Démontrer que det(Sε ) ≤ (si,i + ε), puis conclure que :
i=1
Y
n Y
n
λi ≤ si,i (inégalité d’Hadamard).
i=1 i=1
Tr(AS) = Tr(B∆).
Q 18). Démontrer que {Tr(AS) | A ∈ U } = {Tr(B∆) | B ∈ U }, puis que ces ensembles admettent une borne inférieure que l’on
notera m.
Q 19). Démontrer que, si B = (bi,j ) ∈ U :
Exercice 3. [Correction] On note C([0, 1], R) l’ensemble des fonctions continues de [0, 1] dans R et pour tout k ∈ N∗ , on
note C ([0, 1], R) l’ensemble des fonctions de classe C k de [0, 1] dans R. On dit qu’une fonction f ∈ C([0, 1], R) est positive si :
k
vλ = λw1 + w2
Notations
• n désigne un entier naturel non nul.
• Mn désigne l’espace vectoriel des matrices carrées réelles de taille (n, n) dont la matrice unité est notée In .
• En désigne l’espace vectoriel des matrices réelles de taille (n, 1) (matrices colonnes). On le munit de son produit scalaire
usuel et de la norme (euclidienne) associée définis par :
√
(X|Y ) = X⊤ Y et kXk = X⊤ X.
• Sn (respectivement An ) désigne le sous-espace vectoriel de Mn constitué des matrices symétriques (respectivement anti-
symétriques) de Mn .
Définition 1 Une matrice A de Mn est dite normale lorsqu’elle commute avec sa transposée, c’est-à-dire lorsque AA⊤ = A⊤ A.
Définition 2 Une matrice A ∈ Mn est dite orthogonalement semblable à B ∈ Mn s’il existe Q ∈ On tel que B = Q⊤ AQ.
(On pourra noter en abrégé : A est ORTS à B.)
Objectifs
• Dans un premier temps, ce problème vise à établir que, pour une matrice A ∈ Mn , les quatre conditions suivantes sont
équivalentes :
(C4 ) La matrice A est orthogonalement semblable à une matrice diagonale par blocs, dont chaque bloc diagonal est :
∗ soit de taille (1, 1),
∗ soit de taille (2, 2) du type rR(θ), où (r, θ) ∈ R∗+ × R.
Théorème 2 Si A ∈ Mn et B ∈ Mn sont telles qu’il existe Q ∈ On vérifiant B = Q⊤ AQ, alors pour tout polynôme P à
coefficients réels, on a P (B) = Q⊤ P (A)Q.
Question préliminaire
Q 6). Démontrer que la relation ORTS est une relation d’équivalence sur Mn .
Exemples
Q 7). Montrer que les éléments de Sn vérifient les conditions (C1 ), (C2 ), (C3 ) et (C4 ), et que ceux de An vérifient les conditions
(C1 ), (C2 ) et (C3 ).
Q 8). Montrer que les éléments de On vérifient les conditions (C2 ) et (C3 ).
Q 10). Montrer que si A vérifie la condition (C1 ), alors A vérifie la condition (C2 ).
Q 11). Montrer que si A vérifie la condition (C2 ), alors A vérifie la condition (C3 ).
Le 16/03/2024 DS 08 3
Q 13). Montrer que pour tout réel λ, la matrice A − λIn vérifie (C3 ).
Q 14). En déduire que A et A⊤ ont les mêmes sous-espaces propres et qu’ils sont deux à deux orthogonaux.
Q 15). En utilisant la question précédente, déterminer une condition nécessaire et suffisante sur la matrice A pour qu’elle soit
diagonalisable.
A1 0
Q 16). Pour n ⩾ 3, montrer que A est orthogonalement semblable à une matrice du type , où A1 ∈ Mp et A2 ∈ Mn−p
0 A2
vérifient (C3 ), avec p ∈ {1, 2}.
On pourra commencer par montrer que toute matrice orthogonalement semblable à A vérifie (C3 ).
Q 17). Montrer que si A vérifie la condition (C3 ), alors A vérifie la condition (C4 ).
Q 18). Établir l’existence d’un unique polynôme P de Cn−1 [X] tel que :
⊤
Q 19). Montrer que P (rR(θ)) = (rR(θ)) .
Lorsque sin θ 6= 0, on pourra utiliser la division euclidienne de P par le polynôme caractéristique χ de la matrice rR(θ) de
M2 .
Q 20). Montrer que si A ∈ Mn vérifie la condition (C4 ), alors A vérifie la condition (C1 ).
Q 22). Montrer que, pour tout (A, B) ∈ M2n , kABk∞ ⩽ nkAk∞ kBk∞ .
P
p
Pour A ∈ Mn et p ∈ N, on pose Sp (A) = 1 k
k! A .
k=0
Q 23). Montrer que la suite (Sp (A))p∈N converge dans Mn , vers une limite que l’on notera Exp(A), et que :
P (Ak )i,j
On pourra montrer que, pour tous 1 ⩽ i, j ⩽ n, la série numérique k! est absolument convergente.
k∈N
Q 24). Montrer que l’ensemble En constitué des matrices normales de Mn est un fermé de Mn . Qu’en déduit-on pour Exp(A),
lorsque A ∈ En ?
Q 25). Soit (r, θ) ∈ R × R. Montrer que exp(rR(θ)) = er cos θ R(r sin θ).
En déduire que Exp(En ) est l’ensemble des matrices de Mn orthogonalement semblables aux matrices diagonales par blocs,
dont chaque bloc diagonal est :
• soit du type (µ) ∈ M1 , avec µ > 0,
• soit du type αR(β) ∈ M2 , avec α > 0 et β ∈ R.
On note Sn++ l’ensemble des matrices symétriques de Mn à valeurs propres strictement positives, et Fn l’ensemble des matrices
B de Mn vérifiant les conditions :
Solution 1 (Énoncé)
d’après CCINP, 2014, MP, Math 1, exercice 1
a(x) ′ b(x)
Q 1). Sur l’intervalle I = ]0, +∞[ l’équation (E) se réécrit sous forme résolue y ′′ + y + 2 y = 0.
x2 x
a(x) b(x)
Les fonctions x 7→ et x 7→ 2 sont continues sur I et l’équation est linéaire homogène d’ordre 2.
x2 x
Donc par théorème, S + est un R-espace vectoriel de dimension 2. De même, S − est un R-espace vectoriel de dimension 2.
Q 2). Soit f ∈ Ker (φ). Alors f est nulle sur les intervalles I et J donc sur R∗ .
Par continuité de f en 0, f (0) = 0.
Donc f = 0 ce qui montre que Ker (φ) = {0}.
φ étant une application linéaire injective, elle définit un isomorphisme de S sur Im (φ).
Or Im (φ) est un sous-espace vectoriel de S1 × S2 qui est un espace vectoriel de dimension 2 + 2 = 4.
Donc Im (φ) est un espace vectoriel de dimension finie et dim(Im (φ)) ≤ 4.
Etant isomorphe à Im (φ), S est aussi de même dimension finie ce qui donne dim(S) ≤ 4.
Q 3).
Soit I0 ∈ {I, J} (l’un des deux intervalles) ′
′′ 1 ′ z + (1/x) × z = 0
Sur I0 , l’équation est équivalente à y + y = 0 soit au système
x y′ = z
La première équation du système, linéaire,
homogène, d’ordre 1 a immédiatement pour ensemble solution sur l’intervalle I0
K
la droite vectorielle x 7→ , K ∈ R .
x
K
Ainsi, y est solution de (E) si et seulement si il existe K ∈ R, y ′ = soit si et seulement si il existe (K, L) ∈ R2 tel que
x
y = K ln(|x|) + L.
Conclusion : sur l’intervalle I ou l’intervalle J, l’ensemble solution est Vect (x 7→ 1, x 7→ ln(|x|))
∀x ∈ R∗+ , f (x) = k1 ln(x) + k2
Soit f ∈ S. Alors il existe (k1 , k2 , k3 , k4 ) ∈ R tel que
4
∀x ∈ R∗− , f (x) = k3 ln(|x|) + k4
f étant continue en 0 donc bornée au voisinage de 0, on obtient k1 = k3 = 0.
La continuité à gauche et à droite en 0 impose alors k2 = f (0) = k4 .
Donc f est une fonction constante.
Réciproquement, il est immédiat de vérifier que les fonctions constantes sont éléments de S.
Conclusion : S = Vect (x 7→ 1) et dim(S) = 1.
Q 4).
• Soit I0 ∈ {I, J} (l’un des deux intervalles)
Notons fα la fonction définie sur I0 par fα (x) = xα .
Alors fα est solution de (E) sur I0 si et seulement si
i. e. si et seulement si
∀x ∈ I0 , xα × (α2 − 7α + 12) = 0
4 et 3 sont solutions de l’équation α2 − 7α + 12 donc les fonctions x 7→ x3 et x 7→ x4 sont solutions de (E) sur I0 .
• Les fonctions x 7→ x3 et x 7→ x4 sont éléments de S + . La famille (x 7→ x3 , x 7→ x4 ) est une famille libre à 2 éléments
(vérification immédiate) d’éléments de S + et S + est de dimension 2.
Donc c’est une base de S + et S + = Vect (x 7→ x3 , x 7→ x4 ).
• De même x 7→ x3 et x 7→ x4 définissent deux fonctions solutions de (E) sur J. Elles forment également une famille
libre à 2 éléments et dim(S − ) = 2.
Donc S − = Vect (x 7→ x3 , x 7→ x4 ).
k1 x3 + k2 x4 si x ≥ 0
• Montrons que S = S ′ avec S ′ = x 7→ , (k 1 , .., k 4 ) ∈ R 4
.
k3 x3 + k4 x4 si x < 0
∗ Soit f ∈ S. D’après les points précédents on sait que f restreint à I et J est de la forme voulue. Pour vérifier que
f appartient à l’ensemble S ′ , il suffit de vérifier que f (0) = 0.
On sait qu’il existe k1 , k2 dans R tels que pour x > 0, f (x) = k1 x3 + k2 x4 . La continuité de f en 0 donc à droite en
0 donne immédiatement f (0) = limx→0 k1 x3 + k2 x4 = 0.
∗ Soit f dans S ′ .
MP 2023-2024 Correction ds08 2
k1 x3 + k2 x4 si x ≥ 0
Alors il existe k1 , .., k4 dans R tels que x 7→
k3 x3 + k4 x4 si x < 0
On vérifie que f est de classe C 2 sur R :
Soit α > 0. Au voisinage de α, f coïncide avec la fonction x 7→ k1 x3 + k2 x4 . Donc f est deux fois dérivable en α,
f ′ (α) = 3k1 α2 + 4k2 α3 et f ′′ (α) = 6k1 α + 12k2 α2 .
De même, pour α < 0, f coïncide au voisinage de α avec x 7→ k3 x3 + k4 x4 donc f est deux fois dérivable en α et
f ′ (α) = 3k3 α2 + 4k4 α3 , f ′′ (α) = 6k3 α + 12k4 α2 .
Ainsi, f est deux fois dérivable sur R∗ et sa dérivée seconde f ′′ est continue en tout point de R∗ .
Donc f est de classe C 2 sur R∗ .
De plus, f est continue à droite et à gauche en 0 donc continue en 0 ainsi qu’en tout point de R∗ .
Donc f est continue sur R, de classe C 2 sur R∗ .
Il reste à vérifier que f ′ (x), puis f ′′ (x), admet une même limite finie en 0 à droite et à gauche pour assurer, d’après
le théorème de limite de la dérivée, que f est de classe C 2 sur R.
D’après les expressions précédemment évoquées pour f ′′ et f ′ , ces limites existent et valent 0.
Conclusion : f est de classe C 2 sur R.
On vérifie que f est bien solution de (E) sur R en considérant pour x ∈ R∗+ , x ∈ R∗− et x = 0 ; donc que f ∈ S.
• Conclusion : on a bien l’égalité souhaitée et S est de dimension 4.
Q 5).
• Considérons l’équation (E) : x2 y ′′ + 4xy ′ + 2y = 0.
1 1
On vérifie facilement que x 7→ et x 7→ 2 sont deux solutions de (E) sur I et sur J.
x x
Cette famille de fonctions est libre. Donc comme précédemment, S + et S − sont engendrés par ces deux fonctions.
• Soit f ∈ S une solution de (E) sur R.
k1 k2 k3 k4
Alors il existe k1 , k2 , k3 , k4 ∈ R tel que pour x > 0, f (x) =
+ 2 et pour x < 0, f (x) = + 2.
x x x x
Alors pour x > 0, x2 f (x) − k1 x = k2 donc la continuité de f en 0 à droite donne par passage à la limite en 0+ :
0 = k2 .
k1
D’où pour x > 0, f (x) = et donc pour x > 0, x × f (x) = k1 ce qui, par passage à la limite en 0, donne 0 = k1 .
x
De même, la continuité de f à gauche en 0 donne k3 = k4 = 0.
Donc f = 0 ce qui démontre que S = {0}.
X
n X
n X
n
(a) Notons x = xi ϵi . Alors s(x) = λi xi ϵi . Or la base β est orthonormée, donc Rs (x) = λi x2i .
i=1 i=1 i=1
X
n
(b) Supposons que x ∈ S(0, 1). Alors 1 = kxk2 = x2i .
i=1
X
n X
n X
n X
n
Ainsi, Rs (x) = λi x2i ≤ λn x2i = λn et Rs (x) = λi x2i ≥ λ1 x2i = λ1 .
i=1 i=1 i=1 i=1
On a bien montré que, pour tout x ∈ S(0, 1), Rs (x) ∈ [λ1 , λn ]
Q 8).
MP 2023-2024 Correction ds08 3
⊤
Soit X ∈ Rn . X⊤ Sα X = (DX) S(DX) ≥ 0 car DX ∈ Rn et car S est symétrique positive. Ceci montre que Sα ∈ Sn+ (R).
X
n X
n X X
n
Tr(Sα ) = (D⊤ SD)i,i = [D⊤ ]i,j Sj,k Dk,i , mais D est diagonale, donc Tr(Sα ) = αi2 si,i .
i=1 i=1 (j,k)∈{1,...,n}2 i=1
Q 15). On peut appliquer l’inégalité (∗) à la matrice Sα car elle est bien dans Sn+ (R),
!2
Yn
1 1X 1
n
2
or det(Sα ) = det(D) det(S) = αi,i det(S) et Tr(Sα ) = si,i = 1,
i=1
n n i=1 si,i
!2
Yn
1 Yn
donc det(S) ≤ = si,i .
α
i=1 i,i i=1
MP 2023-2024 Correction ds08 4
Q 16). Pour tout X ∈ Rn , X⊤ Sε X = X⊤ SX + εkXk2 ≥ 0, donc Sε ∈ Sn+ (R). De plus d’après la question Q 8)b, pour tout
i ∈ {1, . . . , n}, 0 ≤ λ1 ≤ si,i , donc si,i + ε > 0, ce qui permet d’appliquer l’inégalité de la question précédente à Sε : pour
Yn
tout ε > 0, det(Sε ) ≤ (si,i + ε).
i=1
De plus il existe P ∈ On (R) telle que S = P ∆P −1 , où ∆ = diag(λ1 , . . . , λn ), donc Sε = P (∆ + εIn )P −1 , ce qui prouve
Yn Y
n Y
n
que det(Sε ) = (λi + ε). Ainsi, pour tout ε > 0, (λi + ε) ≤ (si,i + ε) et on conclut en faisant tendre ε vers 0.
i=1 i=1 i=1
Q 21). Ainsi n(det(S)) est un minorant de {Tr(B∆) \ B ∈ U}, or la borne inférieure est le plus grand des minorants, donc
1/n
m ≥ n(det(S))1/n .
x1
Xn
Pour tout X = ... ∈ Rn \ {0}, X⊤ DX = µi x2i > 0, donc D ∈ Sn++ (R).
xn i=1
Y
n
det(S) X n
De plus det(D) = µi = = 1, donc D ∈ U . Or Tr(D∆) = µi λi = n(det(S))1/n , donc m = n(det(S))1/n .
i=1
λ1 · · · λn i=1
MP 2023-2024 Correction ds08 1
Q 2). Notons w2 = v0 , c’est à dire que w2 est l’unique fonction de classe C 2 sur [0, 1] telle que
∀x ∈ [0, 1], −w2′′ (x) + c(x)w2 (x) = f (x) et w2 (0) = 0, w2′ (0) = 0
∀x ∈ [0, 1], w′′ (x) = λw1′′ (x) + w2′′ (x) = λc(x)w1 (x) + c(x)w2 (x) − f (x) = c(x)w(x) − f (x)
Q 3). Posons h = w12 . On a h′ = 2w1 w1′ et h′′ = 2(w1′ )2 + 2w1 w1′′ = 2(w1′ )2 + 2cw12 ≥ 0. h′ est donc croissante. Comme elle est
nulle en 0, elle est positive. h est donc croissante. Si, par l’absurde, h était nulle en 1, on aurait h nulle sur [0, 1]. w1 serait
aussi nulle sur [0, 1] et ceci contredit w1′ (0) = 1. Ainsi,
w1 (1) 6= 0
w2 (1)
Q 4). On peut alors poser λ = − w 1 (1)
et on a vλ (1) = 0 par choix de λ. vλ est ainsi solution de (1).
Soit u une solution de (1). u est l’unique solution du problème de Cauchy (1bis) avec λ = u′ (0). On a donc u = vu′ (0) =
u′ (0)w1 + w2 . Ainsi, 0 = u(1) = u′ (0)w1 (1) + w2 (1) et u′ (0) = − w 2 (1)
w1 (1) . u est donc égale à la solution vλ exhibée.
Q 5). Supposons, par l’absurde, que u prenne des valeurs strictement 0. u étant continue sur le segment [0, 1] admet un minimum
m. Avec notre hypothèse, m < 0. L’ensemble {t ∈ [0, 1]/ u(t) = m} admet une borne inférieure que l’on note α. Par
continuité de u, on a u(α) = m et α ∈]0, 1[ (puisque u(0) = u(1) = 0). Ainsi, u′ (α) = 0 (minimum atteint sur l’ouvert
]0, 1[).
Sur un voisinage ]α − r, α + r[ de α, la fonction u est négative (par continuité) et donc u′′ = cu − f est aussi négative sur
ce voisinage. En particulier, u′ est décroissante sur ce voisinage. Comme u′ (α) = 0, u′ est positive sur ]α − r, α] et u est
croissante sur cet intervalle. Comme u est minimale en α, u est en fait constante sur ]α − r, α]. Ceci contredit la définition
de α.
Question préliminaire
Q 6). Il s’agit de démontrer que la relation ORTS, définie par :
Exemples
Q 7). (a) Soit S ∈ Sn . On a S⊤ = S, donc :
(C1 ) S⊤ = S = P (S) où P est le monôme P (X) = X.
(C2 ) S est normale puisqu’elle commute avec S⊤ = S.
(C3 ) Pour tout X ∈ En , kS⊤ Xk = kSXk de façon évidente.
(C4 ) D’après le théorème spectral, S est ORTS à une matrice diagonale, donc diagonale par blocs avec des blocs
diagonaux tous de taille (1, 1), donc S vérifie (C4 ).
(b) Soit A ∈ An . On a A⊤ = −A, donc :
(C1 ) A⊤ = −A = P (A) où P est le monôme P (X) = −X.
(C2 ) A est normale puisqu’elle commute avec A⊤ = −A.
(C3 ) Pour tout X ∈ En , kA⊤ Xk = k − AXk = kAXk par homogénéité de la norme.
Q 8). Soit Q ∈ On . On a Q⊤ = Q−1 ∈ On , donc :
(C2 ) Q est normale puisqu’elle commute avec Q⊤ = Q−1 .
(C3 ) Pour tout X ∈ En , kQ⊤ Xk = kXk = kQXk puisque les endomorphismes de En canoniquement associés à Q et
Q⊤ = Q−1 sont des isométries.
⊤
Rq. Cela se retrouve par le calcul kQXk2 = (QX) QX = X⊤ Q⊤ QX = X⊤ X = kXk2 .
Q 9). La matrice T ∈ O2 est de type R(θ) ou S(θ), où θ ∈ R (voir les rappels de cours en préambule).
(a) Cas T = S(θ).
Dans ce cas, la matrice M = rT est symétrique réelle, donc d’après la question Q 7), elle vérifie les conditions (C1 )
à (C4 ).
(b) Cas T = R(θ).
Dans ce cas, la matrice M = rT = rR(θ) vérifie la condition (C4 ) de façon évidente (M est ORTS à elle-même), et
elle vérifie la condition (C1 ) puisque
⊤ cos θ sin θ cos θ − sin θ
M =r = 2r cos(θ)I2 − r ,
− sin θ cos θ sin θ cos θ
Donc ∀X ∈ En , kA⊤ Xk = kAXk (puisque les normes sont positives), i.e. A vérifie (C3 ).
où r ∈ R∗+ et θ ∈ R sont tels que a = r cos θ et b = r sin θ, i.e. où r et θ sont respectivement le module et un
argument du complexe a + ib (on a bien r > 0 car b 6= 0).
Donc dans ce cas, A vérifie (C4 ) de façon évidente (A est ORTS à elle-même).
Dans tous les cas, la matrice A vérifie donc bien la condition (C4 ).
Q 13). Rq. Les deux méthodes ci-dessous présentent les mêmes calculs sous deux formes différentes.
Méthode 1.
Les identités remarquables ku ± vk2 = kuk2 + kvk2 ± 2(u|v) donnent, pour tout X ∈ En :
⊤ ⊤
Or A vérifie (C3 ) donc X⊤ A⊤ AX = (AX) AX = kAXk2 = kA⊤ Xk2 = (A⊤ X) A⊤ X = X⊤ AA⊤ X. Ainsi ∀X ∈ En ,
⊤
k(A − λIn )Xk = k(A − λIn ) Xk (car les normes sont positives), i.e. A − λIn vérifie (C3 ).
Q 14). (a) Vu la question précédente (et la séparation de la norme), pour tout X ∈ En et tout λ ∈ R :
Ainsi pour tout λ ∈ R, Ker(A − λIn ) = Ker(A⊤ − λIn ), et donc les matrices A et A⊤ ont les mêmes sous-espaces
propres.
(b) Soient λ 6= µ dans R et soient X ∈ Ker(A − λIn ) et Y ∈ Ker(A − µIn ) = Ker(A⊤ − µIn ). Alors AX = λX et
A⊤ Y = µY , donc :
⊤
λ(X|Y ) = (AX|Y ) = (AX) Y = X⊤ A⊤ Y = (X|A⊤ Y ) = µ(X|Y )
6 µ.
et donc (X|Y ) = 0 puisque λ =
Les sous-espaces propres de A sont donc bien deux à deux orthogonaux.
Q 15). Montrons que A, qui vérifie (C3 ), est diagonalisable si et seulement si elle est symétrique.
• Si A est symétrique, alors A est diagonalisable d’après le théorème spectral.
• Supposons A diagonalisable. Alors ses sous-espaces propres sont supplémentaires dans En (caractérisation de la dia-
gonalisabilité), et d’après la question Q 14), ils sont deux à deux orthogonaux.
En concaténant des bases orthonormales des sous-espaces propres de A, on obtient donc une base orthonormale de
diagonalisation de A, donc la matrice de passage P de la base canonique à cette base de diagonalisation est orthogonale
et telle que D = P −1 AP = P⊤ AP est diagonale.
⊤
Ainsi A = P DP⊤ est symétrique puisque A⊤ = (P DP⊤ ) = P D⊤ P⊤ = P DP⊤ = A.
Q 16). (a) Montrons comme indiqué que toute matrice orthogonalement semblable à A vérifie (C3 ).
Soient Q ∈ On et B = Q⊤ AQ. Alors pour tout X ∈ En , sachant que QQ⊤ = Q⊤ Q = In :
MP 2023-2024 Correction ds08 4
⊤
• kBXk2 = (BX) BX = X⊤ B⊤ BX = X⊤ Q⊤ A⊤ QQ⊤ AQX = X⊤ Q⊤ A⊤ AQX = kAQXk2
⊤
• kB⊤ Xk2 = (B⊤ X) B⊤ X = X⊤ BB⊤ X = X⊤ Q⊤ AQQ⊤ A⊤ QX = X⊤ Q⊤ AA⊤ QX = kA⊤ QXk2
Or A vérifie (C3 ) et QX ∈ En , donc kAQXk = kA⊤ QXk. Ainsi ∀X ∈ En , kBXk = kB⊤ Xk (car les normes sont
positives), i.e. B vérifie (C3 ).
A1 0
(b) Montrons que A est ORTS à une matrice de type où A1 ∈ Mp et A2 ∈ Mn−p vérifient (C3 ), avec
0 A2
p ∈ {1, 2}.
• D’après le théorème 1 du préambule, l’endomorphisme f de Rn canoniquement associé à A admet une droite ou
un plan stable. Notons F ce sous-espace stable, p ∈ {1, 2} sa dimension, et Q la matrice de passage de la base
canonique de Rn à une base orthonormale de Rn adaptée à F (i.e. commençant par une base orthonormale de
F ).
Alors Q est orthogonale (comme matrice de passage entre deux bases orthonormales) et la matrice B = Q−1 AQ =
Q⊤ AQ est la matrice de f dans une base adaptée au sous-espace stable F , donc est triangulaire supérieure par
blocs, de type
⊤ A1 A3
B = Q AQ =
0 A2
où A1 ∈ Mp , A2 ∈ Mn−p et où A3 est une matrice réelle de taille (p, n − p).
• Montrons que A3 = 0.
D’après l’indication montrée en (a), la matrice B vérifie la condition (C3 ), donc ∀X ∈ En , kBXk2 = kB⊤ Xk2 ,
i.e. en explicitant ces calculs de normes comme en (a) :
(⋆) : ∀X ∈ En , X⊤ B⊤ BX = X⊤ BB⊤ X.
Or pour toute matrice M ∈ Mn et tout i ∈ J1; nK, en notant ei le i-ème élément de la base canonique de En
(i.e. la colonne dont tous les coefficients sont nuls sauf le i-ème qui vaut 1), le calcul e⊤
i M ei donne le i-ème
coefficient diagonal (M )i,i de M .
Vu (⋆), les matrices B⊤ B et BB⊤ ont donc les mêmes coefficients diagonaux. Or un calcul par blocs donne
⊤
⊤ A1 A1 A⊤
1 A3 ⊤ A1 A⊤
1 + A3 A3
⊤
A3 A⊤2
B B= ⊤ et BB =
A3 A1 A⊤ ⊤
3 A3 + A2 A2 A2 A⊤3 A2 A⊤2
donc les égalités des coefficients diagonaux de B⊤ B et BB⊤ donnent en particulier, pour tout i ∈ J1; pK,
(A⊤ ⊤ ⊤
1 A1 )i,i = (A1 A1 )i,i + (A3 A3 )i,i et donc en sommant ces égalités :
tr(A⊤ ⊤ ⊤
1 A1 ) = tr(A1 A1 ) + tr(A3 A3 ).
tr(A3 A⊤ ⊤
3 ) = tr(A3 A3 ) = kA3 k = 0
2
où l’on a encore noté k · k la norme associée au produit scalaire usuel (M, N ) 7→ tr(M⊤ N ) sur Mp,n−p (R). Ainsi
kA3 k = 0, et donc A3 = 0 (par séparation de la norme).
A1 0
Ainsi A est orthogonalement semblable à la matrice B = .
0 A2
• Montre que A1 et A2 vérifient (C3 ).
X1
En calculant par blocs les produits de l’égalité (⋆) ci-dessus, avec X = où X1 ∈ Ep et X2 ∈ En−p , on
X2
obtient :
∀(X1 , X2 ) ∈ Ep × En−p , X⊤ ⊤ ⊤ ⊤ ⊤ ⊤ ⊤ ⊤
1 A1 A1 X 1 + X 2 A2 A2 X 2 = X 1 A1 A1 X 1 + X 2 A2 A2 X 2 .
∀X2 ∈ En−p , X⊤ ⊤ ⊤ ⊤
2 A2 A2 X 2 = X 2 A2 A2 X 2 i.e. kA2 X2 k2 = kA⊤
2 X2 k
2
où l’on a encore noté k · k les normes associées aux produits scalaires usuels sur Ep et En−p . Ainsi ∀X1 ∈ Ep ,
kA1 X1 k = kA⊤ ⊤
1 X1 k et ∀X2 ∈ En−p , kA2 X2 k = kA2 X2 k (car les normes sont positives), i.e. A1 et A2 vérifient
(C3 ).
Q 17). Montrons par récurrence sur n ∈ N∗ que pour tout A ∈ Mn , A vérifie (C3 ) =⇒ A vérifie (C4 ).
MP 2023-2024 Correction ds08 5
• Initialisation.
Le cas n = 1 est trivial puisque toute matrice de M1 vérifie (C3 ) et (C4 ).
Le cas n = 2 a été démontré en question Q 12).
• Hérédité.
Soit n ⩾ 3 tel que toute matrice carrée de taille inférieure ou égale à n − 1 vérifiant (C3 ) vérifie aussi (C4 ).
Soit A ∈ Mn vérifiant (C3 ).
A1 0
D’après la question Q 16), A est orthogonalement semblable à une matrice B = où A1 ∈ Mp et
0 A2
A2 ∈ Mn−p vérifient (C3 ), avec p ∈ {1, 2}. Par hypothèse de récurrence, les matrices A1 et A2 vérifient donc aussi
(C4 ), i.e. sont ORTS à des matrices B1 et B2 diagonales par blocs avec des blocs diagonaux de type (λ) ou rR(θ),
où r > 0 et λ, θ ∈ R.
Notons Q1 ∈ Op et Q2 ∈ On−p des matrices telles que B1 = Q⊤ ⊤
1 A1 Q1 et B2 = Q2 A2 Q2 . Alors un calcul par blocs
donne : ⊤
B1 0 Q1 0 A1 0 Q1 0
=
0 B2 0 Q⊤ 2 0 A2 0 Q2
Q1 0
et la matrice Q = est orthogonale puisque
0 Q2
⊤ ⊤
Q1 0 Q1 0 Q1 Q1 0 Ip 0
Q⊤ Q = = = = In .
0 Q⊤ 2 0 Q2 0 Q⊤
2 Q2 0 In−p
B1 0
Ainsi par transitivité de la relation ORTS, A est ORTS à la matrice , qui est diagonale par blocs avec des
0 B2
blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R, puisque c’est le cas de B1 et B2 . Ainsi A vérifie (C4 ).
• Conclusion.
On en déduit par récurrence que ∀n ∈ N∗ , si A ∈ Mn vérifie (C3 ), alors A vérifie (C4 ).
Q 19). Notons χ(X) = X 2 −tr(rR(θ))X +det(rR(θ)) = X 2 −2r cos(θ)X +r2 = (X −reiθ )(X −re−iθ ) le polynôme caractéristique
de la matrice rR(θ), et
P (X) = χ(X)B(X) + aX + b
la division euclidienne de P par χ, où B ∈ R[X] et a, b ∈ R.
Puisque χ(reiθ ) = 0, on a P (reiθ ) = areiθ + b = re−iθ , i.e. en séparant les parties réelle et imaginaire :
Et comme χ est annulateur de rR(θ) (par le théorème de Cayley-Hamilton ou par calcul direct), on obtient :
ar cos(θ) + b −ar sin(θ) r cos(θ) r sin(θ) ⊤
P (rR(θ)) = arR(θ) + bI2 = = = (rR(θ)) .
ar sin(θ) ar cos(θ) + b −r sin(θ) r cos(θ)
Rq. Si sin(θ) = 0, alors P (r cos(θ)) = r cos(θ), et rR(θ) = r cos(θ)I2 , donc de façon évidente, P (rR(θ)) = rR(θ) =
⊤
(rR(θ)) . Mais il n’est pas nécessaire de distinguer ce cas dans les calculs précédents.
Q 20). Soit A ∈ Mn vérifiant (C4 ), i.e. A est orthogonalement semblable à une matrice B ∈ Mn diagonale par blocs avec des
blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Soit Q ∈ On telle que B = Q⊤ AQ, i.e. telle que A = QBQ⊤ .
Notons (λ1 ), . . . , (λp ) les (éventuels) blocs diagonaux de B de taille (1, 1), et r1 R(θ1 ), . . . , rq R(θq ) les (éventuels) blocs
diagonaux de B de taille (2, 2), et posons :
Par construction, pour tout z ∈ Z, on a z ∈ Z, et donc d’après la question Q 18), appliquée en notant z1 , . . . , zn les
éléments deux à deux distincts de la liste λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq , il existe un polynôme réel P tel que
pour tout z ∈ Z, P (z) = z, i.e. tel que :
Rq. On a ainsi montré par les questions Q 10), Q 11), Q 17) et Q 20) que les conditions (C1 ), (C2 ), (C3 ) et (C4 ) sont
équivalentes, donc le premier objectif du problème est atteint.
(b) Par linéarité de la somme des séries convergentes, puisque cos(kθ) + i sin(kθ) = eikθ :
X
+∞ k
r cos(kθ) X
+∞ k
r sin(kθ) X
+∞
(reiθ )k iθ
+i = = ere = er cos(θ) eir sin(θ)
k! k! k!
k=0 k=0 k=0
X
+∞ k
r cos(kθ) X
+∞ k
r sin(kθ)
r cos(θ)
=e cos(r sin θ) et = er cos(θ) sin(r sin θ).
k! k!
k=0 k=0
P
n
Q 22). Notons A = (ai,j ) et B = (bi,j ), de sorte que AB = (ci,j ) où ci,j = ai,k bk,j .
k=1
P
n P
n
Alors ∀(i, j) ∈ J1; nK2 , |ci,j | ⩽ |ai,k ||bk,j | ⩽ kAk∞ kBk∞ = nkAk∞ kBk∞ .
k=1 k=1
Donc kABk∞ ⩽ nkAk∞ kBk∞ .
MP 2023-2024 Correction ds08 7
Q 23). Comme suggéré par l’énoncé, on note (M )i,j le coefficient d’indices (i, j) d’une matrice M .
Rappels. On rappelle qu’une suite (Mp )p∈N d’éléments de Mn converge vers une matrice M dans Mn si et seulement si
pour tout (i, j) ∈ J1; nK2 , la suite de terme général (Mp )i,j converge vers Mi,j .
(a) Montrer que la suite (Sp (A))p∈N converge dans Mn revient à montrer que pour tout (i, j) ∈ J1; nK2 , la suite de terme
Pp
(Ak )i,j P (Ak )i,j
général (Sp (A))i,j = k! converge, i.e. que la série k! converge.
k=0 k∈N
Or par récurrence immédiate à partir de la question Q 22), on a ∀k ∈ N, kAk k∞ ⩽ (nkAk∞ )k , donc
Or par définition de l’exponentielle d’une matrice donnée en (a), on a Sp (Q⊤ AQ) −→ Exp(Q⊤ AQ).
p→+∞
⊤
Et vu la définition du produit matriciel (ou puisque l’application M 7→ Q M Q est continue car linéaire en dimension
finie, ou via la question Q 22)), on a Q⊤ Sp (A)Q −→ Q⊤ Exp(A)Q.
p→+∞
Donc par unicité de la limite :
Exp(Q⊤ AQ) = Q⊤ Exp(A)Q.
Q 24). (a) Par caractérisation séquentielle des fermés, montrer que En est fermé revient à montrer que pour toute suite (Ap )p∈N
d’éléments de En convergeant vers une matrice B ∈ Mn , on a B ∈ En .
Mais si Ap −→ B, alors de façon évidente, A⊤ ⊤
p −→ B (on peut aussi invoquer la continuité de la transposition,
p→+∞ p→+∞
qui est continue car linéaire en dimension finie), et donc vu la définition du produit matriciel (ou via la question Q
22)) :
Ap A⊤p −→ BB
⊤
et A⊤ p Ap −→ B B.
⊤
p→+∞ p→+∞
(b) Notons Gn l’ensemble des matrices de Mn qui sont ORTS à une matrice diagonale par blocs avec des blocs diagonaux
de type (µ) ou αR(β), où µ, α > 0 et β ∈ R.
On montre que Exp(En ) = Gn par double inclusion.
• Soit A ∈ En . Montrons que Exp(A) ∈ Gn .
Les conditions (C2 ) et (C4 ) étant équivalentes, A est ORTS à une matrice B diagonale par blocs avec des blocs
diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
D’après la question Q 23), Exp(A) est alors ORTS à Exp(B).
MP 2023-2024 Correction ds08 8
Mais pour tout p ∈ N, un calcul par blocs montre que la matrice Sp (B) est diagonale par blocs avec des blocs
P
p
λk
diagonaux de type Sp ((λ)) = ( k! ) ou Sp (rR(θ)), donc en passant à la limite quand p → +∞, on voit avec (a)
k=0
que Exp(B) est diagonale par blocs avec des blocs diagonaux de type (eλ ) ou Exp(rR(θ)) = er cos(θ) R(r sin θ).
Comme µ = eλ > 0, α = er cos(θ) > 0, et β = r sin θ ∈ R, cela montre que Exp(A) ∈ Gn .
D’où l’inclusion Exp(En ) ⊂ Gn .
• Soit M ∈ Gn . Montrons l’existence d’une matrice A ∈ En telle que M = Exp(A).
Puisque M ∈ Gn , M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux de type (µ) ou
αR(β), où µ, α > 0 et β ∈ R.
Soit alors Q ∈ On tel que N = Q⊤ M Q, i.e. M = QN Q⊤ .
Puisque R(0) = R(2π) = I2 , on peut supposer que pour chaque bloc diagonal de type αR(β) dans N , on a
(α, β) 6= (1, 0), quitte à changer β = 0 en β = 2π, ou à voir le bloc R(0) = I2 comme deux blocs (1) de taille
(1, 1).
Soit alors B ∈ Mn la matrice diagonale par blocs déduite de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc (λ) où λ = ln(µ),
∗ chaque bloc diagonal de type αR(β) de N par un bloc rR(θ) où r > 0 et θ ∈ R sont respectivement le
module et un argument du complexe ln(α) + iβ, qui est non nul puisqu’on a supposé (α, β) 6= (1, 0) (ce qui
garantit que r = | ln(α) + iβ| > 0 et que θ est bien défini modulo 2π), de sorte que r cos(θ) = ln(α), i.e.
er cos(θ) = α, et r sin(θ) = β.
Et soit enfin A = QBQ⊤ , de sorte que B = Q⊤ AQ.
Alors par définition, A est ORTS à B qui est du type décrit en (C4 ), donc A vérifie (C4 ), i.e. A ∈ En puisque
les conditions (C4 ) et (C2 ) sont équivalentes.
Et vu la question Q 23), Exp(B) = Q⊤ Exp(A)Q. Mais vu les calculs faits dans le point précédent, on a
Exp(B) = N , donc
Exp(A) = Q Exp(B)Q⊤ = QN Q⊤ = M.
Ainsi M ∈ Exp(En ). D’où l’inclusion Gn ⊂ Exp(En ).
• On a donc bien, par double inclusion, Exp(En ) = Gn .
Q 26). Vu la question Q 25), il s’agit de démontrer que Gn = Fn , avec la notation Gn qui y est introduite. On procède par double
inclusion.
• Soit M ∈ Gn , i.e. M ∈ Mn et M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux de type
(µ) ou αR(β), où µ, α > 0 et β ∈ R. Et soit Q ∈ On tel que N = Q⊤ M Q.
Montrons que M ∈ Fn .
• Montrons que les valeurs propres négatives de M sont de multiplicité paire.
Puisque les matrices M et N sont semblables, elles ont les mêmes valeurs propres, et un calcul par blocs montre
que le polynôme caractéristique de N est un produit de termes de type :
∗ X − µ pour chaque bloc diagonal de N de type (µ), et
∗ χαR(β) = X 2 − tr(αR(β))X + det(αR(β)) = X 2 − 2α cos(β)X + α2 = (X − αeiβ )(X − αe−iβ ) pour
chaque bloc diagonal de N de type αR(β) (calcul déjà fait en question Q 19)).
Les valeurs propres de M sont donc les réels µ > 0 pour chaque bloc diagonal de N de type (µ), et les complexes
αe±iβ pour chaque bloc diagonal de N de type αR(β).
Les valeurs propres négatives de M sont donc les éventuels αe±iβ où β ≡ π [2π], auquel cas αeiβ = αe−iβ = −α.
Ces valeurs propres sont donc de multiplicité paire, chaque bloc αR(π) apportant deux copies de la valeur propre
−α.
• Montrons que M = ST = T S où S ∈ Sn++ et T ∈ SOn .
Un calcul par blocs montre que N = S1 T1 = T1 S1 , où les matrices diagonales par blocs S1 et T1 se déduisent
de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc (µ) dans S1 et un bloc (1) dans T1 ,
∗ chaque bloc diagonal de type αR(β) de N par un bloc αI2 dans S1 et un bloc R(β) dans T1 .
On a alors S1 ∈ Sn++ de façon évidente (car S1 est diagonale et à coefficients diagonaux strictement positifs), et
T1 ∈ SOn puisque des calculs par blocs montrent que T1⊤ T1 = In et det(T1 ) = 1. Et on a alors M = QN Q⊤ =
(QS1 Q⊤ )(QT1 Q⊤ ) = (QT1 Q⊤ )(QS1 Q⊤ ), i.e.
M = ST = T S
⊤
où S = QS1 Q⊤ ∈ Sn++ puisque S⊤ = (QS1 Q⊤ ) = QS⊤ ⊤ ⊤
1 Q = QS1 Q = S et que S et S1 sont semblables
⊤
donc ont les mêmes valeurs propres, et où T = QT1 Q ∈ SOn puisqu’un produit de matrices orthogonales est
une matrice orthogonale et que T et T1 sont semblables donc ont le même déterminant.
MP 2023-2024 Correction ds08 9