Explorer les Livres électroniques
Catégories
Explorer les Livres audio
Catégories
Explorer les Magazines
Catégories
Explorer les Documents
Catégories
PROBLÈME
D’après CCINP PC 2018
Remarque : Promis, je n’ai pas fait exprès de les déterminer, ils sont apparus tous seuls, comme des
grands... L’énoncé attendait certainement une autre méthode, que je vais mettre en œuvre ci-dessous.
• Comme -1 et 1 sont racines de multiplicité n de Un , elles sont racines de multiplicité n − 1 de Un0 ,
donc il existe Q ∈ R[X] tels que
= λφ(P ) + φ(Q),
deg(φ(P )) = deg((X 2 − 1)P 00 + 2XP 0 ) ≤ max((X 2 − 1)P 00 , 2XP 0 ) = max(2 + deg(P 00 ), 1 + deg(P 0 ))
≤ max(2 + deg(P ) − 2, 1 + deg(P ) − 1) = max(deg(P ), deg(P )) = deg(P ),
φ(X 0 ) = φ(1) = 0
φ(X 1 ) = 2X
et, pour tout j ∈ [[2, n]],φ(X j ) = (X 2 − 1)j(j − 1)X j−2 + 2XjX j−1
= j(j − 1)X j − j(j − 1)X j−2 + 2jX j = j(j + 1)X j − j(j − 1)X j−2 .
Par identification, on a :
donc M est bien triangulaire supérieure et, ∀k ∈ [[0, n]], mk,k = k(k + 1).
j(j + 1)
si i = j
2
Remarque : Pour tout (i, j) ∈ [[0, n]] , mi,j = −j(j − 1) si i = j − 2 .
0 sinon
n
10. D’après la formule de Leibniz pour les polynômes, en prenant la convention (habituelle) = 0 si
k
k 6∈ [[0, n]],
k+1
X k+1
2
((X − 1)Uk0 )(k+1) = (X 2 − 1)(i) (Uk0 )(k+1−i)
i
i=0
k+1 k+1 k+1
= (X 2 − 1)(Uk0 )(k+1) + (X 2 − 1)0 (Uk0 )(k) + (X 2 − 1)00 (Uk0 )(k−1)
0 1 2
k+1−i
X k + 1
+ (X 2 − 1)(i) (Uk0 )(k+1−i)
i | {z }
k=3 =0 car i≥3
11. Pour tout k ∈ [[0, n]], Lk ∈ Rn [X] (car deg(Lk ) = k ≤ n), Lk 6= 0 (car ak 6= 0) et :
(k) (k+2) (k+1) (k)
φn (Lk ) = φ(Uk ) = (X 2 − 1)Uk + 2XUk = k(k + 1)Uk = k(k + 1)Lk ,
cf Q10
par positivité de l’intégrale (bornes dans le bon sens), donc h·, ·i est positif.
• Soit P ∈ R[X] tel que hP, P i = 0.
Comme t 7→ P (t)2 est continue et positive sur [−1, 1] et −1 < 1,
Z 1
hP, P i = 0 ⇔ (P (t))2 dt = 0 ⇔ ∀t ∈ [−1, 1], P (t) = 0.
−1
Posons u0 (t) = (t2 − 1)P 00 (t) + 2tP 0 (t), u(t) = (t2 − 1)P 0 (t), v(t) = Q(t), v 0 (t) = Q0 (t).
Comme u et v sont de classe C 1 sur [−1, 1], on peut intégrer par parties et on a :
Z 1
hφ(P ), Qi = ((t2 − 1)P 00 (t) + 2tP 0 (t))Q(t)dt
−1
1
Z 1 Z 1
0 0 0
2 2
(t2 − 1)P 0 (t)Q0 (t)dt.
= (t − 1)P (t)Q(t) −1 − (t − 1)P (t)Q (t)dt = −
| {z } −1 −1
=0
15. Le plus simple est de remarquer la famille des Lk (k ∈ [[1, n]]) constitue une base de vecteurs propres
de φ, chaque Lk engendrant la droite vectorielle propre associée à la valeur propre k(k + 1).
Or par la question précédente φ étant symétrique, par le théorème spectral φ est diagonalisable dans
une base orthonormée de vecteurs propres (u0 , . . . , un ) où uk engendre Ek(k+1) donc uk et Lk sont
colinéaires.
On en déduit que la famille (Lk )k∈[[0,n]] reste orthogonale pour tout n ∈ N donc la famille (Ln )n∈N est
donc bien orthogonale pour le produit scalaire h·, ·i.
18. Soit n ∈ N.
• Rn [X] est un sous-espace vectoriel de dimension finie de R[X].
Donc, d’après la caractérisation par la distance du projeté orthogonal sur un sous-espace vectoriel de
dimension finie, il existe un unique polynôme Tn ∈ Rn [X] tel que : d(P, Rn [X]) = kP − Tn k et Tn est
le projeté orthogonal de P sur Rn [X].
• D’après le théorème de Pythagore,
kP k2 = kTn k2 + kP − Tn k2 ,
donc
Xn
19. • On a, pour tout n ∈ N, (ck (P ))2 = kP k2 − d(P, Rn [X])2 ≤ kP k2 .
n
!k=0
X
• La suite (ck (P ))2 est croissante, donc elle converge (croissante et majorée par kP k2 ).
k=0 n∈N
+∞
X
• Par suite, la série (ck (P ))2 converge et (ck (P ))2 ≤ kP k2 .
P
k=0
Remarque : Je pense que la preuve ci-dessus est celle attendue, mais il y a plus simple et on aboutit
en plus à un résultat plus précis... r
2k + 1
Soit P ∈ R[X]. Posons n = deg(P ). Alors, pour tout k > n, hP, Qk i = hP, Lk i = 0 (d’après
2
le 16.)P
D’où (ck (P )2 converge (car (ck (P ))2 est nul au-delà d’un certain rang) et
+∞
X n
X n
X
2 2
(ck (P )) = (ck (P )) = hP, Qk i2 = kP k2
k=0 k=0 k=0
EXERCICE 1
D’après CCINP PSI 2010, repris dans E3A PSI 2020
Les valeurs propres de ` sont les racines de χ` et donc eiθ et e−iθ (valeurs distinctes puisque θ ∈]0, π[).
2. On doit prendre garde au fait que (v1 , v2 ) n’est pas une base orthogonale (elle est normée mais v1 et
v2 ne sont pas orthogonaux). On a
kvk2 = x21 kv1 k2 + 2x1 x2 (v1 |v2 ) + x22 kv2 k2 = x21 + 2 cos(θ)x1 x2 + x22
De plus, `(v) = −x2 ε1 +(x1 +2x2 cos(θ))ε2 et on peut reprendre le calcul avec ces nouvelles coordonnées
pour obtenir
k`(v)k2 = x21 + 2 cos(θ)x1 x2 + x22
l est donc un endomorphisme de R2 qui conserve la norme : c’est un automorphisme orthogonal.
3. Par définition, on connaı̂t P et on en déduit P −1 :
1 cos(θ) −1 1 sin(θ) − cos(θ)
P = et P =
0 sin(θ) sin(θ) 0 1
∀k ∈ N, kvk k = kv1 k = 1
(b) vk s’obtient à partir de v1 en composant k − 1 fois par l c’est à dire en appliquant la rotation
d’angle (k − 1)θ. En notant v10 un vecteur normé directement orthogonal à v1 on a donc vk =
cos((k − 1)θ)v1 + sin((k − 1)θ)v10 et ainsi
C’est un système de Cramer (matrice inversible puisque de déterminant 1 − cos2 (θ) 6= 0) qui a
une unique solution. Il suffit donc de vérifier que la solution proposée est la bonne ce qui découle
des formules de trigonométrie. Par exemple, pour la première équation, on est ramené à
EXERCICE 2
CCINP PC 2019
+∞
X +∞
X
f 00 (x) = n(n − 1)an xn−2 = (n + 2)(n + 1)an+2 xn
n=2 n=0
Par propriété des séries entières, ces deux séries sont aussi de rayon r.
+∞
X
2 00
2. On a donc, pour x ∈] − r; r[, x f (x) = n(n − 1)an xn
n=1
+∞
X
x3 f 00 (x) = (n − 1)(n − 2)an−1 xn
n=1
+∞
X
xf 0 (x) = nan xn
n=1
+∞
X
x2 f 0 (x) = (n − 1)an−1 xn
n=1
+∞
X
f (x) = a0 + an xn .
n=1
Par conséquent,
+∞
X
x2 (1 − x)f 00 (x) − x(1 + x)f 0 (x) + f (x) = a0 + n(n − 1)an − (n − 1)(n − 2)an−1 − nan
n=1
−(n − 1)an−1 + an xn
+∞
X
(n2 − 2n + 1)an − (n2 − 3n + 2 + n − 1)an−1 xn
= a0 +
n=1
+∞
X
= a0 + (n − 1)2 (an − an−1 )xn
n=1
3. La somme d’une série entière est nulle sur ] − r; r[ (r > 0) si et seulement si tous ses coefficients sont
nuls (unicité d’un développement en série entière) donc, d’après la question précédente, f est solution
de (H) si et seulement si a0 = 0 et, pour tout n ≥ 2, bn (an − an−1 ) = 0. Mais, pour n ≥ 2, bn 6= 0
donc an − an−1 = 0.
En passant de n à n + 1 on a finalement : f est solution de (H) sur ] − r; r[ si et seulement si a0 = 0
et, pour tout n ∈ N∗ , an+1 = an .
4. On suppose que f estX solution de (H) sur ] − r; r[. Alors, a0 = 1 et, pour tout n ≥ 1, an = a1 .
La série géométrique xn est de rayon 1 donc r ≥ 1 (r = +∞ si a1 = 0) et, en posant = a1 , pour
+∞
X
x ∈] − 1; 1[, f (x) = λ xn .
n=1
Il s’agit de la somme d’une série géométrique de raison x ∈] − 1; 1[ et de premier terme x donc, pour
x ∈] − 1; 1[,
λx
f (x) =
1−x
λx
5. Soit ∈ R et g la fonction x 7→ .
1−x
+∞
X
Alors, d’après le calcul précédent, pour x ∈] − 1; 1[, g(x) = λxn : g est la somme d’une série entière
n=1
+∞
X
de rayon 1 > 0. De plus, pour x ∈] − 1; 1[, g(x) = an xn avec a0 = 0 et, pour n ≥ 1, an = λ ; par
n=0
conséquent, pour tout n ≥ 1, an+1 = an .
On peut donc utiliser la question 3. (qui est une équivalence) pour conclure que g est une solution de
(H) sur ] − 1; 1[, développable en série entière.
7. Pour x ∈ I,
2 0 2 1
xz 00 (x) + z 0 (x) = (1 − x)y 00 (x) −y (x) + 2 y(x) + (1/x − 1)y 0 (x) − 2 y(x)
x x x
1 2 00 0
= x (1 − x)y (x) − x(1 + x)y (x) + y(x)
x2
donc y est solution de (E) sur I si et seulement si z est solution sur I de l’équation
xz 00 + z 0 = 2x
8. z est solution de (E1 ) sur I si et seulement si z 0 est solution sur (I) de l’équation
(E2 ) : xZ 0 + Z = 2x.
1
L’équation homogène associée à (E2 ) est (H2 ) : xZ 0 + Z = 0, équivalente à Z 0 + Z = 0 (x ne s’annule
x
1
pas sur I). a : x 7→ est continue sur I ; une primitive de a est x 7→ ln(x) donc les solutions de (H2 )
x
λ
sont les fonctions de la forme x 7→ λe− ln(x) , ∈ R, c’est-à-dire x 7→ .
x
x 7→ x est solution particulière de (E2 ) donc les solutions de (E2 ) sont les fonctions de la forme
λ
x 7→ + x.
x
Finalement, z est solution de (E1 ) sur I si et seulement si il existe ∈ R tel que, pour tout x ∈ I,
λ
z 0 (x) = + x.
x
x2
9. Ceci équivaut à l’existence de µ ∈ R tel que, pour tout x ∈ I, z(x) = λ ln(x) + + µ.
2
1 1−x
De plus, pour x ∈ I, − 1 = 6= 0 donc y est solution de (E) sur I si et seulement si il existe
x x
x2
x
(λ, µ) ∈ R2 tel que, pour tout x ∈ I, y(x) = λ ln(x) + +µ .
1−x 2
Les solutions de (E) sur I sont donc les fonctions de la forme
λx µx x3
x 7→ ln(x) + +
1−x 1 − x 2(1 − x)
λ1 x ln(x) 2µ1 x + x3
∀x ∈]0; 1[, f (x) = +
1−x 2(1 − x)
λ2 x ln(x) 2µ2 x + x3
∀x ∈]1; +∞[, f (x) = +
1−x 2(1 − x)
ln(x)
f doit être continue en 1 donc doit avoir une limite finie en 1. lim = −1 (limite usuelle) donc
x→1 1−x
1
on doit avoir 2µ1 + 1 = 2µ2 + 1 = 0 : µ1 = µ2 = − .
2
λ1 x ln(x) −x + x3 λ1 x ln(x) x(1 + x)
Pour x ∈]0; 1[, f (x) = + = −
1−x 2(1 − x) 1−x 2
Pour obtenir le nombre dérivée de f à gauche à 1, on cherche le DL1 (1) de f :
1
Pour h au voisinage de 0, ln(1 + h) = h − h2 + o(h2 ) donc
2
(1 + h)(h − h2 /2 + o(h2 )) (1 + h)(2 + h)
f (1 + h) = −λ1 −
h 2
et, après simplification,
λ1 3
f (1 + h) = −λ1 − 1 − − − h + o(h)
2 2
λ1 3
On en déduit que fg0 (1) = − − .
2 2
0 λ2 3
De même, fd (1) = − −
2 2
f est dérivable donc λ1 = λ2 .
λ1 x ln(x) x(1 + x)
Par conséquent, pour x ∈ R+∗ , f (x) = − et f (1) = −λ1 − 1.
1−x 2
Pour la réciproque, il suffit que montrer qu’une telle fonction est de classe C 2 sur R+∗ .
ln(1 + h) (1 + h)(2 + h)
f (1 + h) = −λ1 (1 + h) − .
h 2
ln(1 + h)
h 7→ est prolongeable en une fonction développable en série entière de rayon 1 donc f est de
∞
h
classe C .
1
On peut alors conclure que les solutions de (E) sur R+∗ sont les fonctions f définies par f (1) = −λ1 −
2
λ1 x ln(x) x(1 + x)
et, pour x 6= 1, f (x) = − avec λ1 réel quelconque.
1−x 2
2 Exemples
2. (a) Soit S ∈ Sn . On a t S = S, donc :
(C1 ) t S = S = P (S) où P est le monôme P (X) = X.
(C2 ) S est normale puisqu’elle commute avec t S = S.
(C3 ) Pour tout X ∈ En , kt SXk = kSXk de façon évidente.
(C4 ) D’après le théorème spectral, S est ORTS à une matrice diagonale, donc diagonale par blocs
avec des blocs diagonaux tous de taille (1, 1), donc S vérifie (C4 ).
(b) Soit A ∈ An . On a t A = −A, donc :
(C1 ) t A = −A = P (A) où P est le monôme P (X) = −X.
(C2 ) A est normale puisqu’elle commute avec t A = −A.
(C3 ) Pour tout X ∈ En , kt AXk = k − AXk = kAXk par homogénéité de la norme.
3. Soit Q ∈ On . On a t Q = Q−1 ∈ On , donc :
(C2 ) Q est normale puisqu’elle commute avec t Q = Q−1 .
(C3 ) Pour tout X ∈ En , kt QXk = kXk = kQXk puisque les endomorphismes de En canoniquement
associés à Q et t Q = Q−1 sont des isométries.
Rq. Cela se retrouve par le calcul kQXk2 = t (QX)QX = t X t QQX = t XX = kXk2 .
4. La matrice T ∈ O2 est de type R(θ) ou S(θ), où θ ∈ R (voir les rappels de cours en préambule).
(a) Cas T = S(θ).
Dans ce cas, la matrice M = rT est symétrique réelle, donc d’après la question 2, elle vérifie les
conditions (C1 ) à (C4 ).
(b) Cas T = R(θ).
Dans ce cas, la matrice M = rT = rR(θ) vérifie la condition (C4 ) de façon évidente (M est ORTS
à elle-même), et elle vérifie la condition (C1 ) puisque
tM = r cos θ sin θ cos θ − sin θ
= 2r cos(θ)I2 − r ,
− sin θ cos θ sin θ cos θ
Donc ∀X ∈ En , kt AXk = kAXk (puisque les normes sont positives), i.e. A vérifie (C3 ).
où r ∈ R∗+ et θ ∈ R sont tels que a = r cos θ et b = r sin θ, i.e. où r et θ sont respectivement
le module et un argument du complexe a + ib (on a bien r > 0 car b 6= 0).
Donc dans ce cas, A vérifie (C4 ) de façon évidente (A est ORTS à elle-même).
Dans tous les cas, la matrice A vérifie donc bien la condition (C4 ).
8. Rq. Les deux méthodes ci-dessous présentent les mêmes calculs sous deux formes différentes.
Méthode 1.
Les identités remarquables ku ± vk2 = kuk2 + kvk2 ± 2(u|v) donnent, pour tout X ∈ En :
— k(A − λIn )Xk2 = kAX − λXk2 = kAXk2 + 2 kXk2 − 2λ(AX|X), et
— kt (A − λIn )Xk2 = k(t A − λIn )Xk2 = kt AX − λXk2 = kt AXk2 + 2 kXk2 − 2λ(t AX|X).
Or (AX|X) = t (AX)X = t X t AX = (X|t AX) = (t AX|X), et on suppose que A vérifie (C3 ), donc
kAXk2 = kt AXk2 . Ainsi ∀X ∈ En , k(A − λIn )Xk = kt (A − λIn )Xk (car les normes sont positives),
i.e. A − λIn vérifie (C3 ).
Méthode 2.
En revenant à la définition de la norme associée au produit scalaire, on a, pour tout X ∈ En :
— k(A − λIn )Xk2 = t X(t A − λIn )(A − λIn )X = t X(t AA − λA − t A + 2 In )X .
= t X t AAX − λt XAX − λt X t AX + 2t XX
— kt (A − λIn )Xk2 = t X(A − λIn )(t A − λIn )X = t X(At A − λA − t A + 2 In )X .
= t XAt AX − λt XAX − λt X t AX + 2t XX
Or A vérifie (C3 ) donc t X t AAX = t (AX)AX = kAXk2 = kt AXk2 = t (t AX)t AX = t XAt AX. Ainsi
∀X ∈ En , k(A − λIn )Xk = kt (A − λIn )Xk (car les normes sont positives), i.e. A − λIn vérifie (C3 ).
9. (a) Vu la question précédente (et la séparation de la norme), pour tout X ∈ En et tout λ ∈ R :
Ainsi pour tout ∈ R, Ker(A − λIn ) = Ker(t A − λIn ), et donc les matrices A et t A ont les mêmes
sous-espaces propres.
(b) Soient λ 6= µ dans R et soient X ∈ Ker(A − λIn ) et Y ∈ Ker(A − µIn ) = Ker(t A − µIn ). Alors
AX = λX et t AY = µY , donc :
où A1 ∈ Mp , A2 ∈ Mn−p et où A3 est une matrice réelle de taille (p, n − p).
— Montrons que A3 = 0.
D’après l’indication montrée en (a), la matrice B vérifie la condition (C3 ), donc ∀X ∈ En ,
kBXk2 = kt BXk2 , i.e. en explicitant ces calculs de normes comme en (a) :
t
(?) : ∀X ∈ En , X t BBX = t XB t BX.
Or pour toute matrice M ∈ Mn et tout i ∈ [[1, n]], en notant ei le i-ème élément de la base
canonique de En (i.e. la colonne dont tous les coefficients sont nuls sauf le i-ème qui vaut 1),
le calcul t ei M ei donne le i-ème coefficient diagonal (M )i,i de M .
Vu (?), les matrices t BB et B t B ont donc les mêmes coefficients diagonaux. Or un calcul par
blocs donne
t tA A
t
A1 A1 + A3 t A3 A3 t A2
t A1 A1 1 3 t
BB = t et B B =
A3 A1 t A3 A3 + t A2 A2 A2 t A3 A2 t A2
donc les égalités des coefficients diagonaux de t BB et B t B donnent en particulier, pour tout
i ∈ [[1, p]], (t A1 A1 )i,i = (A1 t A1 )i,i + (A3 t A3 )i,i et donc en sommant ces égalités :
tr(t A1 A1 ) = tr A1 t A1 ) + tr(A3 t A3 ).
où l’on a encore noté k · k la norme associée au produit scalaire usuel (M, N ) 7→ tr(t M N ) sur
Mp,n−p (R). Ainsi kA3 k = 0, et donc A3 = 0 (par séparation de la norme).
A1 0
Ainsi A est orthogonalement semblable à la matrice B = .
0 A2
— Montre que A1 et A2 vérifient (C3 ).
X1
En calculant par blocs les produits de l’égalité (?) ci-dessus, avec X = où X1 ∈ Ep et
X2
X2 ∈ En−p , on obtient :
t
∀(X1 , X2 ) ∈ Ep × En−p , X1 t A1 A1 X1 + t X2 t A2 A2 X2 = t X1 A1 t A1 X1 + t X2 A2 t A2 X2 .
où l’on a encore noté k · k les normes associées aux produits scalaires usuels sur Ep et En−p .
Ainsi ∀X1 ∈ Ep , kA1 X1 k = kt A1 X1 k et ∀X2 ∈ En−p , kA2 X2 k = kt A2 X2 k (car les normes
sont positives), i.e. A1 et A2 vérifient (C3 ).
12. Montrons par récurrence sur n ∈ N∗ que ∀A ∈ Mn , A vérifie (C3 ) =⇒ A vérifie (C4 ).
— Initialisation.
Le cas n = 1 est trivial puisque toute matrice de M1 vérifie (C3 ) et (C4 ).
Le cas n = 2 a été démontré en question 7.
— Hérédité.
Soit n > 3 tel que toute matrice carrée de taille 6 n − 1 vérifiant (C3 ) vérifie aussi (C4 ).
Soit alors A ∈ Mn vérifiant (C3 ).
A1 0
D’après la question 11, A est orthogonalement semblable à une matrice B = où A1 ∈
0 A2
Mp et A2 ∈ Mn−p vérifient (C3 ), avec p ∈ {1, 2}. Par hypothèse de récurrence, les matrices A1
et A2 vérifient donc aussi (C4 ), i.e. sont ORTS à des matrices B1 et B2 diagonales par blocs avec
des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Notons Q1 ∈ Op et Q2 ∈ On−p des matrices telles que B1 = t Q1 A1 Q1 et B2 = t Q2 A2 Q2 . Alors
un calcul par blocs donne :
t
B1 0 Q1 0 A1 0 Q1 0
=
0 B2 0 t Q2 0 A2 0 Q2
Q1 0
et la matrice Q = est orthogonale puisque
0 Q2
t t
t Q1 0 Q1 0 Q1 Q1 0 Ip 0
QQ = tQ = tQ Q = = In .
0 2 0 Q2 0 2 2 0 In−p
B1 0
Ainsi par transitivité de la relation ORTS, A est ORTS à la matrice , qui est diagonale
0 B2
par blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R, puisque c’est le
cas de B1 et B2 . Ainsi A vérifie (C4 ).
— Conclusion.
On en déduit par récurrence que ∀n ∈ N∗ , si A ∈ Mn vérifie (C3 ), alors A vérifie (C4 ).
D’où l’existence et l’unicité de P ∈ Cn−1 [X] tel que ∀j ∈ [[1, n]], P (zj ) = zj : c’est l’unique
polynôme de Cn−1 [X] dont les coordonnées dans la base (L1 , . . . , Ln ) sont les scalaires z1 , . . . , zn .
(b) On suppose de plus que pour tout k ∈ [[1, n]], zk ∈ Z, donc on a aussi P (zk ) = zk = zk .
Montrer que P ∈ R[X] revient à montrer que P = P , où P est le polynôme dont les coefficients
sont les conjugués de ceux de P . Et vu l’unicité montrée en (a), il suffit pour cela de montrer que
pour tout k ∈ [[1, n]], P (zk ) = zk .
Or il est clair que pour tout z ∈ C, P (z) = P (z), donc pour tout k ∈ [[1, n]], P (zk ) = P (zk ) = zk .
On a donc bien P = P , i.e. P ∈ R[X].
14. Notons χ(X) = X 2 − tr(rR(θ))X + det(rR(θ)) = X 2 − 2r cos(θ)X + r2 = (X − reiθ )(X − re−iθ ) le
polynôme caractéristique de la matrice rR(θ), et
P (X) = χ(X)B(X) + aX + b
Rq. Si sin(θ) = 0, alors P (r cos(θ)) = r cos(θ), et rR(θ) = r cos(θ)I2 , donc de façon évidente,
P (rR(θ)) = rR(θ) = t (rR(θ)). Mais il n’est pas nécessaire de distinguer ce cas dans les calculs précé-
dents.
15. Soit A ∈ Mn vérifiant (C4 ), i.e. A est orthogonalement semblable à une matrice B ∈ Mn diagonale
par blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Soit alors Q ∈ On telle que B = t QAQ, i.e. telle que A = QB t Q.
Notons (λ1 ), . . . , (λp ) les (éventuels) blocs diagonaux de B de taille (1, 1), et r1 R(θ1 ), . . . , rq R(θq ) les
(éventuels) blocs diagonaux de B de taille (2, 2), et posons :
Z = {λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq }.
Par construction, pour tout z ∈ Z, on a z ∈ Z, et donc d’après la question 13, appliquée en notant
z1 , . . . , zn les éléments deux à deux distincts de la liste λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq , il
existe un polynôme réel P tel que pour tout z ∈ Z, P (z) = z, i.e. tel que :
∀k ∈ [[1, p]], P (λk ) = λk et ∀k ∈ [[1, q]], P (rk eiθk ) = rk e−iθk .
D’après la question 14, on a alors ∀k ∈ [[1, q]], P (rk R(θk )) = t (rk R(θk )), et donc par un calcul par
blocs, P (B) = t B. On conclut alors avec le théorème 2 du préambule que :
P (A) = QP (B)t Q = Qt B t Q = t (QB t Q) = t A.
Donc A vérifie (C1 ).
Rq. On a ainsi montré par les questions 5, 6, 12 et 15 que les conditions (C1 ), (C2 ), (C3 ) et (C4 ) sont
équivalentes, donc le premier objectif du problème est atteint.
18. Comme suggéré par l’énoncé, on note (M )i,j le coefficient d’indices (i, j) d’une matrice M .
Rappels. On rappelle qu’une suite (Mp )p∈N d’éléments de Mn converge vers une matrice M dans Mn
si et seulement si pour tout (i, j) ∈ [[1, n]]2 , la suite de terme général (Mp )i,j converge vers Mi,j .
(a) Montrer que la suite (Sp (A))p∈N converge dans Mn revient à montrer que pour tout (i, j) ∈ [[1, n]]2 ,
p
P (Ak )i,j P (Ak )i,j
la suite de terme général (Sp (A))i,j = k! converge, i.e. que la série k! converge.
k=0 k∈N
Or par récurrence immédiate à partir de la question 17, on a ∀k ∈ N, kAk k∞ 6 (nkAk∞ )k , donc
k
(A )i,j kAk k∞ (nkAk∞ )k
∀k ∈ N, 6 6 ,
k! k! k!
P (nkAk∞ )k P (Ak )i,j
et la série exponentielle k! converge, donc par comparaison, la série k! converge
k∈N k∈N
absolument, donc converge.
Ainsi la suite (Sp (A))p∈N converge bien dans Mn .
(b) Soit Q ∈ On . Par le théorème 2 du préambule, on a pour tout p ∈ N :
Or par définition de l’exponentielle d’une matrice donnée en (a), on a Sp (t QAQ) −→ Exp(t QAQ).
p→+∞
Et vu la définition du produit matriciel (ou puisque l’application M 7→ t QM Q est continue car
linéaire en dimension finie, ou via la question 17), on a t QSp (A)Q −→ t QExp(A)Q.
p→+∞
Donc par unicité de la limite :
19. (a) Par caractérisation séquentielle des fermés, montrer que En est fermé revient à montrer que pour
toute suite (Ap )p∈N d’éléments de En convergeant vers une matrice B ∈ Mn , on a B ∈ En .
Mais si Ap −→ B, alors de façon évidente, t Ap −→ t B (on peut aussi invoquer la continuité
p→+∞ p→+∞
de la transposition, qui est continue car linéaire en dimension finie), et donc vu la définition du
produit matriciel (ou via la question 17) :
Ap t Ap −→ B t B et t
Ap Ap −→ t
BB.
p→+∞ p→+∞
Ainsi vu la question 16 :
r cos(θ) cos(r sin θ) − sin(r sin θ)
Exp(rR(θ)) = lim Sp (rR(θ)) = e = er cos(θ) R(r sin θ).
p→+∞ sin(r sin θ) cos(r sin θ)
(b) Notons GLn l’ensemble des matrices de Mn qui sont ORTS à une matrice diagonale par blocs
avec des blocs diagonaux de type (µ) ou αR(), où µ, α > 0 et β ∈ R.
¯
On montre que Exp(En ) = GLn par double inclusion.
— Soit A ∈ En . Montrons que Exp(A) ∈ GLn .
Les conditions (C2 ) et (C4 ) étant équivalentes, A est ORTS à une matrice B diagonale par
blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
D’après la question 18, Exp(A) est alors ORTS à Exp(B).
Mais pour tout p ∈ N, un calcul par blocs montre que la matrice Sp (B) est diagonale par
p
P λk
blocs avec des blocs diagonaux de type Sp ((λ)) = ( k! ) ou Sp (rR(θ)), donc en passant à
k=0
la limite quand p → +∞, on voit avec (a) que Exp(B) est diagonale par blocs avec des blocs
diagonaux de type (eλ ) ou Exp(rR(θ)) = er cos(θ) R(r sin θ).
Comme µ = eλ > 0, α = er cos(θ) > 0, et β = r sin θ ∈ R, cela montre que Exp(A) ∈ GLn .
D’où l’inclusion Exp(En ) ⊂ GLn .
— Soit M ∈ GLn . Montrons l’existence d’une matrice A ∈ En telle que M = Exp(A).
Puisque M ∈ GLn , M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux
de type (µ) ou αR(β), où µ, α > 0 et β ∈ R.
Soit alors Q ∈ On tel que N = t QM Q, i.e. M = QN t Q.
Puisque R(0) = R(2π) = I2 , on peut supposer que pour chaque bloc diagonal de type αR(β)
dans N , on a (α, β) 6= (1, 0), quitte à changer β = 0 en β = 2π, ou à voir le bloc R(0) = I2
comme deux blocs (1) de taille (1, 1).
Soit alors B ∈ Mn la matrice diagonale par blocs déduite de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc () où λ = ln(µ),
∗ chaque bloc diagonal de type αR(β) de N par un bloc rR(θ) où r > 0 et θ ∈ R sont res-
pectivement le module et un argument du complexe ln(α) + iβ, qui est non nul puisqu’on
a supposé (α, β) 6= (1, 0) (ce qui garantit que r = | ln(α) + iβ| > 0 et que θ est bien défini
modulo 2π), de sorte que r cos(θ) = ln(α), i.e. er cos(θ) = α, et r sin(θ) = β.
Et soit enfin A = QB t Q, de sorte que B = t QAQ.
Alors par définition, A est ORTS à B qui est du type décrit en (C4 ), donc A vérifie (C4 ), i.e.
A ∈ En puisque les conditions (C4 ) et (C2 ) sont équivalentes.
Et vu la question 18, Exp(B) = t QExp(A)Q. Mais vu les calculs faits dans le point précédent,
on a Exp(B) = N , donc
Exp(A) = QExp(B)t Q = QN t Q = M.
Les valeurs propres de M sont donc les réels µ > 0 pour chaque bloc diagonal de N de type
(µ), et les complexes αe±iβ pour chaque bloc diagonal de N de type αR(β).
Les valeurs propres négatives de M sont donc les éventuels αe±iβ où β ≡ π [2π], auquel cas
αeiβ = αe−iβ = −α. Ces valeurs propres sont donc de multiplicité paire, chaque bloc αR(π)
apportant deux copies de la valeur propre −α.
— Montrons que M = ST = T S où S ∈ Sn++ et T ∈ SOn .
Un calcul par blocs montre que N = S1 T1 = T1 S1 , où les matrices diagonales par blocs S1 et
T1 se déduisent de N en remplaçant :
— chaque bloc diagonal de type (µ) de N par un bloc (µ) dans S1 et un bloc (1) dans T1 ,
— chaque bloc diagonal de type αR() de N par un bloc αI2 dans S1 et un bloc R(β) dans
T1 . ¯
On a alors S1 ∈ Sn++ de façon évidente (car S1 est diagonale et à coefficients diagonaux
strictement positifs), et T1 ∈ SOn puisque des calculs par blocs montrent que t T1 T1 = In et
det(T1 ) = 1. Et on a alors M = QN t Q = (QS1 t Q)(QT1 t Q) = (QT1 t Q)(QS1 t Q), i.e.
M = ST = T S
où S = QS1 t Q ∈ Sn++ puisque t S = t (QS1 t Q) = Qt S1 t Q = QS1 t Q = S et que S et S1 sont
semblables donc ont les mêmes valeurs propres, et où T = QT1 t Q ∈ SOn puisqu’un produit
de matrices orthogonales est une matrice orthogonale et que T et T1 sont semblables donc
ont le même déterminant.
Donc par définition, M ∈ Fn . D’où l’inclusion GLn ⊂ Fn .
— Soit B ∈ Fn , i.e. B a toutes ses (éventuelles) valeurs propres négatives de multiplicité paire, et
B = ST = T S où S ∈ Sn++ et T ∈ SOn .
Montrons que B ∈ GLn , i.e. en notant b l’endomorphisme de En canoniquement associé à B, qu’il
existe une base orthonormale B de En dans laquelle la matrice B 0 de b est diagonale par blocs
avec des blocs diagonaux de type (µ) ou αR(), où µ, α > 0 et β ∈ R.
— Notons respectivement s et t les endomorphismes ¯ de En canoniquement associés à S et T .
Par hypothèse, s est un endomorphisme symétrique à valeurs propres strictement positives,
et t est une rotation (i.e. une isométrie de déterminant 1) de En .
Comme s est symétrique, ses sous-espaces propres sont deux à deux orthogonaux, et d’après
le théorème spectral, ils sont supplémentaires dans En .
— Soit λ > 0 une valeur propre de s.
Comme t commute avec s (car ST = T S), t stabilise le sous-espace propre Ker(S − λIn ) de
s, et comme t est une isométrie, l’endomorphisme tλ induit par t sur Ker(S − λIn ) est encore
une isométrie, de sorte que sa matrice Tλ dans une base orthonormale de Ker(S − λIn ) est
une matrice orthogonale.
Mais alors Tλ vérifie (C2 ) (cf. question 3), donc aussi (C4 ) (ces conditions étant équivalentes).
Autrement dit, il existe une base orthonormale Bλ de Ker(S − λIn ) dans laquelle la matrice
Tλ0 de tλ est diagonale par blocs avec des blocs diagonaux de type (ν) ou rR(θ), où r > 0 et
ν, θ ∈ R. De plus comme Tλ0 est inversible (car tλ l’est puisque c’est une isométrie), les blocs
diagonaux de type (ν) de Tλ0 sont nécessairement tous non nuls.
Rq. Plus précisément, les blocs diagonaux de Tλ0 de taille (1, 1) sont égaux à (±1), et ceux
de taille (2, 2) sont de type R(θ) (i.e. avec r = 1) puisque Tλ0 est orthogonale (comme
matrice d’une isométrie dans une base orthonormale), donc ses colonnes sont normées.
Cela généralise la réduction des isométries en dimension 6 3, au programme de la classe
PSI, au cas des isométries en dimension finie arbitraire.
Comme l’endomorphisme sλ induit par s sur Ker(S − λIn ) est l’homothétie de rapport λ, sa
matrice dans la base Bλ (comme dans toute base) est λIp où p = dim Ker(S − λIn ).
Ainsi b = s ◦ t = t ◦ s stabilise Ker(S − λIn ) et y induit un endomorphisme bλ dont la matrice
dans la base Bλ est λTλ0 , donc est diagonale par blocs de type (µ) ou αR(θ), où µ = λν 6= 0
et α = λr > 0 (car λ, r > 0 et ν 6= 0).
Fin du problème
EXERCICE
D’après Mines 1 PSI 2014 - Somme de projecteurs orthogonaux
1 Trace.
1. On note mi,j le coefficient générique d’une matrice M ∈ Mn . On a alors, pour A, B ∈ Mn ,
n
X
∀i ∈ [1, n], (AB)i,i = ai,k bk,i
k=1
et donc
n n
!
X X
Tr(AB) = ai,k bk,i
i=1 k=1
Les sommes étant indépendantes, on peut tout regrouper en une unique somme indicée par un couple
X
Tr(AB) = ai,k bk,j
(i,k)in[1,n]2
Tr(AB) = Tr(BA)
2. Soit T ∈ L(X) et A, B les matrices représentant T dans deux bases Ba et Bb . En notant P la matrice
de passage de Ba à Bb , on a P −1 AP = B et donc
On peut donc parler de la trace de T (trace de l’une quelconque des matrices représentant T dans une
base).
2 Projecteurs.
3. On veut montrer que tout élément de X se décompose de façon unique comme somme d’un élément
de N (P ) et d’un élément de R(P ). Raisonnons par conditions nécessaires puis suffisantes. Soit donc
x ∈ X.
- Supposons que x = y + z avec y ∈ N (P ) et z ∈ R(P ). On a alors P (x) = P (z) = z (car P agit
comme l’identité sur son image puisque P 2 = P ). On en déduit que z = P (x) et y = x − P (x).
La décomposition, si elle existe est unique.
- Réciproquement, x = (x − P (x)) + P (x) est une décomposition acceptable (P (x) ∈ R(P ) et
x − P (x) ∈ N (P ) car P 2 = P ).
4. Soit B = (e1 , . . . , er , er+1 , . . . , en ) une base adaptée à la décomposition X = R(P ) ⊕ N (P ) (obtenue en
concaténant une base (e1 , . . . , er ) de R(P ) et une autre de N (P )). Avec la question 2. on peut utiliser
cette base pour calculer la trace de P . On a PB = diag(1, . . . , 1, 0, . . . , 0) qui est de trace
Si les di sont tous positifs alors T est immédiatement positive. Réciproquement, en choisissant x = P ei
la positivité de T entraı̂ne di ≥ 0. On a donc l’équivalence voulue.
6. Soit P un projecteur.
- Supposons que P est un projecteur orthogonal. On a alors N (P ) et R(P ) qui sont orthogonaux
(et même supplémentaires orthogonaux). Si x ∈ X alors x − P (x) ∈ N (P ) (car P 2 = P ) et ce
vecteur est donc orthogonal à tout élément de R(P ). Ainsi
∀x ∈ X, ∀y ∈ R(P ), (x − P (x)|y) = 0
(z|y) = (z − P (z)|y) = 0
ce qui montre que N (P ) et R(P ) sont orthogonaux et que le projecteur P est orthogonal.