Vous êtes sur la page 1sur 23

Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

PROBLÈME
D’après CCINP PC 2018

Partie I - Quelques résultats généraux


1 (0)
1. U0 = 1 et L0 = U0 = 1.
20 0!
1 (1) 1
U1 = (X 2 − 1) et L1 = 1 U1 = (2X) = X.
2 1! 2
1 (2) 1 1 1
U2 = (X 2 − 1)2 = X 4 − 2X 2 + 1 et L2 = 2 U2 = (4X 3 − 4X)0 = (12X 2 − 4) = (3X 2 − 1).
2 2! 8 8 2
(n) (2n)! 1
2. Montrons que, ∀n ∈ N, deg(Un ) = n et le coefficient dominant vaut an = 2 n
= 2n n .
(n!) 2 2n
Un est un polynôme de degré 2n (polynôme de degré 2 élevé à la puissance n) dont le terme dominant
vaut X 2n (on le voit bien en développant avec la formule du binôme de Newton par exemple).
(n)
On dérivant n fois Un le degré baisse de n donc le degré de Un est 2n − n = n.
(n)
De plus le terme dominant de Un (de degré n) est la dérivée du terme dominant de Un qui est X 2n
et vaut :
(2n)! n
2n(2n − 1) . . . (2n − n + 1)X n = X
n!
1 (n) (2n)! 1
Comme Ln = n
Un alors an = 2 n
= 2nn .
n!2 (n!) 2 2n
3. La famille (L0 , . . . , Ln ) est libre (degrés échelonnés) et elle est composée de n + 1 éléments de Rn [X],
espace vectoriel de dimension n + 1, donc (L0 , . . . , Ln ) est une base de Rn [X].
4. • Pour tout n ∈ N∗ , Un = (X 2 −1)n = (X −1)n (X +1)n , donc Un a deux racines, -1 et 1, de multiplicité
n.
• Comme Un = (X 2 − 1)n , Un0 = n(2X)(X 2 − 1)n−1 = 2n(X − 1)n−1 (X + 1)n−1 (X − 0), donc, en
prenant λ = 2n et α = 0 ∈] − 1, 1[, on a bien

Un0 = λ(X − 1)n−1 (X + 1)n−1 (X − α).

Remarque : Promis, je n’ai pas fait exprès de les déterminer, ils sont apparus tous seuls, comme des
grands... L’énoncé attendait certainement une autre méthode, que je vais mettre en œuvre ci-dessous.
• Comme -1 et 1 sont racines de multiplicité n de Un , elles sont racines de multiplicité n − 1 de Un0 ,
donc il existe Q ∈ R[X] tels que

Un0 = (X − 1)n−1 (X + 1)n−1 Q.

Comme deg(Un0 ) = deg(Un ) − 1 = 2n − 1 et deg((X − 1)n−1 (X + 1)n−1 ) = 2n − 2, on a deg(Q) = 1.


On a Un (1) = Un (−1) où Un est continue sur [−1, 1] et dérivable sur ]−1, 1[ (c’est un polynôme !), donc,
d’après le théorème de Rolle, il existe α ∈]−1, 1[ tel que Un0 (α) = 0. Or, Un0 (α) = (α − 1)n−1 (α + 1)n−1 Q(α),
| {z }
6=0 car α6=±1
donc on a Q(α) = 0.
Comme on a aussi deg(Q) = 1 et Q(α) = 0, il existe λ ∈ R tel que Q = λ(X − α) et on a donc

Un0 = λ(X − 1)n−1 (X + 1)n−1 (X − α).

Fabien DÉLEN fdelen.maths@bbox.fr 1 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Partie II - Étude des éléments propres de l’endomorphisme φ


5. Pour tout P, Q ∈ R[X], pour tout λ ∈ R,

φ(λP + Q) = (X 2 − 1)(λP + Q)00 + 2X(λP + Q)0


= (X 2 − 1)(λP 00 + Q00 ) + 2X(λP 0 + Q0 ) (linéarité de la dérivation)
= λ((X − 1)P + 2XP ) + ((X − 1)Q + 2XQ0 )
2 00 0 2 00

= λφ(P ) + φ(Q),

donc φ est une application linéaire.


De plus, elle va de R[X] dans R[X] (énoncé), donc c’est un endomorphisme de R[X].
6. Pour tout P ∈ Rn [X], φ(P ) ∈ R[X] et

deg(φ(P )) = deg((X 2 − 1)P 00 + 2XP 0 ) ≤ max((X 2 − 1)P 00 , 2XP 0 ) = max(2 + deg(P 00 ), 1 + deg(P 0 ))
≤ max(2 + deg(P ) − 2, 1 + deg(P ) − 1) = max(deg(P ), deg(P )) = deg(P ),

donc φ(P ) ∈ Rn [X].


Rn [X] est donc bien stable par φ.
Remarque : Pour rappel, deg(P + Q) ≤ max(deg(P ), deg(Q)), avec égalité si deg(P ) = deg(Q),
et deg(P 0 ) ≤ deg(P ) − 1, avec égalité si deg(P ) ≥ 1.
7. Soit M = (mi,j )0≤i,j≤n la matrice de φn dans la base canonique de Rn [X]. Alors, ∀j ∈ [[0, n]],
n
X
j
φ(X ) = mi,j X i .
i=0
Or,

φ(X 0 ) = φ(1) = 0
φ(X 1 ) = 2X
et, pour tout j ∈ [[2, n]],φ(X j ) = (X 2 − 1)j(j − 1)X j−2 + 2XjX j−1
= j(j − 1)X j − j(j − 1)X j−2 + 2jX j = j(j + 1)X j − j(j − 1)X j−2 .

Par identification, on a :

m0,0 = 0 = 0(0 + 1)et∀i ≥ 1, mi,0 = 0


m1,1 = 2 = 1 × 2et∀i ≥ 2, mi,1 = 0
∀j ∈ [[2, n]], mj,j = j(j + 1)et∀i ≥ j + 1, mi,j = 0

donc M est bien triangulaire supérieure et, ∀k ∈ [[0, n]], mk,k = k(k + 1).

j(j + 1)
 si i = j
2
Remarque : Pour tout (i, j) ∈ [[0, n]] , mi,j = −j(j − 1) si i = j − 2 .

0 sinon

8. Comme M est triangulaire, ses valeurs propres se lisent sur la diagonale.


On a donc Sp(M ) = {k(k + 1), k ∈ [[0, n]]}.
Enfin, pour tout k ∈ N, (k + 1)(k + 2) − k(k + 1) = 2(k + 1) > 0, donc la suite (uk )k∈N est strictement
croissante.
Les réels (k(k + 1))k∈[[0,n]] sont donc deux à deux distincts, donc M admet n + 1 valeurs propres
distinctes, et M ∈ Mn+1 (R), donc M est diagonalisable, donc φn est diagonalisable.
9. • Pour k = 0, Uk0 = 0 et 2kXUk = 0, donc (X 2 − 1)Uk0 − 2kXUk = 0.
• Pour tout k ∈ [[1, n]], Uk0 = 2kX(X 2 − 1)k−1 , donc (X 2 − 1)Uk0 − 2kXUk = 2kXUk − 2kXUk = 0.
• Pour tout k ∈ [[0, n]], on a bien (X 2 − 1)Uk0 − 2kXUk = 0.

Fabien DÉLEN fdelen.maths@bbox.fr 2 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

 
n
10. D’après la formule de Leibniz pour les polynômes, en prenant la convention (habituelle) = 0 si
k
k 6∈ [[0, n]],
k+1  
X k+1
2
((X − 1)Uk0 )(k+1) = (X 2 − 1)(i) (Uk0 )(k+1−i)
i
i=0
     
k+1 k+1 k+1
= (X 2 − 1)(Uk0 )(k+1) + (X 2 − 1)0 (Uk0 )(k) + (X 2 − 1)00 (Uk0 )(k−1)
0 1 2
k+1−i
X k + 1
+ (X 2 − 1)(i) (Uk0 )(k+1−i)
i | {z }
k=3 =0 car i≥3

(k+2) (k+1) k(k + 1) (k)


= (X 2 − 1)Uk + 2(k + 1)XUk +2 Uk
2
k+1  
X k+1
et (2kXUk )(k+1) = (2kX)(i) (Uk )(k+1−i)
i
i=0
    k+1  
k+1 k+1 X k+1
= (2kX)(Uk )(k+1) + (2kX)0 (Uk )(k) + (2kX)(i) (Uk )(k+1−i)
0 1 i | {z }
i=2
=0 car i≥2
(k+1) (k)
= 2kXUk + (k + 1)2kUk ,
donc
(k+2) (k+1) (k) (k+1) (k)
((X 2 − 1)Uk0 − 2kXUk )(k+1) = (X 2 − 1)Uk + 2(k + 1)XUk + k(k + 1)Uk − 2kXUk − (k + 1)2kUk
(k+2) (k+1) (k)
= (X 2 − 1)Uk + 2XUk − k(k + 1)Uk .

Par suite, d’après la question 9,


(k+2) (k+1) (k)
(X 2 − 1)Uk + 2XUk − k(k + 1)Uk = ((X 2 − 1)Uk0 − 2kXUk )(k+1) = (0)(k+1) = 0.

11. Pour tout k ∈ [[0, n]], Lk ∈ Rn [X] (car deg(Lk ) = k ≤ n), Lk 6= 0 (car ak 6= 0) et :
(k) (k+2) (k+1) (k)
φn (Lk ) = φ(Uk ) = (X 2 − 1)Uk + 2XUk = k(k + 1)Uk = k(k + 1)Lk ,
cf Q10

donc Lk est un vecteur propre de φn associé à la valeur propre k(k + 1).


12. • φn est un endomorphisme de Rn [X] (de dimension n + 1) qui admet n + 1 valeurs propres distinctes,
donc tous les espaces propres de φn sont de dimension 1.
De plus, pour tout k ∈ [[0, n]], Lk ∈ Ek(k+1) (φn ), donc Vect(Lk ) ⊂ Ek(k+1) (φn ) et, par égalité des
dimensions, Ek(k+1) (φn ) = Vect(Lk ).
On a donc Sp(φn ) = {k(k + 1), k ∈ [[0, n]]} et, pour tout k ∈ [[0, n]], Ek(k+1) (φn ) = Vect(Lk ).
• Pour tout k ∈ N, k(k + 1) ∈ Sp(φk ), pour tout P ∈ Vect(Lk ) = Ek(k+1) (φk ),
φ(P ) = φk (P ) = k(k + 1)P,
donc P est un vecteur propre de φ associé à la valeur propre k(k + 1).
On a donc {k(k + 1), k ∈ N} ⊂ Sp(φ) et, pour tout k ∈ N, Vect(Lk ) ⊂ Ek(k+1) (φ).
• Réciproquement, soit λ une valeur propre de φ et P 6= 0 un vecteur propre associé à λ.
Soit n = deg(P ). Alors
λP = φ(P ) = φn (P ),
donc P est un vecteur propre de φn associé à la valeur propre (de φn ) λ.
Par suite, λ ∈ Sp(φn ), donc il existe k ∈ [[0, n]] tel que λ = k(k + 1) et P ∈ Ek(k+1) (φn ) = Vect(Lk ).
On a donc Sp(φ) ⊂ {k(k + 1), k ∈ N} et, pour tout k ∈ N, Ek(k+1) (φ) ⊂ Vect(Lk ).
• Par double inclusion,

Sp(φ) = {k(k + 1), k ∈ N}et∀k ∈ N, Ek(k+1) (φ) = Vect(Lk ).

Fabien DÉLEN fdelen.maths@bbox.fr 3 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Partie III - Distance au sous-espace vectoriel Rn [X]


Z 1
13. • Pour tout P, Q ∈ R[X], hP, Qi = P (t)Q(t)dt existe car t 7→ P (t)Q(t) est continue sur le segment
−1
[−1, 1].
• Pour tout P, Q, R ∈ R[X], pour tout λ ∈ R,
Z 1
h(λP + Q), Ri = (λP + Q)(t)R(t)dt
−1
Z 1
= λP (t)R(t) + Q(t)R(t)dt
−1
Z 1 Z 1
=λ P (t)R(t)dt + Q(t)R(t)dt (par linéarité de l’intégrale)
−1 −1
= λhP, Ri + hQ, Ri,

donc h·, ·i est linéaire à gauche.


• Pour tout P, Q ∈ R[X],
Z 1 Z 1
hP, Qi = P (t)Q(t)dt = Q(t)P (t)dt = hQ, P i,
−1 −1

donc h·, ·i est symétrique.


• h·, ·i est symétrique et linéaire à gauche, donc bilinéaire.
• Pour tout P ∈ R[X],
Z 1
hP, P i = (P (t))2 dt ≥ 0
−1

par positivité de l’intégrale (bornes dans le bon sens), donc h·, ·i est positif.
• Soit P ∈ R[X] tel que hP, P i = 0.
Comme t 7→ P (t)2 est continue et positive sur [−1, 1] et −1 < 1,
Z 1
hP, P i = 0 ⇔ (P (t))2 dt = 0 ⇔ ∀t ∈ [−1, 1], P (t) = 0.
−1

Par suite, P a une infinité de racines, donc P est nul.


h·, ·i est donc défini.
• h·, ·i est donc bien un produit scalaire sur R[X].
14. Pour tout (P, Q) ∈ R[X]2 ,
Z 1
hφ(P ), Qi = ((t2 − 1)P 00 (t) + 2tP 0 (t))Q(t)dt.
−1

Posons u0 (t) = (t2 − 1)P 00 (t) + 2tP 0 (t), u(t) = (t2 − 1)P 0 (t), v(t) = Q(t), v 0 (t) = Q0 (t).
Comme u et v sont de classe C 1 sur [−1, 1], on peut intégrer par parties et on a :
Z 1
hφ(P ), Qi = ((t2 − 1)P 00 (t) + 2tP 0 (t))Q(t)dt
−1
1
Z 1 Z 1
0 0 0
2 2
(t2 − 1)P 0 (t)Q0 (t)dt.

= (t − 1)P (t)Q(t) −1 − (t − 1)P (t)Q (t)dt = −
| {z } −1 −1
=0

Cette dernière écriture étant symétrique en P et Q, on obtient :

∀(P, Q) ∈ R[X]2 , hφ(P ), Qi = hφ(Q), P i = hP, φ(Q)i.


par symétrie de h·, ·i

Fabien DÉLEN fdelen.maths@bbox.fr 4 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

15. Le plus simple est de remarquer la famille des Lk (k ∈ [[1, n]]) constitue une base de vecteurs propres
de φ, chaque Lk engendrant la droite vectorielle propre associée à la valeur propre k(k + 1).
Or par la question précédente φ étant symétrique, par le théorème spectral φ est diagonalisable dans
une base orthonormée de vecteurs propres (u0 , . . . , un ) où uk engendre Ek(k+1) donc uk et Lk sont
colinéaires.
On en déduit que la famille (Lk )k∈[[0,n]] reste orthogonale pour tout n ∈ N donc la famille (Ln )n∈N est
donc bien orthogonale pour le produit scalaire h·, ·i.

Une autre méthode sinon : Soit k et n deux entiers naturels distincts. On a :


k(k + 1)hLk , Ln i = hk(k + 1)Lk , Ln i (linéarité à gauche)
= hφ(Lk ), Ln i (car Lk ∈ Ek(k+1) (φ))
= hLk , φ(Ln )i (d’après la question précédente)
= hLk , n(n + 1)Ln i (car Ln ∈ Rn(n+1) (φ))
= n(n + 1)hLk , Ln i (linéarité à droite),
donc (k(k + 1) − n(n + 1))hLk , Ln i = 0, donc hLk , Ln i = 0, car, comme (k(k + 1))k∈N∗ est une suite
strictement croissante (cf. question 8), k(k + 1) 6= n(n + 1).
La famille (Ln )n∈N est donc bien orthogonale pour le produit scalaire h·, ·i.
16. Soit n ∈ N∗ .
Comme (L0 , . . . , Ln−1 ) est une base de Rn−1 [X] (cf. question 3), pour tout P ∈ Rn−1 [X], il existe n
n−1
X
réels a0 , · · · an−1 tels que P = ai Li . Par suite,
i=0
*n−1 +
X
hP, Ln i = ai Li , Ln
i=0
n−1
X
= ai hLi , Ln i (linéarité à gauche)
i=0
n−1
X
= 0 (car, pour tout i ∈ [[0, n − 1]], i 6= n et d’après la question 15)
i=0
= 0.

17. • Soit k et n deux entiers naturels distincts. On a :


r r
2k + 1 2n + 1
hQk , Qn i = hLk , Ln i = 0,
2 2
donc la famille (Qn )n∈N est orthogonale pour le produit scalaire h·, ·i.
• De plus, pour tout n ∈ N,
r r r
2n + 1 2n + 1 2
kQn k = kLn k = = 1,
homogénéité 2 2 2n + 1
donc (Qn )n∈N est une famille orthonormale pour le produit scalaire h·, ·i.
• De plus, pour tout P ∈ R[X], en posant n = deg(P ), il existe a0 , ..., an tels que
n n r !
X X 2n + 1
P = ai Li = ai Qi ,
2
i=0 i=0

donc la famille (Qn )n∈N est génératrice de R[X].


Comme elle est de plus libre (car orthogonale), c’est une base de R[X].
• (Qn )n∈N est donc une base orthonormale de R[X] pour le produit scalaire h·, ·i.
(La notion de base en dimension infinie n’étant pas strictement au programme de PSI la réponse famille
normale suffit selon moi.)

Fabien DÉLEN fdelen.maths@bbox.fr 5 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

18. Soit n ∈ N.
• Rn [X] est un sous-espace vectoriel de dimension finie de R[X].
Donc, d’après la caractérisation par la distance du projeté orthogonal sur un sous-espace vectoriel de
dimension finie, il existe un unique polynôme Tn ∈ Rn [X] tel que : d(P, Rn [X]) = kP − Tn k et Tn est
le projeté orthogonal de P sur Rn [X].
• D’après le théorème de Pythagore,

kP k2 = kTn k2 + kP − Tn k2 ,

donc

d(P, Rn [X])2 = kP − Tn k2 = kP k2 − kTn k2


n 2
X
2
= kP k − hP, Qk iQk (caractérisation du projeté orthogonal dans une b.o.n.)


k=0
n
X
2
= kP k − hP, Qk i2 (car (Qk ) est une famille orthonormale)
k=0
Xn
= kP k2 − (ck (P ))2 , où ck (P ) = hP, Qk i.
k=0

Xn
19. • On a, pour tout n ∈ N, (ck (P ))2 = kP k2 − d(P, Rn [X])2 ≤ kP k2 .
n
!k=0
X
• La suite (ck (P ))2 est croissante, donc elle converge (croissante et majorée par kP k2 ).
k=0 n∈N
+∞
X
• Par suite, la série (ck (P ))2 converge et (ck (P ))2 ≤ kP k2 .
P
k=0
Remarque : Je pense que la preuve ci-dessus est celle attendue, mais il y a plus simple et on aboutit
en plus à un résultat plus précis... r
2k + 1
Soit P ∈ R[X]. Posons n = deg(P ). Alors, pour tout k > n, hP, Qk i = hP, Lk i = 0 (d’après
2
le 16.)P
D’où (ck (P )2 converge (car (ck (P ))2 est nul au-delà d’un certain rang) et
+∞
X n
X n
X
2 2
(ck (P )) = (ck (P )) = hP, Qk i2 = kP k2
k=0 k=0 k=0

car (Qk )0≤k≤n est une base orthonormée de Rn [X].

Fabien DÉLEN fdelen.maths@bbox.fr 6 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

EXERCICE 1
D’après CCINP PSI 2010, repris dans E3A PSI 2020

1. Le polynôme caractéristique de ` est

χ` = det(M − XI2 ) = X 2 − 2 cos(θ)X + 1 = (X − eiθ )(X − e−iθ )

Les valeurs propres de ` sont les racines de χ` et donc eiθ et e−iθ (valeurs distinctes puisque θ ∈]0, π[).
2. On doit prendre garde au fait que (v1 , v2 ) n’est pas une base orthogonale (elle est normée mais v1 et
v2 ne sont pas orthogonaux). On a

kvk2 = x21 kv1 k2 + 2x1 x2 (v1 |v2 ) + x22 kv2 k2 = x21 + 2 cos(θ)x1 x2 + x22

De plus, `(v) = −x2 ε1 +(x1 +2x2 cos(θ))ε2 et on peut reprendre le calcul avec ces nouvelles coordonnées
pour obtenir
k`(v)k2 = x21 + 2 cos(θ)x1 x2 + x22
l est donc un endomorphisme de R2 qui conserve la norme : c’est un automorphisme orthogonal.
3. Par définition, on connaı̂t P et on en déduit P −1 :
   
1 cos(θ) −1 1 sin(θ) − cos(θ)
P = et P =
0 sin(θ) sin(θ) 0 1

Par formule de changement de base on a alors


 
0 −1 cos(θ) − sin(θ)
M = PMP =
sin(θ) cos(θ)

` est donc la rotation d’angle θ.


4. Comme ` est une rotation planaire de mesure d’angle θ, on sait que `m est une rotation de mesure
d’angle mθ. Par conséquent, f m = IdE si et seulement si mθ ≡ 0 mod 2π, si et seulement s’il existe
k ∈ Z tel que : mθ = 2kπ. On en déduit :
 
m 2π 2kπ
` = IdE ⇐⇒ θ ∈ Z= |k∈Z .
m m

5. (a) Comme ` conserve la norme, une récurrence immédiate montre que

∀k ∈ N, kvk k = kv1 k = 1

En utilisant le 2., on a une autre expression de kvk k et donc

∀k ∈ N, a2k + b2k + 2ak bk cos(θ) = 1

(b) vk s’obtient à partir de v1 en composant k − 1 fois par l c’est à dire en appliquant la rotation
d’angle (k − 1)θ. En notant v10 un vecteur normé directement orthogonal à v1 on a donc vk =
cos((k − 1)θ)v1 + sin((k − 1)θ)v10 et ainsi

(vk |v1 ) = cos((k − 1)θ)

Pour k ≥ 2, on a, ` étant un automorphisme orthogonal

(v2 |vk ) = (`(v1 )|`(vk−1 )) = (v1 |vk−1 ) = cos((k − 2)θ)

Pour k = 1 la formule reste vraie puisque (v2 |v1 ) = cos(θ) = cos(−θ).

Fabien DÉLEN fdelen.maths@bbox.fr 7 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

(c) On a aussi, en utilisant (v1 |v2 ) = cos(θ),

(v1 |vk ) = ak + cos(θ)bk et (v2 |vk ) = cos(θ)ak + bk

On a donc le système suivant


    
1 cos(θ) ak cos((k − 1)θ)
=
cos(θ) 1 bk cos((k − 2)θ)

C’est un système de Cramer (matrice inversible puisque de déterminant 1 − cos2 (θ) 6= 0) qui a
une unique solution. Il suffit donc de vérifier que la solution proposée est la bonne ce qui découle
des formules de trigonométrie. Par exemple, pour la première équation, on est ramené à

cos((k − 1)θ) sin(θ) − cos(θ) sin((k − 1)θ) = − sin((k − 2)θ)

qui provient de sin(a + b) = sin(a) cos(b) + cos(a) sin(b).


On prouve ainsi que
sin((k − 2)θ) sin((k − 1)θ)
ak = − et bk =
sin(θ) sin(θ)

Fabien DÉLEN fdelen.maths@bbox.fr 8 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

EXERCICE 2
CCINP PC 2019

Partie I - Solution particulière de l’équation homogène


1. f est la somme d’une série entière de rayon r > 0 donc f est C ∞ sur ] − r; r[ et on peut dériver terme
à terme à tout ordre ; en particulier, elle est de classe C 2 sur ] − r; r[ et, pour x ∈] − r; r[,
+∞
X +∞
X
f 0 (x) = nan xn−1 = (n + 1)an+1 xn
n=1 n=0

+∞
X +∞
X
f 00 (x) = n(n − 1)an xn−2 = (n + 2)(n + 1)an+2 xn
n=2 n=0

Par propriété des séries entières, ces deux séries sont aussi de rayon r.

+∞
X
2 00
2. On a donc, pour x ∈] − r; r[, x f (x) = n(n − 1)an xn
n=1
+∞
X
x3 f 00 (x) = (n − 1)(n − 2)an−1 xn
n=1
+∞
X
xf 0 (x) = nan xn
n=1
+∞
X
x2 f 0 (x) = (n − 1)an−1 xn
n=1
+∞
X
f (x) = a0 + an xn .
n=1
Par conséquent,
+∞
X
x2 (1 − x)f 00 (x) − x(1 + x)f 0 (x) + f (x) = a0 + n(n − 1)an − (n − 1)(n − 2)an−1 − nan
n=1
−(n − 1)an−1 + an xn


+∞
X
(n2 − 2n + 1)an − (n2 − 3n + 2 + n − 1)an−1 xn

= a0 +
n=1
+∞
X
= a0 + (n − 1)2 (an − an−1 )xn
n=1

Pour n = 1, (n − 1)2 = 0 donc, si on pose, pour n ≥ 2, bn = (n − 1)2 , on a


+∞
X
2 00 0
x (1 − x)f (x) − x(1 + x)f (x) + f (x) = a0 + bn (an − an−1 )xn
n=2

3. La somme d’une série entière est nulle sur ] − r; r[ (r > 0) si et seulement si tous ses coefficients sont
nuls (unicité d’un développement en série entière) donc, d’après la question précédente, f est solution
de (H) si et seulement si a0 = 0 et, pour tout n ≥ 2, bn (an − an−1 ) = 0. Mais, pour n ≥ 2, bn 6= 0
donc an − an−1 = 0.
En passant de n à n + 1 on a finalement : f est solution de (H) sur ] − r; r[ si et seulement si a0 = 0
et, pour tout n ∈ N∗ , an+1 = an .

Fabien DÉLEN fdelen.maths@bbox.fr 9 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

4. On suppose que f estX solution de (H) sur ] − r; r[. Alors, a0 = 1 et, pour tout n ≥ 1, an = a1 .
La série géométrique xn est de rayon 1 donc r ≥ 1 (r = +∞ si a1 = 0) et, en posant = a1 , pour
+∞
X
x ∈] − 1; 1[, f (x) = λ xn .
n=1
Il s’agit de la somme d’une série géométrique de raison x ∈] − 1; 1[ et de premier terme x donc, pour
x ∈] − 1; 1[,
λx
f (x) =
1−x
λx
5. Soit ∈ R et g la fonction x 7→ .
1−x
+∞
X
Alors, d’après le calcul précédent, pour x ∈] − 1; 1[, g(x) = λxn : g est la somme d’une série entière
n=1
+∞
X
de rayon 1 > 0. De plus, pour x ∈] − 1; 1[, g(x) = an xn avec a0 = 0 et, pour n ≥ 1, an = λ ; par
n=0
conséquent, pour tout n ≥ 1, an+1 = an .
On peut donc utiliser la question 3. (qui est une équivalence) pour conclure que g est une solution de
(H) sur ] − 1; 1[, développable en série entière.

Partie II - Solutions de (E) sur ]0, 1[ ou ]1, +∞[


6. Par produit
 de fonctions de classe C 2 sur I, z est declasse C 2 sur I et, pour x ∈ I,
1 1 1 2 2
z 0 (x) = − 1 y 0 (x) − 2 y(x) et z 00 (x) = − 1 y 00 (x) − 2 y 0 (x) + 3 y(x).
x x x x x

7. Pour x ∈ I,
2 0 2 1
xz 00 (x) + z 0 (x) = (1 − x)y 00 (x) −y (x) + 2 y(x) + (1/x − 1)y 0 (x) − 2 y(x)
x x x
1 2 00 0

= x (1 − x)y (x) − x(1 + x)y (x) + y(x)
x2
donc y est solution de (E) sur I si et seulement si z est solution sur I de l’équation

xz 00 + z 0 = 2x

8. z est solution de (E1 ) sur I si et seulement si z 0 est solution sur (I) de l’équation
(E2 ) : xZ 0 + Z = 2x.
1
L’équation homogène associée à (E2 ) est (H2 ) : xZ 0 + Z = 0, équivalente à Z 0 + Z = 0 (x ne s’annule
x
1
pas sur I). a : x 7→ est continue sur I ; une primitive de a est x 7→ ln(x) donc les solutions de (H2 )
x
λ
sont les fonctions de la forme x 7→ λe− ln(x) , ∈ R, c’est-à-dire x 7→ .
x
x 7→ x est solution particulière de (E2 ) donc les solutions de (E2 ) sont les fonctions de la forme
λ
x 7→ + x.
x
Finalement, z est solution de (E1 ) sur I si et seulement si il existe ∈ R tel que, pour tout x ∈ I,
λ
z 0 (x) = + x.
x
x2
9. Ceci équivaut à l’existence de µ ∈ R tel que, pour tout x ∈ I, z(x) = λ ln(x) + + µ.
2
1 1−x
De plus, pour x ∈ I, − 1 = 6= 0 donc y est solution de (E) sur I si et seulement si il existe
x x

Fabien DÉLEN fdelen.maths@bbox.fr 10 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

x2
 
x
(λ, µ) ∈ R2 tel que, pour tout x ∈ I, y(x) = λ ln(x) + +µ .
1−x 2
Les solutions de (E) sur I sont donc les fonctions de la forme

λx µx x3
x 7→ ln(x) + +
1−x 1 − x 2(1 − x)

lorsque (λ, µ) décrit R2 .

Partie III - Solutions de (E) sur ]0, +∞[


1. Soit f une solution de (E) sur ]0; +∞[. Alors f est solution sur ]0; 1[ et sur ]1; +∞[. D’après la question
précédente il existe des constantes réelles λ1 , µ1 , λ2 , µ2 telles que

λ1 x ln(x) 2µ1 x + x3
∀x ∈]0; 1[, f (x) = +
1−x 2(1 − x)

λ2 x ln(x) 2µ2 x + x3
∀x ∈]1; +∞[, f (x) = +
1−x 2(1 − x)
ln(x)
f doit être continue en 1 donc doit avoir une limite finie en 1. lim = −1 (limite usuelle) donc
x→1 1−x
1
on doit avoir 2µ1 + 1 = 2µ2 + 1 = 0 : µ1 = µ2 = − .
2
λ1 x ln(x) −x + x3 λ1 x ln(x) x(1 + x)
Pour x ∈]0; 1[, f (x) = + = −
1−x 2(1 − x) 1−x 2
Pour obtenir le nombre dérivée de f à gauche à 1, on cherche le DL1 (1) de f :
1
Pour h au voisinage de 0, ln(1 + h) = h − h2 + o(h2 ) donc
2
(1 + h)(h − h2 /2 + o(h2 )) (1 + h)(2 + h)
f (1 + h) = −λ1 −
h 2
et, après simplification,  
λ1 3
f (1 + h) = −λ1 − 1 − − − h + o(h)
2 2
λ1 3
On en déduit que fg0 (1) = − − .
2 2
0 λ2 3
De même, fd (1) = − −
2 2
f est dérivable donc λ1 = λ2 .
λ1 x ln(x) x(1 + x)
Par conséquent, pour x ∈ R+∗ , f (x) = − et f (1) = −λ1 − 1.
1−x 2
Pour la réciproque, il suffit que montrer qu’une telle fonction est de classe C 2 sur R+∗ .
ln(1 + h) (1 + h)(2 + h)
f (1 + h) = −λ1 (1 + h) − .
h 2
ln(1 + h)
h 7→ est prolongeable en une fonction développable en série entière de rayon 1 donc f est de

h
classe C .
1
On peut alors conclure que les solutions de (E) sur R+∗ sont les fonctions f définies par f (1) = −λ1 −
2
λ1 x ln(x) x(1 + x)
et, pour x 6= 1, f (x) = − avec λ1 réel quelconque.
1−x 2

Fabien DÉLEN fdelen.maths@bbox.fr 11 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Sujet Mines 2 - PSI 2020


1 Question préliminaire
1. Il s’agit de démontrer que la relation ORTS, définie par :

∀A, B ∈ Mn , A est ORTS à B ⇐⇒ ∃Q ∈ On , B = t QAQ,

est réflexive, symétrique et transitive.


— Réflexivité : ∀A ∈ Mn , A est ORTS à A, car In ∈ On et A = t In AIn .
— Symétrie : ∀A, B ∈ Mn , A est ORTS à B =⇒ B est ORTS à A, car si Q ∈ On est tel que
B = t QAQ, alors t Q = Q−1 ∈ On et A = QB t Q = t (t Q)B t Q.
— Transitivité : ∀A, B, C ∈ Mn , A est ORTS à B et B est ORTS à C =⇒ A est ORTS à C, car
si Q, Q0 ∈ On sont tels que B = t QAQ et C = t Q0 BQ0 , alors QQ0 ∈ On et C = t Q0t QAQQ0 =
t (QQ0 )A(QQ0 ).

Donc la relation ORTS est bien une relation d’équivalence sur Mn .

2 Exemples
2. (a) Soit S ∈ Sn . On a t S = S, donc :
(C1 ) t S = S = P (S) où P est le monôme P (X) = X.
(C2 ) S est normale puisqu’elle commute avec t S = S.
(C3 ) Pour tout X ∈ En , kt SXk = kSXk de façon évidente.
(C4 ) D’après le théorème spectral, S est ORTS à une matrice diagonale, donc diagonale par blocs
avec des blocs diagonaux tous de taille (1, 1), donc S vérifie (C4 ).
(b) Soit A ∈ An . On a t A = −A, donc :
(C1 ) t A = −A = P (A) où P est le monôme P (X) = −X.
(C2 ) A est normale puisqu’elle commute avec t A = −A.
(C3 ) Pour tout X ∈ En , kt AXk = k − AXk = kAXk par homogénéité de la norme.
3. Soit Q ∈ On . On a t Q = Q−1 ∈ On , donc :
(C2 ) Q est normale puisqu’elle commute avec t Q = Q−1 .
(C3 ) Pour tout X ∈ En , kt QXk = kXk = kQXk puisque les endomorphismes de En canoniquement
associés à Q et t Q = Q−1 sont des isométries.
Rq. Cela se retrouve par le calcul kQXk2 = t (QX)QX = t X t QQX = t XX = kXk2 .
4. La matrice T ∈ O2 est de type R(θ) ou S(θ), où θ ∈ R (voir les rappels de cours en préambule).
(a) Cas T = S(θ).
Dans ce cas, la matrice M = rT est symétrique réelle, donc d’après la question 2, elle vérifie les
conditions (C1 ) à (C4 ).
(b) Cas T = R(θ).
Dans ce cas, la matrice M = rT = rR(θ) vérifie la condition (C4 ) de façon évidente (M est ORTS
à elle-même), et elle vérifie la condition (C1 ) puisque
   
tM = r cos θ sin θ cos θ − sin θ
= 2r cos(θ)I2 − r ,
− sin θ cos θ sin θ cos θ

donc t M = P (M ) où P (X) = 2r cos(θ) − X ∈ R[X].


Rq. On peut « deviner » ce polynôme en en cherchant un de degré 1, ou en se souvenant que
pour toute matrice inversible A de taille (2, 2), on a A−1 = det(A)
1
(tr(A)I2 − A), ce qui donne ici
t T = T −1 = 2 cos(θ)I − T , ou en regardant la question 14 de la partie V.
2

Fabien DÉLEN fdelen.maths@bbox.fr 12 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

3 Deux premières implications


5. Si A vérifie (C1 ), alors A vérifie (C2 ) puisque la matrice A commute avec tout polynôme en A.
6. Supposons que A vérifie (C2 ), i.e. que At A = t AA. Alors pour tout X ∈ En :
(C2 )
kt AXk2 = t (t AX)t AX = t XAt AX = t X t AAX = t (AX)AX = kAXk2 .

Donc ∀X ∈ En , kt AXk = kAXk (puisque les normes sont positives), i.e. A vérifie (C3 ).

4 La condition (C3 ) implique la condition (C4 )



a c
7. On suppose que A = ∈ M2 vérifie la condition (C3 ), i.e. que ∀X ∈ E2 , kt AXk = kAXk.
b d
(a) Montrons qu’on a nécessairement b = c ou (b = −c 6= 0 et a = d).
√ √
 
1
— Pour X = , on a kAXk = a2 + b2 = kt AXk = a2 + c2 , donc b2 = c2 , i.e. b = ±c.
0
Si b = c, alors on a le résultat voulu.
 
1
— Sinon, alors b = −c 6= 0 et pour X = , on a alors :
1

kt AXk2 = (a + b)2 + (d − b)2 = kAXk2 = (a − b)2 + (b + d)2

i.e. après simplification (a − d)b = (d − a)b, et donc a = d puisque b 6= 0.


On a donc bien nécessairement b = c ou (b = −c 6= 0 et a = d).
(b) — Si b = c, alors A est symétrique réelle donc A vérifie (C4 ) d’après la question 2.
— Si b = −c 6= 0 et a = d, alors
  
a −b r cos θ −r sin θ
A= = rR(θ) =
b a r sin θ r cos θ

où r ∈ R∗+ et θ ∈ R sont tels que a = r cos θ et b = r sin θ, i.e. où r et θ sont respectivement
le module et un argument du complexe a + ib (on a bien r > 0 car b 6= 0).
Donc dans ce cas, A vérifie (C4 ) de façon évidente (A est ORTS à elle-même).
Dans tous les cas, la matrice A vérifie donc bien la condition (C4 ).
8. Rq. Les deux méthodes ci-dessous présentent les mêmes calculs sous deux formes différentes.
Méthode 1.
Les identités remarquables ku ± vk2 = kuk2 + kvk2 ± 2(u|v) donnent, pour tout X ∈ En :
— k(A − λIn )Xk2 = kAX − λXk2 = kAXk2 + 2 kXk2 − 2λ(AX|X), et
— kt (A − λIn )Xk2 = k(t A − λIn )Xk2 = kt AX − λXk2 = kt AXk2 + 2 kXk2 − 2λ(t AX|X).
Or (AX|X) = t (AX)X = t X t AX = (X|t AX) = (t AX|X), et on suppose que A vérifie (C3 ), donc
kAXk2 = kt AXk2 . Ainsi ∀X ∈ En , k(A − λIn )Xk = kt (A − λIn )Xk (car les normes sont positives),
i.e. A − λIn vérifie (C3 ).
Méthode 2.
En revenant à la définition de la norme associée au produit scalaire, on a, pour tout X ∈ En :
— k(A − λIn )Xk2 = t X(t A − λIn )(A − λIn )X = t X(t AA − λA − t A + 2 In )X .
= t X t AAX − λt XAX − λt X t AX + 2t XX
— kt (A − λIn )Xk2 = t X(A − λIn )(t A − λIn )X = t X(At A − λA − t A + 2 In )X .
= t XAt AX − λt XAX − λt X t AX + 2t XX

Fabien DÉLEN fdelen.maths@bbox.fr 13 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Or A vérifie (C3 ) donc t X t AAX = t (AX)AX = kAXk2 = kt AXk2 = t (t AX)t AX = t XAt AX. Ainsi
∀X ∈ En , k(A − λIn )Xk = kt (A − λIn )Xk (car les normes sont positives), i.e. A − λIn vérifie (C3 ).
9. (a) Vu la question précédente (et la séparation de la norme), pour tout X ∈ En et tout λ ∈ R :

(A − λIn )X = 0En ⇐⇒ k(A − λIn )Xk = 0


⇐⇒ kt (A − λIn )Xk = 0
⇐⇒ t (A − λIn )X = (t A − λIn )X = 0En .

Ainsi pour tout ∈ R, Ker(A − λIn ) = Ker(t A − λIn ), et donc les matrices A et t A ont les mêmes
sous-espaces propres.
(b) Soient λ 6= µ dans R et soient X ∈ Ker(A − λIn ) et Y ∈ Ker(A − µIn ) = Ker(t A − µIn ). Alors
AX = λX et t AY = µY , donc :

(X|Y ) = (AX|Y ) = t (AX)Y = t X t AY = (X|t AY ) = µ(X|Y )

et donc (X|Y ) = 0 puisque λ 6= µ.


Les sous-espaces propres de A sont donc bien deux à deux orthogonaux.
10. Montrons que A, qui vérifie (C3 ), est diagonalisable si et seulement si elle est symétrique.
— Si A est symétrique, alors A est diagonalisable d’après le théorème spectral.
— Supposons A diagonalisable. Alors ses sous-espaces propres sont supplémentaires dans En (carac-
térisation de la diagonalisabilité), et d’après la question 9, ils sont deux à deux orthogonaux.
En concaténant des bases orthonormales des sous-espaces propres de A, on obtient donc une base
orthonormale de diagonalisation de A, donc la matrice de passage P de la base canonique à cette
base de diagonalisation est orthogonale et telle que D = P −1 AP = t P AP est diagonale.
Ainsi A = P Dt P est symétrique puisque t A = t (P Dt P ) = P t Dt P = P Dt P = A.
11. (a) Montrons comme indiqué que toute matrice orthogonalement semblable à A vérifie (C3 ).
Soient Q ∈ On et B = t QAQ. Alors pour tout X ∈ En , sachant que Qt Q = t QQ = In :
— kBXk2 = t (BX)BX = t X t BBX = t X t Qt AQt QAQX = t X t Qt AAQX = kAQXk2
— kt BXk2 = t (t BX)t BX = t XB t BX = t X t QAQt Qt AQX = t X t QAt AQX = kt AQXk2
Or A vérifie (C3 ) et QX ∈ En , donc kAQXk = kt AQXk. Ainsi ∀X ∈ En , kBXk = kt BXk (car
les normes sont positives), i.e. B vérifie (C3 ).
 
A1 0
(b) Montrons que A est ORTS à une matrice de type où A1 ∈ Mp et A2 ∈ Mn−p vérifient
0 A2
(C3 ), avec p ∈ {1, 2}.
— D’après le théorème 1 du préambule, l’endomorphisme f de Rn canoniquement associé à A
admet une droite ou un plan stable. Notons F ce sous-espace stable, p ∈ {1, 2} sa dimension,
et Q la matrice de passage de la base canonique de Rn à une base orthonormale de Rn adaptée
à F (i.e. commençant par une base orthonormale de F ).
Alors Q est orthogonale (comme matrice de passage entre deux bases orthonormales) et la
matrice B = Q−1 AQ = t QAQ est la matrice de f dans une base adaptée au sous-espace
stable F , donc est triangulaire supérieure par blocs, de type
 
t A1 A3
B = QAQ =
0 A2

où A1 ∈ Mp , A2 ∈ Mn−p et où A3 est une matrice réelle de taille (p, n − p).
— Montrons que A3 = 0.
D’après l’indication montrée en (a), la matrice B vérifie la condition (C3 ), donc ∀X ∈ En ,
kBXk2 = kt BXk2 , i.e. en explicitant ces calculs de normes comme en (a) :
t
(?) : ∀X ∈ En , X t BBX = t XB t BX.

Fabien DÉLEN fdelen.maths@bbox.fr 14 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Or pour toute matrice M ∈ Mn et tout i ∈ [[1, n]], en notant ei le i-ème élément de la base
canonique de En (i.e. la colonne dont tous les coefficients sont nuls sauf le i-ème qui vaut 1),
le calcul t ei M ei donne le i-ème coefficient diagonal (M )i,i de M .
Vu (?), les matrices t BB et B t B ont donc les mêmes coefficients diagonaux. Or un calcul par
blocs donne
t tA A
 t
A1 A1 + A3 t A3 A3 t A2
 
t A1 A1 1 3 t
BB = t et B B =
A3 A1 t A3 A3 + t A2 A2 A2 t A3 A2 t A2

donc les égalités des coefficients diagonaux de t BB et B t B donnent en particulier, pour tout
i ∈ [[1, p]], (t A1 A1 )i,i = (A1 t A1 )i,i + (A3 t A3 )i,i et donc en sommant ces égalités :

tr(t A1 A1 ) = tr A1 t A1 ) + tr(A3 t A3 ).

Or par propriété usuelle de la trace, on a tr(t A1 A1 ) = tr(A1 t A1 ), et donc :

tr(A3 t A3 ) = tr(t A3 A3 ) = kA3 k2 = 0

où l’on a encore noté k · k la norme associée au produit scalaire usuel (M, N ) 7→ tr(t M N ) sur
Mp,n−p (R). Ainsi kA3 k = 0, et donc A3 = 0 (par séparation de la norme).
 
A1 0
Ainsi A est orthogonalement semblable à la matrice B = .
0 A2
— Montre que A1 et A2 vérifient (C3 ).
 
X1
En calculant par blocs les produits de l’égalité (?) ci-dessus, avec X = où X1 ∈ Ep et
X2
X2 ∈ En−p , on obtient :
t
∀(X1 , X2 ) ∈ Ep × En−p , X1 t A1 A1 X1 + t X2 t A2 A2 X2 = t X1 A1 t A1 X1 + t X2 A2 t A2 X2 .

En considérant successivement les cas où X2 = 0 puis X1 = 0, on obtient :


(
∀X1 ∈ Ep , t X1 t A1 A1 X1 = t X1 A1 t A1 X1 , i.e. kA1 X1 k2 = kt A1 X1 k2
∀X2 ∈ En−p , t X2 t A2 A2 X2 = t X2 A2 t A2 X2 i.e. kA2 X2 k2 = kt A2 X2 k2

où l’on a encore noté k · k les normes associées aux produits scalaires usuels sur Ep et En−p .
Ainsi ∀X1 ∈ Ep , kA1 X1 k = kt A1 X1 k et ∀X2 ∈ En−p , kA2 X2 k = kt A2 X2 k (car les normes
sont positives), i.e. A1 et A2 vérifient (C3 ).
12. Montrons par récurrence sur n ∈ N∗ que ∀A ∈ Mn , A vérifie (C3 ) =⇒ A vérifie (C4 ).
— Initialisation.
Le cas n = 1 est trivial puisque toute matrice de M1 vérifie (C3 ) et (C4 ).
Le cas n = 2 a été démontré en question 7.
— Hérédité.
Soit n > 3 tel que toute matrice carrée de taille 6 n − 1 vérifiant (C3 ) vérifie aussi (C4 ).
Soit alors A ∈ Mn vérifiant (C3 ).
 
A1 0
D’après la question 11, A est orthogonalement semblable à une matrice B = où A1 ∈
0 A2
Mp et A2 ∈ Mn−p vérifient (C3 ), avec p ∈ {1, 2}. Par hypothèse de récurrence, les matrices A1
et A2 vérifient donc aussi (C4 ), i.e. sont ORTS à des matrices B1 et B2 diagonales par blocs avec
des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Notons Q1 ∈ Op et Q2 ∈ On−p des matrices telles que B1 = t Q1 A1 Q1 et B2 = t Q2 A2 Q2 . Alors
un calcul par blocs donne :
  t   
B1 0 Q1 0 A1 0 Q1 0
=
0 B2 0 t Q2 0 A2 0 Q2

Fabien DÉLEN fdelen.maths@bbox.fr 15 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

 
Q1 0
et la matrice Q = est orthogonale puisque
0 Q2
t   t   
t Q1 0 Q1 0 Q1 Q1 0 Ip 0
QQ = tQ = tQ Q = = In .
0 2 0 Q2 0 2 2 0 In−p
 
B1 0
Ainsi par transitivité de la relation ORTS, A est ORTS à la matrice , qui est diagonale
0 B2
par blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R, puisque c’est le
cas de B1 et B2 . Ainsi A vérifie (C4 ).
— Conclusion.
On en déduit par récurrence que ∀n ∈ N∗ , si A ∈ Mn vérifie (C3 ), alors A vérifie (C4 ).

5 La condition (C4 ) implique la condition (C1 )


13. (a) Méthode 1.
L’application φ : Cn−1 [X] → Cn , P 7→ (P (z1 ), . . . , P (zn )), est clairement linéaire et injective
(car le seul polynôme de degré 6 n − 1 admettant n racines distinctes est le polynôme nul). Et
comme les espaces Cn−1 [X] et Cn sont de même dimension finie (à savoir n), l’application φ est
un isomorphisme.
Ainsi le n-uplet (z1 , . . . , zn ) ∈ Cn a un unique antécédent par φ. Autrement dit, il existe un unique
P ∈ Cn−1 [X] tel que pour tout k ∈ [[1, n]], P (zk ) = zk .
Méthode 2 (constructive, avec les polynômes de Lagrange).
n
Q X−zj
Considérons, pour tout k ∈ [[1, n]], le polynôme Lk défini par Lk (X) = zk −zj .
j=1
j6=k
Par construction, Lk est de degré n − 1, admet les zj pour j 6= k comme racines, et vaut 1 en zk .
n
P
De plus si des scalaires λ1 , . . . , λn ∈ C sont tels que λk Lk = 0, alors en évaluant en zj , où
k=1
j ∈ [[1, n]], on trouve λj = 0, donc la famille (L1 , . . . , Ln ) est libre, et est donc une base de Cn−1 [X]
au vu de son cardinal.
Ainsi tout P ∈ Cn−1 [X] se décompose de façon unique comme combinaison linéaire
n
X
P = λk Lk ,
k=1

où (λ1 , . . . , λn ) ∈ Cn , et l’on a alors, à nouveau en évaluant en zj , P (zj ) = λj , donc :

∀j ∈ [[1, n]], P (zj ) = zj ⇐⇒ ∀j ∈ [[1, n]], λj = zj .

D’où l’existence et l’unicité de P ∈ Cn−1 [X] tel que ∀j ∈ [[1, n]], P (zj ) = zj : c’est l’unique
polynôme de Cn−1 [X] dont les coordonnées dans la base (L1 , . . . , Ln ) sont les scalaires z1 , . . . , zn .
(b) On suppose de plus que pour tout k ∈ [[1, n]], zk ∈ Z, donc on a aussi P (zk ) = zk = zk .
Montrer que P ∈ R[X] revient à montrer que P = P , où P est le polynôme dont les coefficients
sont les conjugués de ceux de P . Et vu l’unicité montrée en (a), il suffit pour cela de montrer que
pour tout k ∈ [[1, n]], P (zk ) = zk .
Or il est clair que pour tout z ∈ C, P (z) = P (z), donc pour tout k ∈ [[1, n]], P (zk ) = P (zk ) = zk .
On a donc bien P = P , i.e. P ∈ R[X].
14. Notons χ(X) = X 2 − tr(rR(θ))X + det(rR(θ)) = X 2 − 2r cos(θ)X + r2 = (X − reiθ )(X − re−iθ ) le
polynôme caractéristique de la matrice rR(θ), et

P (X) = χ(X)B(X) + aX + b

Fabien DÉLEN fdelen.maths@bbox.fr 16 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

la division euclidienne de P par χ, où B ∈ R[X] et a, b ∈ R.


Puisque χ(reiθ ) = 0, on a P (reiθ ) = areiθ + b = re−iθ , i.e. en séparant les parties réelle et imaginaire :
ar cos(θ) + b = r cos(θ) et ar sin(θ) = −r sin(θ).
Et comme χ est annulateur de rR(θ) (par le théorème de Cayley-Hamilton ou par calcul direct), on
obtient :
   
ar cos(θ) + b −ar sin(θ) r cos(θ) r sin(θ)
P (rR(θ)) = arR(θ) + bI2 = = = t (rR(θ)).
ar sin(θ) ar cos(θ) + b −r sin(θ) r cos(θ)

Rq. Si sin(θ) = 0, alors P (r cos(θ)) = r cos(θ), et rR(θ) = r cos(θ)I2 , donc de façon évidente,
P (rR(θ)) = rR(θ) = t (rR(θ)). Mais il n’est pas nécessaire de distinguer ce cas dans les calculs précé-
dents.
15. Soit A ∈ Mn vérifiant (C4 ), i.e. A est orthogonalement semblable à une matrice B ∈ Mn diagonale
par blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
Soit alors Q ∈ On telle que B = t QAQ, i.e. telle que A = QB t Q.
Notons (λ1 ), . . . , (λp ) les (éventuels) blocs diagonaux de B de taille (1, 1), et r1 R(θ1 ), . . . , rq R(θq ) les
(éventuels) blocs diagonaux de B de taille (2, 2), et posons :
Z = {λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq }.
Par construction, pour tout z ∈ Z, on a z ∈ Z, et donc d’après la question 13, appliquée en notant
z1 , . . . , zn les éléments deux à deux distincts de la liste λ1 , . . . , λp , r1 eiθ1 , r1 e−iθ1 , . . . , rq eiθq , rq e−iθq , il
existe un polynôme réel P tel que pour tout z ∈ Z, P (z) = z, i.e. tel que :
∀k ∈ [[1, p]], P (λk ) = λk et ∀k ∈ [[1, q]], P (rk eiθk ) = rk e−iθk .
D’après la question 14, on a alors ∀k ∈ [[1, q]], P (rk R(θk )) = t (rk R(θk )), et donc par un calcul par
blocs, P (B) = t B. On conclut alors avec le théorème 2 du préambule que :
P (A) = QP (B)t Q = Qt B t Q = t (QB t Q) = t A.
Donc A vérifie (C1 ).
Rq. On a ainsi montré par les questions 5, 6, 12 et 15 que les conditions (C1 ), (C2 ), (C3 ) et (C4 ) sont
équivalentes, donc le premier objectif du problème est atteint.

6 Exponentielle d’une matrice normale


k |r|k k |r|k |r|k
16. (a) Pour tout k ∈ N, r cos(kθ) et r sin(kθ)
P
k! , et la série exponentielle converge,
6 6
k! k! k! k!
k∈N
P rk cos(kθ) P rk sin(kθ)
donc par comparaison, les séries k! et k! convergent absolument, donc convergent.
k∈N k∈N
(b) Par linéarité de la somme des séries convergentes, puisque cos(kθ) + i sin(kθ) = eikθ :
+∞ k +∞ k +∞
X r cos(kθ) X r sin(kθ) X (reiθ )k iθ
+i = = ere = er cos(θ) eir sin(θ)
k! k! k!
k=0 k=0 k=0

donc en séparant les parties réelle et imaginaire :


+∞ k +∞ k
X r cos(kθ) r cos(θ)
X r sin(kθ)
=e cos(r sin θ) et = er cos(θ) sin(r sin θ).
k! k!
k=0 k=0
n
P
17. Notons A = (ai,j ) et B = (bi,j ), de sorte que AB = (ci,j ) où ci,j = ai,k bk,j .
k=1
n n
Alors ∀(i, j) ∈ [[1, n]]2 , |ci,j | 6
P P
|ai,k ||bk,j | 6 kAk∞ kBk∞ = nkAk∞ kBk∞ .
k=1 k=1
Donc kABk∞ 6 nkAk∞ kBk∞ .

Fabien DÉLEN fdelen.maths@bbox.fr 17 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

18. Comme suggéré par l’énoncé, on note (M )i,j le coefficient d’indices (i, j) d’une matrice M .
Rappels. On rappelle qu’une suite (Mp )p∈N d’éléments de Mn converge vers une matrice M dans Mn
si et seulement si pour tout (i, j) ∈ [[1, n]]2 , la suite de terme général (Mp )i,j converge vers Mi,j .
(a) Montrer que la suite (Sp (A))p∈N converge dans Mn revient à montrer que pour tout (i, j) ∈ [[1, n]]2 ,
p
P (Ak )i,j P (Ak )i,j
la suite de terme général (Sp (A))i,j = k! converge, i.e. que la série k! converge.
k=0 k∈N
Or par récurrence immédiate à partir de la question 17, on a ∀k ∈ N, kAk k∞ 6 (nkAk∞ )k , donc
k
(A )i,j kAk k∞ (nkAk∞ )k
∀k ∈ N, 6 6 ,
k! k! k!
P (nkAk∞ )k P (Ak )i,j
et la série exponentielle k! converge, donc par comparaison, la série k! converge
k∈N k∈N
absolument, donc converge.
Ainsi la suite (Sp (A))p∈N converge bien dans Mn .
(b) Soit Q ∈ On . Par le théorème 2 du préambule, on a pour tout p ∈ N :

Sp (t QAQ) = t QSp (A)Q.

Or par définition de l’exponentielle d’une matrice donnée en (a), on a Sp (t QAQ) −→ Exp(t QAQ).
p→+∞
Et vu la définition du produit matriciel (ou puisque l’application M 7→ t QM Q est continue car
linéaire en dimension finie, ou via la question 17), on a t QSp (A)Q −→ t QExp(A)Q.
p→+∞
Donc par unicité de la limite :

Exp(t QAQ) = t QExp(A)Q.

19. (a) Par caractérisation séquentielle des fermés, montrer que En est fermé revient à montrer que pour
toute suite (Ap )p∈N d’éléments de En convergeant vers une matrice B ∈ Mn , on a B ∈ En .
Mais si Ap −→ B, alors de façon évidente, t Ap −→ t B (on peut aussi invoquer la continuité
p→+∞ p→+∞
de la transposition, qui est continue car linéaire en dimension finie), et donc vu la définition du
produit matriciel (ou via la question 17) :

Ap t Ap −→ B t B et t
Ap Ap −→ t
BB.
p→+∞ p→+∞

Ainsi si pour tout p ∈ N, Ap ∈ En , i.e. si Ap t Ap = t Ap Ap , alors en passant à la limite, B t B = t BB,


i.e. B ∈ En .
On a donc montré par caractérisation séquentielle que En est une partie fermée de Mn .
(b) Si A ∈ En , i.e. si A et t A commutent, alors tout polynôme en A commute avec tout polynôme
en t A, donc en particulier, pour tout P ∈ R[X], P (A) et P (t A) = t (P (A)) commutent, i.e.
P (A) ∈ En .
Ainsi si A ∈ En , alors pour tout p ∈ N, Sp (A) ∈ En , et donc par (a), Exp(A) ∈ En .
20. (a) On sait que pour tout k ∈ N, R(θ)k = R(kθ). Donc pour tout p ∈ N,
 p p 
P rk cos(kθ) P rk sin(kθ)
p
X rk k=0 k! − k! 
Sp (rR(θ)) = R(kθ) =  k=0
p P rk cos(kθ)  .
p

k!  P rk sin(kθ)
k=0 k! k!
k=0 k=0

Ainsi vu la question 16 :
 
r cos(θ) cos(r sin θ) − sin(r sin θ)
Exp(rR(θ)) = lim Sp (rR(θ)) = e = er cos(θ) R(r sin θ).
p→+∞ sin(r sin θ) cos(r sin θ)

Fabien DÉLEN fdelen.maths@bbox.fr 18 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

(b) Notons GLn l’ensemble des matrices de Mn qui sont ORTS à une matrice diagonale par blocs
avec des blocs diagonaux de type (µ) ou αR(), où µ, α > 0 et β ∈ R.
¯
On montre que Exp(En ) = GLn par double inclusion.
— Soit A ∈ En . Montrons que Exp(A) ∈ GLn .
Les conditions (C2 ) et (C4 ) étant équivalentes, A est ORTS à une matrice B diagonale par
blocs avec des blocs diagonaux de type (λ) ou rR(θ), où r > 0 et λ, θ ∈ R.
D’après la question 18, Exp(A) est alors ORTS à Exp(B).
Mais pour tout p ∈ N, un calcul par blocs montre que la matrice Sp (B) est diagonale par
p
P λk
blocs avec des blocs diagonaux de type Sp ((λ)) = ( k! ) ou Sp (rR(θ)), donc en passant à
k=0
la limite quand p → +∞, on voit avec (a) que Exp(B) est diagonale par blocs avec des blocs
diagonaux de type (eλ ) ou Exp(rR(θ)) = er cos(θ) R(r sin θ).
Comme µ = eλ > 0, α = er cos(θ) > 0, et β = r sin θ ∈ R, cela montre que Exp(A) ∈ GLn .
D’où l’inclusion Exp(En ) ⊂ GLn .
— Soit M ∈ GLn . Montrons l’existence d’une matrice A ∈ En telle que M = Exp(A).
Puisque M ∈ GLn , M est ORTS à une matrice N diagonale par blocs avec des blocs diagonaux
de type (µ) ou αR(β), où µ, α > 0 et β ∈ R.
Soit alors Q ∈ On tel que N = t QM Q, i.e. M = QN t Q.
Puisque R(0) = R(2π) = I2 , on peut supposer que pour chaque bloc diagonal de type αR(β)
dans N , on a (α, β) 6= (1, 0), quitte à changer β = 0 en β = 2π, ou à voir le bloc R(0) = I2
comme deux blocs (1) de taille (1, 1).
Soit alors B ∈ Mn la matrice diagonale par blocs déduite de N en remplaçant :
∗ chaque bloc diagonal de type (µ) de N par un bloc () où λ = ln(µ),
∗ chaque bloc diagonal de type αR(β) de N par un bloc rR(θ) où r > 0 et θ ∈ R sont res-
pectivement le module et un argument du complexe ln(α) + iβ, qui est non nul puisqu’on
a supposé (α, β) 6= (1, 0) (ce qui garantit que r = | ln(α) + iβ| > 0 et que θ est bien défini
modulo 2π), de sorte que r cos(θ) = ln(α), i.e. er cos(θ) = α, et r sin(θ) = β.
Et soit enfin A = QB t Q, de sorte que B = t QAQ.
Alors par définition, A est ORTS à B qui est du type décrit en (C4 ), donc A vérifie (C4 ), i.e.
A ∈ En puisque les conditions (C4 ) et (C2 ) sont équivalentes.
Et vu la question 18, Exp(B) = t QExp(A)Q. Mais vu les calculs faits dans le point précédent,
on a Exp(B) = N , donc

Exp(A) = QExp(B)t Q = QN t Q = M.

Ainsi M ∈ Exp(En ). D’où l’inclusion GLn ⊂ Exp(En ).


— On a donc bien, par double inclusion, Exp(En ) = GLn .
21. Vu la question 20, il s’agit de démontrer que GLn = Fn , avec la notation GLn qui y est introduite. On
procède par double inclusion.
— Soit M ∈ GLn , i.e. M ∈ Mn et M est ORTS à une matrice N diagonale par blocs avec des blocs
diagonaux de type (µ) ou αR(β), où µ, α > 0 et β ∈ R. Et soit Q ∈ On tel que N = t QM Q.
Montrons que M ∈ Fn .
— Montrons que les valeurs propres négatives de M sont de multiplicité paire.
Puisque les matrices M et N sont semblables, elles ont les mêmes valeurs propres, et un calcul
par blocs montre que le polynôme caractéristique de N est un produit de termes de type :
— X − µ pour chaque bloc diagonal de N de type (µ), et
— χαR(β) = X 2 −tr(αR(β))X +det(αR(β)) = X 2 −2α cos(β)X +α2 = (X −αeiβ )(X −αe−iβ )
pour chaque bloc diagonal de N de type αR(β) (calcul déjà fait en question 14).

Fabien DÉLEN fdelen.maths@bbox.fr 19 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

Les valeurs propres de M sont donc les réels µ > 0 pour chaque bloc diagonal de N de type
(µ), et les complexes αe±iβ pour chaque bloc diagonal de N de type αR(β).
Les valeurs propres négatives de M sont donc les éventuels αe±iβ où β ≡ π [2π], auquel cas
αeiβ = αe−iβ = −α. Ces valeurs propres sont donc de multiplicité paire, chaque bloc αR(π)
apportant deux copies de la valeur propre −α.
— Montrons que M = ST = T S où S ∈ Sn++ et T ∈ SOn .
Un calcul par blocs montre que N = S1 T1 = T1 S1 , où les matrices diagonales par blocs S1 et
T1 se déduisent de N en remplaçant :
— chaque bloc diagonal de type (µ) de N par un bloc (µ) dans S1 et un bloc (1) dans T1 ,
— chaque bloc diagonal de type αR() de N par un bloc αI2 dans S1 et un bloc R(β) dans
T1 . ¯
On a alors S1 ∈ Sn++ de façon évidente (car S1 est diagonale et à coefficients diagonaux
strictement positifs), et T1 ∈ SOn puisque des calculs par blocs montrent que t T1 T1 = In et
det(T1 ) = 1. Et on a alors M = QN t Q = (QS1 t Q)(QT1 t Q) = (QT1 t Q)(QS1 t Q), i.e.
M = ST = T S
où S = QS1 t Q ∈ Sn++ puisque t S = t (QS1 t Q) = Qt S1 t Q = QS1 t Q = S et que S et S1 sont
semblables donc ont les mêmes valeurs propres, et où T = QT1 t Q ∈ SOn puisqu’un produit
de matrices orthogonales est une matrice orthogonale et que T et T1 sont semblables donc
ont le même déterminant.
Donc par définition, M ∈ Fn . D’où l’inclusion GLn ⊂ Fn .
— Soit B ∈ Fn , i.e. B a toutes ses (éventuelles) valeurs propres négatives de multiplicité paire, et
B = ST = T S où S ∈ Sn++ et T ∈ SOn .
Montrons que B ∈ GLn , i.e. en notant b l’endomorphisme de En canoniquement associé à B, qu’il
existe une base orthonormale B de En dans laquelle la matrice B 0 de b est diagonale par blocs
avec des blocs diagonaux de type (µ) ou αR(), où µ, α > 0 et β ∈ R.
— Notons respectivement s et t les endomorphismes ¯ de En canoniquement associés à S et T .
Par hypothèse, s est un endomorphisme symétrique à valeurs propres strictement positives,
et t est une rotation (i.e. une isométrie de déterminant 1) de En .
Comme s est symétrique, ses sous-espaces propres sont deux à deux orthogonaux, et d’après
le théorème spectral, ils sont supplémentaires dans En .
— Soit λ > 0 une valeur propre de s.
Comme t commute avec s (car ST = T S), t stabilise le sous-espace propre Ker(S − λIn ) de
s, et comme t est une isométrie, l’endomorphisme tλ induit par t sur Ker(S − λIn ) est encore
une isométrie, de sorte que sa matrice Tλ dans une base orthonormale de Ker(S − λIn ) est
une matrice orthogonale.
Mais alors Tλ vérifie (C2 ) (cf. question 3), donc aussi (C4 ) (ces conditions étant équivalentes).
Autrement dit, il existe une base orthonormale Bλ de Ker(S − λIn ) dans laquelle la matrice
Tλ0 de tλ est diagonale par blocs avec des blocs diagonaux de type (ν) ou rR(θ), où r > 0 et
ν, θ ∈ R. De plus comme Tλ0 est inversible (car tλ l’est puisque c’est une isométrie), les blocs
diagonaux de type (ν) de Tλ0 sont nécessairement tous non nuls.
Rq. Plus précisément, les blocs diagonaux de Tλ0 de taille (1, 1) sont égaux à (±1), et ceux
de taille (2, 2) sont de type R(θ) (i.e. avec r = 1) puisque Tλ0 est orthogonale (comme
matrice d’une isométrie dans une base orthonormale), donc ses colonnes sont normées.
Cela généralise la réduction des isométries en dimension 6 3, au programme de la classe
PSI, au cas des isométries en dimension finie arbitraire.
Comme l’endomorphisme sλ induit par s sur Ker(S − λIn ) est l’homothétie de rapport λ, sa
matrice dans la base Bλ (comme dans toute base) est λIp où p = dim Ker(S − λIn ).
Ainsi b = s ◦ t = t ◦ s stabilise Ker(S − λIn ) et y induit un endomorphisme bλ dont la matrice
dans la base Bλ est λTλ0 , donc est diagonale par blocs de type (µ) ou αR(θ), où µ = λν 6= 0
et α = λr > 0 (car λ, r > 0 et ν 6= 0).

Fabien DÉLEN fdelen.maths@bbox.fr 20 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

— En concaténant les bases orthonormales Bλ de chaque sous-espace propre Ker(S − λIn ) de


s, on obtient ainsi une base orthonormale B de En (car les sous-espaces propres de s sont
deux à deux orthogonaux) dans laquelle la matrice B 0 de b est Diag((λTλ0 )∈Sp(s) ), donc est
diagonale par blocs avec des blocs diagonaux de type (µ) ou αR(), où µ 6= 0, α > 0 et β ∈ R,
puisque c’est le cas des matrices λTλ0 . ¯
Enfin, les éventuels blocs diagonaux de type (µ) avec µ < 0 dans B 0 correspondent aux valeurs
propres négatives de b, et apparaissent donc un nombre pair de fois par hypothèse sur B.
Quitte à réordonner la base B, on peut supposer que ces blocs sont consécutifs dans B 0 , ce
qui permet de les regrouper deux par deux en des blocs de type µI2 = −µR(π), où −µ > 0.
Donc B est bien ORTS à une matrice B 0 diagonale par blocs avec des blocs de type (µ) ou
αR(), où µ, α > 0 et β ∈ R.
¯
On a ainsi montré que B ∈ GLn . D’où l’inclusion Fn ⊂ GLn .
— On a donc bien, par double inclusion, Fn = GLn .
 
0 1 ··· 0
 .. . . . . .
22. Vu la question 21, il s’agit de voir si B =  .
 . . ..  ∈ F .
 n
0 0 1
1 0 ··· 0
Or par définition, B est une matrice orthogonale (car ses colonnes forment une base orthonormale de
En ), de déterminant (−1)n+1 et de polynôme caractéristique χB (X) = det(XIn − B) = X n − 1 (en
développant ces deux déterminants par rapport à la première colonne, le second redonnant le premier
en l’évaluant en 0), d’où la discussion suivante :
— Si n est pair, alors B admet −1 comme valeur propre de multiplicité 1, impaire, donc B 6∈ Fn .
— Si n est impair, alors B n’admet pas de valeur propre négative et appartient à SOn , donc B ∈ Fn
(avec la décomposition évidente B = ST = T S où S = In et T = B).

Fin du problème

Fabien DÉLEN fdelen.maths@bbox.fr 21 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

EXERCICE
D’après Mines 1 PSI 2014 - Somme de projecteurs orthogonaux

1 Trace.
1. On note mi,j le coefficient générique d’une matrice M ∈ Mn . On a alors, pour A, B ∈ Mn ,
n
X
∀i ∈ [1, n], (AB)i,i = ai,k bk,i
k=1

et donc
n n
!
X X
Tr(AB) = ai,k bk,i
i=1 k=1

Les sommes étant indépendantes, on peut tout regrouper en une unique somme indicée par un couple
X
Tr(AB) = ai,k bk,j
(i,k)in[1,n]2

Dans cette expression, A et B jouent des rôles symétriques et ainsi

Tr(AB) = Tr(BA)

2. Soit T ∈ L(X) et A, B les matrices représentant T dans deux bases Ba et Bb . En notant P la matrice
de passage de Ba à Bb , on a P −1 AP = B et donc

Tr(B) = Tr(P −1 AP ) = Tr(P P −1 A) = Tr(A)

On peut donc parler de la trace de T (trace de l’une quelconque des matrices représentant T dans une
base).

2 Projecteurs.
3. On veut montrer que tout élément de X se décompose de façon unique comme somme d’un élément
de N (P ) et d’un élément de R(P ). Raisonnons par conditions nécessaires puis suffisantes. Soit donc
x ∈ X.
- Supposons que x = y + z avec y ∈ N (P ) et z ∈ R(P ). On a alors P (x) = P (z) = z (car P agit
comme l’identité sur son image puisque P 2 = P ). On en déduit que z = P (x) et y = x − P (x).
La décomposition, si elle existe est unique.
- Réciproquement, x = (x − P (x)) + P (x) est une décomposition acceptable (P (x) ∈ R(P ) et
x − P (x) ∈ N (P ) car P 2 = P ).
4. Soit B = (e1 , . . . , er , er+1 , . . . , en ) une base adaptée à la décomposition X = R(P ) ⊕ N (P ) (obtenue en
concaténant une base (e1 , . . . , er ) de R(P ) et une autre de N (P )). Avec la question 2. on peut utiliser
cette base pour calculer la trace de P . On a PB = diag(1, . . . , 1, 0, . . . , 0) qui est de trace

Tr(P ) = r = dim(N (P )) = rg(P )

3 Décomposition en somme de projecteurs orthogonaux.


5. T étant symétrique, il existe (théorème spectral) une matrice orthogonale P telle que P −1 T P =
diag(d1 , . . . , dn ) où les dk sont les valeurs propres de T . On a alors

(x|T (x)) = t xT x = t xP diag(d1 , . . . , dn )P −1 x

Fabien DÉLEN fdelen.maths@bbox.fr 22 PSI 2020-2021


Lycée de l’Essouriau CORRECTION CONCOURS BLANC Les Ulis

En notant y = P −1 x, on a t y = t xP (car P est orthogonale) et donc (les yi étant les coefficients de y)


n
X
(x|T (x)) = t ydiag(d1 , . . . , dn )y = di yi2
i=1

Si les di sont tous positifs alors T est immédiatement positive. Réciproquement, en choisissant x = P ei
la positivité de T entraı̂ne di ≥ 0. On a donc l’équivalence voulue.
6. Soit P un projecteur.
- Supposons que P est un projecteur orthogonal. On a alors N (P ) et R(P ) qui sont orthogonaux
(et même supplémentaires orthogonaux). Si x ∈ X alors x − P (x) ∈ N (P ) (car P 2 = P ) et ce
vecteur est donc orthogonal à tout élément de R(P ). Ainsi

∀x ∈ X, ∀y ∈ R(P ), (x − P (x)|y) = 0

- Supposons cette propriété vérifiée. Soit alors z ∈ N (P ) et y ∈ R(P ). On a

(z|y) = (z − P (z)|y) = 0

et donc P est un projecteur orthogonal (noyau et image orthogonaux).


7. Soit P un projecteur.
- Supposons que P est un projecteur orthogonal. En concaténant une base orthonormée de R(P )
et une base orthonormée de N (P ), on obtient une base orthonormée de X (car noyau et image
sont supplémentaires orthogonaux). Dans cette base orthonormée, P est représenté par la matrice
diagonale diag(1, . . . , 1, 0, . . . , 0) et donc symétrique. P est ainsi un endomorphisme symétrique.
Il est même positif puisque σ(P ) ⊂ {0, 1} ⊂ R+ .
- Réciproquement, supposons que P soit symétrique. Soient alors x ∈ N (P ) et y ∈ R(P ). On a
P (y) = y (car P 2 = P ) et donc

(x|y) = (x|P (y)) = (P (x)|y) = (0|y) = 0

ce qui montre que N (P ) et R(P ) sont orthogonaux et que le projecteur P est orthogonal.

Fabien DÉLEN fdelen.maths@bbox.fr 23 PSI 2020-2021

Vous aimerez peut-être aussi