Vous êtes sur la page 1sur 9

PSI* — 2015/2016 — Corrigé du D.S.

4 Page 1

Problème A : équation et fonction de Bessel


Partie I

1) Soit x réel ; la fonction cos étant paire, j’ai :


1 π 1 π
J−N (x) = cos (−Nθ − x sin θ) dθ = cos (Nθ + x sin θ) dθ = JN (−x) ;
π 0 π 0
de plus, grâce au changement de variable ϕ = π − θ, j’obtiens
1 0 1 π
JN (−x) = cos (N (π − ϕ) + x sin (π − ϕ)) (−dϕ) = (−1)N cos (−Nϕ + x sin ϕ) dϕ
π π π 0
d’où, toujours d’après la parité de cos :
∀x ∈ R J−N (x) = JN (−x) = (−1)N JN (x).
π
2) Soit la fonction f : (x, θ) → cos (Nθ − x sin θ) et g : x → f (x, θ) dθ, de sorte que JN = g/π. Je
0
montre dans un premier temps que g est C 1 sur R en appliquant le théorème de dérivation sous le signe
:
• pour tout θ de [0, π], la fonction x → f (x, θ) est C 1 sur R
• pour tout x de R, la fonction θ → f (x, θ) est continue par morceaux et intégrable sur [0, π] (car
continue sur un segment !)
∂f π
• pour tout x de R, la fonction θ → (x, θ) = (− sin θ) cos Nθ − x sin θ + 2 est continue par
∂x
morceaux sur [0, π]
∂f
• domination : j’ai pour tout (x, θ) ∈ R × [0, π], (x, θ) ≤ 1 et la fonction t → 1 est indépendante
∂x
de x, continue par morceaux et intégrable sur [0, π] !
Donc g est C 1 sur R et la formule de Leibniz s’applique.
Pour les dérivées d’ordre supérieur, le raisonnement est similaire : toutes les fonctions considérées sont
en fait C ∞ et les dérivées successives par rapport à x sont toutes dominées par la constante 1 puisque
par une récurrence immédiate
∂k f
∀k ∈ N ∀ (x, θ) ∈ R × [0, π] (x, θ) = (− sin θ)k cos Nθ − x sin θ + k π2 .
∂xk
Il en résulte que g et donc JN sont C ∞ sur R et que les dérivées successives s’obtiennent par dérivation
sous le signe . En particulier :
 π
 J ′ (x) = 1
 sin θ sin (Nθ − x sin θ) dθ

 N
π 0
JN est de classe C et : ∀x ∈ R

π .

 J ′′ (x) = 1 − sin 2
θ cos (Nθ − x sin θ) dθ

 N π 0

3) Soient u : θ → sin (Nθ − x sin θ) et v : θ → N + x cos θ les fonctions indiquées par l’énoncé. Pour x ∈ R
fixé, il s’agit de montrer que l’expression
z (x) = π x2 JN
′′ ′
(x) + xJN (x) + x2 − N 2 JN (x)
est nulle. Or d’après la question précédente
π
z (x) = −x2 sin2 θ + x2 − N 2 cos (Nθ − x sin θ) + x sin θ sin (Nθ − x sin θ) dθ
0
π
= (x cos θ + N) (x cos θ − N) cos (Nθ − x sin θ) + x sin θ sin (Nθ − x sin θ) dθ
0
π
π
= −v (θ) u′ (θ) − v′ (θ) u (θ) dθ = − v (θ) u (θ) 0
=0
0
car u (0) = u (π) = 0. Il en résulte que :
JN est solution de (BN ) sur R.
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 2

4) Il vient immédiatement, compte tenu des expressions du 2) :


J0 (0) = 1 ; J0′ (0) = 0 ; J0′′ (0) = −1/2.

5) a) Soit x réel ; j’ai pour tout θ de [0, π] :


cos ((N − 1) θ − x sin θ) + cos ((N + 1) θ − x sin θ) = 2 cos θ cos (Nθ − x sin θ)
d’où, en multipliant par x/π et en intégrant de 0 à π :
2 π
x (JN−1 (x) + JN+1 (x)) = x cos θ cos (Nθ − x sin θ) dθ
π 0
2 π
= (−N + x cos θ) cos (Nθ − x sin θ) dθ + 2NJN (x)
π 0
2 π
= − sin (Nθ − x sin θ) 0 + 2NJN (x) = 2NJN (x)
π
D’où, en divisant par x :
2N
∀x ∈ R∗ JN−1 (x) + JN+1 (x) = JN (x).
x
b) J’ai de même :
cos ((N − 1) θ − x sin θ) − cos ((N + 1) θ − x sin θ) = 2 sin θ sin (Nθ − x sin θ)
d’où, en multipliant par 1/π et en intégrant de 0 à π, d’après le 2) :
′ (x).
∀x ∈ R JN−1 (x) − JN+1 (x) = 2JN
c) Avec N = 0 dans le résultat précédent, sachant que J−1 = −J1 d’après le 1), j’ai bien
J1 = −J0′ .

Partie II — Développement en série entière de JN

1) D’après le développement en série entière de la fonction cos, j’ai, pour tout x réel :
+∞
1 π
1 π
(−1)n
J0 (x) = cos (x sin θ) dθ = (x sin θ)2n dθ ;
π 0 π 0 n=0
(2n)!
(−1)n
Soit, pour x fixé, un la fonction de θ définie par un : θ → (x sin θ)2n ; la série de fonctions
(2n)!
1
un converge normalement sur [0, π] : en effet, sup |un | = |x|2n est le terme général d’une série
[0,π] (2n)!
convergente (de somme ch |x|) ; donc un converge uniformément sur le segment [0, π], par conséquent
je peux intégrer terme à terme :
+∞ +∞ +∞
π π
(−1)n 1 π
un = un d’où J0 (x) = Wn x2n , avec Wn = sin2n θdθ.
0 n=0 n=0 0 n=0
(2n)! π 0

Cela pour tout réel x, donc J0 est développable en série entière sur R (rayon de convergence infini) ;
pour expliciter les coefficients, je peux reprendre l’équation différentielle (B0 ), ou bien calculer Wn :
j’ai W0 = 1 et une intégration par parties me fournit la relation classique
2n − 1
∀n ∈ N∗ Wn = Wn−1
2n
(2n)!
d’où, à l’aide d’une récurrence immédiate : ∀n ∈ N Wn = . En conclusion :
(2n n!)2
+∞
(−1)n x2n
J0 est développable en série entière sur R et ∀x ∈ R J0 (x) = .
n=0
(2n n!)2
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 3

2) a) Je peux reprendre la méthode précédente, en écrivant


cos (Nθ − x sin θ) = cos Nθ cos (x sin θ) + sin Nθ sin (x sin θ) .
Je peux aussi montrer par récurrence sur N que JN est développable en série entière sur R , en
remarquant que J1 = −J0′ (d’après le I—5)c)), donc que J1 est développable en série entière sur R,
comme J0 ; puis j’utilise la relation du I—5)b) pour prouver que, si JN −1 et JN sont développables
en série entière sur R , alors JN+1 l’est aussi. Finalement,
Pour tout N, JN est développable en série entière sur R.
b) Soit alors N ≥ 2 (le développement de J1 = −J0′ se déduira de celui de J0′ ) obtenu au 1)). J’appelle
(an ) la suite des coefficients du développement en série entière de JN . À l’aide du théorème de
dérivation terme à terme des séries entières et grâce à quelques réindexations, j’obtiens :
+∞ +∞ +∞ +∞
n ′ n 2 ′′ n 2
si y = JN (x) = an x , alors xy = nan x , x y = n (n − 1) an x , x y = an−2 xn
n=0 n=0 n=0 n=2
d’où, d’après (BN ) et l’unicité des coefficients d’une série entière :
−N 2 a0 = 0 ; 1 − N 2 a1 = 0 ; ∀n ≥ 2 n2 − N 2 an + an−2 = 0.
Il en résulte
an−2
a0 = a1 = 0 et ∀n < N an = ,
N 2 − n2
d’où, par une récurrence immédiate,
∀n < N an = 0.
De même, de
an−2 −1
aN−1 = 0 et ∀n > N an = 2 2
= an−2
N −n (n − N) (n + N)
je déduis par récurrence :
(−1)k N!
∀k ∈ N aN+2k+1 = 0 et aN+2k = aN .
22k k! (N + k)!
(N)
J (0)
Il reste à calculer aN , qui n’est autre que N ; or la relation du I—5)b) donne en dérivant n − 1
N!
fois :
1 (n−1) (n−1)
∀n ≥ 1 Jn(n) (0) = Jn−1 (0) − Jn+1 (0) .
2
Et le calcul précédent a montré entre autres choses que (en remplaçant N par n) :
∀n ≥ 2 ∀p < n Jn(p) (0) = 0.
Finalement :
1 (n−1) (0) 1
∀n ≥ 1 Jn(n) (0) = Jn−1 (0) or J0 (0) = 1, d’où ∀n ∈ N Jn(n) (0) = .
2 2n
1
Donc aN = N et je peux conclure :
2 N!
+∞
(−1)k
∀x ∈ R JN (x) = αN (k) xN+2k , avec ∀k ∈ N αN (k) = .
2N+2k k! (N + k)!
k=0
Il apparaît que cette expression est encore correcte pour N = 0 et pour N = 1.

Problème B : algorithme de Le Verrier


1) Formules de Newton
a) La formule de dérivation d’un produit de p polynômes donne :
 
p p p
′ P P′ 1
P =  
(X − λj ) = d’où =
X − λk P X − λk
k=1 j=k k=1 k=1
et donc :
p
P ′ (t) 1
∀t ∈ R\Λ = .
P (t) t − λk
k=1
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 4
1
b) Fixons r > 0 tel que : ∀k ∈ Np |λk | < et x ∈ ]−r, r[ \ {0} ; j’ai :
r
p p ∞ p ∞
P ′ (1/x) x n
∀k ∈ Np |λk x| < 1 donc = = x (λk x) = λnk xn+1
P (1/x) 1 − λk x
k=1 k=1 n=0 k=1 n=0
soit, puisqu’il s’agit d’un nombre fini de séries convergentes, par linéarité de la limite :

P ′ (1/x)
∀x ∈ ]−r, r[ \ {0} = Sn xn+1 .
P (1/x) n=0

c) Toujours pour x ∈ ]−r, r[ \ {0}, j’ai


p p−1
1 1 n ′ 1 1
P = p an x et P = (p − n) an xn
x x n=0
x xp−1 n=0
d’où, l’égalité subsistant pour x = 0 :
p−1 p ∞
∀x ∈ ]−r, r[ (p − n) an xn = an xn · Sn xn
n=0 n=0 n=0
soit encore, en posant an = 0 pour tout n > p :
∞ ∞ ∞
∀x ∈ ]−r, r[ (p − n) an xn = an xn · Sn xn .
n=0 n=0 n=0
J’en déduis, par unicité des coefficients d’une série entière, en écrivant les coefficients du produit de
Cauchy figurant dans le membre de droite :
n
∀n ∈ N (p − n) an = ak Sn−k .
k=0
Les formules de Newton en résultent.

2) Algorithme de Le Verrier
k−1
1
Soit, pour k ∈ Np , Pk le prédicat : “ak = − · Tr Ak et Ak = Ak + ak−i Ai ”.
k
i=1
• P1 est vraie : j’ai bien A1 = A1 + 0 et a1 = − Tr A1 (puisque Tr A1 est la somme des racines du
polynôme scindé χA ) ;
• Hypothèse de récurrence : je considère k ∈ {2, . . . , p} tel que Pk−1 soit vraie ;
• J’ai alors, par définition de la suite (Ak ) et d’après Pk−1 :
k−2 k−1
1 k i+1 k
Ak = A × Ak−1 − Tr Ak−1 · Ip =A + ak−1−i A + ak−1 A = A + ak−i Ai
k−1
i=1 i=1
d’où, d’après les formules de Newton, puisque k ≤ p :
k−1
Tr Ak = Sk + ak−i Si = −kak ;
i=1
ainsi Pk est vérifiée.
En conclusion,
Pk est vraie pour tout k dans Np .
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 5

Problème C — Polynômes d’Hermite


Première partie

1) Soit P un polynôme de degré n ∈ N (le cas P = 0 est trivial), de terme dominant an X n ; P est une
fonction continue sur R et, au voisinage de ±∞, [P (t)]2 est équivalent à a2n t2n ; or :
2
lim t2 · a2n t2n e−t = 0,
t→±∞

donc, par comparaison avec une intégrale de Riemann, t → [P (t)]2 e−t est intégrable sur R :
2

E contient les fonctions polynomiales.

2) Je montre que E est un sous-espace vectoriel de l’espace des fonctions continues de R dans R : E en
est une partie par définition, non vide car la fonction nulle est dans E ; il est clair que E est stable par
la multiplication externe par un réel ; reste à prouver la stabilité pour l’addition : soient donc f et g
dans E :
∀t ∈ R [f(t) + g(t)]2 = [f(t)]2 + [g(t)]2 + 2f(t)g(t) ≤ 2 [f(t)]2 + [g(t)]2 .
Il en résulte que t → [(f + g)(t)]2 e−t est intégrable sur R, puisque t → [f(t)]2 e−t et t → [g(t)]2 e−t
2 2 2

le sont par hypothèse. En conclusion :


E est un R-espace vectoriel.
Pour (f, g) ∈ E 2, la majoration :
1
∀t ∈ R [f(t)]2 + [g(t)]2
|f(t)g(t)| ≤
2
2
prouve que t → f (t) g (t) e−t est intégrable sur R : (f|g) est bien défini. Il est clair que (·|·) est
bilinéaire symétrique, positive et, si f ∈ E vérifie (f|f ) = 0, alors, t → [f(t)]2 e−t étant positive et
2

2
continue, elle est nulle sur R, d’où f = 0 puisque e−t ne s’annule pas ; en résumé :
(·|·) est un produit scalaire sur E.

Deuxième partie

1) φn (1) = 2n, φn (X) = 2(n − 1)X et pour k ≥ 2 :


φn (X k ) = k(k − 1)X k−2 + 2(n − k)X k .
Donc :
φn (X k ) est de degré : k si n = k, k − 2 si n = k ≥ 2 et −∞ si n = k < 2.
J’en déduis, par combinaisons linéaires, que pour P polynôme de degré k = n, φn (P ) est encore de degré
k ; donc un polynôme non nul de Ker φn est nécessairement de degré n. Pour n = 0, réciproquement,
tout polynôme constant est dans Ker φ0 : Ker φ0 est la droite des polynômes constants, qui est bien
engendrée par un polynôme de degré 0. Pour n ≥ 1, φn (Rn [X]) est contenu dans Rn−1 [X] et plus
précisément égal à Rn−1 [X] (car contenant φn (1), . . . , φn (X n−1 ) qui en est une base, en tant que
famille de n polynômes de degrés échelonnés 0, . . . , n−1, donc libre) ; φn induit donc un endomorphisme
de Rn [X] de rang n : d’après le théorème du rang, son noyau est une droite vectorielle, qui coïncide
avec Ker φn et est engendrée par un polynôme de degré n, puisqu’un polynôme non nul de Ker φn est
nécessairement de degré n, comme je l’ai déjà signalé :
Ker φn est une droite vectorielle engendré par un polynôme de degré n.
n
Hn est de la forme ak X k , avec an = 2n et φn (Hn ) = 0, soit :
k=0
n n
k−2
k(k − 1)ak X +2 (n − k)ak X k = 0,
k=2 k=0
soit, en réindexant :
n−2 n
(k + 1)(k + 2)ak+2 X k + 2 (n − k)ak X k = 0,
k=0 k=0
d’où :
(k + 1)(k + 2)
an−1 = 0 et ∀k ∈ {0, . . . , n − 2} ak = − ak+2 .
2(n − k)
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 6

J’en déduis par récurrence, compte tenu de an = 2n :


Pour p tel que 0 ≤ 2p + 1 ≤ n, an−2p−1 = 0 et
2n−2p n!
pour p tel que 0 ≤ 2p ≤ n, an−2p = (−1)p
p!(n − 2p)!
Ce résultat permet d’obtenir :
H0 = 1, H1 = 2X, H2 = 4X 2 − 2, H3 = 8X 3 − 12X.
Enfin la nullité des coefficients de la forme an−2p−1 signifie que :
Hn est de la même parité que n.

2) Je remarque que :
∀t ∈ R ψ′ (t) + 2tψ(t) = 0
et la formule de Leibniz me fournit, en dérivant n + 1 fois :
∀n ∈ N ∀t ∈ R ψ (n+2) (t) + 2tψ(n+1) (t) + 2(n + 1)ψ (n) (t) = 0.

3) Une récurrence facile montre que ψ(n) (t) est le produit de e−t par un polynôme de terme dominant
2

(−2)n X n . En outre, pour tout n ∈ N et tout t ∈ R :


ψ(n+1) (t) + 2tψ(n) (t)
2
yn′ (t) = et
ψ(n+2) (t) + 4tψ(n+1) (t) + 2ψ(n) (t) + 4t2 ψ (n) (t)
2
yn′′ (t) = et
d’où :
2
φn (yn )(t) = et ψ(n+2) (t) + 2tψ(n+1) (t) + (2n + 2)ψ (n) (t) = 0
d’après la question précédente. En conclusion :
yn est un polynôme de Ker φn .
Hn étant l’unique polynôme de la droite Ker φn de coefficient dominant 2n , j’en déduis :
n
2 d 2
∀t ∈ R Hn (t) = (−1)n yn (t) = (−1)n et n e−t .
dt
2
4) En multipliant la relation du 2) par et , j’obtiens :
∀t ∈ R yn+2 (t) + 2tyn+1 (t) + 2(n + 1)yn (t) = 0,
autrement dit, d’après la question précédente, en simplifiant par (−1)n :
Hn+2 − 2XHn+1 + 2(n + 1)Hn = 0.

5) Soient n ∈ N∗ , P ∈ R [X] ; j’intègre par parties, sachant que tous les produits d’un polynôme par
2
t → e−t sont intégrables sur R et admettent une limite nulle en ±∞ :
+∞ +∞
2 dn 2
Hn (t)P (t)e−t dt = (−1)n n e−t P (t)dt
−∞ −∞ dt
+∞ +∞
dn−1 −t2 dn−1 −t2 ′
= (−1)n e P (t) − (−1)n e P (t)dt
dtn−1 −∞ −∞ dtn−1
+∞
2
=0+ Hn−1 (t)e−t P ′ (t)dt
−∞
En conclusion :
Pour n ∈ N∗ et P ∈ R [X], (Hn |P ) = (Hn−1 |P ′ ).

6) En itérant le résultat précédent, je trouve, pour p ≤ n : (Hn |X p ) = (Hn−p |p!) = p!(Hn−p |1).
Pour p < n, j’applique une fois de plus le résultat précédent : (Hn−p |1) = (Hn−p−1 |0) = 0.

Pour p = n, (H0 |1) = I0 = π. En résumé :

Pour p < n, (Hn |X p ) = 0 et (Hn |X n ) = n! π.
Hp étant de degré p, le résultat précédent prouve que, pour p < n, (Hn |Hp ) = 0 et, Hn ayant 2n pour
coefficient dominant, (Hn |Hn ) = 2n (Hn |X n ), soit finalement :

La famille (Hn )n∈N est orthogonale et ∀n ∈ N Hn 2 = 2n n! π.
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 7

Troisième partie

La projection orthogonale de f sur F = Vect(H0 , . . . , Hn ) est :


n
(Hk |f)
gn = β k (f)Hk où β k (f) =
k=0
Hk 2
et f − gn est orthogonal à F , donc à gn − fn , d’où grâce au théorème de Pythagore :
2 2 2 2
f − fn = f − gn + gn − fn = f − gn + gn − fn .
De même, f − gn est orthogonal à gn , donc :
n n
2 2 2
f − gn = (f − gn |f − gn ) = (f − gn |f ) = f − β k (f)(Hk |f) = f − [αk (f)]2 .
k=0 k=0
Enfin, la famille (H0 , . . . , Hn ) étant orthogonale :
n
2
gn − fn = [β k (f) − xk ]2 Hk 2
.
k=0
Il en résulte que :
n n
2 2 2
f − fn = f − [αk (f )] + [β k (f) − xk ]2 Hk 2
est minimum lorsque ∀k ≤ n xk = β k (f ).
k=0 k=0
Pour ce choix des xk , j’ai :
n
[αk (f)]2 = f 2
− f − fn 2
.
k=0
En particulier :
n
[αk (f )]2 ≤ f 2
.
k=0
La série de terme général [αk (f )]2 est à termes positifs et je viens de voir que ses sommes partielles sont
majorées :
La série de terme général [αk (f)]2 est convergente.

Problème D

Partie I — Étude de E1

1) Ici,
0 0 0 1
G= et H =
1 0 0 0
d’où
0 0 0 0 1 0
G2 = H 2 = , GH = , HG = .
0 0 0 1 0 0
Il apparaît que GH ∈
/ E1 :
E1 n’est pas stable par la multiplication matricielle.

2) Les deux vecteurs colonnes d’une matrice A1 (a1 , b1 ) de E1 sont toujours orthogonaux (pour le produit
scalaire canonique de R2 ) ; ils sont de plus unitaires si et seulement si a21 = 1 et b21 = 1, d’où les quatre
éléments de :
0 1 0 1 0 −1 0 −1
E1 ∩ O2 = , , , .
1 0 −1 0 1 0 −1 0

0 ε′
3) Soit A = A1 (a1 , b1 ) ∈ E1 , U ∈ E1 ∩ O2 et ∆ ∈ D2 . Alors – d’après 2) – U est de la forme
ε 0
λ 0
avec (ε, ε′ ) ∈ {−1, 1}2 et D est de la forme avec λ, λ′ ∈ R2 . Mézalor
0 λ′
0 ε′ λ′ ελ = a1 λ = εa1
U∆ = donc U ∆ = A ⇔ ⇔ .
ελ 0 ε′ λ′ = b1 λ′ = ε′ b1
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 8

D’où quatre choix possibles pour (ε, ε′ ), mais une fois ce choix effectué, λ, λ′ est fixé :
Toute matrice A ∈ E1 se décompose de 4 façons sous la forme U ∆, U ∈ E1 ∩ O2 et ∆ ∈ D2 .

4) a) det A = −a1 b1 est non nul par hypothèse, donc A est inversible et il vient
0 1/a1
A−1 = .
1/b1 0
Ainsi,
A−1 existe et appartient à E1 .
b) Le polynôme caractéristique de A est χA = X 2 − Tr A · X + det A = X 2 − a1 b1 . Par conséquent, si
a1 b1 < 0, χA n’est pas scindé sur R et donc :
Lorsque a1 b1 < 0, A n’est pas diagonalisable dans M2 (R).
Si par contre a1 b1 > 0, alors χA admet deux racines distinctes dans R et donc A admet deux
valeurs propres distinctes : les deux sous-espaces propres associés sont nécessairement deux droites
supplémentaires, d’où :
Lorsque a1 b1 > 0, A est diagonalisable dans M2 (R).
c) Lorsqu’enfin a1 b1 = 0, χA admet 0 pour racine double et alors A est diagonalisable si et seulement
si A = 0 (seule matrice semblable à la matrice nulle !). Autrement dit,
Lorsque a1 b1 = 0, A est diagonalisable dans M2 (R) si et seulement si a1 = b1 = 0.

5) a) Si xy = zt, alors K et L n’ont pas le même déterminant, donc


Lorsque xy = zt, K et L ne sont pas semblables.
b) Si xy = zt > 0, alors K et L sont diagonalisables dans M2 (R), avec les mêmes valeurs pro-

pres (± xy) ; elles sont donc semblables, puisque semblables à une même matrice diagonale.
Pour xy = zt < 0, le même raisonnement fonctionne pour montrer que K et L sont semblables
dans M2 (C). On peut en déduire qu’elles le sont aussi dans M2 (R) (exercice classique, cf. T.D. 1
- exo 20).
a b
On peut aussi chercher directement P = inversible telle que KP = P L, c’est-à-dire :
 c d

 cy = bz

ax = dz z 0
. Il apparaît que P = convient :

 dy = at 0 x

bx = ct
Lorsque xy = zt = 0, K et L sont semblables dans M2 (R).

Partie II — Étude de En

1) a) Puisque la première et la troisième colonnes de A2 (a, b) sont colinéaires :


d2 = 0.
En développant par rapport à la dernière colonne, puis par rapport à la dernière ligne, il vient :
∀n ≥ 3 dn = −an bn dn−2 .
b) Sachant que d2 = 0, compte tenu de la relation précédente, une récurrence immédiate montre que :
∀p ∈ N∗ d2p = 0.
De même, partant de d1 = −a1 b1 , j’obtiens par récurrence :
p
p+1
∀p ∈ N d2p+1 = (−1) (a2k+1 b2k+1 ).
k=0
PSI* — 2015/2016 — Corrigé du D.S. 4 Page 9

2) a) Supposons U = An (u, v) et ∆ = diag (d1 , . . . , dn+1 ) ; il vient


 
0 v1 d2 (0)
 .. .. 
 u1 d1 . . 
A = U∆ =  . .. 
 .. . vn dn+1 
(0) un dn 0
qui est bien élément de En . De plus,
t
AA = t (U ∆) (U ∆) = t ∆t UU ∆ = ∆2
car U est orthogonale et ∆ symétrique. En conclusion
A = U ∆ ∈ En et t AA est diagonale.
b) D’après 1), il n’existe aucune matrice dans E2p ∩O2p+1 puisque toute matrice de E2p a son déterminant
nul. Donc
La réponse est non !
c) Remarquons (habilement) que
 
4 0 6 0
t
 0 17 0 20 
AA = 
 6 0 45 0 

0 20 0 25
n’est pas une matrice diagonale, ce qui contredit – d’après a) – l’existence d’une décomposition
A = U ∆, où U ∈ E3 ∩ O4 et ∆ ∈ D4 :
La réponse est non !!
d) Comme ci-dessus, en écrivant que la première ligne et la première colonne de A = A2p+1 (a, b) sont
unitaires, j’obtiens |a1 | = |b1 | = 1, puis en écrivant que la deuxième ligne et la deuxième colonne de
A sont unitaires, j’obtiens b2 = a2 = 0 :
Si A = A2p+1 (a, b) ∈ E2p+1 ∩ O2p+2 , nécessairement a1 = ±1, b1 = ±1 et b2 = a2 = 0.
On peut poursuivre l’analyse en examinant les troisièmes ligne et colonne, puis les quatrièmes. . .
On montre par récurrence que :
∀k ∈ [[0, p]] a2k+1 = ±1 et b2k+1 = ±1 et ∀k ∈ [[1, p]] a2k = b2k = 0 .
Il apparaît alors que A est diagonale par blocs, avec sur la diagonale p + 1 blocs d’ordre 2 de la forme
0 b2k+1
, k ∈ [[0, p]], qui sont en fait des matrices de E1 ∩ O2 . Ayant 4 choix possibles pour
a2k+1 0
chacun de ces blocs, j’ai donc 4p+1 candidats possibles, qui conviennent tous (voir le produit par
blocs t AA). En conclusion
E2p+1 ∩ O2p+2 est de cardinal 4p+1 .
Pour A ∈ E2p+1 , telle t AA soit diagonale, le calcul de cette matrice montre que nécessairement :
∀i ∈ [[1, 2p]] ai bi+1 = 0.
Comme par hypothèse det A = 0, le 1) montre que les a2k+1 et b2k+1 sont non nuls, pour k ∈ [[0, p]].
Ce sont donc les a2k et les b2k qui sont nécessairement nuls, pour k ∈ [[1, p]]. A est donc comme
ci-dessus diagonale par blocs et les blocs diagonaux – d’ordre deux – s’écrivent (cf. I-3)
0 b2k+1 0 1 a2k+1 0
= .
a2k+1 0 1 0 0 b2k+1
A s’écrit alors (voir le produit par blocs) U ∆, avec U diagonale par blocs, comportant sur sa
0 1
diagonale p + 1 blocs égaux à , et ∆ = diag (a1 , b1 , a3 , b3 , . . . , a2p+1 , b2p+1 ). U est bien dans
1 0
E2p+1 ∩ O2p+2 et ∆ est bien diagonale :
Il existe U ∈ E2p+1 ∩ O2p+2 et ∆ ∈ D2p+2 telles que A = U ∆.

Vous aimerez peut-être aussi