Vous êtes sur la page 1sur 26

Mathématiques spéciales

Corrigé de la feuille d’exercices no10

1. Exercices Basiques

a. Produit scalaire et orthogonalité

Exercice 1.

Démontrer que les formules suivantes définissent des produits scalaires sur l’espace vectoriel
associé :
∫1
1. ⟨f, g⟩ = f (0)g(0) + 0 f ′ (t)g ′ (t)dt sur E = C 1 ([0, 1], R) ;
∫b
2. ⟨f, g⟩ = a f (t)g(t)w(t)dt sur E = C([a, b], R) où w ∈ E satisfait w > 0 sur ]a, b[.

Correction.

1. Si ⟨f, f ⟩ = 0, alors on a à la fois (f (0))2 = 0, donc f (0) = 0, et


∫ 1 ( )2
f ′ (t) dt = 0.
0

Or, (f ) est continue et positive sur [0, 1]. Puisque son intégrale est nulle, c’est que f ′ est
′ 2

nulle sur [0, 1]. On en déduit que f est constante sur [0, 1], puis, comme f (0) = 0, que f est
identiquement nulle sur [0, 1].
2. Si f ∈ E est tel que ⟨f, f ⟩ = 0, le même raisonnement donne que f 2 w = 0 sur [a, b], donc,
puisque w ne s’annule pas sur ]a, b[, que f = 0 sur ]a, b[. Par continuité, on en déduit que
f = 0 sur [a, b] et donc que f ≡ 0. La forme est bien définie positive.

Exercice 2.

Soit E un espace vectoriel euclidien et x, y deux éléments de E. Montrer que x et y sont ortho-
gonaux si et seulement si ∥x + λy∥ ≥ ∥x∥ pour tout λ ∈ R.

Correction.

Remarquons que, puisque tout est positif, l’inégalité est équivalente à ∥x + λy∥2 ≥ ∥x∥2 . Or,

∥x + λy∥2 = ∥x∥2 + 2λ⟨x, y⟩ + λ2 ∥y∥2

et donc l’inégalité est équivalente à

2λ⟨x, y⟩ + λ2 ∥y∥2 ≥ 0.

Supposons d’abord que x est orthogonal à y, et donc que ⟨x, y⟩ = 0. Alors l’inégalité précédente

1
est bien vérifiée pour tout λ ∈ R. Réciproquement, supposons que, pour tout λ ∈ R,

2λ⟨x, y⟩ + λ2 ∥y∥2 ≥ 0 ⇐⇒ λ(2⟨x, y⟩ + λ∥y∥) ≥ 0.

Dressant le tableau de signes de ce produit, il ne peut être toujours positif que si 2⟨x, y⟩ + λ∥y∥
est toujours nul, c’est-à-dire si y = 0, ou si 2⟨x, y⟩ + λ∥y∥ ne s’annule qu’en 0, c’est-à-dire si
⟨x, y⟩ = 0. Dans les deux cas, on trouve bien que x et y sont orthogonaux.

Exercice 3.

Soient F et G deux sous-espaces vectoriels d’un espace préhilbertien E. Montrer que :

(F + G)⊥ = F ⊥ ∩ G⊥ .

F ⊥ + G⊥ ⊂ (F ∩ G)⊥ .
Que dire si on suppose de plus que E est euclidien ?

Correction.

On remarque d’abord que si A ⊂ B, alors on a B ⊥ ⊂ A⊥ , ce qui est immédiat en appliquant la


définition. Ainsi, puisque F ⊂ F + G et G ⊂ F + G, on obtient (F + G)⊥ ⊂ F ⊥ ∩ G⊥ . Prenons
maintenant x ∈ F ⊥ ∩ G⊥ . Tout z ∈ F + G s’écrit z = f + g, avec f ∈ F et g ∈ G. Alors :

(x, z) = (x, f ) + (x, g) = 0,

ce qui prouve que F ⊥ ∩ G⊥ ⊂ (F + G)⊥ . D’autre part, on a F ∩ G ⊂ F et F ∩ G ⊂ G, ce qui


donne respectivement F ⊥ ⊂ (F ∩ G)⊥ et G⊥ ⊂ (F ∩ G)⊥ . Puisque (F ∩ G)⊥ est un sous-espace
vectoriel, il est stable par addition, et donc on a F ⊥ + G⊥ ⊂ (F ∩ G)⊥ . Dans le cas où E est
un espace de dimension finie, on peut obtenir l’autre inclusion en comparant les dimensions des
sous-espaces :

dim(F ⊥ + G⊥ ) = dim F ⊥ + dim G⊥ − dim(F ⊥ ∩ G⊥ )


= dim(F ⊥ ) + dim(G⊥ ) − dim(F + G)⊥
= dim(E) − dim(F ) − dim(G) + dim(F + G)
= dim(E) − dim(F ∩ G)
= dim((F ∩ G)⊥ ).

Exercice 4.

Dans R3 muni du produit scalaire canonique, orthonormaliser en suivant le procédé de Gram-


Schmidt la base suivante :

u = (1, 0, 1), v = (1, 1, 1), w = (−1, −1, 0).

2
Correction.

Le premier vecteur est simplement u
∥u∥ . Puisque ∥u∥ = 2, on a
( )
1 1
e1 = √ , 0, √ .
2 2

Cherchons ensuite e′2 sous la forme e′2 = v + λe1 de sorte que ⟨e′2 , e1 ⟩ = 0. On a

⟨e′2 , e1 ⟩ = ⟨v, e1 ⟩ + λ⟨e1 , e1 ⟩


2
= √ +λ
2

= 2 + λ.

On doit donc avoir λ = − 2 ce qui donne

e′2 = (0, 1, 0).

Il est déjà normalisé et donc on pose e2 = (0, 1, 0). Cherchons ensuite e′3 sous la forme

e′3 = w + λe1 + µe2

de sorte que ⟨e′3 , e1 ⟩ = 0 et ⟨e′3 , e2 ⟩ = 0. Il vient :

⟨e′3 , e1 ⟩ = ⟨w, e1 ⟩ + λ⟨e1 , e1 ⟩


1
= −√ + λ
2

d’où il vient λ = √1 . Ensuite, on a


2

⟨e′3 , e2 ⟩ = ⟨w, e2 ⟩ + µ⟨e2 , e2 ⟩


= −1 + µ

d’où µ = 1. On en déduit que ( )


1 1
e′3 = − , 0, .
2 2
On normalise ce vecteur, et on trouve
( )
1 1
e3 = − √ , 0, √ .
2 2

Exercice 5.

Déterminer une base orthonormale de R2 [X] muni du produit scalaire


∫ 1
⟨P, Q⟩ = P (t)Q(t)dt.
−1

3
Correction.

va orthonormaliser la base canonique (1, X, X 2 ). Commençons par normaliser 1. Sa norme


On √
est 2. On pose donc
1
P =√ .
2
Considérons ensuite
Q1 (X) = X + λP
où λ est choisi de sorte que ⟨Q1 , P ⟩ = 0. Mais,
∫ 1
t
⟨Q1 , P ⟩ = √ dt + λ⟨P, P ⟩ = λ.
−1 2

On doit donc avoir λ = 0 (en réalité, les deux vecteurs 1 et X sont déjà orthogonaux !), et donc
Q1 = X. On normalise ce vecteur en

3
Q(X) = X.
2
On pose enfin
R1 = X 2 + λP + µQ
de sorte que ⟨R1 , P ⟩ = 0 et ⟨R1 , Q⟩ = 0. Mais, X 2 est déjà orthogonal à X, et donc par un calcul
similaire au précédent, on va trouver que µ = 0. D’autre part,
∫ 1 √
1 2
⟨R1 , P ⟩ = √ t2 dt + λ = + λ.
2 −1 3

On trouve λ = − 3
2
et donc
1
R1 (X) = X 2 − .
3
Reste à normaliser ce vecteur en

5
R(X) = (3X 2 − 1).
8
( √ √ )
Ainsi, 1
2,
3
2 X,
5
8 (3X
2
− 1) est une base orthonormale de R2 [X].

Exercice 6.

Soit E = R4 muni de son produit scalaire canonique et de la base canonique B = (e1 , e2 , e3 , e4 ).


On considère G le sous-espace vectoriel défini par les équations
{
x1 + x2 = 0
x3 + x4 = 0.

1. Déterminer une base orthonormale de G.


2. Déterminer la matrice dans B de la projection orthogonale pG sur G.
3. Soit x = (x1 , x2 , x3 , x4 ) un élément de E. Déterminer la distance de x à G.

4
Correction.

1. On commence par trouver une base de G. Mais on a



{ 
 x1 = x1

x1 + x2 = 0 x2 = −x1
⇐⇒
x3 + x4 = 0 
 x3 = x3

x4 = −x3 .

On en déduit que (e1 − e2 , e3 − e4 ) est une base de G. Ces deux vecteurs sont déjà ortho-
gonaux, il suffit de les normaliser. Si on pose u1 = √12 (e1 − e2 ), u2 = √12 (e3 − e4 ), alors
(u1 , u2 ) est une base orthonormale de G.
2. On va calculer pG (ei ) par la formule

pG (ei ) = ⟨ei , u1 ⟩u1 + ⟨ei , u2 ⟩u2 .

On en déduit que la matrice de pG dans la base canonique est


 
1 −1 0 0
1 −1 1 0 0 .
2  0 0 1 −1 
0 0 −1 1

3. On sait que d(x, G) = ∥x − pG (x)∥. Écrivons x = (x1 , x2 , x3 , x4 ). Alors


1
pG (x) = (x1 − x2 , −x1 + x2 , x3 − x4 , −x3 + x4 )
2
et donc
1
x − pG (x) = (x1 + x2 , x1 + x2 , x3 + x4 , x3 + x4 ).
2
Il vient
1( )
d(x, G)2 = (x1 + x2 )2 + (x3 + x4 )2 .
2

Exercice 7.

Dans R3 muni de sa structure euclidienne canonique, déterminer la distance de M (3, 4, 5) au


plan P d’équation 2x + y − z + 2 = 0.

Correction.

Un vecteur normal du plan est u = (2, 1, −1). Un point du plan est A = (0, 0, 2). On en déduit
que la distance recherchée est
−−→
|⟨u, AM ⟩| ⟨(2, 1, −1), (3, 4, 3)⟩ 7
d= = √ =√ .
∥u∥ 6 6

5
Exercice 8.

1. Soit E = R[X] muni du produit scalaire


∫ 1
(P |Q) = P (t)Q(t)dt.
0

On note F = Vect(1, X)(= R1 [X]) et P = X 3 . Déterminer pF (X 3 ) puis calculer


∫ 1 (3 )2
inf 2 t − at − b dt
a,b∈R 0

2. Soit E = R[X] muni du produit scalaire



∑ ∑
N ∑
M
(P |Q) = an bn , où P = an X n et Q = bn X n .
n=0 n=0 n=0

On note F = Vect(1 − X + X 3 , 1 + X + X 3 ) et P = X 3 + X 2 − 2X + 1. Déterminer pF (P )


puis calculer
d(P, F ).
3. Soit E = C([− π2 , π2 ], R) muni du produit scalaire
∫ π
2
(f |g) = f (t)g(t)dt.
−π
2

On note F = Vect(cos, sin) et f : t 7→ t + 1. Déterminer pF (f ) puis calculer


∫ π
2
2
inf 2 (t + 1 − a cos(t) − b sin(t)) dt
a,b∈R −π
2

Correction.

b. Endomorphismes et matrices symétriques

Exercice 9.

Soit u un endomorphisme symétrique d’un espace euclidien E vérifiant, pour tout x ∈ E,


⟨u(x), x⟩ = 0. Que dire de u ?

Correction.

Soit λ une valeur propre de u, et x un vecteur propre associé. Alors on a d’une part

⟨u(x), x⟩ = ⟨λx, x⟩ = λ∥x∥2

et d’autre part, par hypothèse,


⟨u(x), x⟩ = 0.

6
Toutes les valeurs propres de u sont donc nulles. Comme u est diagonalisable, on en déduit que
u = 0.

Exercice 10.

Soit A ∈ Mn (R) symétrique. On suppose que A est nilpotente. Que vaut A ?

Correction.

A est symétrique réelle nilpotente, donc A est diagonalisable et sa seule valeur propre est 0. Ainsi,
A = 0n !

Exercice 11.

Justifier que la matrice  


1 −2 −2
A =  −2 1 −2 
−2 −2 1
est diagonalisable, et trouver P ∈ O3 (R) tel que P T AP soit diagonale.

Correction.

La matrice A est symétrique réelle, elle est donc diagonalisable. Le calcul du polynôme caracté-
ristique nous dit que −3 est valeur propre simple, et que 3 est valeur propre double. Cherchons
d’abord le sous-espace propre associé à 3. La résolution de l’équation AX = 3X montre que
l’espace propre associé est le plan vectoriel x + y + z = 0. Une base de cet espace est donnée par le
vecteurs
√ (1,√−1, 0) et (1,
√0, −1).
√ L’orthonormalisation
√ de cette base donne la base orthonormalisée
(1/ 2, −1/ 2, 0), (1/ 6, 1/ 6, −2/ 6). <br> Pour l’espace propre associé à -3, il y a possi-
bilité d’aller plus vite. Comme on a affaire à une matrice symétrique, les espaces propres sont
orthogonaux. Ici, l’espace propre associé à -3 ne peut-être que l’orthogonal du plan x + y + z = 0.
Un vecteur normal à ce plan étant √ le√vecteur √ (1, 1, 1), une base orthonormée de l’espace propre
associée à -3 est le vecteur (1/ 3, 1/ 3, 1/ 3). <br> Finalement, on trouve qu’une matrice P
qui convient est :  √ √ √ 
1/√3 1/ √2 1/√6
P =  1/√3 −1/ 2 1/ √6  .
1/ 3 0 −2/ 6

Exercice 12.

Diagonaliser dans une base orthonormée la matrice suivante :


 
6 −2 2
A =  −2 5 0  .
2 0 7

7
Correction.

La matrice est symétrique réelle, elle est donc diagonalisable dans une base orthonormée. Le
calcul de son polynôme caractéristique montre que ses valeurs propres sont 3, 6 et 9. Une base de
vecteurs propres associés est (2, 2, −1), (−1, 2, 2), (2, −1, 2). Ses vecteurs sont déjà orthogonaux
(cela aurait le cas quelque soient les vecteurs propres choisis, car les espaces propres sont de
dimension 1, et ils sont orthogonaux deux à deux). Pour obtenir une base orthonormale, il suffit
de divisier chaque vecteur par sa norme. Une base orthonormale de vecteurs propres est donc :

(2/3, 2/3, −1/3), (−1/3, 2/3, 2/3), (2/3, −1/3, 2/3).

Exercice 13.

Soit u : E → E tel que, pour tous x, y ∈ E, on a ⟨u(x), y⟩ = ⟨x, u(y)⟩. Démontrer que u est
linéaire.

Correction.

Soit x, y ∈ E. Pour démontrer que u(x + y) = u(x) + u(y), il suffit de démontrer que le vecteur
u(x + y) − u(x) − u(y) est orthogonal à tous les vecteurs de E. Prenons donc z ∈ E. Alors on a

⟨u(x + y) − u(x) − u(y), z⟩ = ⟨u(x + y), z⟩ − ⟨u(x), z⟩ − ⟨u(y), z⟩


= ⟨x + y, u(z)⟩ − ⟨x, u(z)⟩ − ⟨y, u(z)⟩
= 0.

Avec une méthode tout à fait similaire, on prouve que u(λx) = λu(x) pour tout λ ∈ R, et donc
u est bien linéaire.

2. Exercices d’assimilation et d’entraînement

a. Produit scalaire et orthogonalité

Exercice 14.
(∫ ∫b 1)
b
Soit E = C([a, b], R∗ ). Déterminer inff ∈E a
f× a f
. Cette borne inférieure est-elle atteinte ?

Correction.

Utilisons le produit scalaire canonique sur F = C([a, b], R) défini par


∫ b
⟨f, g⟩ = f g.
a

D’après l’inégalité de Cauchy-Schwarz pour ce produit scalaire avec le produit f × √1 .
f
On
obtient (∫ )1/2 (∫ )1/2
∫ b√ b b
1 1
b−a= f×√ ≤ f × .
a f a a f

8
Prenant le carré, on trouve que, pour tout f ∈ E,
∫ b ∫ b
1
(b − a)2 ≤ f× .
a a f

De plus, pour f = 1, qui est élément de E, on a clairement égalité. Ainsi, la borne inférieure
recherchée vaut (b−a)2 et est atteinte par la fonction identiquement égale à 1 (plus généralement,
par les fonctions constantes).

Exercice 15.

Soit E un espace préhilbertien, et A et B deux parties de E. Démontrer les relations suivantes :


1. A ⊂ B =⇒ B ⊥ ⊂ A⊥ .
2. (A ∪ B)⊥ = A⊥ ∩ B ⊥ .
3. A⊥ = vect(A)⊥ ;
4. vect(A) ⊂ A⊥⊥ .
5. On suppose de plus que E est de dimension finie. Démontrer que vect(A) = A⊥⊥ .

Correction.

1. Soit y ∈ B ⊥ . Alors, pour tout x ∈ A, on a x ∈ B et donc ⟨x, y⟩ = 0, ce qui prouve que


y ∈ A⊥ .
2. On commence par prendre x ∈ (A ∪ B)⊥ , et prouvons que x ∈ A⊥ . En effet, si y ∈ A, on
a y ∈ A ∪ B, et donc ⟨x, y⟩ = 0. Ceci montre la première inclusion. Réciproquement, si
x ∈ A⊥ ∩ B ⊥ , prenons y ∈ (A ∪ B). Alors si y ∈ A, on a bien ⟨x, y⟩ = 0 puisque x ∈ A⊥ ,
et le cas où y ∈ B se résout de la même façon.
3. D’après la première question, puisque A ⊂ vect(A), on a

vect(A)⊥ ⊂ A⊥ .

Réciproquement, si y ∈ A⊥ , prenons x ∈ vect(A). Alors on peut trouver des éléments


a1 , . . . , an de A et des scalaires λ1 , . . . , λn tels que

x = λ1 a1 + · · · + λn an .

On a alors

⟨x, y⟩ = ⟨x, λ1 a1 + · · · + λn an ⟩
= λ1 ⟨x, a1 ⟩ + · · · + λn ⟨x, an ⟩
= λ1 0 + · · · + λn 0
= 0,

et donc y ∈ vect(A)⊥ .
4. On va commencer par prouver que A ⊂ (A⊥ )⊥ . Mais, soit x ∈ A. Choisissons y ∈ A⊥ . On
a alors ⟨x, y⟩ = 0, ce qui prouve que x ∈ A⊥⊥ . D’autre part, (A⊥ )⊥ est un sous-espace
vectoriel de E qui contient A. Il contient donc le sous-espace vectoriel engendré par A et
on a bien l’inclusion demandée.

9
5. Notons B = vect(A) et n = dim(E). Alors d’après la question précédente,

(A⊥ )⊥ = (B ⊥ )⊥ .

D’autre part,

dim(B ⊥ ) = n − dim B =⇒ dim((B ⊥ )⊥ ) = n − dim(B ⊥ ) = dim(B).

Ainsi, d’après la question précédente, on a B ⊂ (B ⊥ )⊥ et ces deux sous-espaces ont la


même dimension. Ils sont donc égaux !

Exercice 16.
∫1
On considère E = C([0, 1], R) muni du produit scalaire (f, g) = 0 f (t)g(t)dt. Soit F = {f ∈
E, f (0) = 0}. Montrer que F ⊥ = {0}. En déduire que F n’admet pas de supplémentaire
orthogonal.

Correction.

Soit g ∈ F ⊥ . Remarquons que la fonction h définie par h(x) = xg(x) est dans F . On en déduit
∫1
que (g, h) = 0, ce qui donne 0 xg 2 (x) = 0. Or, la fonction x 7→ xg 2 (x) est positive et continue
sur [0, 1]. Puisque son intégrale est nulle, c’est qu’il s’agit de la fonction identiquement nulle.
Ainsi, pour tout x > 0, on a g(x) = 0. Maintenant, g est continue, et donc on obtient que g est
identiquement nulle. Ainsi, F ⊥ = {0}. D’autre part, si F admettait un supplémentaire orthogonal,
on aurait F ⊕F ⊥ = E. Ici, F ⊕F ⊥ = F ̸= E. Donc F n’admet pas de supplémentaire orthogonal !

Exercice 17.

Soit E = R3 muni de sa structure euclidienne canonique. Soit p ∈ L(E) dont la matrice dans la
base canonique est  
5 −2 1
1
A =  −2 2 2  .
6
1 2 5
Démontrer que p est une projection orthogonale sur un plan dont on précisera l’équation. Dé-
terminer la distance de (1, 1, 1) à ce plan.

Correction.

On commence par remarquer que A2 = A. Ainsi, p est bien une projection. On va calculer ker(p)
et Im(p). Il suffira ensuite de démontrer que ces deux sous-espaces sont orthogonaux pour pouvoir

10
conclure. On remarque d’abord que (x, y, z) ∈ ker(p) si et seulement si
 
 5x − 2y + z = 0  x + 2y + 5z = 0
−2x + 2y + 2z = 0 ⇐⇒ 6y + 12z = 0
 
x + 2y + 5z = 0 −12y − 24z = 0

 x = −z
⇐⇒ y = −2z

z = z

Ainsi, ker(p) = vect(u), où u = (−1, −2, 1). On en déduit (on sait déjà que p est une projection)
que Im(p) est de dimension 2. Puisque p(e1 ) et p(e2 ) sont indépendants, en posant v = (5, −2, 1)
et w = (−2, 2, 2), on en déduit que Im(p) = vect(v, w). Pour démontrer que p est une projection
orthogonale, il reste à prouver que ker(p) ⊥ Im(p). Mais u ⊥ v et u ⊥ w, donc on a bien
vect(u) ⊥ vect(v, w). Puisque u est un vecteur normal au plan Im(p), une équation de ce plan est

−x − 2y + z = 0.

Enfin, on calcule la distance de (1, 1, 1) au plan Im(p) par la formule du cours :

|⟨u, (1, 1, 1)⟩| | − 1 − 2 + 1| 2


d= = √ =√ .
∥u∥ 6 6

Exercice 18.

Soit E = R3 [X] muni du produit scalaire suivant :

(a0 + a1 X + a2 X 2 + a3 X 3 , b0 + b1 X + b2 X 2 + b3 X 3 ) = a0 b0 + a1 b1 + a2 b2 + a3 b3 .

On pose H l’hyperplan H = {P ∈ E; P (1) = 0}.


1. Déterminer une base de H.
2. Déterminer une base orthonormale de H.
3. En déduire la projection orthogonale de X sur H, puis la distance de X à H.

Correction.

1. Puisque H est un hyperplan de R3 [X] (c’est le noyau d’une forme linéaire), sa dimension
est 3. Pour trouver une base de H, il suffit de trouver trois vecteurs indépendants. Posons
par exemple R1 (X) = X − 1, R2 (X) = X 2 − X et R3 (X) = X 3 − X 2 . (R1 , R2 , R3 ) est
une famille de 3 éléments de H, qui est libre car les degrés respectifs des Ri sont distincts.
On a donc bien une base de l’hyperplan. Il est possible aussi de déterminer une base de
l’hyperplan comme on le fait usuellement quand on connait l’équation d’un sous-espace

11
vectoriel. Notons P (X) = a0 + a1 X + a2 X 2 + a3 X 3 . On a donc

P ∈H ⇐⇒ a0 + a1 + a2 + a3 = 0
⇐⇒ a = −a1 − a2 − a3
0

 a0 = −a1 −a2 −a3

a1 = a1
⇐⇒

 a2 = a2

a3 = a3 .

Cette méthode donne comme base (X − 1, X 2 − 1, X 3 − 1).


2. Il suffit d’appliquer le procédé de Gram-Schmidt à partir de l’une des bases construites à
la question précédente. On a donc :

1
P1 = R1 /∥R1 ∥ = (X − 1).
2
Posons P2′ = R2 + λP1 , avec λ de sorte que (P2′ , P1 ) = 0, ce qui entraîne λ = −(P1 , R2 ).
Après normalisation, on trouve

2 2
P2 = (X − (X + 1)/2).
3
On procède de même pour P3 , et on trouve

3( 3 )
P3 = X − (X 2 + X + 1)/3 .
4

3. On a
∑3
−1 ( 3 )
PH (x) = (X, Pj )Pj = X + X 2 − 3X + 1 .
j=1
4

Il vient :
d2 (x, H) = ∥x∥2 − ∥PH (x)∥2 = 1 − 3/4 = 1/4.

Exercice 19.

Soient E = Rn [X] et a0 , . . . , an des réels distincts. On pose, pour (P, Q) ∈ E 2 ,


n
⟨P, Q⟩ = P (ak )Q(ak ).
k=0

1. Vérifier qu’on définit un produit scalaire sur E.


2. Déterminer une base orthonormale de E.
∑n
3. Déterminer la distance de Q ∈ E au sous-espace H = {P ∈ E; k=0 P (ak ) = 0} .

12
Correction.

1. Il est clair qu’on définit ainsi une forme bilinéaire symétrique et que ⟨P, P ⟩ ≥ 0. De plus, si
⟨P, P ⟩ = 0, alors


n
P 2 (ak ) = 0 =⇒ P (ak ) = 0 pour k = 1, . . . , n.
k=0

Or, un polynôme de degré au plus n ayant au moins n + 1 racines est le polynôme nul. Donc
P = 0 et la forme bilinéaire est définie positive : c’est un produit scalaire.
2. Contrairement à ce que l’on fait souvent, ici, utiliser le procédé de Gram-Schmidt pour
trouver une base orthonormale n’est pas la bonne idée. Il faut plutôt raisonner en terme de
racines et voir que si P s’annule en beaucoup de ak , alors P (ak )Q(ak ) sera souvent nul. On
va donc définir, pour k = 0, . . . , n

Pk = (X − aj ).
j̸=k

Il est clair que, pour k ̸= l, on a

⟨Pk , Pl ⟩ = Pk (ak )Pl (ak ) = 0.

La famille est donc orthogonale. On l’orthonormalise en remarquant que



∥Pk ∥2 = (ak − aj )2
j̸=k

et on pose donc
Pk
Qk = ∏ .
j̸=k k − aj )
(a
(Q0 , . . . , Qn ) est une famille orthonormale de n + 1 éléments dans un espace de dimension
n + 1. C’est une base de Rn [X].
3. On va trouver un vecteur normal à l’hyperplan H. C’est très facile en regardant la définition
de H, car si on pose R = 1, on a

n
⟨P, R⟩ = P (ak ).
k=0

R est donc un vecteur normal à H. Par une formule du cours (très facile à retrouver par
un dessin), on en déduit que la distance de Q à H est
∑n
⟨Q, R⟩ Q(ak )
= k=0√ .
∥R∥ n+1

Exercice 20.

Soit E un espace vectoriel euclidien, et p un projecteur de E. Montrer que p est un projecteur


orthogonal si et seulement si pour tout x de E, on a ∥p(x)∥ ≤ ∥x∥.

13
Correction.

Supposons d’abord que p est un projecteur orthogonal. Pour tout x de E, x = p(x) + (x − p(x)),
où p(x) ⊥ x − p(x). Le théorème de Pythagore donne alors ∥x∥2 = ∥p(x)∥2 + ∥x − p(x)∥2 , ce
qui entraîne ∥p(x)∥ ≤ ∥x∥ pour tout x de E. Réciproquement, supposons que pour tout x de E,
∥p(x)∥ ≤ ∥x∥, et supposons que p est le projecteur sur F parallèlement à G. Prenons x dans F ,
et y dans G, et posons f (t) = ∥x + ty∥2 . Le développement de la norme donne :

f (t) = ∥x∥2 + 2t(x, y) + t2 ∥y∥2 .

f est donc une fonction dérivable. En outre, p(x+ty) = x, et donc f (0) = ∥x∥2 ≤ ∥x+ty∥2 ≤ f (t).
f atteint donc son minimum en 0. On a donc f ′ (0) = 0, ce qui donne (x, y) = 0 : F et G sont
orthogonaux, ce qui signifie que p est un projecteur orthogonal !

Exercice 21. gÉgalitédedeParseval


Égalité Parseval

Soit E un espace préhilbertien et (en ) une famille orthonormée totale de E. Démontrer que,
pour tout x ∈ E, on a ∑
(x|en )2 = ∥x∥2 .
n≥1

Correction.

Pour N ≥ 1, notons pN la projection orthogonale sur l’espace vectoriel vect(e1 , . . . , eN ). Alors


puisque la famille (en )n≥1 est totale, on sait que ∥x − pN (x)∥ → 0 lorsque N → +∞. Mais par
le théorème de Pythagore,


N
∥x∥2 = ∥x − pN (x)∥2 + ∥pN (x)∥2 = ∥x − pN (x)∥2 + (x|en )2 .
n=1

Faisant tendre N vers +∞, on trouve bien le résultat demandé.

Exercice 22. gPolynômededeLaguerre


Polynôme Laguerre

On pose, pour tout entier naturel n et pour tout réel x,


ex (n)
hn (x) = xn e−x et Ln (x) = h (x).
n! n
1. Calculer explicitement L0 , L1 , L2 .
2. Montrer que, pour tout entier n, Ln est une fonction polynomiale. Préciser son degré et
son coefficient dominant.
3. Pour tous P, Q ∈ R[X], on pose
∫ +∞
φ(P, Q) = P (x)Q(x)e−x dx.
0

Démontrer que φ est bien définie.


4. Démontrer que φ est un produit scalaire sur R[X].
5. Calculer, pour tout n ∈ N, φ(L0 , X n ).

14
6. (a) Montrer que, pour tout k ∈ {0, . . . , n}, il existe Qk ∈ R[X] tel que, pour tout x ∈ R,
on a
n−k −x
h(k)
n (x) = x e Qk (x).
(b) Établir que :
∫ +∞
(−1)p
∀n ∈ N, ∀P ∈ R[X], ∀p ∈ {0, . . . , n}, φ(Ln , P ) = h(n−p)
n (x)P (p) (x)dx.
n! 0

7. En déduire que (Ln )n∈N est une famille orthonormée de (R[X], φ).

Correction.
2
1. L0 (x) = 1, L1 (x) = 1 − x, L2 (x) = x2 − x + 1.
2. On applique la formule de Leibniz pour calculer la dérivée n-ième du produit xn e−x . On
en déduit que hn (x) s’écrit sous la forme P (x)e−x où P est un polynôme de degré n, de
(n)

coefficient dominant (−1)n , et on a presque gagné...


3. Pour prouver que φ est bien définie, on commence par remarquer que la fonction x 7→
P (x)Q(x)e−x est continue sur ]0, +∞[. D’autre part, par comparaison des fonctions expo-
nentielle et polynômes, on sait que limx→+∞ x2 P (x)Q(x)e−x = 0. Or, la fonction x 7→ x12
est intégrable au voisinage de +∞. Par comparaison, x 7→ P (x)Q(x)e−x est intégrable sur
]0, +∞[ et donc φ(P, Q) est bien défini, pour tout couple de polynômes P, Q.
4. Démontrer que φ est une forme bilinéaire symétrique ne pose aucun problème. La vraie
difficulté de cette question est de démontrer que si φ(P, P ) = 0, alors P = 0. On va pour
cela utiliser le théorème suivant : soit f une fonction continue sur [0, +∞[, intégrable et
∫ +∞
positive. On suppose que 0 f (t)dt = 0. Alors f est identiquement nulle sur [0, +∞[. Dans
notre contexte, soit P ∈ R[X] tel que φ(P, P ) = 0. On applique le théorème précédent à
f (t) = P 2 (t)e−t . Puisque la fonction exponentielle ne s’annule jamais, on en déduit que
P (t) = 0 pour tout t ∈ [0, +∞[. Un polynôme ayant une infinité de racines est le polynôme
nul...
5. On a vu que L0 = 1. Il s’agit de prouver par récurrence sur n ∈ N que ϕ(L0 , X n ) = n!.
C’est vrai si n = 0. Si la propriété est vraie au rang n ∈ N, alors
∫ +∞
[ ]+∞
φ(L0 , X n+1 ) = xn+1 e−x dx = −xn+1 e−x 0 + (n + 1)φ(L0 , X n ),
0
l’intégration par parties étant justifiée par la convergence des deux intégrales, et par l’exis-
tence de la limite en +∞ de xn+1 e−x (c’est zéro). De
[ n+1 −x ]+∞
−x e 0
= 0,
on tire
φ(L0 , X n+1 ) = (n + 1)φ(L0 , X n ) = (n + 1)!
La propriété est vraie au rang n + 1. Par application de l’axiome de récurrence, elle est
vraie pour tout entier n ∈ N.
6. (a) Il s’agit (encore une fois !) de la formule de Leibniz à appliquer correctement ! En effet,
pour tout x ∈ R,
∑k ( )
k
(k)
hn (x) = (e−x )(j) (xn )(k−j) .
j=0
j

15
Or,
(e−x )(j) = (−1)j e−x ,
et
(xn )(k−j) = n(n − 1) . . . (n − k + j + 1)xn−k+j = xn−k Rn,j,k (x)
où Rn,j,k est un polynôme (et même un monôme...). En sommant tout cela, on trouve
k ( )

−x n−k k
h(k)
n (x) = e x (−1)j Rn,j,k (x)
j=0
j

ce qui est le résultat voulu en posant

∑k ( )
k
Qk (x) = (−1)j Rn,j,k (x).
j=0
j

(b) On fixe un polynôme P ∈ R[X], on fixe un entier n ∈ N, et on prouve par récurrence


finie sur p ∈ {0, . . . , n} la propriété suivante :

(−1)p +∞ (n−p)
Hp : φ(Ln , P ) = hn (x)P (p) (x)dx.
n! 0

H0 est vraie : il suffit de remplacer Ln par sa définition. Soit p ≤ n − 1 tel que Hp est
vraie, et prouvons Hp+1 . Il s’agit juste de faire une intégration par parties ; le fait que
tout se passe bien avec la borne +∞ est une conséquence du résultat de la question
précédente. Précisément, soit a > 0. Alors, par intégration par parties :
∫ a ∫ a
h(n−p)
n (x)P (p)
(x)dx = P (p)
(a)h(n−(p+1))
(a)−P (p)
(0)h(n−(p+1))
(0)− h(n−(p+1))
n (x)P (p+1) (x)dx.
0 0

Or, d’après le résultat de la question précédente, puisque n−(p+1) < n, h(n−(p+1) (0) =
0. D’autre part, toujours d’après la question précédente,

P (p) (x)h(n−(p+1)) (x) = e−x R(x),

où R est un polynôme. Ainsi,

lim P (p) (a)h(n−(p+1)) (a) = 0.


a→+∞

(n−(p+1))
Le même argument démontre que la fonction x 7→ hn (x)P (p+1) (x) est inté-
grable sur [0, +∞]. On peut donc faire tendre a vers +∞, et on trouve que
∫ +∞ ∫ +∞
h(n−p)
n (x)P (p)
(x)dx = − h(n−(p+1))
n (x)P (p+1) (x)dx,
0 0

ce qui, à son tour, entraîne que Hp+1 est vraie.


7. On va d’abord prouver que c’est une famille orthogonale. Le résultat de la question pré-
cédente, appliqué avec p = n, prouve que Ln est orthogonal à tout polynôme de degré
inférieur strict à n. En particulier, puisque Lm est de degré m, Ln ⊥ Lm si m < n. On a
bien une famille orthogonale. De plus, on a, toujours d’après la même formule,

(−1)n +∞
φ(Ln , Ln ) = hn (x)L(n)
n (x)dx.
n! 0

16
(n)
On a déjà vu que Ln est de degré n et de coefficient dominant (−1)n /n!. Il vient Ln (x) =
(−1)n , et donc

1 +∞ 1
φ(Ln , Ln ) = hn (x)dx = φ(L0 , X n ) = 1.
n! 0 n!
La famille (Ln ) est bien une famille orthonormée.

b. Endomorphismes et matrices symétriques

Exercice 23.

Soit  
1 1 1
2 4 4
M = 1
4
1
3
5
12
.
1 5 1
4 12 3

1. Prouver que la suite de matrices (M n ) converge.


2. Soit N = limn M n . Caractériser géométriquement l’endomorphisme associé à N .
 
u0
3. Soit (Xn ) la suite de vecteurs de R3 définie par X0 =  v0  et Xn+1 = M Xn . Prouver
w0
que la suite (Xn ) converge et déterminer sa limite en fonction de u0 , v0 et w0 .

Correction.

1. La matrice M étant symétrique réelle, elle est diagonalisable dans une base orthonormée.
Ses valeurs propres sont 1, 14 et −1
12 . On cherche ensuite une base de vecteurs propres et on
trouve que la matrice  
1 2 0
P =  1 −1 1 
1 −1 1
est telle que  
1 0 0
M =P 0 1
4 0  P −1 .
−1
0 0 12

Puisque M n = P Dn P −1 , où D est la matrice diagonale précédente, on constate sans peine


que (M n ) tend vers
   
1 0 0 1 1 1
1
N =P 0 0 0  P −1 =  1 1 1 .
3
0 0 0 1 1 1

2. Notons (u, v, w) les 3 vecteurs colonnes de P (ie une base de vecteurs propres de N ). Alors
si f est l’endomorphisme associé à N , on a f (u) = u, f (v) = 0 et f (w) = 0. f est donc la
projection sur vect(u) parallèlement à vect(v, w). Mais puisque la famille (u, v, w) est une
famille orthogonale (on a diagonalisé une matrice symétrique), f est en réalité la projection
orthogonale sur vect(u) = ker(M − In ).

17
3. Par une récurrence simple, on a pour tout n ∈ N, Xn = M n X0 . Passans à la limite, on
trouve que (Xn ) converge vers le vecteur
 
u0 + v0 + w0
1
Y = N X0 =  u0 + v0 + w0  .
3
u0 + v0 + w0

Exercice 24.

Soit A ∈ Mn (R) une matrice symétrique. Est-ce que la matrice A + iIn est inversible ?

Correction.

Il suffit de prouver que 0 n’est pas une valeur propre de A + iIn . Mais A étant une matrice
symétrique réelle, elle est diagonalisable sur R et admet donc uniquement des valeurs propres
réelles, λ1 , . . . , λn (éventuellement répétées plusieurs fois si la valeur propre est multiple). Donc
les valeurs propres de A + iIn sont λ1 + i, . . . , λn + i. Ainsi, 0 n’est pas valeur propre de A + iIn
et cette matrice est inversible.

Exercice 25.

Soit E un espace vectoriel euclien, et soient u, v deux endomorphismes symétriques de E.


1. Démontrer que ker(u) ⊕⊥ Im(u) = E.
2. Démontrer que u ◦ v est symétrique si et seulement si u ◦ v = v ◦ u.

Correction.

1. On va d’abord démontrer que ces deux sous-espaces sont orthogonaux, donc en somme
directe orthogonale. Soit x ∈ ker(u) et soit y ∈ Im(u). Alors il existe y ∈ E tel que
y = u(z). On en déduit alors, en utilisant la symétrie de u,

⟨x, y⟩ = ⟨x, u(z)⟩ = ⟨u(x), z⟩ = 0.

En utilisant le théorème du rang, on conclut alors que ces deux sous-espaces sont supplé-
mentaires.
2. Soient x, y ∈ E. En utilisant successivement le fait que u et v sont symétriques, on en déduit
que

⟨u ◦ v(x), y⟩ = ⟨v(x), u(y)⟩


= ⟨x, v ◦ u(y)⟩.

On en déduit que si u ◦ v = v ◦ u, alors u ◦ v est symétrique. Réciproquement, si u ◦ v est


symétrique, alors le calcul précédent montre que, pour tous x, y ∈ E, on a

⟨x, v ◦ u(y)⟩ = ⟨x, u ◦ v(y)⟩ =⇒ ⟨x, u ◦ v(y) − v ◦ u(y)⟩ = 0.

Ainsi, le vecteur u ◦ v(y) − v ◦ u(y) est orthogonal à tous les vecteurs de l’espace : il est donc
nul, et comme ceci est vrai pour tout y ∈ E, on a u ◦ v = v ◦ u.

18
Exercice 26.

Soit E un espace vectoriel euclidien. Pour f ∈ L(E), on note ρ(f ) =


max{|λ|; λ valeur propre de f }. On pose également ∥f ∥ = sup{∥f (x)∥; ∥x∥ ≤ 1}. Dé-
montrer que si f est symétrique, alors ∥f ∥ = ρ(f ).

Correction.

Soit (e1 , . . . , en ) une base orthonormale de E constituée


∑n de vecteurs propres∑n pour f . Notons
(λ1 , . . . , λn ) les valeurs propres associées. Pour x = i=1 xi ei , on a f (x) = i=1 λi xi ei , et donc


n
∥f (x)∥2 = |λi |2 x2i ≤ ρ(f )2 ∥x∥2 ,
i=1

ce qui prouve que ∥f ∥ ≤ ρ(f ). D’autre part, il existe k tel que ρ(f ) = |λk |. On a alors ∥f (ek )∥ =
|λk | = ρ(f ), et comme ∥ek ∥ = 1, on a ρ(f ) ≤ ∥f ∥.

Exercice 27.

Déterminer les endomorphismes symétriques et orthogonaux d’un espace vectoriel euclidien.

Correction.

Soit u un tel endomorphisme, et soit λ une valeur propre de u. Si x est un vecteur propre associé,
on a ∥u(x)∥ = ∥x∥ et ∥u(x)∥ = |λ|∥x∥. On en déduit que λ = ±1. On a donc ker(u−Id)⊕⊥ ker(u+
Id) = E et donc u est une symétrie orthogonale. Réciproquement, toute symétrie orthogonale
est un endomorphisme symétrique et orthogonal.

Exercice 28.

Soit u : E → E tel que, pour tous x, y ∈ E, on a ⟨u(x), y⟩ = ⟨x, u(y)⟩. Démontrer que u est
linéaire.

Correction.

Soient x, y ∈ E. Pour démontrer que u(x + y) = u(x) + u(y), il suffit de démontrer que le vecteur
u(x + y) − u(x) − u(y) est orthogonal à tous les vecteurs de l’espace. Prenons donc z ∈ E. Alors
on a

⟨u(x + y) − u(x) − u(y), z⟩ = ⟨u(x + y), z⟩ − ⟨u(x), z⟩ − ⟨u(y), z⟩


= ⟨x + y, u(z)⟩ − ⟨x, u(z)⟩ − ⟨y, u(z)⟩
= 0.

Avec une méthode tout à fait similaire, on prouve que u(λx) = λu(x) pour tout λ ∈ R, et donc
u est bien linéaire.

19
Exercice 29.

Soit E un espace vectoriel euclidien, soit u un endomorphisme symétrique de E et soient (ei ),


(fj ) deux bases orthonormales de E.
1. Démontrer que

n ∑
n
∥u(ei )∥2 = ∥u(fi )∥2 .
i=1 i=1

2. Soit A = (ai,j )i,j ∈ Sn (R) une matrice symétrique réelle, et soient λ1 , . . . , λn ses valeurs
propres. Démontrer que
∑n ∑
n
a2i,j = λ2i .
i,j=1 i=1

Correction.

1. Pour tout i = 1, . . . , n, on a

n
∥u(ei )∥ = 2
⟨u(ei ), fj ⟩2 .
j=1

On en déduit alors, en utilisant la symétrie de u,


n ∑
n ∑
n
∥u(ei )∥2 = ⟨u(ei ), fj ⟩
i=1 i=1 j=1
∑n ∑ n
= ⟨ei , u(fj )⟩
j=1 i=1
∑n
= ∥u(fj )∥2 .
j=1

2. Soit u l’endomorphisme canoniquement associé à A sur Rn . Alors, si (e1 , . . . , en ) est la base


canonique de Rn , on a pour tout j = 1, . . . , n

n
∥u(ej )∥2 = a2i,j
i=1

et donc

n ∑
n
a2i,j = ∥u(ei )∥2 .
i,j=1 i=1

Si maintenant (f1 , . . . , fn ) est une base orthonormée de vecteurs propres de u, avec u(fi ) =
λi fi , on a
∑n ∑
n
∥u(fi )∥2 = λ2i .
i=1 i=1

Le résultat est alors une conséquence immédiate de la question précédente.

20
3. Exercices d’approfondissement

a. Produit scalaire et orthogonalité

Exercice 30.

Soient (E, ⟨.⟩) un espace préhilbertien réel, ∥.∥ la norme associée au produit scalaire, u1 , . . . , un
des éléments de E et C > 0. On suppose que :
n

n
∀(ε1 , . . . , εn ) ∈ {−1, 1} , εi ui ≤ C.

i=1
∑n
Montrer que i=1 ∥ui ∥2 ≤ C 2 .

Correction.

Soit ε1 , . . . , εn ∈ {−1, 1}n . Alors on a


n 2
∑ ∑
n ∑

C ≥
2
εi ui = ∥ui ∥2 + 2 εi εj ⟨ui , uj ⟩.

i=1 i=1 i<j

Il suffit donc de prouver que l’on peut choisir les signes εi de sorte que

εi εj ⟨ui , uj ⟩ ≥ 0.
i<j

On réécrit cette somme sous la forme suivante :



n−1 ∑
n
⟨εi ui , εj uj ⟩.
i=1 j=i+1

Fixons εn = 1. Alors on peut choisir εn−1 ∈ {−1, 1} de sorte que ⟨εn−1 un−1 , εn un ⟩ ≥ 0. Cette
valeur de εn−1 étant fixée, on peut choisir εn−2 ∈ {−1, 1} de sorte que

⟨εn−2 un−2 , εn−1 un−1 + εn un ⟩ ≥ 0.

De proche en proche, on peut trouver des valeurs de εi de sorte que, pour tout i, on a

n
⟨εi ui , εj uj ⟩ ≥ 0.
j=i+1

De la sorte, on a

n ∑
n
⟨εi ui , εj uj ⟩ ≥ 0
i=1 j=i+1
∑n
ce qui implique i=1 ∥ui ∥ ≤ C .
2 2

21
Exercice 31.

Soit E = C([0, 1]) l’ensemble des fonctions continues de [0, 1] dans R, et soit a = (an ) une suite
de [0, 1]. On pose, pour f, g ∈ E,


+∞
1
ϕ(f, g) = n
f (an )g(an ).
n=0
2

Donner une condition nécessaire et suffisante sur a pour que ϕ définisse un produit scalaire sur
E.

Correction.

Remarquons d’abord que ϕ est bien définie. En effet, les fonctions f et g étant continues sur le
segment [0, 1], elles y sont bornées par une constante M > 0, et donc on a

1 2
f (an )g(an ) ≤ M ,
2n 2n

et la série qui définit ϕ(f, g) converge absolument. De plus, il est très facile de vérifier que ϕ est
une forme bilinéaire, symétrique et positive. On doit donc trouver une condition nécessaire et
suffisante sur a pour que ce soit une forme définie. D’abord, si a est dense dans [0, 1], alors ϕ est
définie. En effet, si

+∞ 2
f (an )
ϕ(f, f ) = = 0,
n=0
2n
alors on a
∀n ≥ 0, f 2 (an ) = 0 =⇒ f (an ) = 0.
Si a est dense dans [0, 1], ceci entraine que f = 0 et donc que ϕ est définie. Réciproquement, on
suppose que a n’est pas dense dans [0, 1], et on prouve que ϕ n’est pas définie. Mais si a n’est pas
dense dans R, on peut trouver un intervalle I ⊂ [0, 1], non réduit à un point, et qui ne comprend
aucun terme de la suite (an ). Soit alors f ∈ E une fonction (continue) nulle sur [0, 1]\I et valant
1 au milieu de I (pensez à une fonction f dont la courbe représentative est une dent). Alors,
f (an ) = 0 pour tout entier n puisque an n’est jamais élément de I, et donc ϕ(f, f ) = 0, alors que
f ̸= 0.

Exercice 32.

Soit n et p deux entiers naturels avec p ≤ n. On munit Rn du produit scalaire canonique et on


identifie Rn avec Mn,1 (R). On considère une matrice A ∈ Mn,p (R) de rang p et B ∈ Mn,1 (R).
1. Démontrer qu’il existe une unique matrice X0 de Mp,1 (R) telle que

∥AX0 − B∥ = inf{∥AX − B∥; X ∈ Mp,1 (R)}.

2. Montrer que X0 est l’unique solution de

AT AX = AT B.

3. Application : déterminer

inf{(x + y − 1)2 + (x − y)2 + (2x + y + 2)2 ; (x, y) ∈ R2 }.

22
Correction.

1. Puisque A est de rang p, l’application X 7→ AX qui va de Mp,1 (R) dans Im(A) est injective.
Or, inf{∥AX − B∥; X ∈ Mp,1 (R)} est la distance de B à Im(A). Cette distance est atteinte
uniquement au projeté orthogonal sur Im(A) (qui est de dimension finie) de B. Ce projeté
orthogonal s’écrit de façon unique AX0 .
2. On a

AX0 = pIm(A) (B) ⇐⇒ ∀Z ∈ Im(A), AX0 − B ⊥ Z


⇐⇒ ∀X ∈ Mp,1 (R), AX0 − B ⊥ AX
⇐⇒ ∀X ∈ Mp,1 (R), (AX)T (AX0 − B) = 0
⇐⇒ ∀X ∈ Mp,1 (R), X T (AT AX0 − AT B) = 0
⇐⇒ AT AX0 = AT B.

X0 est donc bien l’unique solution de AT AX = AT B.


   
1 1 1
3. Posons A =  1 −1 , B =  0 . On vérifie facilement que le rang de A est 2. La
2 1 −2 ( )
x0
borne inférieure est donc atteinte en X0 = solution de AT AX0 = AT B.. Or
y0
( ) ( )
6 2 −3
AT AX0 = , AT B = .
2 3 −1

On vérifie que x0 = −1/2 et y0 = 0, et donc l’inf recherché vaut 7/2.

Exercice 33.

Soit w : [a, b] → R une fonction continue strictement positive. Pour E = R[X], on pose
∫ b
⟨P, Q⟩ = P (t)Q(t)w(t)dt
a

dont on admettra qu’il s’agit d’un produit scalaire sur E.


1. Démontrer qu’il existe une unique suite de polynômes (Pn )n≥0 formée de polynômes deux
à deux orthogonaux avec chaque Pn de degré n et de coefficient dominant 1.
2. Démontrer que, pour tout n ≥ 1, Pn+1 − XPn est orthogonal à Rn−2 [X].
3. En déduire pour tout n ≥ 1, l’existence de an et bn tels que

Pn+1 = (X + an )Pn + bn Pn−1 .

Correction.

1. Pour démontrer cette propriété, on peut suivre (au moins) deux voies. La première consiste
à partir de l’orthonormalisation de Gram-Schmidt de la famille (X n ) et de voir comment en
déduire la famille demandée. La seconde consiste à imiter le procédé de Gram-Schmidt pour
l’adapter à ces nouvelles contraintes. On va suivre cette deuxième méthode en démontrant
par récurrence sur n la propriété P(n) suivante : il existe une unique suite (Pk )0≤k≤n de

23
polynômes deux à deux orthogonaux tels que chaque Pk est de degré k et est unitaire,
pour 0 ≤ k ≤ n. Pour n = 0, il est clair que le seul polynôme qui convient est P0 = 1.
Supposons la propriété vraie au rang n et démontrons la au rang n + 1. Les polynômes
P0 , . . . , Pn ont déjà été construits de façon unique. Pn+1 , s’il existe, ne peut s’écrire que
Pn+1 = X n+1 + Q(X) avec Q ∈ Rn [X]. La famille (P0 , . . . , Pn ) étant une base de Rn [X]
(famille de polynômes à degrés étagés), Q s’écrit Q = a0 P0 + · · · + an Pn . Maintenant, pour
k = 0, . . . , n, Pn+1 va être orthogonal à Pk si et seulement si

⟨X n+1 , Pk ⟩
⟨X n+1 , Pk ⟩ + ak ⟨Pk , Pk ⟩ = 0 =⇒ ak = − .
⟨Pk , Pk ⟩

Ceci détermine donc de façon unique le polynôme Pn+1 ce qui achève la récurrence.
2. Prenons Q ∈ Rn−2 [X]. Alors il est clair que Pn+1 est orthogonal à Q puisque Q est combi-
naison linéaire de P0 , . . . , Pn−2 . D’autre part, on a également la formule ”miracle” suivante :

⟨XPn , Q⟩ = ⟨Pn , XQ⟩

qui vient de la définition du produit scalaire. Puisque XQ est de degré au plus n − 1 et


que Pn est orthogonal à Rn−1 [X], on en déduit que l’on a également XPn ⊥ Q, et donc
finalement Pn+1 − XPn ⊥ Q.
3. Par simplification des termes de plus haut degré, Pn+1 − XPn est un élément de Rn [X].
Il s’écrit donc c0 P0 + · · · + cn Pn . Mais il est orthogonal à Rn−2 [X], donc orthogonal à
P0 , . . . , Pn−2 . On en déduit que c0 = c1 = · · · = cn−2 = 0, et donc que

Pn+1 − XPn = cn−1 Pn−1 + cn Pn

ce qui est bien le résultat attendu.

b. Endomorphismes et matrices symétriques

Exercice 34.

Soit E un espace euclidien de dimension n et soit u un endomorphisme symétrique de E. On


suppose que Tr(u) = 0.
1. Démontrer qu’il existe x ∈ E, x non-nul, tel que ⟨u(x), x⟩ = 0.
2. En déduire qu’il existe une base orthonormée de E dans laquelle la matrice de u a tous
ses coefficients diagonaux nuls.

Correction.

1. Soit (e1 , . . . , en ) une base orthonormée de E dans laquelle la matrice de u est diagonale.
Alors on a

n
Tr(u) = ⟨u(ei ), ei ⟩.
i=1

Mais si on pose x = e1 + · · · + en , on a aussi ⟨u(ei ), ei ⟩ = ⟨u(ei ), x⟩ puisque u(ei ) est

24
proportionnel à ei . On en déduit donc que

n
⟨u(ei ), x⟩ = 0 =⇒ ⟨u(x), x⟩ = 0.
i=1

2. On va raisonner par récurrence sur n, le résultat étant clairement vrai si n = 1. Supposons


maintenant le résultat vrai au rang n − 1 et prouvons-le au rang n. Soit x le vecteur
donné par la question précédente. On peut supposer que ∥x∥ = 1. Posons F = vect(x) et
G = vect(x)⊥ . Considérons aussi (y1 , . . . , yn−1 ) une base orthonormée de G. Dans la base
orthonormée (x, y1 , . . . , yn−1 ), la matrice de u s’écrit
( )
0 ∗
∗ B

où B est symétrique. Soit v l’endomorphisme symétrique de G dont la matrice dans la base


orthonormée (y1 , . . . , yn1 ) est B. Alors par hypothèse de récurrence, il existe une base ortho-
normée (x1 , . . . , xn−1 ) de G telle que la matrice de v dans cette base a tous ses coefficients
nuls. Il en est de même de la matrice de u dans la base orthonormée (x, y1 , . . . , yn ).

Exercice 35.

Soit A une matrice symétrique réelle d’ordre n et λ1 ≤ λ2 ≤ · · · ≤ λn ses valeurs propres


rangées par ordre décroissant. Soit également (e1 , . . . , en ) une base orthonormale de vecteurs
propres associés, ie f (ek ) = λk ek . On désigne par Vk le sous-espace vect(e1 , . . . , ek ), par Wk le
sous-espace vectoriel vect(ek , . . . , en ) et par Fk l’ensemble des sous-espaces vectoriels de Rn de
dimension k ∈ {1, . . . , n}. On pose, pour tout x ∈ Rn non-nul,

⟨Ax, x⟩
RA (x) = .
∥x∥2

1. Montrer que λ1 = minx̸=0 RA (x) et que λn = maxx̸=0 RA (x).


2. Montrer que maxx∈Vk \{0} RA (x) = λk .
3. Soit V un sous-espace vectoriel de Rn de dimension k. Vérifier que V ∩ Wk ̸= {0}. En
déduire que maxx∈V \{0} RA (x) ≥ λk .
4. Déduire des questions précédentes le théorème de Courant-Fischer :

λk = min max RA (x).


V ∈Fk x∈V \{0}

Correction.

1. Soit x ∈ Rn non nul qu’on décompose dans la base orthonormale (ei )1≤i≤n , x = x1 e1 +
· · · + xn en . On a donc
Ax = λ1 x1 e1 + · · · + λn xn en .
Il vient
⟨Ax, x⟩ = λ1 x21 + · · · + λn x2n
soit, en utilisant λ1 ≤ λi ≤ λn ,
λ1 ∥x∥2 ≤ ⟨Ax, x⟩ ≤ λn ∥x∥2 .

25
On en déduit que RA (x) ∈ [λ1 , λn ]. De plus, RA (e1 ) = λ1 et RA (en ) = λn . Ceci prouve le
résultat demandé.
2. Pour x = ek ∈ Vk , on a RA (x) = λk , d’où le résultat voulu.
3. Si V ∩Wk était réduit à {0}, on aurait dim(V +Wk ) = dim(V )+dim(Wk ) = k+(n−k+1) =
n + 1 > n, une contradiction. Maintenant, pour tout x ∈ Wk , x ̸= 0, on a RA (x) ≥ λk .
Ceci se prouve exactement comme à la question 1., en écrivant x = xk ek + · · · + xn en , et
en remarquant que λi ≥ λk pour i ∈ {k, . . . , n}.
4. La question 2 nous dit que

min max RA (x) ≤ max RA (x) ≤ λk .


V ∈Fk x∈V \{0} x∈Vk \{0}

D’autre part, la question 3 nous dit que, pour tout V ∈ Fk , on a

max RA (x) ≥ λk .
x∈V \{0}

D’où le théorème de Courant-Fischer.

26

Vous aimerez peut-être aussi