Vous êtes sur la page 1sur 12

http ://collesdemaths.free.

fr 20 août 2010

Algèbre Bilinéaire

Exercice 1. CCP MP 2007


Soit E un espace euclidien. On notera (.|.) le produit scalaire. Soit u ∈ L (E).
a. Montrer que si
∀ (x, y) ∈ E 2 , (u (x) |u (y)) = (x|y)
alors u est bijective. (On rappelle qu’un tel endomorphisme est dit orthogonal.)
b. Montrer que les endomorphismes orthogonaux de E forment un groupe.
Exercice 2. CCP MP 2007
On définit, sur R[X] :
Z 1
< f, g >= f (t)g(t)dt.
−1
a. Montrer rapidement que c’est un produit scalaire
b. Montrer que l’on peut trouver un polynôme de degré 3 orthogonal à R2 [X].
c. Trouver les valeurs propres de l’endomorphisme de Φ ∈ L(R[X]) :
Φ : P 7→ (X 2 − 1)P 00 + 2XP 0
et montrer qu’on peut construire une base orthonormale de vecteurs propres dans R[X].
d. Montrer que Φ + Id est une bijection de R[X].
Exercice 3. CCP MP 2007
Soit E un espace euclidien, dim(E) = 3, et u ∈ L(E), antisyétrique. Montrer qu’il existe une base de
E où sa matrice peut s’écrire  
0 1 0
k  −1 0 0 , k ∈ R.
0 0 0
Exercice 4. CCP MP 2007
Soit f ∈ C 0 ([0, 1], R+ ), f non-identiquement nulle sur [0, 1], et ϕ définie sur R[X] par
Z 1
ϕ(P, Q) = f (x)P (x)Q(x)dx.
0

a. Montrer que ϕ est un produit scalaire.


b. Montrer qu’il existe une suite (Pn )n∈N telle que deg(Pn ) = n et que ∀j, k ∈ N, j 6= k, ϕ(Pj , Pk ) = 0.
c. Montrer que ∀n > 1, Pn est scindé à racines simples dans [0, 1].
Exercice 5. CCP MP 2007
On considère la forme quadratique
q(x, y, z) = 2x2 + y 2 − z 2 + 2xy − 2xz + 4yz.
a. L’écrire matriciellement.
b. Quel est son spectre ?
c. Réduire q en carré.
Exercice 6. CCP MP 2007
On considère la forme quadratique
q(x, y, z) = 2x2 + 2y 2 + z 2 − 2yz + 2xz.
a. L’écrire matriciellement.
b. Quel est son spectre ?
c. Réduire q en carré.

alg. bilin., page 1


http ://collesdemaths.free.fr

Exercice 7. CCP MP 2006 Soit E un espace vectoriel Euclidien, (ei )ni=1 des vecteurs unitaires tels
que
n
X
∀ x ∈ E, ||x||2E = hx, ei i2 .
i=1

Montrer que la famille (ei )16i6n est une base orthonormale de E.


Exercice 8. CCP MP 2006
Soit E un espace euclidien, on note (.|.) son produit scalaire. Soit p ∈ N∗ et F = (ei )16i6p une famille
de vecteurs de E tels que
∀i, j ∈ J1, pK, i 6= j ⇒ (ei |ej ) < 0.
a. Montrer que
p
X p
X
λk ek = 0 ⇒ |λk |ek = 0.
k=1 k=1
b. Montrer que toute sous-famille de p − 1 vecteurs de F est libre.

Exercice 9. CCP MP 2006


a. Quelle est la nature de l’endomorphisme f de R3 dont la matrice canoniquement associée est donnée
par  
−8 −1 −4
1
A =  −4 4 7 .
9
−1 −8 4
b. Redémontrer qu’il existe une base de R3 dans laquelle la matrice de f s’écrit
 
cos θ − sin θ 0
B =  sin θ cos θ 0 ,
0 0 −1

et en déduire qu’il existe r une rotation dont on précisera les éléments caractéristiques et s une symétrie
orthogonale par rapport à un plan (P ) que l’on précisera, tels que f = r ◦ s = s ◦ r.
c. Montrer que com(A) = det(A)A pour toute matrice A ∈ On (R), où com(A) désigne la comatrice de
A.

Exercice 10. CCP MP 2006


Soit E = Mn (R) munit du produit scalaire (A|B) = tr(A t B ). On définit alors sur E, pour C ∈ Mn (R)
donnée,
φC (A) = CA t C .
a. Justifier que (.|.) définit bien un produit scalaire sur E.
b. Vérifier que φC est bien un endomorphisme de E et déterminer son adjoint. Montrer que det φC =
det φ t .
C
c. Montrer que si C est diagonale, alors det φC = (det C)n+1 .
d. Montrer que si C est orthogonale alors | det φC | = 1 et det φC = (det C)n+1 .

Exercice 11. Centrale MP 2007


Soient les matrices A ∈ Sn−1 (R), S ∈ Sn (R), le vecteur colonne c ∈ Mn−1,1 (R), et le réel a tels que
l’on ait (par blocs)  
A c
S= t .
c a
On note les spectres respectifs de S et A, ordonnés en croissant (avec éventuellement des répétitions),
Sp(S) = {λ1 , . . . , λn } et Sp(A) = {µ1 , . . . , µn−1 }. On note aussi (y1 , . . . , yn ) une base orthonormale
de vecteurs propres de S (∀i ∈ J1, nK, yi est associé à λi ), et (x1 , . . . , xn−1 ) une base orthonormale de
vecteurs propres de A (∀i ∈ J1, n − 1K, xi est associé à µi )

alg. bilin., page 2


http ://collesdemaths.free.fr

a. On suppose que U et V sont des sous-espaces vectoriels de Rn tels que dim(U ) + dim(V ) = n + 1.
Montrer qu’alors dim(U ∩ V ) > 1.  
Ph n−1 X
b. Soit h ∈ J1, n − 1K. Soit X ∈ j=1 Rxi ⊂ R . On forme le vecteur X̃ = . Prouver que l’on
0
a
t
X̃ S X̃ 6 µh ||X̃||2 .
c. Soit h ∈ J1, n − 1K. Soit Y ∈ nj=h Ryi . Prouver que l’on a
P

t 2
Y SY > λh ||Y || .

d. Finalement, montrer que ∀h ∈ J1, n − 1K, λh 6 µh .

Exercice 12. Centrale MP 2007


Soit E un espace euclidien, on note O(E) l’ensemble des endomorphismes orthogonaux (ie pour lesquels
on a ∀x, y ∈ E, (u(x)|u(y) = (x|y), où (.|.) désigne le produit scalaire de E).
On veut montrer que tout u ∈ O(E) se décompose en produit d’au plus n = dim E symétries hyper-
planes orthogonales.
a. Si n = 2, montrez que toute rotation est produit de deux symétries orthogonales et conclure.
b. Si n = 3, montrez que toute rotation est produit de deux symétries orthogonales et conclure.
c. Soit u ∈ O(E), Fu = ker(u − id), ku = codim(Fu ). Montrer que Fu et Fu⊥ sont stables par u.
d. Montrer qu’il existe au plus ku réfléxions orthogonales r1 , r2 , . . . , rku telles que

u = r1 ◦ r2 ◦ . . . ◦ rku .

On procédera par récurrence en composant par une symétrie orthogonale.

Exercice 13. Soient I un intervalle de R et (fi )16i6n une famille de fonctions continues et de carré
intégrable sur I. On définit la matrice A de Mn (R) par
Z
∀(i, j) ∈ {1, . . . , n} aij := fi (t)fj (t)dt.
I

a. Montrer que cette matrice est bien définie, symétrique et positive.


b. Montrer que A est inversible si et seulement si la famille (fi )16i6n est libre. h i
1
c. Application : on donne n réels 0 < λ1 < . . . < λn . Montrer que la matrice A := λi +λj 16i,j6n est
symétrique définie positive.

Exercice 14. Calculer Z 1


2
inf t3 − at2 − bt − c dt.
(a,b,c)∈R3 −1

alg. bilin., page 3


http ://collesdemaths.free.fr 20 août 2010

Solutions : Algèbre Bilinéaire

Exercice 1. a. E étant de dimension finie, pour montrer la bijectivité de u il suffit d’en montrer
l’injectivité. Soit x ∈ ker(u), alors on a

0 = (u(x)|u(x)) = (x|x),

et donc, (.|.) étant défini positif, il vient que x = 0. On a donc établi l’injectivité de u.
b. Montrons que les endomorphismes orthogonaux forment un sous-groupe de GL(E) noté O(E).
D’après la première question, O(E) ⊂ GL(E). On a id ∈ O(E). Soient maintenant u, v ∈ O(E), alors
on a
u ◦ v −1 (x)|u ◦ v −1 (y) = v −1 (x)|v −1 (y) = (x|y) ,
 

ce qui prouve donc que O(E) est un sous-groupe de GL(E).

Exercice 2. a. L’application est symétrique par commutativité de R, linéaire en chaque variable par
linéarité de l’intérgale et distributivité de la multiplication par rapport à l’addition sur R, elle est
positive par positivité de l’intégrale. Pour montrer
R1 qu’elle est définie positive, on utilise le fait que pour
une fonction continue f à valeurs réelles, −1 f 2 = 0 implique que f est nulle sur [−1, 1]. Comme de
plus f est ici un polynôme, de la nullité de la fonction polynômiale associée sur [−1, 1] on déduit la
nullité du polynôme f . Ainsi, < ., . > est bien un produit scalaire sur R[X].
b. C’est une application directe de l’algorithme de Gram-Schmidt à la base (1, X, X 2 , X 3 ) de R3 [X]
(les calculs ne sont pas demandés ici).
c. Cherchons les vecteurs propres en procédant directement (la dimension n’est pas finie, hors de
question d’invoquer un polynôme caractéristique). Si P est un polynôme de degré 0 (et donc non
nul), alors Φ(P ) = 0, 0 est donc valeur propre associée au vecteur propre 1 (par exemple). Soit P un
polynôme de degré 1, P = aX + b, alors Φ(P ) = 2aX. Ainsi, 2 est valeur propreP associée au polynôme
X. On suppose maintenant que P est un polynôme de degré d, avec d > 3, P = dk=0 ak X k , et λ ∈ R.
On a :
d−2
X
Φ(P ) = λP ⇔ (−2a2 − λa0 ) + (−6a3 + (2 − λ)a1 )X + ((k 2 + k − λ)ak − (k + 1)(k + 2)ak+2 )X k
k=2

+(d2 − d − 4 − λ)ad−1 X d−1 + (d2 + d − λ)ad X d = 0.


D’où l’on tire successivement que

(d2 + d − λ)ad = 0 ⇔ λ = d(d + 1) (puisque ad 6= 0),

(d2 − d − 4 − d(d + 1))ad−1 = 0 ⇔ ad−1 = 0,


(k + 1)(k + 2)
∀2 6 k 6 d − 2, ak = ak+2 (bien défini car k 2 + k − d2 − d < 0),
k 2 + k − d2 − d
6
a1 = a3 (bien défini car d 6= 2),
2 − d2 − d
2
a0 = − 2 (bien défini car d > 0).
d +d
Ceci établit l’existence d’un polynôme de degré d, fd , associé à la valeur propre d(d + 1), pour tout
d ∈ N. Les valeurs propres de Φ sont donc les d(d + 1), d ∈ N, et les polynômes (fd )d∈N forment une
famille libre (car de degrés échelonnés) qui engendre R[X] (car pour tout d ∈ N, Vect(f0 , . . . , fd ) =
Rd [X] = Vect(1, X, . . . , X d )). Quitte à renormaliser, on peut choisir les fd tels que < fd , fd >= 1. Il
ne reste alors plus qu’à montrer que les fd sont deux à deux orthogonaux. Pour cela, montrons que

alg. bilin., page 1


http ://collesdemaths.free.fr

l’endomorphisme Φ est symétrique, c’est à dire que ∀f, g ∈ R[X], < Φ(f ), g >=< f, Φ(g) >. Soient
donc f, g ∈ R[X], on calcule
Z 1
< Φ(f ), g >= (t2 − 1)f 00 (t)g(t) + 2tf 0 (t)g(t)dt.
−1

On effectue une intégration par partie et l’on trouve que


Z 1 Z 1
< Φ(f ), g >= − 2tf 0 (t)g(t)dt − (t2 − 1)f 0 (t)g 0 (t)dt + [2tf (t)g(t)]1−1
−1 −1

Z 1 Z 1
− 2tf (t)g 0 (t)dt − f (t)g(t)dt.
−1 −1

Cette expression est invariante par échange de f et g, si bien que l’on a < Φ(f ), g >=< f, Φ(g) >, l’en-
domorphisme est donc symétrique, et ses vecteurs propres associés à des valeurs propres différentes (les
fd ) sont donc deux à deux orthogonaux, ce qu’il fallait démontrer (pour montrer qu’un endomorphisme
symétrique a des vecteurs propres associés à des valeurs propres différentes deux à deux orthogonaux,
on écrit λd < fd , fd0 >=< Φ(fd ), fd0 >=< fd , Φ(fd0 ) >= λd0 < fd , fd0 >, et donc comme λd 6= λd0 , il
vient < fd , fd0 >= 0).
d. D’après ce qui précède, −1 n’est pas valeur propre de Φ, donc Φ+Id est injective. Il faut maintenant
montrer que Φ + Id est surjective. Soit P ∈ R[X], et d le degré de P . La restriction Φd de Φ à Rd [X]
est un endomorphisme de Rd [X] (vérification immédiate ou simple constatation sur les calculs déjà
faits), et l’endomorphisme (Φd − IdRd [X] ) est bijectif, puisqu’injectif (par injectivité de Φ − Id) et que
Rd [X] est de dimension finie. Ainsi, il existe Q ∈ Rd [X], (Φd − IdRd [X] )(Q) = P , et alors, on a aussi
(Φ − Id)(Q) = P , ce qui établit la surjectivité de Φ − Id. On a donc montré que Φ − Id est une bijection
de R[X].

Exercice 3. u est antisymétrique signifie que t u = −u. On a en particulier que det(u) = det( t u) =
det(−u) = (−1)3 det(u) = − det(u), d’où l’on déduit que det(u) = 0 et donc ker(u) 6= {0}.
Ensuite, on a que Im(u)⊕ker(u) = E et que cette somme est orthogonale. En effet, soit y ∈ Im(u), ∃x ∈
E, y = u(x). Soit z ∈ ker(u). Alors (y|z) = (u(x)|z) = −(x|u(z)) = 0, et donc ker(u) ⊥ Im(u), puis
Im(u) ∩ ker(u) = {0}, puis, d’après le théorème du rang, on a bien Im(u) ⊕ ker(u) = E.
On a aussi que Im(u) et ker(u) sont stables par u.
Ainsi, on peut distinguer trois cas.
Si dim(ker(u)) = 3, alors u = 0, et dans toute base, la matrice de u est la matrice nulle, qui a la forme
souhaitée avec k = 0.
Si dim(ker(u)) = 2, alors si l’on forme une base,(e1 , e2 , e3 ) de E à partir d’une base orthonormale de
Im(u) et de ker(u), dans cette base u a pour matrice
 
k 0 0
A =  0 0 0 , k ∈ R.
0 0 0

Mais alors k = (u(e1 )|e1 ) = −(e1 |u(e1 )) = −(u(e1 )|e1 ), donc k = 0, ce qui est impossible (on a ici
rg(u) = 1).
Il ne reste plus que le dernier cas, dim(ker(u)) = 1. On forme une base (e1 , e2 , e3 ) de E à partir d’une
base orthonormale de Im(u) et de ker(u), dans cette base u a pour matrice
 
a b 0
A =  c d 0 , a, b, c, d ∈ R.
0 0 0

Alors, a = (e1 |u(e1 )) = −(u(e1 )|e1 ) donc a = 0. De même, d = 0. Enfin, c = (u(e1 )|e2 ) = −(e1 |u(e2 )) =
−b. En d’autres termes, en posant k = b, on obtient le résultat demandé.

alg. bilin., page 2


http ://collesdemaths.free.fr

Exercice 4. a. L’application ϕ est symétrique par commutativité de R, linéaire en chaque variable


par linéarité de l’intérgale et distributivité de la multiplication par rapport à l’addition sur R, elle est
positive par positivité de f et positivité de l’intégrale. Pour montrer qu’elle R 1 est définie positive, on
utilise le fait que pour une fonction continue g à valeurs réelles positives, 0 g = 0 implique que g est
nulle sur [0, 1]. Puisque f est non identiquement nulle sur [0, 1], P 2 , qui est un polynôme, a sa fonction
polynômiale associée sur [0, 1] nulle en une infinité de points (cette même infinité de point où f n’est
pas nulle), on en déduit la nullité du polynôme P . Ainsi, ϕ est bien un produit scalaire sur R[X].
b. On applique le procédé d’orthonormalisation de Gram-schmidt à la base canonique de R[X],
1, X, X 2 , . . . , X n , . . ..
c. Supposons par l’absurde que Pn n’est pas scindé à racines simples dans [0, 1]. On peut donc écrire
Pn sous la forme
r
Y s
Y t
Y
αi βj
Pn (X) = (X − xi ) (X − yi ) Qk (X)δk ,
i=1 j=1 k=1

où r ∈ J0, nK, s ∈ J0, nK, t ∈ J0, nK, ∀i ∈ J1, rK, xi ∈ [0, 1] et αi > 1, ∀j ∈ J1, sK, yj ∈ R\[0, 1] et βj > 1,
∀k ∈ J1, tK, Qk est un polynôme réel irréductible de degré 2 et δk > 1. On note i1 , . . . , ir0 les indices
Q0
i ∈ J1, rK tels que αi est impair. On forme alors le polynôme Q(X) = rl=1 (X − xil ), qui est de degré
strictement inférieur à celui de Pn , sauf si ce dernier est scindé à racines simples dans [0, 1], ce qui est
exclu par hypothèses. On a alors
Z 1 Z 1 r s t
0
Y Y Y
0 = ϕ(Pn , Q) = f (x)Pn (x)Q(x)dx = f (x) (x − xi )αi (x − yi )βj Qk (x)δk dx
0 0 i=1 j=1 k=1
Qr 0 Qs Qt
avec ∀i ∈ J1, rK, αi0 pair. Ainsi, f (x) i=1 (x − xi )αi j=1 (x − yi ) k=1 Qk (x)
δk est de signe constant
βj

sur [0, 1], et définit une fonction continue non identiquement nulle sur [0, 1], c’est absurde d’après les
propriétés de l’intégrale. Donc Pn est bien scindé à racines simples dans [0, 1].

Exercice 5. a. On a matriciellement

q(x, y, z) = t X QX

avec    
2 1 −1 x
Q =  1 1 2 , X =  y ,
−1 2 −1 z
où t X désigne la transposée du vecteur X.
b. On a
2−X 1 −1 √ √
χQ (X) = 1 1−X 2 = −(X − 2)(X − 7)(X + 7).
−1 2 −1 − X
√ √
Les valeurs propres de Q sont donc 2, 7 et − 7.
c. Puisque Q est symétrique, diagonalisons Q en base orthonormée (pour avoir l’inverse d’une matrice
de passage égale à sa transposée), en exprimant alors q dans les nouvelles coordonnées, on obtiendra
une décomposition en carrés.
Un calcul simple des sous-espaces propres donne, après renormalisation, la matrice de passage
 √ √ 
− √13 √ 3+ 7√ √ 3− 7√
 28+10
√ 7 28−10
√ 7 
P =  √13
 √ 2+ 7√ √ 2− 7√  .
 28+10 7 28−10 7 
√1 √ 1 √ √ 1 √
3 28+10 7 28−10 7

q s’écrit donc dans le nouveau repère,


 
2 √0 0
q(x, y, z) = t X P  0 7 0  tP X

0 0 − 7

alg. bilin., page 3


http ://collesdemaths.free.fr

et donc
1 1 1
q(x, y, z) = 2(− √ x + √ y + √ z)2
3 3 3
√ √
√ 3+ 7 2+ 7 1 2
+ 7( p √ x+ p √ y+p √ z)
28 + 10 7 28 + 10 7 28 + 10 7
√ √
√ 3− 7 2− 7 1 2
− 7( p √ x+ p √ y+p √ z) .
28 − 10 7 28 − 10 7 28 − 10 7
Exercice 6. a. On a matriciellement
q(x, y, z) = t X QX
avec    
2 0 1 x
Q =  0 2 −1  , X =  y ,
1 −1 1 z
où t X désigne la transposée du vecteur X.
b. On a
2−X 0 1
χQ (X) = 0 2−X −1 = −X(X − 2)(X − 3).
1 −1 1−X
Les valeurs propres de Q sont donc 0, 2 et 3.
c. Puisque Q est symétrique, diagonalisons Q en base orthonormée (pour avoir l’inverse d’une matrice
de passage égale à sa transposée), en exprimant alors q dans les nouvelles coordonnées, on obtiendra
une décomposition en carrés.
Un calcul simple des sous-espaces propres donne, après renormalisation, la matrice de passage
− √16 √12 √1
 
3
P =  √16 √1 − √13 
.

2
2 1

6
0 √
3

q s’écrit donc dans le nouveau repère,


 
0 0 0
q(x, y, z) = t X P  0 2 0  t P X
0 0 3
et donc
1 1
q(x, y, z) = 2( √ x + √ y)2
2 2
1 1 1
+3( √ x − √ y + √ z)2 .
3 3 3
Exercice 7. Soit k ∈ J1, nK, de l’égalité
n
X X
1 = ||ek || = hek , ei i2 = 1 + hek , ei i2 ,
i=1 16i6n,i6=k

on déduit que ∀i ∈ J1, nK\{k}, hek , ei i = 0, et comme la famille est normée, ceci signifie que la famille
est orthonormale.
Soit (λi )16i6n ∈ Rn tel que ni=1 λi ei = 0 : alors, d’après l’orthonormalité de la famille (ei )i , on a
P
P n 2
i=1 λi = 0, d’où la nullité de chaucun des coefficients et la liberté de la famille (ei )i .
Soit F le sous-espace vectoriel de E engendré par la famille (ei ) : d’après le le théorème du supplémen-
taire orthogonal, E = F ⊕ F ⊥ . Pn
∈ ⊥ et par conséquent, ||x||2 =
Soit
Pn x E : x s’écrit de façon unique x = i=1 hx, ei iei + y où y ∈ F
2 2
i=1 hx, ei i + ||y|| . Pn
Par hypothèse, ||x||2 = 2
i=1 hx, ei i , d’où y = 0 et E = F, ce qui prouve que la famille (ei )i est
génératrice.

alg. bilin., page 4


http ://collesdemaths.free.fr

Exercice 8. a. On note Λ+ = {k ∈ J1, pK | λk > 0} et Λ− = {k ∈ J1, pK | λk < 0}. On suppose que


p
X X X
λk ek = λk ek + λk ek = 0 (1),
k=1 k∈Λ+ k∈Λ−

et on note
p
X X X
|λk |ek = λk ek − λk ek = α (2).
k=1 k∈Λ+ k∈Λ−

Alors (1) + (2) donne X


2 λk ek = α,
k∈Λ+

et (2) − (1) donne X


−2 λk ek = α.
k∈Λ−

On en déduit que
 
X X X
0 6 (α|α) = −4  λk ek λk ek  = −4 λi λj (ei |ej ) 6 0,
|{z} | {z }
k∈Λ+ k∈Λ− i∈Λ+ , j∈Λ−
60 <0

et donc nécessairement (α|α) = 0 puis α = 0, ce qui est l’implication demandée.


b. Soit I ∈ J1, pK un sous-ensemble à p − 1 éléments. On considère une famille (αk )k∈I ∈ Rp−1 telle que
X
αk ek = 0,
k∈I

alors d’après ce qui précède X


|αk |ek = 0. (3)
k∈I

Soit i ∈ J1, pK\I, alors !


X X
0= |αk |ek ei = |αk | (ek |ei ) .
|{z} | {z }
k∈I k∈I >0 <0

Cette dernière somme est nulle si et seulement si pour tout k ∈ I, αk = 0, ce qui prouve la liberté de
la famille.

Exercice 9. a. Il suffit de calculer A t A = I3 . Cela revient à vérifier que la norme euclidienne de


chaque colonne de la matrice A est 1 et que ces mêmes colonnes sont deux à deux orthogonales. f est
donc un automorphisme orthogonal de R3 .  
5
b. On calcule det(A) = −1 et on calcule ker A + I = R 1 . (On peut aussi vérifier que ker(A−I) =

1
 
5
{0}.) On pose donc e1 = 27 1 
1  (e1 est de norme 1), et on considère F = e⊥ 1 l’othogonal de Re1
1
dans R3 . Alors F est stable par f : soit y ∈ F , alors ∀x ∈ Re1 , (x|f (y)) = (f −1 (x)|y) = −(x|y) = 0,
donc f (y) ∈ F . Soit (e2 , e3 ) une base orthonormale de F , la matrice de f dans la base orthonormale
B = (e1 , e2 , e3 ) s’écrit  
a b 0
B =  c d 0 ,
0 0 −1
avec ad − bc = 1 (1), a2 + c2 = 1 (2), b2 + d2 = 1 (3) et ab + cd = 0 (4). De (2) on déduit l’existence
d’un réel θ tel que a = cos θ et c = sin θ. De (1) on déduit d cos θ − b sin θ = 1 (10 ) et de (4) on déduit

alg. bilin., page 5


http ://collesdemaths.free.fr

b cos θ + d sin θ = 0 (40 ). Ainsi cos θ(10 ) + sin θ(40 ) donne d = cos θ puis de (1) (ou de (4) si sin θ = 0)
on déduit que b = − sin θ, ce qui donne le résultat demandé.
Ensuite, prendre pour r la rotation d’axe Re1 et d’angle θ et pour s la symétrie orthogonale de plan
P =< e2 , e2 > répond à la question, il suffit de faire les produits des matrices associées dans la base B
pour le vérifier.
c. La formule de la comatrice donne

A t com(A) = det(A)In ,

donc on en déduit par transposition puis multiplication par A, sachant que t A A = In , que

com(A) = det(A)A

comme annoncé.

Exercice 10. a. La linéarité en chaque variable et la symétrie viennent de la linéarité de P la trace et du


fait que tr( t A) = tr(A). La positivité vient du fait que pour A = (aij )16i,j6n , tr(A t A) = ni=1 a2ij > 0,
et de cette dernière expression on tire la définie-positivité de (.|.).
b. La linéarité vient de la linéarité du produit matriciel. On a ensuite, pour A, B ∈ E,
t
(φC (A)|B) = tr(φC (A) t B ) = tr(CA t C t B ) = tr(A t C t B C) = tr(A ( t C BC)) = (A|φ t (B)),
C
donc de l’unicité de l’adjoint on déduit que l’adjoint de φC est φ t .
C
c. On calcule, pour C diagonale de coefficient diagonaux (ci )16i6n , et Eij la matrice de Mn (R) dont
les coefficients sont tous nuls sauf celui de la i-ième ligne et j-ième colonne,

φC (Eij ) = ci cj Eij .

Ainsi la matrice de φC dans la base (Eij )16i,j6n (ordonnée par exemple suivant l’ordre lexicographique
sur les indices i, j) de Mn (R) est diagonale de coefficients diagonaux ci cj , et son déterminant vaut
donc    
Yn n
Y Yn Yn Yn
 ci cj =
 ci  cj =
 ci det(C) = det(C)n+1 .
i=1 j=1 i=1 j=1 i=1

d. On suppose C orthonogonale. Alors pour tous A, B ∈ E,

(φC (A)|φC (B)) = tr(CA t C C t B t C ) = tr(A |t C t t


{zC} B | C
t
{zC}) = tr(A B ) = (A|B),
In In

ce qui montre que φC est ortogonale, et donc que | det(φC )| = 1.


Pour montrer la dernière égalité, si la matrice C était diagonalisable, le résultat découlerait de la ques-
tion précédente et du fait (vérification immédiate) que φC ◦φC 0 = φCC 0 . Mais C n’est pas diagonalisable
en général.
On peut regarder l’espace Rn munit du produit scalaire
Pn euclidien usuel comme la restriction (à R ) de
n
n
l’espace C munit du produit scalaire < x|y >= i=1 xi y¯i (exemple connu de produit scalaire). De
même, on considérera l’espace Mn (C) munit du produit scalaire (vérification aisée) < A|B >= tr(AB ∗ )
t
où B ∗ = B̄ est la transconjuguée de B, et nous regarderons l’application φC (A) = CAC ∗ (on peut
refaire les questions précédentes appliquées à cette nouvelle application). Montrons que les matrices
orthogonales sont C-diagonalisables en base orthonormée. Soit f un endomorphisme orthogonal de Rn
dont la matrice canoniquement associée est C. Soit e1 ∈ Cn un vecteur propre de norme 1 associé
à la valeur propre (non nulle !) λ ∈ C de f , et soit F le supplémentaire orthogonal de Ce1 dans
Cn . Montrons que F est stable par f . Soit y ∈ F , alors ∀x ∈ Ce1 , < x|f (y) >=< f ∗ (x)|y >=
λ̄ < x|y >= 0, donc f (y) ∈ F . On peut donc voir f comme un endomorphisme de F , et appliquer
un raisonnement par récurence pour montrer que f est diagonalisable en base orthonormée. Il existe
donc une matrice P ∈ Un (C) telle que D = P −1 CP = P ∗ CP soit une matrice diagonale. Ainsi,
det(φC ) = det(φP −1 DP ) = det(φP −1 ) det(φD ) det(φP ) = det(φD ) = det(D)n+1 = det(C)n+1 , ce qu’il
fallait démontrer.

alg. bilin., page 6


http ://collesdemaths.free.fr

Exercice 11. a. C’est une application immédiate de la formule de Grassman : n 6 dim(F + G) =


dim(F ) + dim(G) P− dim(F ∩ G) = n + 1 − dim(F ∩ G).
b. On écrit X̃ = hj=1 αj xj , avec ∀j ∈ J1, hK, αj ∈ R. On a en particulier que ||X̃||2 = hj=1 (αj )2 .
P
Matriciellement, on calcule
h
t X
X̃ S X̃ = t X AX = µj (αj )2 6 µh ||X̃||2 .
j=1

c. On écrit Y = nj=h βj yj , avec ∀j ∈ Jh, nK, βj ∈ R. On a en particulier que ||Y ||2 = nj=h (βj )2 .
P P
Matriciellement, on calcule
n
X
t
Y S Ỹ = λj (βj )2 > λh ||Y ||2 .
j=h

d. On a, vus comme sous-espaces vectoriels de Rn , dim( hj=1 Rxi ) = h et dim( nj=h Ryi ) = n − h + 1,
P P
n
Pnhypothèses de la première question. Ainsi, il existe Z ∈ R , Z 6= 0, tel que
on estPdonc dans les
h
Z ∈ ( j=1 Rxi ) ∩ ( j=h Ryi ). Z vérifie alors l’inégalité

λh ||Z||2 6 t Z SZ 6 µh ||Z||2 ,

d’où l’on déduit que λh 6 µh .

Exercice 12. On va d’abord faire une remarque générale. On suppose n > 1. Si u, v ∈ E sont deux
vecteurs avec u 6= v et ||u|| = ||v||, alors il existe une (unique) réflexion orthogonale qui échange u et
v, elle est définie par sa direction < u − v > et sa base < u − v >⊥ . On peut en donner l’expression
sous la forme
(l|u − v)
σu−v : l ∈ E 7→ l − 2 (u − v).
(u − v|u − v)
On peut facilement vérifier (le faire !) que l’on a bien σu−v ∈ O(E), σu−v (u) = v, et ker(σu−v − id) =<
u − v >⊥ .
a. Si n = 2. Le résultat est bien connu. Soit f ∈ O(E) une rotation, et soit u ∈ E tel que v = f (u) 6= u,
cela existe bien puisque f est une rotation. On note w l’image de u par la rotation d’angle π2 . On a alors
que w et u − v sont non-colinéaires. En effet, sinon, il existe λ ∈ R, λw = u − v et donc v = u − λw,
puis (u|u) = (v|v) = (u|u) + λ2 (w|w) − 2λ(u|w) et donc λ2 (w|w), ce qui implique finalement λ = 0
puis u = v, ce qui est exclu par hypothèses.
Montrons que σu−v ◦ σw est la rotation f (on commencera par faire un dessin pour s’en convaincre).
On a σu−v ◦ σw ∈ O(E) par composition. Ensuite, on calcule les points fixes de σu−v ◦ σw (on rappelle
qu’en dimension 2 les rotations sont les applications de O(E) sans point fixe non trivial). On calcule,
pour l ∈ E,
(l|w)
(σw (l)|u − v) (l|w) (l − 2 (w|w) w|(u − v))
σu−v ◦ σw (l) = σw (l) − 2 (u − v) = l − 2 w−2 (u − v).
(u − v|u − v) (w|w) (u − v|u − v)
(l|w)
(l|w) (l−2 (w|w) w|(u−v))
Ainsi, σu−v ◦ σw (l) = l ⇔ −2 (w|w) w−2 (u−v|u−v) (u − v) = 0. Comme w et u − v sont non-
(l|w)
colinéaires, ils forment une base de R2 ,
et donc nécessairement on a (l|w) = 0 puis (l−2 (w|w) w|(u−v)) =
(l|u − v) = 0, ce qui implique (puisque (w, u − v) est une base) que l = 0. Il n’y a donc pas de point
fixe non trivial, σu−v ◦ σw est donc une rotation. Finalement, σu−v ◦ σw (u) = σu−v u (puisque w ⊥ u),
et donc σu−v ◦ σw (u) = v. On a donc montré que σu−v ◦ σw = f .
b. Si n = 3, toute rotation f est caractérisée par son axe et son angle. Dans le plan orthogonal à l’axe
(passant par l’origine) P , f induit une rotation plane fP . On a ensuite E = P ⊕ P ⊥ . On applique
la question précédente à fP , on note σ1 ◦ σ2 = fP une décomposition en produit de réfléxions, et on
considère les endomorphismes σ˜1 , σ˜2 définis par σ̃i |P = σi , σ̃i |P ⊥ = id, i = 1, 2. On vérifie facilement
qu’il s’agit de réflexions orthogonales et que σ˜1 ◦ σ˜2 = f .
c. Soit x ∈ Fu , on a (u − id)(u(x)) = u(u − id)(x) = u(0) = 0, donc u(x) ∈ Fu . Ensuite, u ∈ O(E),
d’après le cours si Fu est stable par u, alors Fu⊥ est aussi stable par u.

alg. bilin., page 7


http ://collesdemaths.free.fr

d. On procède par récurrence sur ku = codim Fu . Si ku = 0, alors f = id et est produit de 0 réflexions.


On suppose le résultat acquis jusqu’à l’ordre p−1, p > 1. On a ku = p > 1, donc ∃u ∈ E, f (u) = v 6= u
et (u|u) = (v|v). Soit alors g = σu−v ◦ f . Par construction, g(u) = u et on a g ∈ O(E). Notons
G = {x ∈ E|g(x) = x}, et montrons que G = F ⊕ < u >.
On a déjà u ∈ G. Ensuite, soit x ∈ F , alors f (x) = x et donc g(x) = x ⇔ σu−v (x) = x ⇔ x ⊥ u − v.
Or, (x|u) = (f (x)|f (u)) = (x|v) ce qui signifie que (x|u − v) = 0, et on a bien x ∈ G. On a donc établi
que F + < u >⊂ G.
Soit x ∈ G, on a σu−v (f (x)) = x, donc ∃λ ∈ R, f (x) − x = λ(u − v) = λ(u − f (u)), et donc
f (x + λu) = x + λu ce qui signifie que x + λu ∈ F et donc que x = (x + λu) − λu ∈ F + < u >, ainsi
G ⊂ F + < u >.
Enfin, la somme est directe, puisque u 6∈ F .
Finalement, G = F ⊕ < u >, et donc codim G = p − 1. Par hypothèse de récurrence, il existe p − 1
réflexions orthogonales σ2 , . . . , σp telles que g = σ2 ◦ . . . ◦ σp , puis il vient que f = σu−v ◦ σ2 ◦ . . . ◦ σp ,
ce qui achève la démonstration.

Exercice 13. a. Les coefficients de A sont finis d’après l’inégalité de Cauchy-Schwarz.


Soit X := (xi )16i6n un vecteur de Rn : on trouve
X Z
t
X AX = xi xj fi fj
16i,j6n I

Xn Z X Z
= x2i fi2 + 2 xi xj fi fj
i=1 I 16i<j6n I

Z n
!2
X
= xi fi
I i=1
> 0,

d’où la positivité de la matrice A.


b. Supposons la famille (fi )i liée : alors, il existe une combinaison linéaire non triviale des colonnes de
A égale à la colonne nulle, donc A n’est pas inversible.
t
Pnalors, si2 X ∈ Ker(A),
Si la famille (fi )i est Rlibre, P nécéssairement X AX = 0 et d’après le calcul
précédent, cela donne I ( i=1 xi fi ) = 0, d’où i xi fi = 0 par continuité des fi et nécéssairement
X = 0, d’où Ker(A) = {0}, ce qui prouve bien l’inversibilité de la matrice A.
c. Il suffit de considérer la fonction fi définie sur I = [0, +∞[ par fi (t) = e−λi t qui est bien continue
et de carré intégrable sur I : la famille (fi ) est libre (à démontrer, voir les exercices sur les espaces
vectoriels), ce qui permet de conclure en utilisant la question précédente.

Exercice 14. On cherche à determiner une base orthonormale (P0 , P1 , P2 ) de R2 [X] pour le produit
scalaire Z 1
hP, Qi := P (t)Q(t)dt
−1

par orthonormalisation de la base canonique (1, X, X 2 ) en utilisant le prcédé de Gram-Schmidt, et on


appliquera le théorème de projection dans un espace Euclidien sur un sous-espace vectoriel selon lequel
Z 1
2
inf t3 − at2 − bt − c dt = ||X 3 − pR2 [X] (X 3 )||2 ,
(a,b,c)∈R3 −1

où pR2 [X] désigne la projection orthogonale sur R2 [X], et où pR2 [X] (X 3 ) s’écrit dans la nouvelle base

pR2 [X] (X 3 ) = hX 3 , P0 iP0 + hX 3 , P1 iP1 + hX 3 , P2 iP2 .

Calculons maintenant (P0 , P1 , P2 ) : on trouve

1
P0 = √ ,
2

alg. bilin., page 8


http ://collesdemaths.free.fr

en posant
P
c1 := X + αP0 ,

la relation
hP
c1 , P0 i = 0 donne α = 0,
et la condition de normalisation
r r
3c 3
||P1 || = 1 donne P1 = P1 = X.
2 2
Le terme de degré 1 de P2 est nul car
Z 1
r Z 1
3
P1 P2 = tP2 (t)dt = 0
−1 2 −1

et il n’est donc pas nécéssaire de calculer P2 car la quantité hX 3 , P2 i ne dépend que du terme de degré
1 de P2 (par imparité du polynôme X 3 ).
On trouve finalement
3
X 3 − pR2 [X] (X 3 ) = X 3 − hX 3 , P1 iP1 = X 3 − X
5
et
Z 1
2 2
inf t3 − at2 − bt − c dt = X 3 − pR2 [X] (X 3 )
(a,b,c)∈R3 −1
Z 1  2
3 3
= t − t dt
−1 5
8
= .
175

alg. bilin., page 9

Vous aimerez peut-être aussi