Académique Documents
Professionnel Documents
Culture Documents
2] NON : on vérifie aisément que S ⊂ N et A ⊂ N ; on en déduit que si N était un sous-espace vectoriel de L(E ) ,
( )
Or ceci est faux : toute matrice ne commute pas avec sa transposée ( on utilise le fait que mat u ∗ ; B = t mat (u; B ) , puisque
1 1 1 1 2 − 1
B est orthonormée ... ) par exemple M = , t
M .M = , M .t M = .
0 − 1 1 2 −1 1
Le début du raisonnement ci-dessus a montré que Vect (N ) ⊃ Vect (S ∪ A) = L(E ) ; donc Vect (N ) = L(E ) .
1 0 0 1 0 1 0 1 1 0 0 − 1
contre-exemple : . = , . = .
0 − 1 1 0 − 1 0 1 0 0 − 1 1 0
n’est pas toujours le cas : deux matrices antisymétriques n’anticommutent pas nécessairement ... il suffit de trouver deux matrices
antisymétriques qui commutent ( les mêmes ! ) et dont le produit n’est pas nul ...
0 1 0 1 −1 0
contre-exemple : . =
− 1 0 − 1 0 0 − 1
a b
pour ε = 1 , b = c et a, d quelconques donne M de la forme qui conviennent ...
b d
a b
pour ε = −1 , c = −b et a = d donne M de la forme qui conviennent ...
− b a
1 1 1 0
5] NON : dans le cas particulier d , d’après la question 4] , et sont les matrices d’éléments de N ,
1 −1 0 − 2
relativement à la base canonique ( ces matrices sont symétriques ) ; voyons leur produit ...
1 1 1 0 1 − 2
⋅ = n’a pas l’une des deux formes souhaitées .
1 − 1 0 − 2 1 2
6] • Soit C un cône convexe ; C est non vide et stable par multiplication par un réel positif ;
1 1
soient x, y ∈ C : la convexité permet d’affirmer que ⋅ x + 1 − ⋅ y ∈ C , puis la stabilité par multiplication par un
2 2
1 1
réel positif que 2. ⋅ x + 1 − ⋅ y = x + y ∈ C .
2 2
• Réciproquement , soit C une partie non vide de F, stable par addition et par multiplication par un réel positif ;
C est un cône de F .
Montrons que C est une partie convexe de F . Soient x, y ∈ C , soit t ∈ [0,1] ;
7] • La réflexivité de la relation d’ordre montre que 0 ∈ D et donc que D n’est pas vide ;
D est stable par multiplication par un réel positif : soient x ∈ D et t ∈ R + ; 0 ℜ x ⇒ t.0 ℜ t.x ⇒ t.x ∈ D .
D est stable par addition : soient x y ∈ D ; 0 ℜ x ⇒ y ℜ ( x + y) ,
puis 0 ℜ y y ℜ ( x + y ) ( transitivité ) ⇒ 0 ℜ x + y .
donc x + y ∈ D .
• Soit C un cône convexe de F tel que C ∩ (− C ) = {0}( on remarquera que tout cône de F contient le vecteur nul ...
pourquoi ? ) ; définissons ℜ sur F par x ℜ y ⇔ y − x ∈ C et montrons que l’on définit ainsi une relation d’ordre
compatible sur F :
réflexivité : ∀x ∈ F , x − x = 0 ∈ C , donc x ℜ x
transitivité : soient x, y, z ∈ F ; supposons x ℜ y et y ℜ z , c’est à dire y − x ∈ C et z − y ∈ C , alors
(z − y ) + ( y − x ) = z − x ∈ C , donc x ℜ z .
x − y ∈ C ∩ (− C ) , donc x − y = 0 .
x+zℜ y+z .
Soit u ∈ P3 ; soit (e1 ,..., en ) une base orthonormale de E constituée de vecteurs propres de u ; pour tout i ∈ [1, n ] ,
n
ei est associé à la valeur propre λi ; soit x = ∑ xi .ei , un vecteur quelconque de E , on a alors :
i =1
(u (x )/ x ) = ∑ xi .u (ei )/ ∑ x j .e j = ∑ xi .λi .ei / ∑ x j .e j = ∑ λi .xi .x j .(ei / e j )
n n n n
i =1 j =1 i =1 j =1 i, j
n
= ∑ λi .xi ≥ 0 , puisque les valeurs propres de u sont positives . On en conclut u ∈ P2 .
2
i =1
avec m = Diag λ1 ,...., ( λ ).Q ; d’où u = v v avec mat (v; B ) = m , puisque l’on a bien
n
∗
( )
mat v ∗ ; B = t mat (v; B )= t m , B étant orthonormale .
→ Montrons P3 = P1 :
• soit v = u u ∈ P1 ; u et v ∈ S ( on notera que P1 ⊂ S ) ; soient λ ∈ Sp(v ) et x un vecteur propre associé :
(v(x )/ x ) = (u (u (x ))/ x ) = (u (x )/ u ∗ (x )) = (u (x )/ u (x )) = u (x ) 2 = (λ .x / x ) = λ. x 2 , donc λ ≥ 0 et P1 ⊂ P3 .
• soit maintenant v ∈ P3 ; on a déjà utilisé ci-dessus que l’on peut écrire M = mat (v; B )= t Q.Diag (λ1 ,..., λn ).Q
avec m = t Q.Diag (...).Q qui est clairement symétrique ; d’où u = v v avec v ∈ S et mat (v; B ) = m ;
donc u ∈ P1 et P3 ⊂ P1 .
Enfin si u ∈ P ∩ (− P ) , ses valeurs propres sont à la fois positives et négatives ( P = P3 ) , donc nulles ; comme u est
diagonalisable , u est nul .
10] L’existence a été prouvée dans la dernière partie de la question 8] ; il reste l’unicité .
Soient u ∈ P et v, w ∈ P tels que u = v ² = w² ;
u et v commutant ( u.v = v.u = v 3 ) et étant tous deux diagonalisables ( cf. résultat admis au début du Pb ), admettent une
base commune de vecteurs propres : si x est l’un d’entre eux , associé à λ pour u et à µ pour v , on a
u (x ) = λ.x = v 2 (x ) = µ 2 .x , donc µ = λ , puisque µ ≥ 0 : on en conclut que v et w ont pour valeurs propres
les racines carrées de celles de u , associées aux mêmes vecteurs propres . Finalement v et w sont tous deux diagonalisables ,
admettent une base commune de vecteurs propres associés aux mêmes valeurs propres : u = v .
Remarque : c’est encore un exercice classique que de montrer l’unicité en question , sans admettre le résultat rappelé en début
de problème ... soient toujours u ∈ P et v, w ∈ P tels que u = v ² = w²
• les valeurs propres de v et w sont les racines carrées des valeurs propres de u :
( i ) si µ ∈ Sp(v ) et si x est un vecteur propre associé , on a u (x ) = v 2 (x ) = µ 2 .x , donc µ 2 ∈ Sp(u ) et µ est bien
la racine carrée d’une valeur propre de u.
( ii ) si λ ∈ Sp(u ) avec λ > 0 , notons λ = µ 2 avec µ > 0 ; alors
( )
ker (u − λ.e ) = ker v 2 − µ 2 .e = ker (v − µ .e ) ⊕ ker (v + µ .e ) = ker (v − µ.e ) (décomposition des noyaux )
puisque v n’admet pas de valeur propre strictement négative ; on a donc ker(v − µ .e ) ≠ {0} et µ = λ ∈ Sp(v )
si 0 ∈ Sp(u ) , v n’est pas injectif car sinon u = v 2 le serait ; donc ker (v ) ≠ {0} et 0 ∈ Sp(v ) .
( ) ( ) ( )
on a ker u − µ 2 .e = ker v 2 − µ 2 .e = ker w 2 − µ 2 .e d’où , par le théorème de décomposition des noyaux ,
( )
w n’ont pas de valeurs propres strictement négatives ; on en déduit ker u − µ 2 . e = ker (v − µ .e ) = ker (w − µ .e ) .
donc par une considération de dimension puisque ker (v ) ⊂ ker (u ) ( ou d’orthogonalité ) , ker (v ) = ker (u ) .
Finalement , v et w sont tous deux diagonalisables , de mêmes valeurs propres et de mêmes sous-espaces propres : v = w .
En résumé , on a montré que si u et v ∈ P avec u = v 2 , alors les valeurs propres de v sont les racines carrées des
valeurs propres de u et pour toute valeur propre µ de v , ker (u − µ 2 .e) = ker(v − µ.e ) .
On a u + u − =
1
4
(
2
)
⋅ u − u 2 + u u − u u = ⋅ (u u − u u ) ;
1
4
( ) ( ) (
si mat (u; B )= t Q.Diag λ1 ,..., λn .Q , avec Q ∈ O , il est clair que mat u 2 ; B = t Q.Diag λ1 ,..., λn .Q , puis
2 2
)
que mat (u ; B )= t Q.Diag ( λ1 ,..., λ n ).Q ( u ainsi défini matriciellement convient et il y a unicité de la racine carrée ... ) .
On a bien sûr u = u + − u − et u = u + + u − . Il reste à montrer que u + et u − ainsi définis sont des éléments de P:
ils sont symétriques puisque S est un sous-espace vectoriel de L(E ) .
il nous reste à montrer que u1 + u 2 est positif , ce qui est immédiat puisque u1 et u2 le sont et que P est un cône convexe .
2
13] soit u une symétrie orthogonale ; u 2 = e ; u est l’unique endomorphisme symétrique positif tel que u = e ;
e convient , donc u = e ; puis u + = ⋅ ( u + u ) = ⋅ (e + u ) avec u = 2. p − e ( p désigne le projecteur orthogonal
1 1
or
2 2
associé à u ) , d’où u + = p . Enfin , u − = u + − u = p − u = e − p = q , avec p + q = e .
0 1 1 0 1 1 1 1 1 − 1
14] soit A = mat (u; B ) = ; A2 = = I ; A = I ; A+ = ⋅ ; A− = ⋅
1 0 0 1 2 1 1 2 − 1 1
1 − 1 − 1 3 − 1 − 1
15] soit A = mat (u; B ) = − 1 1 − 1 ; A 2 = − 1 3 − 1 ;
− 1 − 1 1 − 1 − 1 3
on obtient A= t Q.∆(2,2,−1).Q ; A = t Q.∆(2,2,1).Q ; A+ = t Q.∆ (2,2,0 ).Q ; A− = t Q.∆ (0,0,1).Q avec Q ∈ O , que l’on précisera ...
16] soit u ∈ N ∩ GL(E ) ; on a donc u ∗ u = u u ∗ ;
a] on suppose que u = v w avec (v, w )∈ P × O ; on a u u ∗ = v w w∗ v ∗ = v v ∗ = v 2 ;
on en déduit que nécessairement v = u u ∗ , puisque u u ∗ et v ∈ P ( cf. question 10] ) .
(
Enfin , il vient w = v −1 u : en effet det u u ∗ = (det (u )) = det v 2 = (det (v ))) 2
( ) 2
avec det (u ) ≠ 0 montre que v ∈ GL(E ) .
que v u = u v ;
Soit λ une valeur propre de v ; la remarque faite à l’issue de la question 10] permet d’affirmer que
( )
ker v 2 − λ2 .e = ker (v − λ.e ) .
solution 2 : Commençons par préciser le résultat de la question 10] : soit u ∈ P et v = u . Montrons qu’il existe un
polynôme R tel que v = R(u ) .
Si mat (u; B )= t Q.Diag (λ1 ,..., λn ).Q avec Q ∈ O , on a vu que mat (v; B )= t Q.Diag λ1 ,..., λ n .Q ( )
Or , il existe un polynôme tel que ∀i ∈ [1, n], R (λi ) = λi ;
( )
on a alors R t Q.Diag (λ1 ,..., λ n ).Q = t Q.Diag (R (λ1 ),..., R(λ n )).Q = t Q.Diag λ1 ,..., λ n .Q ( )
d’où R(mat (u; B )) = mat (R(u ); B ) = mat (v; B ) et donc R(u ) = v .
( )
17] a] ( i ) On a trivialement Im u u ∗ ⊂ Im u ; soit alors v = u / Im u ; ∗
Enfin Im u ∗ = (ker u ) = Im u
⊥
18] puisque u ∈ N , d’après la question précédente , Im u = (ker u ) ; ceci permet d’affirmer que la restriction u~ de u
⊥
Enfin , à partir de v = u w −1 et w −1 ∈ O , on obtient de même ( on n’a pas utilisé le fait que v ∈ P ci-dessus )
v ≤ u .
p
(ii) Commençons par montrer que : ∀p ∈ N ∗ , v p = v .
Soit (e1 ,..., en ) une base orthonormale de E constituée de vecteurs propres de v ; pour tout i ∈ [1, n ] ,
n
ei est associé à la valeur propre λi ; soit x = ∑ xi .ei , un vecteur quelconque de E , on a alors :
i =1
( )
2
n n
v(x ) = ∑ x .λ .e = ∑ λi .xi ≤ max λi . x
2 2
v = max λi .
2 2 2
i i i ce qui montre que
i i
i =1 i =1
En utilisant le fait que (e1 ,..., en ) est toujours une base orthonormale de E constituée de vecteurs propres de v p avec
Précisément , on a v p = max λi ( i
)=
p
v
p
.
p p
que up = vp . On conclut donc par : u p = v p = v = u .