Vous êtes sur la page 1sur 7

Concours National - MAROC - 1990

        



 

1] Montrons tout d’abord que S ∩ A = {0} : si u ∈ S ∩ A , u ∗ = u = −u , donc u = 0 .

Par ailleurs , tout endomorphisme u peut s’écrire : u =


1
2
( )1
( )
⋅ u + u ∗ + ⋅ u − u ∗ avec
2
1
2
(
⋅ u + u ∗ ∈ S et)
1
2
( )
⋅ u − u ∗ ∈ A , ce qui montre que L(E ) = S + A .

2] NON : on vérifie aisément que S ⊂ N et A ⊂ N ; on en déduit que si N était un sous-espace vectoriel de L(E ) ,

contenant S ∪ A , il contiendrait donc Vect (S ∪ A) = S + A = S ⊕ A = L(E ) et on aurait N = L(E ) .

( )
Or ceci est faux : toute matrice ne commute pas avec sa transposée ( on utilise le fait que mat u ∗ ; B = t mat (u; B ) , puisque

1 1  1 1   2 − 1
B est orthonormée ... ) par exemple M =   , t
M .M =   , M .t M =   .
 0 − 1 1 2   −1 1 

Le début du raisonnement ci-dessus a montré que Vect (N ) ⊃ Vect (S ∪ A) = L(E ) ; donc Vect (N ) = L(E ) .

3] Soient u, v ∈ S ; (u  v ) = v ∗  u ∗ = v  u ; donc u  v ∈ S si et seulement si u et v commutent , ce qui n’est pas toujours


le cas : deux matrices symétriques ne commutent pas nécessairement ...

 1 0   0 1   0 1   0 1   1 0   0 − 1
contre-exemple :  .  =   ,  .  =   .
 0 − 1  1 0   − 1 0   1 0   0 − 1  1 0 

Soient u, v ∈ A ; (u  v ) = v ∗  u ∗ = (− v )  (− u ) = v  u ; donc u  v ∈ A si et seulement si u  v + v  u = 0 , ce qui


n’est pas toujours le cas : deux matrices antisymétriques n’anticommutent pas nécessairement ... il suffit de trouver deux matrices
antisymétriques qui commutent ( les mêmes ! ) et dont le produit n’est pas nul ...

 0 1  0 1  −1 0 
contre-exemple :  .  =  
 − 1 0   − 1 0   0 − 1

En conclusion S et A ne sont pas stables pour la loi de composition des endomorphismes .

4] On a vu que les endomorphismes symétriques et antisymétriques conviennent .


a b
Matriciellement t M .M = M .t M avec M =   = mat (u; B ) donne b ² = c ² et ab + cd = ac + bd ,
c d
c’est à dire (b + c )(. b − c ) = 0 et ab + cd = ac + bd .

On obtient donc c = ε .b avec ε = ±1 , puis a + ε .d = ε .a + d soit (ε − 1)(


. a − d)= 0 .

a b 
pour ε = 1 , b = c et a, d quelconques donne M de la forme   qui conviennent ...
b d 
 a b
pour ε = −1 , c = −b et a = d donne M de la forme   qui conviennent ...
− b a

1 1  1 0 
5] NON : dans le cas particulier d , d’après la question 4] ,   et   sont les matrices d’éléments de N ,
1 −1 0 − 2
relativement à la base canonique ( ces matrices sont symétriques ) ; voyons leur produit ...
 1 1   1 0  1 − 2 
  ⋅   =   n’a pas l’une des deux formes souhaitées .
1 − 1  0 − 2  1 2 

6] • Soit C un cône convexe ; C est non vide et stable par multiplication par un réel positif ;
1  1
soient x, y ∈ C : la convexité permet d’affirmer que ⋅ x + 1 −  ⋅ y ∈ C , puis la stabilité par multiplication par un
2  2
1  1 
réel positif que 2. ⋅ x + 1 −  ⋅ y  = x + y ∈ C .
2  2 

• Réciproquement , soit C une partie non vide de F, stable par addition et par multiplication par un réel positif ;
C est un cône de F .
Montrons que C est une partie convexe de F . Soient x, y ∈ C , soit t ∈ [0,1] ;

comme t  (1 − t )∈ R + , t.x  (1 − t ). y ∈ C , puis t.x + (1 − t ). y ∈ C ...

7] • La réflexivité de la relation d’ordre montre que 0 ∈ D et donc que D n’est pas vide ;
D est stable par multiplication par un réel positif : soient x ∈ D et t ∈ R + ; 0 ℜ x ⇒ t.0 ℜ t.x ⇒ t.x ∈ D .
D est stable par addition : soient x  y ∈ D ; 0 ℜ x ⇒ y ℜ ( x + y) ,

puis 0 ℜ y  y ℜ ( x + y ) ( transitivité ) ⇒ 0 ℜ x + y .

donc x + y ∈ D .

D est bien un cône convexe .

• Soit x ∈ D ∩ (− D ) : x ∈ (− D ) se traduit par x = − x′ avec 0 ℜ x′ ; d’où ( x  0) ℜ ( x + x ′) c’est à dire x ℜ 0 ;


par ailleurs 0 ℜ x , puisque x ∈ D : par antisymétrie x = 0 ;
Enfin , on a bien 0 ∈ D , puis 0 ∈ D ∩ (− D ) .

• Soit C un cône convexe de F tel que C ∩ (− C ) = {0}( on remarquera que tout cône de F contient le vecteur nul ...
pourquoi ? ) ; définissons ℜ sur F par x ℜ y ⇔ y − x ∈ C et montrons que l’on définit ainsi une relation d’ordre

compatible sur F :
réflexivité : ∀x ∈ F , x − x = 0 ∈ C , donc x ℜ x
transitivité : soient x, y, z ∈ F ; supposons x ℜ y et y ℜ z , c’est à dire y − x ∈ C et z − y ∈ C , alors

(z − y ) + ( y − x ) = z − x ∈ C , donc x ℜ z .

antisymétrie : soient x, y ∈ F ; supposons x ℜ y et y ℜ x , c’est à dire y − x ∈ C et x − y ∈ C ; alors

x − y ∈ C ∩ (− C ) , donc x − y = 0 .

compatibilité : soient x, y, z ∈ F ; supposons x ℜ y , c’est à dire y − x ∈ C ; alors ( y + z ) − (x + z ) ∈ C , donc

x+zℜ y+z .

soient x, y ∈ F et t ∈ R + ; supposons x ℜ y , c’est à dire y − x ∈ C ; alors

t.( y − x ) = t. y − t.x ∈ C , donc t.x ℜ t. y .

8] Il s’agit d’un concentré d’exercices classiques... !


Notons pour commodité P1 = {u  u; u ∈ S } , P2 = {u ∈ S / ∀x ∈ E , (u (x )/ x ) ≥ 0} et

P3 = {u ∈ S / les valeurs propres de u sont positives ou nulles }

→ Commençons par montrer P2 = P3 ( c’est du cours ... ) :


Soient u ∈ P2 et λ une valeur propre de u ( u est diagonalisable ... ) , x un vecteur propre associé ;
on a (u (x )/ x ) = (λ .x / x ) = λ. x 2 ≥ 0 avec x ≠ 0 , d’où λ ≥ 0 ; on en conclut u ∈ P3

Soit u ∈ P3 ; soit (e1 ,..., en ) une base orthonormale de E constituée de vecteurs propres de u ; pour tout i ∈ [1, n ] ,
n
ei est associé à la valeur propre λi ; soit x = ∑ xi .ei , un vecteur quelconque de E , on a alors :
i =1

   
(u (x )/ x ) =  ∑ xi .u (ei )/ ∑ x j .e j  =  ∑ xi .λi .ei / ∑ x j .e j  = ∑ λi .xi .x j .(ei / e j )
n n n n

 i =1 j =1   i =1 j =1  i, j

n
= ∑ λi .xi ≥ 0 , puisque les valeurs propres de u sont positives . On en conclut u ∈ P2 .
2

i =1

→ P ⊂ P2 est on ne peut plus classique ! : soit u ∈ P ; u s’écrit v ∗  v avec v ∈ L(E ) ;


( ) ( )
on a ∀x ∈ E , (u (x )/ x ) = v ∗  v(x ) / x = v ∗ (v(x ))/ x = (v(x )/ v(x )) = v(x ) ≥ 0 ...
2

P3 ⊂ P : soit u ∈ P3 et M = mat (u; B )= t Q.Diag (λ1 ,..., λn ).Q avec λ1 ,..., λn ≥ 0 et Q ∈ O ;

on peut écrire M = t Q.t Diag ( λ ,..., λ ).Diag ( λ ,..., λ ).Q = m.m


1 n 1 n
t

avec m = Diag λ1 ,...., ( λ ).Q ; d’où u = v  v avec mat (v; B ) = m , puisque l’on a bien
n

( )
mat v ∗ ; B = t mat (v; B )= t m , B étant orthonormale .

On a montré à ce stade que P = P2 = P3 .

→ Montrons P3 = P1 :
• soit v = u  u ∈ P1 ; u et v ∈ S ( on notera que P1 ⊂ S ) ; soient λ ∈ Sp(v ) et x un vecteur propre associé :
(v(x )/ x ) = (u (u (x ))/ x ) = (u (x )/ u ∗ (x )) = (u (x )/ u (x )) = u (x ) 2 = (λ .x / x ) = λ. x 2 , donc λ ≥ 0 et P1 ⊂ P3 .

• soit maintenant v ∈ P3 ; on a déjà utilisé ci-dessus que l’on peut écrire M = mat (v; B )= t Q.Diag (λ1 ,..., λn ).Q

avec λ1 ,..., λn ≥ 0 et Q ∈ O ; puis M = t Q.( Diag ( λ ,...,


1 ) ( )
λ n ) 2 .Q = t Q.Diag (...).Q = m ²
2

avec m = t Q.Diag (...).Q qui est clairement symétrique ; d’où u = v  v avec v ∈ S et mat (v; B ) = m ;

donc u ∈ P1 et P3 ⊂ P1 .

9] P n’est pas vide puisqu’il contient l’endomorphisme nul .

Soit u ∈ P et t ∈ R + : on a Sp(t.u ) = {t.λ ; λ ∈ Sp(u )} ⊂ R + , donc t.u ∈ P3 = P

Soient u et v ∈ P ; par exemple , ∀x ∈ E , ((u + v )(x )/ x ) = (u (x )/ x ) + (v(x )/ x ) ≥ 0 , donc u + v ∈ P2 = P

Enfin si u ∈ P ∩ (− P ) , ses valeurs propres sont à la fois positives et négatives ( P = P3 ) , donc nulles ; comme u est
diagonalisable , u est nul .

10] L’existence a été prouvée dans la dernière partie de la question 8] ; il reste l’unicité .
Soient u ∈ P et v, w ∈ P tels que u = v ² = w² ;

u et v commutant ( u.v = v.u = v 3 ) et étant tous deux diagonalisables ( cf. résultat admis au début du Pb ), admettent une
base commune de vecteurs propres : si x est l’un d’entre eux , associé à λ pour u et à µ pour v , on a
u (x ) = λ.x = v 2 (x ) = µ 2 .x , donc µ = λ , puisque µ ≥ 0 : on en conclut que v et w ont pour valeurs propres

les racines carrées de celles de u , associées aux mêmes vecteurs propres . Finalement v et w sont tous deux diagonalisables ,
admettent une base commune de vecteurs propres associés aux mêmes valeurs propres : u = v .

Remarque : c’est encore un exercice classique que de montrer l’unicité en question , sans admettre le résultat rappelé en début
de problème ... soient toujours u ∈ P et v, w ∈ P tels que u = v ² = w²
• les valeurs propres de v et w sont les racines carrées des valeurs propres de u :
( i ) si µ ∈ Sp(v ) et si x est un vecteur propre associé , on a u (x ) = v 2 (x ) = µ 2 .x , donc µ 2 ∈ Sp(u ) et µ est bien
la racine carrée d’une valeur propre de u.
( ii ) si λ ∈ Sp(u ) avec λ > 0 , notons λ = µ 2 avec µ > 0 ; alors

( )
ker (u − λ.e ) = ker v 2 − µ 2 .e = ker (v − µ .e ) ⊕ ker (v + µ .e ) = ker (v − µ.e ) (décomposition des noyaux )

puisque v n’admet pas de valeur propre strictement négative ; on a donc ker(v − µ .e ) ≠ {0} et µ = λ ∈ Sp(v )
si 0 ∈ Sp(u ) , v n’est pas injectif car sinon u = v 2 le serait ; donc ker (v ) ≠ {0} et 0 ∈ Sp(v ) .

• Soit µ ∈ Sp(v ) = Sp(w) ;


si µ n’est pas nulle c’est à dire µ > 0 :

( ) ( ) ( )
on a ker u − µ 2 .e = ker v 2 − µ 2 .e = ker w 2 − µ 2 .e d’où , par le théorème de décomposition des noyaux ,

ker (v − µ .e )⊕ ker (v + µ .e ) = ker (w − µ.e ) ⊕ ker (w + µ .e ) ; or ker (v + µ .e ) = ker (w + µ .e ) = {0} , car v et

( )
w n’ont pas de valeurs propres strictement négatives ; on en déduit ker u − µ 2 . e = ker (v − µ .e ) = ker (w − µ .e ) .

Si µ = 0 , il vient ( u et v sont tous deux diagonalisables ) :


E = ker (v ) ⊕ ∑ ker (v − µ .e ) = ker (u )⊕ ∑ ker (u − µ .e ) 2
= ker (u ) ⊕ ∑ ker(v − µ.e ) et
( )µ
µ∈Sp v , ≠ 0 µ ( )µ
∈Sp v , ≠ 0 µ∈Sp (v ), µ ≠ 0

donc par une considération de dimension puisque ker (v ) ⊂ ker (u ) ( ou d’orthogonalité ) , ker (v ) = ker (u ) .

De même ker (w ) = ker (u ) .

Finalement , v et w sont tous deux diagonalisables , de mêmes valeurs propres et de mêmes sous-espaces propres : v = w .

En résumé , on a montré que si u et v ∈ P avec u = v 2 , alors les valeurs propres de v sont les racines carrées des
valeurs propres de u et pour toute valeur propre µ de v , ker (u − µ 2 .e) = ker(v − µ.e ) .

u+ et u − , imposent ( d’où l’unicité ) : u + = ⋅ ( u + u ) et u − = ⋅ (u − u ) .


1 1
11] Les différentes formules que doivent vérifier
2 2

On a u +  u − =
1
4
(
2
)
⋅ u − u 2 + u  u − u  u = ⋅ (u  u − u  u ) ;
1
4

( ) ( ) (
si mat (u; B )= t Q.Diag λ1 ,..., λn .Q , avec Q ∈ O , il est clair que mat u 2 ; B = t Q.Diag λ1 ,..., λn .Q , puis
2 2
)
que mat (u ; B )= t Q.Diag ( λ1 ,..., λ n ).Q ( u ainsi défini matriciellement convient et il y a unicité de la racine carrée ... ) .

Finalement , u et u diagonalisent dans une même base et donc commutent : on en déduit u+  u− = 0 .


De même u −  u + = 0 .

On a bien sûr u = u + − u − et u = u + + u − . Il reste à montrer que u + et u − ainsi définis sont des éléments de P:
ils sont symétriques puisque S est un sous-espace vectoriel de L(E ) .

ils sont positifs : on a mat (u + ; B ) = ⋅t Q.Diag ( λ1 + λ1 ,...., λ n + λ n ).Q , donc u + ∈ P3 = P


1
2
de même u − ∈ P ...

12] u1 et u2 étant symétriques , il en est de même de u = u1 − u 2 .


D ’après la question précédente , il suffit de montrer que u = u1 + u 2 .
Or (u1 + u 2 ) 2 = u1 + u 2 + u1  u 2 + u 2  u1 = u1 + u 2 = u1 + u 2 − u1  u 2 − u 2  u1 = (u1 − u 2 ) = u 2 ;
2 2 2 2 2 2 2

il nous reste à montrer que u1 + u 2 est positif , ce qui est immédiat puisque u1 et u2 le sont et que P est un cône convexe .
2
13] soit u une symétrie orthogonale ; u 2 = e ; u est l’unique endomorphisme symétrique positif tel que u = e ;
e convient , donc u = e ; puis u + = ⋅ ( u + u ) = ⋅ (e + u ) avec u = 2. p − e ( p désigne le projecteur orthogonal
1 1
or
2 2
associé à u ) , d’où u + = p . Enfin , u − = u + − u = p − u = e − p = q , avec p + q = e .

0 1  1 0  1 1 1 1  1 − 1
14] soit A = mat (u; B ) =   ; A2 =   = I ; A = I ; A+ = ⋅   ; A− = ⋅  
1 0 0 1  2 1 1 2 − 1 1 

 1 − 1 − 1  3 − 1 − 1
15] soit A = mat (u; B ) = − 1 1 − 1 ; A 2 = − 1 3 − 1 ;
− 1 − 1 1  − 1 − 1 3 
on obtient A= t Q.∆(2,2,−1).Q ; A = t Q.∆(2,2,1).Q ; A+ = t Q.∆ (2,2,0 ).Q ; A− = t Q.∆ (0,0,1).Q avec Q ∈ O , que l’on précisera ...
16] soit u ∈ N ∩ GL(E ) ; on a donc u ∗  u = u  u ∗ ;
a] on suppose que u = v  w avec (v, w )∈ P × O ; on a u  u ∗ = v  w  w∗  v ∗ = v  v ∗ = v 2 ;
on en déduit que nécessairement v = u  u ∗ , puisque u  u ∗ et v ∈ P ( cf. question 10] ) .
(
Enfin , il vient w = v −1  u : en effet det u  u ∗ = (det (u )) = det v 2 = (det (v ))) 2
( ) 2
avec det (u ) ≠ 0 montre que v ∈ GL(E ) .

En conclusion , on a démontré qu’il existe au plus un couple (v , w) ∈ P × O tel que u = v  w .

b] ... voyons donc si v = u  u ∗ et w = v −1  u conviennent effectivement :

( i ) v est clairement dans P ∩ GL(E ) ( valeurs propres strictement positives ) .


( ii ) w∗  w = u ∗  v −1 ( ) v ∗ −1
u = u ∗  v∗ ( ) −1
v
−1
u = u ∗  v −2  u avec v 2 = u  u ∗ , donc
(
v −2 = u  u ∗ ) = (u )
−1 ∗ −1
u
−1
et finalement w ∗  w = e et w ∈ O .

( iii ) on a bien sûr u = v  w .

( iv ) il reste à montrer que v  w = w  v : le problème est de montrer que u = w  v = v −1  u  v , c’est à dire

que v  u = u  v ;

solution 1 : u  u ∗ = u ∗  u permet de montrer que u et u  u ∗ commutent , c’est à dire que u et v 2 commutent .

Soit λ une valeur propre de v ; la remarque faite à l’issue de la question 10] permet d’affirmer que
( )
ker v 2 − λ2 .e = ker (v − λ.e ) .

Soit maintenant x un vecteur propre de v , associé à la valeur propre λ ;


( ) ( ) (
on a v (u (x )) = u v 2 (x ) = u λ2 .x = λ2 .u (x ) ; donc u (x )∈ ker v 2 − λ2 .e = ker (v − λ.e ) et on en déduit
2
)
v(u (x )) = λ .u (x ) = u (λ .x ) = u (v(x )) : ceci montre que u et v commutent puisque u  v et v  u coïncident sur tout
vecteur propre de v et que v est diagonalisable .

solution 2 : Commençons par préciser le résultat de la question 10] : soit u ∈ P et v = u . Montrons qu’il existe un
polynôme R tel que v = R(u ) .

Si mat (u; B )= t Q.Diag (λ1 ,..., λn ).Q avec Q ∈ O , on a vu que mat (v; B )= t Q.Diag λ1 ,..., λ n .Q ( )
Or , il existe un polynôme tel que ∀i ∈ [1, n], R (λi ) = λi ;
( )
on a alors R t Q.Diag (λ1 ,..., λ n ).Q = t Q.Diag (R (λ1 ),..., R(λ n )).Q = t Q.Diag λ1 ,..., λ n .Q ( )
d’où R(mat (u; B )) = mat (R(u ); B ) = mat (v; B ) et donc R(u ) = v .

Revenons à la question posée : u  u ∗ = u ∗  u permet de montrer que u et u  u ∗ commutent ; donc u et R u  u ∗ ( )


(
commutent ( pourquoi ... ? ) où R u  u = u  u = v ; finalement ∗
) ∗
u et v commutent .

( )
17] a] ( i ) On a trivialement Im u  u ∗ ⊂ Im u ; soit alors v = u / Im u ; ∗

on a ker v = ker u ∩ Im u = ker u ∩ (ker u ) = {0}, d’où rg (v ) = rg u  u ∗ = rg u ∗


∗ ⊥
( ) ( )
( ) ( )
or rg u = rg (u ) , donc rg u  u = rg (u ) et finalement Im u = Im u  u
∗ ∗
( ∗
)
( )
( ii ) On a trivialement ker u ∗ ⊂ ker u  u ∗ ;
or dim(ker(u  u )) = dimE − rg (u  u ) = dimE − rg (u ) = dimE − rg (u ) = dim(ker u )
∗ ∗ ∗ ∗

on en déduit ker u = ker (u  u ) .


∗ ∗
( )
b] on a Imu = Im u  u ∗ et de même Im u ∗ = Im u ∗  u ∗ ( ) )= Im(u  u ) ; d’où Im u = Im u , puisque
( ∗ ∗ ∗

u  u ∗ = u ∗  u ; on a aussi ker u ∗ = ker u  u ∗ ( ) et ker u = ker(u ) = ker(u  (u ) ) = ker(u  u ) ...


∗ ∗ ∗ ∗ ∗ ∗

Enfin Im u ∗ = (ker u ) = Im u

18] puisque u ∈ N , d’après la question précédente , Im u = (ker u ) ; ceci permet d’affirmer que la restriction u~ de u

à Im u est un automorphisme de Im u puisque ker u~ = ker u ∩ Im u = ker u ∩ (ker u ) = 0 .



{}
D’après la question 16] , il existe (~ ~ )∈ P
~ ~ ~ ~
v,w × O avec O groupe orthogonal de Im u , P sev des endomorphismes
symétriques positifs ( v~ inversible ) de Im u , tels que u~ = v~  w
~ =w
~  v~ ; dans une B.O.N. adaptée à la décomposition en
supplémentaires orthogonaux E = ker u ⊕ Im u , la matrice de u peut s’écrire sous la forme
0 0  0 0  I 0 
0 mat (u~ ) = 0 mat (v~ ) ⋅ 0 mat (w
~ ) qui donne la décomposition voulue ( il y a commutativité ) en repassant aux
     
endomorphismes ...
0 0  0 0  − I 0 
Il n’y a pas unicité : par exemple  ~ = ~ ⋅ ~ ) convient également ...
0 mat (u ) 0 mat (v )  0 mat (w 

19] Dans une décomposition ( unique ou non ) u = v  w , avec v ∈ P et w ∈ O , on a vu que nécessairement

v 2 = u  u ∗ = u 2 ; d’où v = u 2 = u ; on a donc u = u  w ; relativement à une base orthonormale de diagonalisation

de u , il vient Diag (λ1 ,..., λn ) = Diag ( λ1 ,..., λn ).W ;

W = Diag (ε 1 ,..., ε n ) avec ε i = 1 si λi > 0 , ε i = −1 si λi < 0 et ε i = ±1 si λi = 0 , convient ...

20] (i) Soit u = v  w , avec v ∈ P et w ∈ O ; on a u = vw ≤ v . w .

Or , ∀x ∈ E /{0}, w(x ) = x montre que w = 1 ; on en déduit que u ≤ v .

Enfin , à partir de v = u  w −1 et w −1 ∈ O , on obtient de même ( on n’a pas utilisé le fait que v ∈ P ci-dessus )

v ≤ u .

p
(ii) Commençons par montrer que : ∀p ∈ N ∗ , v p = v .

Soit (e1 ,..., en ) une base orthonormale de E constituée de vecteurs propres de v ; pour tout i ∈ [1, n ] ,
n
ei est associé à la valeur propre λi ; soit x = ∑ xi .ei , un vecteur quelconque de E , on a alors :
i =1

( )
2
n n
v(x ) = ∑ x .λ .e = ∑ λi .xi ≤ max λi . x
2 2
v = max λi .
2 2 2
i i i ce qui montre que
i i
i =1 i =1

En utilisant le fait que (e1 ,..., en ) est toujours une base orthonormale de E constituée de vecteurs propres de v p avec

pour tout i ∈ [1, n ] , ei associé à la valeur propre λi v p = max λi .


p p
, on obtient comme ci-dessus
i

Précisément , on a v p = max λi ( i
)=
p
v
p
.

Enfin , pour tout p ∈ N ∗ , u p = (v  w) = v p  w p , puisque v et w commutent . Or w p ∈ O montre ( cf. (i) )


p

p p
que up = vp . On conclut donc par : u p = v p = v = u .

Vous aimerez peut-être aussi