Vous êtes sur la page 1sur 5

Corrige de lepreuve de mathematiques II, li`ere PSI, CNC 07

Premi`ere Partie
1. Le rang de la matrice

a b
c d

est

0 si (a, b, c, d) = 0
1 si ad bc = 0, (a, b, c, d) = 0
2 si ad bc = 0
2. A = (a
ij
)
n
(R).
(a) Il est evident que rg (A) = 0 si et seulement si le sous-espace vectoriel engendre par
ses vecteurs colonnes est nul et cela equivaut a dire queA = 0 ; en particulier si A
nest pas nulle rg (A) 1.
(b) Si A est inversible, les vecteurs colonnes C
1
(A) , . . . , C
n
(A) forment une base de

n,1
(R) donc dimvect (C
1
(A) , . . . , C
n
(A)) = n cest `a dire rg (A) = n . Reciproquement,
si rg (A) = n la famille (C
1
(A) , . . . , C
n
(A)) est une base de
n,1
(R) donc A est
inversible.
3. On note f
A
lendomorphisme de
n,1
(R) canoniquement associe `a A. On a
rg (f
A
) = dim(Im(f
A
))
et comme Im(f
A
) = vect (C
1
(A) , . . . , C
n
(A)) alors rg (A) = rg (f
A
).
4. (a) On a A = U.
t
V =

u
1
.
.
.
u
n

. (v
1
. . . v
n
) ; en notant A = (a
i,j
) et en eectuant le
produit matriciel U.
t
V , on voit que a
k,
= u
k
v

pour tout (k, ) 1, . . . , n


2
.
(b) Avec les notations de la question prec`edente, on a : Tr (A) =
n

i=1
a
i,i
=
n

i=1
u
i
v
i
=
t
V U.
(c) Dapres la question (4.a), la j
i` eme
colonne de A est C
j
(A) = v
j
U.
(d) On a V = 0 donc il existe j
0
tel que v
j
0
= 0 ; ainsi C
j
0
(A) = v
j
0
U = 0 puisque
U = 0 ; on en deduit que rg (A) 1 . Dautre part, pour tout j 1, . . . , n,
C
j
(A) = v
j
U =
v
j
v
j
0
C
j
0
(A) cela montre que rg (A) 1 ; do` u rg (A) = 1
5. (a) La matrice A est de rang 1, donc non nulle do` u lexistence dun i
0
tel que C
i
0
(A) = 0.
(b) On a rg (A) = dimvect ((C
1
(A) , . . . , C
n
(A))) = 1, donc les colonnes de la matrice
A sont toutes proportionnelles `a la colonne C
i
0
(A) ; ainsi, pour tout j 1, . . . , n,
il existe un reel
j
tel que C
j
(A) =
j
C
i
0
(A).
(c) Dapres le calcul precedent, les vecteurs colonnes de A sont
1
C
i
0
(A) , . . . ,
n
C
i
0
(A) ;
le calcul eectue `a la question (4.a) montre alors que A = C
i
0
(A) . (
1
. . .
n
), cest
`a dire que A = X.
t
Y avec X = C
i
0
(A) et Y =

1
.
.
.

.
(d) Si A = X
0
.
t
Y
0
= X
1
.
t
Y
1
et rg (A) = 1, alors les vecteurs X
0
, X
1
, Y
0
et Y
1
sont non
nuls. Posons Y
0
=
t
(y
1
, . . . , y
n
) , Y
1
=
t
(z
1
, . . . , z
n
). Il existe un indice i
0
tel que
C
i
0
(A) = 0 ; or C
i
0
(A) = y
i
0
X
0
= z
i
0
X
1
donc X
1
= X
0
avec =
y
i
0
z
i
0
= 0. Par
1
ailleurs, pour tout j 1, . . . , n, C
j
(A) = y
j
X
0
= z
j
X
1
= z
j
X
0
donc z
j
=
1

y
j
et
Y
1
=
1

Y
0
. Reciproquement, si = 0 alors on a bien (X
0
) .
t

Y
0

= X
0
.
t
Y
0
= A.
Ainsi, les couples cherches sont de la forme

X
0
,
1

Y
0

avec R

.
6. Soit A
n
(R) avec rg (A) = r > 0 ; dapr`es un resultat du cours, on peut mettre A
sous la forme A = PJQ avec J =

I
r
0
0 0

, I
r
la matrice identite dordre r et P, Q des
matrices inversibles de
n
(R). Notons E
ij
la matrice de terme general e
k,l
avec e
k,l
= 1 si
(k, l) = (i, j) et e
kl
= 0 sinon ; alors J =
r

i=1
E
ii
et par suite A = P

i=1
E
ii

Q =
r

i=1
PE
ii
Q,
en plus 1 = rg (E
ii
) = rg (PE
ii
Q) puisque ces deux matrices sont equivalentes.
7. (a) Il est evident que si les vecteurs Z
1
, . . . , Z
n
sont tous nuls alors
n

i=1
Y
i
.
t
Z
i
= 0.
Reciproquement, si
n

i=1
Y
i
.
t
Z
i
= 0 alors, pour j 1, . . . , n, on a
0 =

i=1
Y
i
.
t
Z
i

.Z
j
=
n

i=1
Y
i
.
t
Z
i
.Z
j
=
n

i=1
(
t
Z
j
Zj)Y
i
,
et comme les vecteurs Y
1
, . . . , Y
n
sont independants, on obtient [[Z
j
[[
2
=
t
Z
j
Z
j
= 0,
pour tout j 1, . . . , n ; donc les vecteurs Z
1
, . . . , Z
n
sont tous nuls.
(b) Soit (
ij
)
1i,jn
une famille de reels tels que

1i,jn

ij
X
i
.
t
Y
j
= 0 alors
0 =
n

i=1
X
i
.

j=1

ij
.
t
Y
j

=
n

i=1
X
i
t

j=1

ij
.Y
j

.
La question precedente montre alors que, pour tout i 1, . . . , n,
n

j=1

ij
.
t
Y
j
= 0.
Par transposition on obtient
n

j=1

ij
.Y
j
= 0, pour tout i 1, . . . , n ; la famille
(Y
1
, . . . , Y
n
) etant libre, on deduit de ce qui preede que
ij
= 0, pour tout (i, j)
1, . . . , n
2
; cela montre que la famille (X
i
.
t
Y
j
)
i,j
est libre et comme
n
(R) est de
dimension n
2
, cette famille en constitue une base.
8. (a) La bilinearite decoule de la linearite de la trace. Par ailleurs, on sait que, pour tout
M, N
n
(R), 'M, N` = Tr (
t
M.N) = Tr (
t
(
t
M.N)) = Tr (
t
N.M) = 'N, M` ;
cela montre que la symtrie de la forme bilineaire. Enn, pour tout M
n
(R),
'M, M` = Tr (
t
M.M) =

1i,jn
M
2
ij
0, en plus
'M, M` = 0

1i,jn
M
2
ij
= 0 M = 0.
Cela prouve que lapplication (M, N) 'M, N` est un produit scalaire sur
n
(R).
(b) Si X, X

, Y et Y

sont des elements de
n,1
(R), alors

X.
t
Y, X

.
t
Y

= Tr

X.
t
Y

.
t
Y

= Tr

Y.
t
X.X

.
t
Y

,
2
et comme
t
X.X

R alors Tr (
t
X.X

.Y.
t
Y

) =
t
X.X

Tr (Y.
t
Y

) = (
t
X.X

).(
t
Y.Y

).
Ainsi

X.
t
Y, X

.
t
Y

= 0
t
X.X

= 0 ou
t
Y.Y

= 0.
On en deduit que les matrices X.
t
Y et X

.
t
Y

sont orthogonales si et seulement si
les vecteurs X , X

ou les vecteurs Y, Y

sont orthogonaux dans
n,1
(R) muni de
son produit scalaire canonique.
(c) Si (X
1
, . . . , X
n
) , (Y
1
, . . . , Y
n
) sont deux syst`emes de vecteurs de
n,1
(R), alors la
famille (X
i
.
t
Y
j
)
i,j
est orthonormee si et seulement si

X
i
.
t
Y
j
, X
k
.
t
Y
l

1 si (i, j) = (k, l)
0 si (i, j) = (k, l)
Or dapres le calcul precedent, on a 'X
i
.
t
Y
j
, X
k
.
t
Y
l
` =
t
X
i
.X
k
.
t
Y
j
, Y
l
. Donc, pour
que la famille (X
i
.
t
Y
j
)
i,j
soit orthonormee dans

n
(R) , <, >

, il sut que les


deux familles (X
1
, . . . , X
n
) , (Y
1
, . . . , Y
n
) soient orthonormees dans
n,1
(R), muni
de son produit scalaire canonique.
Deuxi`eme Partie
Soit A = U.
t
V une matrice de rang 1 , =
t
V.U et W = (
t
V V ) .U
1. On a : A
2
= (U.
t
V ) . (U.
t
V ) = U. (
t
V.U) .
t
V = A
2. Une recurrence permet de conclure que A
k
=
k1
A pour tout k N

; on en deduit que
la matrice A est nilpotente si et seulement sil existe k N

tel que A
k
= 0 cest `a dire si
et seulement si = 0 puisque A est non nulle.
3. Si A nest pas nilpotente, dapr`es la question precedente = 0 et on a

2
=
1

2
A
2
=
1

2
A =
1

A,
donc la matrice
1

A est celle dun projecteur.


4. (a) la matrice A est de rang 1 et comme n 2 alors A nest pas inversible et 0 est une
valeur propre de A; le sous-espace propre de A associee `a la valeur propre 0, qui
nest rien dautre que son noyau note ker A, est par denition egal `a
Y
n,1
(R) / AY = 0 =

Y
n,1
(R) / U
t
V Y = 0

Or, comme U = 0 on a lequivalence U


t
V Y = (
t
V Y ) .U = 0
t
V Y = 0 ; on
en deduit que ker A = Y
n,1
(R) /
t
V Y = 0 et dapres le theor`eme du rang
dimker A = n rg (A) = n 1.
(b) On a AU = U
t
V U = (
t
V U) .U = U, et comme U = 0 alors est une valeur
propre de A. Par ailleurs, le fait que la somme des dimensions des sous-espaces
propres dune matrice est toujours inferieure ou egale `a son ordre, adjoint au fait
que dimker A = n 1 permet darmer que le sous-espace propre de A associe `a la
valeur propre est de dimension 1 et ce sous-espace propre vaut RU.
(c) Si = 0, la matrice A est nilpotente et 0 est son unique valeur propre.
Si = 0, la matrice A admet deux valeurs propres qui sont 0 et puisque la somme
des sous-espaces propres associes est egale n.
3
5. si = 0 , dapres la question (4) , 0 et sont les valeurs propres de A et la somme de
leur sous-espaces propres est egale lordre de A, donc A est diagonalisable.
En prenant une base (U
1
, . . . , U
n1
) de ker (A) et une base (U
n
) de ker (A I
n
), la ma-
trice de lendomorphisme f dans la base (U
1
, . . . , U
n
) est diag (0, . . . , 0, ). Donc A est
semblable `a diag (0, . . . , 0, ) puisque ces deux matrices representent le meme endomor-
phisme f.
6. On suppose que = 0.
(a) Comme 0 est la seule valeur propre de A, la matrice A est diagonalisable si et
seulement si elle est nulle. Comme A = 0 alors A nest pas diagonalisable.
(b) AU = U = 0 donc U ker f et comme le vecteur W est colineaire `a U et
W = 0, le theor`eme de la base incomplte permet de completer W en une base

E
1
, . . . , E
n2
, W

de ker f qui est de dimension n 1.


(c) On a AV = U
t
V V =
t
V V.U = W = 0 donc W ker f et par suite la famille
(E
1
, . . . , E
n2
, W, V ) est libre, cest donc une base de
n,1
(R).
La matrice de f dans la base (E
1
, . . . , E
n2
, W, V ) est

0 0
.
.
.
.
.
.
.
.
.
0
1
0 0

.
(d) Soit A une matrice de rang 1, dapr`es les questions (1.5.c) et (1.4.b), on peut ecrire
A sous la forme A = U
t
V o` u U, V sont deux vecteurs non nuls de
n,1
(R), avec
Tr (A) =
t
V U ; si plus A est de trace nulle, alors dapr`es la question (2.6.c), A
est semblable `a la matrice

0 0
.
.
.
.
.
.
.
.
.
0
1
0 0

. La transitivite de la relation de
similitude permet enn de conclure que deux matrices de rang 1 et de tarce nulle
sont semblables.
Troisi`eme Partie
A = (a
ij
)
n
(R) , on note A
c
sa comatrice et on rappelle la relation
A.
t
A
c
=
t
A
c
.A = det A.I
n
(1)
1. (a) rg (A) = n , donc A est inversible ( dapres la question (1.2.b) ) et det A = 0, puis
en multiplions legalite (1) precedente `a droite par A
1
, on obtient
t
A
c
= det A.A
1
.
On en deduit que rg (A
c
) = rg (
t
A
c
) = rg(A
1
) = n et enn que A
1
=
1
det A
t
A
c
.
(b) Si A est de rang n 2 alors comme les cofacteurs de A sont tous des determinants
dordre n 1, il decoule du deuxi`eme resultat admis que tous ces cofacteurs sont
nuls, cest `a dire A
c
= 0.
2. Si rg (A) = n 1.
(a) Dapres le premier resultat admis, on peut extraire de A une sous-matrice inversible
A
1
qui soit dordre n1 ; cette sous-matrice A
1
est obtenue `a partir de A en eliminant
une ligne i et une colonne j, donc (A
c
)
ij
= (1)
i+j
det A
1
= 0. On en deduit que la
matrice A
c
est non nulle et par consequent rg (A
c
) 1.
4
(b) On note f ( resp g ) lendomorphisme de
n,1
(R) canoniquement associe `a A (resp
`a
t
A
c
) ; dapres la relation (1) on a f g = g f = det A.Id = 0 et cette derni`ere
relation montre bien que Img ker f.
On peut donc conclure que rg (A
c
) = rg(
t
A
c
) = dimImg dimker f = 1 et comme
rg (A
c
) 1 on a bien rg (A
c
) = 1.
3. On rappelle que si I un intervalle de R et
1
, . . . ,
n
sont des applications derivables de
I vers
n,1
(R), alors lapplication : t det (
1
(t) , . . . ,
n
(t)) est derivable, avec

(t) =
n

k=1
det

1
(t) , . . . ,
k1
(t) ,

k
(t) ,
k+1
(t) , . . . ,
n
(t)

(a) On deduit de ce qui prec`ede que lapplication P


A
: t det (C
1
(A) te
1
, . . . , C
n
(A) te
n
)
est derivable sur R et sa derivee est donnee par :
P

A
(t) =
n

k=1
det

C
1
(A)te
1
, . . . , C
k1
(A)te
k1
, e
k
, C
k+1
(A)te
k+1
, . . . , C
n
(A)te
n

.
(b) On a P

A
(0) =
n

k=1
det

C
1
(A), . . . , C
k1
(A) , e
k
, C
k+1
(A), . . . , C
n
(A)

. En developpant,
pour chaque k, le determinant det

C
1
(A), . . . , C
k1
(A) , e
k
, C
k+1
(A), . . . , C
n
(A)

par rapport `a la k-i`eme colonne on trouve loppose du k-i`eme cofacteur principal


k,k
de la matrice A. Do` u P

A
(0) =
n

k=1

k,k
= Tr(A
c
).
4. A et B deux matrices semblables de
n
(R) ; soit P inversible telle que A = PBP
1
.
(a) On a
Tr (A) = Tr (PBP
1
) = Tr (P
1
PB) = Tr (B),
rg (A) = rg (P
1
BP) = rg (BP) = rg (B) ( car P, P
1
inversibles ),
P
A
(t) = det (A tI
n
) = det (PBP
1
tI
n
) = det (P (B tI
n
) P
1
) = det (B tI
n
) =
P
B
(t).
(b) Dapr`es la question (3.3.b) , Tr (A
c
) = P
A
(0) = P
B
(0) = Tr (B
c
).
(c) Si A est de rang n, donc inversible et il en est de meme de B de plus
A
c
= det A.
t

A
1

= det A.
t

PB
1
P
1

= det A.
t

P
1

t
B
1
.
t
P,
et comme det A = det B ,
t
P
1
= (
t
P)
1
et B
c
= det B.
t
B
1
alors A
c
=
t
P. (B
c
) . (
t
P)
1
donc A
c
et B
c
sont semblables.
(d) Si rg (A) n 2, alors, puisque rg (A) = rg (B), dapr`es la question (3.1.b) ,
A
c
= B
c
= 0 donc les matrices A
c
et B
c
sont egales donc semblables.
(e) Si rg (A) = n 1, alors dapr`es la question (3.2.b) , rg (A
c
) = rg (B
c
) = 1. Posons
= Tr (A
c
) = Tr (B
c
).
i. Si = 0, alors dapr`es la question (2.5), A
c
est semblable `a la matrice diag (0, . . . , 0, ) ;
de meme B
c
est semblable `a la matrice diag (0, . . . , 0, ), donc les matrices A
c
et B
c
sont semblables.
ii. Si = 0, alors les matrices A
c
et B
c
sont de rang 1 et de trace nulle donc
semblables dapr`es la question (2.6.d).

Vous aimerez peut-être aussi