Académique Documents
Professionnel Documents
Culture Documents
Session 2016
Filière MP
Durée 4 heures
cette épreuve comporte 4 pages au format A4, en plus de cette page de garde
L’usage de la calculatrice est interdit
Page de garde
Concours National Commun – Session 2016 – Filière MP
Les candidats sont informés que la qualité de la rédaction et de la présentation, la clarté et la précision des raisonnements
constitueront des éléments importants pour l’appréciation des copies. Il convient en particulier de rappeler avec précision
les références des questions abordées.
Si, au cours de l’épreuve, un candidat repère ce qui lui semble être une erreur d’énoncé, il le signale sur sa copie et
poursuit sa composition en expliquant les raisons des initiatives qu’il est amené à prendre.
Le sujet de cette épreuve est composé d’un problème.
Durée : 4 heures
Problème
Soit n un entier naturel supérieur ou égal à 2, on désigne par E = Mn (R) l’espace vectoriel des matrices
carrées d’ordre n à coefficients réels et on note par E ∗ = L (E, R), le R-espace vectoriel des formes linéaires
sur E, (une forme linéaire sur E est une application linéaire de E sur R). On rappelle qu’un hyperplan de E
est un sous-espace vectoriel supplémentaire à une droite vectorielle dans E. La matrice transposée de M est
notée tM . Si M ∈ E, on note Vect(M ) le sous-espace vectoriel de E engendré par M . On désigne par In la
matrice unité de Mn (R) et pour tout s ∈ N, on note [[1, n]] = {1, ..., s}.
On définit l’application trace, notée Tr, de E vers R comme suit, pour tout M = (mi,j )1≤i,j≤n ∈ E,
n
P
Tr(M ) = mk,k .
k=1
L’objet du problème est de montrer, dans la partie V, que tout hyperplan vectoriel de E contient au moins une
matrice inversible et dans la partie VI, que tout hyperplan vectoriel de E qui est muni d’un produit scalaire,
contient au moins une matrice orthogonale.
Partie I
Étude de quelques propriétés de l’application trace
1. (a) Montrer que Tr est une forme linéaire.
(b) Montrer que pour tous éléments A et B de E, Tr(AB) = Tr(BA) = Tr((tA)(tB)).
(c) Déterminer la dimension de ker Tr.
(d) Montrer que E = ker Tr ⊕ Vect(In ).
(e) Vérifier que ker Tr est un hyperplan de E qui contient au moins une matrice inversible.
2. Soit ϕ l’application qui, à toute matrice M de E associe ϕ(M ) = M + Tr(M )In .
(a) Montrer que ϕ est un automorphisme de E.
(b) i. Déterminer E1 (ϕ) = {M ∈ E; ϕ(M ) = M }.
ii. Montrer que En+1 (ϕ) = {M ∈ E; ϕ(M ) = (n + 1)M } = Vect(In ).
iii. En déduire que ϕ est diagonalisable et déterminer les valeurs propres de ϕ.
3. Soit J une matrice non nulle de E dont la trace est nulle. On considère ψ l’endomorphisme de E qui, à
toute matrice M de E associe ψ(M ) = M + Tr(M )J.
(a) Vérifier que le polynôme X 2 − 2X + 1 est un polynôme annulateur de ψ.
(b) Montrer que 1 est la seule valeur propre de ψ.
(c) ψ est-il diagonalisable ? Justifier la réponse.
Partie II
Un premier résultat préliminaire
Soient F et G deux espaces vectoriels de dimensions respectivement finies p ∈ N∗ et m ∈ N∗ . Soit u une
application linéaire de F vers G, de rang r tel que r ∈ N. Mm,p (R) désigne l’espace vectoriel des matrices à
coefficients réels, à m lignes et p colonnes.
1. Soit F1 un supplémentaire de ker u dans F , on considère l’application v : F1 → Im(u) telle que
x 7−→ v(x) = u(x). Montrer que v est un isomorphisme.
2. On suppose que 0 < r < min(p, m) et on note B = (e1 , ..., ep ) une base de F , telle que (e1 , ..., er ) soit
une base de F1 et (er+1 , ..., ep ) une base de ker u. On pose, pour tout entier naturel i ∈ [[1, r]], εi = v(ei ).
(a) Montrer qu’il existe une famille (εr+1 , ..., εm ) de vecteurs de G, telle que la famille C = (ε1 , ..., εm )
soit une base de G.
(b) Déterminer MatB,C (u), la matrice de u relativement aux bases B et C .
3. En déduire que pour toute matrice M de Mm,p (R), si 0 < r = rg(M ) < min(m, p), alors il existe
deux matrices
inversibles
S et T respectivement de Mm (R) et Mp (R) telles que M = SJm,p,r T −1 avec
Ir 0
Jm,p,r = ∈ Mm,p (R) et Ir la matrice identité de Mr (R).
0 0
4. Quelle est la forme de la matrice Jm,p,r , dans chaque cas suivant, ( 0 < r = p < m), ( 0 < r = m < p ), (
0 < r = m = p) ? Justifier la réponse.
Partie III
Un deuxième résultat préliminaire
Soit L un espace vectoriel sur R de dimension finie s( s ∈ N∗ ). Notons L∗ = L (L, R) l’espace des formes
linéaires de L. Soit B = (l1 , ..., ls ) une base de L. On note, pour touti ∈ [[1, s]], li∗ la forme linéaire sur L définie
1 si i = j
de la façon suivante, pour tout entier j ∈ [[1, s]], li∗ (lj ) = δij où δij = , le symbole de Kronecker.
0 sinon
1. Montrer que B ∗ = (l1∗ , ..., ls∗ ) est une famille libre de L∗ .
X s
2. Soit x ∈ L tel que x = xi li , montrer que, pour tout j ∈ [[1, s]], lj∗ (x) = xj .
i=1
3. En déduire que B ∗ est une famille génératrice de L∗ .
4. En déduire la dimension de L∗ .
Partie IV
Une caractérisation d’une forme linéaire sur E
Soit A une matrice de E, on définit l’application φA de E vers R, de la façon suivante, pour tout M de E,
φA (M ) = Tr(AM ).
1. Vérifier que φA est une forme linéaire sur E.
2. Soit h l’application définie de E vers E ∗ par A → h(A) = φA .
Soit (i, j) ∈ [[1, n]] × [[1, n]], une matrice élémentaire Ei,j = (ek,l )1≤k,l≤n ∈ Mn (R) est définie comme suit,
pour tout couple d’entiers (k, l) ∈ [[1, n]] × [[1, n]], ek,l = δki δlj , ( δki ( resp. δlj ) est le symbole de Kronecker
qui est défini dans la partie III).
(a) Vérifier que h est une application linéaire.
(b) i. On pose A = (ak,l )1≤k,l≤n ∈ Mn (R) et soit (i, j) ∈ [[1, n]] × [[1, n]], calculer φA (Ei,j ) en fonction
des coefficients de la matrice de A.
ii. En déduire que h est injective.
Partie V
Tout hyperplan de E contient au moins une matrice inversible
Soit H un hyperplan de E.
1. Montrer que pour toute matrice A non nulle de E qui n’appartient pas à H, on a E = H ⊕ Vect(A).
2. Montrer qu’il existe une matrice B de E telle que H = ker(φB ).
0 ... ... 0 1
1 0
.. .. ..
3. On note r = rg(B) et on considère la matrice de E, P1 = . . .
0
. . . .. ..
.. .. .. .
.
0 ... 0 1 0
(a) Montrer que P1 est une matrice inversible.
ri,i = 1 si 1 ≤ i ≤ r
(b) On suppose que 0 < r < n et on note Rr = (ri,j )1≤i,j≤n , avec . Montrer
ri,j = 0 sinon
que P1 appartient à ker(φRr ).
4. En déduire que tout hyperplan H de E contient au moins une matrice inversible.
Partie VI
Tout hyperplan de E contient au moins une matrice orthogonale
L’espace vectoriel E étant muni du produit scalaire défini comme suit, pour toutes matrices M et N de E,
(M |N ) = Tr(tM N ). On rappelle que le groupe orthogonal et l’espace vectoriel des matrices symétriques de
E sont notés respectivement On = {M ∈ E; tM M = In } et Sn = {M ∈ E; tM = M }.
Soit N un élément de On , on définit l’application θN de E dans lui-même comme suit, pour tout P de E,
θN (P ) =t N P N .
1. On pose A = (ai,j )1≤i,j≤n et B = (bi,j )1≤i,j≤n deux éléments de E.
n Pn
(a) Montrer que (A|B) = ai,j bi,j .
P
i=1 i=1
(b) Vérifier que tout hyperplan de E est l’orthogonal d’une matrice Y non nulle, cet hyperplan sera
noté HY .
(c) Montrer que pour toute matrice orthogonale N de E, θN est un automorphisme d’algèbres de E.
(d) Vérifier que pour toutes matrices N1 et N2 orthogonales de E, θN1 ◦ θN2 = θN2 N1 et (θN1 )−1 = θtN1 .
2. Montrer que pour toute matrice orthogonale N de E, θN est une bijection de On sur lui-même.
3. Montrer que pour toute matrice orthogonale N de E, θN est une bijection de Sn sur lui-même.
4. Soit Y une matrice non nulle de E, P un élément de E et N une matrice orthogonale de E, montrer que
la matrice P appartient à HY si et seulement si θN (P ) appartient à HθN (Y ) .
1
5. On suppose dans cette question que n est pair. Soit Y un élément non nul de E. On pose Ys = (Y +tY ).
2
(a) Montrer que On ∩ Sn ∩ HY = On ∩ Sn ∩ HYs .
(b) Montrer qu’il existe une matrice orthogonale U de E telle que Y 0 = θU (Ys ) soit diagonale.
0 ... 0 1
..
. ... ... 0
(c) On considère la matrice suivante Q = . de E, vérifier que Q ∈ On ∩ Sn ∩ HY .
0 . . . . . . ..
0
1 0 ... 0
F IN DE L’ ÉPREUVE
Épreuve de mathématiques II
Correction
Partie I
Étude de quelques propriétés de l’application trace
1. (a) ∀A, B ∈ E, ∀λ ∈ R, on a tr(A + λB) = tr(A) + λ tr(B), donc l’application tr est linéaire.
n
X
(b) Posons A = (aij )1≤i,j≤n , B = (bij )1≤i,j≤n et C = AB = (cij )1≤i,j≤n avec cij = aik bkj . On a
k=1
n
X n X
X n n X
X n
tr(AB) = cii = aik bki = bki aik = tr(BA).
i=1 i=1 k=1 k=1 i=1
D’autre part, il est clair que tr(t A) = tr(A), donc tr(AB) = tr t (AB) = tr t Bt A = tr(t At B).
E = ker(tr) ⊕ Vect(In ).
6 j sont
(e) Les matrices élémentaires Eij avec i = toutes éléments de ker(tr) et par combinaison
linéaire la matrice
0 1 0 ... 0
0 0 1 . . . 0
M = ... ... .. . . ..
. . .
0 0 0 . . . 1
1 0 0 ... 0
appartient à ker(tr). M est inversible, car par exemple égale à la matrice de passage de la base
canonique (e1 , e2 , ..., en ) de Rn à la base (en , e1 , ..., en−1 ).
2. (a) Il est clair que ϕ est un endomorphisme de E, de plus si ϕ(M ) = 0, alors M = − tr(M )In donc
mij = 0 pour i 6= j et ∀i, mii = − tr(M ), d’où tr(M ) = −n tr(M ) ou encore tr(M ) = 0 = mii
et ceci pour tout i.
Finalement M = 0 et par conséquent ϕ est endomorphisme injectif, donc est un automor-
phisme de E.
(b) i. ϕ(M ) = M si, et seulement si, tr(M ) = 0, donc E1 (ϕ) = ker(tr).
tr M
ii. ϕ(M ) = (n + 1)M si, et seulement si, tr(M )In = nM ou encore M = In donc mij = 0
n
tr M
pour i 6= j et mii = , donc nécessairement m11 = m22 = ... = mnn pour tout i. D’où
n
M = λIn avec λ ∈ R. Donc En+1 (ϕ) ⊂ Vect(In ). L’inclusion réciproque est évidente. D’où
En+1 (ϕ) = Vect(In ).
iii. D’après les deux questions précédentes 1 et n + 1 sont des valeurs propres de ϕ dont
les sous-espaces propres sont E1 (ϕ) et En+1 (ϕ) et comme E1 (ϕ) = ker(tr) et En+1 (ϕ) =
Vect(In ), alors les sous-espaces propres sont supplémentaires ( la question 1. d) de la
partie I ), donc ϕ est diagonalisable.
ψ 2 (M ) = ψ(M )+tr(M )ψ(J) = M +tr(M )J+tr(M )J+tr(M ) tr(J)J = ψ(M )+tr(M )J = 2ψ(M )−M,
Partie II
Un premier résultat préliminaire
1. Il est clair que v est linéaire, de plus si x ∈ F1 tel que v(x) = 0, alors u(x) = 0, donc x ∈ ker u ∩ F1 =
{0}, donc x = 0. D’autre part dim F1 = dim Im(u), donc v est un isomorphisme.
2. (a) Puisque v est un isomorphisme la famille (ε1 , ..., εr ) est une base de Im(u). D’après le théo-
rème de la base incomplète, il existe des vecteurs (εr+1 , ..., εn ) telle que la famille (ε1 , ..., εr , εr+1 , ..., εm )
soit une base de G.
(b) Relativement aux bases précédentes, la matrice de u est de la forme :
Ir 0
MatB,C (u) = .
0 0
3. Notons u l’endomorphisme canoniquement associé à M . D’après ce qui précède il existe une base
B de Rp et une base C de Rm telles que
Ir 0
MatB,C (u) = .
0 0
Partie III
Un deuxième résultat préliminaire
s
X s
X
1. Soit λ1 , λ2 , ..., λn des scalaires réels tels que λi li∗ = 0, donc ∀j ∈ [[1, s]], 0 = λi li∗ (lj ) = λj ,
i=1 i=1
donc la famille (l1∗ , l2∗ , ..., ls∗ ) est libre.
s
X s
X
2. Par linéarité, ∀k ∈ [[1, s]], lk (x) = lk∗ xj lj = xj lk∗ (lj ) = xk .
j=1 j=1
s
X
3. Soit l une forme linéaire et x = xi li un élément de L. On a :
i=1
s
X s
X s
X
l(x) = xi l(li ) = li∗ (x)l(li ) = αi li∗ (x)
i=1 i=1 i=1
en posant αi = l(li ). Nous voyons donc que les s formes linéaires l1∗ , l2∗ , ..., ls∗ engendrent L∗ et
comme elles sont libres, ces formes linéaires décrivent une base de L∗ .
4. D’après ce qui précède, L∗ = Vect(l1∗ , l2∗ , ..., ls∗ ), d’où dim L∗ = s = dim L.
Partie IV
Une caractérisation d’une forme linéaire sur E
1. L’application φA est clairement linéaire, c’est une conséquence de la linéarité de l’application trace..
2. (a) Soient A et B de E et λ ∈ R. Pour tout M ∈ E, on a :
Partie V
Tout hyperplan de E contient au moins une matrice
inversible
1. Soit ϕ une forme linéaire non nulle telle que H = ker ϕ. Il suffit donc de montrer que les deux sous-
espaces H et Vect(A) sont supplémentaires puisque la somme des dimensions est égale celle de E.
Soit M ∈ H ∩ Vect(A), alors il existe λ ∈ R tel que M = λA et ϕ(M ) = 0. D’où ϕ(λA) = λϕ(A) = 0,
comme ϕ(A) 6= 0, donc λ = 0 et par conséquent M = 0.
2. Il existe une matrice B telle que pour toute matrice M , on ait ϕ(M ) = tr(BM ) = φB (M ) ( d’après
la question 2.c) de la partie IV ). Donc H = ker ϕ = ker(φB ).
3. (a) P1 est inversible, c’est la matrice de passage de la base canonique (e1 , e2 , ..., en ) de Rn à la base
(e2 , e3 , ..., en , e1 ).
(b) On vérifie facilement que tr(Rr P1 ) = 0 ( Rr P1 a sa diagonale nulle ).
4. B est équivalente à Rr : P BQ = Rr , où P et Q sont inversibles. On a donc, pour toute matrice M ,
Si on trouve Y inversible telle que tr(Rr Y ) soit de trace nulle, on a gagné (on pose M = Q−1 Y P −1
qui reste à la fois dans GLn (R) et dans l’hyperplan H ). Pour cela, on peut par exemple poser
Y = P1 .
Partie VI
Tout hyperplan de E contient au moins une matrice
orthogonale
n
X n
X
1. (a) Posons C = tAB = (cij )1≤i,j≤n avec cij = aki bkj . D’où (A|B) = tr(tAB) = cii =
k=1 i=1
n X
X n
aki bkj .
i=1 k=1
(b) Soit H un hyperplan de E, donc il existe une matrice B telle que H = ker(φB ), donc il suffit
de prendre Y = tB.
(c) On peut vérifier facilement que ∀P1 , P2 ∈ E et ∀λ ∈ R, on a :
θN (λP1 + P2 ) = λθN (P1 ) + θN (P2 ),
et
θN (P1 P2 ) = θN (P1 )θN (P2 ),
de plus
θN (In ) = tN In N = In .
Enfin, θN (P ) = tN P N = 0 si, et seulement si, P = 0, car N est inversible.
En conclusion, θN est un automorphisme d’algèbres.
(d) On a, pour tout P ∈ E, θN1 ◦ θN2 (P ) = θN1 (tN2 P N2 ) = tN1 (tN2 P N2 )N1 = t(N2 N1 )P (N2 N1 ) =
θN2 N1 (P ) donc θN1 ◦ θN2 = θN2 N1 . En particulier, θN1 ◦ θtN1 = θtN1 N1 = θIn = IdE , donc
(θN1 )−1 = θtN1 .
2. Soit P une matrice orthogonale. On a :
(θN (P ))−1 = (tN P N )−1
= N P −1 N
t
t
= N tP N
t
= (θN (P ))
et donc θN (P ) est orthogonale. De plus θN (P ) = P 0 est équivalent à θtN (P 0 ) = P , il en résulte que
θN est une bijection de On sur lui-même .
3. Soit P une matrice symétrique. On a :
t tt
(θN (P )) = ( NPN)
t
= N tP N
t
= NPN
= θN (P )
et donc θN (P ) est symétrique. De plus θN (P ) = P 0 est équivalent à θtN (P 0 ) = P , il en résulte que
θN est une bijection de Sn sur lui-même .
4. On a
(θN (Y )|θN (P )) = tr(t(tN Y N )(tN P N ))
= tr(tN tY N tN P N )
= tr(tN tY P N )
= tr(tY P )
= (Y |P )
Donc (θN (Y )|θN (P )) = 0 si, et seulement si, (Y |P ) = 0, c’est-à-dire P ∈ HY si, et seulement si,
θN (P ) ∈ HθN (Y ) .
5. (a) Soit M ∈ On ∩ Sn . Puisque M est symétrique, on a les égalités :
(Y |M ) = −(tY |M )
On ∩ Sn ∩ HY = On ∩ Sn ∩ HYs .
(b) La matrice Ys étant symétrique réelle, donc elle est diagonalisable dans une base orthonormée
( théorème spectral ), autrement dit il existe une matrice orthogonale U telle que tU Ys U =
θU (Ys ) = Y 0 soit diagonale.
n X
X n
(c) Il est clair que Q est orthogonale et symétrique, de plus (Q|Y 0 ) = (Q)ij (Y 0 )ij = 0 ( les
i=1 j=1
deux diagonales de Q et de Y 0 ne se coupent pas, car n est pair ), donc
Q ∈ On ∩ Sn ∩ HY 0 .
et par conséquent U QtU ∈ On ∩Sn ∩HYs = On ∩Sn ∩HY , c’est-à-dire θtU (Q) ∈ On ∩Sn ∩HY .
(e) La matrice θtU (Q) répond à la question.
(a) Soit f l’endomorphisme canoniquement associé à Y ( Y donc la matrice de f dans la base
canonique de Rn ). Donc, si U est une matrice orthogonale, θU (Y ) est la matrice de f dans une
autre base orthonormée. Donc pour trouver une telle matrice U il suffit de faire un change-
ment des éléments de la base en permutant les vecteurs de la base de tel manière à avoir
(b) Si dn,n = 0, alors tous les éléments diagonaux de U sont nuls, dans ce cas on peut prendre la
matrice In qui est orthogonale.
(c) i. On a t 0 0
t P 0 P 0
Pα Pα = tA = In .
0 α 0 Aα
Donc Pα est orthogonale.
ii.
2p−1
X
(Pα |D) = (−1)k εk dkk + (ε2p d2p,2p + ε2p+1 d2p+1,2p+1 ) cos α
k=1
+(ε2p+1 d2p+1,2p − ε2p d2p,2p+1 ) sin α
2p−1
X
= (−1)k |dkk | + (|d2p,2p | + |d2p+1,2p+1 |) cos α
k=1
+(ε2p+1 d2p+1,2p − ε2p d2p,2p+1 ) sin α
Il suffit donc de prendre a = |d2p,2p | + |d2p+1,2p+1 | > 0, b = ε2p+1 d2p+1,2p − ε2p d2p,2p+1 et
2p−1
X
c= (−1)k |dkk |.
k=1
√ c
iii. Si |c| ≤ a, alors nécessairement |c| ≤ a2 + b2 , et donc l’équation sin (α + β) = √
a2 + b2
en α admet des solutions dans R.
iv. Montrons la propriété par récurrence sur p. Pour p = 1, l’inégalité devient
a1 ≤ a2 + a3
ce qui est bien vérifie, car (an )n est positive et croissante. Supposons la propriété vraie à
l’ordre p. Alors
2p+1
X 2p−1
X
k−1
(−1) ak = (−1)k−1 ak − a2p + a2p+1
k=1 k=1
≤ a2p + a2p+1 − a2p + a2p+1
≤ 2a2p+1
≤ a2p+2 + a2p+3
donc l’inégalité est vraie à l’ordre p + 1. Elle est donc vraie pour tout p ∈ N∗ .
v. D’après la question iii.
2p−1
X
|c| = (−1)k |dkk | ≤ |d2p,2p | + |d2p+1,2p+1 | = |a|
k=1