Note : l’énoncé nous invite tacitement à identifier Mn,1 (R) et Rn , ce que nous ferons donc.
Préliminaire
p
n X
X
1) (A|B) = ai,j × bi,j .
i=1 j=1
Première partie
– Par antisymétrie, nous en déduisons que rg(S) = rg(A), et comme Im(S) ⊂ Im(A), alors
Im(S) = Im(A).
1
b) Puisque AAT u = Su = λu 6= 0, on a nécessairement AT u 6= 0, donc v 6= 0.
Par ailleurs, par définition de v on a
√
e = √1 AT AAT u = λAT u = λv.
Sv
λ
Enfin, on a
1 T T T 1
kvk22 =
(A u) (A u) = uT Su = kuk22 .
λ λ
Comme ces deux nombres sont positifs, on a bien kvk2 = kuk2 .
6) a) Par le théorème spectral, S est diagonalisable dans une base de Rn orthonormée. Fixons une telle
base (u1 , . . . , un ), et notons λ1 , . . . , λn ∈ R+ les valeurs propres associées. Quitte à permuter les uj ,
supposons qu’on a
λ1 ≥ . . . ≥ λn ≥ 0.
Par le théorème du rang, le sous-espace propre de S associé à la valeur propre 0 est de dimension
n − k. Autrement dit, on a
λ1 ≥ . . . ≥ λk > 0 = λk+1 = . . . = λn .
En particulier, on a U T U = Ik (on aurait aussi pu le voir par le fait que la famille (u1 , . . . , uk ) est
orthonormale). Par ailleurs, puisque P × diag(λ1 , . . . , λn ) × P T = S, un nouveau produit par blocs
montre que
Å ã Ç Tå
Λ 0 U
(U ∗) × × = U ΛU T = S.
0 0 ∗
Enfin, d’après 5.b), chaque vj est un vecteur propre de Se pour la valeur propre λj . En appliquant
5.a) à AT et S,
e on obtient que
e = rg(AT ) = rg(A) = k.
rg(S)
2
e = p − k. Comme les sous-espaces propres de Se sont
Donc par le théorème du rang, on a dim(Ker(S))
en somme directe orthogonale (car Se est symétrique), on peut concaténer (v1 , . . . , vk ) avec une base
e pour obtenir une base orthonormale de Rp notée (v1 , . . . , vp ). Puis le même
orthonormale de Ker(S)
raisonnement qu’en a) montre que Se = V ΛV T .
Note : si on ne voulait pas réutiliser les questions précédentes, on pouvait aussi rédiger une démons-
tration autonome qui fonctionnait très bien.
7) On a U ΣV T = U ΣDT U T A = U U T A.
Or U U T est la matrice d’un projecteur sur Im(U ). Par ailleurs, 6.b) montre que Im(U ) = Im(S), et 5.a)
montre que Im(S) = Im(A). Donc U U T induit l’identité sur Im(A), si bien que U U T A = A.
Deuxième partie
8) ‹V
a) Par le théorème de Pythagore, il suffit de vérifier que A − AV ‹T et AV
‹V‹T sont orthogonaux au sens
de h·, ·iF . Or on a
‹V
hA − AV ‹T , AV
‹V‹T iF = ‹V
Tr((AT − V ‹T AT )AV‹V
‹T )
‹V
= Tr(AT AV ‹T ) − Tr(V
‹V‹ T AT AV‹V‹T )
‹V
= Tr(AT AV ‹T ) − Tr(AT AV‹V‹T ‹ ‹T
| {zV} V )
=I`
= 0.
b) Cette fois, on a
‹V
kAV ‹T k2F ‹V
= Tr(V ‹ T AT AV
‹V‹T )
‹V
= Tr(V ‹T V ΣT U T U ΣV T V
‹V‹T )
‹V
= Tr(V ‹ T V Σ2 V T V
‹V‹T )
‹V
= Tr(Σ2 V T V ‹T V
‹V ‹T V )
= Tr(Σ2 V T V ‹V
‹T V )
‹V
= hΣ2 , V T V ‹ T V iF .
k `
!
‹)h,m (V
‹T V )m,h
X X
= λh (V T V
h=1 m=1
k `
!
T‹ 2
X X
= λh (V V )h,m .
h=1 m=1
3
• De plus, on a
`
X k
X ` X
X ` k
X `
X
bj − ai = `− hvj , vem i22 − hvi , vem i22
j=1 i=`+1 j=1 m=1 i=`+1 m=1
` X
X k
= `− hvj , vem i22 .
m=1 j=1
Soit m ∈ J1, `K. Rappelons qu’en 6.c), on a complété (v1 , . . . , vk ) en une base orthonormale
(v1 , . . . , vp ). On a alors
` X
X k X p
` X `
X
hvj , vem i22 ≤ hvj , vem i22 = vm k22 = `,
ke
m=1 j=1 m=1 j=1 m=1
` ` k
!
X X X
= λh − λj bj − λi ai .
h=1 j=1 i=`+1
k k
X X
λ a
i i ≤ λ` ai
i=`+1 i=`+1
puis !
`
X k
X `
X k
X
λj bj − λi ai ≥ λl × bj − ai .
j=1 i=`+1 j=1 i=`+1
k ` `
‹V‹ T k2 ≤
X X X
Et comme ai ≤ bj et λ` ≥ 0, alors kAV F λh .
i=`+1 j=1 h=1
• Il y a égalité ssi
X` X`
λ b = λ` bj
j j
j=1 j=1
X k k
X
λi ai = λ` ai
i=`+1 i=`+1
!
X ` Xk
λ × bj −
ai = 0
l
j=1 i=`+1
ssi
X`
(λj − λ` )bj = 0
j=1
k
X
(λ` − λi ) ai = 0
| {z } |{z}
i=`+1 ≥λ` −λ`+1 >0 ≥0
X k X`
a = bj (car λl > 0)
i
i=`+1 j=1
4
La deuxième ligne du système implique que tous les ai sont nuls. Conjointement avec les autres
lignes du système, on en déduit qu’il y a égalité ssi
∀j ∈ J1, `K, bj = 0
∀i ∈ J` + 1, kK, ai = 0
ssi
‹)⊥ ⊥ = Im(V
‹)
v`+1 , . . . , vep }⊥ = Vect({e
∀j ∈ J1, `K, vj ∈ {e
v`+1 , . . . , vep })⊥ = Im(V
ssi
‹
Vect({v1 , . . . , v` }) ⊂ Im(V )
‹)⊥
Vect({v`+1 , . . . , vk }) ⊂ Im(V
– Supposons que
‹
Vect({v1 , . . . , v` }) ⊂ Im(V )
‹)⊥
Vect({v`+1 , . . . , vk }) ⊂ Im(V
kA − M k2 = kA − AP + AP − M P k2
= kA − AP k2 + kAP − M P k2
= kA − AP k2 + kAP − M k2
≥ kA − AP k2
k
X
Un calcul essentiellement direct donne kAk2 = λh donc d’après les questions, 8a et 9b,
h=1
k
X
kA − M k2 ≥ λh
h=`+1
5
‹).
Alors, d’après la démonstration de l’inégalité, M = AP et P est la projection orthogonale sur Im(V
‹
Mais, d’après la question 9b, Im(V ) = Vect((v1 , ..., v` )).
Notons P0 la projection orthogonale sur Vect((v1 , ..., v` )).
Alors M = AP0 ce qui achève, sous réserve d’existence, la démonstration de l’unicité d’un point M
Xk
en lequel kA − M k2 = λh .
h=`+1
Il reste à vérifier que U∗ Σ∗ V∗T convient.
Écrivons U, Σ et V parÅblocs : ã
Σ∗ 0
U = U∗ U1 Σ = et V = V∗ V1 .
0 Σ1
Un calcul par blocs donne alors A = U ΣV T = U∗ Σ∗ V∗T + U1 Σ1 V1T .
Xk
Donc kA − U∗ Σ∗ V∗T k2 = kU1 Σ1 V1T k2 = λh car U1T U1 = V1T V1 = Ik−` .
h=`+1
Il reste à constater que rg(U∗ Σ∗ V∗T ) = ` (démonstration similaire à celle de la question 13b).
Conclusion : le cas d’égalité est réalisé si et seulement si M = U∗ Σ∗ V∗T .
Troisième partie
Å ã
X1
10) a) Soit x ∈ Ker(MV,W ). On présente x par blocs : x = avec X1 ∈ Mk,1 (R) et X2 ∈ Mp,1 (R).
X2
MV,W x = 0 donc V X1 + X2 = 0 et W T X2 = 0.
Donc W T V X1 + W T X2 = 0 puis W T V X1 = 0.
Par inversibilité de W T V , on en déduit X1 = 0 puis X2 = −V X1 = 0.
Ainsi, Ker(MV,W ) ⊂ {0}.
Conclusion : MV,W est inversible .
b) • Prouvons déjà l’indication. Soit donc z ∈ Im(W )⊥ . On a
kW T zk22 = z T W T
{z z} = 0,
| W
∈Im(W )
Ç å
Ik
= V 0p × ×x
0p,k
= Vx
= z.
6
• Maintenant, soit z ∈ Im(W )⊥ . On a
Ç å
−1 Ip
PV,W z = V 0p × MV,W × ×z
0k,p
Ç å
−1 z
= V 0p ×MV,W ×
| {z } 0k,1
=(V (W T V )−1 W T −V (W T V )−1 )×MV,W
= V (W T V )−1 W T z
= 0
11) Dans la suite, nous utilisons régulièrement le fait que la forme coordonnée qui à une matrice associe l’un
de ses termes est une application continue. C’est immédiat, puisqu’une telle forme coordonnée est une
application linéaire, et qu’on travaille en dimension finie.
GLq (R) est un ouvert, car c’est l’image réciproque de R? par l’application M 7→ det(M ), qui est continue
car polynomiale en les coefficients de M . Puis la formule de la comatrice montre que, lorsque M est
inversible, les coefficients de M −1 s’écrivent comme des fonctions rationnelles en les coefficients de M .
Chaque terme de M −1 est donc continu en les coefficients de M , ce qui suffit à conclure.
12) Posons ϕ : W 7→ W T V . C’est une application linéaire, donc elle est continue. Or ϕ(V ) ∈ GLk (R), qui
est ouvert. Donc pour W suffisamment proche de V , on a ϕ(W ) ∈ GLk (R).
Puis l’application W 7→ MV,W est évidemment continue sur V (chaque coefficient de MV,W étant polyno-
−1
mial en les coefficients de W ), si bien que par composition, l’application W 7→ MV,W est continue. Enfin,
l’application Ç å
Ip
M 7→ V 0p × M ×
0k,p
est continue car linéaire. On conclut à nouveau par composition.
Quatrième partie
T
γ 0 (0) = U ΣV T + U ΣV T + U ΣV
7
14) a) D’après la question précédente et par définition d’un vecteur tangent, tout vecteur qui s’écrit sous la
T
forme U ΣV T + U ΣV T + U ΣV est vecteur tangent à Mn,p k
(R) en A donc a fortiori,
k
tout vecteur de TA est un vecteur tangent à Mn,p (R) en A .
T T
Notons F =®{U ∈ Mn,k (R)|U U = 0k } et G = {V ∈ Mp,k (R)|V V = 0k }.
F × Mk (R) × G → Mn,p (R)
Posons ϕ : T .
(U , Σ, V ) 7→ U ΣV T + U ΣV T + U ΣV
F et G sont bien deux sous-espaces vectoriels respectivement de Mn,k (R) et de Mp,k (R).
ϕ est bien définie et linéaire, d’image TA .
Donc TA est un sous-espace vectoriel de Mn,p (R) .
Montrons maintenant que ϕ est injective.
Soit (A, B, C) ∈ Ker(ϕ).
Alors AΣV T + U BV T + U ΣC T = 0n,p .
On multiplie à droite par V et on exploite que C T V = 0 et V T V = Ik :
AΣ + U B = 0.
On multiplie à gauche par U T et on note que AT U = 0 donc U T A = 0 et U T U = Ik .
B = 0.
On réinjecte dans ce qui précède pour obtenir AΣ = 0 puis A = 0 par inversibilité de Σ.
On réinjecte encore : U ΣC T = 0. On multiplie à gauche par Σ−1 U T : C T = 0 puis C = 0.
ϕ est donc injective.
Ainsi, d’après la formule du rang, dim(TA ) = dim(F ×Mk (R)×G) = dim(F )+dim(Mk (R))+dim(G)
On sait queßdim(Mk (R)) = k 2 .
Mn,k (R) → Mk,k (R)
Posons f : .
M 7→ M T U
f est bien définie, linéaire et F = Ker(f ).
Or f est surjective. En effet, si A ∈ Mk,k (R), on peut poser B = U AT .
On a B ∈ Mn,k (R) et f (B) = B T U = AU T U = A.
D’après la formule du rang, dim(F ) = dim(Mn,k (R)) − dim(Mk,k (R)) = k(n − k).
De même, dim(G) = k(p − k).
Conclusion : dim(TA ) = k(n − k) + k(p − k) + k 2 = np − (n − k)(p − k)
b) Commençons par montrer que NA ⊂ TA⊥ .
Soit X ∈ NA et (B, C, D) ∈ F × Mk,k (R) × G.
Posons M = BΣV T + U CV T + U ΣDT et notons que X T U = XV = 0 donc V T X T = 0.
On calcule : X T M = X T BΣV T .
Donc (X|M ) = Tr(X T M ) = Tr(X T BΣV T ) = Tr(BΣV T X T ) = 0
Conclusion : NA ⊂ TA⊥ .
Vérifions l’égalité des dimensions, i.e. que dim(NA ) = dim(Mn,p (R)) − dim(TA ) = (n − k)(p − k).
U et V sont deux matrices de rang k à k colonnes. Å ã Å ã
Ik Ik
Il existe donc P, Q, R, S des matrices inversibles telles que U = P Q et V = R S.
0n−k,k 0p−k,k
T
Soit X ∈ Mn,p (R) et Y = P Å XR. ã
B C
On écrit Y par blocs : Y = ∈ Mn,p (R) avec B ∈ Mk,k (R).
D E
On a les équivalences suivantes :
X ∈ NA ⇔ XV = 0 et X T U = 0
Å ã Å ã
Ik Ik
⇔ P T XR = 0 et RT X T P =0
0p−k,k 0n−k,k
Å ã Å ã
Ik Ik
⇔Y et Y T =0
0p−k,k 0n−k,k
Å ã Å T ã
B B
⇔ = 0 et =0
D CT
Å ã
0k,k 0k,p−k
⇔Y =
0n−k,k E
Å ã
T −1 0k,k 0k,p−k
⇔ X = (P ) R−1
0n−k,k E
8
Å ã
0k,k 0k,p−k
La fonction E 7→ (P T )−1 R−1 permet donc de définir un isomorphisme de
0n−k,k E
Mn−k,p−k (R) vers NA .
On en déduit que dim(NA ) = dim(Mn−k,p−k (R)) = (n − k)(p − k).
Conclusion : NA est l’orthogonal de TA dans Mn,p (R) .
9
D’après le théorème du rang, dim(Im(V )∩Ker(A))
e = rg(V )−rg(A) e = k −k = 0 donc Im(V )⊕Ker(A) e
existe.
e = Im(W )⊥ donc Im(V ) ⊕ Im(W )⊥ existe (c’est un sev de Rp ).
Or, d’après la question 15(a), Ker(A)
⊥ eT ) = p
dim(Im(V ) ⊕ Im(W ) ) = rg(V ) + (p − rg(W )) = k + p − rg(A
Conclusion : Im(V ) ⊕ Im(W )⊥ = Rp .
Pour vérifier l’égalité matricielle demandée, il suffit de vérifier successivement :
∀x ∈ Im(V ), Ax
e = AV e V T PV,W x
⊥ e e V T PV,W x.
et ∀x ∈ Im(W ) , Ax = AV
Soit x ∈ Im(V ).
Il existe y ∈ Rk tel que x = V y.
e V T PV,W x = AV
AV e V Tx
e V TV y
= AV
= AV
e y
= Ax
e
Soit x ∈ Im(W )⊥ .
D’après 15(a), x ∈ Ker(A)
e et par définition du projecteur, x ∈ Ker(PV,W )
T
donc Ax
e = 0 = AV e V PV,W x.
Conclusion : A e V T PV,W .
e = AV
X = XV V T PV,W
= Y V V T PV,W
=Y
U T X = U T X − U T X − U T XV V T + U T XV V T
=0
10
Soit X ∈ Ker(f ) et Y ∈ Mn,p (R). Montrons que (X|f (Y )) = 0.
b) Soit B ∈ Mp (R).
Montrons que AB ∈ NA⊥ , ce qui suffira pour conclure.
Soit X ∈ NA . Notons que X T U = 0.
d) On calcule :
On peut choisir ε ∈ ]0, δ[ tel que ∀t ∈ ]−ε, ε[ , f (t) vérifie la condition (C) (d’après la question 15b).
Remarquons que ρA (A) = 0 d’après la question 18b.
Soit t ∈ ]0, ε[. On pose Wt = f (t)T U U T .
D’après la question 18d, kρA (f (t)) − ρA (f (0))k ≤ λkf (t) − f (0)k × kPV,Wt − PV,V k.
On
divise
Å par t etãon
exploite
l’homogénéité
de la norme et la linéarité de ρA :
ρA f (t) − f (0)
f (t) − f (0)
≤ λ
× kPV,W − PV,V k.
t
t
t
Par continuité des fonctions linéaires en dimension finie et continuité de la norme, le membre de gauche
converge vers kρA (f 0 (0))k quand t → 0+ .
11
f (t) − f (0)
t→ est bornée au voisinage de 0+ car f est dérivable en 0.
t
Il reste à montrer que kPV,Wt − PV,V k converge vers 0 quand t tend vers 0+ .
On commence par noter que Im(Wt ) = Im(f (t)T U V T ) = Im(f (t)T U ) = Im(f (t)T U Σ−1 ).
Donc PV,Wt est le projecteur sur Im(V ) parallèlement à Im(f (t)T U Σ−1 )⊥ .
Donc PV,Wt = PV,Ht en posant Ht = f (t)T U Σ−1 .
Par continuité du produit matriciel et de la transposition, f (t)T U Σ−1 tend vers AT U Σ−1 quand t → 0+ .
Or AT U Σ−1 = V ΣT U T U Σ−1 = V ΣΣ−1 = V .
On peut choisir η ∈ ]0, ε[ tel que ∀t ∈ [0, η[ , Ht ∈ V (V est défini dans la question 12).
t 7→ Ht est définie sur [0, η[, à valeurs dans V et continue en 0.
W 7→ PV,W est continue sur V.
Par composition, t 7→ PV,Ht est définie sur [0, η[ et continue en 0.
Donc PV,Wt tend vers PV,H0 quand t tend vers 0+ .
Or PV,H0 = PV,V car H0 = V .
Donc PV,Wt tend vers PV,V quand t tend vers 0+ .
Par pasage à la limite dans une inégalité dont tous les termes convergent, on en déduit kρA (f 0 (0))k ≤ 0
puis f 0 (0) ∈ Ker(ρA ) = NA⊥ = TA .
La question 13c a déjà démontré que tout vecteur de TA est un vecteur tangent.
k
Conclusion : TA est exactement l’ensemble des vecteurs tangents à Mn,p (R) en A
12