Vous êtes sur la page 1sur 6

Un corrigé du CNC 2017 Maths-2- Filière MP

Mr : HAMANI Ahmed

Partie I
Étude de quelques normes sur Mn (K)

1. ∀A, B ∈ Mn (K), kABk∞ ≤ kAk∞ kBk∞


n
X n
X
Pour tous i, j, (AB)i,j = ai,k bk,j , donc |(AB)i,j | ≤ |ai,k ||bk,j | ≤ nkAk∞ kBk∞
k=1 k=1
et la passage au max entraine que kABk∞ ≤ nkAk∞ kBk∞ .
 
X
2. (a) N (X) ≤  N (Eij ) kXk∞ .
1≤i,j≤n
X
Soit X = xi,j Eij , du fait que ∀i, j, |xi,j | ≤ kXk∞ , on obtient,
i,j
 
X X
N (X) ≤ |xi,j |N (Eij ) ≤ N (Eij ) kXk∞ .
i,j 1≤i,j≤n
X
Posons pour la suite k = N (Eij ).
1≤i,j≤n

(b) i. N : (Mn (K), k.k∞ ) −→ (R, |.|) est continue.


Soit X, Y ∈ Mn (K), |N (X) − N (Y )| ≤ N (X − Y ) ≤ kkX − Y k∞ , donc N est k−lipchitzienne et par
suite elle est continue.
ii. Existence de X0 tel que ∀X ∈ S∞ , N (X0 ) ≤ N (X).
L’application N est continue sur la sphère S∞ qui est compacte comme fermé borné en dimension
finie, donc N est bornée et atteint sa borne inférieure sur S∞ , ce qui assure l’existence de X0 ∈ S∞
tel que min N (X) = N (X0 ), et par suite ∀X ∈ S∞ , N (X) ≥ N (X0 ).
X∈S∞

iii. Existence de α > 0 tel que αk.k∞ ≤ N .  


X X
Soit X ∈ Mn (K) non nul, alors ∈ S∞ , donc N ≥ N (X0 ) et par suite
kXk∞ kXk∞
∀X ∈ Mn (K) \ {0}, N (X) ≥ N (X0 )kXk∞ inégalité encore vérifiée pour X = On .
α = N (X0 ) est strictement positif du fait que kX0 k∞ = 1.
(c) Toutes les normes sont équivalentes sur Mn (K).
Soit N une norme sur Mn (K), on vient de montrer que αk.k∞ ≤ N ≤ kk.k∞ , donc toute norme N est
équivalente à k.k∞ et par transitivité, toutes les normes seront équivalentes sur Mn (K).
3. (a) Existence de β > 0 tel que N (AB) ≤ nβkAk∞ kBk∞ .
N ∼ k.k∞ , donc ∃β > 0 tel que N ≤ βk.k∞ , ce qui donne par l’inégalité de la question 1,
∀A, B ∈ Mn (K), N (AB) ≤ βkABk∞ ≤ nβkAk∞ kBk∞ .
(b) Existence de α.
De la question c, qui précède, on αk.k∞ ≤ N , donc avec l’inégalité précédente, on aura ∀A, B ∈ Mn (K),
β
N (AB) ≤ n 2 N (A)N (B).
α
(c) Existence de γ > 0 tel qie γN est une norme sous-multiplicative.

Le réel γ = 2 répond à la question.
α
4. (a) i. Existence de kAk.
L’application X 7−→ AX est continue comme application linéaire en dimension finie, donc ∃k > 0 tel
N (AX)
que ∀X ∈ Mn (K), N (AX) ≤ kN (X), donc l’application X 7−→ est bornée sur Mn (K)\{0},
N (X)
ce qui assure l’existence de kAk.
ii. kAk = sup N (AX).
X/N (X)=1
Notons SN la sphère unité associée à N .
L’inclusion SN ⊂ Mn (K) \ {0} entraine que sup N (AX) ≤ kAk.
X∈SN

1
X N (AX)
Réciproquement si X ∈ Mn (K) \ {0}, Y = ∈ SN , donc = N (AY ) ≤ sup N (AX),
N (X) N (X) X∈SN
ce quin donne par passage au sup, kAk ≤ sup N (AX).
X∈SN
iii. k.k est une norme sur Mn (K).
- Soit A ∈ Mn (K) tel que kAk = 0, alors ∀X ∈ Mn,1 (K), AX = 0, en particulier Aei = 0 pour tout
vecteur de la base canonique de Mn,1 (K), donc les colonnes de A sont nulles, et par suite A = On .
- Soit A ∈ Mn (K) et λ ∈ K, alors kλAk = sup {N (λAX)} = sup {|λ|N (X)} = |λ| sup {N (AX)} =
X∈SN X∈SN X∈SN
|λ|kAk.
- Soit A, B ∈ Mn (K), alors ∀X ∈ SN , N ((A + B)X) = N (AX + BX) ≤ N (AX) + N (BX) ≤
kAk + kBk et par passage au sup, on obtient kA + Bk ≤ kAk + kBk.
(b) i. ∀A ∈ Mn (K), X ∈ Mn,1 (K), N (AX) ≤ kAkN (X).
X N (AX)
Soit X ∈ Mn,1 (K) \ {0}, alors Y = ∈ SN , donc = N (Y ) ≤ kAk et par suite
N (X) N (X)
N (AX) ≤ kAkN (X), inégalité encore vraie pour X = 0, on conclut que N (AX) ≤ kAkN (X).
ii. Déduire que ∀A, B ∈ Mn (K), kABk ≤ kAkkBk.
Pour tout X ∈ Mn,1 (K), N (ABX) ≤ kAkN (BX) ≤ kAkkBkN (X), donc
N (ABX)
kABk = sup ≤ kAkkBk.
X6=0 N (X)
Partie II
Suites de matrices
(m)
1. (Am )m converge vers A ssi, (ai,j )m converge vers ai,j pour tous i, j.
(m) (m)
lim Am = A ssi, kAm − Ak∞ −→ 0 ssi, max |ai,j − ai,j | −→ 0 ssi, ∀i, j, |ai,j − ai,j | −→ 0 ssi, ∀i, j,
i,j
(m)
ai,j −→ ai,j .
2. (a) Existence de Cmret θm .
α2 1 α2 /m2 π π 1
On pose Cm = 1 + 2 , on a 2 + 2
= 1, donc ∃θm ∈] − , [ tel que = cos(θm ) et
m C
 m C m  2 2 Cm
α/m cos(θm ) −sin(θm )
= sin(θm ), d’où Am = Cm = Cm R(θm )
Cm sin(θm ) cos(θm )
 
cos(θ) −sin(θ)
où on a posé pour θ ∈ R, R(θ) =
sin(θ) cos(θ)
(b) La limite de (Am
m )m .
α2 α2
  
m 1 α
Am
m = m
Cm or
R(mθm ), = exp m
Cm ln(1 + 2 ) = exp( + o( )) −→ 1 et θm = arcsin ∼
2 m 2m m mCm
α
∼ α, donc par continuité des fonctions cosinus et sinus, on obtient Am
m −→ R(α).
Cm
Partie III
Séries de matrices
X X (m)
1. Am converge ssi, ∀i, j, ai,j converge.
m m
(m)
X X
Sm = Ak , donc ∀i, j, (Sm )i,j = ai,j et la question 1 de la partie II assure l’équivalence
k=0 k=0
(m)
X X
Am converge ssi, ai,j pour tous i, j.
m m
2. Toute série absolumentX convergente est convergente.
(m)
X (m)
∀i, j, |ai,j | ≤ kAm k∞ et kAm k∞ converge, donc par comparaison, ∀i, j, |ai,j | converge et puisque
X (m)m X m
K est complet ∀i, j, ai,j converge, c’est à dire Am converge.
m m
X
m
3. Si la série A converge, sa somme est inversible d’inverse In − A.
m
+∞
X
Soit B = Am , alors par continuité de l’application M 7−→ AM , comme application linéaire en dimension
m=0
+∞
X +∞
X
m+1
finie, on obtient AB = A = Am = B − In , donc
m=0 m=1
(In − A)B = In , donc B est inversible d’inverse In − A.

2
X
4. (a) Convergence de B m est valeur de sa somme.
m        
1 1 1 1 1 1
χB = (X − 1/2)(X + 1/3), de plus B et B =− , donc
1 2 1 2 3 2
 
1 1
B = P.diag(1/2, −1/3).P −1 et par suite B m = P.diag ( )m , (− )m .P −1 et par continuité de l’appli-
2 3  
−1
X
m 3 13/4 −5/4
cation M 7−→ P M P , la série B converge de somme P.diag(2, ).P −1 = .
4 5/2 −1/2
m
+∞
X
(b) Inverse de la série Bm.
m=0  
−9/4 5/4
Son inverse est In − B = .
−5/2 3/2
Partie IV
Exponentielle d’une matrice
X 1
1. La série Am est convergente.
m
m!
1 m 1 X 1
k.k est sous-multiplicative, donc ∀m ≥ 1, k A k≤ kAkm et lasérie kAkm converge vers ekAk ,
m! m! m
m!
X 1
donc par comparaison la série Am est convergente comme série absolument convergente.
m
m!
2. Calcul de exp(S) en fonction de In et de S.
+∞ +∞ +∞ +∞
X 1 X 1 X 1 X 1
exp(S) = S 2m + S 2m+1 = In + S = ch(1)In + sh(1)S.
m=0
(2m)! m=0
(2m + 1)! m=0
(2m)! m=0
(2m + 1)!
3. (a) Si AB = BA, alors exp(A + B) = exp(A)exp(B).
m +∞
X 1 k X 1 k
Notons Sm (A) = A pour une matrice A ∈ Mn (K) et S∞ = A pour sa somme.
k! k!
k=0 k=0
La condition AB = BA nous permet
 d’utiliser
 la formule du binôme et on le calcul suivant :
m m
! m k
X 1 j X 1 k X 1 X j j k−j
Sm (A)Sm (B) − Sm (A + B) =  A B − C A B =
j=0
j! k! k! j=0 k
k=0 k=0
  ! m m  
m m m m m
X 1 X 1 XX 1 1 X 1 X 1 X 1
= Aj  Bk − Aj B k−j = Aj  Bk − B k−j  =
j=0
j! k! j=0
j! (k − j)! j=0
j! k! (k − j)!
k=0 k=j k=0 k=j
m m−j
X 1
X 1
Aj B k , donc kSm (A)Sm (B) − Sm (A + B)k ≤ Sm (kAk)Sm (kBk) − Sm (kAk + kBk) −→
j=0
j! k!
k=0
−→ ekAk ekBk − ekAk+kBk = 0 et par suite S∞ (A + B) = S∞ (A)S∞ (B), c’est à dire exp(A + B) =
exp(A)exp(B).
(b) exp(A) est inversible d’inverse exp(−A).
la formule précédente entraine que exp(−A)exp(A) = exp(On ) = In , donc exp(A) est inversible d’in-
verse exp(−A).
4. (a) Exponetielle d’une matrice diagonale.
 
1 1 m 1 m
(diag(α1 , ..., αn ))m = diag α1 , ..., αn , les séries composantes sont convergentes, donc
m! m! m!
exp(diag(α1 , ..., αn )) = diag(eα1 , ..., eαn ).
(b) exp(P −1 AP ) = P −1 exp(A)P .
+∞ +∞
X 1 X
exp(P −1 AP ) = (P −1 AP )m = P −1 Am P et par continuité de l’application M 7−→ P −1 M P ,
m=0
m! m=0
+∞
X 1 m
on aura exp(P −1 AP ) = P −1 ( A )P = P −1 exp(A)P .
m=0
m!
(c) Exponentielle d’une matrice triangulaire.
 1 

t1,1 (∗)
 tm (∗∗)  t
e 1,1 ()

m! 1,1
.. 1 m  
..

..
Soit T =  , alors T = , donc exp(T ) =  .
    
. m! . .
1 m
 
O tn,n O t O etn,n
m! n,n

3
(d) det(exp(A)) = etr(A) .
Soit A ∈ Mn (C), alors A est trigonalisable dans C et par suite ∃T = (ti,j )i,j triangulaire supérieure
et P ∈ GLn (C) tel que A = P T P −1 , donc exp(A) = P exp(T )P −1 d’où det(exp(A)) = det(exp(T )) =
Yn Pn
eti,j = e i=1 ti,i = etr(T ) = etr(A) .
i=1
5. Calcul de exp(tA).
χA = (X − 2)3 , donc par Cayley-Hamilton A − 2I3 est nilpotente.  
2 1 + 2t t t
t
exp(tA) = exp(2tI3 ).exp(t(A−2I3 )) = e2t (I3 +t(A−2I3 )+ (A−2I3 )2 ) = e2t  6t + 2t2 1 + 2t + t2 2t + t2 .
2!
−10t − 2t2 −4t − t2 1 − 4t − t2

Partie V
Application aux systèmes différentiels linéaires

1. f est de classe C 1 et f 0 (t) = M f (t) = f (t)M .


+∞ m
X t
∀t ∈ R, f (t) = M m.
m=0
m!
tm m
- ∀m ∈ N, t 7−→ M est de classe C 1 sur R comme fonction à composantes polynômiales.
X tm m!
- La série M m converge siplement vers exp(tM ) sur R.
m
m!
tm−1 am−1
- Soit K un compact inclu dans I, alors K ⊂ [−a, a], donc ∀t ∈ K, m ∈ N∗ , k M mk ≤ kM km ,
(m − 1)! (m − 1)!
X  tm 0
m
et par suite la série M converge normalement sur tout compact inclu dans I.
m
m!
On conclut par le théorème de dérivation terme à terme que f est de classe C 1 sur R et on ∀t ∈ R,
f 0 (t) = M exp(tM ) = exp(tM )M .
2. (a) Changement de variable convenable.
Le changement z(t) = exp(−tA)Y (t) donne l’équivalence.
(b) Solutions du système (S).
Z t
Y 0 = AY + B ssi, z 0 (t) = exp(−tA)B(t) ssi, z(t) = exp(−uA)B(u)du + v ssi,
Z t 0

Y (t) = exp((t − u)A)du + exp(tA)v.


0
3. Solution générale du système Y 0 = AY où A diagonalisable.
Xn
v= αi Vi , donc en prennant B = 0 dans la formule précédente, on obtient
i=1
n
X n
X
Y (t) = exp(tA) αi Vi = αi exp(tA)Vi , or Am Vi = λm
i Vi , donc exp(tA)Vi = e
tλi
Vi ,
i=1 i=1
n
X
ce qui donne Y (t) = αi exp(tλi )Vi .
i=1
4. Résolution du système.
0
Notre système est équivalent
 Y (t) = AY (t), donc de solution    
1 + 2t t t 1 1 + 7t
Y (t) = exp(tA)Y (0) = e2t  6t + 2t2 1 + 2t + t2 2t + t2   2  = e2t  2 + 16t + 7t2 
2 2
−10t − 2t −4t − t 1 − 4t − t2 3 3 − 30t − 7t2

Partie VI
Toute matrice antisymétrique réelle est diagonalisable sur C

1. (a) (In , N, ..., N s−1 ) est libre.


Si (In , N, ..., N s−1 ) est liée, alors deg(ΠN ) ≤ s − 1, ce qui contredit ΠN = X s .
s−1 k
X t
(b) Expression de exp(t(λIn + N )) en fonction de λ, t et N k.
k!
k=0
s−1 k
X t
exp(t(λIn + N )) = exp(tλIn ).exp(tN ) = exp(tλ). N k.
k!
k=0

4
2. (a) N = A − λIn est nilpotente.
χA = (X − λ)n , donc d’après le théorème de Cayley-Hamilton, (A − λIn )n = 0 et par suite A − λIn est
nilpotente.
(b) Les solution de X 0 = AX sont bornées ssi, λ ∈ iR et A = λIn .
Les solutions de X 0 = AX sont X(t) = exp(tA)X(0) où X(0) ∈ Mn,1 (C).
 Si A = λIn et λ ∈ iR, alors la solution est X(t) = eλt X(0) et donc pour n’importe qu’elle norme k.k
sur Mn,1 (C) kX(t)k = kX(0)k, donc t 7−→ X(t) est bornée.
 Si t 7−→ X(t) est bornée pour tout X(0), alors le choix de X(0) ∈ Ker(N )\{0}, donne X(t) = eλt X(0)
est bornée, ce qui exige λ ∈ iR.
Choisissons maintenant X(0) ∈ / Ker(N s−1 ), alors
s−1 k
Xt |t|s−1
kX(t)k = |exp(λt)|k N k (X(0))k ∼ kN s−1 (X(0))k est bornée, ce qui exige s = 1, c’est à
k! +∞ (s − 1)!
k=0
dire N = 0 et par suite A = λIn .
On conclut que X est bornée sur R ssi, Re(λ) = 0 et A = λIn .
3. (a) Existence d’une base dans laquelle la matrice de f est diagonale par blocs.
Mq
Le lemme des noyaux entraine que Cn = Ker((f − λi id)ni ).
i=1
q
[
Soit B = Bi une base adaptée à cette somme directe, alors la matrice de f dans cette base est de
i=1
 
A1
la forme : 
 ..  où Ai ∈ Mni (C) admmettant λi comme seule valeur propre.

.
Aq
(b) Condition nécessaire et suffisante de la bornitude des solutions de X 0 = AX. 
exp(tA1 )
0
Les solutions de X = AX sont X(t) = exp(tA)v où v ∈ Mn,1 (C), or exp(tA) = 
 .. .

.
exp(tAq )
etAi − λi Ini est nilpotente , donc d’après la question 2, t 7−→ exp(tAi ) est bornée ssi, λi est imaginaire
pure et Ai = λi Ini .
On conclut que t 7−→  ∀i ∈ {1, ..., q}, Re(λi ) = 0 et Ai = λi Ini ssi, la matrice de
exp(tA) est bornée ssi,
λ1 In1
f dans la base B est 
 ..  ssi, ∀i ∈ {1, ..., q}, Re(λi ) = 0 et A est diagonalisable.

.
λq Inq
4. Toute matrice antisymétrique réelle est diagonalisable dans C de spectre dans iR.
- L’antisymétrie de A entraine que T (exp(tA)) = exp(tT A) = exp(−tA) = (exp(tA))−1 , donc exp(tA) est
orthogonale.
On choisit une norme euclidienne sur Mn,1 (C) par exemple celle associée au produit scalaire usuel
(X|Y ) = T XY , donc exp(tA) conserve la norme, c’est à dire kX(t)k2 = kexp(tA)X(0)k2 = kX(0)k2 , ce qui
assure la bornitude de t 7−→ exp(tA) et par la question précédente, A est diagonalisable et Sp(A) ⊂ iR.

Partie VII
Quelques transformations induites par l’exponentielle matricielle

1. (a) Existence des polynômes P et Q.


s−1 s−1
X 1 k X (−1)k−1 k
∀k ≥ s, N k = 0, donc exp(N ) = N et ln(In + N ) = N , donc
k! k!
k=0 k=1
s−1 s−1
X 1 k X (−1)k−1 k
P = X et Q = X .
k! k!
k=0 k=1
(b) Développement limité en 0 de P oQ et Qo(P − 1).
Au voisinage de 0, ex = P (x) + o(xs−1 ) et ln(1 + x) = Q(x) + o(xs−1 .
- lim Q(x) = 0, donc P (Q(x)) = eQ(x) + o((Q(x))s−1 ), or (Q(x))s−1 ∼ xs−1 , donc o((Q(x))s−1 ) =
0
s−1
o(xs−1 ), de plus eQ(x) = eln(1+x)+o(x ) = 1 + x + o(xs−1 ), d’où P (Q(x)) = 1 + x + o(xs−1 ).
- lim P (x) = 1, donc Q(P (x) − 1) = ln(P (x)) + o((P (x) − 1)s−1 ), or (P (x) − 1)s−1 ∼ xs−1 et
0
ln(P (x)) = ln(ex + o(xs−1 )) = x + ln(1 + e−x o(xs−1 )) = x + o(xs−1 ), d’où Q(P (x) − 1) = x + o(xs−1 ).‘
(c) exp est bijective de Nn (K) vers Un (K).
- L’application exp : Nn (K) −→ Un (K) est bien définie, en effet soit N ∈ Nn (K), alors

5
s−1
X 1 k
exp(N ) = In + N = In + N 0 avec N 0 nilpotente comme somme de matrices nilpotentes qui
k!
k=1
commutent entre elles.
- La question précédente confirme que P (Q(X)) = 1+X +X s−1 R(X) et Q(P (X)−1) = X +X s−1 S(X)
avec R(0) = S(0) = 0, ce qui donne en remplaçant X par N , P (Q(N )) = In + N et Q(P (N ) − In ) = N .
- Soit M = In + N ∈ Un (K), alors exp(ln(M )) = exp(ln(In + N )) = P (Q(N )) = In + N = M .
- Soit N ∈ Nn (K), alors ln(exp(N )) = ln(exp(N ) − In + In ) = Q(P (N ) − In ) = N .
On conclut donc que exp est une bijection de Nn (K) vers Un (K) de bijection réciproque
s−1
X (−1)k
ln : Un (K) −→ Nn (K) définie par ∀M ∈ Un (K), ln(M ) = (M − In )k .
k!
k=1
2. (a) exp est une surjection de V vers W .
1
Soit M = β(In + N ) ∈ W , alors M ∈ Un (C), donc d’après la question précédente, ∃N 0 ∈ Nn (C) tel
β
1 0
que exp(N 0 ) = M mais exp : C 7−→ C∗ est surjective, d’où l’existence de β 0 ∈ C tel que β = eβ et par
β
suite exp(β 0 In + N 0 ) = βexp(N 0 ) = M , ce qui montre que β 0 In + N 0 ∈ V est un antécédent de M dans
V.
(b) exp est-elle injective de V vers W ?
Soit θ ∈ 2πZ et A = iθIn ∈ V , alors exp(A) = In = exp(On ) mais A 6= On , donc exp n’ext pas injective.
3. exp est une surjection de Sn (R) vers Sn++ (R).
- Montrons d’abord qu’une valeur propre d’une matrice de Sn++ (R) est dans R∗+ .
Soit A ∈ Sn++ (R) et λ ∈ Sp(A), alors ∃X ∈ Mn,1 (R) \ {0} tel que AX = λX, donc t XAX = λt XX, d’où
t
XAX
λ= X > 0.
X
- Soit M ∈ Sn++ (R), alors la théorème spectral assure l’existence de P ∈ On (R) et D = diag(λ1 , ..., λn ) tel
que M = P DP −1 avec les λi dans R∗+ .
exp : R −→ R∗+ étant bijective, donc ∀i ∈ {1, ..., n}, λi = eµi où µi ∈ R.
On a alors M = exp(P ∆P −1 ) = exp(P ∆t P ) avec ∆ = diag(µ1 , ..., µn ). Alors S = P ∆t P ∈ Sn (R) et
M = exp(S).

Vous aimerez peut-être aussi