Académique Documents
Professionnel Documents
Culture Documents
Mr : HAMANI Ahmed
Partie I
Étude de quelques normes sur Mn (K)
1
X N (AX)
Réciproquement si X ∈ Mn (K) \ {0}, Y = ∈ SN , donc = N (AY ) ≤ sup N (AX),
N (X) N (X) X∈SN
ce quin donne par passage au sup, kAk ≤ sup N (AX).
X∈SN
iii. k.k est une norme sur Mn (K).
- Soit A ∈ Mn (K) tel que kAk = 0, alors ∀X ∈ Mn,1 (K), AX = 0, en particulier Aei = 0 pour tout
vecteur de la base canonique de Mn,1 (K), donc les colonnes de A sont nulles, et par suite A = On .
- Soit A ∈ Mn (K) et λ ∈ K, alors kλAk = sup {N (λAX)} = sup {|λ|N (X)} = |λ| sup {N (AX)} =
X∈SN X∈SN X∈SN
|λ|kAk.
- Soit A, B ∈ Mn (K), alors ∀X ∈ SN , N ((A + B)X) = N (AX + BX) ≤ N (AX) + N (BX) ≤
kAk + kBk et par passage au sup, on obtient kA + Bk ≤ kAk + kBk.
(b) i. ∀A ∈ Mn (K), X ∈ Mn,1 (K), N (AX) ≤ kAkN (X).
X N (AX)
Soit X ∈ Mn,1 (K) \ {0}, alors Y = ∈ SN , donc = N (Y ) ≤ kAk et par suite
N (X) N (X)
N (AX) ≤ kAkN (X), inégalité encore vraie pour X = 0, on conclut que N (AX) ≤ kAkN (X).
ii. Déduire que ∀A, B ∈ Mn (K), kABk ≤ kAkkBk.
Pour tout X ∈ Mn,1 (K), N (ABX) ≤ kAkN (BX) ≤ kAkkBkN (X), donc
N (ABX)
kABk = sup ≤ kAkkBk.
X6=0 N (X)
Partie II
Suites de matrices
(m)
1. (Am )m converge vers A ssi, (ai,j )m converge vers ai,j pour tous i, j.
(m) (m)
lim Am = A ssi, kAm − Ak∞ −→ 0 ssi, max |ai,j − ai,j | −→ 0 ssi, ∀i, j, |ai,j − ai,j | −→ 0 ssi, ∀i, j,
i,j
(m)
ai,j −→ ai,j .
2. (a) Existence de Cmret θm .
α2 1 α2 /m2 π π 1
On pose Cm = 1 + 2 , on a 2 + 2
= 1, donc ∃θm ∈] − , [ tel que = cos(θm ) et
m C
m C m 2 2 Cm
α/m cos(θm ) −sin(θm )
= sin(θm ), d’où Am = Cm = Cm R(θm )
Cm sin(θm ) cos(θm )
cos(θ) −sin(θ)
où on a posé pour θ ∈ R, R(θ) =
sin(θ) cos(θ)
(b) La limite de (Am
m )m .
α2 α2
m 1 α
Am
m = m
Cm or
R(mθm ), = exp m
Cm ln(1 + 2 ) = exp( + o( )) −→ 1 et θm = arcsin ∼
2 m 2m m mCm
α
∼ α, donc par continuité des fonctions cosinus et sinus, on obtient Am
m −→ R(α).
Cm
Partie III
Séries de matrices
X X (m)
1. Am converge ssi, ∀i, j, ai,j converge.
m m
(m)
X X
Sm = Ak , donc ∀i, j, (Sm )i,j = ai,j et la question 1 de la partie II assure l’équivalence
k=0 k=0
(m)
X X
Am converge ssi, ai,j pour tous i, j.
m m
2. Toute série absolumentX convergente est convergente.
(m)
X (m)
∀i, j, |ai,j | ≤ kAm k∞ et kAm k∞ converge, donc par comparaison, ∀i, j, |ai,j | converge et puisque
X (m)m X m
K est complet ∀i, j, ai,j converge, c’est à dire Am converge.
m m
X
m
3. Si la série A converge, sa somme est inversible d’inverse In − A.
m
+∞
X
Soit B = Am , alors par continuité de l’application M 7−→ AM , comme application linéaire en dimension
m=0
+∞
X +∞
X
m+1
finie, on obtient AB = A = Am = B − In , donc
m=0 m=1
(In − A)B = In , donc B est inversible d’inverse In − A.
2
X
4. (a) Convergence de B m est valeur de sa somme.
m
1 1 1 1 1 1
χB = (X − 1/2)(X + 1/3), de plus B et B =− , donc
1 2 1 2 3 2
1 1
B = P.diag(1/2, −1/3).P −1 et par suite B m = P.diag ( )m , (− )m .P −1 et par continuité de l’appli-
2 3
−1
X
m 3 13/4 −5/4
cation M 7−→ P M P , la série B converge de somme P.diag(2, ).P −1 = .
4 5/2 −1/2
m
+∞
X
(b) Inverse de la série Bm.
m=0
−9/4 5/4
Son inverse est In − B = .
−5/2 3/2
Partie IV
Exponentielle d’une matrice
X 1
1. La série Am est convergente.
m
m!
1 m 1 X 1
k.k est sous-multiplicative, donc ∀m ≥ 1, k A k≤ kAkm et lasérie kAkm converge vers ekAk ,
m! m! m
m!
X 1
donc par comparaison la série Am est convergente comme série absolument convergente.
m
m!
2. Calcul de exp(S) en fonction de In et de S.
+∞ +∞ +∞ +∞
X 1 X 1 X 1 X 1
exp(S) = S 2m + S 2m+1 = In + S = ch(1)In + sh(1)S.
m=0
(2m)! m=0
(2m + 1)! m=0
(2m)! m=0
(2m + 1)!
3. (a) Si AB = BA, alors exp(A + B) = exp(A)exp(B).
m +∞
X 1 k X 1 k
Notons Sm (A) = A pour une matrice A ∈ Mn (K) et S∞ = A pour sa somme.
k! k!
k=0 k=0
La condition AB = BA nous permet
d’utiliser
la formule du binôme et on le calcul suivant :
m m
! m k
X 1 j X 1 k X 1 X j j k−j
Sm (A)Sm (B) − Sm (A + B) = A B − C A B =
j=0
j! k! k! j=0 k
k=0 k=0
! m m
m m m m m
X 1 X 1 XX 1 1 X 1 X 1 X 1
= Aj Bk − Aj B k−j = Aj Bk − B k−j =
j=0
j! k! j=0
j! (k − j)! j=0
j! k! (k − j)!
k=0 k=j k=0 k=j
m m−j
X 1
X 1
Aj B k , donc kSm (A)Sm (B) − Sm (A + B)k ≤ Sm (kAk)Sm (kBk) − Sm (kAk + kBk) −→
j=0
j! k!
k=0
−→ ekAk ekBk − ekAk+kBk = 0 et par suite S∞ (A + B) = S∞ (A)S∞ (B), c’est à dire exp(A + B) =
exp(A)exp(B).
(b) exp(A) est inversible d’inverse exp(−A).
la formule précédente entraine que exp(−A)exp(A) = exp(On ) = In , donc exp(A) est inversible d’in-
verse exp(−A).
4. (a) Exponetielle d’une matrice diagonale.
1 1 m 1 m
(diag(α1 , ..., αn ))m = diag α1 , ..., αn , les séries composantes sont convergentes, donc
m! m! m!
exp(diag(α1 , ..., αn )) = diag(eα1 , ..., eαn ).
(b) exp(P −1 AP ) = P −1 exp(A)P .
+∞ +∞
X 1 X
exp(P −1 AP ) = (P −1 AP )m = P −1 Am P et par continuité de l’application M 7−→ P −1 M P ,
m=0
m! m=0
+∞
X 1 m
on aura exp(P −1 AP ) = P −1 ( A )P = P −1 exp(A)P .
m=0
m!
(c) Exponentielle d’une matrice triangulaire.
1
t1,1 (∗)
tm (∗∗) t
e 1,1 ()
m! 1,1
.. 1 m
..
..
Soit T = , alors T = , donc exp(T ) = .
. m! . .
1 m
O tn,n O t O etn,n
m! n,n
3
(d) det(exp(A)) = etr(A) .
Soit A ∈ Mn (C), alors A est trigonalisable dans C et par suite ∃T = (ti,j )i,j triangulaire supérieure
et P ∈ GLn (C) tel que A = P T P −1 , donc exp(A) = P exp(T )P −1 d’où det(exp(A)) = det(exp(T )) =
Yn Pn
eti,j = e i=1 ti,i = etr(T ) = etr(A) .
i=1
5. Calcul de exp(tA).
χA = (X − 2)3 , donc par Cayley-Hamilton A − 2I3 est nilpotente.
2 1 + 2t t t
t
exp(tA) = exp(2tI3 ).exp(t(A−2I3 )) = e2t (I3 +t(A−2I3 )+ (A−2I3 )2 ) = e2t 6t + 2t2 1 + 2t + t2 2t + t2 .
2!
−10t − 2t2 −4t − t2 1 − 4t − t2
Partie V
Application aux systèmes différentiels linéaires
Partie VI
Toute matrice antisymétrique réelle est diagonalisable sur C
4
2. (a) N = A − λIn est nilpotente.
χA = (X − λ)n , donc d’après le théorème de Cayley-Hamilton, (A − λIn )n = 0 et par suite A − λIn est
nilpotente.
(b) Les solution de X 0 = AX sont bornées ssi, λ ∈ iR et A = λIn .
Les solutions de X 0 = AX sont X(t) = exp(tA)X(0) où X(0) ∈ Mn,1 (C).
Si A = λIn et λ ∈ iR, alors la solution est X(t) = eλt X(0) et donc pour n’importe qu’elle norme k.k
sur Mn,1 (C) kX(t)k = kX(0)k, donc t 7−→ X(t) est bornée.
Si t 7−→ X(t) est bornée pour tout X(0), alors le choix de X(0) ∈ Ker(N )\{0}, donne X(t) = eλt X(0)
est bornée, ce qui exige λ ∈ iR.
Choisissons maintenant X(0) ∈ / Ker(N s−1 ), alors
s−1 k
Xt |t|s−1
kX(t)k = |exp(λt)|k N k (X(0))k ∼ kN s−1 (X(0))k est bornée, ce qui exige s = 1, c’est à
k! +∞ (s − 1)!
k=0
dire N = 0 et par suite A = λIn .
On conclut que X est bornée sur R ssi, Re(λ) = 0 et A = λIn .
3. (a) Existence d’une base dans laquelle la matrice de f est diagonale par blocs.
Mq
Le lemme des noyaux entraine que Cn = Ker((f − λi id)ni ).
i=1
q
[
Soit B = Bi une base adaptée à cette somme directe, alors la matrice de f dans cette base est de
i=1
A1
la forme :
.. où Ai ∈ Mni (C) admmettant λi comme seule valeur propre.
.
Aq
(b) Condition nécessaire et suffisante de la bornitude des solutions de X 0 = AX.
exp(tA1 )
0
Les solutions de X = AX sont X(t) = exp(tA)v où v ∈ Mn,1 (C), or exp(tA) =
.. .
.
exp(tAq )
etAi − λi Ini est nilpotente , donc d’après la question 2, t 7−→ exp(tAi ) est bornée ssi, λi est imaginaire
pure et Ai = λi Ini .
On conclut que t 7−→ ∀i ∈ {1, ..., q}, Re(λi ) = 0 et Ai = λi Ini ssi, la matrice de
exp(tA) est bornée ssi,
λ1 In1
f dans la base B est
.. ssi, ∀i ∈ {1, ..., q}, Re(λi ) = 0 et A est diagonalisable.
.
λq Inq
4. Toute matrice antisymétrique réelle est diagonalisable dans C de spectre dans iR.
- L’antisymétrie de A entraine que T (exp(tA)) = exp(tT A) = exp(−tA) = (exp(tA))−1 , donc exp(tA) est
orthogonale.
On choisit une norme euclidienne sur Mn,1 (C) par exemple celle associée au produit scalaire usuel
(X|Y ) = T XY , donc exp(tA) conserve la norme, c’est à dire kX(t)k2 = kexp(tA)X(0)k2 = kX(0)k2 , ce qui
assure la bornitude de t 7−→ exp(tA) et par la question précédente, A est diagonalisable et Sp(A) ⊂ iR.
Partie VII
Quelques transformations induites par l’exponentielle matricielle
5
s−1
X 1 k
exp(N ) = In + N = In + N 0 avec N 0 nilpotente comme somme de matrices nilpotentes qui
k!
k=1
commutent entre elles.
- La question précédente confirme que P (Q(X)) = 1+X +X s−1 R(X) et Q(P (X)−1) = X +X s−1 S(X)
avec R(0) = S(0) = 0, ce qui donne en remplaçant X par N , P (Q(N )) = In + N et Q(P (N ) − In ) = N .
- Soit M = In + N ∈ Un (K), alors exp(ln(M )) = exp(ln(In + N )) = P (Q(N )) = In + N = M .
- Soit N ∈ Nn (K), alors ln(exp(N )) = ln(exp(N ) − In + In ) = Q(P (N ) − In ) = N .
On conclut donc que exp est une bijection de Nn (K) vers Un (K) de bijection réciproque
s−1
X (−1)k
ln : Un (K) −→ Nn (K) définie par ∀M ∈ Un (K), ln(M ) = (M − In )k .
k!
k=1
2. (a) exp est une surjection de V vers W .
1
Soit M = β(In + N ) ∈ W , alors M ∈ Un (C), donc d’après la question précédente, ∃N 0 ∈ Nn (C) tel
β
1 0
que exp(N 0 ) = M mais exp : C 7−→ C∗ est surjective, d’où l’existence de β 0 ∈ C tel que β = eβ et par
β
suite exp(β 0 In + N 0 ) = βexp(N 0 ) = M , ce qui montre que β 0 In + N 0 ∈ V est un antécédent de M dans
V.
(b) exp est-elle injective de V vers W ?
Soit θ ∈ 2πZ et A = iθIn ∈ V , alors exp(A) = In = exp(On ) mais A 6= On , donc exp n’ext pas injective.
3. exp est une surjection de Sn (R) vers Sn++ (R).
- Montrons d’abord qu’une valeur propre d’une matrice de Sn++ (R) est dans R∗+ .
Soit A ∈ Sn++ (R) et λ ∈ Sp(A), alors ∃X ∈ Mn,1 (R) \ {0} tel que AX = λX, donc t XAX = λt XX, d’où
t
XAX
λ= X > 0.
X
- Soit M ∈ Sn++ (R), alors la théorème spectral assure l’existence de P ∈ On (R) et D = diag(λ1 , ..., λn ) tel
que M = P DP −1 avec les λi dans R∗+ .
exp : R −→ R∗+ étant bijective, donc ∀i ∈ {1, ..., n}, λi = eµi où µi ∈ R.
On a alors M = exp(P ∆P −1 ) = exp(P ∆t P ) avec ∆ = diag(µ1 , ..., µn ). Alors S = P ∆t P ∈ Sn (R) et
M = exp(S).