Académique Documents
Professionnel Documents
Culture Documents
Opérations sur les matrices : 1- L'égalité Opérations sur les matrices : 2- L'addition
En particulier, une matrice A = [ai,j ] est dite une matrice nulle si et - Remarquer que la somme de deux matrices n'est dénie que si elles sont
seulement si tous ses éléments ai,j sont nuls et on écrit A = Θm,n avec de même taille.
- D'après la dénition, on remarque que l'addition dans Mm,n (K) est
0 0 0 commutative ; i.e. A + B = B + A pour tous A, B ∈ Mm,n (K) et
···
0 0 ··· 0 associative ; i.e. A + (B + C ) = (A + B) + C pour tous
Θm,n = . .. . . . .. ∈ Mm,n (K).
..
A, B, C ∈ Mm,n (K).
. .
0 0 ··· 0
- (A + B)T = AT + B T pour tous A, B ∈ Mm,n (K).
Master Statistique et Econométrie Master Statistique et Econométrie
11 / 140 12 / 140
▲ ▲
L'algèbre matricielle
Propriétés et remarques
Dénition : Le produit matriciel
Le produit AB (resp. BA) de deux matrices A et B est déni si et
seulement si le nombre de colonnes (resp. de lignes) de A est égal au Associativité. A(BC ) = (AB)C .
nombre de lignes (resp. de colonnes) de B. Distributivité. A(B + C ) = AB + AC et (A + B)C = AC + BC .
Soient A = [ai,j ] ∈ Mm,p (K) et B = [bi,j ] ∈ Mp,n (K) alors on a Mult. par scalaire. λ(AB) = (λA)B = A(λB).
AB = C := [ci,j ] ∈ Mm,n (K) Transposée. Soient A ∈ Mm,p (K) et B ∈ Mp,n (K) alors
(AB)T = B T AT .
avec p R1. Les produits AAT et AT A sont dénis et représentent des
matrices carrées d'ordre m et n respectivement, quelque soit
X
ci,j = ai,k bk,j ,
k=1 la matrice A ∈ Mm,n (K).
pour tous i = 1, 2, · · · , m et j = 1, 2, · · · , n. R2. Si A et B sont deux matrices carrées de même tailles alors en
général on a AB ̸= BA.
Matrices par blocs En général, le (p × q) partitionnement d'une matrice A est donné par
On a vu comment les (m, n) matrices peuvent être représentées par la
A1,1 A1,2 · · · A1,q
concaténation par lignes et/ou par colonnes que l'on peut considérer A2,1 A2,2 · · · A2,p
A= .
comme un exemple particulier d'un partitionnement par blocs de la forme .. ... ... . = [Ai,j ]
..
(m, 1) et/ou (1, n) respectivement. En général, une (m, n) matrice A peut Ap,1 Ap,2 · · · Ap,q
être partitionnée en termes de sous-matrices mises côte à côte. Par
exemple, la (m, n) matrice où les matrices Ai,j (i = 1, · · · , p et j = 1, · · · , q) sont de taille (mi , nj )
avec p q
A1,1 A1,2
A= et n =
X X
A2,1 A2,2 m= mi nj .
i=1 j=1
où les Ai,j (i, j = 1, 2) sont des (mi , nj ) matrices telles que m = m1 + m2
et n = n1 + n2 , est dite une matrice (2 × 2) partitionnée.
Exercice
Exercice Donner tous les partitionnements possibles des matrices de taille (3, 4)
Donner les (2 × 2) partitionnements possibles des matrices de taille (3, 4) et (4, 4).
et (4, 4).
Master Statistique et Econométrie
22 / 140
▲
L'algèbre matricielle
1 Soit A = [Ai,j ] une matrice carrée d'ordre n par blocs dont toutes les
Opérations sur les matrices par blocs sous-matrices Ai,j sont carrées alors
Tr(A) = Tr(Ak,k ).
X
Si A = [Ai,j ] est une matrice par blocs alors AT = ATj,i . Par exemple,
1
k
T
AT
A A1,2 A
si A = 1,1 alors A = 1T,1
T 2,1 .
A2,1 A2,2 A1,2 AT
2,2 Exercice
2 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices par blocs de même taille telles Soit A la matrice donnée par
que les sous-matrices Ai,j et Bi,j sont de même taille pour chaque couple
1 0 1 3
(i, j) (on dit dans ce cas A et B sont conformablement partitionnées
pour l'addition) donc A + B = [Ai,j + Bi,j ]. A = 2 1 0 1
0 3 1 2
3 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices telles que le produit AB est
déni ; on dit que A et B sont conformablement partitionnées pour la
multiplication si le produit Ai,k Bk,j est déni. Dans ce cas on a 1 Déterminer et partitionner en (2 × 2) les matrices AAT et AT A.
Calculer et comparer Tr(AAT ) et Tr(AT A).
hX i
2
AB = Ai,k Bk,j .
Théorème
Soit A ∈ Mm,n (K), alors
Dénition
Soit A ∈ Mm,n (K), on appelle le rang de A, noté rg(A), la dimension rg(A) = n − dim ker(A).
de sous-espace vectoriel Im(A). i.e.
rg(A) := dim Im(A) = dim{Ax, n
x ∈ K } ≤ min(m, n) Exercice (propositions)
Soit A ∈ Mm,n (K) et on pose f (x) = Ax pour tout x ∈ Kn .
1 Montrer que f est injective si et seulement si rg(A) = n.
2 Montrer que f est surjective si et seulement si rg(A) = m.
A−1
Θn,m
M −1 = .
Θm,n B −1
Master Statistique et Econométrie
31 / 140
▲
L'algèbre matricielle
Groupe symétrique
Exercice 2 (TD) : Actualisation de rang 1 Soit E un ensemble ni de n éléments. On appelle le groupe symétrique de
Soient A, u et v comme dans l'exercice précédent. Montrer (A + uv T ) E , et le note Gn (E ), le groupe des bijections de E dans E muni de la loi de
est inversible si et seulement si 1 + v T A−1 u ̸= 0 et que la composition d'applications. Que l'on peut nommer aussi le groupe
des permutations de E . Formellement, soit E = {xi }i=n i=1 et soit
1 σ ∈ Gn (E ) une permutation de E alors pour chaque i = 1, · · · n on a
(A + uv T )−1 = A−1 − A−1 uv T A−1 .
1 + v T A−1 u σ(xi ) := σi = xj avec j ∈ {1, · · · , n}; donc
Ind. Pensez au produit σ(E ) = {σ1 , σ2 , · · · , σn }.
0Rn
A u In
.
−v T 1 vT 1
Exercice (proposition)
Soit E un ensemble ni de cardinal n et soit Gn (E ) son groupe symé-
trique. Montrer que card(Gn (E )) = n!.
Master Statistique et Econométrie Master Statistique et Econométrie
37 / 140 38 / 140
▲ ▲
Exercice
Soit E = {1, 2, 3, 4, 5} et on dénit les deux permutations de E , τ et σ Exemple et exercice
par
τ (E ) = {1, 3, 4, 2, 5} et σ(E ) = {1, 2, 5, 3, 4}.
(1) Montrer que l'inverse des permutations σ et τ dénies dans l'exercice
précédent est
Déterminer τ ◦ σ(E ) et σ ◦ τ (E ).
On a σ1 = 1, σ2 = 2, σ3 = 5, σ4 = 3 et σ5 = 4. Donc τ (σ1 ) = 1, σ −1 (E ) = {1, 2, 4, 5, 3} et τ −1 (E ) = {1, 4, 2, 3, 5}.
τ (σ2 ) = 3, τ (σ4 ) = 4, τ (σ5 ) = 2, et τ (σ3 ) = 5. D'où
(2) Déterminer τ −1 ◦ σ −1 (E ) ainsi que (σ ◦ τ )−1 (E ); et conclure.
τ ◦ σ(E ) = {1, 3, 5, 4, 2}. (3) Déterminer τ ◦ σ −1 (E ).
De même on trouve, σ(τ1 ) = 1, σ(τ2 ) = 5, σ(τ3 ) = 3, σ(τ4 ) = 2 et Si on note par η(σ) le nombre des interchanges demandés pour atteindre la
σ(τ5 ) = 4. Donc, permutation σ alors on dénit la signature de la permutation σ, notée ε(σ)
σ ◦ τ (E ) = {1, 5, 3, 2, 4}. par
ε(σ) = (−1)η(σ) .
On peut aussi déterminer l'inverse d'une permutation σ ∈ Gn (E ) sur Par exemple, la signature des permutations σ et τ dénies dans l'exercice
l'ensemble ni E = {xi }i=n
i=1 par l'équation σ(xi ) = σi ⇔ xi = σ (σi ) pour
−1
précédent est ε(σ) = ε(τ ) = (−1)2 = 1. Ainsi que ε(τ ◦ σ) = ε(τ )ε(σ).
chaque i = 1, · · · n.
Master Statistique et Econométrie
40 / 140
▲
L'algèbre matricielle
Déterminant d'une matrice Ainsi, on laisse au titre d'exercice, en utilisant les propriétés présentées
ci-dessus sur les permutations, de démontrer les propriétés suivantes
Dénition au sens de Leibniz P1. L'application ψ : Kn × · · · × Kn → K donnée par
Soit A = [ai,j ] ∈ Mn (K), on dénit le déterminant de A, noté |A|, par ψ(a∗1 , a∗2 , · · · , a∗n ) = |A| avec A = [a∗i ]i=n
i=1 ∈ Mn (K)
X n
Y est n−linéaire alternée.
|A| = ε(σ) ai,σ(i) ;
σ∈Gn (E ) i=1
P2. Pour tout A ∈ Mn (K) et tout α ∈ K on a |αA| = αn |A|.
P3. Pour tout A ∈ Mn (K) on a |AT | = |A|.
avec E = {1, 2, · · · , n}. P4. Pour tous A, B ∈ Mn (K) on a |AB| = |A||B|.
Par exemple, pour n = 2, E = {1, 2} alors on a deux permutations P5. A ∈ Mn (K) est inversible si et seulement si |A| =
̸ 0; deplus
σ(E ) = {1, 2} et τ (E ) = {2, 1}. Ainsi, pour tout A = [ai,j ] ∈ Mn (K) on a |A−1 | = |A|−1 .
a1,1 a1,2
P6. Pour tout A ∈ Mn (K) on a |A| = |A|.
|A| := = (−1)0 a1,1 a2,2 + (−1)1 a1,2 a2,1 = a1,1 a2,2 − a1,2 a2,1 .
a2,1 a2,2
Preuve
Pour n = 1 on a A = [a] ∈ M1 (C) est trivialement trigonalisable. 1 0TCn
Q=
Supposons que pour un certain entier n ≥ 1 une matrice A ∈ Mn (C) est 0Cn P
trigonalisable et montrons qu'une matrice d'ordre n + 1 est trigonalisable.
alors on obtient
Soit M ∈ Mn+1 (C), et puisque C est algébriquement clos alors M a
(n + 1) valeurs propre. Soit λ ∈ SpC (A) et soit v0 ∈ Eλ (A) alors d'après le 1 0TCn wT 1 0TCn λ wT P
λ
Q −1 M ′ Q = = .
théorème de base incomplète il existe (vk )nk=1 ∈ Cn+1 tels que 0Cn P −1 0Cn A 0Cn P 0Cn T
B = {vk }nk=0 est une base de Cn+1 ; pour laquelle M est semblable à la
matrice Donc M ′ est semblable à une matrice triangulaire supérieure et par
λ wT conséquent M est trigonalisable.
M′ = , où A ∈ Mn (C).
0Cn A
Puisque A ∈ Mn (C) est trigonalisable c'est à dire il existe P ∈ GLn (C)
telle que A = PTP −1 où T est triangulaire supérieure, et si on pose
Dénition Exercice
On dit qu'un polynôme p ∈ K[X ] est un polynôme annulateur d'une Soit p ∈ K[X ].
matrice carrée A ∈ Mn (K) si et seulement si p(A) = Θn . Montrer que si λ est une valeur propre de A ∈ Mn (K) alors µ = p(λ)
On note par A(A) l'ensemble des polynômes annulateur de la matrice A. est une valeur propre de M = p(A).
Notez que si p(X ) = mk=0 ck X est un polynôme alors l'image d'une
k Montrer que si A ≃ B alors p(A) ≃ p(B).
P
matrice A ∈ Mn (K) par p est une matrice carrée dénie par
m
X
p(A) = ck Ak ,
k=0
avec A0 = In .
Master Statistique et Econométrie Master Statistique et Econométrie
57 / 140 58 / 140
▲ ▲
La théorie spectrale des matrices et réduction
Polynôme minimal
Proposition
Toute matrice A ∈ Mn (K) admet un polynôme annulateur.
Si p ∈ K[X ] est un polynôme annulateur d'une matrice A ∈ Mn (K)
alors toute valeur propre de A est une racine de p. i.e.
p(A) = Θn =⇒ ∀λ ∈ SpC (A), p(λ) = 0.
Dénition
On appelle le polynôme minimal d'une matrice A ∈ Mn (K), le polynôme
La réciproque n'est pas vraie en général. unitaire de plus petit degré qui annule A, noté πA .
Si A ≃ B alors p est un polynôme annulateur de A si et seulement si p
est un polynôme annulateur de B.
Théorème de Cayley-Hamilton
Preuve
Le polynôme caractéristique d'une matrice A ∈ Mn (C) est annulateur
de A. i.e. pour tout A ∈ Mn (C) on a χA (A) = Θn . Il existe plusieurs sorte de preuve du théorème de Cayley-Hamilton dans
diérentes littératures ; cependant, ici on va présenter une preuve simple et
Par conséquent, on déduit que rapide par récurrence. Tout d'abord, on a déjà démontré que toute matrice
dans C est trigonalisable et aussi deux matrices semblables ont même
Corollaire polynôme caractéristique. Ainsi, si T est une matrice triangulaire
Le polynôme minimal πA d'une matrice A ∈ Mn (C) divise le polynôme supérieure semblable à A c'est à dire il existe Q ∈ GLn (C) telle que
caractéristique χA . A = QTQ −1 , alors on a χA (X ) = χT (X ) et par suite
Par conséquent, si on désigne par mλ la multiplicité de la valeur propre λ χA (A) = χT (M) = QχT (T )Q −1 .
dans le polynôme caractéristique d'une matrice A ∈ Mn (C) (appelée la D'où χA (A) = Θn si et seulement si χT (T ) = Θn . Maintenant, pour une
multiplicité algébrique) alors on a matrice triangulaire T = [a] de taille 1 son polynôme caractéristique est
Y trivialement annulateur. Supposons que le polynôme caractéristique d'une
πA (X ) = (x − λ)αλ ,
matrice triangulaire supérieure T ∈ Mn (C) pour un certain n ≥ 1 est
λ∈SpC (A)
annulateur de T et montrons que ça reste vrai pour une matrice
où 1 ≤ αλ ≤ mλ . triangulaire supérieure T ′ ∈ Mn+1 (C).
Master Statistique et Econométrie Master Statistique et Econométrie
63 / 140 64 / 140
▲ ▲
La théorie spectrale des matrices et réduction
La matrice T ′ s'écrit sous la forme
wT Les Sous-espaces caractéristiques
λ
T′ =
0Cn T
donc χT ′ (X ) = (X − λ)χT (X ); et par conséquent,
Dénition
χT ′ (T ′ ) = (T ′ − λIn+1 )χT (T ′ ).
Soient A ∈ Mn (K) et λ ∈ SpK (A). Le sous-espace
Puisque
Eλc (A) := ker ((A − λIn )αλ ) ,
0 wT uT
χT (λ)
(T ′ − λIn+1 ) = et χT (T ′ ) = où αλ est la multiplicité de λ dans le polynôme minimal πA , est dit
0Cn T − λIn 0Cn χT (T )
le sous-espace caractéristique de A associé à la valeur propre λ et les
où u est un vecteur donné issu du calcul et χT (T ) = Θn par hypothèse de vecteurs de Eλc (A) sont dits les vecteurs propres généralisés associés à la
la récurrence, alors valeur propre λ.
0 wT χT (λ) u T
χT ′ (T ′ ) = = Θn+1 . Notez que Eλ (A) ⊂ Eλc (A). C'est à dire, Eλc (A) contient les vecteurs
0Cn T − λIn 0Cn Θn propres associés à la valeur propre λ. Et par conséquent, dλ ≤ dim Eλc (A).
Ce qu'il fallait démontrer.
Master Statistique et Econométrie Master Statistique et Econométrie
65 / 140 66 / 140
▲ ▲
La théorie spectrale des matrices et réduction
Preuve
On rappelle que si M ∈ Mn (K) alors pour tout n ∈ N∗
Proposition ker(M n ) ⊂ ker(M n+1 ).
Soit A ∈ Mn (K) et λ une valeur propre de A de multiplicité algébrique Ainsi, on a
mλ alors on a
Eλc (A) ⊂ ker (A − λIn )αλ +1
Eλc (A) est stable par A. i.e. pour tout v ∈ Eλc (A) on a Av ∈ Eλc (A).
et par suite, pour tout v ∈ Eλc (A) on a
Eλc (A) = ker ((A − λIn )mλ ) .
(A − λIn )αλ +1 v = 0Kn ⇔ (A − λIn )αλ Av = λ(A − λIn )αλ v = 0Kn .
Proposition
Ce qui montre que q est un polynôme annulateur de N; et q(λ) ̸= 0 alors λ
Soit A ∈ Mn (C) alors
n'est pas une valeur propre de N d'où
M
Cn = Eλc (A).
χM (X ) = (X − λ)mλ et par conséquent χN (x) = q(x).
λ∈SpC (A)
Matrice diagonalisable
Exercice
Dénition Démontrer la proposition précédente.
On appelle une matrice A ∈ Mn (K) diagonalisable toute matrice sem-
blable à une matrice diagonale. Exercice
Soit M ∈ M2n (R) (n ≥ 1) donnée par
Proposition
3In uu T
Soit matrice A ∈ Mn (K), alors les assertions ci-dessous sont équiva- M=
lentes : uu T In
1 A est diagonalisable. où u ∈ Rn
2 Le polynôme caractéristique χA est scindé et dim Eλ (A) = mλ pour tout Montrer que M est semblable à une matrice diagonale à déterminer.
λ ∈ SpK (A).
3 Le polynôme minimal πA est scindé et à racines simples.
Dénition
Produit scalaire et norme associée
Soit E un K−espace vectoriel de dimension nie muni d'un produit sca-
laire,
Dénition Si K = R, E est dit un espace euclidien et le produit scalaire associé est
Soit E une K−espace vectoriel de dimension nie n ≥ 1. On appelle réel.
produit scalaire sur E , toute application, noté ⟨·, ·⟩, de E × E dans K Si K = C, E est dit un espace hermitien et le produit scalaire associé
vériant : est complexe.
Pour tous x, y , z ∈ E et λ ∈ K on a
⟨x + λy , z⟩ = ⟨x, z⟩ + λ⟨y , z⟩.
Dénition
On appelle une norme sur un K−espace vectoriel E , et notée ∥ · ∥, toute
Pour tous x, y ∈ E , ⟨x, y ⟩ = ⟨y , x⟩ application de E dans R+ vériant
Pour tout x ∈ E , ⟨x, x⟩ ≥ 0. Pour tout x ∈ E et λ ∈ K, on a ∥λx∥ = |λ|∥x∥.
⟨x, x⟩ = 0 =⇒ x = 0E . Pour tous x, y ∈ E on a ∥x + y ∥ ≤ ∥x∥ + ∥y ∥
∥x∥ = 0 ⇐⇒ x = 0E .
Master Statistique et Econométrie Master Statistique et Econométrie
81 / 140 82 / 140
▲ ▲
La décomposition en valeurs singulières des matrices (DVS)
|⟨x, y ⟩| ≤ ∥x∥∥y ∥.
Dénition
où ∥ · ∥2 = ⟨·, ·⟩ ind. penser à utiliser, pour y ̸= 0E , le vecteur On dit que deux vecteurs x, y ∈ E sont orthogonaux si et seulement si
⟨x, y ⟩ = 0.
⟨x, y ⟩
z =x− On qu'une famille de vecteurs non nuls {vk }m
k=1 est une famille
y.
∥y ∥2
orthogonale si ses vecteurs sont deux à deux orthogonaux ; i.e.
Déduire que l'application ∥x∥ = ⟨x, x⟩ est une norme sur E ; on
p
2
0 si i ̸= j
(
l'appelle norme associée au produit scalaire. ⟨vi , vj ⟩ = ∀i, j ∈ [|1, m|].
∥vi ∥2 si i = j.
Si de plus ∥vk ∥ = 1 pour tout i ∈ [|1, m|], on dit que la famille {vk }m
k=1
est orthonormée.
Master Statistique et Econométrie
83 / 140
▲
Dénition
Si X est un ensemble non vide de E , on appelle l'orthogonal de X , noté Proposition : Identité de Pythagore
X ⊥ , l'ensemble Soit v1 et v2 deux vecteurs non nuls orthogonaux de E alors on a
X ⊥ = {x ∈ E , ⟨x, y ⟩ = 0, ∀y ∈ X }. ∥v1 + v2 ∥2 = ∥v1 ∥2 + ∥v2 ∥2 .
⊥
Montrer que X ⊂ X ⊥ est l'égalité découle si et seulement si X est Exercice
un sous espace vectoriel de E . Montrer l'identité de Pythagore.
Montrer que E ⊥ = {0E } et {0E }⊥ = E .
M est dénie, i.e. xc∗ Mxc = 0 ⇐⇒ xc = 0Kn car le produit scalaire est déni. Ainsi, on déduit le théorème du rang.
Si B est une base orthonormée de E alors M = In . n = dim(ker(A)) + rg(A) et m = dim(ker(A∗ )) + rg(A).
Master Statistique et Econométrie Master Statistique et Econométrie
93 / 140 94 / 140
▲ ▲
La décomposition en valeurs singulières des matrices (DVS) La décomposition en valeurs singulières des matrices (DVS)
x ∈ ker(A) ⇐⇒ ∀y ∈ Km , y ∗ Ax = 0 Dénition
⇐⇒ ∀y ∈ Km , (A∗ y )∗ x = 0 On appelle un projecteur (ou une projection) tout endomorphisme p :
E −→ E idempotent ; i.e. vériant p ◦ p = p. Ainsi, sa matrice associée
⇐⇒ x ∈ (Im(A∗ ))⊥ .
P ∈ Mn (K) est dite la matrice de la projection et vériant P 2 = P.
Donc
ker(A) = (Im(A∗ ))⊥ , Proposition et Dénition
ce qui est équivalent, puisque le noyau et l'image d'une matrice sont des Si p est un projecteur de E alors on a
sous-espaces vectoriels, à
E = Im(p) ⊕ ker(p).
(ker(A))⊥ = (Im(A∗ ))⊥ = Im(A∗ )
⊥
x ∈ Im(p) ∩ ker(p) =⇒ p(x) = 0E et ∃y ∈ E , p(y ) = x où p est le projecteur orthogonal sur F ; donc F = Im(p).
=⇒ p(x) = 0E et ∃y ∈ E , p ◦ p(y ) = p(x) En eet, soient x ∈ E et y ∈ F alors on a
=⇒ p(x) = 0E ∃y ∈ E , p(y ) = p(x) = 0E
∥x − y ∥2 = ∥x − p(x) + p(x) − y ∥2
=⇒ x = 0E .
= ⟨x − p(x) + p(x) − y , x − p(x) + p(x) − y ⟩
= ∥x − p(x)∥2 + ∥p(x) − y ∥2 + 2ℜ⟨x − p(x), p(x) − y ⟩
Exercice Puisque p est un projecteur orthogonal sur F alors Im(p) = F et
x − p(x) ∈ ker(p) = F ⊥ donc
Soit p un projecteur de E . Montrer que q = idE − p est un projecteur
de E et ⟨x − p(x), p(x) − y ⟩ = 0 et min ∥p(x) − y ∥ = 0.
Im(p) = ker(q) et ker(p) = Im(q).
y ∈F
Exercice
Montrer que (On (K), ×) est un groupe et que pour tout P ∈ On (K)
on a | det(P)| = 1 ( le module du déterminant de P ) et déduire que
On (K) ⊂ GLn (K).
Master Statistique et Econométrie Master Statistique et Econométrie
107 / 140 108 / 140
▲ ▲
En eet, soit A ∈ Mn (K) une matrice auto-adjointe et soit λ une valeur
On rappelle qu'une matrice A ∈ Mn (K) est auto-adjointe si et seulement
propre de A alors pour un vecteur propre v associé à λ on a
si A∗ = A. Donc, on a le théorème suivant ;
v ∗ (Av ) = (Av )∗ v ⇐⇒ λv ∗ v = λv ∗ v ⇐⇒ λ = λ ⇐⇒ λ ∈ R,
Théorème spectral
car v ∗ v = ∥v ∥2 > 0 (la norme associée au produit scalaire canonique qui a
Soit A ∈ Mn (K) une matrice auto-adjointe alors il existe une matrice
été xé pour Kn ).
P ∈ On (K) et une matrice diagonale D = diag [λ] telles que
λ∈Sp(A)
Proposition 2.
A = PDP ∗ . Les vecteurs propres associés à des valeurs propres distinctes d'une ma-
trice auto-adjointe sont orthogonaux.
i.e. que toute matrice auto-adjointe est diagonalisable.
En eet, Soient λ et µ deux valeurs propres distinctes associées à deux
La démonstration du théorème est basée sur trois propositions importantes :
vecteurs propres v et u, respectivement, d'une matrice auto-adjointe A
Proposition 1. alors on a
Les valeurs propres d'une matrice auto-adjointe sont réelles. u ∗ (Av ) = (Au)∗ v ⇐⇒ λu ∗ v = µu ∗ v ⇐⇒ (λ − µ)u ∗ v = 0 ⇐⇒ u ∗ v = 0
⇐ . Si les valeurs propres de A sont positives alors d'après le Décomposition en valeurs singulières
théorème spectral on a (DVS)
1 1
A = PDP ∗ = PD 2 D 2 P ∗ = B ∗ B;
Théorème (DVS)
donc pour tout x ∈ Kn on a
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1, alors il existe deux
x ∗ Ax = x ∗ B ∗ Bx = (Bx)∗ (Bx) = ∥Bx∥2 ≥ 0. matrices S ∈ Om (K) et V ∈ On (K) telles que
Par conséquent, le fait que Q ∗ qk = ek pour tout k ∈ [|1, n|] implique que Exercice
pour tout j ∈ [|2, n|] on a Déterminer la décomposition QR de la matrice A donnée par
j−1 j−1 1 0
X X
Q ∗ a∗j = a∗j − (qk∗ a∗j )qk ej + (qk∗ a∗j )ek = r∗j ; A = −1 1
k=1 k=1 0 1
ce qui montre que R = [r∗1 , r∗2 , · · · , r∗n ] est une matrice triangulaire
supérieure ayant ses éléments sur la diagonale principale
j−1
(qk∗ a∗j )qk > 0.
X
rjj = a∗j −
k=1
C'est à dire, X = [x, y , z]T ∈ R3 est une solution si et seulement si Détermination de l'inverse d'une matrice
y = z − 1/3 et x = −z − 1/3 c'est à dire Les matrices inversibles sont obligatoirement des matrices carrées, alors on
peut utiliser l'élimination de Gauss pour déterminer l'inverse d'une matrice.
1 1
T
Par exemple, soit
X = z[−1, 1, 1]T + − , − , 0 .
3 3 1 −1 0
A = 2 −2 −1
D'où le système admet une innité des solutions qui représentent un sous 7 3 8
espace ane de R3 .
alors, on pose
Exercice
1 −1 0 1 0 0
ℓ1 −→
En utilisant l'élimination de Gauss, résoudre les systèmes linéaires ℓ2 −→ 2 −2 −1 0 1 0 .
ℓ3 −→ 7 3 8 0 0 1
1 0 −1 3 1 4 0
3 2 1 0 et −2 1 −1 . On remplace ℓ2 par ℓ2 − 2ℓ1 et ℓ3 par ℓ3 − 7ℓ1 on trouve
1 1 6 7 5 0 2
1 −1 0 1 0 0
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
Master Statistique et Econométrie
ℓ3 −→ 0 10 8 −7 0 1
131 / 140
▲
Finalement
Ainsi, en remplaçant ℓ3 par ℓ3 + 8ℓ2 on aura 1 0 0 − 13 4 1
10 5 10
0 1 0 − 23 4 1
10 5 10 ;
1 −1 0 1 0 0 0 0 1 2 −1 0
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
la matrice inverse de A est
ℓ3 −→ 0 10 0 −23 8 1 13 4 1
− 10 5 10
De même en remplace ℓ1 par ℓ1 + 1
on obtient A−1 = − 23
10
4
5
1
10 .
10 ℓ3
2 −1 0
13 4 1
1 0 0 − 10
ℓ1 −→ 5 10
ℓ2 −→ 0 0 −1 −2 1 0 ,
ℓ3 −→ 0 10 0 −23 8 1
Exercice
Déterminer le rang et l'inverse, s'il existe, de la matrice
c'est à dire
1 0 0 − 13 4 1
ℓ1 −→ 10 5 10 1 −1 4 1
ℓ2 −→ 0 0 1 2 −1 0 . 2 0 0 1
ℓ3 −→ 0 1 0 − 23
10
4
5
1
10 −3
2 0 1
.
0 2 −1 0
Master Statistique et Econométrie Master Statistique et Econométrie
133 / 140 134 / 140
▲ ▲
Quelques décompositions matricielles
Quelques décompositions matricielles
Décomposition LU
Calcul de la décomposition
Une décomposition LU se réfère à la factorisation d'une matrice carrée A
sous la forme A = LU, en utilisant l'élimination de Gauss, où L est une Sans perte de généralité, soit A une matrice carrée qui admette une
matrice triangulaire inférieure et U est une matrice triangulaire supérieure. décomposition LU. Ainsi, pour décomposer la matrice A en produit LU,
Il n'est pas toujours vrai qu'une matrice carrée A admette une d'abord, on transforme, en utilisant l'élimination de Gauss, la matrice A à
décomposition LU; cependant, toute matrice carrée A admette une une matrice triangulaire supérieure U en éliminant les coecients sous la
décomposition PLU, en multipliant A par une matrice de permutation P diagonale principale. Ainsi, les éléments restants sont les coecients
(voir l'un des exemples ci-dessous). multiplicateurs à cause de lesquelles les positions respectives deviennent
Pour une matrice inversible A = [ai,j ] ∈ Mn (R), on note Ak les matrices nulles dans la matrice U. Notez que certaine décomposition LU peut être
principales dominantes de A, i.e. Ak = [ai,j ] ∈ Mk (R). Donc, la matrice A transformée à une décomposition LDU où D est une matrice diagonale
admette une décomposition LU si rg(Ak ) = k, pour k = 1, 2, . . . , n − 1. ayant les mêmes éléments de la diagonale de U et U devient une matrice
S'il existe un k ∈ [|1, n − 1|] tel que rg(Ak ) ̸= k alors la matrice A admette triangulaire supérieure ayant les 1 sur sa diagonale principales en divisant
une décomposition PLU où P est une matrice de permutation choisie de chaque ligne par l'élément de la diagonale principale qui correspond.
telle sorte que la matrice P T A admette une décomposition LU. On va présenter l'algorithme sous titre d'un exemple.
Notez que, cette décomposition n'est pas unique, mais si on xe les
éléments de la diagonale principale de L égaux 1, alors on aura l'unicité.
Master Statistique et Econométrie
136 / 140
▲
Quelques décompositions matricielles
Exemple 1 −1 0
ℓ1 −→
ℓ2 −→ 0 10 8 .
On considère la matrice, ℓ3 −→ 0 0 −1
1 −1 0
Or on a la matrice U,
A = 2 −2 −1
1 −1 0
7 3 8 U = 0 10 8 .
alors, puisque le rang de la matrice principale A2 est 1 ̸= 2, donc A 0 0 −1
n'admet pas une décomposition LU; cependant, elle admet une Pour la matrice L, puisque les opérations eectuées sont ℓ2 − 7ℓ1 et
décomposition PLU alors on fait une permutation de ℓ2 avec ℓ3 , en ℓ3 − 2ℓ1 alors
multipliant par une matrice de permutation P T (à déterminer) on obtient
1 0 0
1 −1 0 L = 7 1 0 .
ℓ1 −→
ℓ2 −→ 7 3 8 . 2 0 1
ℓ3 −→ 2 −2 −1 Donc P T A = LU ce qui est équivalent à A = PLU et on déduit que
Donc, on remplace ℓ2 et ℓ3 respectivement par ℓ2 − 7ℓ1 et ℓ3 − 2ℓ1 on |A| = |P||L||U| c'est à dire |A| = −|U| = 10.
trouve
Master Statistique et Econométrie Master Statistique et Econométrie
137 / 140 138 / 140
▲ ▲
Aussi, on peut obtenir la décomposition PLDU de la matrice A en
remarquant que
Exercice
1 −1 0 1 0 0 1 −1 0
U = 0 10 8 = 0 10 0 0 1 8
= DU ′ . Déterminer la décomposition LU ou PLU de la matrice
10
0 0 −1 0 0 −1 0 0 1
3 1 −1 0
1 −7 3 2
Remarquez que : A= .
−1 3 1 5
La décomposition LDU d'une matrice A ∈ Mn (R) obtenue dans le premier 0 2 5 3
chapitre peut être considérée comme une généralisation de celle obtenue
dans ce chapitre. Question Bonus. Déterminer la décomposition spectrale et en valeurs
Si A ∈ Sn (R) est une matrice symétrique admette une décomposition LDU singulière de A.
alors U = LT .
Les résultats obtenus restent valable pour une matrice carrée complexe.