Académique Documents
Professionnel Documents
Culture Documents
Opérations sur les matrices : 2- L'addition Opérations sur les matrices : 1- L'égalité
Propriétés et remarques
Dénition : Le produit matriciel
Le produit AB (resp. BA) de deux matrices A et B est déni si et
Associativité. A(BC ) = (AB)C . seulement si le nombre de colonnes (resp. de lignes) de A est égal au
Distributivité. A(B + C ) = AB + AC et (A + B)C = AC + BC . nombre de lignes (resp. de colonnes) de B.
Mult. par scalaire. λ(AB) = (λA)B = A(λB). Soient A = [ai,j ] ∈ Mm,p (K) et B = [bi,j ] ∈ Mp,n (K) alors on a
Transposée. Soient A ∈ Mm,p (K) et B ∈ Mp,n (K) alors AB = C := [ci,j ] ∈ Mm,n (K)
(AB)T = B T AT .
avec
R1. Les produits AAT et AT A sont dénis et représentent des p
R2. Si A et B sont deux matrices carrées de même tailles alors en pour tous i = 1, 2, · · · , m et j = 1, 2, · · · , n.
général on a AB ̸= BA.
En général, le (p × q) partitionnement d'une matrice A est donné par Matrices par blocs
On a vu comment les (m, n) matrices peuvent être représentées par la
A1,1 A1,2 · · · A1,q
A2,1 A2,2 · · · A2,p concaténation par lignes et/ou par colonnes que l'on peut considérer
A= .
.. ... ... . = [Ai,j ]
.. comme un exemple particulier d'un partitionnement par blocs de la forme
Ap,1 Ap,2 · · · Ap,q (m, 1) et/ou (1, n) respectivement. En général, une (m, n) matrice A peut
être partitionnée en termes de sous-matrices mises côte à côte. Par
où les matrices Ai,j (i = 1, · · · , p et j = 1, · · · , q) sont de taille (mi , nj ) exemple, la (m, n) matrice
avec p q
A1,1 A1,2
et n = A=
X X
m= mi nj . A2,1 A2,2
i=1 j=1
où les Ai,j (i, j = 1, 2) sont des (mi , nj ) matrices telles que m = m1 + m2
et n = n1 + n2 , est dite une matrice (2 × 2) partitionnée.
Exercice
Donner tous les partitionnements possibles des matrices de taille (3, 4) Exercice
et (4, 4). Donner les (2 × 2) partitionnements possibles des matrices de taille (3, 4)
et (4, 4).
Master Statistique et Econométrie
22 / 140
▲
L'algèbre matricielle
1 Soit A = [Ai,j ] une matrice carrée d'ordre n par blocs dont toutes les
sous-matrices Ai,j sont carrées alors Opérations sur les matrices par blocs
Tr(A) = Tr(Ak,k ).
X
Si A = [Ai,j ] est une matrice par blocs alors AT = ATj,i . Par exemple,
1
k
T
AT
A1,1 A1,2 A1,1 2,1 .
si A = alors AT =
Exercice A2,1 A2,2 AT
1,2 AT
2,2
Soit A la matrice donnée par 2 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices par blocs de même taille telles
que les sous-matrices Ai,j et Bi,j sont de même taille pour chaque couple
1 0 1 3
(i, j) (on dit dans ce cas A et B sont conformablement partitionnées
A = 2 1 0 1 pour l'addition) donc A + B = [Ai,j + Bi,j ].
0 3 1 2 3 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices telles que le produit AB est
déni ; on dit que A et B sont conformablement partitionnées pour la
multiplication si le produit Ai,k Bk,j est déni. Dans ce cas on a
1 Déterminer et partitionner en (2 × 2) les matrices AAT et AT A.
Calculer et comparer Tr(AAT ) et Tr(AT A).
hX i
2
AB = Ai,k Bk,j .
Théorème
Soit A ∈ Mm,n (K), alors
Dénition
rg(A) = n − dim ker(A). Soit A ∈ Mm,n (K), on appelle le rang de A, noté rg(A), la dimension
de sous-espace vectoriel Im(A). i.e.
Exercice (propositions) rg(A) := dim Im(A) = dim{Ax, n
x ∈ K } ≤ min(m, n)
Soit A ∈ Mm,n (K) et on pose f (x) = Ax pour tout x ∈ Kn .
1 Montrer que f est injective si et seulement si rg(A) = n.
2 Montrer que f est surjective si et seulement si rg(A) = m.
A−1
Θn,m
M −1 = .
Θm,n B −1
Master Statistique et Econométrie
31 / 140
▲
L'algèbre matricielle
Groupe symétrique
Soit E un ensemble ni de n éléments. On appelle le groupe symétrique de Exercice 2 (TD) : Actualisation de rang 1
E , et le note Gn (E ), le groupe des bijections de E dans E muni de la loi de Soient A, u et v comme dans l'exercice précédent. Montrer (A + uv T )
la composition d'applications. Que l'on peut nommer aussi le groupe est inversible si et seulement si 1 + v T A−1 u ̸= 0 et que
des permutations de E . Formellement, soit E = {xi }i=n i=1 et soit
σ ∈ Gn (E ) une permutation de E alors pour chaque i = 1, · · · n on a 1
(A + uv T )−1 = A−1 − A−1 uv T A−1 .
σ(xi ) := σi = xj avec j ∈ {1, · · · , n}; donc 1 + v T A−1 u
σ(E ) = {σ1 , σ2 , · · · , σn }. Ind. Pensez au produit
0Rn
A u In
.
−v T 1 vT 1
Exercice (proposition)
Soit E un ensemble ni de cardinal n et soit Gn (E ) son groupe symé-
trique. Montrer que card(Gn (E )) = n!.
Master Statistique et Econométrie Master Statistique et Econométrie
38 / 140 37 / 140
▲ ▲
Exercice
Exemple et exercice Soit E = {1, 2, 3, 4, 5} et on dénit les deux permutations de E , τ et σ
par
(1) Montrer que l'inverse des permutations σ et τ dénies dans l'exercice τ (E ) = {1, 3, 4, 2, 5} et σ(E ) = {1, 2, 5, 3, 4}.
précédent est
Déterminer τ ◦ σ(E ) et σ ◦ τ (E ).
σ −1 (E ) = {1, 2, 4, 5, 3} et τ −1 (E ) = {1, 4, 2, 3, 5}. On a σ1 = 1, σ2 = 2, σ3 = 5, σ4 = 3 et σ5 = 4. Donc τ (σ1 ) = 1,
τ (σ2 ) = 3, τ (σ4 ) = 4, τ (σ5 ) = 2, et τ (σ3 ) = 5. D'où
(2) Déterminer τ −1 ◦ σ −1 (E ) ainsi que (σ ◦ τ )−1 (E ); et conclure.
(3) Déterminer τ ◦ σ −1 (E ). τ ◦ σ(E ) = {1, 3, 5, 4, 2}.
Si on note par η(σ) le nombre des interchanges demandés pour atteindre la De même on trouve, σ(τ1 ) = 1, σ(τ2 ) = 5, σ(τ3 ) = 3, σ(τ4 ) = 2 et
permutation σ alors on dénit la signature de la permutation σ, notée ε(σ) σ(τ5 ) = 4. Donc,
par σ ◦ τ (E ) = {1, 5, 3, 2, 4}.
ε(σ) = (−1)η(σ) .
Par exemple, la signature des permutations σ et τ dénies dans l'exercice On peut aussi déterminer l'inverse d'une permutation σ ∈ Gn (E ) sur
précédent est ε(σ) = ε(τ ) = (−1)2 = 1. Ainsi que ε(τ ◦ σ) = ε(τ )ε(σ). l'ensemble ni E = {xi }i=n
i=1 par l'équation σ(xi ) = σi ⇔ xi = σ (σi ) pour
−1
chaque i = 1, · · · n.
Master Statistique et Econométrie
40 / 140
▲
L'algèbre matricielle
Ainsi, on laisse au titre d'exercice, en utilisant les propriétés présentées Déterminant d'une matrice
ci-dessus sur les permutations, de démontrer les propriétés suivantes
P1. L'application ψ : Kn × · · · × Kn → K donnée par Dénition au sens de Leibniz
ψ(a∗1 , a∗2 , · · · , a∗n ) = |A| avec A = [a∗i ]i=n
i=1 ∈ Mn (K) Soit A = [ai,j ] ∈ Mn (K), on dénit le déterminant de A, noté |A|, par
est n−linéaire alternée. X n
Y
|A| = ε(σ) ai,σ(i) ;
P2. Pour tout A ∈ Mn (K) et tout α ∈ K on a |αA| = αn |A|. σ∈Gn (E ) i=1
P3. Pour tout A ∈ Mn (K) on a |AT | = |A|.
P4. Pour tous A, B ∈ Mn (K) on a |AB| = |A||B|. avec E = {1, 2, · · · , n}.
P5. A ∈ Mn (K) est inversible si et seulement si |A| =
̸ 0; deplus Par exemple, pour n = 2, E = {1, 2} alors on a deux permutations
|A−1 | = |A|−1 . σ(E ) = {1, 2} et τ (E ) = {2, 1}. Ainsi, pour tout A = [ai,j ] ∈ Mn (K) on a
P6. Pour tout A ∈ Mn (K) on a |A| = |A|. a1,1 a1,2
|A| := = (−1)0 a1,1 a2,2 + (−1)1 a1,2 a2,1 = a1,1 a2,2 − a1,2 a2,1 .
a2,1 a2,2
Comme complément du cours on considère les exercices suivants |A| = |LDU| = |L||D||U|;
Preuve
1 0TCn Pour n = 1 on a A = [a] ∈ M1 (C) est trivialement trigonalisable.
Q=
0Cn P Supposons que pour un certain entier n ≥ 1 une matrice A ∈ Mn (C) est
trigonalisable et montrons qu'une matrice d'ordre n + 1 est trigonalisable.
alors on obtient
Soit M ∈ Mn+1 (C), et puisque C est algébriquement clos alors M a
1 0TCn wT 1 0TCn λ wT P (n + 1) valeurs propre. Soit λ ∈ SpC (A) et soit v0 ∈ Eλ (A) alors d'après le
λ
Q −1 M ′ Q = = .
0Cn P −1 0Cn A 0Cn P 0Cn T théorème de base incomplète il existe (vk )nk=1 ∈ Cn+1 tels que
B = {vk }nk=0 est une base de Cn+1 ; pour laquelle M est semblable à la
Donc M ′ est semblable à une matrice triangulaire supérieure et par matrice
conséquent M est trigonalisable. λ wT
M′ = , où A ∈ Mn (C).
0Cn A
Puisque A ∈ Mn (C) est trigonalisable c'est à dire il existe P ∈ GLn (C)
telle que A = PTP −1 où T est triangulaire supérieure, et si on pose
Exercice Dénition
Soit p ∈ K[X ]. On dit qu'un polynôme p ∈ K[X ] est un polynôme annulateur d'une
Montrer que si λ est une valeur propre de A ∈ Mn (K) alors µ = p(λ)
matrice carrée A ∈ Mn (K) si et seulement si p(A) = Θn .
est une valeur propre de M = p(A). On note par A(A) l'ensemble des polynômes annulateur de la matrice A.
Montrer que si A ≃ B alors p(A) ≃ p(B). Notez que si p(X ) = mk=0 ck X est un polynôme alors l'image d'une
k
P
matrice A ∈ Mn (K) par p est une matrice carrée dénie par
m
X
p(A) = ck Ak ,
k=0
avec A0 = In .
Master Statistique et Econométrie Master Statistique et Econométrie
58 / 140 57 / 140
▲ ▲
La théorie spectrale des matrices et réduction
Polynôme minimal
Proposition
Toute matrice A ∈ Mn (K) admet un polynôme annulateur.
Si p ∈ K[X ] est un polynôme annulateur d'une matrice A ∈ Mn (K)
alors toute valeur propre de A est une racine de p. i.e.
Dénition p(A) = Θn =⇒ ∀λ ∈ SpC (A), p(λ) = 0.
On appelle le polynôme minimal d'une matrice A ∈ Mn (K), le polynôme
unitaire de plus petit degré qui annule A, noté πA . La réciproque n'est pas vraie en général.
Si A ≃ B alors p est un polynôme annulateur de A si et seulement si p
est un polynôme annulateur de B.
Théorème de Cayley-Hamilton
Preuve
Le polynôme caractéristique d'une matrice A ∈ Mn (C) est annulateur
Il existe plusieurs sorte de preuve du théorème de Cayley-Hamilton dans de A. i.e. pour tout A ∈ Mn (C) on a χA (A) = Θn .
diérentes littératures ; cependant, ici on va présenter une preuve simple et
rapide par récurrence. Tout d'abord, on a déjà démontré que toute matrice Par conséquent, on déduit que
dans C est trigonalisable et aussi deux matrices semblables ont même
polynôme caractéristique. Ainsi, si T est une matrice triangulaire Corollaire
supérieure semblable à A c'est à dire il existe Q ∈ GLn (C) telle que Le polynôme minimal πA d'une matrice A ∈ Mn (C) divise le polynôme
A = QTQ −1 , alors on a χA (X ) = χT (X ) et par suite caractéristique χA .
χA (A) = χT (M) = QχT (T )Q −1 . Par conséquent, si on désigne par mλ la multiplicité de la valeur propre λ
D'où χA (A) = Θn si et seulement si χT (T ) = Θn . Maintenant, pour une dans le polynôme caractéristique d'une matrice A ∈ Mn (C) (appelée la
matrice triangulaire T = [a] de taille 1 son polynôme caractéristique est multiplicité algébrique) alors on a
trivialement annulateur. Supposons que le polynôme caractéristique d'une Y
πA (X ) = (x − λ)αλ ,
matrice triangulaire supérieure T ∈ Mn (C) pour un certain n ≥ 1 est
λ∈SpC (A)
annulateur de T et montrons que ça reste vrai pour une matrice
triangulaire supérieure T ′ ∈ Mn+1 (C). où 1 ≤ αλ ≤ mλ .
Master Statistique et Econométrie Master Statistique et Econométrie
64 / 140 63 / 140
▲ ▲
La théorie spectrale des matrices et réduction
La matrice T ′ s'écrit sous la forme
Les Sous-espaces caractéristiques wT
λ
T′ =
0Cn T
donc χT ′ (X ) = (X − λ)χT (X ); et par conséquent,
Dénition
Soient A ∈ Mn (K) et λ ∈ SpK (A). Le sous-espace χT ′ (T ′ ) = (T ′ − λIn+1 )χT (T ′ ).
Puisque
Eλc (A) := ker ((A − λIn )αλ ) ,
0 wT uT
χT (λ)
où αλ est la multiplicité de λ dans le polynôme minimal πA , est dit (T ′ − λIn+1 ) = et χT (T ′ ) =
0Cn T − λIn 0Cn χT (T )
le sous-espace caractéristique de A associé à la valeur propre λ et les
vecteurs de Eλc (A) sont dits les vecteurs propres généralisés associés à la où u est un vecteur donné issu du calcul et χT (T ) = Θn par hypothèse de
valeur propre λ. la récurrence, alors
0 wT χT (λ) u T
Notez que Eλ (A) ⊂ Eλc (A). C'est à dire, Eλc (A) contient les vecteurs χT ′ (T ′ ) = = Θn+1 .
propres associés à la valeur propre λ. Et par conséquent, dλ ≤ dim Eλc (A). 0Cn T − λIn 0Cn Θn
Ce qu'il fallait démontrer.
Master Statistique et Econométrie Master Statistique et Econométrie
66 / 140 65 / 140
▲ ▲
La théorie spectrale des matrices et réduction
Preuve
On rappelle que si M ∈ Mn (K) alors pour tout n ∈ N∗
ker(M n ) ⊂ ker(M n+1 ). Proposition
Ainsi, on a
Soit A ∈ Mn (K) et λ une valeur propre de A de multiplicité algébrique
mλ alors on a
Eλc (A) ⊂ ker (A − λIn )αλ +1
Eλc (A) est stable par A. i.e. pour tout v ∈ Eλc (A) on a Av ∈ Eλc (A).
et par suite, pour tout v ∈ Eλc (A) on a
Eλc (A) = ker ((A − λIn )mλ ) .
(A − λIn )αλ +1 v = 0Kn ⇔ (A − λIn )αλ Av = λ(A − λIn )αλ v = 0Kn .
Proposition
Ce qui montre que q est un polynôme annulateur de N; et q(λ) ̸= 0 alors λ
Soit A ∈ Mn (C) alors
n'est pas une valeur propre de N d'où
M
Cn = Eλc (A).
χM (X ) = (X − λ)mλ et par conséquent χN (x) = q(x).
λ∈SpC (A)
Matrice diagonalisable
Exercice
Démontrer la proposition précédente. Dénition
On appelle une matrice A ∈ Mn (K) diagonalisable toute matrice sem-
Exercice blable à une matrice diagonale.
Soit M ∈ M2n (R) (n ≥ 1) donnée par
Proposition
3In uu T
M= Soit matrice A ∈ Mn (K), alors les assertions ci-dessous sont équiva-
uu T In lentes :
où u ∈ Rn 1 A est diagonalisable.
Montrer que M est semblable à une matrice diagonale à déterminer. 2 Le polynôme caractéristique χA est scindé et dim Eλ (A) = mλ pour tout
λ ∈ SpK (A).
3 Le polynôme minimal πA est scindé et à racines simples.
Dénition
Produit scalaire et norme associée
Soit E un K−espace vectoriel de dimension nie muni d'un produit sca-
laire,
Si K = R, E est dit un espace euclidien et le produit scalaire associé est Dénition
réel. Soit E une K−espace vectoriel de dimension nie n ≥ 1. On appelle
Si K = C, E est dit un espace hermitien et le produit scalaire associé produit scalaire sur E , toute application, noté ⟨·, ·⟩, de E × E dans K
est complexe. vériant :
Pour tous x, y , z ∈ E et λ ∈ K on a
Dénition ⟨x + λy , z⟩ = ⟨x, z⟩ + λ⟨y , z⟩.
On appelle une norme sur un K−espace vectoriel E , et notée ∥ · ∥, toute
application de E dans R+ vériant Pour tous x, y ∈ E , ⟨x, y ⟩ = ⟨y , x⟩
Pour tout x ∈ E et λ ∈ K, on a ∥λx∥ = |λ|∥x∥. Pour tout x ∈ E , ⟨x, x⟩ ≥ 0.
Pour tous x, y ∈ E on a ∥x + y ∥ ≤ ∥x∥ + ∥y ∥ ⟨x, x⟩ = 0 =⇒ x = 0E .
∥x∥ = 0 ⇐⇒ x = 0E .
Master Statistique et Econométrie Master Statistique et Econométrie
82 / 140 81 / 140
▲ ▲
La décomposition en valeurs singulières des matrices (DVS)
Si de plus ∥vk ∥ = 1 pour tout i ∈ [|1, m|], on dit que la famille {vk }m
k=1
est orthonormée.
Master Statistique et Econométrie
83 / 140
▲
Dénition
Proposition : Identité de Pythagore Si X est un ensemble non vide de E , on appelle l'orthogonal de X , noté
Soit v1 et v2 deux vecteurs non nuls orthogonaux de E alors on a X ⊥ , l'ensemble
E = F ⊕ F ⊥. v= ⟨v , ek ⟩ek
k=1
Ainsi, on déduit le théorème du rang. M est dénie, i.e. xc∗ Mxc = 0 ⇐⇒ xc = 0Kn car le produit scalaire est déni.
Dénition x ∈ ker(A) ⇐⇒ ∀y ∈ Km , y ∗ Ax = 0
On appelle un projecteur (ou une projection) tout endomorphisme p : ⇐⇒ ∀y ∈ Km , (A∗ y )∗ x = 0
E −→ E idempotent ; i.e. vériant p ◦ p = p. Ainsi, sa matrice associée
⇐⇒ x ∈ (Im(A∗ ))⊥ .
P ∈ Mn (K) est dite la matrice de la projection et vériant P 2 = P.
Donc
Proposition et Dénition ker(A) = (Im(A∗ ))⊥ ,
Si p est un projecteur de E alors on a ce qui est équivalent, puisque le noyau et l'image d'une matrice sont des
sous-espaces vectoriels, à
E = Im(p) ⊕ ker(p).
(ker(A))⊥ = (Im(A∗ ))⊥ = Im(A∗ )
⊥
Exercice
Montrer que (On (K), ×) est un groupe et que pour tout P ∈ On (K)
on a | det(P)| = 1 ( le module du déterminant de P ) et déduire que
On (K) ⊂ GLn (K).
Master Statistique et Econométrie Master Statistique et Econométrie
108 / 140 107 / 140
▲ ▲
En eet, soit A ∈ Mn (K) une matrice auto-adjointe et soit λ une valeur
On rappelle qu'une matrice A ∈ Mn (K) est auto-adjointe si et seulement
propre de A alors pour un vecteur propre v associé à λ on a
si A∗ = A. Donc, on a le théorème suivant ;
v ∗ (Av ) = (Av )∗ v ⇐⇒ λv ∗ v = λv ∗ v ⇐⇒ λ = λ ⇐⇒ λ ∈ R,
Théorème spectral
car v ∗ v = ∥v ∥2 > 0 (la norme associée au produit scalaire canonique qui a
Soit A ∈ Mn (K) une matrice auto-adjointe alors il existe une matrice
été xé pour Kn ).
P ∈ On (K) et une matrice diagonale D = diag [λ] telles que
λ∈Sp(A)
Proposition 2.
Les vecteurs propres associés à des valeurs propres distinctes d'une ma- A = PDP ∗ .
trice auto-adjointe sont orthogonaux.
i.e. que toute matrice auto-adjointe est diagonalisable.
En eet, Soient λ et µ deux valeurs propres distinctes associées à deux
La démonstration du théorème est basée sur trois propositions importantes :
vecteurs propres v et u, respectivement, d'une matrice auto-adjointe A
alors on a Proposition 1.
u ∗ (Av ) = (Au)∗ v ⇐⇒ λu ∗ v = µu ∗ v ⇐⇒ (λ − µ)u ∗ v = 0 ⇐⇒ u ∗ v = 0 Les valeurs propres d'une matrice auto-adjointe sont réelles.
ce qui montre que u et v sont orthogonaux.
Master Statistique et Econométrie Master Statistique et Econométrie
110 / 140 109 / 140
▲ ▲
Ce qui implique v ∈ ker(M k ) = ker(M) donc ker(M k+1 ) = ker(M); ce qu'il
fallait démontrer. Proposition 3.
On déduit que pour toute valeur propre λ d'une matrice auto-adjointe Soit M ∈ Mn (K) une matrice auto-adjointe alors pour tout k ∈ N∗ on
A ∈ Mn (K) on a (A − λIn ) est auto-adjointe car d'après proposition 1 a
λ ∈ R et ker(M k ) = ker(M).
(A − λIn )∗ = A∗ − λIn = A − λIn .
Ainsi, par proposition 3, on déduit que En eet, par récurrence on a la propriété est vériée pour k = 1; supposons
Eλc (A) := ker ((A − λIn )αλ ) = ker(A − λIn ) =: Eλ (A). qu'elle est vériée aussi pour un certain entier k ∈ N∗ et montrons qu'elle
reste vraie pour k + 1. Donc d'une part, il est clair que
Par conséquent, d'après le chapitre 2, A est diagonalisable ; i.e. il existe ker(M) ⊂ ker(M k+1 ) pour tout k ∈ N. D'autre part, on a
P ∈ GLn (K) et une matrice diagonale D (ayant les valeurs propres de A
sur sa diagonale principale) telles que v ∈ ker(M k+1 ) =⇒ M k+1 v = 0Kn =⇒ M(M k v ) = 0Kn
Décomposition en valeurs singulières ⇐ . Si les valeurs propres de A sont positives alors d'après le
(DVS) théorème spectral on a
1 1
A = PDP ∗ = PD 2 D 2 P ∗ = B ∗ B;
Théorème (DVS)
donc pour tout x ∈ Kn on a
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1, alors il existe deux
matrices S ∈ Om (K) et V ∈ On (K) telles que x ∗ Ax = x ∗ B ∗ Bx = (Bx)∗ (Bx) = ∥Bx∥2 ≥ 0.
ce qui montre que R = [r∗1 , r∗2 , · · · , r∗n ] est une matrice triangulaire
supérieure ayant ses éléments sur la diagonale principale
j−1
(qk∗ a∗j )qk > 0.
X
rjj = a∗j −
k=1
où b = [b1 , · · · , bm ∈
]T Rm est un vecteur xé et connu, existe) et calcul de déterminant d'une matrice. On a vu que ce dernier
x = [x1 , · · · , xn ]T ∈ Rn est un vecteur inconnu et les [ai,j ] (i = 1, · · · , m et nécessite une n! opérations pour une matrice carrée d'ordre n. Cependant,
j = 1, · · · , n) sont des réels et qui représentent les éléments d'une matrice la complexité algorithmique asymptotique de l'élimination de Gauss est
A. On déduit que chaque système d'équations linéaires est réduit à une O(n3 ) ce que la rendre plus ecace. Notez que cet algorithme peut être
équation matricielle ane, i.e. utilisé sur un ordinateur pour des matrices avec une taille des milliers
d'éléments.
Ax = b. Master Statistique et Econométrie Master Statistique et Econométrie
128 / 140 127 / 140
▲ ▲
Quelques décompositions matricielles
En particulier, si b = 0Rm le système est dit homogène et donc leur
Résolution des systèmes linéaires par l'éli- solutions dans ce cas est le sous-espace vectoriel de Rn , ker(A). En général,
le système
mination de Gauss (i) n'a pas de solution si b ∈/ Im(A).
Nous allons traiter quelques exemple des systèmes d'équations linéaires par
l'élimination de Gauss. Pour cette raison on écrit le système [A|b] à la place (ii) a une solution unique x ∗ ∈ Rn si ker(A) = {0Rn }. Dans ce cas le
de l'équation Ax = b. Par exemple, le système système peut être réduite à un système A′ x = b′ où A′ est
une matrice carrée d'ordre n inversible et sous matrice de A;
−y +2z = 0
(
x de même pour b′ par rapport à b. Ainsi, x ∗ = A′−1 b′ .
2x +y +z = −1 (iii) a une innité de solutions si ni (i) ni (ii) sont le cas.
est sous la forme de sa matrice augmentée Notez que dans le cas (i) le système est dit inconsistant et on peut le
ℓ1 −→
1 −1 2 0
traiter en utilisant la méthode des moindres carrées.
.
ℓ2 −→ 2 1 1 −1
Exercice
Donc par l'opération élémentaire, en remplaçant ℓ2 par ℓ2(1) = ℓ2 − 2ℓ1 on - Montrer (i), (ii) et (iii).
aura - Montrer que l'ensemble des solutions de l'équation Ax = b est convexe.
−→ 1 −1 2 0
ℓ1
(1) .
ℓ2 −→ 0 3 −3 −1
Master Statistique et Econométrie Master Statistique et Econométrie
130 / 140 129 / 140
▲ ▲
Quelques décompositions matricielles
Détermination de l'inverse d'une matrice C'est à dire, X = [x, y , z]T ∈ R3 est une solution si et seulement si
Les matrices inversibles sont obligatoirement des matrices carrées, alors on y = z − 1/3 et x = −z − 1/3 c'est à dire
peut utiliser l'élimination de Gauss pour déterminer l'inverse d'une matrice.
Par exemple, soit 1 1 T
X = z[−1, 1, 1]T + − , − , 0 .
1 −1 0 3 3
A = 2 −2 −1
7 3 8 D'où le système admet une innité des solutions qui représentent un sous
espace ane de R3 .
alors, on pose
Exercice
1 −1 0 1 0 0
ℓ1 −→
ℓ2 −→ 2 −2 −1 0 1 0 . En utilisant l'élimination de Gauss, résoudre les systèmes linéaires
ℓ3 −→ 7 3 8 0 0 1
1 0 −1 3 1 4 0
1 −1 0 Exemple
ℓ1 −→
ℓ2 −→ 0 10 8 .
ℓ3 −→ 0 0 −1 On considère la matrice,
1 −1 0
Or on a la matrice U,
1 −1 0
A = 2 −2 −1
U = 0 10 8 . 7 3 8
0 0 −1 alors, puisque le rang de la matrice principale A2 est 1 ̸= 2, donc A
Pour la matrice L, puisque les opérations eectuées sont ℓ2 − 7ℓ1 et n'admet pas une décomposition LU; cependant, elle admet une
ℓ3 − 2ℓ1 alors décomposition PLU alors on fait une permutation de ℓ2 avec ℓ3 , en
1 0 0
multipliant par une matrice de permutation P T (à déterminer) on obtient
L = 7 1 0 . 1 −1 0
ℓ1 −→
2 0 1 ℓ2 −→ 7 3 8 .
Donc PT A = LU ce qui est équivalent à A = PLU et on déduit que
ℓ3 −→ 2 −2 −1
|A| = |P||L||U| c'est à dire |A| = −|U| = 10. Donc, on remplace ℓ2 et ℓ3 respectivement par ℓ2 − 7ℓ1 et ℓ3 − 2ℓ1 on
trouve
Master Statistique et Econométrie Master Statistique et Econométrie
138 / 140 137 / 140
▲ ▲
Aussi, on peut obtenir la décomposition PLDU de la matrice A en
remarquant que
Exercice
1 −1 0 1 0 0 1 −1 0
Déterminer la décomposition LU ou PLU de la matrice U = 0 10 8 = 0 10 0 0 1 8
= DU ′ .
10
0 0 −1 0 0 −1 0 0 1
3 1 −1 0
1 −7 3 2
A= . Remarquez que :
−1 3 1 5
0 2 5 3 La décomposition LDU d'une matrice A ∈ Mn (R) obtenue dans le premier
chapitre peut être considérée comme une généralisation de celle obtenue
Question Bonus. Déterminer la décomposition spectrale et en valeurs dans ce chapitre.
singulière de A. Si A ∈ Sn (R) est une matrice symétrique admette une décomposition LDU
alors U = LT .
Les résultats obtenus restent valable pour une matrice carrée complexe.