Vous êtes sur la page 1sur 140

Prérequis et Bibliographie

Prérequis : Les espaces vectoriels et les applications linéaires.


Bibliographie : Linear Algebra and Matrix Analysis for Statistics (S.
Banerjee et A. Roy, 2014) ; Matrix Algebra Useful for
statistics (R. Shayle et A. I. Khuri, 2017) ; Matrix Algebra
From a Statistician's Perspective (D. A. Harville, 1997).

Master Statistique et Econométrie


2 / 140

Algèbre Pour la Statistique

Lahoucine Elaissaoui
Année Universitaire 20232024
Université Mohammed V-Rabat
Faculté des sciences
Département des Mathématiques
Laboratoire de Mathématiques, Statistique et Applications
Master Statistique et Économétrie

Master Statistique et Econométrie


1 / 140

3 La décomposition en valeurs singulières des matrices (DVS)
L'espaces Euclidien et L'espace Hermitien
Quatre sous-espaces fondamentaux
Projection et projection orthogonale
Application: La régression linéaire par la méthode des moindres carrés
Théorème spectral
Décomposition en valeurs singulières (DVS)

4 Quelques décompositions matricielles


Décomposition QR d'une matrice
Décomposition LU et la résolution d'un système d'équations linéaires

Master Statistique et Econométrie


4 / 140

Contenu du cours
1 L'algèbre matricielle
Introduction et Terminologie
Opérations sur les matrices
Diérentes expressions du produit matriciel
Matrices partitionnées
Le rang d'une matrice
L'inverse d'une matrice
Déterminant d'une matrice par blocs
2 La théorie spectrale des matrices et réduction
Les propriétés spectrales des matrices carrées
Matrices semblables et équivalentes
Polynôme annulateur d'une matrice carrée
Sous-espace caractéristique d'une matrice
Matrice diagonalisable
Master Statistique et Econométrie
3 / 140

En général, on peut converser un tableau des données de m lignes et n
colonnes à une matrice A = [ai,j ] de taille (m, n) (c'est à dire, ayant m
lignes et n colonnes) qui contient m × n éléments (ai,j ) où i = 1, 2, · · · , m
indique la ligne de l'élément et j = 1, 2, · · · , n indique sa colonne. En
pratique, les éléments ai,j sont des nombres réels et on note par Mm,n (R)
l'ensemble des matrices réelles de taille (m, n). En général, on désigne par
Mm,n (K) où K = R ou C l'ensemble des matrices de taille (m, n) ayant
des éléments dans le corps K. On écrit
 
a1,1 a1,2 · · · a1,n
 a2,1 a2,2 · · · a2,n 
A = [ai,j ] =  . .. ... ..  , ai,j ∈ K.
 ..
 
. . 
am,1 am,2 · · · am,n

Ainsi on dénit la matrice transposée de A, notée AT ∈ Mn,m (K), par


 
a1,1 a2,1 · · · am,1
a1,2 a2,2 · · · am,2 
AT = [aj,i ] =  . .. . . ..  .
 ..
 
. . . 
a1,n a2,n · · · an,m
L'algèbre matricielle

Introduction et Terminologie
On appelle matrice un tableau rectangulaire des nombres disposés en
lignes et en colonnes et soumis à certaines règles d'opérations. En
statistique, l'algèbre matricielle est utilisée pour exprimer et étudier
certaines collections de données. Par exemple, la conversion en algèbre
matricielle du tableau (qui décrit le rendement des stratégies suivies par
une société donnée en fonction du temps)
pendant 2 ans pendant 4 ans
Stratégie 1 10 −5
Stratégie 2 3 7
Stratégie 3 8 8
10 −5 10 −5
   

est donnée par la matrice notée par 3 7 ou par 3 7  , ayant


  
8 8 8 8
trois lignes et deux colonnes. Les nombres qui apparaissent dans la matrice
sont appelés les éléments (ou les coecients) de la matrice.
Ainsi, la matrice In := diagn [1] := diag[1, 1, · · · , 1] est dite la matrice
| {z }
n fois
identité (ou unité) d'ordre n.
Une matrice carrée A = [ai,j ] ∈ Mn (K) est dite triangulaire inférieure (resp.
supérieure) si et seulement si ai,j = 0 pour tout i < j (resp. pour tout i > j ).
Remarquez que la transposée d'une matrice triangulaire inférieure (resp.
supérieure) est une matrice triangulaire supérieure (resp. inférieure).
Une matrice carrée strictement triangulaire est une matrice triangulaire et de
coecients diagonaux nuls.
Par suite, une matrice triangulaire à la fois inférieure et supérieure est une
matrice diagonale.
Par exemple L (resp. U ) est triangulaire inférieure (resp. supérieure)
a1,1 0 · · · 0
   
a1,1 a1,2 · · · a1,n
a2,1 a2,2 . . . 0   0 a2,2 · · · a2,n 
 
L= . . . . , U= . . . ..  .
. . .
 
 .. .. . . ..  . . . 
 
  .
an,1 an,2 · · · an,n 0 0 · · · an,n
Master Statistique et Econométrie
8 / 140

L'algèbre matricielle

Matrice carrée : Matrice diagonale  Ma-


trice triangulaire
Remarquez que AT = A pour toute matrice A ∈ Mm,n (K).
T

Si n = 1, on identiera Mm,1 (K) à Km ; ainsi dans tout le cours, les vecteurs


sont des vecteurs colonnes et donc leurs transposé sont des vecteurs lignes.
Si m = n on dit que A = [ai,j ] ∈ Mn (K) est une matrice carrée d'ordre n.
Les coecients ai,j avec i = j sont dits diagonaux (les composantes de la
diagonale principale de A) et ceux avec i ̸= j sont dits extra-diagonaux. En
particulier, D = [di,j ] ∈ Mn (K) est dite diagonale si et seulement si ses
coecients extra-diagonaux sont tous nuls et on écrit dans ce cas
0 ··· 0
 
d1,1
..
 0 . 0 
 
D := diag[d1,1 , d2,2 , · · · , dn,n ] = 
d2,2 .
 .. .. .. .. 
 . . . . 
0 0 · · · dn,n
Master Statistique et Econométrie
7 / 140

Ainsi, on aura
a∗T1
 
aT 
 ∗2 
A =  .  = [a1∗ , a2∗ , . . . , am∗ ].
T
 .. 
T
a∗n

Master Statistique et Econométrie


10 / 140

Soit A = [ai,j ] ∈ Mn (K) est matrice carrée. La trace de A ; notée Tr(A) est
dénie comme étant la somme des diagonaux. i.e.
n
Tr(A) =
X
ak,k .
k=1

Pour eectuer certaines opérations, il peut être utile de travailler sur le


système des lignes ou des colonnes d'une matrice. On pourra alors écrire
une matrice A = [ai,j ] ∈ Mm,n (K) sous l'une des formes suivantes
a1T∗
 
 aT 
 2∗ 
A = [a∗1 , a∗2 , . . . , a∗n ] =  .  ;
 .. 
T
am∗
où les vecteurs a∗j ∈ Km , (j = 1, 2 · · · , n) sont les vecteurs colonnes de A
et ai∗
T ∈ Kn (i = 1, 2, · · · , m) sont ses vecteurs lignes. Cette écriture est

dite la forme concaténée de A (en vecteurs colonnes ou en vecteurs lignes


resp.)
Master Statistique et Econométrie
9 / 140

L'algèbre matricielle

Opérations sur les matrices : 2- L'addition

Dénition : L'addition dans Mm,n (K)


Soient A = [ai,j ] et B = [bi,j ] deux matrices de même taille (m, n). La
somme de A et B, notée A + B, est une matrice C = [ci,j ] de même
taille (m, n) telle que ci,j = ai,j + bi,j pour tous i ∈ {1, 2, · · · , m} et
j ∈ {1, 2, · · · , n}.
- Remarquer que la somme de deux matrices n'est dénie que si elles sont
de même taille.
- D'après la dénition, on remarque que l'addition dans Mm,n (K) est
commutative ; i.e. A + B = B + A pour tous A, B ∈ Mm,n (K) et
associative ; i.e. A + (B + C ) = (A + B) + C pour tous
A, B, C ∈ Mm,n (K).
- (A + B)T = AT + B T pour tous A, B ∈ Mm,n (K).
Master Statistique et Econométrie
12 / 140

L'algèbre matricielle

Opérations sur les matrices : 1- L'égalité

Dénition : Égalité de deux matrices


Deux matrices A = [ai,j ] et B = [bi,j ] sont dites égales et on écrit A = B
si et seulement si
A et B sont de même taille (m, n).
ai,j = bi,j pour tous i ∈ {1, 2, · · · , m} et j ∈ {1, 2, · · · , n}.
En particulier, une matrice A = [ai,j ] est dite une matrice nulle si et
seulement si tous ses éléments ai,j sont nuls et on écrit A = Θm,n avec
0 0 0
 
···
0 0 ··· 0
Θm,n =  . .. . . . ..  ∈ Mm,n (K).
 ..
 
. .
0 0 ··· 0
Master Statistique et Econométrie
11 / 140

L'algèbre matricielle

Opérations sur les matrices : 2- La multi-


plication

Dénition : La multiplication dans Mm,n (K) par un scalaire


La multiplication d'une matrice A = [ai,j ] ∈ Mm,n (K) par un scalaire
λ ∈ K; i.e. le produit λA, est une matrice C = [ci,j ] ∈ Mm,n (K) telle
que ci,j = λai,j pour tous i ∈ {1, 2, · · · , m} et j ∈ {1, 2, · · · , n}.
Remarquer que si λ = 0 ou A = Θ alors λA = Θ.
Aussi, pour λ = ±1 on écrit ±A à la place de ±1A et A − B à la place de
A + (−B).
Finalement, (λA)T = λAT pour tout λ ∈ K et pour tout A ∈ Mm,n (K).

Master Statistique et Econométrie


14 / 140

Exemple
Soient
1 −1 2 1 1 0
   
A= et B = .
0 0 1 3 0 1
A et B sont deux matrices de même taille (2, 3) donc

1 + 1 −1 + 1 2 + 0 2 0 2
   
A+B = = .
0+3 0+0 1+1 3 0 2

Exercice
Soient A = [ai,j ] ∈ Mm,n (K) une matrice xée et X ∈ Mm,n (K). Ré-
soudre les équations suivantes : A + X = A et A + X = Θm,n . Déduire
l'élément neutre et la matrice opposée (l'élément symétrique pour l'ad-
dition) dans Mm,n (K). Que peut on dire sur le magma (Mm,n (K), +) ?

Master Statistique et Econométrie


13 / 140

L'algèbre matricielle

Propriétés et remarques

Associativité. A(BC ) = (AB)C .


Distributivité. A(B + C ) = AB + AC et (A + B)C = AC + BC .
Mult. par scalaire. λ(AB) = (λA)B = A(λB).
Transposée. Soient A ∈ Mm,p (K) et B ∈ Mp,n (K) alors
(AB)T = B T AT .
R1. Les produits AAT et AT A sont dénis et représentent des
matrices carrées d'ordre m et n respectivement, quelque soit
la matrice A ∈ Mm,n (K).
R2. Si A et B sont deux matrices carrées de même tailles alors en
général on a AB ̸= BA.

Master Statistique et Econométrie


16 / 140

Dénition : Le produit matriciel
Le produit AB (resp. BA) de deux matrices A et B est déni si et
seulement si le nombre de colonnes (resp. de lignes) de A est égal au
nombre de lignes (resp. de colonnes) de B.
Soient A = [ai,j ] ∈ Mm,p (K) et B = [bi,j ] ∈ Mp,n (K) alors on a
AB = C := [ci,j ] ∈ Mm,n (K)

avec p
X
ci,j = ai,k bk,j ,
k=1

pour tous i = 1, 2, · · · , m et j = 1, 2, · · · , n.

Master Statistique et Econométrie


15 / 140

Exemple
On considère dans M2 (R) les matrices
1 2 0 3
   
A= et B = .
0 −1 0 −1
Puisque les matrices A et B sont de même ordre (ou ont même taille)
alors les produits AB et BA sont bien dénis et on a
0 1 0 −3
   
AB = et BA = .
0 1 0 1

0 1
 
On déduit que AB ̸= BA. Si on pose C = montrer que BC = Θ2 ,
0 0
que peut-on déduire ?

Master Statistique et Econométrie


18 / 140

R3. Ils existent deux matrices A et B non nulles telles que le
produit (s'il est déni) AB est une matrice nulle. On dit dans
ce cas que A et B sont des diviseurs de zéro.

Exercice : L'utilité de la remarque R2.


Soient A ∈ Mm,n (K) et B ∈ Mn,m (K), avec n ̸= m. Justiez que les
produits H = AB et E = BA sont dénis ; est-ce que les matrices H et
E sont compatibles pour les opérations arithmétiques (la comparaison,
l'addition et la multiplication) justiez votre réponse ?

Master Statistique et Econométrie


17 / 140

Aussi en utilisant les concaténations
a1T∗
 
 aT 
 2∗ 
A= .  et B = [b∗1 , b∗2 , · · · , b∗n ]
 .. 
T
am∗

on montre que
a1T∗
 T
a1∗ b∗1 a1T∗ b∗2 · · · a1T∗ b∗n
  
 aT   aT b∗1 aT b∗2 · · · a2T∗ b∗n 
 2∗   2∗ 2∗
AB =  .  [b∗1 , b∗2 , · · · , b∗n ] =  . .. ... .. 
 ..   ..

. . 
T T b T T
am∗ am∗ ∗1 am∗ b∗2 · · · am∗ b∗n
h i
T
= ai∗ b∗j

pour i = 1, 2, · · · , m et j = 1, 2, · · · , n. Remarquez que les vecteurs ai∗ et


b∗j sont de taille p (p− composantes) donc ai∗ T b ) est bien dénie.
∗j
Master Statistique et Econométrie
20 / 140

Soient A = [ai,j ] ∈ Mm,p (K) et B = [bi,j ] ∈ Mp,n (K). Il est clair que le
produit matriciel AB est bien déni ; ainsi, si on considère la forme
concaténée de A et B, i.e.
b1T∗
 
b T 
 2∗ 
A = [a∗,1 , a∗2 , · · · , a∗p ] et B =  .. 
 . 
T
bp∗

alors on peut calculer le produit matriciel AB d'une manière analogue à


celui des vecteurs ; i.e.
b1T∗
 
b T  X p
 2∗ 
AB = [a∗1 , a∗2 , · · · , a∗p ]  ..  = T
a∗i bi∗ .
 . 
i=1
T
bp∗

Master Statistique et Econométrie


19 / 140

En général, le (p × q) partitionnement d'une matrice A est donné par
 
A1,1 A1,2 · · · A1,q
A2,1 A2,2 · · · A2,p 
A= . .. ... ..  = [Ai,j ]
 ..
 
. . 
Ap,1 Ap,2 · · · Ap,q

où les matrices Ai,j (i = 1, · · · , p et j = 1, · · · , q) sont de taille (mi , nj )


avec p q
et n =
X X
m= mi nj .
i=1 j=1

Exercice
Donner tous les partitionnements possibles des matrices de taille (3, 4)
et (4, 4).
Master Statistique et Econométrie
22 / 140

L'algèbre matricielle

Matrices par blocs


On a vu comment les (m, n) matrices peuvent être représentées par la
concaténation par lignes et/ou par colonnes que l'on peut considérer
comme un exemple particulier d'un partitionnement par blocs de la forme
(m, 1) et/ou (1, n) respectivement. En général, une (m, n) matrice A peut
être partitionnée en termes de sous-matrices mises côte à côte. Par
exemple, la (m, n) matrice
 
A A1,2
A = 1 ,1
A2,1 A2,2

où les Ai,j (i, j = 1, 2) sont des (mi , nj ) matrices telles que m = m1 + m2


et n = n1 + n2 , est dite une matrice (2 × 2) partitionnée.

Exercice
Donner les (2 × 2) partitionnements possibles des matrices de taille (3, 4)
et (4, 4).
1 Soit A = [Ai,j ] une matrice carrée d'ordre n par blocs dont toutes les
sous-matrices Ai,j sont carrées alors

Tr(A) = Tr(Ak,k ).
X

Exercice
Soit A la matrice donnée par
1 0 1 3
 

A = 2 1 0 1

0 3 1 2

1 Déterminer et partitionner en (2 × 2) les matrices AAT et AT A.


2 Calculer et comparer Tr(AAT ) et Tr(AT A).

Master Statistique et Econométrie


24 / 140

L'algèbre matricielle

Opérations sur les matrices par blocs


Si A = [Ai,j ] est une matrice par blocs alors AT = ATj,i . Par exemple,
 
1

 T
AT
  
A A1,2 A
si A = 1,1 alors A = 1T,1
T 2,1 .
A2,1 A2,2 A1,2 AT
2,2

2 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices par blocs de même taille telles
que les sous-matrices Ai,j et Bi,j sont de même taille pour chaque couple
(i, j) (on dit dans ce cas A et B sont conformablement partitionnées
pour l'addition) donc A + B = [Ai,j + Bi,j ].

3 Soient A = [Ai,j ] et B = [Bi,j ] deux matrices telles que le produit AB est


déni ; on dit que A et B sont conformablement partitionnées pour la
multiplication si le produit Ai,k Bk,j est déni. Dans ce cas on a

hX i
AB = Ai,k Bk,j .

Master Statistique et Econométrie


23 / 140

L'algèbre matricielle

Rappels et dénitions

On dénit le noyau d'une matrice A ∈ Mm,n (K), et est noté par ker(A)
l'ensemble
ker(A) := {x ∈ Kn , Ax = 0Km , }
On peut démontrer facilement que le noyau d'une matrice A ∈ Mm,n (K)
est un sous-espace vectoriel de Kn . On dénit l'image de A, et est notée
Im(A), l'ensemble
Im(A) := {Ax, x ∈ Kn },

qui est un sous-espaces vectoriels Km . Ainsi, on a

Master Statistique et Econométrie


26 / 140

L'algèbre matricielle

Matrice diagonale par blocs


Une matrice bloc-diagonale (ou diagonale par blocs) est une matrice carrée
qui possède des blocs matrices carrées sur la diagonale principale, tels que
les blocs non diagonaux soient des matrices nulles ; c'est à dire sous la
forme  
A1,1 Θ · · · Θ
 Θ A2,2 . . .
 
Θ 
 .. ... ... ..  .
 
 . . 
Θ Θ ··· Ap,p

Exercice
Soit A = [Ak ] une matrice bloc-diagonale. Montrer que An = [Ank ].

Master Statistique et Econométrie


25 / 140

L'algèbre matricielle

Théorème du rang

Théorème
Soit A ∈ Mm,n (K), alors
rg(A) = n − dim ker(A).

Exercice (propositions)
Soit A ∈ Mm,n (K) et on pose f (x) = Ax pour tout x ∈ Kn .
1 Montrer que f est injective si et seulement si rg(A) = n.
2 Montrer que f est surjective si et seulement si rg(A) = m.

Master Statistique et Econométrie


28 / 140

L'algèbre matricielle

Le rang d'une matrice

Dénition
Soit A ∈ Mm,n (K), on appelle le rang de A, noté rg(A), la dimension
de sous-espace vectoriel Im(A). i.e.
rg(A) := dim Im(A) = dim{Ax, x ∈ Kn } ≤ min(m, n)

Master Statistique et Econométrie


27 / 140

L'algèbre matricielle

Matrice à rang plein

Dénition
Une matrice A ∈ Mm,n (K) est dite de rang plein si rg(A) = n.

Exercice (proposition)
Montrer qu'une matrice A ∈ Mm,n (K) est de rang plein si et seulement
si l'application f (x) = Ax pour x ∈ Kn est injective.

Master Statistique et Econométrie


30 / 140

L'algèbre matricielle

Propriétés

rg(A) = rg(AT ) pour tout A ∈ Mm,n (K).


rg(AB) ≤ min (rg(A), rg(B)) , avec A ∈ Mm,p (K) et B ∈ Mp,n (K).
rg(A + B) ≤ rg(A) + rg(B) avec A ∈ Mm,n (K) et B ∈ Mm,n (K).
Remarquez que la dernière inégalité devient égalité si et seulement si
Im(A) ∩ Im(B) = {0Rm } et Im(AT ) ∩ Im(B T ) = {0Rn } .

Master Statistique et Econométrie


29 / 140

L'algèbre matricielle

Exercice et Propriétés
Montrer les propriétés suivantes
une matrice A ∈ Mn (K) est inversible si et seulement si rg(A) = n.
Soient A, B ∈ Mn (K), telles que l'une des deux est inversible alors
AB = In ⇐⇒ BA = In .

Soient A, B ∈ Mn (K), deux matrices inversibles, alors (AB)−1 = B −1 A−1 .


Soit A ∈ Mn (K) inversible, alors (AT )−1 = (A−1 )T .
Pour tout α ∈ K∗ , non nul, l'inverse de la matrice [α] ∈ M1 (K) est
[1/α] ∈ M1 (K),
Soient A ∈ Mn (K) et B ∈ Mm (K),
 deux matrices
 inversibles alors la
A Θn,m
matrice (2 × 2) partitionnée M = est inversible et on a
Θm,n B

A−1
 
−1 Θn,m
M = .
Θm,n B −1
L'algèbre matricielle

L'inverse d'une matrice

Dénition
Soit A ∈ Mn (K) une matrice carrée. On dit que A est inversible s'il
existe une matrice B ∈ Mn (K) telle que
AB = In et BA = In .
B est dite l'inverse de A et on pose B = A−1 .
Notez que l'inverse d'une matrice A ∈ Mm,n (K) n'est pas dénie sauf pour
m = n; ainsi que l'inverse (en cas d'existence) est unique.

Master Statistique et Econométrie


31 / 140

Théorème 2
Si A22 et son complément de Schur G sont inversibles alors la matrice
A est inversible et
1
G −1 −G −1 A−
 
−1 22 A21
A = 1 −1 1 −1 −1 −1 .
−A12 A−
22 G A−
22 + A22 A21 G A12 A22

On déduit dans le cas où Aii (i = 1, 2) sont inversibles ainsi que leurs


compléments de Schur F et G , le résultat suivant

Corollaire (formule de Sherman-Woodbury-Morrison)

1 −1 −1
F −1 = A− −1
22 + A22 A21 G A12 A22
et
1 −1 1
G −1 = A−
11 + A11 A12 F
−1
A21 A−
11 .

Master Statistique et Econométrie


34 / 140

L'algèbre matricielle

L'inverse d'une matrice (2 × 2) partitionnée


Une matrice (2 × 2) partitionnée est une matrice A ∈ Mn (K) sous la forme
 
A A12
A = 11
A21 A22
où A11 ∈ Mn1 (K), A22 ∈ Mn2 (K), A12 ∈ Mn1 ,n2 (K) et A21 ∈ Mn2 ,n1 (K)
avec n1 + n2 = n. Ainsi, si les sous matrices A11 et A22 sont inversibles
alors on dénit les compléments de Schur F et G par
1 −1
F = A22 − A21 A− 11 A12 et G = A11 − A12 A22 A21 .

Théorème 1
Si A11 et son complément de Schur F sont inversibles alors la matrice A
est inversible et
 −1 1 1 1
A11 + A− A12 F −1 A21 A− −A− A12 F −1

−1 11 11 11
A = 1 .
−F −1 A21 A− 11 F −1
3. Déduire que
A−1 = UD −1 L;
et déterminer sa forme explicite en utilisant l'exercice
précédent.

Exercice
Prouver Théorème 2 en suivant des étapes analogues. En déduire le
Corollaire.

Exercice 1 (TD)
Soient A ∈ Mn (R) inversible, u, v ∈ Rn , et λ ∈ R. Calculer l'inverse s'il
existe de la matrice  
A u
.
vT λ

Master Statistique et Econométrie


36 / 140

L'algèbre matricielle

Exercice : Preuve de Théorème 1


Soient L et U deux matrices carrées d'ordre n, dénies par
1
−A−
   
In1 Θn1 ,n2 In1 11 A12 .
L := −1 et U :=
−A21 A11 In2 Θn2 ,n1 In2

1. Montrer que L et U sont inversibles et


1
A−
   
−1 In1 Θn1 ,n2 −1 In1 11 A12 .
L := −1 et U :=
A21 A11 In2 Θn2 ,n1 In2

2. Montrer que
 
A11 Θn1 ,n2
LAU = = D.
Θn2 ,n1 F
L'algèbre matricielle

Groupe symétrique
Soit E un ensemble ni de n éléments. On appelle le groupe symétrique de
E , et le note Gn (E ), le groupe des bijections de E dans E muni de la loi de
la composition d'applications. Que l'on peut nommer aussi le groupe
des permutations de E . Formellement, soit E = {xi }i=n i=1 et soit
σ ∈ Gn (E ) une permutation de E alors pour chaque i = 1, · · · n on a
σ(xi ) := σi = xj avec j ∈ {1, · · · , n}; donc

σ(E ) = {σ1 , σ2 , · · · , σn }.

Exercice (proposition)
Soit E un ensemble ni de cardinal n et soit Gn (E ) son groupe symé-
trique. Montrer que card(Gn (E )) = n!.
Master Statistique et Econométrie
38 / 140

Exercice 2 (TD) : Actualisation de rang 1
Soient A, u et v comme dans l'exercice précédent. Montrer (A + uv T )
est inversible si et seulement si 1 + v T A−1 u ̸= 0 et que
1
(A + uv T )−1 = A−1 − A−1 uv T A−1 .
1+ v T A−1 u
Ind. Pensez au produit
0Rn
  
A u In
.
−v T 1 vT 1

Master Statistique et Econométrie


37 / 140

Exemple et exercice
(1) Montrer que l'inverse des permutations σ et τ dénies dans l'exercice
précédent est
σ −1 (E ) = {1, 2, 4, 5, 3} et τ −1 (E ) = {1, 4, 2, 3, 5}.

(2) Déterminer τ −1 ◦ σ −1 (E ) ainsi que (σ ◦ τ )−1 (E ); et conclure.


(3) Déterminer τ ◦ σ −1 (E ).
Si on note par η(σ) le nombre des interchanges demandés pour atteindre la
permutation σ alors on dénit la signature de la permutation σ, notée ε(σ)
par
ε(σ) = (−1)η(σ) .
Par exemple, la signature des permutations σ et τ dénies dans l'exercice
précédent est ε(σ) = ε(τ ) = (−1)2 = 1. Ainsi que ε(τ ◦ σ) = ε(τ )ε(σ).
Master Statistique et Econométrie
40 / 140

Exercice
Soit E = {1, 2, 3, 4, 5} et on dénit les deux permutations de E , τ et σ
par
τ (E ) = {1, 3, 4, 2, 5} et σ(E ) = {1, 2, 5, 3, 4}.
Déterminer τ ◦ σ(E ) et σ ◦ τ (E ).
On a σ1 = 1, σ2 = 2, σ3 = 5, σ4 = 3 et σ5 = 4. Donc τ (σ1 ) = 1,
τ (σ2 ) = 3, τ (σ4 ) = 4, τ (σ5 ) = 2, et τ (σ3 ) = 5. D'où

τ ◦ σ(E ) = {1, 3, 5, 4, 2}.

De même on trouve, σ(τ1 ) = 1, σ(τ2 ) = 5, σ(τ3 ) = 3, σ(τ4 ) = 2 et


σ(τ5 ) = 4. Donc,
σ ◦ τ (E ) = {1, 5, 3, 2, 4}.

On peut aussi déterminer l'inverse d'une permutation σ ∈ Gn (E ) sur


l'ensemble ni E = {xi }i=n
i=1 par l'équation σ(xi ) = σi ⇔ xi = σ (σi ) pour
−1

chaque i = 1, · · · n.
Ainsi, on laisse au titre d'exercice, en utilisant les propriétés présentées
ci-dessus sur les permutations, de démontrer les propriétés suivantes
P1. L'application ψ : Kn × · · · × Kn → K donnée par
ψ(a∗1 , a∗2 , · · · , a∗n ) = |A| avec A = [a∗i ]i=n
i=1 ∈ Mn (K)

est n−linéaire alternée.


P2. Pour tout A ∈ Mn (K) et tout α ∈ K on a |αA| = αn |A|.
P3. Pour tout A ∈ Mn (K) on a |AT | = |A|.
P4. Pour tous A, B ∈ Mn (K) on a |AB| = |A||B|.
P5. A ∈ Mn (K) est inversible si et seulement si |A| =
̸ 0; deplus
|A−1 | = |A|−1 .
P6. Pour tout A ∈ Mn (K) on a |A| = |A|.

Master Statistique et Econométrie


42 / 140

L'algèbre matricielle

Déterminant d'une matrice


Dénition au sens de Leibniz
Soit A = [ai,j ] ∈ Mn (K), on dénit le déterminant de A, noté |A|, par
X n
Y
|A| = ε(σ) ai,σ(i) ;
σ∈Gn (E ) i=1

avec E = {1, 2, · · · , n}.


Par exemple, pour n = 2, E = {1, 2} alors on a deux permutations
σ(E ) = {1, 2} et τ (E ) = {2, 1}. Ainsi, pour tout A = [ai,j ] ∈ Mn (K) on a
a1,1 a1,2
|A| := = (−1)0 a1,1 a2,2 + (−1)1 a1,2 a2,1 = a1,1 a2,2 − a1,2 a2,1 .
a2,1 a2,2

Master Statistique et Econométrie


41 / 140

L'algèbre matricielle

Déterminant d'une matrice 2 × 2 partition-


née
Soit A ∈ Mn (K) partitionnée, i.e.
 
A A12
A = 11
A21 A22
où A11 ∈ Mn1 (K), A22 ∈ Mn2 (K), A12 ∈ Mn1 ,n2 (K) et
A21 ∈ Mn2 ,n1 (K). On a démontré dans l'exercice 5 que si A11 est inversible
alors A admet une décomposition LDU, i.e.
A = LDU
avec 1
A−
   
In1 Θn1 ,n2 In1 11 A12
L := 1 , et U :=
A21 A−11 In2 Θn2 ,n1 In2
et  
A11 Θn1 ,n2
D := .
Θn2 ,n1 F Master Statistique et Econométrie
44 / 140

Exercice : Matrice de permutation
Soit B = {ei } la base canonique de Kn (n ≥ 1), i.e. In = [ei ]i=n
i=1 est
la matrice identité. Une matrice de permutation est dénie par P =
i=1 pour une telle permutation σ ∈ Gn (E ) donnée.
[eσ(i) ]i=n
1 Calculer |P| et déduire que P est inversible.
2 Démontrer que l'inverse de P est P −1 = P T .
3 Soit A = [ai,j ] ∈ Mn (R) montrer que PA = [aσ(i),j ] et AP = [ai,σ(j) ].

Master Statistique et Econométrie


43 / 140

L'algèbre matricielle

Exercices
Comme complément du cours on considère les exercices suivants

Exercice 1.
Soient A, B deux matrices carrées d'ordre n et m, respectivement, et soit
C une matrice de taille (n, m). Calculer les déterminants des matrices
suivantes    
A C A Θn,m
H= et H = T

.
Θm,n B C B

Exercice 2.
Soient A ∈ Mn (K) inversible, u, v ∈ Kn , et λ ∈ K. Calculer le détermi-
nant de (A + λuv T ).

Master Statistique et Econométrie


46 / 140

avec F le complément de Schur de A11 . Donc
|A| = |LDU| = |L||D||U|;

et puisque L et U sont deux matrices triangulaires ayant 1 dans la


diagonale principale alors |L| = |U| = 1. Par conséquent, |A| = |D|. Or
puisque D est une matrice diagonale par blocs alors |D| = |A11 ||F |. D'où
1
|A| = |A11 ||F | = |A11 ||A22 − A21 A−
11 A12 |.

Notez qu'on peut démontrer d'une manière similaire que si A22 est
inversible alors |A| = |A22 ||G |; où G est le complément de Schur de A22 ;
i.e.
1
|A| = |A22 ||A11 − A12 A−
22 A21 |.

Master Statistique et Econométrie


45 / 140

Remarquez que ;
Si λ est une valeur propre d'une matrice A ∈ Mn (K) alors on note
dλ := dim Eλ (A) et on a dλ ≥ 1, car Eλ contient au moins un vecteur propre
associé à λ. dλ est dit la multiplicité géométrique de λ.
Si λ1 et λ2 sont deux valeurs propres distinctes d'une matrice A ∈ Mn (K)
alors Eλ1 (A) ∩ Eλ2 (A) = {0Kn }. Par conséquent, F = Eλ1 (A) ⊕ Eλ2 (A) est
un sous-espace vectoriel de Kn de dimension dλ1 + dλ2 .

Master Statistique et Econométrie


48 / 140

La théorie spectrale des matrices et réduction

Valeurs propres et vecteurs propres


Dénition
On dit que λ ∈ K est une valeur propre d'une matrice A ∈ Mn (K) s'il
existe un vecteur non nul v ∈ Kn tel que
Av = λv .

Et v est appelé un vecteur propre associé à la valeur propre λ. Ainsi,


on désigne par SpK (A) l'ensemble des valeurs propre de A et est dit le
spectre de A.
Les vecteurs propres associés à une valeur propre λ d'une matrice
A ∈ Mn (K) sont les vecteurs qui engendre le sous-espace vectoriel
Eλ (A) := ker(A − λIn ), appelé le sous-espace propre de A associé à la
valeur propre λ.
Master Statistique et Econométrie
47 / 140

Exercice et proposition
Soit M ∈ Mn (K). Montrer que M et M T ont les mêmes valeurs
propres ; i.e. SpK (M) = SpK (M T ).
Montrer que les valeurs propres d'une matrice triangulaire sont ses
éléments de la diagonale principales.
Soient A ∈ Mm,n (K) et B ∈ Mn,m (K). Montrer que les matrices AB et
BA ont les mêmes valeurs propres non nulles. Ind. Pensez à la matrice
 
In B
, λ ∈ K∗ .
A λIm

Déduire que AAT et AT A ont les mêmes valeurs propres non nulles pour
toute matrice A ∈ Mm,n (K).

Master Statistique et Econométrie


50 / 140

Proposition et Dénition
λ ∈ K est une valeur propre d'une matrice A ∈ Mn (K) si et seulement
si λ est une racine du polynôme χA (x) = |A − xIn |. Le polynôme χA est
dit le polynôme caractéristique de la matrice A.
Remarquer que χA est bien un polynôme de degré n d'après la dénition du
déterminant. Pour la démonstration de la proposition :
λ est une valeur propre de A ∈ Mn (K) équivalent à l'existence un vecteur
non nul v tel que (A − λIn )v = 0Kn ce qui est équivalent à (A − λIn ) n'est
pas inversible ce qui est équivalent à χA (λ) = 0.

Master Statistique et Econométrie


49 / 140

La théorie spectrale des matrices et réduction

Propriétés et remarques
Deux matrices semblables sont équivalentes mais la réciproque n'est pas
vraie.
Deux matrices semblables représentent le même endomorphisme d'un espace
vectoriel muni de deux bases diérentes et P est la matrice de passage d'une
base à l'autre. Cependant, deux matrices équivalentes représentent la même
application linéaire entre deux espaces vectoriels (qui peuvent être diérents)
et Q est la matrice de passage dans l'espace d'arrivé et P celle pour l'espace
de départ.
les relations ≃ et ∼ sont des relations d'équivalence.
Deux matrices semblables ont même polynôme caractéristique, même trace
et même rang. Par conséquent, ont même valeurs propres. Cependant, les
matrices équivalentes de même ordre peuvent avoir des polynômes
caractéristiques diérents.

Master Statistique et Econométrie


52 / 140

La théorie spectrale des matrices et réduction

Matrices semblables et équivalentes

Dénitions
On dit que deux matrices A ∈ Mn (K) et B ∈ Mn (K) sont semblables,
et on note A ≃ B, si et seulement s'il existe une matrice inversible
P ∈ GLn (K) telle que A = PBP −1 .
On dit que deux matrices A ∈ Mm,n (K) et B ∈ Mm,n (K) sont
équivalentes, et on note A ∼ B, si et seulement s'il existe deux matrices
Q ∈ GLm (K) et P ∈ GLn (K) telles que A = QBP −1 .

Master Statistique et Econométrie


51 / 140

Théorème
Toute matrice A ∈ Mn (C) est trigonalisable. i.e. A est semblable à une
matrice triangulaire.
Remarquez que les éléments de la diagonale principale de la matrice
triangulaire semblable à A ∈ Mn (C) sont exactement les valeurs propres de
A.
La preuve de ce théorème ainsi que la construction de la base dans laquelle
une matrice donnée est triangulaire peut être obtenue en utilisant le dernier
résultat prouvé dans la section des sous-espaces caractéristiques.
Cependant, ici on propose un raisonnement par récurrence.

Master Statistique et Econométrie


54 / 140

Exercice
Montrer que que toute matrice triangulaire inférieure est semblable à
une matrice triangulaire supérieure.
Montrer que les valeurs propres d'une matrice triangulaire sont
exactement les éléments de sa diagonale principale.

Master Statistique et Econométrie


53 / 140

1 0TCn
 
Q=
0Cn P
alors on obtient
1 0TCn wT 1 0TCn λ wT P
     
−1 ′ λ
Q MQ= = .
0Cn P −1 0Cn A 0Cn P 0Cn T
Donc M ′ est semblable à une matrice triangulaire supérieure et par
conséquent M est trigonalisable.

Master Statistique et Econométrie


56 / 140

La théorie spectrale des matrices et réduction

Preuve
Pour n = 1 on a A = [a] ∈ M1 (C) est trivialement trigonalisable.
Supposons que pour un certain entier n ≥ 1 une matrice A ∈ Mn (C) est
trigonalisable et montrons qu'une matrice d'ordre n + 1 est trigonalisable.
Soit M ∈ Mn+1 (C), et puisque C est algébriquement clos alors M a
(n + 1) valeurs propre. Soit λ ∈ SpC (A) et soit v0 ∈ Eλ (A) alors d'après le
théorème de base incomplète il existe (vk )nk=1 ∈ Cn+1 tels que
B = {vk }nk=0 est une base de Cn+1 ; pour laquelle M est semblable à la
matrice
λ wT
 
M′ = , où A ∈ Mn (C).
0Cn A
Puisque A ∈ Mn (C) est trigonalisable c'est à dire il existe P ∈ GLn (C)
telle que A = PTP −1 où T est triangulaire supérieure, et si on pose

Master Statistique et Econométrie


55 / 140

Exercice
Soit p ∈ K[X ].
Montrer que si λ est une valeur propre de A ∈ Mn (K) alors µ = p(λ)
est une valeur propre de M = p(A).
Montrer que si A ≃ B alors p(A) ≃ p(B).

Master Statistique et Econométrie


58 / 140

La théorie spectrale des matrices et réduction

Polynôme annulateur d'une matrice carrée

Dénition
On dit qu'un polynôme p ∈ K[X ] est un polynôme annulateur d'une
matrice carrée A ∈ Mn (K) si et seulement si p(A) = Θn .
On note par A(A) l'ensemble des polynômes annulateur de la matrice A.
Notez que si p(X ) = mk=0 ck X est un polynôme alors l'image d'une
k
P
matrice A ∈ Mn (K) par p est une matrice carrée dénie par
m
X
p(A) = ck Ak ,
k=0

avec A0 = In .
Master Statistique et Econométrie
57 / 140

La théorie spectrale des matrices et réduction

Polynôme minimal

Dénition
On appelle le polynôme minimal d'une matrice A ∈ Mn (K), le polynôme
unitaire de plus petit degré qui annule A, noté πA .

Master Statistique et Econométrie


60 / 140

Proposition
Toute matrice A ∈ Mn (K) admet un polynôme annulateur.
Si p ∈ K[X ] est un polynôme annulateur d'une matrice A ∈ Mn (K)
alors toute valeur propre de A est une racine de p. i.e.
p(A) = Θn =⇒ ∀λ ∈ SpC (A), p(λ) = 0.

La réciproque n'est pas vraie en général.


Si A ≃ B alors p est un polynôme annulateur de A si et seulement si p
est un polynôme annulateur de B.

Master Statistique et Econométrie


59 / 140

Proposition
Soit πA le polynôme minimal d'une matrice A ∈ Mn (K), alors toute
racine de πA est une valeur propre de A.
En eet, soit λ ∈ K une racine du polynôme minimal πA , alors il existe un
polynôme q ∈ K[X ] de degré inférieur strictement au degré de πA tel que
πA (X ) = (X − λ)q(X ), ainsi on a (A − λIn )q(A) = Θn . Supposons que λ
n'est pas une valeur propre de A alors (A − λIn ) est inversible et par
conséquent q(A) = Θn ce qui est absurde. D'où λ ∈ SpK (A).

Master Statistique et Econométrie


62 / 140

Proposition
Le polynôme minimal πA d'une matrice carrée A divise tout polynôme
annulateur de A. i.e. ∀p ∈ A(A) on a πA |p.

Master Statistique et Econométrie


61 / 140

La théorie spectrale des matrices et réduction

Preuve
Il existe plusieurs sorte de preuve du théorème de Cayley-Hamilton dans
diérentes littératures ; cependant, ici on va présenter une preuve simple et
rapide par récurrence. Tout d'abord, on a déjà démontré que toute matrice
dans C est trigonalisable et aussi deux matrices semblables ont même
polynôme caractéristique. Ainsi, si T est une matrice triangulaire
supérieure semblable à A c'est à dire il existe Q ∈ GLn (C) telle que
A = QTQ −1 , alors on a χA (X ) = χT (X ) et par suite
χA (A) = χT (M) = QχT (T )Q −1 .
D'où χA (A) = Θn si et seulement si χT (T ) = Θn . Maintenant, pour une
matrice triangulaire T = [a] de taille 1 son polynôme caractéristique est
trivialement annulateur. Supposons que le polynôme caractéristique d'une
matrice triangulaire supérieure T ∈ Mn (C) pour un certain n ≥ 1 est
annulateur de T et montrons que ça reste vrai pour une matrice
triangulaire supérieure T ′ ∈ Mn+1 (C).
Master Statistique et Econométrie
64 / 140

Théorème de Cayley-Hamilton
Le polynôme caractéristique d'une matrice A ∈ Mn (C) est annulateur
de A. i.e. pour tout A ∈ Mn (C) on a χA (A) = Θn .
Par conséquent, on déduit que

Corollaire
Le polynôme minimal πA d'une matrice A ∈ Mn (C) divise le polynôme
caractéristique χA .
Par conséquent, si on désigne par mλ la multiplicité de la valeur propre λ
dans le polynôme caractéristique d'une matrice A ∈ Mn (C) (appelée la
multiplicité algébrique) alors on a
Y
πA (X ) = (x − λ)αλ ,
λ∈SpC (A)

où 1 ≤ αλ ≤ mλ .
Master Statistique et Econométrie
63 / 140

La théorie spectrale des matrices et réduction

Les Sous-espaces caractéristiques

Dénition
Soient A ∈ Mn (K) et λ ∈ SpK (A). Le sous-espace
Eλc (A) := ker ((A − λIn )αλ ) ,

où αλ est la multiplicité de λ dans le polynôme minimal πA , est dit


le sous-espace caractéristique de A associé à la valeur propre λ et les
vecteurs de Eλc (A) sont dits les vecteurs propres généralisés associés à la
valeur propre λ.
Notez que Eλ (A) ⊂ Eλc (A). C'est à dire, Eλc (A) contient les vecteurs
propres associés à la valeur propre λ. Et par conséquent, dλ ≤ dim Eλc (A).

Master Statistique et Econométrie


66 / 140

La matrice T ′ s'écrit sous la forme
wT
 
′ λ
T =
0Cn T
donc χT ′ (X ) = (X − λ)χT (X ); et par conséquent,
χT ′ (T ′ ) = (T ′ − λIn+1 )χT (T ′ ).
Puisque
0 wT uT
   
χT (λ)

(T − λIn+1 ) = et χT (T ) = ′
0Cn T − λIn 0Cn χT (T )
où u est un vecteur donné issu du calcul et χT (T ) = Θn par hypothèse de
la récurrence, alors
0 wT χT (λ) u T
  

χT ′ (T ) = = Θn+1 .
0Cn T − λIn 0Cn Θn
Ce qu'il fallait démontrer.
Master Statistique et Econométrie
65 / 140

La théorie spectrale des matrices et réduction

Preuve
On rappelle que si M ∈ Mn (K) alors pour tout n ∈ N∗
ker(M n ) ⊂ ker(M n+1 ).

Ainsi, on a
Eλc (A) ⊂ ker (A − λIn )αλ +1


et par suite, pour tout v ∈ Eλc (A) on a


(A − λIn )αλ +1 v = 0Kn ⇔ (A − λIn )αλ Av = λ(A − λIn )αλ v = 0Kn .

Donc Av ∈ Eλc (A), d'où la stabilité de Eλc (A) par A.


On rappelle l'identité de Bézout : deux polynômes p, q ∈ K[X ] sont
premiers entre eux si et seulement s'il existe r , s ∈ K[X ] tels que
r (X )p(X ) + s(X )q(X ) = 1.

Master Statistique et Econométrie


68 / 140

Proposition
Soit A ∈ Mn (K) et λ une valeur propre de A de multiplicité algébrique
mλ alors on a
Eλc (A) est stable par A. i.e. pour tout v ∈ Eλc (A) on a Av ∈ Eλc (A).
Eλc (A) = ker ((A − λIn )mλ ) .

Master Statistique et Econométrie


67 / 140

et par suite ker (A − λIn )αλ +1 ⊂ Eλc (A). Ainsi, on déduit que


Eλc (A) = ker (A − λIn )αλ +1 .




Et par récurrence, pour tout entier k ≥ αλ , on a


 
Eλc (A) = ker (A − λIn )k .

En particulier, puisque mλ ≥ αλ alors


Eλc (A) = ker ((A − λIn )mλ ) .

Notez qu'on l'identité de Bézout joue un rôle très important dans l'algèbre
et en particulier dans l'algèbre linéaire. Un autre exemple d'utilisation est
donné dans le lemme suivant.

Master Statistique et Econométrie


70 / 140

Le polynôme minimal de A s'écrit sous la forme πA (X ) = (X − λ)αλ q(X )
tel que q ∈ K[X ] et q(λ) ̸= 0. Puisque q et (X − λ) sont premiers entre
eux alors d'après l'identité de Bézout il existe deux polynômes r , s ∈ K[X ]
tels que
r (X )(X − λ) + s(X )q(X ) = 1
ce qui implique en multipliant par (X − λ)αλ
r (X )(X − λ)αλ +1 + s(X )q(X )(X − λ)αλ = (X − λ)αλ ,

c'est à dire,
r (X )(X − λ)αλ +1 + s(X )πA (X ) = (X − λ)αλ .

D'où
r (A)(A − λIn )αλ +1 = (A − λIn )αλ ;

Master Statistique et Econométrie


69 / 140

La théorie spectrale des matrices et réduction

Preuve
Puisque p et q sont premiers entre eux alors d'après l'identité de Bézout, il
existe deux polynôme r , s ∈ K[X ] tels que
r (X )p(X ) + s(X )q(X ) = 1.

Ainsi, pour toute matrice A ∈ Mn (K) on a


r (A)p(A) + s(A)q(A) = In .

Si v ∈ ker(p(A)) ∩ ker(q(A)) alors


v = r (A)p(A)v + s(A)q(A)v = 0Kn ;

c'est à dire
ker(p(A)) ∩ ker(q(A)) = {0Kn }.
Master Statistique et Econométrie
72 / 140

La théorie spectrale des matrices et réduction

Lemme des noyaux


Lemme des noyaux
Soient p et q deux polynômes de K[X ] premiers entre eux et A ∈ Mn (K),
alors on a
ker(p(A)q(A)) = ker(p(A)) ⊕ ker(q(A)).

Corollaire : Généralisation
Soit (pk )ℓk=1 ∈ K[X ] une famille nie des polynômes deux à deux pre-
miers entre eux et A ∈ Mn (K), alors
ℓ ℓ
!
Y M
ker pk (A) = ker(pk (A))
k=1 k=1

Master Statistique et Econométrie


71 / 140

Proposition
Soient A ∈ Mn (K) et λ une valeur propre de A de multiplicité algébrique
mλ , alors
dim Eλc (A) = mλ .

En eet, d'après la proposition précédente on a


Eλc (A) = ker ((A − λIn )mλ ) .
Comme λ est une racine du polynôme caractéristique de multiplicité mλ
alprs il existe q ∈ K[X ] tel que q(λ) ̸= 0 et
χA (X ) = (X − λ)mλ q(X ).
Il est clair que (X − λ)mλ et q(X ) sont premiers entre eux, alors d'après le
lemme des noyaux on a
Kn = Eλc (A) ⊕ ker(q(A)).
Master Statistique et Econométrie
74 / 140

En général, pour tout v ∈ Kn on a
v = r (A)p(A)v + s(A)q(A)v := vp + vq

où vp = r (A)p(A)v et vq = s(A)q(A)v . Donc si v ∈ ker(p(A)q(A)) alors


q(A)vp = r (A)p(A)q(A)v = 0Kn et p(A)vq = s(A)q(A)p(A)v = 0Kn ;
c'est à dire vp ∈ ker(q(A)) et vq ∈ ker(p(A)). D'où
ker(p(A)q(A)) = ker(p(A)) + ker(q(A)).

Ce qui complète la preuve du lemme.


Remarquez que si w , z ∈ K[x] alors w (A)z(A) = z(A)w (A) pour toute
matrice carrée A.
Pour le corollaire il sut d'utiliser la récurrence et le lemme.

Master Statistique et Econométrie


73 / 140

D'autre part on a
(M − λIm )mλ
 
′ mλ Θm,n−m
(A − λIn ) =
Θn−m,m (N − λIn−m )mλ

donc
(M − λIm )mλ = Θm .
Ce qui montre que la seule valeur propre de M est λ. De la même manière,
puisque
q(A)vk = 0Kn ∀k ∈ [|m + 1, n|]
alors d'après la stabilité de Eλc (A) et ker(q(A)) par A on a
   
′ −1 q(M) Θm,n−m q(M) Θm,n−m
q(A ) = P q(A)P ⇔ = .
Θn−m,m q(N) Θn−m,m Θn−m

Master Statistique et Econométrie


76 / 140

Soit m = dim Eλc (A) alors dim ker(q(A)) = n − m et soient B1 := {vk }m k=1
et B2 := {vk }nk=m+1 des bases de Eλc (A) et ker(q(A)), respectivement,
puisque Eλc (A) et ker(q(A)) sont stables par A, alors A est semblable (via
la matrice de passage P = [v1 , · · · , vn ]) à la matrice
 
′ −1 M Θm,n−m
A =P AP = .
Θn−m,m N
Par conséquent,
χA (X ) = χM (X )χN (X ).
Notez que le degré de χM est m et λ est la seule valeur propre de M. En
eet, puisque
(A − λIn )mλ vk = 0Kn , ∀k ∈ [|1, m|]
alors d'après la stabilité de Eλc (A) et ker(q(A)) par A on a
(A′ − λIn )mλ = P −1 (A − λIn )mλ P
 
Θm Θm,n−m
=
Θn−m,m (N − λIn−m )mλ
Master Statistique et Econométrie
75 / 140

Puisque C est algébriquement clos alors le polynôme minimal de toute
matrice complexe est scindé et donc on déduit la proposition suivante

Proposition
Soit A ∈ Mn (C) alors
M
Cn = Eλc (A).
λ∈SpC (A)

Ainsi que, X
n= mλ ;
λSpC (A)

mλ désigne, dans tout ce cours, la multiplicité algébrique de la valeur


propre λ.

Master Statistique et Econométrie


78 / 140

Ce qui montre que q est un polynôme annulateur de N; et q(λ) ̸= 0 alors λ
n'est pas une valeur propre de N d'où
χM (X ) = (X − λ)mλ et par conséquent χN (x) = q(x).
donc m = mλ ; ce qu'il fallait démontrer.

Master Statistique et Econométrie


77 / 140

Exercice
Démontrer la proposition précédente.

Exercice
Soit M ∈ M2n (R) (n ≥ 1) donnée par
3In uu T
 
M=
uu T In

où u ∈ Rn
Montrer que M est semblable à une matrice diagonale à déterminer.

Master Statistique et Econométrie


80 / 140

La théorie spectrale des matrices et réduction

Matrice diagonalisable
Dénition
On appelle une matrice A ∈ Mn (K) diagonalisable toute matrice sem-
blable à une matrice diagonale.

Proposition
Soit matrice A ∈ Mn (K), alors les assertions ci-dessous sont équiva-
lentes :
1 A est diagonalisable.
2 Le polynôme caractéristique χA est scindé et dim Eλ (A) = mλ pour tout
λ ∈ SpK (A).
3 Le polynôme minimal πA est scindé et à racines simples.

Master Statistique et Econométrie


79 / 140

Dénition
Soit E un K−espace vectoriel de dimension nie muni d'un produit sca-
laire,
Si K = R, E est dit un espace euclidien et le produit scalaire associé est
réel.
Si K = C, E est dit un espace hermitien et le produit scalaire associé
est complexe.

Dénition
On appelle une norme sur un K−espace vectoriel E , et notée ∥ · ∥, toute
application de E dans R+ vériant
Pour tout x ∈ E et λ ∈ K, on a ∥λx∥ = |λ|∥x∥.
Pour tous x, y ∈ E on a ∥x + y ∥ ≤ ∥x∥ + ∥y ∥
∥x∥ = 0 ⇐⇒ x = 0E .
Master Statistique et Econométrie
82 / 140

La décomposition en valeurs singulières des matrices (DVS)

Produit scalaire et norme associée

Dénition
Soit E une K−espace vectoriel de dimension nie n ≥ 1. On appelle
produit scalaire sur E , toute application, noté ⟨·, ·⟩, de E × E dans K
vériant :
Pour tous x, y , z ∈ E et λ ∈ K on a
⟨x + λy , z⟩ = ⟨x, z⟩ + λ⟨y , z⟩.

Pour tous x, y ∈ E , ⟨x, y ⟩ = ⟨y , x⟩


Pour tout x ∈ E , ⟨x, x⟩ ≥ 0.
⟨x, x⟩ = 0 =⇒ x = 0E .

Master Statistique et Econométrie


81 / 140

La décomposition en valeurs singulières des matrices (DVS)

vecteurs orthogonaux et l'orthogonal d'un


ensemble
Dans tout ce qui suit E désigne un K−espace vectoriel de dimension n
muni d'un produit scalaire ⟨·, ·⟩.

Dénition
On dit que deux vecteurs x, y ∈ E sont orthogonaux si et seulement si
⟨x, y ⟩ = 0.
On qu'une famille de vecteurs non nuls {vk }m
k=1 est une famille
orthogonale si ses vecteurs sont deux à deux orthogonaux ; i.e.

0 si i ̸= j
(
⟨vi , vj ⟩ = ∀i, j ∈ [|1, m|].
∥vi ∥2 si i = j.

Si de plus ∥vk ∥ = 1 pour tout i ∈ [|1, m|], on dit que la famille {vk }m
k=1
est orthonormée.
Exercice
Soit ⟨·, ·⟩ un produit scalaire sur K−un espace vectoriel E .
1 (L'inégalité de Cauchy-Schwarz) Montrer que pour tous x, y ∈ E on a
|⟨x, y ⟩| ≤ ∥x∥∥y ∥.

où ∥ · ∥2 = ⟨·, ·⟩ ind. penser à utiliser, pour y ̸= 0E , le vecteur


⟨x, y ⟩
z =x− y.
∥y ∥2

Déduire que l'application ∥x∥ = ⟨x, x⟩ est une norme sur E ; on


p
2
l'appelle norme associée au produit scalaire.

Master Statistique et Econométrie


83 / 140

Proposition : Identité de Pythagore
Soit v1 et v2 deux vecteurs non nuls orthogonaux de E alors on a
∥v1 + v2 ∥2 = ∥v1 ∥2 + ∥v2 ∥2 .

En général, soit {vk }m


k=1 une famille orthogonale de E alors

m 2 m
∥vk ∥2 .
X X
vk =
k=1 k=1

Exercice
Montrer l'identité de Pythagore.

Master Statistique et Econométrie


86 / 140

Dénition
Si X est un ensemble non vide de E , on appelle l'orthogonal de X , noté
X ⊥ , l'ensemble

X ⊥ = {x ∈ E , ⟨x, y ⟩ = 0, ∀y ∈ X }.

Exercice
Soient X et Y deux ensembles non vides de E ,
Montrer que X ⊥ est un sous-espace vectoriel de E .
Montrer que X ⊂ Y implique Y ⊥ ⊂ X ⊥ .
⊥
Montrer que X ⊂ X ⊥ est l'égalité découle si et seulement si X est
un sous espace vectoriel de E .
Montrer que E ⊥ = {0E } et {0E }⊥ = E .

Master Statistique et Econométrie


85 / 140

La décomposition en valeurs singulières des matrices (DVS)

Procédé d'orthonormalisation de Gram-


Schmidt
Ainsi on déduit que tout K−espace vectoriel E de dimension nie muni
d'un produit scalaire admet une base orthonormée. En eet, tout K−
espace vectoriel de dimension nie n ≥ 1 est muni d'une base B = {uk }nk=1
alors on peut construire une base orthonormée de E , notée Bo = {ek }nk=1 ,
à partir de la base B en utilisant un algorithme dit l'algorithme ou procédé
de Gram-Schmidt. Ce procédé est donné comme suit :
v1
v1 = u1 → e1 = ∥v1 ∥
v2
v2 = u2 − ⟨u2 , e1 ⟩e1 → e2 = ∥v2 ∥
v3
v3 = u3 − ⟨u3 , e1 ⟩e1 − ⟨u3 , e2 ⟩e2 → e3 = ∥v3 ∥
.. .. .
. . → ..
n−1
X
vn
vn = un − ⟨un , ek ⟩ek → en = ∥vn ∥ .
k=1
Master Statistique et Econométrie
88 / 140

Proposition
Toute famille orthogonale {vk }m
k=1 est libre.

En eet, soient λ1 , · · · , λm ∈ K alors on a


* m +
= 0E ⇒ ∀j ∈ [|1, m|], =0
Pm X
k=1 λk vk λk vk , vj
k=1
m
⇒ ∀j ∈ [|1, m|], λk ⟨vk , vj ⟩ = 0
X

k=1
⇒ ∀j ∈ [|1, m|], λj ∥vj ∥2 = 0
⇒ ∀j ∈ [|1, m|], λ j = 0.

Master Statistique et Econométrie


87 / 140

La décomposition en valeurs singulières des matrices (DVS)

Le supplémentaire orthogonal d'un sous-


espace vectoriel
Proposition
Tout sous-espace vectoriel F de E admet un sous-espace supplémentaire
orthogonal de E . i.e.
E = F ⊕ F ⊥.

En eet, soit F un sous-espace vectoriel de E de dimension m et soit


BF = {uk }m k=1 une base de F alors en utilisant le procédé de
Gram-Schmidt on peut construire une base orthonormée BoF = {ek }m k=1 de
F . Ainsi, par le théorème de la base incomplète F admet un supplémentaire
G ayant la base orthonormée BoG = {ek }nk=m+1 et Bo = BoF ∪ BoG est
une base orthonormée de E . Donc, F et G sont supplémentaires et puisque
⟨vF , vG ⟩ = 0 pour tous vF ∈ F et vG ∈ G alors G est orthogonal à F ; i.e.
G = F ⊥.
Proposition
Soit Bo = {ek }nk=1 une base orthonormée de E alors pour tout v ∈ E
on a n
X
v= ⟨v , ek ⟩ek
k=1
et n
2
|⟨v , ek ⟩|2 .
X
∥v ∥ =
k=1

Master Statistique et Econométrie


89 / 140

La décomposition en valeurs singulières des matrices (DVS)

l'adjoint d'une matrice


D'une manière générale, l'adjoint d'une matrice A ∈ Mm,n (K) est l'unique
T
matrice A∗ ∈ Mn,m (K) dénie par A∗ = A et en utilisant les propriétés
données dans les chapitres précédents on peut démontrer que
Pour tout λ ∈ K on a λ∗ = λ.
Pour tout A ∈ Mm,n (K) (A∗ )∗ = A.
Pour tous A ∈ Mm,n (K) et B ∈ Mn,m (K) on a (AB)∗ = B ∗ A∗ .
Pour tout A ∈ Mn (K) on a |A∗ | = |A|.
Pour tout A ∈ Mn (K) on a Tr(A∗ ) = Tr(A).
Soit A ∈ Mn (K) alors si λ est une valeur propre de A alors λ est une valeur
propre de A∗ .
... etc.

Master Statistique et Econométrie


92 / 140

La décomposition en valeurs singulières des matrices (DVS)

L'écriture matricielle d'un produit scalaire


Soit B = {ek }nk=1 une base de E . Donc pour tous x, y ∈ E on a
n n
et y =
X X
x= xj ej yi ei
j=1 i=1

ainsi, on note par xc et yc les matrices de x et y dans la base B (i.e. les


vecteurs coordonnés de x et y dans la base B ) :
xc = [x1 , x2 , · · · , xn ]T et yc = [y1 , y1 , · · · , yn ]T .
* n n
+ n
X X X
⟨x, y ⟩ = xj ej , yi ei = xj yi ⟨ej , ei ⟩ = yc∗ Mxc ;
j=1 i=1 i,j=1

où =
u∗ uT désigne pour tout u ∈ l'adjoint (ou transconjugué) du
Kn
vecteur u et M = [⟨ej , ei ⟩] ∈ Mn (K) est dite la matrice associée au
produit scalaire dans la base B.
Master Statistique et Econométrie
91 / 140

La décomposition en valeurs singulières des matrices (DVS)

Quatre sous-espaces fondamentaux


On munit Kp par le produit scalaire canonique ⟨x, y ⟩ = y ∗ x pour tous
x, y ∈ Kp ainsi la base canonique de Kp est une base orthonormale. Et on a

Théoreme fondamental de l'algèbre linéaire


Soit A ∈ Mm,n (K) alors on a
(ker(A))⊥ = Im(A∗ ) et (Im(A))⊥ = ker(A∗ ).

Par conséquent,
Kn = ker(A) ⊕ Im(A∗ ) et Km = ker(A∗ ) ⊕ Im(A).

Ainsi, on déduit le théorème du rang.


n = dim(ker(A)) + rg(A) et m = dim(ker(A∗ )) + rg(A).
Master Statistique et Econométrie
94 / 140

Donc on déduit les propriétés de la matrice M = [⟨ej , ei ⟩] associée au
produit scalaire de E :
La matrice M est auto-adjointe ; i.e. M ∗ = M . En eet, puisque pour tous
x, y ∈ E on a
⟨x, y ⟩∗ = ⟨x, y ⟩ = ⟨y , x⟩
alors
(yc∗ Mxc )∗ = xc∗ Myc ⇐⇒ xc∗ M ∗ yc = xc∗ Myc ⇐⇒ M = M ∗ .

Notez que, si M ∈ Mn (R) alors M = M ∗ = M T on dit que M est


symétrique et si M ∈ Mn (C) on dit que M = M est hermitienne.

M est positive ; i.e. pour tout xc ∈ Kn on a xc∗ Mxc ≥ 0. En eet, puisque le


produit scalaire est positif alors pour tout x ∈ E on a
xc∗ Mxc = ⟨x, x⟩ ≥ 0.

M est dénie, i.e. xc∗ Mxc = 0 ⇐⇒ xc = 0Kn car le produit scalaire est déni.
Si B est une base orthonormée de E alors M = In .
Master Statistique et Econométrie
93 / 140

La décomposition en valeurs singulières des matrices (DVS)

Projecteur orthogonal

Dénition
On appelle un projecteur (ou une projection) tout endomorphisme p :
E −→ E idempotent ; i.e. vériant p ◦ p = p. Ainsi, sa matrice associée
P ∈ Mn (K) est dite la matrice de la projection et vériant P 2 = P.

Proposition et Dénition
Si p est un projecteur de E alors on a
E = Im(p) ⊕ ker(p).

On dit que p est une projection sur Im(p) parallèlement à ker(p). Si de


plus, (ker(p))⊥ = Im(p) on dit que p est un projecteur orthogonal.

Master Statistique et Econométrie


96 / 140

La décomposition en valeurs singulières des matrices (DVS)

Preuve

x ∈ ker(A) ⇐⇒ ∀y ∈ Km , y ∗ Ax = 0
⇐⇒ ∀y ∈ Km , (A∗ y )∗ x = 0
⇐⇒ x ∈ (Im(A∗ ))⊥ .
Donc
ker(A) = (Im(A∗ ))⊥ ,
ce qui est équivalent, puisque le noyau et l'image d'une matrice sont des
sous-espaces vectoriels, à
(ker(A))⊥ = (Im(A∗ ))⊥ = Im(A∗ )
 ⊥

Ainsi,
Im(A) = Im((A∗)∗) = (ker(A∗))⊥
Master Statistique et Econométrie
95 / 140

Théorème
Soient F un sous-espace vectoriel de E et x ∈ E , alors
min ∥x − y ∥ = ∥x − p(x)∥,
y ∈F

où p est le projecteur orthogonal sur F ; donc F = Im(p).


En eet, soient x ∈ E et y ∈ F alors on a
∥x − y ∥2 = ∥x − p(x) + p(x) − y ∥2
= ⟨x − p(x) + p(x) − y , x − p(x) + p(x) − y ⟩
= ∥x − p(x)∥2 + ∥p(x) − y ∥2 + 2ℜ⟨x − p(x), p(x) − y ⟩
Puisque p est un projecteur orthogonal sur F alors Im(p) = F et
x − p(x) ∈ ker(p) = F ⊥ donc
⟨x − p(x), p(x) − y ⟩ = 0 et min ∥p(x) − y ∥ = 0.
y ∈F

Ce qu'il fallait démontrer. Master Statistique et Econométrie


98 / 140

En eet, pour tout x ∈ E on a
x = p(x) + x − p(x)
or p(x) ∈ Im(p) et x − p(x) ∈ ker(p) car
p(x − p(x)) = p(x) − p ◦ p(x) = p(x) − p(x) = 0E ;
Donc E = Im(p) + ker(p). D'autre part on a
x ∈ Im(p) ∩ ker(p) =⇒ p(x) = 0E et ∃y ∈ E , p(y ) = x
=⇒ p(x) = 0E et ∃y ∈ E , p ◦ p(y ) = p(x)
=⇒ p(x) = 0E ∃y ∈ E , p(y ) = p(x) = 0E
=⇒ x = 0E .

Exercice
Soit p un projecteur de E . Montrer que q = idE − p est un projecteur
de E et
Im(p) = ker(q) et ker(p) = Im(q).
Donc on obtient, pour tout v ∈ Kn ,
PF v = Ax = A(A∗ A)−1 A∗ v ,

i.e.
PF = A(A∗ A)−1 A∗
qui est l'expression de la matrice de la projection orthogonale sur le
sous-espace vectoriel F . Remarquez que PF ∈ Mn (K) est une matrice
auto-adjointe et que rg(PF ) = dim F = m.

Exercice
Soit u un vecteur non nul de Kn . Déterminer la matrice de la projection
orthogonale sur F = vect(u).

Master Statistique et Econométrie


100 / 140

La décomposition en valeurs singulières des matrices (DVS)

La matrice de la projection orthogonale sur


un sous espace vectoriel de Kn
Soit F un sous-espace vectoriel de Kn de dimension m ∈ [|1, n|] engendré
par la famille de vecteurs {uk }m k=1 et on note par PF la matrice de la
projection orthogonale sur F . Pour déterminer la forme explicite de PF on
pose A = [u1 , u2 , · · · , um ] ∈ Mn,m (K) alors il est clair que
F = Im(A) = Im(PF ) et que A est de rang plein donc A∗ A est une matrice
inversible. Par conséquent, F ⊥ = ker(A∗ ) = ker(PF ). Ainsi, pour tout
v ∈ Kn on a PF v ∈ F et v − PF v ∈ F ⊥ donc il existe x ∈ Km tel que
Ax = PF v et A∗ (v − Ax) = 0Km . Or

A∗ Ax = A∗ v ⇐⇒ x = (A∗ A)−1 A∗ v

qui est dite l'équation normale et elle joue un rôle très importante dans la
statistique ; en particulier, pour eectuer une régression linéaire par la
méthode des moindres carrés. Notez l'unicité de x.
Master Statistique et Econométrie
99 / 140

Par conséquent, on a le système linéaire Y = X β + ε où
X = [xi,j ] ∈ Mn,m+1 (R), β = [β0 , β1 , · · · , βm ]T ∈ Rm+1 et
ε = [ε1 , · · · , εn ]T ∈ Rn sont sous la forme
1 x1,1 x1,2 · · · x1,m
     
ε1 β0
1 x2,1 x2,2 · · · x2,m   ε2   β2 
X = . .. .. . . ..  ,  .  et β =  .  .
 .. .  .. 
     
. . . .   . 
1 xn,1 xn,2 · · · xn,m εn βm
β est dit le vecteur des paramètres du modèle. Ainsi, on dénit la valeur
prédite du modèle par Ŷ qui vérie l'équation Ŷ = X β̂, où β̂ est le vecteur
des paramètres estimés. Donc, on appelle la diérence entre la valeur
observée Y et celle prédite Ŷ par le résidu, i.e. ε̂ = Ŷ − Y . En eet,
min ∥ε∥ = minn ∥Y − X β∥ = ∥Y − Ŷ ∥ = ∥ε̂∥.
β∈R

On remarque que β̂ est la solution au sens des moindres carrés du système


Y = X β.
Master Statistique et Econométrie
102 / 140

La décomposition en valeurs singulières des matrices (DVS)

Application : La régression linéaire par la


méthode des moindres carrés
Le modèle de régression linéaire est un modèle utilisé dans divers domaines,
comme en statistiques, en économétrie et en apprentissage automatique,
pour chercher à prédire un phénomène que pour chercher à l'expliquer. En
général, on cherche à établir une relation linéaire entre une variable, dite
expliquée, et une (ou plusieurs) variables, dites explicatives.
Soit Y = [y1 , · · · , yn ]T ∈ Rn , où yi est dit une variable expliquée pour
l'individu i ∈ [|1, n|]. Ainsi, chaque yi peut être s'écrit comme une
combinaison linéaire des variables [xi,j ]j=j=m
0 qui dites explicatives avec
xi,0 = 1; plus une erreur que l'on note εi ; i.e. pour chaque individu i on a
m
X
yi = βj xi,j + εi .
j=0

Master Statistique et Econométrie


101 / 140

La décomposition en valeurs singulières des matrices (DVS)

Cas particulier : Ajustement ane


Étant donné un nuage des points (xi , yi ) (i = 1, · · · , n) résultat de n
observations xi et yi tel que les xi ne sont pas tous égaux. Pour les deux
variables aléatoires x = [xi ]T et Y = [yi ]T , on cherche à déterminer une
droite ajustant le mieux possible le nuage en utilisant la méthode des
moindres carrés et on appelle donc cette droite, la droite des moindres
carrés. En général, une telle droite est de la forme Y = X β + ε avec
X = [1, x] ∈ Mn,2 (R); 1 ∈ Rn est le vecteur des éléments 1 et
β = [β0 , β1 ]T ∈ R2 Ainsi, la droite des moindres carrés minimise, en
norme, l'erreur ε. Par conséquent et d'après ce qui précède, on cherche à
déterminer la solution, β̂, au sens des moindres carrés du système Y = X β.
i.e.
β̂ = (X T X )−1 X T Y et donc Ŷ = X β̂ = PX Y ,
avec PX = X (X T X )−1 X T .
Master Statistique et Econométrie
104 / 140

Ainsi, d'après ce qui précède, si X est de rang plein alors
β̂ = (X T X )−1 X T Y .

D'où
Ŷ = X β̂ = PX Y ,
où PX = X (X T X )−1 X T est la matrice de la projection orthogonale sur
Im(X ).

Master Statistique et Econométrie


103 / 140

Aussi,
n
 
X
 yi 
XTY =  i=1
 
n
.
X 
 xi yi 
i=1

D'où
n n n n
 ! ! ! !
xi2
X X X X
 yi − xi xi yj 
i=1 i=1 i=1 i=1
 

 n n
!2 

xi2 −
 X X 

 n xi 

β̂ = (X T X )−1 X T Y =  i=1! i=1
.
 
n n n
! !
 X X X 

 n xi yj − xi yi 

i=1 i=1
!2i=1
 
 
 n n 
xi2 −
X X
n xi
 
i=1 i=1
Explicitement on a,
1T  1T 1 1 T x
   
X T X = [1, x]T [1, x] = 1 x = T

;
x T 1 x xT x
i.e.  n

X
 n xi 
T i=1
 
X X = n X .
n

2
X
 x i x i
i=1 i=1
Puisque les xi ne sont pas tous égaux alors la matrice X T X est inversible
et on a
n n
 
2
X X
xi − xi 
1

T −1 1 i=1
 
(X X ) = i= .
n n
!2 
 X n 
−
xi2 − xi n 
X X
n xi
i=1
i=1 i=1

Master Statistique et Econométrie


105 / 140

La décomposition en valeurs singulières des matrices (DVS)

Propriétés des matrices unitaires

Soit P ∈ On (K) alors on a


Les vecteurs colonnes de P forment une base orthonormale pour le produit
scalaire canonique de Kn .
Les valeurs propres de P sont de module 1.
Les vecteurs propres de P sont orthogonaux.

Master Statistique et Econométrie


108 / 140

La décomposition en valeurs singulières des matrices (DVS)

Théorème spectral
Dénition : matrice unitaire - orthogonale
On dit qu'une matrice U ∈ Mn (K) est unitaire si et seulement si
UU ∗ = In et U ∗ U = In .
En particulier, si K = R on dit que U est une matrice orthogonale.
et désigne par On (K) l'ensemble des matrices unitaires (en particulier
orthogonales) d'ordre n.

Exercice
Montrer que (On (K), ×) est un groupe et que pour tout P ∈ On (K)
on a | det(P)| = 1 ( le module du déterminant de P ) et déduire que
On (K) ⊂ GLn (K).
Master Statistique et Econométrie
107 / 140

En eet, soit A ∈ Mn (K) une matrice auto-adjointe et soit λ une valeur
propre de A alors pour un vecteur propre v associé à λ on a
v ∗ (Av ) = (Av )∗ v ⇐⇒ λv ∗ v = λv ∗ v ⇐⇒ λ = λ ⇐⇒ λ ∈ R,

car v ∗ v = ∥v ∥2 > 0 (la norme associée au produit scalaire canonique qui a


été xé pour Kn ).

Proposition 2.
Les vecteurs propres associés à des valeurs propres distinctes d'une ma-
trice auto-adjointe sont orthogonaux.
En eet, Soient λ et µ deux valeurs propres distinctes associées à deux
vecteurs propres v et u, respectivement, d'une matrice auto-adjointe A
alors on a
u ∗ (Av ) = (Au)∗ v ⇐⇒ λu ∗ v = µu ∗ v ⇐⇒ (λ − µ)u ∗ v = 0 ⇐⇒ u ∗ v = 0

ce qui montre que u et v sont orthogonaux.


Master Statistique et Econométrie
110 / 140

On rappelle qu'une matrice A ∈ Mn (K) est auto-adjointe si et seulement
si A∗ = A. Donc, on a le théorème suivant ;

Théorème spectral
Soit A ∈ Mn (K) une matrice auto-adjointe alors il existe une matrice
P ∈ On (K) et une matrice diagonale D = diag [λ] telles que
λ∈Sp(A)

A = PDP ∗ .

i.e. que toute matrice auto-adjointe est diagonalisable.


La démonstration du théorème est basée sur trois propositions importantes :

Proposition 1.
Les valeurs propres d'une matrice auto-adjointe sont réelles.

Master Statistique et Econométrie


109 / 140

Ce qui implique v ∈ ker(M k ) = ker(M) donc ker(M k+1 ) = ker(M); ce qu'il
fallait démontrer.
On déduit que pour toute valeur propre λ d'une matrice auto-adjointe
A ∈ Mn (K) on a (A − λIn ) est auto-adjointe car d'après proposition 1
λ ∈ R et
(A − λIn )∗ = A∗ − λIn = A − λIn .
Ainsi, par proposition 3, on déduit que
Eλc (A) := ker ((A − λIn )αλ ) = ker(A − λIn ) =: Eλ (A).
Par conséquent, d'après le chapitre 2, A est diagonalisable ; i.e. il existe
P ∈ GLn (K) et une matrice diagonale D (ayant les valeurs propres de A
sur sa diagonale principale) telles que
A = PDP −1 .
Les vecteurs colonnes de P sont les vecteurs propres orthonormés associés
à les valeurs propres de A classés suivant le même ordre de classement des
valeurs propres dans D. Notez que d'après proposition 2 les vecteurs
propres associés à les valeurs propres distinctes sont orthogonaux.
Master Statistique et Econométrie
112 / 140

Proposition 3.
Soit M ∈ Mn (K) une matrice auto-adjointe alors pour tout k ∈ N∗ on
a
ker(M k ) = ker(M).

En eet, par récurrence on a la propriété est vériée pour k = 1; supposons


qu'elle est vériée aussi pour un certain entier k ∈ N∗ et montrons qu'elle
reste vraie pour k + 1. Donc d'une part, il est clair que
ker(M) ⊂ ker(M k+1 ) pour tout k ∈ N. D'autre part, on a
v ∈ ker(M k+1 ) =⇒ M k+1 v = 0Kn =⇒ M(M k v ) = 0Kn
=⇒ Mw = 0Kn avec w = M k v
=⇒ w ∈ ker(M) ∩ Im(M) =⇒ w = 0Kn ;
car d'après le théorème fondamental de l'algèbre linéaire on a
Im(M) = (ker(M ∗))⊥ = (ker(M))⊥ .
Master Statistique et Econométrie
111 / 140

En eet, soit A ∈ Mn (K) une matrice auto-adjointe, alors
⇒ . Si A est positive alors pour tout x ∈ Kn on a x ∗ Ax ≥ 0 donc,
en particulier, si v est un vecteur propre associé à une telle
valeur propre λ on a
v ∗ Av = λ∥v ∥2 ≥ 0 =⇒ λ ≥ 0.
De même si A est dénie-positive alors pour tout
x ∈ Kn \ {0Kn } on a x ∗ Ax > 0 donc en particulier, pour un
vecteur propre v associé à une telle valeur propre λ on a
v ∗ Av = λ∥v ∥2 > 0 =⇒ λ > 0.
Par conséquent, d'après le théorème spectral on a
1 1 1 1 ∗
  
A = PDP ∗ = PD 2 D 2 P ∗ = PD 2 PD 2 = B ∗ B;
1 ∗
 
avec B = PD 2 . Notez que si les valeurs propres sont
strictement positives alors B est inversible.
Master Statistique et Econométrie
114 / 140

Pour les vecteurs propres associés à la même valeur propre de multiplicité
mλ > 1 on utilise le procédé d'orthonormalisation de Gram-Schmidt pour
obtenir enn P ∈ On (K). Remarquez que,
A∗ = A ⇐⇒ (PDP −1 )∗ = PDP −1 ⇐⇒ (P ∗ )−1 DP ∗ = PDP −1 ;
donc P −1 = P ∗ ; ce qui complète la démonstration du théorème spectral.

Corollaire
Soit A ∈ Mn (K) une matrice auto-adjointe alors :
A est positive si et seulement si les valeurs propres de A sont positives.
A est dénie-positive si et seulement si les valeurs propres de A sont
strictement positives.
D'une manière équivalente, une matrice A ∈ Mn (K) auto-adjointe est
positive (resp. dénie-positive) si et seulement s'il existe une matrice
B ∈ Mn (K) (resp. B ∈ GLn (K)) telle que

A = B ∗ B.
Master Statistique et Econométrie
113 / 140

La décomposition en valeurs singulières des matrices (DVS)

Décomposition en valeurs singulières


(DVS)

Théorème (DVS)
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1, alors il existe deux
matrices S ∈ Om (K) et V ∈ On (K) telles que
A = S∆V ∗ ;

où  
Dr Θr ,n−r
∆=
Θm−r ,r Θm−r ,n−r

et Dr = diag [ λ] ∈ Mr (K).
λ∈Sp(A∗ A)

Master Statistique et Econométrie


116 / 140

⇐ . Si les valeurs propres de A sont positives alors d'après le
théorème spectral on a
1 1
A = PDP ∗ = PD 2 D 2 P ∗ = B ∗ B;

donc pour tout x ∈ Kn on a


x ∗ Ax = x ∗ B ∗ Bx = (Bx)∗ (Bx) = ∥Bx∥2 ≥ 0.

En particulier, si les valeurs propres de A sont strictement


positives alors B est inversible et donc pour tout
x ∈ Kn \ {0Kn },

x ∗ Ax = x ∗ B ∗ Bx = (Bx)∗ (Bx) = ∥Bx∥2 > 0.

Master Statistique et Econométrie


115 / 140

Donc pour tout i, j = 1, · · · , n on a
si i = j
(
λj
(Avi )∗ (Avj ) = vi∗ A∗ Avj = λj vi∗ vj = λj δi,j = .
0 si non
Ainsi, on pose pour tout k = 1, · · · , r
Avk 1
sk = = √ Avk ;
∥Avk ∥ λk
alors il est claire que la famille {sk }rk=1 est orthonormale et que pour tout
k ∈ [|1, r |] on a
∗ 1 ∗ p
A sk = √ A Avk = λk vk
λk
donc
AA∗ sk =
p
λk Avk = λk sk .
Ce qui montre que sk est un vecteur propre associé à la valeur propre
λk > 0 pour tout k ∈ [|1, r |].
Master Statistique et Econométrie
118 / 140

La décomposition en valeurs singulières des matrices (DVS)

Preuve
Soit A ∈ Mm,n (K) une matrice du rang r ≥ 1; on rappelle que
r ≤ min{m, n}, donc la matrice A∗ A ∈ Mn (K) est auto-adjointe positive
du rang r , et par conséquent, elle admet r −valeurs propres strictement
positives et n − r valeurs propres nulles. Ainsi, par le théorème spectral il
existe une matrice V ∈ On (K) telle que
A∗ A = VDV ∗

Dr2
 
Θr ,n−r
D= .
Θn−r ,r Θn−r ,n−r
La matrice unitaire V a la forme concaténée par colonne
V = [v1 , v2 , · · · , vr , vr +1 , · · · , vn ] avec {vk }rk=1 sont les vecteurs propres
orthonormaux associés à les r −valeurs propres strictement positives et
{vk }nk=r +1 sont les vecteurs orthonormaux de ker(A).
Master Statistique et Econométrie
117 / 140

Exercice
Déterminer la décomposition en valeurs singulières de la matrice
1 0 −1 1
 
A= .
2 0 0 1

Master Statistique et Econométrie


120 / 140

Finalement, les vecteurs sk avec k ∈ [|r + 1, m|] sont les vecteurs propres
associés à les valeurs propres nulles qui sont des vecteurs orthonormés du
ker(A∗ ). Donc

S = [s1 , s2 , · · · , sr , sr +1 · · · , sm ] ∈ Om (K).

Terminologie
Les valeurs propres non nulles de A∗ A qui sont les mêmes valeurs propres
non nulles de AA∗ sont dites les valeurs singulières de A. Les vecteurs
propres de A∗ A sont dits les vecteurs singuliers à droite de A et les
vecteurs propres de AA∗ sont dits les vecteurs singuliers à gauche de
A.

Master Statistique et Econométrie


119 / 140

Quelques décompositions matricielles

Algorithme et preuve
Soit A = [a∗1 , a∗2 , · · · , a∗n ] une matrice de rang plein alors ses vecteurs
colonnes a∗j sont linéairement indépendant, donc soient qj ∈ Km
(j = 1, · · · , n) les vecteurs obtenus en appliquant le procédé de
Gram-Schmidt via le produit scalaire canonique sur la famille {a∗j }nj=1 et
on pose Q = [q1 , q2 , · · · , qn ] ∈ Mm,n (K). Il est clair que Q ∗ Q = In et que
Q ∗ A = [Q ∗ a∗1 , Q ∗ a∗2 , · · · , Q ∗ a∗n ] := R.
Montrons que R est une matrice triangulaire supérieure ayant les éléments
strictement positifs sur sa diagonale principale. Puisque q1 = ∥aa∗∗11 ∥ et pour
tout j ∈ [|2, n|] on a
Pj−1 ∗
a∗j − k=1 (qk a∗j )qk
qj = Pj−1 ∗
∥a∗j − k=1 (qk a∗j )qk ∥
alorsQ ∗a∗1 = ∥a∗1 ∥e1 ; où ej désigne le j−ème vecteur de la base
canonique de Kn ,
Master Statistique et Econométrie
122 / 140

Quelques décompositions matricielles

Décomposition QR

Théorème
Soit A ∈ Mm,n (K) une matrice de rang plein alors il existe une matrice
Q ∈ Mm,n (K) et une matrice triangulaire supérieure R ∈ Mn (K) telles
que Q ∗ Q = In et
A = QR.

Notez que les éléments dans la diagonale principale de la matrice


triangulaire supérieure R sont strictement positifs. Ainsi, il existe
plusieurs méthode pour réaliser cette décomposition, dans ce cours on
propose la méthode de Gram-Schmidt.

Master Statistique et Econométrie


121 / 140

Exercice
Déterminer la décomposition QR de la matrice A donnée par
1 0
 

A = −1 1

0 1

Master Statistique et Econométrie


124 / 140

et pour tout j ∈ [|2, n|] on a
Pj−1
∗ Q ∗ a∗j − ∗ ∗
k=1 (qk a∗j )Q qk
Q qj = Pj−1 .
∥a∗j − ∗
k=1 (qk a∗j )qk ∥

Par conséquent, le fait que Q ∗ qk = ek pour tout k ∈ [|1, n|] implique que
pour tout j ∈ [|2, n|] on a
j−1
X j−1
X
Q ∗ a∗j = a∗j − (qk∗ a∗j )qk ej + (qk∗ a∗j )ek = r∗j ;
k=1 k=1

ce qui montre que R = [r∗1 , r∗2 , · · · , r∗n ] est une matrice triangulaire
supérieure ayant ses éléments sur la diagonale principale
j−1
(qk∗ a∗j )qk > 0.
X
rjj = a∗j −
k=1

Master Statistique et Econométrie


123 / 140

Exercice
Montrer que la matrice
1 −1 0
 
0 2 1
3 0 1
admet une décomposition QR à déterminer et déduire l'inverse de A ainsi
que la solution du système linéaire AX = b où b = [1, 0, −1]T .

Master Statistique et Econométrie


126 / 140

Corollaire
Soit A ∈ Mm,n (K) une matrice de rang plein donc admet la décompo-
sition A = QR, alors la matrice P = QQ ∗ est la matrice de la projection
orthogonale sur Im(A).
En eet, puisque A est de rang plein alors elle admet une décomposition
QR où Q ∗ Q = In et R est une matrice triangulaire supérieure ayant ses
éléments de la diagonale principale strictement positifs. Et puisque la
matrice de la projection orthogonale sur Im(A) s'écrit (d'après ce qui
précède) sous la forme
P = A(A∗ A)−1 A∗
alors
P = QR(R ∗ Q ∗ QR)−1 R ∗ Q ∗ = QR(R ∗ R)−1 R ∗ Q ∗ = QQ ∗ .

Master Statistique et Econométrie


125 / 140

Quelques décompositions matricielles

Système des équations linéaires


Ainsi, la résolutions des systèmes de plusieurs d'inconnues et d'équations
reste le majeur problème dont on utilise l'élimination de Gauss. On appelle
un système d'équations linéaires tout système qui est sous la forme


 a1,1 x1 + a1,2 x2 + · · · + a1,n xn = b1

 a2,1 x1 + a2,2 x2 + · · · + a2,n xn

= b2
.. .. ..


 . . .

am,1 x1 + am,2 x2 + · · · + am,n xn = bm

où b = [b1 , · · · , bm ]T ∈ Rm est un vecteur xé et connu,


x = [x1 , · · · , xn ]T ∈ Rn est un vecteur inconnu et les [ai,j ] (i = 1, · · · , m et
j = 1, · · · , n) sont des réels et qui représentent les éléments d'une matrice
A. On déduit que chaque système d'équations linéaires est réduit à une
équation matricielle ane, i.e.
Ax = b. Master Statistique et Econométrie
128 / 140

Quelques décompositions matricielles

Élimination de Gauss
On peut dénir l'élimination de Gauss comme un algorithme des opérations
élémentaires appliquées à une matrice donnée pour la rendre échelonnée
réduite. Les opérations élémentaires utilisées sont :
Op1. L'échange de deux lignes,
Op2. La multiplication d'une ligne par un scalaire non nul,
Op3. L'ajout du multiple d'une ligne à une autre ligne.
L'élimination de Gauss joue un rôle très important dans la théorie des
matrices, son rôle réside dans la détermination de rang, l'inverse (quand il
existe) et calcul de déterminant d'une matrice. On a vu que ce dernier
nécessite une n! opérations pour une matrice carrée d'ordre n. Cependant,
la complexité algorithmique asymptotique de l'élimination de Gauss est
O(n3 ) ce que la rendre plus ecace. Notez que cet algorithme peut être
utilisé sur un ordinateur pour des matrices avec une taille des milliers
d'éléments.
Master Statistique et Econométrie
127 / 140

Quelques décompositions matricielles

Résolution des systèmes linéaires par l'éli-


mination de Gauss
Nous allons traiter quelques exemple des systèmes d'équations linéaires par
l'élimination de Gauss. Pour cette raison on écrit le système [A|b] à la place
de l'équation Ax = b. Par exemple, le système
+2z =0
(
x −y
2x +y +z = −1
est sous la forme de sa matrice augmentée
1 −1 2 0
 
ℓ1 −→
.
ℓ2 −→ 2 1 1 −1
Donc par l'opération élémentaire, en remplaçant ℓ2 par ℓ(21) = ℓ2 − 2ℓ1 on
aura
−→ 1 −1 2 0
 
ℓ1
(1) .
ℓ2 −→ 0 3 −3 −1
Master Statistique et Econométrie
130 / 140

En particulier, si b = 0Rm le système est dit homogène et donc leur
solutions dans ce cas est le sous-espace vectoriel de Rn , ker(A). En général,
le système
(i) n'a pas de solution si b ∈/ Im(A).
(ii) a une solution unique x ∗ ∈ Rn si ker(A) = {0Rn }. Dans ce cas le
système peut être réduite à un système A′ x = b′ où A′ est
une matrice carrée d'ordre n inversible et sous matrice de A;
de même pour b′ par rapport à b. Ainsi, x ∗ = A′−1 b′ .
(iii) a une innité de solutions si ni (i) ni (ii) sont le cas.
Notez que dans le cas (i) le système est dit inconsistant et on peut le
traiter en utilisant la méthode des moindres carrées.

Exercice
- Montrer (i), (ii) et (iii).
- Montrer que l'ensemble des solutions de l'équation Ax = b est convexe.

Master Statistique et Econométrie


129 / 140

Quelques décompositions matricielles

Détermination de l'inverse d'une matrice


Les matrices inversibles sont obligatoirement des matrices carrées, alors on
peut utiliser l'élimination de Gauss pour déterminer l'inverse d'une matrice.
Par exemple, soit
1 −1 0
 

A = 2 −2 −1
7 3 8
alors, on pose
1 −1 0 1 0 0
 
ℓ1 −→
ℓ2 −→ 2 −2 −1 0 1 0 .
ℓ3 −→ 7 3 8 0 0 1
On remplace ℓ2 par ℓ2 − 2ℓ1 et ℓ3 par ℓ3 − 7ℓ1 on trouve
1 −1 0 1 0 0
 
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
ℓ3 −→ 0 10 8 −7 0 1
C'est à dire, X = [x, y , z]T ∈ R3 est une solution si et seulement si
y = z − 1/3 et x = −z − 1/3 c'est à dire

1 1
 T
X = z[−1, 1, 1] + − , − , 0
T
.
3 3
D'où le système admet une innité des solutions qui représentent un sous
espace ane de R3 .

Exercice
En utilisant l'élimination de Gauss, résoudre les systèmes linéaires
1 0 −1 3 1 4 0
   
3 2 1 0 et −2 1 −1 .
1 1 6 7 5 0 2

Master Statistique et Econométrie


131 / 140

Finalement 13 4 1
1 0 0 − 10

5 10
0 1 0 − 23 4 1
10 5 10 ;
0 0 1 2 −1 0
la matrice inverse de A est
 13 4 1
− 10 5 10
A−1 = − 23
10
4
5
1
10 .
2 −1 0

Exercice
Déterminer le rang et l'inverse, s'il existe, de la matrice
1 −1 4 1
 
2 0 0 1.
−3 2 0 1

0 2 −1 0
Master Statistique et Econométrie
134 / 140

Ainsi, en remplaçant ℓ3 par ℓ3 + 8ℓ2 on aura
1 −1 0 1 0 0
 
ℓ1 −→
ℓ2 −→ 0 0 −1 −2 1 0 .
ℓ3 −→ 0 10 0 −23 8 1
1
De même en remplace ℓ1 par ℓ1 + 10 ℓ3 on obtient
13 4 1
1 0 0 − 10

ℓ1 −→ 5 10
ℓ2 −→ 0 0 −1 −2 1 0 ,
ℓ3 −→ 0 10 0 −23 8 1
c'est à dire
1 0 0 − 13 4 1

ℓ1 −→ 10 5 10
ℓ2 −→ 0 0 1 2 −1 0 .
ℓ3 −→ 0 1 0 − 23
10
4
5
1
10

Master Statistique et Econométrie


133 / 140

Quelques décompositions matricielles

Calcul de la décomposition
Sans perte de généralité, soit A une matrice carrée qui admette une
décomposition LU. Ainsi, pour décomposer la matrice A en produit LU,
d'abord, on transforme, en utilisant l'élimination de Gauss, la matrice A à
une matrice triangulaire supérieure U en éliminant les coecients sous la
diagonale principale. Ainsi, les éléments restants sont les coecients
multiplicateurs à cause de lesquelles les positions respectives deviennent
nulles dans la matrice U. Notez que certaine décomposition LU peut être
transformée à une décomposition LDU où D est une matrice diagonale
ayant les mêmes éléments de la diagonale de U et U devient une matrice
triangulaire supérieure ayant les 1 sur sa diagonale principales en divisant
chaque ligne par l'élément de la diagonale principale qui correspond.
On va présenter l'algorithme sous titre d'un exemple.

Master Statistique et Econométrie


136 / 140

Quelques décompositions matricielles

Décomposition LU
Une décomposition LU se réfère à la factorisation d'une matrice carrée A
sous la forme A = LU, en utilisant l'élimination de Gauss, où L est une
matrice triangulaire inférieure et U est une matrice triangulaire supérieure.
Il n'est pas toujours vrai qu'une matrice carrée A admette une
décomposition LU; cependant, toute matrice carrée A admette une
décomposition PLU, en multipliant A par une matrice de permutation P
(voir l'un des exemples ci-dessous).
Pour une matrice inversible A = [ai,j ] ∈ Mn (R), on note Ak les matrices
principales dominantes de A, i.e. Ak = [ai,j ] ∈ Mk (R). Donc, la matrice A
admette une décomposition LU si rg(Ak ) = k, pour k = 1, 2, . . . , n − 1.
S'il existe un k ∈ [|1, n − 1|] tel que rg(Ak ) ̸= k alors la matrice A admette
une décomposition PLU où P est une matrice de permutation choisie de
telle sorte que la matrice P T A admette une décomposition LU.
Notez que, cette décomposition n'est pas unique, mais si on xe les
éléments de la diagonale principale de L égaux 1, alors on aura l'unicité.
1 −1 0
 
ℓ1 −→
ℓ2 −→ 0 10 8  .
ℓ3 −→ 0 0 −1
Or on a la matrice U,
1 −1 0
 

U = 0 10 8  .

0 0 −1
Pour la matrice L, puisque les opérations eectuées sont ℓ2 − 7ℓ1 et
ℓ3 − 2ℓ1 alors
1 0 0
 

L = 7 1 0 .
2 0 1
Donc P T A = LU ce qui est équivalent à A = PLU et on déduit que
|A| = |P||L||U| c'est à dire |A| = −|U| = 10.

Master Statistique et Econométrie


138 / 140

Quelques décompositions matricielles

Exemple
On considère la matrice,
1 −1 0
 

A = 2 −2 −1
7 3 8
alors, puisque le rang de la matrice principale A2 est 1 ̸= 2, donc A
n'admet pas une décomposition LU; cependant, elle admet une
décomposition PLU alors on fait une permutation de ℓ2 avec ℓ3 , en
multipliant par une matrice de permutation P T (à déterminer) on obtient
1 −1 0
 
ℓ1 −→
ℓ2 −→ 7 3 8 .
ℓ3 −→ 2 −2 −1
Donc, on remplace ℓ2 et ℓ3 respectivement par ℓ2 − 7ℓ1 et ℓ3 − 2ℓ1 on
trouve
Master Statistique et Econométrie
137 / 140

Exercice
Déterminer la décomposition LU ou PLU de la matrice
3 1 −1 0
 
 1 −7 3 2
A=
−1 3
.
1 5
0 2 5 3
Question Bonus. Déterminer la décomposition spectrale et en valeurs
singulière de A.

Master Statistique et Econométrie


140 / 140

Aussi, on peut obtenir la décomposition PLDU de la matrice A en
remarquant que
1 −1 0 1 0 0 1 −1 0
    
8
U = 0 10 8 = 0 10 0
    0 1 10 = DU ′ .
0 0 −1 0 0 −1 0 0 1
Remarquez que :
La décomposition LDU d'une matrice A ∈ Mn (R) obtenue dans le premier
chapitre peut être considérée comme une généralisation de celle obtenue
dans ce chapitre.
Si A ∈ Sn (R) est une matrice symétrique admette une décomposition LDU
alors U = LT .
Les résultats obtenus restent valable pour une matrice carrée complexe.

Master Statistique et Econométrie


139 / 140

Vous aimerez peut-être aussi