Vous êtes sur la page 1sur 5

ANNEXE A

RAPPELS D’ALGÈBRE LINÉAIRE

00
48
70
5
51
1:1
.25
.42
42
1.1
:4
96
88
0
02
6:1
81
98
76
:2
er

Les mathématiques utilisées en économétrie sont simples. Il suffit de bien connaître


ng
Ta

certaines règles de calcul matriciel. Nous les rappelons dans cette annexe sans
G
NC

commentaire ni démonstration. Le lecteur désireux de compléter ses connaissances en


:E
om
x.c

la matière peut se reporter utilement à Dixmier (1977) ou à Michel (1989).


vo
lar

On désigne les matrices par des lettres majuscules et les vecteurs par des lettres
ho
sc

minuscules.
w.
ww

A est une matrice à m lignes et n colonnes composée d’éléments aij .


(m,n)
La matrice A est associée à une application linéaire d’un espace vectoriel V1 de
dimension n vers un espace vectoriel V2 de dimension m. Soit le vecteur x ∈ V1 .
(n,1)
Son image y par l’application linéaire correspondant à A est un vecteur y ∈ V2 défini
par : y = Ax.
(m,1)
On note A la transposée de A. Rangées dans le même ordre, les n lignes de A
(n,m)
sont les n colonnes de A.
A symétrique ⇔ A = A
Pour un vecteur x , on note pareillement x son transposé.
(n,1) (1,n)
Le produit de deux matrices A et B n’est défini que si le nombre de colonnes de A
est égal au nombre de lignes de B. Le produit matriciel correspond à la composition des
applications linéaires associées. On a :

A B = C
(m,n)(n,p) (m,p)

473
INTRODUCTION À L’ ÉCONOMÉTRIE

Propriété

(AB) = B  A

On note In la matrice identité de format (n, n). On a :


(n,n)

A In = A = Im A
(m,n)(n,n) (m,n) (m,m)(m,n)

Soit A une matrice carrée régulière. Une telle matrice correspond à une
(n,n)

00
−1

48
application linéaire bijective. On note A son inverse, qui correspond à

70
(n,n)

5
51
1:1
l’application linéaire réciproque. Elle est définie par :

.25
.42
AA−1 = A−1 A = In

42
1.1
:4
96
88
0
02

Propriétés sur l’inverse d’une matrice


6:1
81

Si A et B sont deux matrices régulières, on a :


98
76
:2
er

(A−1 ) = (A )−1


ng
Ta
G

(AB)−1 = B −1 A−1
NC
:E
om
x.c
vo
lar

Propriétés sur le rang d’une matrice


ho
sc

Le rang de A , noté Rg(A), est égal au nombre de colonnes de A qui sont


w.
ww

(m,n)
linéairement indépendantes. Le rang de A est égal à la dimension de l’image, dans
V2 , de l’application linéaire correspondant à A.

Rg ( A ) ≤ inf(m, n)
(m,n)
Rg(AB) ≤ inf (Rg(A), Rg(B))
Rg(A) = Rg(A ) = Rg(AA) = Rg(A A)
Rg(A + B) ≤ Rg(A) + Rg(B)

Si B et C sont régulières, Rg(AB) = Rg(CA) = Rg(A).

Propriétés sur le déterminant d’une matrice


Soit |A| le déterminant de la matrice carrée A . On a les propriétés suivantes :
(n,n)

A régulière ⇔ Rg(A) = n ⇔ |A| = 0


(n,n)
 
|A| = A 

474
RAPPELS D ’ ALGÈBRE LINÉAIRE

|AB| = |A| |B| = |BA|


|αA| = αn |A| , où α est un scalaire

 
Si A est régulière, A−1  = |A|−1 .

Si A est une matrice triangulaire supérieure, son déterminant est égal au produit des
éléments de sa diagonale principale.

Propriétés sur la trace d’une matrice

00
48
La trace de la matrice carrée A est notée tr(A). Par définition, elle est égale à la

70
(n,n)

5
51
1:1
somme des éléments de la diagonale principale de A. On a les propriétés suivantes :

.25
.42
42
tr(A) = tr(A )
1.1
:4
96
88

tr(A + B) = tr(A) + tr(B)


0
02
6:1

tr(λA) = λ tr(A), où λ est un scalaire.


81
98
76
:2
er

Sous réserve que les produits matriciels considérés soient définis, on a :


ng
Ta
G

tr(ABC) = tr(CAB) = tr(BCA) (= tr(BAC))


NC
:E
om

Soit E l’opérateur linéaire « espérance mathématique » et X une matrice dont les


x.c
vo

éléments sont des variables aléatoires. On a :


lar
ho
sc
w.

tr (E(X)) = E (tr(X))
ww

Propriétés des matrices orthogonales


Soient deux vecteurs x1 et x2 . Ils sont orthogonaux si x1 x2 = x2 x1 = 0. Une
(n,1) (n,1)
matrice A est orthogonale si elle est formée de vecteurs xi orthogonaux entre eux
(n,n) (n,1)
et tels que xi xi = 1 ∀ i = 1, . . . , n.

A orthogonale ⇔ A−1 = A ⇔ AA = A A = I


A orthogonale ⇒ |A| = ±1
A et B orthogonales ⇒ AB est orthogonale

Vecteurs propres, valeurs propres, diagonalisation


Soit A une matrice carrée de format (n, n). x est un vecteur propre de A s’il est
(n,1)
non nul et si Ax = λx, où λ est un scalaire.
Pour que le système d’équations (A − λI) x = 0 ait une solution autre que x = 0 ,
(n,1)
il faut que |A − λI| = 0.

475
INTRODUCTION À L’ ÉCONOMÉTRIE

|A − λI| est un polynôme de degré n qui peut admettre n racines, distinctes ou non.
On note λ1 , λ2 , . . . , λn les valeurs propres de A , et x1 , x2 , . . . , xn les vecteurs propres
correspondants.
Si Rg(A) = r, A possède r valeurs propres non nulles.
Les vecteurs propres correspondant à deux valeurs propres distinctes sont
orthogonaux.
Si A possède n valeurs propres distinctes λ1 , λ2 , . . . , λn , on peut écrire A sous la
forme A = XDX  , où D est la matrice diagonale formée des valeurs propres de A.
X est la matrice orthogonale formée des vecteurs propres normés (tels que xi xi = 1)
associés à ces valeurs propres. On a donc aussi X  AX = D.

00
48
70
Les matrices symétriques sont diagonalisables.

5
51
1:1
.25
.42
Propriétés des matrices diagonalisables

42
Soit A = XDX  . On a :
1.1
:4
96
88
0
02

|A| = produit des valeurs propres de A


6:1
81

tr(A) = somme des valeurs propres de A


98
76
:2

Ap = XDp X 
er
ng
Ta
G
NC

Propriétés des matrices définies (semi-) positives


:E
om
x.c

Soit une matrice symétrique A .


vo

(n,n)
lar
ho
sc
w.

A définie positive ⇔ x Ax > 0 ∀ x = 0


ww

(n,1)

A définie semi-positive ⇔ x Ax ≥ 0 ∀ x = 0
(n,1)

On a les propriétés suivantes.


A définie positive ⇔ toutes les valeurs propres de A sont strictement supérieures
à 0.
A définie semi-positive ⇔ toutes les valeurs propres de A sont supérieures ou égales
à 0.
Une matrice définie positive est régulière.
A définie positive ⇔ A−1 définie positive.
A définie positive ⇒ B  AB définie positive pour B de rang p.
(n,p)
A définie semi-positive ⇒ B  AB définie semi-positive pour B de rang
(n,p)
quelconque.
Si B est de rang p, B  B est définie positive.
(n,p) (p,p)
Si B est de rang quelconque, B  B est définie semi-positive.
(n,p) (p,p)

476
RAPPELS D ’ ALGÈBRE LINÉAIRE

En conséquence, pour une matrice X de rang p, X  X est définie positive, mais


(n,p) (p,p)
XX  est définie semi-positive.
(n,n)
A définie (semi-)positive ⇒ tout élément de sa diagonale principale est strictement
supérieur à 0 (supérieur ou égal à 0).
A définie (semi-)positive ⇒ il existe au moins une matrice B définie (semi-)positive
1
telle que A = BB  = B 2 . On écrit B = A 2 .
Si B −A est définie (semi-)positive et si A est définie positive, B est définie positive.
Si A et B sont définies positives : B − A est définie (semi-)positive ⇔ A−1 − B −1
est définie (semi-)positive.

00
48
70
Propriétés des matrices idempotentes

5
51
1:1
Les matrices idempotentes représentent des applications linéaires particulièrement

.25
.42
importantes en économétrie : les projections. Les matrices idempotentes de format

42
(n, n) représentent des projections dans Rn . Les matrices idempotentes symétriques
1.1
:4
96
de format (n, n) représentent des projections orthogonales dans Rn .
88
0
02
6:1

A est idempotente ⇔ A2 = A
81
98
76
:2

On a les propriétés suivantes.


er
ng

A idempotente ⇒ les valeurs propres de A sont égales à 0 ou 1.


Ta
G
NC

A idempotente ⇒ Rg(A) = tr(A).


:E
om

A idempotente et régulière ⇒ A = I.
x.c

A idempotente et C matrice orthogonale ⇒ C  AC est idempotente.


vo
lar
ho

A idempotente et symétrique ⇒ A est définie semi-positive.


sc
w.

A idempotente (symétrique) ⇒ I − A idempotente (symétrique) et


ww

A(I − A) = (I − A)A = 0.

Théorème de Cochran
Soient A1 , A2 , . . . , Am des matrices symétriques de même format. La vérification de
deux propriétés parmi les propriétés (a), (b) et (c) impliquent que toutes les propriétés
(a), (b), (c) et (d) sont vérifiées :
(a) A1 , A2 , . . . , Am sont idempotentes
(b) A1 + A2 + . . . + Am est idempotente
(c) Ai Aj = 0 ∀ i = j
(d) Rg(A1 + A2 + . . . + Am ) = Rg(A1 ) + Rg(A2) + . . . + Rg(Am )

Soit X la matrice constituée par k vecteurs de Rn linéairement indépendants :


(n,k)
x1 , x2 , . . . , xk . Soit L(X) le sous-espace vectoriel de Rn engendré par les
(n,1) (n,1) (n,1)
vecteurs de X. La matrice de projection orthogonale sur L(X) est définie par
PX = X(X  X)−1 X  . On a Rg(PX ) = k. La matrice de projection orthogonale sur
le sous-espace vectoriel de Rn orthogonal à L(X) est définie par MX = In − PX . On a
Rg(MX ) = n − k.

477

Vous aimerez peut-être aussi