Vous êtes sur la page 1sur 8

Chapitre I

Rappel d’algèbre linéaire

I.1 Matrices
Une matrice A représente généralement un ensemble d’équations linéaires permettant de faire cor-
respondre un vecteur de sortie y à un vecteur d’entrée x. Une matrice de dimension (m × n) fait
correspondre m sorties à n entrées comme suit :


 a11 x1 + a12 x2 + ... + a1n xn = y1
 a21 x1 + a22 x2 + ... + a2n xn = y2

.. (I.1)


 .
 a x + a x + ... + a x = y
m1 1 m2 2 mn n m

Les vecteurs y et x ont les dimensions m et n respectivement. Nous pouvons réécrire l’expression
(I.1) sous la forme générale :

     
y1 a11 a12 ··· a1n x1
 y2   a21 a22 ··· a2n   x2 
y = Ax avec y= , A= et x =  (I.2)
     
.. ..  .. 
 .   .   . 
ym am1 am2 · · · amn xn

Les coefficients aij de la matrice A, i = 1, 2, ..., m et j = 1, 2, ..., n, sont les éléments de la matrice
A. Lorsque m = n, la matrice A est dite carrée ; pour m ̸= n, la matrice A est dite rectangulaire.
Une matrice dont tous les éléments sont nuls est dite nulle. Une matrice carrée est diagonale si tous
les éléments aij sont nuls pour i ̸= j 1 . La matrice identité, I, est une matrice diagonale dont tous
les éléments diagonaux sont égaux à 1 2 . Une matrice triangulaire supérieure est une matrice carrée
A tel que aij = 0 pour i > j. Une matrice triangulaire inférieure est une matrice carrée A tel que
1. aij = 0 pour i ̸= j
2. aii = 1 ∀ i
2 Chapitre I : Rappel d’algèbre linéaire

aij = 0 pour i < j.


 
x1
 x2 
Le transposé d’un vecteur x =   est xT = [x1 , x2 , . . . , xn ]. Pour obtenir la transposée AT
 
..
 . 
xn
d’une matrice A, nous invertissons l’élément de la rangée i et de la colonne j avec l’élément de la
rangée j et la colonne i. 3

4
Une matrice carrée est symétrique si aij = aji ; anti symétrique si aij = −aji .

La matrice somme de deux matrices de dimension identique (n × m) A et B est la matrice que nous
obtenons en additionnant leurs éléments correspondants, ainsi :

C = A + B → cij = aij + bij


i = 1, 2, ..., n et j = 1, 2, ..., m

La matrice différence de deux matrices de dimension identique (n × m) A et B se définie d’une façon


analogue :

D = A − B → dij = aij − bij


i = 1, 2, ..., n et j = 1, 2, ..., m

Deux matrices A et B de même dimension (n × m) sont égales si tous leurs éléments correspondants
sont égaux :

A = B → aij = bij
i = 1, 2, ..., n et j = 1, 2, ..., m

La multiplication par un scalaire k d’une matrice A de dimension (n × m) produit une nouvelle


matrice dont chacun des éléments est multiplié par k :

C = k × A → cij = k × aij
i = 1, 2, ..., n et j = 1, 2, ..., m

La multiplication de deux matrices A et B entraîne une nouvelle matrice C telle que :


m

C = A × B → cij = aik × bkj (I.3)
k=1

Une telle multiplication est possible si le nombre de colonnes m de la matrice A, de dimension


(n × m), est égale au nombre de rangées de la matrice B, de dimension (m × p).

3. B = AT bij = aji ∀ i, ∀ j
4. A = AT
I.1 : Matrices 3

Exemple 1.1
Nous pouvons multiplier les matrices A et B, ci-dessous, puisque A a 3 colonnes et B a 3 rangées.
 
[ ] 5 2 1 2
1 2 3
A= B= 0 1 3 1 
2 0 1
3 0 −1 0

avec n = 2, m = 3, p = 4, i = 1, 2, k = 1, . . . , 3 et j = 1, . . . , 4
∑3
C = A × B → cij = k=1 aik × bkj

∑3
c11 = k=1 a1k × bk1 = a11 × b11 + a12 × b21 + a13 × b31 = 1 × 5 + 2 × 0 + 3 × 3 = 14

∑3
c13 = k=1 a1k × bk3 = a11 × b13 + a12 × b23 + a13 × b33 = 1 × 1 + 2 × 3 + 3 × (−1) = 4

Si A a une dimension (n × m) et B a une dimension (m × p), C = A × B a la dimension (n × p).


Pour l’exemple (1.1), A de dimension (2 × 3) et B de dimension (3 × 4) donc C de dimension (2 × 4).
[ ]
14 4 4 4
C=
13 4 1 4

Il est important de noter que le produit de deux matrices n’est pas commutatif.

A × B ̸= B × A

Par contre, si les dimensions sont appropriées, les lois d’associativité et de distributivité s’appliquent :

(A × B) × C = A × (B × C)
A × (B + C) = A × B + A × C
(A + B) × C = A × C + B × C

Notons que : (A × B)T = B T × AT

Le déterminant d’une matrice carrée A de dimension (n × n), det(A) ou |A|, se calcule à partir de
la matrice mineure {Mij } 5 . La matrice mineure est la matrice obtenue par l’élimination, dans la
matrice A, de la rangée i et de la colonne j. Le terme ρij = (−1)i+j det({Mij }) est le cofacteur de
l’élément aij .
n

det(A) = aij × ρij j = 1, 2, ..., n suivant la colonne j (I.4)
i=1

5. {Mij } : La matrice mineure du coefficient aij .


4 Chapitre I : Rappel d’algèbre linéaire

n

det(A) = aij × ρij i = 1, 2, ..., n suivant la ligne i (I.5)
j=1

De plus, det(A × B) = det(A) × det(B)

Exemple 1.2
 
−3 8 5
A =  2 −7 4 
1 9 −6
∑3
det(A) = j=1 aij × ρij i=1 suivant la ligne 1

−7 4 2 4 2 −7
det(A) = −3 × (−1)2 + 8 × (−1)3 + 5 × (−1)4 = 235
9 −6 1 −6 1 9

La matrice adjointe d’une matrice carrée A de dimension (n × n) est notée adj(A) ; pour l’obtenir,
nous remplaçons chaque élément par son cofacteur et nous prenons la matrice transposée de la ma-
trice obtenue. Les éléments de adj(A) seront donc ρji pour i, j = 1, 2, ..., n.

Une matrice est inversible ou non singulière ou encore régulière si det(A) ̸= 0. L’inverse de A existe
lorsque det(A) ̸= 0 et est dénotée A−1 .
adj(A) {ρij }T
A−1 = = (I.6)
det(A) det(A)

Exemple 1.3
Calculer l’inverse de la matrice suivante :
[ ]
2 1
A=
3 1

M11 = 1, M12 = 3, M21 = 1, M22 = 2


ρ11 = 1, ρ12 = −3, ρ21 = −1, ρ22 = 2

[ ]T [ ]
1 −3 1 −1
adj(A) = =
−1 2 −3 2

det(A) = (2 × 1) − (3 × 1) = −1
 

1 −1  [ ]
−3 2 −1 1
A −1
= =
−1 3 −2
I.2 : Valeurs propres et vecteurs propres d’une matrice 5

Nous pouvons montrer que :


[ ] [ ] [ ]
2 1 −1 1 1 0
× =
3 1 3 −2 0 1
[ ] [ ] [ ]
−1 1 2 1 1 0
× =
3 −2 3 1 0 1

Notons que : (A × B)−1 = B −1 × A−1

I.2 Valeurs propres et vecteurs propres d’une matrice

I.2.1 Valeurs propres


Soit A une matrice carrée à n lignes et n colonnes. Un scalaire λ est appelé valeur propre de A, s’il
existe un vecteur colonne non nul x tel que :

Ax = λx x ̸= 0 (I.7)

Tout vecteur satisfaisant à cette condition est dit vecteur propre de A associé à la valeur propre λ.
L’ensemble de toutes les valeurs propres de A est dit spectre de A.
Si nous multiplions la condition précédente (I.7) par la matrice identité In de dimension (n × n), il
s’ensuit que :

In Ax = λIn x

puisque In A = A, nous avons :

Ax = λIn x

(A − λIn )x = 0 (I.8)

La matrice (A − λIn ) est appelée matrice caractéristique de la matrice A.


Le polynôme φ(λ) = det(A − λIn ) est appelé polynôme caractéristique de la matrice A.
L’équation φ(λ) = det(A − λIn ) = 0 est appelée équation caractéristique de la matrice A.

L’équation (I.8) admet une solution si le déterminant est nul, det(A − λIn ) = 0, c’est-à-dire si :
 
a11 − λ a12 ... a1n
 a21 a22 − λ ... a2n 
det(A − λIn ) = det  =0
 
.. .. .. ..
 . . . . 
an1 an2 ... ann − λ
6 Chapitre I : Rappel d’algèbre linéaire

Exemple 1.4
Calculer les valeurs propres de la matrice suivante :

[ ]
−1 1
A=
0 −2

[ ]
−1 − λ 1
(A − λI2 ) =
0 −2 − λ

det(A − λI2 ) = (−1 − λ)(−2 − λ) = λ2 + 3λ + 2


Les valeurs propres sont les solutions de l’équation caractéristique qui annulent le déterminant :
det(A − λI2 ) = 0 ⇒ λ2 + 3λ + 2 = 0 ⇒ λ1 = −1 et λ2 = −2.

I.2.2 Vecteurs propres

Les vecteurs propres ei d’une matrice dont les valeurs propres λi sont distinctes vérifient :

(A − λi In )ei = 0 i = 1, 2, ..., n (I.9)

Exemple 1.4 (suite)


Les vecteurs propres dans l’exemple (1.4) sont e1 et e2 .
[ ]
e11
Pour λ1 = −1, si nous posons e1 =
e12
[ ][ ] [ ]
−1 + 1 1 e11 0
(A − λ1 I2 )e1 = = (I.10)
0 −2 + 1 e12 0
[ ] [ ]
e11 1
soit e12 = 0 ; autrement dit, tout vecteur proportionnel à ou à vérifie l’équation (I.10).
e12 0
[ ]
e21
De même pour λ2 = −2 et si e2 =
e22
[ ][ ] [ ]
−1 + 2 1 e21 0
(A − λ2 I2 )e2 = = (I.11)
0 −2 + 2 e22 0
[ ] [ ]
e21 1
soit e21 +e22 = 0 ; autrement dit, tout vecteur proportionnel à ou à vérifie l’équation
−e21 −1
(I.11).
[ ] [ ]
1 1
Par conséquant, e1 = et e2 = sont les vecteurs propres de la matrice A.
0 −1
I.3 : Rang d’une matrice 7

I.2.3 Transformation de similarité


Lorsque les valeurs propres de A sont distinctes, la matrice M obtenue à partir des vecteurs propres
ei , M = {e1 , e2 , ..., en } est toujours inversible. Cette matrice M est appelée matrice modale et vérifie
la transformation de similarité :
 
λ1 0 · · · 0
 0 λ2 · · · 0 
M AM =  ..
−1
(I.12)
 
.. .. .. 
 . . . . 
0 0 . . . λn

Exemple 1.4 (suite)


Reprenons l’exemple (1.4) et vérifions la propriété de transformation de similarité.
[ ] [ ]
e11 e21 1 1
M = [e1 , e2 ] = =
e12 e22 0 −1
[ ]
1 1
M −1
=
0 −1
[ ][ ][ ] [ ]
1 1 −1 1 1 1 −1 0
M −1
AM = =
0 −1 0 −2 0 −1 0 −2

I.3 Rang d’une matrice


Le rang R(A) d’une matrice A est l’ordre de la plus grande sous-matrice de A qui soit non singulière,
et que nous obtenons en omettant de A un nombre égal de colonnes et de rangées.
– Si la matrice A est carrée, de dimension (n × n), A a un rang n si det(A) ̸= 0, c’est-à-dire si A est
inversible.

– Le rang d’une matrice A de dimension (m × n), m ≥ n est n si et seulement si la matrice AT A de


dimension (n × n) a un rang n. 6

– Le rang d’une matrice A de dimension (m × n), m ≤ n est m si et seulement si la matrice AAT


de dimension (m × m) a un rang m. 7

Exemple 1.5
La matrice A :
 
2 4
A =  3 −3 
1 1
6. det(AT A) ̸= 0
7. det(AAT ) ̸= 0
8 Chapitre I : Rappel d’algèbre linéaire

Le rang de la matrice A est 2, car le déterminant de la matrice AT A est non nul (det(AT A) ̸= 0).
La matrice A :
[ ]
2 3 −1
A=
1 −1 1

Le rang de la matrice A est 2, car le déterminant de la matrice AAT est non nul (det(AAT ) ̸= 0).

I.4 Vecteurs linéairement dépendant / linéairement indépendant


Un ensemble de vecteurs X est linéairement dépendant si et seulement si, pour n’importe quelle col-
lection d’éléments (x1 , x2 , ..., xN ) de cet ensemble de vecteurs X, il existe un ensemble de scalaires
(α1 , α2 , ..., αN ) qui ne sont pas tous nuls, et qui satisfait la relation suivante :
N

α i xi = 0 (I.13)
i=1

Un ensemble de vecteurs X est linéairement indépendant si et seulement si, pour n’importe quelle col-
lection d’éléments (x1 , x2 , ..., xN ) de cet ensemble de vecteurs X et pour tous scalaires (α1 , α2 , ..., αN ),
la relation suivante est vraie :
N

αi xi = 0 ⇒ α1 = α2 = ... = αN = 0 (I.14)
i=1

Exemple 1.6
[ ] [ ] [ ] [ ]
2 6 2 6
Les vecteurs et sont linéairement dépendants, car : α1 + α2 = 0. Les valeurs
1 3 1 3
α1 = 3 et α2 = −1 vérifient l’équation.
[ ] [ ] [ ] [ ]
3 0 3 0
Les vecteurs et sont linéairement indépendants. En effet à partir de : α1 +α2 =
0 2 0 2
0. Nous avons 3α1 = 0 et 2α2 = 0, et par conséquent α1 = α2 = 0

Vous aimerez peut-être aussi