Vous êtes sur la page 1sur 109

QPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPR

Initiation au
calcul matriciel
QPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPRQPPPPPPR

= B
AX
1
⇐⇒ X = A −1
2 3 4 5 6 7 8 9

9
0 1
8 7
0 B 6
1 0
5
1
4 3
0
2
1 0
1
Ce module de cours est sous licence GFDL

1 2 3 4 5 6 7 8 9
=U

9 8 7 6 5 4 3 2 1
0 1 0 1 0 1 0 1 0
1 2 3 4 5 6 7 8 9
9 8 7 6 5 4 3 2 1
rdjeam@yahoo.fr
A≈

0 1 0 1 0 1 0 1 0
1 2 3 4 5 6 7 8 9
rrdjeam

9 8 7 6 5 4 3 2 1
0 1 0 1 0 1 0 1 0
©

Djidémè Franck Houénou


Let your inspiration overflow to express what’s on ye mind !
-Rif Djeam
Life Treasures Sense

no
ita
itin
I
au calcul

rdjeamr

l
e
i c i
r
m a t
Ce module de cours est sous licence GFDL
rrdjeam
LATEXer : rdjeamr Co. Ltd.
Prologue

Aucun enseignement ne vaut la peine s’il n’inclut pas


la liberté de faire des erreurs ; mais combien en faudra-t-il
faire et pour combien de temps ?
-Rif Djeam
Life Treasures Sense

I l est très important d’attirer l’attention du lecteur sur le fait que cet imprimé de module de cours ne remplace

en aucun cas l’enseignement vivant et vécu en situations de classe, même si celui-ci se veut fidèle à la lettre

et à l’esprit du programme de la formation dans laquelle il est utilisé. Cependant, il offre la sécurité d’un plan de cours

clair, précis et rigoureux dans une prise de note facilement lisible et particulièrement soignée pour permettre à l’apprenant

de bien suivre les explications et commentaires en situations de classe puis d’interagir afin de renforcer sa compréhension

des notions abordées.

Malheureusement, aucune œuvre humaine n’étant parfaite, les erreurs (surtout typographiques) ne peuvent donc être

entièrement évitées dans l’édition d’un ouvrage de ce type. Toutefois, l’auteur a essayé de les minimiser, en espérant que

le lecteur rencontrera avec sympathie celles–ci et lui en fera part afin d’améliorer les éditions suivantes.
Ce module de cours est sous licence GFDL

L’auteur
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Objectifs – Contenus – Compétences

C e chapitre présente brièvement les objectifs du cours, les contenus notionnels qui y sont
abordés aussi bien que les compétences et aptitudes ciblées pour être développées chez
l’apprenant.

Objectif général
Ce module de cours vise à rendre l’apprenant capable de reconnaı̂tre les situations d’utilisation
de matrices et de manipuler les matrices au travers des méthodes mathématiques rigoureuses
lui permettant la résolution des problèmes dynamiques de système consistant ou non, puis le
traitement de l’information multimédia ( visuelle ou audio) ou tout autre situations pouvant s’y
ramener.

Objectifs spécifiques
Spécifiquement celui-ci acquerra les connaissances scientifiques pour :
— reconnaı̂tre facilement une matrice ou une situation d’utilisation de matrices,
— opérer aisément sur les matrices et avec les matrices (addition, multiplication, transposée,
inverse, factorisation LU, décomposition QR, etc.)
— utiliser les principales méthodes matricielles utilisées en mathématiques et en informatique,
— appliquer les matrices à la résolution des problèmes
— utiliser et écrire des algorithmes de nature mathématique : réduction et inversion de matrices,
solution de systèmes d’équations linéaires, calcul de déterminants.
— utiliser le concept de géométrie vectorielle : longueur, volume, produit scalaire, orthogonalité

Contenus
ì Introduction aux matrices et à leurs applications. Étude de l’algèbre des matrices,
Ce module de cours est sous licence GFDL

ì Operations sur les matrices : addition, multiplication par un scalaire, trace, transposée, ma-
trices particulières, produit de deux matrices
ì Factorisation LU et application à la résolution des systèmes linéaires,
ì Solution des systèmes d’équations linéaires. Algorithme de Gauss-Jordan,
ì Inversion des matrices. Application à l’analyse intersectorielle. Polynôme minimal d’une ma-
rrdjeam

trice carrée,
ì L’aspect géométrique : géométrie vectorielle, espaces vectoriels, et transformations linéaires,

Initiation au calcul matriciel Notes de cours


©UAC / FAST
iii

LATEXer : rdjeamr Co. Ltd.


ì Déterminants : leur interprétation géométrique, règle de Cramer,
ì Formes quadratiques, espaces euclidiens, la méthode des moindres carrés,
ì Valeurs propres, vecteurs propres, diagonalisation des matrices, Décomposition singulière QR,
Applications à la théorie du codage,
ì Autres applications telles l’infographie, les matrices d’incidence, la théorie des jeux, les séries
de Fourier discrètes et la compression et la réduction du bruit, peuvent être étudiées

Méthodes et actvités pédagogiques


Cours magistraux avec des travaux dirigés et / ou travaux pratiques (projet de construction
de modèle de résolution matricielle). Un support de cours en version numérique sera mis à la dis-
position de l’institut ; les séquences de classe pourront être des présentations par vidéo projecteur
ou des débats sur des thématiques faisant l’objet de découverte de connaissances d’utilisation et
de manipulation des matrices.

Modalités d’évaluation
♣ Evaluation formative : Tout au long de l’apprentissage, des QCM, des exercices de petite
resolution seront périodiquement soumis aux apprenants en vue d’une éventuelle remédiation.

♣ Evaluation sommative : Évaluation continue à travers au moins deux devoirs de maison ou


composition sur table comptant pour 40% des crédits de l’unité d’enseignements et un examen
final comptant pour 60% desdits crédits.

Une session de rattrapage pourra être organisée à l’intention des apprenants déficitaires selon
les modalités et disponibilités fixées par l’administration. Le projet de programmation tout au
long des situations de classes sera un point d’appui pour ces apprenants.

Supports et ressources
Ce module de cours est sous licence GFDL

Notes de cours et quelques livres indiqués (voir références bibliographiques)

Références bibliographiques
— Algèbre linéaire : une approche matricielle, Pierre LEROUX, Modulo Éditeur, Montréal,
1983
rrdjeam

— Algèbre linéaire : theorie, exercices et application, David LAY, 3e édition, De Boeck, 2004.
ISBN-10 : 2804144089, ISBN-13 : 978-2804144081

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Table des matières

1 Généralités sur les matrices 1


1.1 Définitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Partionnement des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4.1 Multiplication d’une matrice par un scalaire . . . . . . . . . . . . . . . . . 8
1.4.2 Egalité entre deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.3 Trace d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.5 Somme de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.6 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.5 Calcul du déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Calcul du déterminant de matrices carrées d’ordre 2. . . . . . . . . . . . . 15
1.5.2 Calcul du déterminant de matrices carrées d’ordre 3. . . . . . . . . . . . . 16
1.5.3 Généralisation du développement par rapport aux éléments d’une rangée
(ligne ou colonne) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6 Matrices carrées inversibles (ou régulières) . . . . . . . . . . . . . . . . . . . . . . 20
1.6.1 Définition - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2 Calcul de l’inverse : méthode des cofacteurs . . . . . . . . . . . . . . . . . 20
1.7 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.7.1 Matrices congruentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 Forme échelon – Forme échelon réduit . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8.1 Propriétés et définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8.2 L’algorithme de réduction de lignes . . . . . . . . . . . . . . . . . . . . . . 24
1.9 Quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2 Systèmes d’équations linéaires 31


Ce module de cours est sous licence GFDL

2.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31


2.2 Ecriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.3 Résolution d’un système d’équations . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.1 Méthode graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.3.2 Méthode matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.3.3 Méthode des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.3.4 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . 40
rrdjeam

2.4 Quelques exercies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

Initiation au calcul matriciel Notes de cours


©UAC / FAST
TABLE DES MATIÈRES v

LATEXer : rdjeamr Co. Ltd.


3 Applications linéaires et matrices représentatives 48
3.1 Espaces vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.3 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.3.1 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.4 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.5 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5.1 Définition et remarques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.5.2 Effet d’un changement de base sur les composantes d’un vecteur . . . . . . 58
3.6 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.6.1 Matrices d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . 62
3.6.2 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . 65
3.6.3 Quelques transformations particulières : application à l’infographie . . . . . 73
3.6.4 Représentation 2D et 3D des images . . . . . . . . . . . . . . . . . . . . . 73
3.6.5 Les transformations et les coordonnés homogènes . . . . . . . . . . . . . . 73
3.7 Quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

4 Factorisation et réduction d’une matrice 82


4.1 Décomposition LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.1.1 Application à la résolution de système d’équations linéaires . . . . . . . . . 85
4.2 Factorisation QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.3 Approximation par la méthode des moindres carrées . . . . . . . . . . . . . . . . . 93
4.4 Diagonalisation – Trigonalisation – Jordanisation . . . . . . . . . . . . . . . . . . 95
4.4.1 Diagionalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.4.2 Critères de diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
4.4.3 Application de la diagonalisation . . . . . . . . . . . . . . . . . . . . . . . 100
4.4.4 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.5 Réduction de Jordan (Jordanisation) . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.6 Exponentielle d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
4.7 Quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
Ce module de cours est sous licence GFDL
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Un

Généralités sur les matrices

1.1 Définitions et notations


Définition 1.1 (Définition axiomatique de matrice)
Soient n et p deux entiers naturels non nuls. On appelle matrice de type (n, p) ou matrice à
n ligne(s) et à p colonne(s), tout tableau rectangulaire de np éléments rangés en n lignes et en p
colonnes.

On appelle également les éléments d’une matrice les composantes ou coefficients ou encore les
“entrées” de la matrice
Notation 1.2
Soit A une matrice de type (n, p). On note aij le j ième élément de la iième ligne (le premier
indice i indique la ligne et le second indice j indique la colonne) la matrice A qu’on notera :
   
a11 a12 · · · a1j · · · a1p a11 a12 · · · a1j · · · a1p
 ··· ··· ··· ··· ··· ···   ··· ··· ··· ··· ··· ··· 
   
   
A=  a i1 a i2 · · · a ij · · · a ip

 ou encore A =  ai1 ai2 · · · aij · · · aip 
 
· · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · · ·
   
   
an1 an2 · · · anj · · · anp an1 an2 · · · anj · · · anp
Les éléments aij peuvent appartenir à l’un quelconque des ensembles suivants :
é l’ensemble des entiers N pour l’optimisation entière par exemple,
é l’ensemble des réels R ou des complexes C pour l’analyse,
é l’ensemble des polynômes réels à une indéterminée X : R[X],
é l’ensemble des fractions rationnelles en X : F[X],
Ce module de cours est sous licence GFDL

é l’ensemble des matrices de taille (k, l) avec 1 6 k 6 n et 1 6 l 6 p,


é l’ensemble des corps finis quelconques Z/2Z pour la cryptographie, les codes, en informa-
tique théorique,
é etc.
On utilise également la notation condensée :
rrdjeam

A = (aij )16i6n ou A = [aij ]16i6n ou plus simplement A = (aij )


16j6p 16j6p

et on dit aussi que A est de dimension (n, p), de taille (n, p) ou de format (n, p).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices particulières 2

LATEXer : rdjeamr Co. Ltd.


Définition 1.3 (Mathématique de tableau matriciel)
On appelle matrice à n lignes et p colonnes à coefficients dans un ensemble K une suite
(aij )16i6n c’est à dire une application :
16j6p

A : J1, nK × J1, pK −→ K
(i, j) −→ A(i, j) = aij

d’éléments de K.

L’élément aij se trouvant sur la iième ligne et la j ième colonne dans la matrice A = (aij )16i6n est
16j6p
appelé simplement un facteur de A et plus précisément le facteur i, j de A.

L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p (K).

Si K est un corps de nombres, ses éléments sont appelés les scalaires. On dit que l’on a une
matrice réelle lorsque K = R et une matrice complexe lorsque K = C.

L’ensemble des matrices réelles de type (n, p) est noté Mn,p (R) ou lorsqu’il n’y a pas d’ambiguité
Mn,p .

Exemple 1.1
!
2 −1 0
A1 = √ est une matrice réelle de type (2, 3).
5 4 1
 √ 5

A2 = −3 4 e est une matrice réelle de type (1, 3).
 
−3 ln 2
 √
A3 =  5  est une matrice réelle de type (3, 1).

− 32
 
2 − i −1 0

B =  5i + 2 4 1 est une matrice complexe de type (3, 3).
 


6 0 8−i 3
Ce module de cours est sous licence GFDL

 
1
2x2 − x+2 −1
C= 5 4x + 3 est une matrice de fonctions de type (3, 2).
 


2 −x2 +1
ln 6x + cos x e − 32 x

1.2 Matrices particulières


rrdjeam

Soit A une matrice de type (n, p).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices particulières 3

LATEXer : rdjeamr Co. Ltd.


1. Matrice unicolonne – Si p = 1, on dit que A est une matrice (ou vecteur) colonne. On
utilise alors un seul indice et on écrit
 
a1
 a2 
 
A=
 .. 

 . 
an

2. Matrice
 uniligne – Si n = 1, on dit que A est une matrice (ou vecteur) ligne et on écrit
A = a1 a2 · · · ap .

NB
:::
Un vecteur est donc une collection de plusieurs scalaires, qui sont représentés sous la
forme d’une ligne ou d’une colonne. Quand on parle d’un vecteur, on indique habituelle-
ment s’il s’agit d’un vecteur ligne ou d’un vecteur colonne. On indique également la nature
des éléments du vecteur (nombres réels ou complexes, polynôme ou fonctions) ainsi que sa
dimension (le nombre de scalaires qui le compose).
3. Matrices élémentaires – Une matrice est dite élémentaire lorsqu’elle est obtenue en ap-
pliquant une seule opération élémentaire sur les lignes de la matrice identité. Les opérations
élémentaires sur les lignes d’une matrice sont les suivantes :  
1 0 0
— permuter ou interchanger deux lignes entre elles Li ← Lj : permutation ; ::: Ex : P2,3 =  0 0 1 
 
0 1 0
— multiplier une ligne par un scalaire non nul  Li ↔ αLipour un certain réel positif non nul
1 0 0
α : dilatation /contraction ; Ex : D2 (α) =  0 α 0 
 
:::

0 0 1
— ajouter un multiple d’une ligne à une  autre Li ← Li + αLj pour un certain réel non
ligne
1 α 0
Ex : T1,2 (α) =  0 1 0 
nul α : transvection ; :::
 
0 0 1
Remarquons qu’on appelle également matrices élémentaires les matrices eij dont les coeffi-
cients sont nuls sauf celui placé sur la iième ligne et j ième colonne. Ces matrices forment une
base de Mn,p c’est-à-dire que toutes matrices peut s’écrire comme combinaison linéaire de
Ce module de cours est sous licence GFDL

ces matrices
j ième colonne

 
0 ··· 0 0 0 ··· 0
 .. .. .. .. .. 
 . ··· . . . ··· . 
  ième
rrdjeam

eij  0 ···
=  0 α 0 ··· 0  ←i ligne
 .. .. .. .. .. 
 . ··· . . . ··· . 
0 ··· 0 0 0 ··· 0

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices particulières 4

LATEXer : rdjeamr Co. Ltd.


4. Matrice nulle – La matrice dont tous les éléments sont nuls (égaux à 0) est appelée matrice
nulle. La matrice nulle de type (n, p) est souvent notée Onp , ou simplement O lorsqu’il n’y
a pas d’ambigüité.
 
0 0 ··· 0
 . .. .. 
 .. . ··· . 
O= 
 0 0 ··· 0 
 
0 0 ··· 0
 
0 0 0 0
Par exemple O =  0 0 0 0  est la matrice nulle de type (3, 4).
 
0 0 0 0
5. Matrice carrée – Si n = p on dit que A est une matrice carrée d’ordre n. L’ensemble des
matrices carrées d’ordre n à coefficient dans l’ensemble K est simplement noté Mn (K).
!
2 −1
Par exemple la matrice A = est une matrice réelle carrée d’ordre 2,
5 4
 √ 
−2 1 6 − 3i
tandis que la matrice B =  8 4i + 12 −i  est une matrice complexe carrée
 

i 5 2+i 4
d’ordre 3.
Dans une matrice carrée A = (aij )16i,j6n , les facteurs aii sont dits diagonaux et forment la
diagonale (principale) ; les termes ai,i+1 avec 1 6 i 6 n − 1 (ou encore aj−1,j avec 2 6 j 6 n)
sont dits super-diagonaux et forment la super-diagonale ; les termes ai,i−1 avec 2 6 i 6 n (ou
encore aj+1,j avec 1 6 j 6 n − 1) sont dits sous-diagonaux et forment la sous-diagonale.
6.(a) Matrices diagonales – La matrice carrée A = (aij ) est dite diagonale lorsque aij = 0
pour tout i 6= j. De même on dira que A est une matrice super-diagonale (resp. sous-
diagonale) lorsque aij = 0 pour tout j 6= i + 1 (resp. aij = 0 pour tout i 6= j + 1) ; en
d’autres termes, tous les termes de la matrice sont nuls sauf au moins un terme de la
super-diagonale (reps. sous-diagonale). Par exemple

   
−2 0 0 3 0 0
Ce module de cours est sous licence GFDL

0
D= 0 4 0  et D = 0 0 0  sont des matrices diagonales
   
0 0 6 0 0 −4

tandis que
 
0 −2 0 0
 0 0 4 0 
rrdjeam

D1 =  est une matrice super-diagonale et


 

 0 0 0 6 
0 0 0 0

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices particulières 5

LATEXer : rdjeamr Co. Ltd.


 
0 0 0 0
 3 0 0 0 
D2 =   est une matrice sous-diagonale.
 
 0 0 0 0 
0 0 −4 0
Si en plus d’être diagonale, tous les termes diagonaux sont égaux alors la matrice A est
dite scalaire.  
3 0 0
Par exemple S =  0 3 0  est une matrice scalaire.
 
0 0 3
En particulier, une matrice scalaire d’ordre n dont tous les éléments diagonaux sont
égaux à 1 est appelée matrice unité (ou identité) d’ordre n et souvent notée In ou I tout
simplement si aucune confusion n’est permise sur son ordre.  
! 1 0 0
1 0
Par exemple I = est la matrice unité d’ordre 2 et I =  0 1 0  est la
 
0 1
0 0 1
matrice unité d’ordre 3.
(b) Matrice triangulaire – La matrice carrée A = (aij ) est dite triangulaire supérieure
lorsque aij = 0 pour tous i > j.
La matrice carrée A = (aij ) est dite triangulaire inférieure lorsque aij = 0 pour tous i < j.
Les matrices    
2 −1 2 −2 3i 0

A= 0 4 1  et B =  0 1 6
   


0 0 3 0 0 i− 7
sont triangulaires supérieures ; alors que
 2 √ 3 
2x − x − 3x 0 0  
−4 0 0
C=
 5x 4 0 
 et D =  8 1 0 
 
 √ 2x2 
2 2 − 6x x + 3x3 1 0 7
ln(x + 2)
sont triangulaires inférieures.
(c) Matrices de Heisenberg – On appelle matrice de Heisenberg supérieure (resp. inférieure)
Ce module de cours est sous licence GFDL

toute matrice carrée telle dont les éléments en dessous de la sous diagonale (resp. au dessus
de la super diagonale) sont nuls ; autrement, dans une matrice de Heisenberg supérieure
(resp. inférieure) tous les aij = 0 pour i > j + 1 (resp aij = 0 pour i < j + 1.).
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Partionnement des matrices 6

LATEXer : rdjeamr Co. Ltd.


Par exemple
 
3 1 −1 0 0 5
−2 4 0 0 3 0
 
 
 
 0 −1 0 −2 0 0 
H1 =   est Heisenberg supérieure

 0 0 0 3 −1 0 

0 0 0 0 0 −2
 
 
0 0 0 0 1 1

 
3 1 0 0 0 0
−5 4 0 0 0 0
 
 
 
 0 −1 0 −2 0 0 
tandis que H2 =   est Heisenberg inférieure.

 −1 0 0 3 −1 0 

1 2 0 0 0 −2
 
 
0 0 −3 7 0 1

Les matrices particulières des points 3, 4, 6a, 6b et 6c sont dites des matrices creuses.

Propriétés 1.4 (des matrices élémentaires)


— La tranposée detoute matrice
 élémentaire
 est
 une matrice élémentaire.
1 0 0 1 0 0
t t
Ex : P2,3 =  0 0 1  =  0 0 1 
  
:::

0 1 0 0 1 0
— Le produit à gauche d’une matrice A par une matrice élémentaire Mi,j résultant d’une
opération élémentaire sur les lignes de la matrice identité revient à effectuer l’opération
correspondante sur les lignes de A : la matrice Ai,j obtenue est appelée matrice élémentaire
associée à la matrice A. :::
Ex :
— Toute matrice élémentaire est inversible et son inverse correspond à l’opération élémentaire
inverse. Ex::
:
— Effectuer sur les colonnes d’une matrice A l’opération élémentaire correspondante à celle
qui a permis d’obtenir la matrice élémentaire associée Ai,j revient à multiplier à droite la
matrice A par la matrice Ai,j .
Ce module de cours est sous licence GFDL

1.3 Partionnement des matrices


Soit A une matrice de type (n, p). Soient Cj , 1 6 j 6 p les vecteurs colonnes de A respectivement
Li , 1 6 i 6 n les vecteurs lignes de A alors on peut réécrire A sous la forme d’une matrice uniligne
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Opérations sur les matrices 7

LATEXer : rdjeamr Co. Ltd.


respectivement unicolonne
 
a11 a12 ··· a1j ··· a1p
 ··· ··· ··· ··· ··· ··· 
   
A =  ai1 ai2 ··· aij ··· aip  = C1 C2 · · · Cj · · · Cp
 
 
 ··· ··· ··· ··· ··· ··· 
an1 an2 ··· anj ··· anp
   
a11 a12 ··· a1j ··· a1p L1
 ··· ··· ··· ··· ··· ···   ··· 
   
=  ai1 ai2 ··· aij ··· aip = Li
   

   
 ··· ··· ··· ··· ··· ···   ··· 
an1 an2 ··· anj ··· anp Ln
On appelle une sous-matrice d’une matrice carrée A = (aij )16i,j6n toute matrice obtenue à partir
de A en ne gardant que certaines lignes ou certaines colonnes, en d’autres termes en supprimant
certaines lignes et certaines colonnes de A.
Le partitionnement d’une matrice est une réorganisation de la matrice en sous-matrice, de sorte
que A = [Aij ]16i6n où les matrices Aij sont des blocs (sous matrices) de dimension (ni , pj ) tels que
P 16j6p
P
ni = n et pj = p. Le partitionnement permet, lorsqu’il est choisi judicieusement, d’accélérer
i j
les calculs ou de réduire les formules de calcul.
Exemple
 1.2 √ 
−2 1 6 − 3i
B= 8 4i + 21−i
 


i 5 2+i 4
! √ !
 √ 
−2 1 6 − 3i  
B11 = , B12 = , B21 = i 5 et B22 = 2 + i 4 . On peut
8 4i + 21 −i
!
B11 B12
donc écrire la matrice B sous la forme de matrice bloc B =
B21 B22
 √ 
−2 1 6 − 3i
1
De même B =  8 4i + 2 −i
 


i 5 2+i 4

Ce module de cours est sous licence GFDL

! !
−2 1 6 − 3i  √   
B11 = , B12 = , B21 = i 5 2 + i et B22 = 4 . On peut
8 4i + 12 −i
!
B11 B12
donc écrire la matrice B sous la forme de matrice bloc B = .
B21 B22

1.4 Opérations sur les matrices


rrdjeam

On range en deux catégories les opérations sur les matrices : les opérations unaires (celles
qui s’appliquent à une seule matrice) et les opérations binaires (celles qui s’appliquent à deux

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Trace d’une matrice 8

LATEXer : rdjeamr Co. Ltd.


matrices). On cite au nombre des opérations unaires, la multiplication par un scalaire, la transposé
pour toutes matrices ; la trace, le déterminant pour les matrices carrées puis l’inverse pour certaines
matrices dites régulières tandis que pour les opérations binaires on dénombre l’égalité, la somme
pour les matrices de même type et le produit lorsque celui-ci est défini pour certaines matrices.
Sauf mention expresse faite, nous considérons dans la suite les matrices réelles (bien entendu
que lorsqu’elles sont possibles pour les facteurs de la matrice considérées, les opérations restent
valables).

1.4.1 Multiplication d’une matrice par un scalaire

Soient A = (aij )16i6n une matrice et λ un réel. On appelle produit de A par le scalaire λ la
16j6p
matrice notée λA et définie par

λA = λ · A = (λaij )16i6n .
16j6p

Par exemple si
     
2 −1 −2 6 −3 −6 −4 2 4
A= 1 4 1  alors 3A =  3 12 3  et −2A =  −2 −8 −2  .
     
8 −6 5 24 −18 15 −16 12 −10

En particulier, la matrice −1 · A n’est autre que la matrice notée −A et appelée l’opposé de A.

Remarque 1.5
Une matrice scalaire A dont tous les coefficients sont égaux au scalaire α se notera plus sim-
plement A = αI où I est la matrice unité de même ordre que A.

1.4.2 Egalité entre deux matrices

Deux matrices A = (aij )16i6n et B = (bij )16i6n de même type (n, p) sont dites égales lors-
16j6p 16j6p
que’elles ont mêmes facteurs, c’est-à-dire pour tous i, j, (1 6 i 6 n, 1 6 j 6 p), aij = bij .
   
2 −1 2 2 α 2
Par exemple, les matrices A =  1 4 1  et B =  1 4 1  sont égales si et seule-
   
Ce module de cours est sous licence GFDL

0 0 8 β 0 8
ment si α = −1 et β = 0.

1.4.3 Trace d’une matrice

La trace est une opération définie pour les matrices carrées. Souvent notée T r, la trace d’une
matrice est donnée par la somme de ces termes diagonaux :
rrdjeam

n
X
T rA = aii
i=1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Transposée d’une matrice 9

LATEXer : rdjeamr Co. Ltd.


Exemple 1.3 
! 2 −1 2
2 1
Considérons les matrices A = et B =  1 4 1 . On a : T rA = 2 − 1 = 1
 
1 −1
0 0 8
et T rB = 2 + 4 + 8 = 14.

1.4.4 Transposée d’une matrice

Soit A = (aij ) une matrice de type (n, p). On appelle transposée de la matrice A, la matrice de
type (p, n) notée t A telle qu’en posant t A = (bij ), on a

bij = aji (1 6 i 6 p, 1 6 j 6 n).

Remarque 1.6
La transposée t A de A a donc pour lignes les colonnes de A et pour colonnes les lignes de A.

Exemple 1.4

5  
t
(a) la transposée de la matrice A =  −4  est A= 5 −4 2 .
 
2
 
  2
t
(b) la transposée de la matrice A = 2 4 6 est A =  4 .
 
6
 
! 2 1
2 0 0 t
(c) la transposée de la matrice A = est A =  0 −6 .
 
1 −6 3
0 3
   
1 0 2 1 −3 8
t
(d) la transposée de la matrice A =  −3 1 0  est A= 0 1 −6 .
   
8 −6 5 2 0 5

Définition 1.7
Une matrice A est dite symétrique (resp. antisymétrique ) si t A = A (resp. t A = −A).
Ce module de cours est sous licence GFDL

Remarque 1.8
Observer qu’une matrice symétrique ou antisymétrique est tout d’abord une matrice carrée. En
effet, puisqu’on voudra égaler t A à A ou −A alors ces matrices doivent être de même type ; et
puisque l’opération de transpostiton transforme les lignes en colonnes et vice-versa alors A doit
contenir autant de lignes que de colonnes.
1. Si A = (aij ) est symétrique alors aij = aji 1 6 i, j 6 n.
rrdjeam

2. Si A = (aij ) est antisymétrique alors aij = −aji 1 6 i, j 6 n. En particulier, aii = 0


pour tout i.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Somme de deux matrices 10

LATEXer : rdjeamr Co. Ltd.


 
2 5 1
Par exemple la matrice A =  5 4 0  est symétrique tandis que la matrice
 
1 0 3
 
0 3 −1
B =  −3 0 6  est antisymétrique.
 
1 −6 0

1.4.5 Somme de deux matrices

Soient A et B deux matrices de même type (n, p). La somme de A et B est la matrice notée
A + B. Si nous notons cij ses éléments, on a

cij = aij + bij , (1 6 i 6 n, 1 6 j 6 p).

Autrement dit, la somme de deux matrices s’obtient en ajoutant les éléments de mêmes indices.
Par exemple
 si,     
2 −1 2 8 −6 2 10 −7 4
A =  1 4 1  et B =  1 4 3  alors A+B = 2 8 4 .
     
0 0 8 7 0 −10 7 0 −2

Propriétés 1.9
Les propriétés de l’addition de matrices se déduisent de celles de l’addition dans R (plus
généralement de l’ensemble K des éléments des matrices) :
(a) l’addition des matrices est commutative :

A + B = B + A, ∀ A, B ∈ Mnp (R).

(b) l’addition des matrices est associative :

(A + B) + C = A + (B + C), ∀ A, B, C ∈ Mn,p (R).

(c) il existe un élément (dit) neutre pour l’addition des matrices : la matrice nulle

A + O = O + A, ∀ A ∈ Mn,p (R).
Ce module de cours est sous licence GFDL

(d) toute matrice A = (aij ) possède un opposé noté −A = (−aij ) et on a

A + (−A) = (−A) + A = O, ∀ A ∈ Mn,p (R).

Des propriétés qui précèdent il résulte que Mn,p (R) muni de l’addition + est un groupe commutatif
(ou abélien).
rrdjeam

Propriétés 1.10 ( Propriétés de compatibilité avec la multiplication par un scalaire)


Les propriétés de compatibilité se déduisent aussi des propriétés de la multiplcation dans R
(plus généralement de l’ensemble K des éléments des matrices) :

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Produit de deux matrices 11

LATEXer : rdjeamr Co. Ltd.


(a) distributivité par rapport à l’addition des matrices :

λ(A + B) = λA + λB, ∀ λ ∈ R et ∀ A, B ∈ Mn,p (R).

(b) distributivité par rapport à l’addition des réels :

(λ + µ)A = λA + µA ∀ λ, µ ∈ R et ∀ A ∈ Mn,p (R).

(c) associativité :
λ(µA) = (λµ)A ∀ λ, µ ∈ R et ∀ A ∈ Mn,p (R).

(d) 1 A = A ∀ A ∈ Mn,p (R).


     
1 0 −1 3 −2 0
Par exemple si A =  4 −1  B= 2 1  C =  2 5  , alors
     
−3 3 0 −2 1 3
 
α − β − 2γ 3β
αA + βB + γC =  4α + 2β + 2γ −α + β + 5γ 
 
−3α + γ 3α − 2β + 3γ

et la condition αA + βB + γC = O se traduit alors par le système




 α − β − 2γ = 0

3β = 0





 4α + 2β + 2γ = 0
,

 −α + β + 5γ = 0

−3α + γ = 0





 3α − 2β + 3γ = 0

qui a pour unique solution α = 0, β = 0 et γ = 0.

Propriétés 1.11 (Quelques autres propriétés de compatibilité)


1. t
(A + B) = t A + t B, pour toutes matrices A, B ∈ Mn,p (E).
2. t
(λA) = λ t (A), pour tout λ ∈ R et pour toute matrice A ∈ Mn,p (E).
Ce module de cours est sous licence GFDL

3. t t
( A) = A, pour toute matrice A ∈ Mn,p (E).
4. T r(αA + βB) = αT rA + βT rB, pour tous α, β ∈ R et pour toutes matrices A, B ∈ Mn (E).
5. T r( t A) = T r(A), pour toute matrice A ∈ Mn (E)

1.4.6 Produit de deux matrices


rrdjeam

Soient L = (lj )16j6n une matrice uniligne et C = (ci )16i6n une matrice unicolonne. On définit
le produit de la matrice L par la matrice C comme la matrice uniligne et unicolonne (donc une

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Produit de deux matrices 12

LATEXer : rdjeamr Co. Ltd.


matrice scalaire à un seul élément ) qu’on note LC et donnée par
 
c1
 c2 
 
  ...  
 
 
LC = L × C = l1 l2 · · · lj · · · ln   = l1 c1 + l2 c2 + · · · + lj cj + · · · ln cn .
 
 ci 
 . 
 . 
 . 
cn

Plus généralement, soient A et B deux matrices. Le produit de A par B à un sens si et seulement


si le nombre de colonnes de A est égal au nombre de lignes de B.
Considérons donc deux matrices A ∈ Mn,p (R) et B ∈ Mp,q (R). Le produit de A par B est une
matrice de type (n, q) notée AB. Si nous posons AB = (cij ), alors les éléments cij sont donnés
pour tous 1 6 i 6 n et 1 6 j 6 q par
p
X
cij = aik bkj où 1 6 k 6 p (1.4.1)
k=1

et donc AB ∈ Mnq .

Remarque 1.12
(a) Le produit AB n’est possible que si le nombre de colonnes de A est égal au nombre de lignes
de B.
(b) L’expression (1.4.1) traduit que l’élément cij s’obtient en multipliant élément par élément la
iième ligne de A par la j ième colonne de B et en faisant la somme des produits ainsi obtenus.
Autrement dit, l’élément cij de AB est égal au produit scalaire du iième vecteur ligne de A
et du j ième vecteur colonne de B.
Ce qui se schématise comme suit :
j ième col. de B
  ↓
 
· ··· · ··· · · · · b1j · · ·  . . . 
 . .. .. .. ..   .. .. ..  .. .. ..
 .. . . . .   . . . 
.. .. 
    
iième ligne de A →  ai1 · · · aik · · · aip  ×  · · · bkj · · ·  = . c . 
 
   ij 
 .
 .. .. .. .. ..  .
. .
. .
. . .
. .
 
Ce module de cours est sous licence GFDL

 . . . .   . . .  . ··· .
· ··· · ··· · · · · bpj · · ·

Exemple 1.5  
−1 3 !
3 6
(a) Effectuons les produits matriciels possibles avec les matrices A =  2 1  et B = .
 
4 2
0 −2
rrdjeam

Nous remarquons que le nombre de colonnes de A est égal au nombres de lignes de B et donc

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Produit de deux matrices 13

LATEXer : rdjeamr Co. Ltd.


que le produit AB est possible. On obtient
   
−1 3 ! 9 0
3 6
AB =  2 1 × =  10 14 
   
4 2
0 −2 −8 −4

On remarque par contre que le produit BA n’est pas possible (on dit aussi le produit BA
n’est pas défini), car le nombre de colonnes de B (ici 2) est différent du nombre de lignes de
A qui est ici égal à 3.  
−1 3 !
3 6 2
(b) Prenons maintenant A =  2 1  et B = . On remarque ici que les
 
4 2 1
0 −2
deux produits AB et BA sont possibles et on obtient
 
9 0 1 !
9 11
AB =  10 14 5  et BA = .
 
0 12
−8 −4 −2
Sur ce deuxième exemple, on observe que même si les deux produits AB et BA sont possibles,
les deux résultats ne sont pas forcément les mêmes.

Propriétés 1.13
Les propriétés de la multiplication des matrices se déduisent de celles de la multiplication dans
R (plus généralement de l’ensemble K des éléments des matrices) :
(a) associativité du produit : (AB)C = A(BC).
(b) distributivité du produit par rapport à l’addition :

A(B + C) = AB + AC, (A + B)C = AC + BC.

(c) (λA)B = A(λB) = λ(AB), λ ∈ R.


(d) pour toute matrice A ∈ Mnp (K), on a In A = AIp = A où In (resp. Ip ) désigne la matrice
unité d’ordre n (resp. d’ordre p).
(e) En particulier, si A est une matrice carrée d’ordre n et I la matrice unité d’ordre n, on a

A × I = I × A = A.
Ce module de cours est sous licence GFDL

Propriétés 1.14 (Compatibilité avec la transposée)


— Si le produit AB est défini alors t (AB) = t B t A.
— On a T rAB = T rBA pour toutes matrices A ∈ Mn,p (K) et B ∈ Mp,n (K).

Notation 1.15
rrdjeam

(a) Soit A une matrice carrée.


Le produit de A par A est souvent notée A2 . De même chacun des produits A2 par A et A
par A2 est noté A3 .

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Produit de deux matrices 14

LATEXer : rdjeamr Co. Ltd.


De façon générale, pour tout entier naturel n > 2, on note

An = A
| ×A×{z· · · × A} = A
n−1
× A = A × An−1 .
nfois

et on convient que A0 = I (la matrice unité de même ordre que A) et A1 = A.


(b) Les puissances d’une matrice carrée A commutent entre elles. En effet, pour m et n entiers
naturels, on a
Am An = An Am = An+m .

Exemple 1.6
 
−1 0 2
(a) Soit A =  1 1 −3 .
 
8 −6 5
2
Calculons A − 2A + 4I où I désigne la matrice unité d’ordre 3. On a
     
−1 0 2 −1 0 2 17 −12 8
A2 =  1 1 −3  ×  1 1 −3  =  −24 19 −16  .
     
8 −6 5 8 −6 5 26 −36 59
De même
     
2 0 −4 4 0 0 23 −12 4
−2A =  −2 −2 6  et 4I =  0 4 0  . Donc A2 −2A+4I =  −26 21 −10 
     
−16 12 −10 0 0 4 10 −24 53
!
0 2
(b) Soit A = . Etablissons que A2 − 3A − 2I = O où I et O désignent la matrice unité
1 3
et la matrice nulle d’ordre 2 respectivement. On a :
! ! !
0 2 0 2 2 6
A2 = × = .
1 3 1 3 3 11
Par ailleurs, on a
! !
0 −6 −2 0
−3A = et − 2I = .
−3 −9 0 −2
Ce module de cours est sous licence GFDL

D’où
!
0 0
A2 − 3A − 2I = . (1.4.2)
0 0
!
cos θ − sin θ
(c) Caculons An pour n ∈ N de A = . On montre par recurrence que
sin θ cos θ
rrdjeam

!
cos nθ − sin nθ
An = .
sin nθ cos nθ

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul du déterminant de matrices carrées d’ordre 2. 15

LATEXer : rdjeamr Co. Ltd.


Proposition 1.16
Muni des opérations d’addition et de produit avec les propriétés
 1.9 et 1.13, l’ensemble des
matrices carrées d’ordres n c’est-à-dire le triplet Mn (K), +, × est un anneau.

1.5 Calcul du déterminant d’une matrice


L’opération déterminant ne s’applique qu’aux matrices carrées ; par conséquent toutes les ma-
trices considérées dans cette sections seront des matrices carrées.

1.5.1 Calcul du déterminant de matrices carrées d’ordre 2.


!
a c
Soit la matrice carrée d’ordre 2, A = .
b d
! !
a c
Considérons les vecteurs (matrices) colonnes u = et v = . On cherche une
b d
condition nécessaire et suffisante portant sur les réels a, b, c et d pour que u et v soient colinéaires
c’est-à-dire pour qu’il existe un scalaire λ tel que u = λv.
Supposons que ! u et v colinéaires.
! On peut distinguer deux cas :
0 0
— u= ou v = .
0 0
— Les deux vecteurs u et v sont tous non nuls. Alors il existe λ ∈ R? tel que a = λc et b = λd.
On déduit de ces deux points (le premier est trivial et le second point par élimination de λ)
qu’une condition nécessaire est ad − bc = 0.
Inversement, supposons que l’égalité ad − bc = 0 est vérifiée. Si l’un au moins des deux
vecteurs est nul c’est qu’ils sont colinéaires. Sinon, on peut supposer par exemple que v est
non nul ; ce qui est équivalent à dire que l’un au moins de c et d est non nul. Supposons
alors c 6= 0. On a alors u = ac v ; c’est-à-dire que
! u et v sont colinéaires.
! !
a c a c
On retient alors que les vecteurs colonnes u = et v = de la matrice A =
b d b d
sont colinéaires si et seulement si ad − bc = 0.
Le réel ad − bc est appelé le déterminant de la matrice A. On note alors
Ce module de cours est sous licence GFDL


a c
det A = = ad − bc.

b d

Notation 1.17 ! !
a c a c
Etant donnés u = et v = , on écrit parfois det(u, v) = = ad − bc.

b d b d
rrdjeam

Exemple 1.7 !
3 2
— Soit A = alors on a det A = (3 × 5) − (6 × 2) = 3.
6 5

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul du déterminant de matrices carrées d’ordre 3. 16

LATEXer : rdjeamr Co. Ltd.


!
4 3
— Soit B = alors on a det B = −20 − 24 = −44.
8 −5
!
cos α − sin α
— Soit α ∈ R. En posant C = alors on a det C = cos2 α + sin2 α = 1.
sin α cos α

1.5.2 Calcul du déterminant de matrices carrées d’ordre 3.


 
a a0 a00
Considérons la matrice carrée d’ordre 3 A =  b b0 b00 . Le déterminant de A est le réel
 
c c0 c00

a a0 a00

noté det A = b b0 b00 . Pour son calcul, on peut faire un développement suivant une ligne ou

c c0 c00

suivant une colonne.

Développement suivant la première colonne


a
a0 a00
b0 b00

a0 a00

a0 a00
det A = b b0 b00 = a 0 00 − b 0 00 + c 0 00

c c c c b b
c0 c00

c
= ab0 c00 − ab00 c0 + ba00 c0 − ba0 c00 + ca0 b00 − ca00 b0 .

où les déterminants d’ordre 2 sont calculés conformément à la formule du paragraphe précédent.

Développement suivant la première ligne


a 0 00
a a
b0 b00

b b00

b b0
det A = b b0 b00 = a 0 00 − a0 + a00

c c00 c c0

c c
c0 c00

c
= ab0 c00 − ac0 b00 − a0 cb00 − abc00 + a00 bc0 − a00 cb0 .
Ce module de cours est sous licence GFDL

Exemple 1.8  
3 −2 4
— Soit A =  5 6 8 . On a le développement suivant la première colonne qui donne
 
1 3 −2

3 −2 4
6 8 −2 4 −2 4
rrdjeam

det A = 5 6 8 = 3 − 5 +

3 −2 3 −2 6 8


1 3 −2
= 3(−36) − 5(−8) + (−40) = −108.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul du déterminant de matrices carrées d’ordre 3. 17

LATEXer : rdjeamr Co. Ltd.


 
3 0 4
— Soit la matrice B =  5 6 8 . Le développement suivant la première ligne du déterminant
 
1 3 2
de B donne

3 0 4
6 8 5 6
det B = 5 6 8 = 3 + 4


3 2 1 3
1 3 2
= 3(−12) + 4(9) = 0.

Règle de Sarrus

Une règle de calcul rapide du déterminant de matrices carrées d’ordre 3 est la règle de Sarrus.
Pour retrouver les formules précédentes, on utilise l’un des deux schémas suivants
1. on recopie sous le déterminant les deux premières lignes de la matrice comme suit

T1 & .T

a a0 a00 a0 a00

a0 a00 2
a a a0 a00 a

0 00 =
b b b b b0 b00 b b0 b00 = b0 b00

b

puis on obtient
c c0 c00 c0 c00

c c c0 c00

c c0 c00

a a0 a00 a a0 a00
b b0 b00 b b0 b00

a a0 a00 a a0 a00 a a0

2. ou bien on recopie les deux premières colonnes comme suit b b0 b00 = b b0 b00 b b0

0 00
c c0 c00 c c0

c c c

T1 & . T2
a a0 a00
a a0 a00 a a0
puis on obtient b b0 b00 =
b b0 b00 b b0
0 00

c c c c c0 c00 c c0

De l’un ou l’autre de ces schemas, on obtient le déterminant en faisant la différence T1 − T2 où


T1 est la somme des produits fléchés gauche → droite (haut vers le bas des éléments formant une
Ce module de cours est sous licence GFDL

parallèle à la diagonale principale : les cellules coloriées ; (ab0 c00 + bc0 a00 + ca0 b00 ) et T2 la somme des
produits fléchés droite → gauche (haut vers le bas formant une parallèle à la diagonale secondaire :
les cellules en boı̂te ; (a00 b0 c + b00 c0 a + c00 a0 b).

Remarque 1.18
Observez que cette règle ne s’applique qu’en dimension 3 donc uniquement pour les matrices
carrées d’ordre 3.
rrdjeam

Exemple 1.9

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul du déterminant de matrices carrées d’ordre 3. 18

LATEXer : rdjeamr Co. Ltd.


 
3 −2 4
— Soit la matrice A =  5 6 8 , on a
 
1 3 −2

3 −2 4 3 −2 4

det A = 5 6 8 = 5 6 8



1 3 −2 1 3 −2
3 −2 4
5 6 8
Ainsi T1 = 3∗6∗(−2)+5∗3∗4+1∗(−2)∗8 = 8 et T2 = 1∗6∗4+3∗3∗8+5∗(−2)∗(−2) = 116.
 = 8 − 116= −108.
Donc det A
1 4 2
— Soit B =  5 0 3 . Le second schema se présente comme suit
 
2 8 1

1 4 2 1 4 2 1 4

det B = 5 0 3 = 5 0 3 5 0


2 8 1 2 8 1 2 8
et on obtient det B = (1∗0∗1+4∗3∗2+2∗5∗8)−(2∗0∗2+8∗3∗1+1∗5∗4) = 104−44 = 60.

Propriétés 1.19
(a) Soit A une matrice carrée alors det( t A) = det A.
Autrement dit, toute matrice a même déterminant que sa transposée.
(b) Si on multiplie une colonne (resp. une ligne) d’une matrice par un réel λ, le déterminant
est multiplié par λ.
En particulier si on multiplie une matrice carrée d’ordre n par un rée λ, son déterminant
est multiplié par λn :
det(λA) = λn det A.
(c) Si on échange deux colonnes (resp. deux lignes ) d’une matrice, son déterminant change de
signe.
(d) Si dans une matrice, deux vecteurs colonnes (resp. lignes) sont colinéaires (on dit aussi liés
Ce module de cours est sous licence GFDL

ou linéairement dépendants), le déterminant est nul.


(e) On ne modifie pas la valeur d’un déterminant en ajoutant à une colonne (resp. une ligne )
une combinaison linéaire des autres colonnes (resp. des autres lignes).
(f ) Si A et B sont deux matrices carrées de même ordre, on a :

det(A B) = (det A) ∗ (det B).


rrdjeam

(g) Si la matrice est triangulaire ou diagonale, le déterminant s’obtient en faisant le produit des
éléments diagonaux. En particulier si I est une matrice unité, on a det I = 1.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Généralisation du développement par rapport aux éléments d’une rangée (ligne ou colonne) 19

LATEXer : rdjeamr Co. Ltd.


Par combinaison linéaire de deux vecteurs colonnes u et v, on entend tout vecteur colonne de
la forme αu + βv où α et β sont des scalaires (réels, complexes, etc.). Cette définition pouvant
s’étendre à un nombre fini de vecteurs colonnes.

Exemple 1.10

a 1 2a + 2

Montrer sans le calculer que le déterminant suivant est nul : det B = b 2 2b + 4



−2c 3 −4c + 6

Remarque 1.20
Il ressort de ce qui précède que pour un calcul rapide, il faut choisir la ligne ou la colonne
qui contient le plus de chiffre 0. Les deux développements conduisant (lorsqu’ils sont faits sans
erreur !) au même résultat.

1.5.3 Généralisation du développement par rapport aux éléments d’une rangée (ligne
ou colonne)

Soit A = (aij )16i,j6n une matrice carrée d’ordre n. Notons Aij la sous-matrice de A obtenue
en supprimant la iième ligne et la j ième colonne. On observe que Aij est une matrice carrée d’ordre
n − 1.

Définition 1.21
Le déterminant (d’ordre n − 1) de Aij souvent noté mij = det Aij est appelé mineur relatif à
l’élément aij et le réel noté cij = (−1)i+j mij le cofacteur du facteur aij .

D’après les propriétés précédentes, on montre que la formule du développement du déterminant


par rapport à la j ième colonne :
n
X n
X
∆ = det A = cij aij = (−1)i+j mij aij .
i=1 i=1

En appliquant ce résultat à la matrice transposée de A, on obtient la formule de développement


du déterminant par rapport à la iième ligne :
n
X n
X
∆= cij aij = (−1)i+j mij aij .
Ce module de cours est sous licence GFDL

j=1 j=1

Remarquer qu’il y a changement de signe au passage d’un élément d’une ligne ou d’une colonne
au suivant et que m11 est (toujours) affecté du signe +.

Exemple 1.11
1 2 1 −1
rrdjeam


2 6 5 2
Calculons le déterminant ∆= .

−1 −4 6 5

−2 −6 1 1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul de l’inverse : méthode des cofacteurs 20

LATEXer : rdjeamr Co. Ltd.


1.6 Matrices carrées inversibles (ou régulières)
1.6.1 Définition - Propriétés

Définition 1.22
Soit A une matrice carrée d’ordre n. On dit que A est inversible (ou régulière) s’il existe une
matrice carrée d’ordre n, B telle que AB = BA = I où I désigne la matrice unité d’ordre n.
Dans ce cas, la matrice B est appelée l’inverse de A et est notée A−1 .

Exemple 1.12    
1 0 0 1 0 0
La matrice A =  −1 2 0  est inversible et son inverse est A−1 =  21 21 0  (Vérifier !)
   
3 0 2 − 32 0 12
Proposition 1.23
Une matrice carrée A est inversible si et seulement si det A 6= 0.
 
4 0 0 4 0 0

Par exemple A =  −1 2 1 , det A = −1 2 1 = 16 6= 0, donc A est inversible.
 

3 0 2 3 0 2
" #
4 2 4 2
De même la matrice B = est inversible car det B = = 10 6= 0.

−1 2 −1 2
 
2 1 −3 2 1 −3

Par contre la matrice A =  0 1 1  n’est pas inversible car det A = 0 1 1 = 0.
 

3 0 −6 3 0 −6

Propriétés 1.24
1. Si A est inversible son inverse A−1 est unique.
2. Si A est inversible, t A et A−1 sont aussi inversibles et on a

(t A)−1 =t (A−1 ), (A−1 )−1 = A.

3. Si A et B sont inversibles le produit AB est inversible et on a

(AB)−1 = B −1 A−1 .
Ce module de cours est sous licence GFDL

1
4. det(A−1 ) = .
det A

1.6.2 Calcul de l’inverse : méthode des cofacteurs

Définition 1.25
Soit A = (aij )16i,j6n une matrice carrée et cij le cofacteur relatif à l’élément aij (voir Définition 1.21).
rrdjeam

On appelle comatrice de A et on note com(A) la matrice dont les éléments sont les cofacteurs
cij relatifs au facteurs aij de A :
com(A) = (cij )16i,j6n .

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Calcul de l’inverse : méthode des cofacteurs 21

LATEXer : rdjeamr Co. Ltd.


Propriétés 1.26
1 t
Si A est une matrice inversible alors son inverse est donnée par A−1 = Com(A).
det A
Exemple 1.13 
2 1 1 2 1
1

Soit A =  0 0 −1  . On a det A = 0 0 −1 = 2 6= 0, donc A est inversible.
 

6 4 2 6 4 2
Déterminons son inverse A−1 .
Les mineurs mij .
m11 = 4 m12 = 6 m13 = 0

m21 = −2 m22 = −2 m23 = 2

m31 = −1 m32 = −2 m33 = 0.


Les cofacteurs cij .
c11 = 4 c12 = −6 c13 = 0

c21 = 2 c22 = −2 c23 = −2

c31 = −1 c32 = 2 c33 = 0.


   
4 −6 0 4 2 −1
t
Donc Com(A) =  2 −2 −2 . Ainsi, Com(A) =  −6 −2 2 . Par conséquent
   
−1 2 0 0 −2 0
   
4 2 −1 2 1 − 12
−1 1 t 1
A = Com(A) =  −6 −2 2  =  −3 −1 1 .
  
det A 2
0 −2 0 0 −1 0
Remarque 1.27 (Cas particuliers)
" #
a c
(a) La matrice carrée d’ordre 2, A = est inversible si et seulement si ad − bc 6= 0.
b d
" # " #
1 d −c 4 3
Ce module de cours est sous licence GFDL

Dans ce cas, on a : A−1 = . Ainsi, la matrice A = est inversible


ad − bc −b a 1 2
(car de déterminant égal à 5 qui est non nul) et on a :
" # " #
2 3
−1 1 2 −3 −1 5
− 5
A = , i.e A = ,
5 −1 4 − 51 4
5

(b) Une matrice diagonale A = (aij ) est inversible si et seulement si chacun des éléments diago-
rrdjeam

naux aij est non nul. Dans ce cas, son inverse A−1 = (bij ) est aussi une matrice diagonale
1
dont les éléments sont donnés par bij = .
aij

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Rang d’une matrice 22

LATEXer : rdjeamr Co. Ltd.



  
1
4 0 0 0 0
4
Par exemple, A =  0 −2 0  est inversible et on a A−1 =  0 − 12 0 .
   
0 0 1 0 0 1

Remarque 1.28

Observons que d’une égalité de la forme A2 + αA + βI = 0 exemple de l’égalité (1.4.2) , on
peut déduire l’existence d’une unique matrice K telle que
A × K = K × A = I. En effet,

A2 − 3A − 2I = 0 ⇐⇒ A2 − 3A = 2I
⇐⇒ A(A − 3I) = (A − 3I)A = 2I
   
1 1
⇐⇒ A (A − 3I) = (A − 3I) A = I.
2 2
1
On a donc K = (A − 3I).
2  
− 23 1
!
−3 2
Ecrivons K sous forme de tableau de réels. On a A − 3I = donc K =  .
1 0 1
0
2

1.7 Rang d’une matrice


Soit A une matrice de type (n, p). Soit C une matrice carrée d’ordre r déduite de A en suppri-
mant n − r lignes et p − r colonnes. On dit que C est une matrice carrée extraite de A.
Par exemple, soit  
−1 14 6 3 4
A =  0 1 2 1 1 .
 
−2 7 0 0 2
En supprimant la troisième ligne et la troisième colonne on obtient la matrice carrée extraite
!
6 3
C1 = .
2 1
Les matrices suivantes sont aussi extraites de A.
Ce module de cours est sous licence GFDL

! ! ! !
3 4 2 1 6 4 3 4
C2 = C3 = C4 = C5 =
1 1 0 2 0 2 0 2

Dans chacun des cas, préciser quelle(s) ligne(s) et/ou colonne(s) on a supprimée(s).

Définition 1.29
Le rang d’une matrice A est égal à l’ordre maximum des matrices carrées inversibles extraites
rrdjeam

(sous-matrices) de A. On le note rg(A).

Proposition 1.30

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices congruentes 23

LATEXer : rdjeamr Co. Ltd.


1. Le rang d’une matrice diagonale ou triangulaire est égal au nombre d’éléments diagonaux
non nuls.
2. Une matrice A de type (n, p) est de rang au plus min(n, p) : rg(A) 6 min(n, p). Si rg(A) =
min(n, p), on dit que A est de rang plein.
3. Une matrice carrée d’ordre n est inversible signifie qu’il est de rang n.

Exemple 1.14
 
6 3 4 0
 2 1 1 −1  6 3 4
 
1 
Considérons la matrice A =  0 0 2 . On a det A = 2 1 1 = 2(6 − 6) = 0 ;

 1 2 

 −2 0 7 8  0 0 2
1 0 −1 0
donc le rang de A est inférieur ou égal à 2. On vérifie alors qu’il
! existe une matrice carrée d’ordre
3 4
2 extraite de A qui soit inversible. La matrice C2 = est extraite de A et on a
1 1
det C2 = 3 − 4 = −1 6= 0. Donc la matrice C2 est inversible par suite A est de rang 2 : rg(A) =?.

Propriétés 1.31
Pour tous A et B ∈ Mn (C)

1. rg(A) + rg(B) − n 6 rg(AB) 6 min rg(A), rg(B)
2. rg(A + B) 6 rg(A) + rg(B)
3. A régulière =⇒ rg(AB) = rg(B) et rg(BA) = rg(B)
4. rg(t AA) = rg(A t A) = rg(A)
5. En général, rg(AB) 6= rg(BA)

1.7.1 Matrices congruentes

Définition 1.32
On dit que deux matrices symétriques A et B d’ordre n sont congruentes s’il existe une matrice
inversible P d’ordre n telle que B = t P AP .

Proposition 1.33
Ce module de cours est sous licence GFDL

Si K = C,
! toute matrice symétrique A d’ordre n est congruente à une matrice de la forme
Ir 0
où r est le rang de la matrice A.
0 0n−r

Théorème 1.34
Deux matrices symétriques de Mn (C) sont congruentes si et seulement si elles ont même rang.
rrdjeam

Corollaire 1.35
La relation de congurence est une relation d’équivalence. Il y a n + 1 classes de congruence dans
Mn (C).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
L’algorithme de réduction de lignes 24

LATEXer : rdjeamr Co. Ltd.


Proposition 1.36
 Si K = R,toute matrice symétrique d’ordre n est congruente à une matrice de la forme
Ir 0 0
 0 −Is 0 . Le couple d’entiers (r, s) est appelé signature de A.
 
0 0 0

1.8 Forme échelon – Forme échelon réduit


1.8.1 Propriétés et définitions

On dit d’une matrice qu’elle est en forme échelon si elle respecte les trois propriétés suivantes :
(P1 ) Toutes les lignes non nulles se trouvent au-dessus des lignes nulles.
(P2 ) La première valeur non nulle de chaque ligne se trouve dans une colonne qui est à droite par
rapport à la première valeur non nulle de la ligne juste au dessus.
(P3 ) Tous les éléments qui se trouvent sous un élément qui est la première valeur non nulle d’une
ligne sont nuls.
On dit d’une matrice qu’elle est en forme échelon réduit si elle est en forme échelon et si elle
respecte en plus ces deux propriétés :
(P4 ) Les premières valeurs non nulles de chaque ligne sont égales à l’unité.
(P5 ) Les premières valeurs non nulles de chaque ligne sont les seules valeurs non nulles des colonnes
dont elles font partie.
La propriété (P3 ) peut être vue comme une conséquence de la propriété (P2 ). Si une valeur non
nulle d’une ligne j est située sous le premier élément non nul d’une ligne i < j, il est certain que
le premier élément non nul de la ligne j ne pourra pas être situé à la droite des premiers éléments
non nuls des lignes supérieures

Définition 1.37
Si la matrice A est une matrice en forme échelon, on appelle positions pivot les positions des
premières valeurs non nulles de chacune des lignes de A. Les colonnes de A qui contiennent une
position pivot s’appellent des colonnes pivot.
Ce module de cours est sous licence GFDL

1.8.2 L’algorithme de réduction de lignes

Les opérations élémentaires qui peuvent être effectuées sur les lignes d’une matrice sont les
opérations suivantes :
1. multiplier une ligne par un scalaire ;
2. échanger deux lignes ;
rrdjeam

3. ajouter à une ligne un multiple d’une autre ligne.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
L’algorithme de réduction de lignes 25

LATEXer : rdjeamr Co. Ltd.


Théorème 1.38
Toute matrice A peut être transformée en une matrice à forme échelon réduit U en effectuant
des opérations élémentaires sur ses lignes. La matrice à forme échelon réduit U ainsi obtenue est
unique ; on dit qu’elle est équivalente en lignes à A et on écrit A ≈ U .

Toute matrice obtenue par des opérations élémentaires à partir d’une matrice A est dite matrice
équivalente en ligne à la matrice A. Le but de cette section est de voir comment on peut réduire
une matrice à une forme échelon et ensuite à une forme échelon réduit. Soit une matrice A qui
n’est pas en forme échelon. L’algorithme utilisé pour obtenir une matrice en forme échelon réduit
qui est équivalente en ligne à la matrice A est un algorithme en 6 étapes :
1. Il faut trouver la colonne non nulle qui est située la plus à gauche. Cette colonne est une
colonne pivot. La position pivot dans cette colonne est située dans la première ligne.
2. Si dans cette position on retrouve une valeur nulle, il faut échanger cette ligne avec une
autre pour rendre la valeur présente à la position pivot non nulle.
3. Par des opérations élémentaires sur les lignes, il faut rendre nulles toutes les valeurs qui se
trouvent en-dessous de la position pivot.
4. On fait abstraction de la colonne pivot et on considère la sous-matrice définie par les lignes
qui se trouvent en-dessous de la position pivot. À cette nouvelle matrice, on applique de
nouveau ces 4 premières étapes de l’algorithme jusqu’à ce qu’il n’y ait plus de lignes non
nulles à modifier.
Cette nouvelle matrice ainsi obtenue est un équivalent en ligne de la matrice initiale et elle
est en forme échelon. À partir de l’équivalent en ligne en forme échelon, on effectue les 2
prochaines étapes pour calculer l’équivalent en ligne en forme échelon réduit.
5. Il faut annuler les valeurs qui se trouvent au-dessus de chacune des positions pivot. Pour les
annuler, il faut partir de la position pivot la plus à droite (et en bas) et aller vers la position
pivot la plus à gauche (et en haut).
6. Si la valeur retrouvée dans une position pivot n’est pas égale à l’unité, il faut diviser la ligne
sur laquelle se trouve cette position pivot par la valeur de la position pivot.
La matrice ainsi créée est une matrice équivalente en ligne à la matrice initiale et elle est en
forme échelon réduit. Cette forme échelon réduit équivalente à la matrice initiale est unique
Ce module de cours est sous licence GFDL

Exemple 1.15  
0 3 −6 6 4 −5
Soit la matrice A =  3 −7 8 −5 8 9 .
 
3 −9 12 −9 6 15
Cherchons la matrice en forme échelon réduit qui est équivalente en ligne à la matrice A
— La première colonne de la matrice A n’est pas une colonne nulle ; elle est donc une colonne
rrdjeam

pivot.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
L’algorithme de réduction de lignes 26

LATEXer : rdjeamr Co. Ltd.


— La première position pivot, de la colonne 1, est la position située dans la première ligne. Elle
est indiquée par une boı̂te. Cependant l’élément de la matrice qui se trouve dans la position
pivot ne peut pas avoir une valeur  nulle. Pour éviter ceci, il 
faut échanger la ligne 1 avec
0 3 −6 6 4 −5
une des deux autres lignes. A =  3 −7 8 −5 8 9 . On échange ainsi la ligne
 
3 −9 12 −9 6 15
1 avec l’une des deux autres ligne (on choisit ici la ligne 2 donc L1 ←→ L2 ) et on obtient 
3 −7 8 −5 8 9
une matrice équivalente en ligne à la matrice A ; on a A ≈  0 3 −6 6 4 −5 .
 
3 −9 12 −9 6 15
— Il faut annuler les éléments qui se trouvent sous la position pivot, et dans notre cas ceci
correspond seulement à la position de la ligne 3 (celle de la ligne 2 étant déjà nulle). Pour
ce faire, on soustrait la   (L3 ← L3 − L1 ) et on obtient la
première ligne à la deuxième ligne
3 −7 8 −5 8 9
matrice suivante : A ≈  0 3 −6 6 4 −5 
 
0 −2 4 −4 −2 6
— On applique
 ensuite le même algorithme
 à la sous-matrice A11 de A (en couleur blue)
3 −7 8 −5 8 9
A≈ 0 3 −6 6 4 −5 .
 
0 −2 4 −4 −2 6
— La deuxième colonne de la matrice A est une colonne pivot, car elle correspond à la première
colonne non nulle de la sous-matrice A11 de A. La position pivot de la deuxième colonne est
donnée
 en deuxième ligne (la première ligne de la sous-matrice considérée).
3 −7 8 −5 8 9
A ≈  0 3 −6 6 4 −5 .
 
0 −2 4 −4 −2 6
— Il faut annuler les éléments qui se trouvent sous la position pivot, et dans notre cas ceci
correspond seulement à la position de la ligne 3. Pour ce faire, on ajoute 32 de la deuxième
à la troisième ligne (L3 ← L3+ 32 L2 ) et on obtient la matrice suivante :
ligne 
3 −7 8 −5 8 9
A ≈  0 3 −6 6 4 −5 .
 
0 0 0 0 23 8
3
Ce module de cours est sous licence GFDL

— On applique ensuite le même algorithme à la sous-matrice A11 (en couleur rouge) de la sous-
matrice
 précédente (en couleur bleu )
3 −7 8 −5 8 9
0 3 −6 6 4 −5 
 
A≈  2 8 
0 0 0 0
3 3
— La cinquième colonne de la matrice A est une colonne pivot, car elle correspond à la première
rrdjeam

colonne non nulle de la sous-matrice A11 de la sous-matrice A11 de A. La position pivot de


la cinquième colonne est donnée en troisième ligne (la seule d’ailleurs de la sous-matrice
considérée). Puisqu’il n’y a plus de ligne donc plus besoin de fabriquer des zéros en dessous

Initiation au calcul matriciel Notes de cours


©UAC / FAST
L’algorithme de réduction de lignes 27

LATEXer : rdjeamr Co. Ltd.


de la position pivot.
À cette étape donc,
 on a obtenu la matrice sous  forme échelon équivalente en ligne à la
3 −7 8 −5 8 9
 0 3 −6 6 4 −5 
 
matrice A : A ≈  .
 2 8 
0 0 0 0
3 3
On continue l’algorithme pour obtenir la forme échelon réduit de A.
— Commençons par annuler les valeurs qui se trouvent au-dessus de la position pivot située
la plus à droite (colonne 5). Pour ce faire, on effectue des opérations élémentaires sur les
lignes. On ajoute à la deuxième ligne six fois la troisième ligne (L2 ← L2 − 6L3 ) et on
ajoute à la première ligne neuf fois  la troisième ligne (L1 ← L1 − 12L3 ) et on obtient :
3 −7 8 −5 0 −23
 0 3 −6 6 0 −21 
 
A≈ .
 2 8 
0 0 0 0
3 3
— Annulons à présent la valeur au dessus de la position pivot de la deuxième colonne. Pour
il faut ajouter 73 de la deuxièmeligne à la première ligne (L1 ← L1 + 73 L2 ) et on obtient :
cela, 
3 0 −6 9 0 −72
 0 3 −6 6 0 −21 
 
A≈ .
 2 8 
0 0 0 0
3 3
— La dernière étape consiste à diviser chacune des lignes par les valeurs qui se trouvent dans
les positions pivot pour les rendre unité ; ainsi on divise la troisième ligne par 23 ( L3 ←
3
L ), la deuxième et la première 
2 3 
lignes par 3 ( L2 ← 13 L2 et L1 ← 31 L1 ) pour obtenir :
1 0 −2 3 0 −24
A ≈  0 1 −2 2 0 −7 . Ceci achève la recherche de la forme échelon réduit de
 
0 0 0 0 1 4
la matrice A et la matrice obtenue à cette étape est la matrice sous forme échelon réduit
équivalente en ligne à A.

Application à la recherche de l’inverse

C’est une variante de ce qui précède. On juxtapose à droite de la matrice à inverser, la matrice
Ce module de cours est sous licence GFDL

identité ; puis, par des opérations sur les lignes, que l’on fait simultanément sur les deux matrices,
on transforme la matrice de gauche en l’identité. L’inverse est la matrice de droite à la fin du
processus. !
4 2
Par exemple, considérons la matrice A = . On a det A = 2 6= 0, donc A est inversible.
1 1
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 28

LATEXer : rdjeamr Co. Ltd.


!
4 2 1 0
(A I) =
1 1 0 1 L2 ← L2 − 14 L1
!
4 2 1 0
≈ 1
0 2 − 14 1 L1 ← L1 − 4L2
!
4 0 2 −4 L1 ← 41 L1

0 12 − 14 1 L2 ← 2L2
!
1
1 0 2
−1
≈ 1
0 1 −2 2
!
1
−1
L’inverse de la matrice A est donc A−1 = 2 .
− 12 2

1.9 Quelques exercices


Exercise 1.1 On considère les matrices suivantes :
         
1 −2 1 1 −2 1 3 1 1 1 0 1 1 0
A= 0 1 1 , B =  2 2 1 , C =  1 3 1 , D =  1 1 0 , E =  1 1 ,
         
3 2 −1 0 1 −1 1 1 3 0 1 1 0 1

   
−3 3 3 3 5 −4 ! !
5 0 1 5 −3 −2 1
F =  3 −3 3  , G =  −3 −2 4 , H = et K = .
   
−2 1 −2 −12 8 1 1
3 3 −3 6 1 −8

1. A2 , B 2 , AB puis A2 + 2AB + B 2 .
2. Calculer A + B puis (A + B)2 .
3. Comparer A2 + 2AB + B 2 et (A + B)2 . Pouvait-t on prévoir ce résultat ?
4. Effectuer si possible les opérations suivantes :
(a) C + D, C + E, D + E, H + G, 2E − A, G − 3A + F ;
Ce module de cours est sous licence GFDL

(b) CD, CE, DE, HE, KE, KF , AF , AG, BAD, CEH, EHG ;
(c) C t D, C t E, t C t D, t C t E, t D t C, t KH, t EA , t F B ;
(d) det F , det A, det E, det B, det G, det K, det(HE), det(G − 2F ), det t H, det t B.
5. Calculer puis comparer les produits C t C et t C C.
6. Calculer F 2
rrdjeam

7. Déterminer les réels α et β tels que l’on ait : F 2 = αF +βI3 . En déduire que F est inversible
et déterminer son inverse F −1 en fonction de F et I3 puis sous forme de tableau de réels.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 29

LATEXer : rdjeamr Co. Ltd.


8. Calculer H −1 , G−1 , A−1 , (HE)−1 , (CA)−1
9. Déterminer la forme échelon réduit de A, de F , de H, de K, de E puis de A2 + 2AB + B 2 .

Exercise 1.2 
    
1 0 0 −1 2 −2 −1 4 −4
On donne I3 =  0 1 0  X =  3 −1 1  et A =  6 −1 2 .
     
0 0 1 0 1 2 0 2 5
1. Calculer A2 .
2. Déterminer les réels α et β tels que A2 − I3 = αX 2 + βX
3. Détermation de l’inverse de X
(a) Calculer le determinant det X de la matrice X.
(b) Déterminer la comatrice ComX de la matrice X.
(c) Calculer l’inverse de X

rdjeam

Exercise 1.3
Soit A ∈ Mn (K) telle que la matrice A + I soit inversible. On pose B = (I − A)(I + A)−1 .
1. Démontrer que B = (I + A)−1 (I − A).
2. Démontrer que I + B est inversible et exprimer A en fonction de B.

Exercise 1.4
   
0 1 −1 −1 0 α
1. On considère les matrices A =  4 −3 4  et B =  0 −1 β  où α et β sont
   
3 −3 4 0 0 1
des réels puis on note I3 la matrice unité d’ordre 2. Démontrer que A2 = I3 = B 2 .
   
2 −1 − 21 −1 4 1
2. On considère les matrices P =  2 2 1  et Q =  1 −1 2  et on note O la
   
5 3 −1 − 92 0 2
matrice nulle d’ordre 3. (
t
P + tQ − D = O
Ce module de cours est sous licence GFDL

Déterminer la matrice D telle que


D − P − Q = O
Que peut-on conclure pour la matrice D ?
3. Démontrer que si deux matrices E et F sont telles que EF = E et F E = F alors on a

E2 = E et F 2 = F.
rrdjeam

Exercise 1.5
1. Donner une matrice dont la transposée est égale à son opposée.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 30

LATEXer : rdjeamr Co. Ltd.


2. Donnez la matrice A telle que pour tout indice i et j avec, 1 6 i 6 3 et 1 6 j 6 3, le terme
aij soit donné par la formule aij = 2i − j

Exercise 1.6
La matrice Ti,j (λ) est la matrice d’une transvection et elle est obtenue par In − λMij In − λMij
la matrice identité d’ordre n moins le produit par λ de la matrice elementaire Mij .
Tandis que Di (lambda) est la matrice d’une dilatation et est donnée par In + (1 − λ)Mii où Mii
est la matrice élémentaire
1. Ti,j (λ) étant la matrice quicorrespond à ajouter à la ligne i le produitpar
 λ de la ligne j,
1 1
préciser la matrice T2,1 de M2,2 (R), puis la matrice T1,2 (−2)T2,1
2 2
2.(a) Préciser dans M3,3 (R) les matrices élémentaires suivantes : D2 (−2), T3,2 (3) et T2,1 (−2)
(b) Calculer la matrice A = T3,2 (3)D2 (2)T2,1 (−2).
(c) Justifier que A est inversible et donner son inverse A−1 sous forme de tableau de réels

Exercise 1.7 ! !
x 5 y 7
On donne A = et B =
0 2x −1 3x
!
4 12
1. Trouver x et y pour que A + B =
−1 17
!
−5 −18
2. Trouver x et y pour 2A − 4B =
4 −16

Exercise 1.8 

1 0 −1
Soit la matrice M ∈ M3,3 (R) définie par M =  −2 3 4 
 
0 1 1
1. Calculer det M le déterminant de M , ComM la comatrice de M et M −1 , l’inverse de M
2. Résoudre le système (Sm ) suivant où m est un paramètre réel :


 x1 − x3 = m
(Sm ) : −2x1 + 3x2 + 4x3 = 1
Ce module de cours est sous licence GFDL


 x2 + x3 = 2m
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Deux

Systèmes d’équations linéaires

D e nombreuses situation-problèmes de la vie courante se modélisent en systèmes d’équations


dont les inconnues sont les variables à déterminer ; toutefois, ces dernières peuvent aussi
dépendre de plusieurs d’autres paramètres rendant complexe le système. Pour certaines situations,
le modèle adapté ne fait intervenir que des équations linéaires rendant ainsi leur résolution moins
difficile que d’autres.

2.1 Définitions et exemples


Définition 2.1
On appelle système linéaire de n équations à p inconnues, disons x1 , x2 , · · · , xp , tout système
d’équations, qu’on notera souvent (S), pouvant se mettre sous la forme



 a11 x1 + · · · + a1p xp = b1
 a21 x1 + · · · + a2p xp = b2

(S) .. .. . .. .. ..


 . . · · · .. . . .

 a x + ··· + a x = b
n1 1 np p n

ou bien sous la forme condensée


p
X
aij xj = bi (i = 1, · · · , n) ;
j=1

où les nombres aij et bi sont des éléments donnés de R (ou C). Les nombres b1 , · · · , bn sont
appelés les seconds membres et les nombres aij les coefficients du système.
Si b1 = · · · = bn = 0, le système est dit homogène ou sans second membre.
Ce module de cours est sous licence GFDL

Exemple 2.1
1. En prenant p = n = 1 on a 2x = 4 ou en général ax = b avec a, b ∈ R ou C.
2. En prenant p = 2 et n = 1 on a 3x1 + 2x2 = 6 dont la forme générale est ax1 + bx2 = c avec
a, b ∈ R ou C.
3. En prenant respectivement p = 2 et n = 2 , p = 2 et n = 3 puis p = 3 et n = 3 on a
rrdjeam

 
(  x 1 − 3x 2 + 6 = 0  −2x1 + 6x2 + x3 =
 4
4x1 − 3x2 = 5 
, 4x1 − 3x2 = −2 , 3x1 − x2 = −7
x1 + x2 = 3 
 x −x  1
1 2 = 1  4x1 + x2 − 2 x3 = 5

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Ecriture matricielle 32

LATEXer : rdjeamr Co. Ltd.


Définition 2.2
Le système linéaire (S) est dit
— sur-déterminé s’il y a plus d’équations que d’inconnues (i.e p < n),
— déterminé s’il y a autant d’équations que d’inconnues (i.e p = n),
— sous-déterminé s’il y a moins d’équations que d’inconnues (i.e p > n)

Définition 2.3
Soit (S) un système linéaire.
1. Résoudre le système (S), c’est déterminer les réels x1 , x2 , · · · , xp .
2. On appelle solution du système linéaire (S) toute suite de nombres x1 , · · · , xp encore appelée

p-uplet (x1 , · · · , xp ) vérifiant toutes les équations de (S).
3. On dit que le système est compatible ou consistant s’il admet au moins une solution ; dans
:::::::::::::::::::::::

le cas contraire on dit qu’il est incompatible ou non consistant ou encore impossible. Dans ce
dernier cas, l’ensemble solution est vide.
4. Deux systèmes sont dits équivalents lorsqu’ils possèdent les mêmes ensembles de solutions.

NB
:::
La méthode analytique de résolution d’un système d’équations linéaires consiste à remplacer
le système initial par des systèmes équivalents plus simples, jusqu’à ce que les variables soient
identifiées.

2.2 Ecriture matricielle


Soit (S) un système linéaire. On appelle matrice associée à (S) la matrice faite des coefficients
du système : A = (aij )16i6n . En notant X la matrice unicolonne des inconnues x1 ,x2 , · · · , xp et
16j6p
B la matrice unicolonne des seconds membres b1 ,b2 , · · · , bn , le système s’écrit alors sous la forme
matricielle ou a pour écriture matricielle :
   
x1 b1
AX = B avec X =  ...  , B =  ...  .
   

xp bn
On écrit donc que (S) ⇐⇒ AX = B.
Ce module de cours est sous licence GFDL

Définition 2.4
On appelle matrice augmentée d’un système (S) d’écriture matricelle AX = B la matrice, disons
A,
e donnée par Ae = (A B) où on justapose la matrice unicolonne B des seconds membres à droite
de la matrice A des coefficients du système.

Exemple 2.2
rrdjeam


 −2x1 + 6x2 + x3 = 3

Considérons le système (S) 3x1 − x2 + 2x3 = 0

 4x + x − 4x
1 2 3 = 9

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Ecriture matricielle 33

LATEXer : rdjeamr Co. Ltd.


     
−2 6 1 x1 3
La matrice associée à (S) est A =  3 −1 2  . En posant X =  x2  et B =  0 
     
4 1 −4 x3 9
le système (S) s’écrit sous forme matricielle AX = B soit
     
−2 6 1 x1 3
(S) ⇐⇒  3 −1 2   x2  =  0  . (2.2.1)
     
4 1 −4 x3 9
 
−2 6 1 3
La matrice augmentée du système est A e=  3 −1 2 0 .

4 1 −4 9

Définition 2.5



 a11 x1 + · · · + a1p xp = b1
 a21 x1 + · · · + a2p xp = b2

1. Le rang d’un système linéaire (S) .. .. . .. .. ..


 . . · · · .. . . .

 a x + ··· + a x = b
n1 1 np p n

est le rang de la matrice A = (aij )16i6n qui lui est associée.


16j6p
2. Le déterminant de la matrice A est appelé déterminant du système.

Exemple 2.3
Les systèmes

 −2x + 6y + z = 3
( 
2x + 3y − 5z = 0
(S1 ) , (S2 ) 3x − y + 2z = 0
x−y+z = 1 
 4x + y − 4z = 9

 −2x + 6y + z = 3
 (
2x + 3y = 0
(S3 ) 3x − y + 2z = 0 , (S4 )

 x + 5y + 3z = 9 x + 2y = 1

ont pour rang respectif rg(S1 ) = 2, rg(S2 ) = 3, rg(S3 ) = 2 et rg(S4 ) = 2 (à vérifier ! !).
Ce module de cours est sous licence GFDL

Théorème 2.6 (Existence de solutions)


Soit le système linéaire (S) de n èquations à p inconnues et d’écriture matricielle AX = B.
Le système linéaire (S) est consistant (ou admet de solution) si et seulement si la matrice A et la
matrice augmentée A e = (A B) possèdent le même rang : rgA = rgA. e

Proposition 2.7
Soit le système linéaire (S) de n èquations à p inconnues et d’écriture matricielle AX = B.
rrdjeam

— Le système linéaire (S) est consistant si et seulement si la dernière colonne de la matrice


augmentée A e = (A B) du système n’est pas une colonne pivot.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode graphique 34

LATEXer : rdjeamr Co. Ltd.


— Le systm̀e (S) est consistant si et seulement si la matrice unicolonne B peut s’écrire comme
combinaison des colonnes de A ; en d’autres termes, B ∈ Col(A).

En particulier on a le théorème suivant :

Théorème 2.8 (Unicité et infinité de solutions)


— Unicité de solution
Le systéme (S) admet une unique solution si et seulement si rgA = rgA e = n. (Dans ce cas
n = p)
— Infinité de solutions
Le système admet une infinité de solutions si et seulement si rgA = rgA
e<n

Définition 2.9 (Système de Cramer)


On appelle système de Cramer tout système d’écriture matricielle AX = B de n équations
linéaires à n inconnues où la matrice (carrée) ::
A ::::
est ::::::::::
inversible (i.e de rang n).

Propriétés 2.10
1. Un système de Cramer est donc un système de n équations à n inconnues dont le déterminant
est non nul.
2. Un système de Cramer est un système qui admet une solution unique.
:::::::::::::::

3. On ne change pas la solution d’un système linéaire


(a) lorsqu’on permute deux lignes
(b) lorsqu’on permute deux colonnes
(c) lorsqu’on multiplie une ligne par un réel non nul
(d) lorsqu’on ajoute à une ligne une combinaison linéaire d’autres lignes.

2.3 Résolution d’un système d’équations


Résoudre (S) revient donc à déterminer l’ensemble des matrices colonnes X vérifiant AX = B.
Cette section présente différentes méthodes de résolution d’un système linéaire.
Ce module de cours est sous licence GFDL

2.3.1 Méthode graphique

La méthode graphique de résolution des systèmes d’équations est beaucoup plus intéressante
quand le système ne comporte que deux variables. Dès que le nombre de variables devient plus
important, il parait un peu compliquer
( de déployer cette méthode.
a11 x1 + a12 x2 = b1
Soit donc le système (S)
a21 x1 + a22 x2 = b2
rrdjeam

On observe que chacune des équations du système représente l’équation d’une droite (Di ) dans
le plan. Alors on trace ces droites et la discussion suivante s’en suit :

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode graphique 35

LATEXer : rdjeamr Co. Ltd.


1. Si les doites sont telles que D1 ∩ D2 = ∅ (on dit que les droites sont strictement parallèlles)
alors le système (S) n’a aucune solution (il est non consistant).
2. Si les doites sont telles que D1 ∩ D2 = D2 (on dit que les droites sont confondues) alors le
système (S) admet une infinité de solution
3. Si les droites sont telles que D1 ∩D2 = {X} un singleton, (on dit que les droites sont sécantes
en un point) alors le système (S) admet l’unique solution les coordonées de X.

Exemple 2.4
Résoudre les systèmes suivants :
1.

0.8

0.6

(D 0.4
1 ):
x+
2y
=− 0.2
1

−1.2 −1. −0.8 −0.6 −0.4 −0.2 0 0.2 0.4 0.6 0.8 1. 1.2 1.4

−0.2

−0.4

−0.6
(D
2 ):
−0.8 −3
x−
6y
−1.
= 1
(
x1 + 2x2 = −1
(S1 ) ,
−3x1 − 6x2 = 1
Ce module de cours est sous licence GFDL
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode matricielle 36

LATEXer : rdjeamr Co. Ltd.


15.

10.

1
5.
2y =−
:x+
(∆ 2)
−15. −10. −5. 0 5. 10. 15. 20. 25.

−5.

1
−−10.
=
:x + 2y
(∆ 1)
−15.
(
1
x
3 1
− x2 = 6
(S2 )
−x1 + 3x2 = −18

2.

1.5 −1
y=
A −2
1. ) :x
(∆1

0.5

−2. −1.5 −1. −0.5 0 0.5 1. 1.5 2.


2
=−
− 5y −0.5

) : 3x
( (∆ 2 −1.
x1 − 2x2 = −1
et (S3 )
3x1 − 5x2 = −2
Ce module de cours est sous licence GFDL

2.3.2 Méthode matricielle

Cette méthode ne s’applique que dans le cas où le système est de Cramer, en d’autres termes
quand la matrice du système est inversible
Soit (S) ⇐⇒ AX = B un système de Cramer. Comme A est inversible, on a :
(S) ⇐⇒ AX = B ⇐⇒ A−1 AX = A−1 B ⇐⇒ IX = A−1 B ⇐⇒ X = A−1 B.
rrdjeam

Remarque 2.11 (Attention ! !)


Le fait que la matrice d’un système ne soit pas inversible ne signifie pas que le système est non
consistant ; ceci traduit tout simplement que la méthode matricielle ne peut pas être utiliser pour

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode matricielle 37

LATEXer : rdjeamr Co. Ltd.


résoudre le système.

Exemple 2.5

 −2x1 + 6x2 + x3 = 3

1. Soit à résoudre le système (S) 3x1 − x2 + 2x3 = 0

 4x + x − 4x
1 2 3 = 9
 
−2 6 1
La matrice associée à (S) est A =  3 −1 2 
 
4 1 −4

−2 6 1

et on a ∆ = det(A) = 3 −1 2 = 123 6= 0 ainsi le système (S) est de Cramer.


4 1 −4
Par conséquent
2 25 13
      
x1 123 123 123 3 1
  20 4 7
  
X =  x2  =   ;
 0  =  1 

 123 123 123 
x3 7 26 16
− 123 9 −1
123 123

d’où l’ensemble solution du système (S) est SR3 = (1, 1, −1) .




 x1 + 2x2 − 6x3 = 2

0
2. Considérons le système (S ) 3x1 − x2 + 2x3 = 3

 4x + x − 4x = 6
1 2 3
 
1 2 −6 1
2 −6

La matrice associée à (S 0 ) est A =  3 −1 2  et on a ∆ = det(A) = 3 −1 2 = 0,
 

4 1 −4 4 1 −4
donc le système (S 0 ) n’est pas de Cramer. On ne peut le résoudre par la méthode matricielle.

Un calcul pratique de l’inverse d’une matrice

Soit un système de Cramer (S) dont l’écriture matricielle est AX = Y où la matrice unicolonne
 
y1
des seconds membres est Y =  ...  . Si on suppose qu’au lieu que ce soit X qui est la variable
Ce module de cours est sous licence GFDL

 

yn
et que plutôt c’est Y qui l’est, le problème revient donc à trouver Y en fonction de X. Ceci
conduit donc au problème d’inversion de la matrice A. En effet, en supposant A inversible, la
méthode matricielle de résolution des systèmes d’équations donne en multipliant à gauche par
A−1 : A−1 Y = A−1 AX = X donc
rrdjeam

Y = AX ⇐⇒ X = A−1 Y,

ou encore

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode des déterminants 38

LATEXer : rdjeamr Co. Ltd.


       
y1 x1 x1 y1
 ..   .   .  −1  . 
 .  = A  ..  ⇐⇒  ..  = A  ..  .
yn xn xn yn
La détermination de A−1 revient donc à exprimer x1 , · · · , xn en fonction de y1 , · · · , yn et d’écrire
la matrice du système obtenu.
Ainsi en eprimant Y en fonction de X, la matrice du nouveau systeème est l’inverse de la
matrice du système initial.

Exemple 2.6
Considérons
 le système  
 x1
 = y1 1 0 0
(S) −x1 + 2x2 = y2 dont la matrice associée est A =  −1 2 0 
 

 x
1 + 3x3 = y3 1 0 3

 y1
 = x1
et d’écriture matricielle Y = AX y2 = −x1 + 2x2

 y
3 = x1 + 3x3
  
 x1 = y1
 1 0 0
D’où on tire x2 = 21 y1 + 12 y2 de matrice associée A−1 =  21 21 0 .
 
 x = −1y + 1y

− 13 0 31
3 3 1 3 3

NB
:::
: Cette technique est particulièrement efficace lorsque la matrice à inverser est creuse (i.e
contient “suffisamment” de zeros).

2.3.3 Méthode des déterminants

Cette méthode est également d’usage seulement dans le cas des systèmes de Cramer. Considérons
un système linéaire (S) de Cramer. D’après la méthode précédente, comme A est inversible on a
1 t
A−1 = com(A) ; ainsi
det
 A      n
x1 b1 b1 c0ji bi
P
1 t 1
X =  ...  = [cij ]  ...  = [c0ji ]  ... , c’est-à-dire xj = i=1 .
     
det A det A det(A)
xn bn bn
Ce module de cours est sous licence GFDL

0 ième
Les coefficient cji sont les éléments de la j ligne de la iième colonne de la transposée de la
comatrice de A, donc ils sont les élements cij de la iième ligne de la j ième colonne de la comatrice
Pn
cij bi
i=1
de A ; donc les cofacteurs des facteurs aij . Par conséquent on peut écrire : xj = .
det(A)
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode des déterminants 39

LATEXer : rdjeamr Co. Ltd.


Or le développement du déterminant de A suivant la j ième colonne est donné par :

a11 · · · a1j · · · a1n
.. . ..

. · · · .. · · · . X n

∆ = det(A) = ai1 · · · aij · · · ain = cij aij .
.. . .. i=1
. · · · .. · · · .

a ··· a n1··· nj a
nn

n
P
Posons ∆xj = cij bi , l’expression au numérateur de xj . On observe qu’en remplaçant dans
i=1
l’expression de ∆ les aij par bi on obtient ∆xj où les cij sont désormais les cofacteurs des bi

a11 · · · b1 · · · a1n
.. . ..

. · · · .. · · · . X n

∆xj = ai1 · · · bi · · · ain = cij bi .
.. . .. i=1
. · · · .. · · · .

a ··· b ···
n1 n a
nn

Donc grâce à cette méthode, la solution du système de Cramer est donnée par les
∆xj
xj = (j = 1, · · · , n)

où ∆ est le déterminant de la matrice A et ∆xj le déterminant obtenu en remplaçant dans ∆ la j ième
 
b1
colonne par la colonne des seconds membres, i.e  ... .
 

bn

Exemple 2.7

 −2x1 + 6x2 + x3 = 3

1. Soit le système (S) 3x1 − x2 + 2x3 = 0

 4x + x − 4x
1 2 3 = 9
 
−2 6 1
La matrice associée à (S) est A =  3 −1 2 . et ∆ = det(A) = 123 6= 0, donc le
 
Ce module de cours est sous licence GFDL

4 1 −4
système est donc de Cramer. On a

3 6 1
∆x1 123
∆x1 = 0 −1 2 = 123 donc x1 = = =1

∆ 123
9 1 −4
rrdjeam


−2 3 1
∆x2 123
∆x2 = 3 0 2 = 123 donc x2 = = =1

∆ 123
4 9 −4

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 40

LATEXer : rdjeamr Co. Ltd.


et
−2 6 3
∆x3 −123
∆x3 = 3 −1 0 = −123 donc x3 = = = −1

∆ 123
4 1 9
donc l’ensemble solution du système est SR3 = (1, 1, −1) .


 x + 2y − 6z = 2

0
2. Considérons le système (S ) 3x − y + 2z = 3

 4x + y − 4z = 6
 
1 2 −6 1
2 −6
La matrice associée est A =  3 −1 2  et on a ∆ = det(A) = 3 −1 2 = 0, donc
 

4 1 −4 4 1 −4
le système (S 0 ) n’est pas de Cramer. On ne peut le résoudre par la méthode des déterminants.

2.3.4 Méthode du pivot de Gauss

Si une matrice A de dimension n lignes et p + 1 colonnes représente la matrice augmentée d’un


système d’équations linéaires, le système possède p variables qui correspondent aux p premières
colonnes de la matrice A (la dernière colonne de la matrice augmentée étant la colonne des second
membres du système). On appelle variable de base du système, toute variable qui correspond à une
colonne pivot dans la forme échelon réduit de la matrice A. Les autres variables du système sont
::::::::::::::

appelées des variables libres.

2.3.4.1 Systèmes triangulaires

Définition 2.12 
 a11 x1 + · · · + a1p xp = b1

.. .. . .. .. ..
Un système linéaire (S)
 . . · · · .. . . .
an1 x1 + · · · + anp xp = bn

est dit triangulaire (trapezoidal à proprement parler) s’il existe un entier r 6 n tel que :
• Si r < n on ait aij = 0 pour r < i 6 n et 1 6 j 6 p.
• aij = 0 pour tout couple (i, j) tel que 1 6 j < i 6 r.
• aii 6= 0 pour 1 6 i 6 r.
Ce module de cours est sous licence GFDL

Un système est donc triangulaire lorqu’il se présente ainsi :




 a11 x1 +a12 x2 + · · · +a1r xr + . . . +a1p xp = b1



 +a22 x2 + · · · +a2r xr + . . . +a2p xp = b2
.. .. .. .. ..


···



 . . . . .
(S) arr xr + . . . +arp xp = br
rrdjeam




 0 = br+1
.. ..





 0 . .

0 = bn

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 41

LATEXer : rdjeamr Co. Ltd.


où les aii , 1 ≤ i ≤ r sont non nuls, et où les lignes Lr+1 , · · · Ln peuvent ne pas exister (par
exemples r = n ou que ces lignes sont triviales, i.e br+1 = · · · = bn = 0).

Exemple 2.8
 
 x +6y
 +z = 7  x +6y
 +z +t = 6
(S) −5y −17z = −12 (S 0 ) −3y +z −2t = 1
 
 −25z = −25  −17z −5t = 2

2.3.4.2 Systèmes échelonnés

Cette forme est un peu plus générale que la forme triangulaire.

Définition 2.13
Considérons le système

 a11 x1 + · · · + a1p xp = b1

(S) .. .. .. .. .. ..
 . . · · · . . . .
an1 x1 + · · · + anp xp = bn

Pour chaque équation Li notons ji l’indice du premier coefficient non nul, c’est-à - dire que Li est
de la forme : aiji xji + · · · + aip xp = bi avec aiji 6= 0.
Nous dirons que le système est échelonné s’il existe un entier r 6 n tel que
• Si r < n on ait aij = 0 pour r < i 6 n et 1 6 j 6 p.
• Pour i 6 r, ji existe et la suite j1 , · · · , jr est strictement croissante.

Exemple 2.9 
 x +6y +z +t −2u =
 4
(S) z −2t +5u = −1

 u = 5

Remarque 2.14
Les systèmes échelonnés sont simples à résoudre par la méthode dite de la remontée, en fai-
sant passer au besoin au second membre certaines inconnues traitées comme des paramètres
indéterminés : ce sont les variables libres (voir Remarque et exemples 2.11 ).
Ce module de cours est sous licence GFDL

Exemple 2.10
1. Soit le système linéaire 
 x +6y
 +z = 7
(S) −5y −17z = −12

 −25z = −25
rrdjeam

De l’équation L3 , on tire z = 1. On remonte à l’équation L2 pour remplacer z par 1. Ce qui


donne −5y − 17 × 1 = −12 donc y = −1. Dans L1 l’égalité x − 5 = 7 conduit a x = 12.
Finalement, on obtient donc SR3 = {(12, −1, 1)}.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 42

LATEXer : rdjeamr Co. Ltd.


2. Dans le système 
 x +6y
 +z +t = 6
(S 0 ) −3y +z −2t = 1

 −17z −5t = 2
qui est de rang 3, on peut considérer t comme une inconnue non principale et donc le prendre
comme un paramètre. Le système ci-dessus est équivalent à :

 x +6y
 +z = 6 − t
−3y +z = 1 + 2t

 −17z = 2 + 5t
2 5
De L3 on a z = − − t. On remonte à L2 pour remplacer et tirer y. On obtient y =
17 17
19 13 142 66
− − t puis de L1 on tire x = + t. On a donc
51 17 17 17
 
142 66 19 13 2 5 
SR4 = + α; − − α; − − α; α ; α∈R .
17 17 51 17 17 17

Exemple 2.11 
 a11 x1 + · · · + a1p xp = b1

.. .. . .. .. ..
Considérons le système linéaire (S)
 . . · · · .. . . .
an1 x1 + · · · + anp xp = bn

et supposons qu’il est de rang r. Il existe alors une sous-matrice carrée d’ordre r inversible
C extraite de A. Supposons que C est formée à partir des r premières lignes et des r premières
colonnes de A (on peut toujours se ramener à ce cas en modifiant l’ordre des équations et la
numérotation des inconnues si nécessaire).
• Si r = n = p, le système est de Cramer.
• Si r = n < p alors toutes les équations sont principales mais il y a des inconnues non
principales. On considère alors les p − r inconnues xr+1 , · · · , xp comme des paramètres et le
système s’écrit :
p

 X



 a11 x1 + · · · + a1r xr = b1 − a1j xj

 j=r+1

.. .. . .. .. ..
Ce module de cours est sous licence GFDL

(S 0 ) . . · · · .. . . .


 p
 X
 ar1 x1 + · · · + arr xr = br − arj xj



j=r+1

qui est un système de Cramer (avec pour seules inconnues x1 , · · · , xr ) dont l’unique solution
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 43

LATEXer : rdjeamr Co. Ltd.


est donnée comme expliquée dans le paragraphe précédent. C’est-à-dire
p
 
X
   −1  b1 − a1j xj 
x1 a11 · · · a1r 
 j=r+1


 ..   ..
 .  =  ... ... ...  
  
. 
 p 
xr ar1 · · · arr 
 b −
X 
r arj xj 
j=r+1

L’unique solution dépend de p − r paramètres xr+1 , · · · , xp . On dit qu’il y a indétermination


d’ordre p − r.
Soit à résoudre le système

 x
 +6y +z +t = 12
(S) 2x + − 3y +z −2t = −7

 −x +3y −17z −5t = −10

La matrice associée à ce système est


 
1 6 1 1
A =  2 −3 1 −2 
 
−1 3 −17 −5

Cette matrice est de rang 3. On peut considérer l’inconnue t comme un paramètre et le


système s’écrit : 
 x
 +6y +z = 12 − t
2x + − 3y +z = −7 + 2t

 −x +3y −17z = −10 + 5t
72 50 95
dont la résolution conduit à x = t − 1, y = − t + 2 et z = − t + 1 où l’inconnue t
249 249 249
est choisie arbitrairement. On en conclut que l’ensemble solution dans R4 est donné par :
 
72 50 95 
SR4 = α − 1, − α + 2, − α + 1, α , α∈R
249 249 249
.
• Si r < n il y a des équations non principales et éventuellement des inconnues non principales.
Ce module de cours est sous licence GFDL

Algorithme du pivot de Gauss

Soit à résoudre dans Rp le système linéaire



 a11 x1 + · · · + a1p xp = b1

(S) .. .. .. .. .. ..
. . · · · . . . .
rrdjeam


an1 x1 + · · · + anp xp = bn

— Si tous les coefficients aij et bi sont nuls alors SRp = Rp .

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 44

LATEXer : rdjeamr Co. Ltd.


— S’il existe un i tel que aij = 0 pour tout j et que bi 6= 0 alors le système n’a aucune solution
(il est incompatible), SRp = ∅.
Nous supposons pour la suite qu’aucune des équations du système (S) ci-dessus n’a tous ses
coefficients nuls.
— On considère la première inconnue ayant un coefficient non nul dans l’une au moins des
équations. On peut (sans perte de généralité) supposer que c’est la première équation, en
changeant au besoin l’ordre des équations. On appelle premier pivot le premier coefficient non
nul de cette première équation. On suppose que c’est a11 pour simplifier quitte à renuméroter
les inconnues. Le système (S) est équivalent au système formé des équations L1 et pour
2 6 i 6 n, Li ← Li − aa11 i1
L1 (ou de façon équivalente Li ← a11 Li − ai1 L1 ).
Ce système a la forme


 a11 x1 + a12 x2 + . . . + a1p xp = b1
a022 x2 + . . . + a02p xp = b02


(S)

 ... ... ... ... ...

an2 x2 + . . . + anp xp = b0n
0 0

— On recommence le processus en considérant seulement le système formé des nouvelles


équations L2 , · · · , Ln (on continue de noter les équations par des Li ). En supposant a022 6=
0 (sinon on échange des lignes), on obtient un système équivalent au premier, formé des
a0
équations L1 , L2 et pour 3 6 i 6 n, Li ← Li − a0i2 L2 (ou de façon équivalente Li ←
22
a022 Li − a0i2 L2 ).
— On continue cet algorithme jusqu’à :
• soit rencontrer une incompatibilité, auquel cas SRp = ∅.
• soit obtenir un système échelonné de r 6 n équations, équivalent au système initial (S)
sans ligne de la forme 0 = 0, i.e


 a11 x1 +a12 x2 + . . . +a1r xr + . . . +a1p xp = b1

 +a22 x2 + . . . +a2r xr + . . . +a2p xp = b2
(S 0 )

 ... ... ... ... ...

arr xr + . . . +arp xp = br

où les coefficients a11 , · · · , arr sont non nuls.


Ce module de cours est sous licence GFDL

Ce dernier système étant simple à résoudre (voir Note 2.14 et Exemple 2.10).

Exemple 2.12


 x +3y −z = 9
3
1. Résolvons dans R le système suivant (S) 3x −y +z = −1

 −2x +y −3z = 6

rrdjeam

x +3y −z =

 9
On a successivement : 3x −y +z = −1 L2 ← L2 − 3L1

 −2x +y −3z = 6 L3 ← L3 + 2L1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Méthode du pivot de Gauss 45

LATEXer : rdjeamr Co. Ltd.


 
 x
 +3y −z = 9  x +3y −z =
 9
puis −10y +4z = −28 et −10y +4z = −28 .
 
 7y −5z = 24 L3 ← −10L3 − 7L2  22z = −44
De (L3 ) on tire z = −2, puis en reportant cette valeur dans (L2 ), on obtient y = 2 puis enfin
en reportant ces deux valeurs dans (L1 ) on on obtient x = 1. D’où

SR3 = {(1, 2, −2)}.




 x +3y −z = 9
2. Soit à résoudre le système (S) 3x +9y −3z = −1

 −2x +y −3z = 6
 

 x +3y −z = 9  x +3y −z =
 9
On a 3x +9y −3z = −1 L2 ← L2 − 3L1 équivalent à 0 = −28

 −2x +y −3z = 
6 L3 ← L3 + 2L1  7y −3z = 24
qui de par l’équation (L2 ) est clairement un système incompatible et donc SR3 = ∅.

 2x +y −z =
 3
3. Considérons maintenant le système (S) x −y −z = 2

 −3x −3y +z = −4
On a :


 x −y −z = 2
(S) ⇐⇒ 2x +y −z = 3
 −3x −3y +z = −4 L1 ←→ L2



 x −y −z = 2
⇐⇒ 2x +y −z = 3 L2 ← L2 − 2L1

 −3x −3y +z = −4 L3 ← L3 + 3L1

 x −y −z =
 2
L3 ← L3 + 2L2
⇐⇒ 3y +z = −1

 −6y −2z = 2

 2x +y −z =
 3
⇐⇒
Ce module de cours est sous licence GFDL

3y +z = −1

 0 = 0
(
2x +y = 3+z
De ce dernier système on obtient le système équivalent
−3y = 1+z
1 1 5 2
De l’équation (L2 ) on tire y = − − z et reportant dans (L1 ), on obtient x = + z.
3 3 3 3
rrdjeam

Finalement, on a :
n 5 2 1 1  o
SR3 = + α, − − α, α ; α∈R .
3 3 3 3

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercies 46

LATEXer : rdjeamr Co. Ltd.


2.4 Quelques exercies
Exercise 2.1 
 x
+ 2y + z = 3

Soient a et b deux réels et le système linéaire suivant (S) : ay + 5z = 10

 2x + 7y + az = b
1. Mettre (S) sous forme matricielle .
2. Pour quelles valeurs de a le système (S) a-t-il une et une seule solution ? La determiner en
fonction de a.
3. Pour quelles valeurs du couple (a, b) le système (S) a-t-il plus d’une solution ?

Exercise 2.2 
 x + (α − 1)z = 1

On considère le système : Sα x + y = 2

 y + (3 − 2α)z = 1.
1. Donner l’écriture matricielle du système sous la forme Aα X = B, tout en précisant les
matrices Aα , X et B.

2. Pour quelles valeurs du réel α le système Sα est - il de Cramer ?

 x + z = 1

3. On prend ici α = 2 et on pose S2 x + y = 2

 y − z = 1.
(a) Dites, tout en justifiant votre réponse, les méthodes de résolution qui sont adaptées au
système (S2 )
i- matricielle ii- des déterminants iii- de pivot de Gauss
(b) Résoudre dans R3 le système (S2 ).

Exercise 2.3
Sur un marché, deux produits A et B sont en concurrence. On suppose que d’une année à l’autre,
60% de la clientèle reste fidèle à A tandis que 30% de la clientèle de B passe à A. Il n’y a pas de
fuite de clientèle vers d’autres produits concurrents, et il n’y a pas abandon de consommation de
ces produits. ! !
a0 a0
Ce module de cours est sous licence GFDL

On note P0 = les parts de marché de A et B en 2020. On désire calculer P =


b0 b0
les parts du marché de A et B en année 2020 + n.
1. Calculer P1 et P2 .
2.(a) Démontrer que Pn+1 = M Pn où M est une matrice carrée d’ordre 2 à préciser.
(b) En déduire que Pn = M n P0
rrdjeam

3. Calculer M 2 − 1.3M + 0.3I2 . En déduire que :


(a) M est inversible et trouver son inverse en fonction de M et I2 puis sous forme de tableau
de réels

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercies 47

LATEXer : rdjeamr Co. Ltd.


(b) M 2 − M = 0.3(M − I2 ) et que M n − M n−1 = 0.3n−1 (M − I2 )
4. Calculer M n et en déduire Pn pour tout n > 1.
Ce module de cours est sous licence GFDL
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Trois

Applications linéaires et matrices


représentatives

3.1 Espaces vectoriel


Définition 3.1
Un espace vectoriel sur K (K = R ou C) ou un K−espace vectoriel est un ensemble non vide E
muni de deux opérations :
1. une opération (ou loi de composition) interne appelée addition (+)
+ : E × E −→ E
vérifiant les propriétés suivantes :
(~u, ~v ) 7−→ ~u + ~v
• elle est commutative ~u + ~v = ~v + ~u ;
• elle est associative ~u + (~v + w)
~ = (~u + ~v ) + w~;
• elle admet un élément neutre noté ~0E ou simplement ~0 vérifiant : ~u + ~0 = ~0 + ~u = ~u ;
• pour tout vecteur ~u il existe un opposé noté −~u tel que ~u + (−~u) = (−~u) + ~u = ~0.
2. une opération (ou loi de composition) externe appelée multiplication par un nombre
· : K × E −→ E
vérifiant les propriétés suivantes :
(λ, ~u) 7−→ λ · ~u
• elle est distributive par rapport à l’addition dans K (λ + µ) · ~u = λ · ~u + µ · ~u ;
• elle est distributive par rapport à l’addition dans E λ · (~u + ~v ) = λ · ~u + λ · ~v ;
• elle est associative λ · (µ · ~u) = (λµ) · ~u ;
• 1 est élément unité 1 · ~u = ~u.
Les éléments de E s’appellent les vecteurs et les éléments de K = R ou C sont appelés les scalaires.
Remarque 3.2
Ce module de cours est sous licence GFDL

• Dans la définition, nous avons désigné les vecteurs par des lettres surmontées d’une flêche
pour coller un peu à ce que nous savions du plan ou de l’espace. En fait dans la suite nous
laisserons tomber volontier ces flêches et désignerons les vecteurs juste par des lettres u, v,
w, etc.
• Bien remarquer qu’une structure d’espace vectoriel est constituée non seulement de l’en-
semble (ici noté E ) mais aussi des deux opérations : l’addition (+) et la multiplication
rrdjeam

(externe) par un scalaire (·). C’est pourquoi une telle structure d’espace vectoriel est souvent
notée par le triplet (E, +, ·). Sur un même ensemble E on peut avoir plusieurs structures
d’espace vectoriel.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Espaces vectoriel 49

LATEXer : rdjeamr Co. Ltd.


Espace vectoriel (R2 , +, ·)

L’ensemble R2 est constitué des couples (x, y) où x et y sont des nombres réels. On définit sur
E = R2 ,
• l’addition (+) par : (x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ).
• la multiplication externe par : our tout λ ∈ R, λ · (x, y) = (λx, λy).
On vérifie qu’avec ces deux opérations, R2 est un espace vectoriel sur R. C’est la structure
d’espace vectoriel canonique sur R2 . Le vecteur nul de cette structure est 0 = (0, 0).

Espace vectoriel (R3 , +, ·)

L’ensemble R3 est constitué des triplets (x, y, z) où x, y et z sont des nombres réels. On définit
sur E = R3 ,
• l’addition (+) par : (x, y, z) + (x0 , y 0 , z 0 ) = (x + x0 , y + y 0 , z + z 0 ).
• la multiplication externe par : pour tout λ ∈ R, λ · (x, y, z) = (λx, λy, λz).
On vérifie qu’avec ces deux opérations, R3 est un espace vectoriel sur R. C’est la structure
d’espace vectoriel canonique sur R3 . Le vecteur nul de cette structure est 0 = (0, 0, 0).

Remarque 3.3
On généralise facilement ces deux exemples à Rn , (n > 1). En fait de façon générale, on définit
sur Rn une addition comme suit. Soient x = (x1 , · · · , xn ) et y = (y1 , · · · , yn ) deux éléments de
Rn . Alors, x + y est défini par

x + y := (x1 + y1 , · · · , xn + yn ).

Soit λ ∈ R, alors λx est défini par :

λx := (λx1 , · · · , λxn ).

Proposition 3.4
Rn muni de ces deux opérations est un espace vectoriel sur R.

Une structure d’espace vectoriel sur R?+

Pour u, v ∈ R?+ et y ∈ R, on pose : u ⊕ v = uv et y u = uy . On peut vérifier que


Ce module de cours est sous licence GFDL

(R?+ , ⊕, ) est un espace vectoriel sur R.

Un contre-exemple sur R2

On définit sur R2 ,
• l’addition ⊕ par : (x, y) ⊕ (x0 , y 0 ) = (x + x0 , y + y 0 ).
• la multiplication externe par : pour tout λ ∈ R, λ (x, y) = (λx, 0).
rrdjeam

2
R muni de ces deux lois n’est pas un espace vectoriel sur R. En effet, toutes les propriétés requises
ne sont pas vérifiées ; par exemple, 1 (x, y) = (x, 0) 6= (x, y) si y 6= 0.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Sous-espaces vectoriels 50

LATEXer : rdjeamr Co. Ltd.


Les espaces de fonctions

Soit E un ensemble non vide et F (E, R) ≡ RE l’ensemble des fonctions de E dans R. Alors on
peut définir sur F (E, R) une addition de la façon suivante. Soient f, g ∈ F (E, R). Alors f + g
est définie par :
(f + g)(x) = f (x) + g(x).
de même pour tout λ ∈ R, on défint la multiplication de λ par f :

(λf )(x) = λf (x).

Muni de ces deux opérations, F (E, R) est un espace vectoriel sur R.


On définit en particulier les espaces de suites réelles et des espaces vectoriels de polynômes sur
R.

Remarque 3.5 (Règles de calcul)


Soit E un espace vectoriel sur K.
1. Pour tout vecteur u de E, 0 · u = 0E ,
2. Pour tout scalaire α, α · 0E = 0E ,
3. Réciproquement, pour α ∈ K et u ∈ E, la relation α · u = 0E implique α = 0 ou u = 0E .

3.2 Sous-espaces vectoriels


Définition 3.6 (Combinaisons linéaires)
Soit u1 , · · · , un des vecteurs d’un espace vectoriel E sur K. On appelle combinaison linéaire des
vecteurs u1 , · · · , un tout élément de u E de la forme

u = α1 u1 + α2 u2 + · · · + αn un ; α1 , · · · , αn ∈ K.

Par exemple, u = (2, 4) et v = (−5, 1) étant deux vecteurs de R2 , le vecteur w = (16, 10) est
une combinaison linéaire de u et v. En effet, on a 3u − 2v = (16, 10) = w.

Exercise 3.1
Pour quelle valeur du réel k le vecteur u = (1, −2, k) ∈ R3 est-il une combinaison linéaire des
Ce module de cours est sous licence GFDL

vecteurs v = (3, 0, 2) et w = (2, −1, −5) ?

Nous allons nous interesser à présent aux sous-ensembles d’un espace vectoriel qui, avec la
restriction des opérations, vont avoir à leur tour une structure d’espace vectoriel.

Définition 3.7 (Sous-espace vectoriel)


Une partie non vide F d’un K-espace vectoriel E est un sous-espace vectoriel de E si :
rrdjeam

• pour u ∈ F et v ∈ F , u + v ∈ F ;
• pour tout λ ∈ K, et u ∈ F , λ · u ∈ F .

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Sous-espaces vectoriels 51

LATEXer : rdjeamr Co. Ltd.


Il résulte immédiatement de cette définition que tout sous-espace vectoriel de E est, avec les
mêmes opérations, aussi un K−espace vectoriel.

Remarque 3.8
Pour montrer qu’une partie F de E est un sous-espace vectoriel, il faut d’abord montrer qu’elle
est non vide. Ceci se fait, en général, en montrant que 0E ∈ F .
On observe en particulier que {0E } (espace vectoriel nul) et E sont des sous-espaces vectoriels
de E. Les autres sous-espaces de E seront dits non-triviaux.

On utilise aussi la caractérisation suivante qui consiste à dire que les sous-espaces vectoriel de E
sont les parties non vides de E qui sont stables par toutes les combinaisons linéaires.

Proposition 3.9
Une partie non vide F d’un K−espace vectoriel E est un sous-espace vectoriel de E si et
seulement si
∀ α, β ∈ K ∀ u, v ∈ F, αu + βv ∈ F.

Exemple 3.1
Dans E = R3 avec sa structure d’espace vectoriel canonique, considérons les sous-ensembles

W1 = {(a, b, 0) ; a, b ∈ R} et W2 = {(a, b, c) ; a + b + c = 0}.

1. W1 est non vide car (0, 0, 0) ∈ W1 (sa troisième composante est 0, ce qui est la caractérisation
des éléments de W1 ). Soit u = (a, b, 0) ∈ W1 et v = (a0 , b0 , 0) ∈ W1 . On a u + v = (a + a0 , b +
b0 , 0) ∈ W1 . De même pour α ∈ R et u = (a, b, 0) ∈ W1 , on a α.u = (αa, αb, 0) ∈ W1 . On
conclut que W1 est un sous-espace vectoriel de R3 .
2. W2 6= ∅ car (0, 0, 0) vérifie 0 + 0 + 0 = 0 et donc (0, 0, 0) ∈ W2 .
Soit u = (a, b, c) ∈ W2 et v = (a0 , b0 , c0 ) ∈ W2 . On a u + v = (a + a0 , b + b0 , c + c0 ). Mais
(a + a0 ) + (b + b0 ) + (c + c0 ) = (a + b + c) + (a0 + b0 + c0 ) = 0 + 0 = 0, car a + b + c = 0 du
fait que u ∈ W2 de même que a0 + b0 + c0 = 0.
De même pour α ∈ R et u = (a, b, c) ∈ W2 , on a α.u = (αa, αb, αc). Mais αa + αb + αc =
α(a + b + c) = α × 0 = 0. On conclut que W2 est un sous-espace vectoriel de R3 .
Par contre, le sous-ensemble
Ce module de cours est sous licence GFDL

W = {(a, b, c) ∈ R3 |a > 0}

n’est pas un sous-espace vectoriel de R3 .


En effet, bien qu’étant non vide, W n’est pas stable par combinaison linéaire. Pour preuve,
prenons α = −2 et u = (2, −3, 1) ∈ W . On a α.u = −2(2, −3, 1) = (−4, 6, −2) ∈ / W.
rrdjeam

Proposition 3.10
L’intersection d’un nombre quelconque de sous-espaces vectoriels d’un espace vectoriel E est un
sous-espace vectoriel de E.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Espaces vectoriels de dimension finie 52

LATEXer : rdjeamr Co. Ltd.


Proposition 3.11
Soit G un sous-ensemble non vide d’un K−espace vectoriel E. L’ensemble des combinaisons

linéaires de tous les éléments de G, noté V ect(G) Span(G) , est un sous-espace vectoriel de E
contenant G. C’est le plus petit sous-espace vectoriel de E contenant G au sens où si W est un
sous-espace vectoriel de E contenant G, alors V ect(G) ⊂ W .

Définition 3.12
• Le sous-espace vectoriel V ect(G) est appelé sous-espace vectoriel de E engendré par G et G
est appelé une partie génératrice (ou un système générateur de V ect(G)).
• La famille F = (ui )i∈I de vecteurs de E est une famille génératrice de l’espace vectoriel E
lorsque pour tout u élément de E, il existe une partie finie J de I et une famille (λi )i∈J
d’éléments de K, telles que : X
u= λi ui .
i∈J

• On dit que la famille F = (ui )i∈I de vecteurs de E est une famille libre (ou que les vecteurs
ui , i ∈ I, sont linéairement indépendants) lorsque pour toute famille finie J et pour toute
famille (λi )i∈J d’éléments de K, on a :
X
λi ui = 0E =⇒ ∀i ∈ J, λi = 0.
i∈J

Lorsque la famille n’est pas libre on dit qu’elle est liée ou que les vecteurs de la famille sont
linéairement dépendants.
• On dit que la famille F = (ui )i∈I de vecteurs de E est une base de E lorsque c’est une
famille génératrice et libre de E.

3.3 Espaces vectoriels de dimension finie


Définition 3.13
On appelle dimension d’un K-espace vectoriel E le cardinal d’une base de E.
On dit q’un K−espace vectoriel E est de dimension finie lorsqu’il admet une base constituée
d’un nombre fini de vecteurs.

Proposition 3.14
Ce module de cours est sous licence GFDL

Soit E un K−espace vectoriel de dimension finie.


1. Toutes les bases de E sont constituées d’un même nombre de vecteurs.
Si n est ce nombre il est appelé la dimension de E et on écrit dim(E) = n.
2. Une famille B = (u1 , · · · , un ) de vecteurs de E est une base de E si et seulement si elle est
libre maximale (ou, ce qui revient au même, elle est génératrice minimale).
rrdjeam

3. Une famille B = (u1 , · · · , un ) de vecteurs de E est une base de E si et seulement si tout


vecteur de E s’écrit de manière unique comme combinaison linéaire des vecteurs ui , i =
1, · · · , n.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Exemples 53

LATEXer : rdjeamr Co. Ltd.


Remarque 3.15
Soit E un K−espace vectoriel de dimension finie n ∈ N? dont une base est B = (~e1 , ~e2 , · · · , ~en ).
Un vecteur u est dit avoir pour cordonnées (α1 , α2 , · · · , αn ) dans la base B (ou relativement à la
base B) si et seulement si u s’écrit u = α1 e1 + α2 e2 + · · · + αn en . Par exemple dans un espace
vectoriel E de dimension 3 muni de la base canonique B = (e1 , e2 , e3 ), le vecteur u = 2e1 −4e2 +e3
a pour coordonnées (2, −4, 1). Le vecteur v = e1 − 2e3 a pour coordonnées (1, 0, −2).

3.3.1 Exemples

Base canonique de R2 .

Nous avons présenté la structure d’espace vectoriel canonique de R2 (sur R). Notons les éléments
suivants de R2 e1 = (1, 0) et e2 = (0, 1). Soit u = (x, y) ∈ R2 . On a :
u = (x, y) = (x, 0) + (0, y) = x(1, 0) + y(0, 1)
= xe1 + ye2 .
Le système B = (e1 , e2 ) constitué de e1 et e2 est donc un système générateur de R2 . Vérifions si
B est un système libre. Pour cela, soit α et β réels tels que αe1 + βe2 = 0.
αe1 + βe2 = 0 =⇒ α(1, 0) + β(0, 1) = (0, 0)
=⇒ (α, β) = (0, 0)
=⇒ α = 0 et β = 0.
La famille B est donc libre, et comme elle est génératrice, c’est une base de R2 . C’est cette base de
R2 qui est référenciée comme base canonique de R2 . Comme on a une base de R2 à deux éléments
c’est un espace vectoriel de dimension 2.

Base canonique de R3 .

Dans R3 muni de structure d’espace vectoriel canonique notons e1 = (1, 0, 0) e2 = (0, 1, 0) et


e3 = (0, 0, 1). Soit u = (x, y, z) ∈ R3 . On a
u = (x, y, z) = (x, 0, 0) + (0, y, 0) + z(0, 0, 1)
= x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
= xe1 + ye2 + ze3 .
Ce module de cours est sous licence GFDL

Le système B = (e1 , e2 , e3 ) est donc un système générateur de R3 . Vérifions si B est un système


libre. Pour cela, soit α, β et γ réels tels que αe1 + βe2 + γe3 = 0.
αe1 + βe2 + γe3 = 0 =⇒ α(1, 0, 0) + β(0, 1, 0) + γ(0, 0, 1) = (0, 0, 0)
=⇒ (α, β, γ) = (0, 0, 0)
=⇒ α = 0, β = 0 et γ = 0.
rrdjeam

La famille B est donc libre, et comme elle est génératrice, c’est une base de R3 . C’est cette base de
R2 qui est référenciée comme base canonique de R3 . Comme on a une base de R3 à trois éléments
c’est un espace vectoriel de dimension 3.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Exemples 54

LATEXer : rdjeamr Co. Ltd.


Autres exemples de détermination de base

1. Considérons les sous-ensembles W1 = {(a, b, 0); a, b ∈ R} et W2 = {(a, b, c); a + b + c = 0}.


On a déjà démontré que W1 et W2 sont des sous-espaces vectoriels de R3 . Déterminons pour
chacun d’eux une base et la dimension.
Soit u = (a, b, 0) ∈ W1 . On a :

u = (a, b, 0) = (a, 0, 0) + (0, b, 0) = a(1, 0, 0) + b(0, 1, 0) = ae1 + be2 ,

où nous avons posé e1 = (1, 0, 0) et e2 = (0, 1, 0). On se rend compte que le système (e1 , e2 )
est un système générateur de W1 . Vérifions si c’est un système libre de W1 . Soit donc α et
β réels tels que αe1 + βe2 = (0, 0, 0). On a :

αe1 + βe2 = (0, 0, 0) =⇒ (α, β, 0) = (0, 0, 0)


=⇒ α = β = 0.

On voit alors qu’une base de W1 est donnée par le système (e1 , e2 ) et donc, que W1 est un
sous-espace vectoriel de R3 de dimension 2.
A présent soit u = (x, y, z) ∈ R3 . On a

u = (x, y, z) ∈ W2 ⇐⇒ x+y+z =0
⇐⇒ z = −x − y.

On a donc W2 = {u = (x, y, −x − y); x, y ∈ R}.


Mais u = (x, y, −x − y) = (x, 0, −x) + (0, y, −y) = x(1, 0, −1) + y(0, 1, −1) = xe + yf ;
où nous avons posé e = (1, 0, −1) et f = (0, 1, −1). Le système B = (e, f) est donc un
système générateur de W2 . Vérifions si le système B est libre. Soit λ, µ réels tels que
λe + µf = (0, 0, 0). De cette égalité on a (λ, µ, −λ − µ) = (0, 0, 0) d’où on tire λ = µ = 0.
Donc le système B = (e, f) est une base de W2 et donc ce dernier est un sous-espace vectoriel
de dimension 2 de R3 .
2. Soit dans R2 muni de sa base canonique (i, j) le sous-ensemble
n o
W = u = (2x, −3x), x ∈ R .
Ce module de cours est sous licence GFDL

W est non vide car (0, 0) ∈ W (On a en effet, (0,


 0) = (2 × 0 , −3 × 0)).
 Pour u = (2x, −3x)
et v = (2a, −3a) éléments de W on a u + v = 2(x + a), −3(x + a) ∈ W . De même pour
 
α ∈ R, αu = 2(αa), −3(αa) ∈ W . Le sous-ensemble W est donc un sous-espace vectoriel
de R2 . Déterminos une base puis la dimension de W .
Soit u = (2x, −3x) ∈ W , on a u = x(2, −3) = x(2i −3j). W est donc engendré par le vecteur
e = 2i − 3j. De plus comme le vecteur e est non nul et donc pour α ∈ R, la condition αe = 0
rrdjeam

implique α = 0. Le système formé par le seul vecteur e est libre et constitue une base de W .
Finalement on a dim W = 1.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Somme de sous-espaces vectoriels 55

LATEXer : rdjeamr Co. Ltd.


Proposition 3.16
Soit E un K-espace vectoriel de dimension finie n ∈ N? et soit F = {e1 , e2 , · · · , en } une famille
de n vecteurs de E. Les assertions suivantes sont équivalentes :
1. F est une famille libre de E ;
2. F est une famille génératrice de E ;
3. F est une base de E ;
4. B étant une base quelconque de E, le déterminant detB (e1 , e2 , · · · , en ) de la famille F par
rapport à B est non nul.

Exemple 3.2
L’espace vectoriel R3 est muni de sa base canonique B = (i, j, k). On donne les systèmes
B1 = (u, v, w) et B2 = (e1 , e2 , e3 ) avec u = 2i + j − 2k, v = i + j, w = −i + 4j + 3k et
e1 = 2i − 8j − 6k, e2 = j − 2k, e3 = i − 4j − 3k. Vérifions si B1 et B2 sont des bases de R3 .
2 1 −1

Pour B1 , on a : det(u, v, w) = 1 1 4 = −7 6= 0 donc B1 est une base de R3 .


−2 0 3

2 0 1

Pour B2 , on a : det(e1 , e2 , e3 ) = −8 1 −4 = 0. Le système B2 n’est pas une base de


−6 −2 −3
R3 , en particulier, les vecteurs e1 , e2 et e3 ne sont pas linéairement indépendants.

Proposition 3.17
Soit E un K-espace vectoriel de dimension finie n.
1. Tout système libre de E comporte au plus n vecteurs.
2. Tout système générateur de E comporte au moins n vecteurs.
3. Tout système libre comportant moins de n vecteurs peut être complété en une base de E.
4. De tout système générateur de E on peut extraire une base de E
5. Tout sous-espace vectoriel F de l’espace vectoriel E est de dimension finie et on a dim F 6
dim E.
6. Si pour F un sous-espace vectoriel de E on a dim F = dim E alors F = E.
Ce module de cours est sous licence GFDL

Proposition 3.18
Dans un espace vectoriel, une famille composée d’un vecteur unique est libre si, et seulement
si ce vecteur n’est pas nul.

3.4 Somme de sous-espaces vectoriels


rrdjeam

Définition 3.19
Soit E un espace vectoriel, F et G deux sous-espaces vectoriels de E.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Somme de sous-espaces vectoriels 56

LATEXer : rdjeamr Co. Ltd.


La somme de F et G est le sous-espace de E noté F + G défini par

F + G = {u + v ; u ∈ F, v ∈ G}.

Par ailleurs, si F ∩ G = {0E } la somme ci-dessus est dite directe et notée F ⊕ G. Tout vecteur de
F ⊕ G s’écrit de facçon unique comme somme d’un vecteur de F et d’un vecteur de G.

On vérifie que F + G = V ect(F ∪ G).


On définit de même la somme d’un nombre fini de sous-espaces vectoriels E1 , E2 , · · · , En . On
le note aussi E1 + · · · + En = {u1 + · · · + un ; ui ∈ Ei }.

Proposition 3.20
Soit E un espace vectoriel de dimension finie, F et G deux sous-espaces vectoriels de E. On a

dim(F + G) = dim F + dim G − dim(F ∩ G).

En particulier,
dim(F ⊕ G) = dim F + dim G.

Remarque 3.21
Le sous-espace vectoriel trivial (espace nul) {0E } est engendré par l’ensemble vide donc n’a
aucun élément dans base (on dit aussi qu’il n’a pas de base) et on convient que dim{0E } = 0.

Définition 3.22
Deux sous-espaces vectoriels F et G d’un K−espace vectoriel E sont dits supplémentaires (dans
E) lorsque l’on a
E = F ⊕ G.

Proposition 3.23
Si E est un K−espace vectoriel de dimension finie, deux sous-espaces vectoriels F et G de E
sont supplémentaires si et seulement si

F ∩ G = {0} et dim E = dim F + dim G.

Proposition 3.24
Soit E un K−espace vectoriel de dimension n. Les sous-espaces vectoriels F et G de E sont
Ce module de cours est sous licence GFDL

supplémentaires si et seulement si E admet une base donnée par B = (e1 , e2 , · · · , en ) avec F =


V ect(e1 , e2 , · · · , eq ) et G = V ect(eq+1 , eq+2 , · · · , en ).

Exemple 3.3
Soit dans R3 les sous-ensembles

W = {u = (x, y, z) ∈ R3 |x − y = 2y + z = 0} et U = {u = (x, y, x − y) ∈ R3 | x, y ∈ R}.


rrdjeam

On a
W = {(y, y, −2y); y ∈ R}

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Somme de sous-espaces vectoriels 57

LATEXer : rdjeamr Co. Ltd.


et on vérifie que c’est un sous-espace vectoriel de dimension 1, engendré par u = (1, 1, −2).
De même, U est un sous-espace vectoriel de dimension 2 de R3 , engendré par v = (1, 0, 1) et
w = (0, 1, −1). On a :
1 1 0

det(u, v, w) = 1 0 1 = −2 6= 0,


−2 1 −1
donc (u, v, w) est une base de R3 avec W = V ect(u) et U = V ect(v, w). On conclut que R3 =
W ⊕ U.

L’espace vectoriel des matrices

Les opérations d’addition et de multiplication définies dans le chapitre précédent sur l’ensemble
des matrices de type (n, p) lui confèrent une structure d’espace vectoriel : Mn,p (K).
1. Mn,p (K), +, · est un espace vectoriel


2. Une base de Mn,p (K) est constituée des matrices élémentaires eij . Comme elles sont au
nombre de np alors Mn,p est un espace fini de dimension np. En particulier, Mn (K) est un
espace vectoriel fini de dimension n2 .
3. L’ensemble des matrices symétriques souvent noté Sym(n, K) est un sous-espace vectoriel
de Mn (K) de dimension n(n+1)
2
.
4. L’ensemble des matrices antisymétriques souvent noté Ant(n, K) est un sous-espace vectoriel
de Mn (K) de dimension n(n−1)
2
.
5. Sym(n, K) et Ant(n, K) sont suplémentaires dans Mn (K). En effet,

Sym(n, K) ∩ Ant(n, K) = {O} et dim Sym(n, K) + dim Ant(n, K) = n2 .

Définition 3.25
Soient E et F deux K−espaces vectoriels. On définit sur E × F les opérations suivantes :
— Si (u1 , v1 ) et (u2 , v2 ) sont deux éléments de E×F on pose (u1 , v1 )+(u2 , v2 ) = (u1 +u2 , v1 +v2 ),
— Si (u, v) est un élément de E × F et λ un scalaire, on pose λ · (u, v) = (λu, λv).
Le lecteur vérifiera que l’on munit ainsi E × F d’une structure de K−espace vectoriel dont le
neutre est (0E , 0F ) (la vérification est immédiate ! !). Si de plus on pose
Ce module de cours est sous licence GFDL

E1 = E × {0F } = {(u, 0F ) ; u ∈ E} et E2 = {0E } × F = {(0E , v) ; v ∈ F },

il est clair que l’on obtient deux sous-espaces vectoriels de E × F et on peut montrer que E × F =
E1 ⊕ E2 . En particulier dim(E × F ) = dim E + dim F
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Effet d’un changement de base sur les composantes d’un vecteur 58

LATEXer : rdjeamr Co. Ltd.


3.5 Changement de base
3.5.1 Définition et remarques

Soit E un K−espace vectoriel de dimension finie n, B = (e1 , e2 , · · · , en ) une base de E.


Considérons une nouvelle base B 0 = (e01 , · · · , e0n ) formée des vecteurs
n
X
e0j = αij ei , j = 1, · · · , n.
i=1

On appelle matrice de passage de la base B à la base B 0 la matrice


 
α11 α12 · · · α1n
 .. .. . 
 . . · · · .. 
 
P =  αi1 αi2 · · · αin 
 .. .. .. 
 . . ··· . 
αn1 αn2 · · · αnn

La matrice de passage a pour vecteurs colonnes les vecteurs de la nouvelle base (exprimés à l’aide
de leurs composantes dans l’ancienne base). Notons que la matrice de passage est inversible car
ses n vecteurs colonnes forment une base de E (voir Proposition 3.16).

3.5.2 Effet d’un changement de base sur les composantes d’un vecteur

Soit u un vecteur de E qui s’écrit dans les deux bases :


n
X n
X
u= xi e i et u= x0j e0j
i=1 j=1

On a alors : n n n X
n
X X  X 
u= x0j αij ei = αij x0j ei .
j=1 i=1 i=1 j=1

Ce qui donne
n
X
xi = αij x0j , i = 1, · · · , n.
j=1
Ce module de cours est sous licence GFDL

Sous forme matricielle, on a donc :


   0 
x1 x1
 ..   .. 
 . =P .  ou encore X = P X 0,
xn x0n

où X et X 0 sont les matrices colonnes (ou coordonnées) représentant le vecteur u dans les bases
rrdjeam

B et B 0 , respectivement.

Remarque 3.26

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Applications linéaires 59

LATEXer : rdjeamr Co. Ltd.


— La matrice colonne des anciennes composantes est le produit de la matrice de passage par la
matrice colonne des nouvelles composantes.
— La matrice de passage de la base B 0 = (e0i ) à la base B = (ei ) est l’inverse de la matrice de
passage de la base B = (ei ) à la base B 0 = (e0i ). En effet, la matrice P étant inversible, on
obtient de la relation X = P X 0 par multiplication à gauche par P −1 : X 0 = P −1 X.

Exemple 3.4
Dans R2 rapporté à sa base canonique B, on considère le vecteur u = (2, −1). Considérons les
vecteurs e01 = (2, 1) et e02 = (3, 2). Posons
" #
2 3
P = .
1 2

On a det P = 1 6= 0 donc B 0 = (e01 , e02 ) est bien une nouvelle base de R2 et P est la matrice de
passage de la base B à la base B 0 . Déterminons les coordonnées du vecteur u = (2, −1) dans la
nouvelle base B 0 . L’inverse de P est
" #
2 −3
P −1 = .
−1 2
" #" # " #
0 −1 2 −3 2 7
Les composantes de u vérifient X = P X = = . Le vecteur u a donc
−1 2 −1 −4
comme composantes dans la nouvelle base (7, −4) et s’écrit donc u = 7e01 − 4e02 .

3.6 Applications linéaires


Définition 3.27
Soient E et F deux espaces vectoriels sur R. Une application f de E dans F est dite linéaire
si :
— pour tout u, v ∈ E, f (u + v) = f (u) + f (v) ;
— pour tout u ∈ E et tout λ ∈ R, f (λu) = λf (u).

Remarque 3.28
Ce module de cours est sous licence GFDL

1. De manière équivalente ces deux points peuvent être résumés ainsi : Pour tout u, v ∈ E,
α, β ∈ R, f (αu + βv) = αf (u) + βf (v).
2. On peut remplacer dans cette définition R par le corps C des nombres complexes. On parle
alors d’application R−linéaire ou C−linéaire selon le cas.
3. Une application linéaire de E dans lui même est appelée endomorphisme de E et une appli-
cation linéaire de E dans R est une forme linéaire sur E.
rrdjeam

4. On note L (E, F ) l’ensemble des applications linéaires de E dans F . L’ensemble des endo-
morphismes de E est noté L (E).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Applications linéaires 60

LATEXer : rdjeamr Co. Ltd.


5. Une application linéaire bijective de E sur F est appelée un isomorphisme.
6. Un endomorphisme bijectif de E est appelé un automorphisme de E.

Propriétés 3.29
1. f (0E ) = 0F .
2. f (λ1 u1 + · · · + λp up ) = λ1 f (u1 ) + · · · + λp f (up ). Autrement dit
p
X  p
X
f λi ui = λi f (ui ).
i=1 i=1

Exemple 3.5
1. Soit E un espace vectoriel et λ un réel. L’application hλ : u 7→ λu est une application
linéaire. De telles applications linéaires sont appelées homothéties vectorielles. Pour λ = 1
l’application h1 est l’application identique de E notée IdE . Pour λ = −1, on obtient la
symétrie vectorielle h−1 : u 7→ −u.
2. Considérons l’application

ϕ: R3 −→ R3
(x, y, z) 7−→ (x, −y, −z).

L’application φ (qui n’est autre que la symétrie vectorielle par rapport à la droite vectorielle
y = z ) est une application linéaire. En effet,
— Soient u = (x, y, z) et v = (x0 , y 0 , z 0 ) deux éléments de R3 . On a u+v = (x+x0 , y+y 0 , z+z 0 )
et donc ϕ(u+v) = (x+x0 , −(y+y 0 ), −(z+z 0 )) = (x, −y, −z)+(x0 , −y 0 , −z 0 ) = ϕ(u)+ϕ(v).
— Soit λ ∈ R et u = (x, y, z) ∈ R3 . On a λu = (λx, λy, λz) et donc
ϕ(λu) = (λx, −λy, −λz) = λ(x, −y, −z) = λϕ(u). L’application ϕ est donc linéaire.
3. Soit
f: R3 −→ R2
(x, y, z) 7−→ (x − y, y − 2z).

— Soient u = (x, y, z) et v = (x0 , y 0 , z 0 ) deux éléments de R3 . On a u + v = (x + x0 , y + y 0 , z +


z 0 ), donc
Ce module de cours est sous licence GFDL

 
f (u + v) = (x + x0 ) − (y + y 0 ), (y + y 0 ) − 2(z + z 0 )
= (x − y, y − 2z) + (x0 − y 0 , y 0 − 2z 0 )
= f (u) + f (v)

— Soit λ ∈ R et u = (x, y, z) ∈ R3 . On a λu = (λx, λy, λz) et donc f (λu) = (λx − λy, λy −


2λz) = λ(x − y, y − 2z) = λf (u).
rrdjeam

De ces deux points on conclut que f est une application linéaire.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Applications linéaires 61

LATEXer : rdjeamr Co. Ltd.


4. Soient a et b deux réels. L’ensemble C [a, b], R des fonctions numériques continues sur [a, b]


muni de l’addition usuelle des fonctions et de la multiplication par un réel est un R−espace
vectoriel. Considérons l’application

ϕ : C [a, b], R −→ R

Z b
f 7−→ ϕ(f ) = f (x)dx.
a

L’application ϕ est linéaire d’après les propriétés de l’intégrale.


5. L’ensemble C 1 ]a, b[, R des fonctions dérivables sur l’intervalle ]a, b[ à dérivée continues


sur ]a, b[ est un espace vectoriel sur R. L’application D : C 1 ]a, b[, R −→ C ]a, b[, R
 

définie par D(f ) = f 0 est une application R−linéaire.

Propriétés 3.30
Une application linéaire f est (entièrement) déterminée dès que l’on connaı̂t les images f (ei )
des vecteurs d’une base B = (e1 , · · · , en ) de E. Autrement dit, pour tout espace vectoriel F et toute
famille (u1 , · · · , un ) de n vecteurs de F , il existe une unique application linéaire L : E −→ F telle
que L(ei ) = ui pour 1 6 i 6 n.
n
X
Preuve Pour l’existence de L, considérons un vecteur v = xi ei ∈ E. Par linéarité on doit
i=1
avoir n n n
X  X X
L(v) = L xi e i = xi L(ei ) = xi ui .
i=1 i=1 i=1

L’unicité vient du fait que si L est une application linéaire définie de E dans F avec L0 (ei ) = ui ,
0

Xn
1 6 i 6 n, alors, pour tout v = xi ei ∈ E,
i=1

n
X n n
 X X
L0 (v) = L0 xi ei = xi L0 (ei ) = xi ui = L(v).
i=1 i=1 i=1

Exemple 3.6
Supposons que R2 et R3 sont munis de leurs bases canoniques respectives B = (i, j) et B 0 =
(e1 , e2 , e3 ). Considérons l’application linéaire ψ définie par :
Ce module de cours est sous licence GFDL

ψ(i) = e1 − 2e2 + e3 , ψ(j) = 3e1 + 2e2 − e3 .

Pour tout u = (x, y), posns ψ(u) = (x0 , y 0 , z 0 ). Exprimons x0 , y 0 et z 0 en fonction de x et y. On a


u = xi + yj, donc

ψ(u) = ψ(xi + yj) = xψ(i) + yψ(j)


rrdjeam

= x(e1 − 2e2 + e3 ) + y(3e1 + 2e2 − e3 )


= (x + 3y, −2x + 2y, x − y).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices d’une application linéaire 62

LATEXer : rdjeamr Co. Ltd.



0
 x = x + 3y

Donc (x0 , y 0 , z 0 ) = (x + 3y, −2x + 2y, x − y), i.e y 0 = −2x + 2y
 z 0 = x − y.

Ce système où les coordonnées de l’image ψ(u) de ~u sont données en fonction de celles de u
représente l’expression analytique de l’application linéaire ψ.

Remarque 3.31
Soient E et F deux espaces vectoriels et f une application linéaire de E dans F . La détermination
des composantes du vecteur w = f (u) en fonction de celles de u représente l’expression analytique
de f .

Propriétés 3.32
1. Soient f et g deux applications linéaires de E dans F et λ un réel. Alors :
— f + g est une application linéaire de E dans F .
— λf est une application linéaire de E dans F .
En conséquence l’ensemble L (E, F ) muni de l’addition et de la multiplication par un réel
est un espace vectoriel sur R.
2. La composée de deux applications linéaires est une application linéaire :
   
f ∈ L (E, F ), g ∈ L (F, G) =⇒ g ◦ f ∈ L (E, G) .

3. Si f ∈ L (E, F ) est un isomorphisme alors f −1 ∈ L (F, E) est un isomorphisme.


4. Si f ∈ L (E, F ) et g ∈ L (F, G) sont des isomorphismes alors g ◦ f ∈ L (E, G) est un
isomorphisme et (g ◦ f )−1 = f −1 ◦ g −1 .

3.6.1 Matrices d’une application linéaire

Définition 3.33
Soit f : E −→ F une application linéaire, B = (e1 , · · · , ep ) une base de E et B 0 = (u1 , · · · , un )
une base de F . Pour 1 6 j 6 p, posons
n
X
f (ej ) = α1j u1 + · · · + αnj un = αij ui .
i=1
Ce module de cours est sous licence GFDL

Alors la matrice A = [αij ] de type (n, p) est appelée matrice de l’application linéaire f par rapport
(ou relativement) aux bases B et B 0 de E et F respectivement.

Remarque 3.34
1. Elle est notée MB−→B0 (f ) ou simplement Mf s’il n’y a pas d’ambiguité sur les bases B et
B 0 de E et F , respectivement.
rrdjeam

2. La matrice d’une application linéaire dépend des bases utilisées.


3. La matrice d’un endomorphisme de E, quelle que soit la base utilisée, est une matrice carrée
d’ordre la dimension de E.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices d’une application linéaire 63

LATEXer : rdjeamr Co. Ltd.


Exemple 3.7
Dans tous ces exemples et remarques, les espaces vectoriels R2 et R3 sont munis de leurs bases
canoniques respectives B = (i, j) et B 0 = (e1 , e2 , e3 ).
1. L’application linéaire f : R2 −→ R3 définie par

f (i) = 2e1 − 3e2 + e3 et f (j) = e1 + 6e3

a pour matrice (par rapport à B et B 0 ) :


 
2 1
Mf =  −3 0 
 
1 6

2. Considérons la projection (orthogonale)

p : R3 −→ R3 (x, y, z) 7−→ (x, y, 0)

de l’espace vectoriel R3 sur le plan vectoriel (xy) ≡ z = 0. On a p(e1 ) = e1 , p(e2 ) = e2 et


p(e3 ) = 0 = (0, 0, 0). On en déduit que la matrice de p relativement à la base canonique de
R3 est  
1 0 0
Mp =  0 1 0  .
 
0 0 0
3. Soit g : R3 −→ R2 l’application linéaire d’expression analytique par rapport aux bases cano-
niques g(x, y, z) = (x − 2y + z, 4x + y + 3z). On a

g(e1 ) = (1, 4) = i + 4j, g(e2 ) = (−2, 1) = −2i + j et g(e3 ) = (1, 3) = i + 3j.

Sa matrice relativement aux bases canoniques de R2 et R3 est


!
1 −2 1
Mg = .
4 1 3

4. L’expression analytique (relativement à des bases fixées) d’une application linéaire f , se


déduit de sa matrice (relativement à ces bases) comme suit :
Ce module de cours est sous licence GFDL

   
y1 x1
 ..  ..  ,
 .  = Mf 

. 
yn xp
   
x1 y1
où  ...  est la matrice colonne formée des coordonnées de l’antécédant et  ...  la
rrdjeam

   

xp yn
matrice colonne formée des coordonnées de l’image.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Matrices d’une application linéaire 64

LATEXer : rdjeamr Co. Ltd.


Par exemple considérons une application linéaire ψ : R2 −→ R3 dont la matrice par rapport
aux bases canniques est  
2 −4
M = 3 1 .
 
6 −2
Son expression analytique relativement aux bases canoniques est donnée par
      
x0 2 −4 x  x
 0
= 2x − 4y
 0  
 y = 3 1    , c’est-à-dire y0 = 3x + y
  
0  z0

z 6 −2 y = 6x − 2y.

Propriétés 3.35
Relativement à des bases fixées dans les espaces vectoriels E, F et G,
1. Si f, g ∈ L (E, F ) alors Mf +g = Mf + Mg
2. Pour α ∈ R, Mαf = αMf ;
3. Si f ∈ L (E, F ) et g ∈ L (F, G) alors Mg◦f = Mg × Mf .
En particulier si f ∈ L (E, F ) est un isomorphisme, f −1 ∈ L (F, E) est aussi un isomor-
phime et
MB0 →B (f −1 ) = [MB→B0 (f )]−1 .

Exemple 3.8
Les espaces vectoriels R2 et R3 sont munis de leurs bases canoniques respectives B = (i, j) et
B 0 = (e1 , e2 , e3 ). On définit l’application linéaire f : R2 −→ R3 , (x, y) 7−→ (x − y, 2x + y, 3y) et
g : R3 −→ R3 avec

g(e1 ) = −e1 + 2e2 , g(e2 ) = 4e1 + e2 − e3 et g(e3 ) = e2 + 6e3 .

Déterminons l’expression analytique de g ◦ f , relativement aux bases canoniques. C’est simple si


nous disposons de la matrice de g ◦ f . On a
   
1 −1 −1 4 0
Mf =  2 1  et Mg =  2 1 1 .
   
0 3 0 −1 6
Ce module de cours est sous licence GFDL

 
7 5
Donc Mg◦f = Mg × Mf =  4 2  . L’égalité suivante,
 
−2 17
      
x0 7 5 x 0
 x =
 7x + 5y
 0   0
 y  =  4 2    , donne y = 4x + 2y
  
rrdjeam

0 0

z −2 17 y  z = −2x + 17y.

Par suite g ◦ f : R2 → R3 , (x, y) 7−→ (7x + 5y, 4x + 2y, −2x + 17y).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 65

LATEXer : rdjeamr Co. Ltd.


3.6.2 Noyau et image d’une application linéaire

Soient E un p-espace vectoriel, F un n-espace vectoriel et f : E −→ F une application linéaire


de E vers F . Soient F 0 ⊆ F et E 0 ⊆ E. On a :

f (E 0 ) = {f (u) ; u ∈ E 0 } ⊂ F est l’image directe de E 0 par f


f −1 (F 0 ) = {u ∈ E ; f (u) ∈ F 0 } ⊂ E est l’image réciproque de F 0 par f

En particulier,

Im(f ) = f (E) = {f (u) ; u ∈ E} est appelé tout simplement l’image de f


ker(f ) = f −1 {0F } = {u ∈ E ; f (u) = 0F } est appelé le noyau de f

On note également le noyau de f par N oy(f ).

Remarque 3.36
— Soit f : E −→ F une application linéaire, B = (e1 , · · · , ep ) une base de E. Nous allons
montrer que tout élément de Im(f ) s’écrit comme combinaison linéaire de f (e1 ), · · · , f (ep )

et que Im(f ) = V ect f (e1 ), · · · , f (ep ) . Soit v ∈ Im(f ) ; alors v = f (u) pour un certain
vecteur u = u1 e1 + · · · + up ep de E. Donc v = f (u1 e1 + · · · + un ep ) = u1 f (e1 ) + · · · + up f (ep ).
Les vecteurs f (e1 ), · · · , f (ep ) engendrent donc Im(f ), i.e

Im(f ) ⊂ V ect f (e1 ), · · · , f (ep ) .

Mais par définition de Im(f ) et par linéarité de f , on a V ect f (e1 ), · · · , f (ep ) ⊂ Im(f ).

On en déduit que Im(f ) = V ect f (e1 ), · · · , f (ep ) .
— Soit f : E −→ F une application linéaire, u et w deux vecteurs de E. On a :

f (u) = f (w) ⇐⇒ u − w ∈ ker(f ).

Proposition 3.37
Soit f : E −→ F une application linéaire.
— L’image Im(f ) de f est un sous-espace vectoriel de F .
— Le noyau ker(f ) de f est un sous-espace vectoriel de E.
Ce module de cours est sous licence GFDL

Preuve
— On a Im(f ) 6= ∅ car 0F = f (0E ) ∈ Im(f ). Soit v1 , v2 deux éléments de Im(f ), α, β deux
scalaires. Il existe u1 , u2 vecteurs de E avec v1 = f (u1 ) et v2 = f (u2 ). On a donc

αv1 + βv2 = αf (u1 ) + βf (u2 ) = f (αu1 + βu2 ) ∈ Im(f ),

car αu1 + βu2 ∈ E. On conclut que Im(f ) est un sous-espace vectoriel de F .



rrdjeam

De la remarque précédente on sait que ce sous-espace est précisément V ect f (e1 ), · · · , f (ep )
où (e1 , · · · , ep ) est une base de E.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 66

LATEXer : rdjeamr Co. Ltd.


— On a ker(f ) 6= ∅ car f (0E ) = 0F et donc 0E ∈ ker(f ). Soit u,v deux éléments de ker(f ), λ, µ
deux scalaires. On a
f (λu + µv) = λf (u) + µf (v) = 0F .
On en déduit que λu + µv ∈ ker(f ) et que ce dernier est un sous-espace vectoriel de E.


Définition 3.38
On appelle rang de l’application linéaire f , noté rg(f ) la dimension de Im(f ) : rg(f ) =
dim Im(f ).

Remarque 3.39
Soit f : E −→ F une application linéaire, B = (e1 , · · · , ep ) une base de E.

— Le rang de f est donc le rang du système de vecteurs f (e1 ), · · · , f (ep ) .
— Soit MB→B0 (f ) la matrice de f relativement aux bases B et B 0 de E et F respectivement. Les
vecteurs colonnes de MB→B0 (f ) sont les vecteurs f (e1 ), · · · , f (ep ). Le rang de f est donné
par celui de la matrice MB→B0 (f ). Rappelons que deux matrices équivalentes ont même rang.

Exemple 3.9
1. Les espaces vectoriels R2 et R3 sont munis de leurs bases canoniques respectives B = (i, j)
et B 0 = (e1 , e2 , e3 ). Considérons l’application linéaire

f : R3 −→ R2 , (x, y, z) 7−→ (x − y + z, x − z).

Déterminons le noyau de f . Soit u = (x, y, z) ∈ R3 .

u ∈ ker(f ) ⇐⇒ f (u) = (0, 0)


⇐⇒ (x − y + z, x − z) = (0, 0)
⇐⇒ x − y + z = 0 et x − z = 0.

Pour connaı̂tre ker(f ) il faut donc résoudre le système linéaire


(
x −y +z = 0
x −z = 0
Ce module de cours est sous licence GFDL

La résolution de ce système donne comme solutions les vecteurs u = (α, 2α, α) où α ∈ R est
un réel quelconque. On conclut que

ker(f ) = {(α, 2α, α); α ∈ R}.

Remarque 3.40
rrdjeam

— On se rend compte que ker(f ) est un sous-espace vectoriel de R3 engendré par le vecteur
e = (1, 2, 1). On a donc dim(ker f ) = 1.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 67

LATEXer : rdjeamr Co. Ltd.



— Déterminons Im(f ). On a Im(f ) = V ect f (e1 ), f (e2 ), f (e3 ) . Mais f (e1 ) = (1, 1) f (e2 ) =
(−1, 0) et f (e3 ) = (1, −1). Sa matrice par rapport aux bases canoniques de R3 et R2 est :
!
1 −1 1
M= .
1 0 −1

Cette matrice est de rang 2 et donc rg(f ) = dim Im(f ) = 2. Comme les vectaurs f (e1 ) =

i + j et f (e2 ) = −i de Im(f ) sont linéairement indépendants, on a Im(f ) = V ect i +

j, −i .

2. Notons E = C ∞ (R) l’ensemble des fonctions réelles indéfiniment dérivables sur R. C’est un
espace vectoriel sur R. L’application

ϕ : E −→ E
f 7−→ ϕ(f ) = f 00 − 3f 0 + 2f

est un endomorphisme de E. Son noyau est l’ensemble des solutions de l’équations différentielle
sans second membre y 00 − 3y 0 + 2y = 0. Donc ker ϕ = {αe−x + βe−2x ; α, β constante réelles}

Proposition 3.41
Soit f : E −→ F une application linéaire.
1. f est injective si et seulement si ker(f ) = {0E }.
2. f est surjective si et seulement si rg(f ) = dim F ou encore Im(f ) = F .

Preuve
— Supposons f injective et soit u ∈ ker(f ). De f (u) = 0F = f (0E ) on a u = 0E et donc
ker(f ) ⊂ {0E }. Mais c’est évident que ker(f ) ⊃ {0E }. D’où ker(f ) = {0E }.
On sait que pour tous u, v ∈ E, f (u) = f (v) si et seulement si u − v ∈ ker(f ). Supposons
que ker(f ) = {0E }. On en déduit que f (u) = f (v) si et seulement si u − v ∈ ker(f ) = {0E },
i.e u = v ; d’où f est injective.
— Le deuxième point est juste la définition de la surjection. En effet, Im(f ) étant un sous-espace
vectoriel de F , on a Im(f ) = F si et seulement si dim(Im(f )) = dim F ; i.e rg(f ) = dim F .

Ce module de cours est sous licence GFDL

Proposition 3.42
Soit f : E −→ F une application linéaire. f est injective si et seulement si (u1 , · · · , uk ) étant

un système libre dans E son image f (u1 ), · · · , f (uk ) est aussi un système libre dans F .

Preuve
Supposons f injective et soit (u1 , · · · , uk ) un système libre dans E. Soit α1 , · · · , αk des scalaires
tels que α1 f (u1 ) + · · · + αk f (uk ) = 0F . Par linéarité de f on a
rrdjeam

f (α1 u1 + · · · + αk uk ) = 0F ;

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 68

LATEXer : rdjeamr Co. Ltd.


ensuite par son injectivité, on a : α1 u1 + · · · + αk uk = 0E . Mais (u1 , · · · , uk ) étant linéairement

indépendant, tous les coefficients α1 , α2 , · · · , αk sont nuls et on conclut que f (u1 ), · · · , f (uk )
est libre dans F .
Réciproquement, supposons que pour tout système libre dans E l’image est libre dans F . Soit
u = α1 e1 + · · · + αp ep un vecteur de E avec f (u) = 0F où (e1 , · · · , ep ) est une base de E. On a

0F = f (u) = f (α1 e1 + · · · + αp ep ) = α1 f (e1 ) + · · · + αp f (ep );



et comme par hypothèse f (e1 ), · · · , f (ep ) est libre, on en déduit que tous les coefficients α1 , · · · , αp
sont nuls. Par conséquent u = α1 e1 + · · · + αp ep = 0E . D’où f est injective.

Théorème 3.43 (Théorème du rang)


Soient E et F deux espaces vectoriels, E de dimension finie. Soit f : E −→ F une application
 
linéaire. Alors dim Im(f ) + dim ker(f ) = dim(E).

Preuve
Comme ker(f ) est un sous-espace vectoriel de E, il est de dimension finie, soit r. Soit B0 =
(e1 , · · · , er ) une base de ker(f ). On peut compléter B0 en une base B = (e1 , · · · , er , · · · , ep ) de E.
Montrons que B? = f (er+1 ), · · · , f (ep ) est une base de Im(f ). On sait que f (e1) , · · · , f (ep )
 

est une famille génératrice de Im(f ). Mais comme f (ei ) = 0F pour 1 6 i 6 r, il reste que la
famille f (er+1 ), · · · , f (ep ) engendre Im(f ). La famille B? est aussi libre dans Im(f ). En effet si


on pose λr+1 f (er+1 ) + · · · + λp f (ep ) = 0F alors on a :

f (λr+1 er+1 + · · · + λp ep ) = 0F donc λr+1 er+1 + · · · + λp ep ∈ ker(f ).

Ce vecteur étant dans ker(f ) alors il s’écrit λr+1 er+1 + · · · + λp ep = λ1 e1 + · · · + λr er . On en


déduit que tous les coefficients de cette égalité sont nuls car B = (e1 , · · · , er , · · · , ep ) est une base
de E. En particulier λr+1 , · · · , λp = 0 ; donc B? = f (er+1 ), · · · , f (ep ) est une famille libre de


Im(f ) et donc en définitive est une base de Im(f ). Comme cette base contient p − r vecteurs et

que dim ker(f ) = r, on obtient ainsi le résultat. 

Proposition 3.44
Soit f un endomorphisme de E de dimension finie n. Les assertions suivantes sont équivalentes :
(a) f est injective i.e ker(f ) = {0E }.
Ce module de cours est sous licence GFDL

(b) f est surjective i.e rg(f ) = dim(E).


(c) f est un automorphisme.
(d) det Mf 6= 0 où Mf désigne la matrice de f dans une base quelconque de E.

Preuve
rrdjeam

1. ((a) ⇒ (b)) Supposons que f est injective. Alors ker(f ) = 0E et d’après le théorème de
rang, rg(f ) = dim(Im(f )) = dim(E) − dim(ker(f )) = dim(E) − 0 = dim(E). Ainsi f est
surjective.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 69

LATEXer : rdjeamr Co. Ltd.


2. ((b) ⇒ (c)) Supposons que f est surjective et démontrons qu’elle est un automorphisme.
En fait il suffit de montrer qu’elle est injective. Mais du théorème du rang, on obtient
dim(E) = dim(E) + dim(ker(f )) donc ker(f ) = {0E }, i.e que f est injective. En défintive f
est un automorphisme car elle est bijective en plus d’être un endomorphisme de E.
3. ((c) ⇒ (d)) Supposons que f est un automorphisme de E. Soit B = (e1 , · · · , en ) une base
de E, M (f ) la matrice de f dans la base B. L’application f étant bijective, elle est injective
et les vecteurs colonnes f (e1 ), · · · , f (en ) de la matrice Mf sont linéairement indépendants.

Il s’ensuit que det(Mf ) = det f (e1 ), · · · , f (en ) 6= 0.
4. ((d) ⇒ (a)) Supposons det Mf 6= 0 où Mf est la matrice de f dans la base B = (e1 , · · · , en )
de E. Les vecteurs colonnes f (e1 ), · · · , f (en ) sont donc linéairement indépendants. Soit u =
α1 e1 + · · · + αn en ∈ E avec f (u) = 0F . On a :

0F = f (u) = f (α1 e1 + · · · + αn en ) = α1 f (e1 ) + · · · + αp f (en ).

On en déduit que α1 = · · · = αn = 0 car f (e1 ), · · · , f (en ) sont donc linéairement indépendants ;


par suite u = α1 e1 + · · · + αn en = 0E . Par conséquent, ker(f ) = {0E } et donc f est injective.

Exemple 3.10
Les espaces vectoriels R2 et R3 sont munis de leurs bases canoniques respectives B = (i, j) et
B 0 = (e1 , e2 , e3 ). on considère les endomorphismes

f: R3 −→ R3
(x, y, z) 7−→ (x − y, 2x + y + z, y − z)

et g : R2 −→ R2 , telle que g(i) = 3i + 6j et g(j) = 2i + 4j.

La matrice de f par rapport aux bases canoniques est :


 
1 −1 0 1 −1
0

A= 2 1 1  et det(A) = 2 1 1 = −4 6= 0,
 

0 1 −1 0 1 −1

donc f est un automorphisme de R3 .


Par contre, g n’est pas un automorphisme de R2 . En effet, g a pour matrice
Ce module de cours est sous licence GFDL

!
3 2 3 2

B= et det(B) = = 0.
6 4 6 4
L’endomorphisme g n’est pas injectif et son noyau est la droite vectorielle d’équation 3x + 2y = 0
engendrée par le vecteur u = 2i − 3j : dim(ker(g)) = 1. D’après le théorème du rang, on a

dim(Imf ) = 1. Mieux, Im(f ) = V ect 2i + 4j .
rrdjeam

Proposition 3.45
Soient E, F et G trois espaces vectoriels et considérons g ∈ L (E, F ) et f ∈ L (F, G). Alors

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 70

LATEXer : rdjeamr Co. Ltd.


1. ker(g) est un sous-espace vectoriel de ker(f ◦ g) i.e ker(g) 6 ker(f ◦ g)
2. Im(f ◦ g) est un sous-espace vectoriel de Im(f ) i.e Im(f ◦ g) 6 Im(f )
3. f ◦ g injective =⇒ g injective
4. f ◦ g surjective =⇒ f surjective

Caractérisation matricielle d’applications linéaires

Soient E un K-espace vectoriel de dimension finie p, F un K-espace vectoriel de dimension finie


n et f : E −→ F une application linéaire. Soit Mf la matrice représentative de f relativement à
des bases choisies sur E et F .
On appelle espace des colonnes de Mf et on note Col Mf le sous-espace de F qui possède tous
les vecteurs pouvant s’écrire comme combinaison linéaire des colonnes de Mf

Col Mf = v ∈ F ; ∃ u ∈ E, V = Mf U

où U et V représentent les matrices unicolonnes des composantes des vecteurs u et v respecti-
vement. Pour vérifier si un vecteur v donné dans F appartient au Col Mf , il faut vérifier si le
système Mf U = V est consistant. Ce qui revient à reécrire la matrice augmenté (Mf U ) et à l’aide
de la méthode de reduction des lignes trouver sa forme échelon réduit pour décider.
On appellera noyau de Mf et on notera N ul Mf le sous-espace de E qui possèdent l’ensemble
des vecteurs u solution de Mf U = 0

N ul Mf = {u ∈ E ; Mf U = 0}.

Remarque 3.46
Col Mf = Im(f ) et N ul Mf = ker(f ). De plus on a dim Col Mf + dim N ul Mf = dim E.

Soit A = C1 C2 · · · Cn une matrice partitionnée en colonne. On a
 
rg(A) = rg C1 C2 · · · Cn = dim V ect C1 C2 · · · Cn .

Généralement, étant donnée une matrice A, on exhibe une base de Col A respectivement de
N ul A quand il s’agit de déterminer Col A respectivement N ul A. Pour déterminer Col A, il faut
trouver la forme échelon de A puis repérer les colonnes qui contiennent les positions pivot. Les
Ce module de cours est sous licence GFDL

colonnes de A qui correspondent à celles qui contiennent les positions pivot dans la matrice échelon
constituent une base de Col A.

Exemple 3.11
 
1 −1 0
1. On donne la matrice A =  −2 1 1 
 
0 1 −1
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 71

LATEXer : rdjeamr Co. Ltd.




3
— Vérifions si U =  0  appartient à Col A. Pour cela considérons la matrice augmentée
 
1
(A U ) et trouvons sa forme échelon.
   
1 −1 0 3 1 0 0 −3
(A U ) =  −2 1 1 0  ≈  0 1 −1 −6  .
   
0 1 −1 1 0 0 0 7

Comme la dernière colonne de (A U ) possède une position pivot alors le système est
non consistant et il n’existe donc aucune manière pour écrire U comme combinaison des
colonnes de A ; en d’autres termes, u ∈/ Col A
— Déterminons Col A et N ul A
   
1 −1 0 1 0 0
A =  −2 1 1  ≈  0 1 −1  .
   
0 1 −1 0 0 0
Les positions pivot dans la forme
 échelon
  de A sont
 les première et deuxième colonnes donc
1 −1
les colonnes pivot de A sont  −2  et  1 .
   
0 1
   

 1 −1 

Par conséquent une base de Col A est la paire  −2  ,  1  . D’après ce qui
   
 
 0 1 
précède, on peut trouver une solution de AU = 0 en écrivant le système correspondant à la
matrice échelon de (A 0).
   
1 −1 0 0 1 0 0 0
(A 0) =  −2 1 1 0  ≈  0 1 −1 0 
   
0 1 −1 0 0 0 0 0
soit


 u1 − u2 = 0
Ce module de cours est sous licence GFDL

(S) −2u1 + u2 + u3 = 0

 u2 − u3 = 0

Les variables u1 et u2 sont de bases car correspondant aux colonnes pivot. Par contre, la
variable u3 est libre. On obtient donc


 u1 − u2 = 0
rrdjeam

(S) −2u1 + u2 + u3 = 0 =⇒ u1 = u2 = u3 . (3.6.1)



 u2 − u3 = 0

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Noyau et image d’une application linéaire 72

LATEXer : rdjeamr Co. Ltd.




1
Ainsi N ul A est la droite vectorielle engendrée par  1 . Observons que dim Col A = 2 et
 
1
dim N ul A = 1. Par suite dim Col A + dim N ul A = 3 égal au nombre de colonnes de A.
4
2. Déterminons
 maintenant le sous-espace Col A et N ul A de R où on a donné la matrice
1 −3 −1 0
 −1 1 0 2 
A= . En faisant la réduction en ligne de A on obtient
 
 0 1 −1 0 
2 1 0 −1
   
1 −3 −1 0 1 0 0 0
 −1 1 0 2   0 1 0 0 
A= ≈  = U donc toutes les colonnes de A sont
   
 0 1 −1 0   0 0 1 0 
2 1 0 −1 0 0 0 1
linéairement indépendantes ; par conséquent le sous-espace Col A de R4 est
       

 1 −3 −1 0 


 −1   1   0   2  
Col A = Vect   ,   ,   ,   = R4 .
       

  0   1   −1   0  
 
2 1 0 −1
 

On a donc N ul A = {u ∈ R4 ; AU = O}. Puisque toutes les colonnes de A sont linéairement


indépendanes, alors la matrice A est inversible. Il s’en suit que AU = O ⇐⇒ U = A−1 O =
O. Par conséquent le sous-espace N ul A de R4 est N ul A = {0R4 }

Interprétation géométrique du déterminant en dimension 2 et 3

Supposons que le plan est muni d’un repère orthogonal (O,~i, ~j). Soit ~u = (a, b) et ~v = (c, d) deux
vecteurs linéairement indépendants du plan. L’aire du parallélogramme P = {x~u + (1 − x)~v ; 0 6
x 6 1} construit sur les vecteurs ~u et ~v est donnée par
5.

4. a c
v

| det(~u, ~v )| × u.a = × u.a
3.

2.
b d
u
1.
Ce module de cours est sous licence GFDL

où u.a = k~ik × k~jk


−1. 0 1. 2. 3. 4. 5. 6. 7. 8. 9. 10.

Théorème 3.47 (Propriétés des matrices ayant un inverse)


Soit A une matrice carrée d’ordre n. Les énoncés suivants sont équivalents (tous vrais ou tous
faux) :
1. La matrice A est inversible
rrdjeam

2. Les colonnes de A forment une base de Rn


3. Col(A) = Rn

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Les transformations et les coordonnés homogènes 73

LATEXer : rdjeamr Co. Ltd.


4. dim Col(A) = n
5. rangA = n
6. Nul(A) = {0Rn } et dim Nul(A) = 0

L’avantage des transformations linéaires est qu’on peut appliquer plusieurs transformations en
cascade à un ensemble de points et que la transformation globale est aussi une transformation
linéaire. De plus, la transformation globale est simple à calculer et elle est donnée par la multipli-
cation des matrices des transformations qui la composent dans l’ordre inverse de réalisation.

3.6.3 Quelques transformations particulières : application à l’infographie

L’infographie est le domaine de l’informatique concernant la création et la manipulation des


images numériques assistée par ordinateur. L’infographie regroupe de nombreux savoirs, parmi
lesquels la représentation des éléments graphiques (texte, image ou vidéo), ainsi que leurs trans-
formations (rotation, translation, dilatation, zoom, etc.) par l’intermédiaire d’algorithmes. Elle
comprend aussi les techniques consistant à faire et à finaliser le travail du graphiste à l’aide de
l’outil informatique : retouche photographique, mise en couleur de bandes dessinées, habillage
de perspectives architecturales, etc. Cette activité qui, au départ, était liée aux arts graphiques,
trouve ensuite son application dans le design, dans la presse écrite et télévisée, dans la sécurité,
dans l’espionnage, etc.
L’infographiste est un prodige du dessin et du calcul mais également un professionnel de l’ou-
til informatique ; ces trois atouts indissociables. L’infographiste habille l’information, lui donne
une identité ainsi qu’une forme visuelle pour la rendre captivante et interessante ; il est donc le
metteur en scène de l’information car il sait manipuler les textes, maı̂trise le visuel et sait rendre
l’information“vivante” .

3.6.4 Représentation 2D et 3D des images

Une image est représentée dans le plan R2 (resp. dans l’espace R3 ) par une collection de
vecteurs de dimension 2 (resp. 3 ) c’est-à-dire à deux composantes (resp. trois composantes),
qui représentent les coordonnées de chacun des points de l’image. L’ensemble de ces vecteurs
Ce module de cours est sous licence GFDL

forment une matrice de deux (resp. trois) lignes et de colonnes, le nombre de vecteurs ayant servi
à représenter l’image. On peut aussi voir cette matrice comme une collection de deux (resp. trois)
vecteurs lignes comportant les coordonnées des abscisses et des ordonnées des points qui définissent
l’image.

3.6.5 Les transformations et les coordonnés homogènes


rrdjeam

Pour une raison ou une autre, l’on peut se retrouver à faire plusieurs transformations en cascade
sur une même image (un ensemble de points). Dans ce cas, il est préférable de travailler avec le
même type de coordonnées (classiques ou homogènes).

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Les transformations et les coordonnés homogènes 74

LATEXer : rdjeamr Co. Ltd.


D I

2.
E G

H
1.5
F

1.

C
0.5 B
J K

0.5 1. 1.5 2. 2.5 3.


0

Figure 3.1 – Représentation 2D des lettres M et N dans le plan

Si la matrice A exprime une transformation dans les coordonnées classiques alors elle est ex-
primée dans les coordonnées homogènes par une matrice B qui est la matrice A augmentée d’une
ligne et d’une colonne. Cette ligne et cette colonne représentent la dernière ligne et la dernière
colonne de la matrice identité.
 
0
 A 0 
B=
 

 0 
0 0 0 1
Ce module de cours est sous licence GFDL

3.6.5.1 Transformations planes


!
cos(θ) − sin(θ)
— La rotation : on écrit la matrice de la rotation d’angle θ comme suit Rθ = ,
sin(θ) cos(θ)
quand on mesure l’angle θ dans le sens contraire des aiguilles d’une montre.
Remarque 3.48
Si l’angle est mesuré dans le ! sens de celui des aiguilles! d’une montre on a
rrdjeam

cos(−θ) − sin(−θ) cos(θ) sin(θ)


Rθ = = .
sin(−θ) cos(−θ) − sin(θ) cos(θ)
Exemple 3.12

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Les transformations et les coordonnés homogènes 75

LATEXer : rdjeamr Co. Ltd.


!
cos(− π6 ) − sin(− π6 )
Soit la rotation d’angle − π6 dont la matrice est donnée par A
sin(− π6 ) cos(− π6 )
appliquée à l’image de la lettre M . On a :

2.5

2.

1.5

1.

0.5
r− π6 (M )

−0.2 0 0.5 1. 1.5 2. 2.5 3.

−0.5

Figure 3.2 – La lettre M avec sa rotation d’angle − π6 r− π6 (M )




— Le cisaillement
! : on a deux types de cisaillement élementaires
! ; le cisaillement horizontal cx =
1 k 1 0
et et le cisaillement vertical cy = . Le scalaire k est appelé coefficient de
0 1 k 1
cisaillement. Selon les valeurs du coefficient de cisaillement, il peut s’agir d’un cisaillement
vers la gauche ou vers la droite (cisaillement horizontal) ou bien d’un cisaillement vers le
haut ou vers le bas (cisaillement vertical).
— La dilatation et la contraction : on distingue aussi deux types de dilatation / contraction ;
dilatation / contraction horizontale et verticale. Soit k > 0 un scalaire. Si 0 < k < 1, on
parle de contraction et si k > 1 on parle de dilatation. Les matrices suivantes ! représentent
k 0
Ce module de cours est sous licence GFDL

respectivement une dilatation / contraction horizontal dx = et une dilatation /


0 1
!
1 0
contraction verticale dy =
0 k
— La réflexion : on a de façon élémentaire la réflexion par rapport à l’axe des abscisses ! rx
1 0
et la reflexion par rapport à l’axe des ordonnées ry représentées par rx = et
0 −1
rrdjeam

!
−1 0
ry = . On pourrait définir, de façon générale, d’autres réflexions par rapport à
0 1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Les transformations et les coordonnés homogènes 76

LATEXer : rdjeamr Co. Ltd.


n’importe quelle droite (axe de reflexion) D = R~v tout en complètant une base orthonormale
~v1 de D en une base orthonormale (~v1 , ~v2 ) de R2 .
— La translation : la translation n’est pas une transformation linéaire dans les coordonnées
classiques ; c’est-à-dire qu’il n’existe pas de matrice qui puisse représenter une translation
dans les cordonnées classiques. Par ailleurs, grâce au concept de coordonnées homogènes qui
consiste à utiliser une dimension supplémentaire, on peut écrire une translation comme une
transformation linéaire. Un vecteur de R2 qui est représenté dans lescoordonnées
 classiques
! x
x
par sera donc représenté en coordonnées homogènes par  y  et on donne les
 
y
1
translations
 par les
 matrices
 : 
1 0 α 1 0 0
tx =  0 1 0  et ty =  0 1 β  où les scalaires α et β représentent respectivement
   
0 0 1 0 0 1
les facteurs de translation horizontale et verticale.

Remarque 3.49
En écrivant les autres transformations planes en coordonnées homogènes on obtient : 
cos(θ) − sin(θ) 0
— La rotation d’angle θ ( dans le sens des aiguilles d’une montre) Rθ =  sin(θ) cos(θ) 0 .
 
0 0 1
 
1 k 0
— Le cisaillement : on a le cisaillement horizontal cx =  0 1 0  et le cisaillement vertical
 
0 0 1
 
1 0 0
cy =  k 1 0  .
 
0 0 1
 
k 0 0
— La dilatation et la contraction : on a la dilatation / contraction horizontal dx =  0 1 0 
 
0 0 1
 
1 0 0
et la dilatation / contraction verticale dy =  0 k 0 .
 
Ce module de cours est sous licence GFDL

0 0 1
— La réflexion : on a la réflexion par rapport à l’axe
 des abscisses
 rx et la 
reflexion par 
rapport
1 0 0 −1 0 0
à l’axe des ordonnées ry représentées par rx =  0 −1 0  et ry =  0 1 0 .
   
0 0 1 0 0 1

3.6.5.2 Les transformations des images en dimension 3


rrdjeam

Ici, les vecteurs sont représentés avec trois composantes au lieu de deux comme dans le plan
— La rotation d’angle θ ( dans le sens des aiguilles d’une montre)

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Les transformations et les coordonnés homogènes 77

LATEXer : rdjeamr Co. Ltd.


 
cos(θ) − sin(θ) 0
 autour de l’axe Oz est Rθ =  sin(θ) cos(θ) 0  ;
 
0 0 1
 
cos(θ) 0 − sin(θ)
 autour de l’axe Oy est Rθ =  0 1 0 ;
 
sin(θ) 0 cos(θ
 
1 0 0
 autour de l’axe Ox est Rθ =  0 cos(θ) − sin(θ) .
 
0 sin(θ) cos(θ)
— La dilatation
 et la
 contraction : on a la dilatation / contraction suivant l’horizontal
 
k 0 0 1 0 0
dx =  0 1 0 , la dilatation / contraction suivant la verticale dy =  0 k 0  et une
   
0 0 1 0 0 1
 
1 0 0
dilatation / contraction suivant la côte dz =  0 1 0 .
 
0 0 k
— La réflexion : on a la réflexion par rapport à l’axe des abscisses rx , la reflexion par rapport à
l’axe des ordonnées ry et la réflexion
 suivantl’axe des côtes
 rz représentées
 par
1 0 0 −1 0 0 −1 0 0
rx =  0 −1 0  , ry =  0 1 0  et rz =  0 −1 0 
     
0 0 −1 0 0 −1 0 0 1
— La translation
et on donne
 les translations
 par
 les matrices :  
1 0 0 α 1 0 0 0 1 0 0 0
 0 1 0 0   0 1 0 β   0 1 0 0 
tx =  t = et t =  les scalaires α, β
     
 y   z 
 0 0 1 0   0 0 1 0   0 0 1 γ 
0 0 0 1 0 0 0 1 0 0 0 1
et γ représentent respectivement les facteurs de translation suivant  l’horizontal,
 suivant la
1 0 0 α
 0 1 0 β 
verticale puis suivant la côte. Plus généralement on a : t =   qui est une
 
 0 0 1 γ 
0 0 0 1
Ce module de cours est sous licence GFDL

translation dans toutes ces directions à la fois.

3.6.5.3 Projections en perspective

Soit un observateur O situé dans un point de coordonnées (0, 0, z0 ) et qui regarde un point
de l’espace (x, y, z). On cherche à déterminer le point dans le plan z = 0 qui correspond à la
projection en perspective du point (x, y, z), du point de vue de l’observateur O. Si on note par
rrdjeam

(x0 , y 0 , 0) les coordonnées de la projection en perspective, on peut déterminer, à l’aide du théorème

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 78

LATEXer : rdjeamr Co. Ltd.


de Thalès (géométrie euclidienne), que les valeurs des coordonnées x0 et y 0 sont données par :
x y
x0 = et y0 = .
1 − zz0 1 − zz0

La projection en perspective n’est pas une transformation linéaire dans les coordonnées clas-
siques. Si on l’écrit dans les coordonnéeshomogènes elle devient une transformation  linéaire

1 0 0 0 x
 0 1 0 0   y 
définie par la matrice p donnée par p =   qui transforme le vecteur  
   
 0 0 0 0   z 
1
0 0 − z0 1 1
 
x
 y 
en  . Puisque tout vecteur en coordonnés ne peut qu’avoir 1 dans sa dernière compo-
 
 0 
1 − zz0
sante, alors on divise toutes les composante de ce vecteur par 1 − zz0 pour obtenir donc le vecteur
 x 
1− zz
0
y
 
z
 
trainsformé  1− z  qui définit la projection en perspective.
0
 
 0 
1

3.7 Quelques exercices


Exemple 3.13
Écris la projection en perspective dans le plan x = 0 si l’observateur O est situé en (x0 , 0, 0).

Exercise 3.2
On considère dans l’espace vectoriel R3 muni de sa base canonique B0 = (~e1 , ~e2 , ~e3 ) les vecteurs
~ = ~e1 + 2~e2 ; ~s = ~e1 + ~e2 − 2~e3 et ~t = 3~e1 − 5~e2 − 11~e3
suivants : ~u = ~e1 + ~e2 + 2~e3 ; ~v = −~e1 + ~e2 ; w
1. Calculer le déterminant de (~u, ~v , w).
~
~ est une base de l’espace vectoriel R3 .
2. Montrer que B = (~u, ~v , w)
3. Donner les coordonnées de ~s dans la base B = (~u, ~v , w).
~
Ce module de cours est sous licence GFDL

4. Déterminer les coordonnées de ~t dans la base B de R3 .


5. Le système (~s, ~t, ~u) est-il libre ou lié ? Justifie ta réponse.
~ ~t, ~s) est-il générateur de R3 ? Justifie ta réponse.
6. Le système (w,
 
1 1 −1
Soit la matrice A suivante A =  2 3 1 
 
rrdjeam

−1 −2 −1
1. Calculer A2 , A3 puis A3 − 3A2 − 2A

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 79

LATEXer : rdjeamr Co. Ltd.


2. En déduire que A est inversible et déterminer A−1 en fonction de A puis sous forme de
tableau de réels.
3. Justifier que le système suivant (S) est de Cramer puis en déduire son unique solution en
fonctiondes réels a, b et c.
  x + y − z = a

S : 2x + 3y + z = b où a, b et c sont des scalaires quelconques.

 −x − 2y − z = c.

5.

4.

3.

2.

1.

1. 2. 3. 4. 5. 6. 7.
0
Ce module de cours est sous licence GFDL

−1.
Exercise 3.3
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 80

LATEXer : rdjeamr Co. Ltd.


2.
2.
1.5
1.5
1.
1.
cx(2) (M )
cx(−1.5) (M ) 0.5
.5

−2. −1.5 −1. −0.5 0 0.5 1. 1.5 2.


0 1. 2. 3. 4. 5. 6.
−0.5

Figure 3.3 – Cisaillement horizontal vers la gauche Figure 3.4 – Cisaillement horizontal vers la droite

6.

2.
cy(2) (M )

5.

1.
4.

0 1. 2. 3.

−1. 2.

cy(−1.5) (M )
−2. 1.
Ce module de cours est sous licence GFDL

0 1. 2.
Figure 3.5 – Cisaillement vertical vers le bas

Figure 3.6 – Cisaillement vertical vers le haut


rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 81

LATEXer : rdjeamr Co. Ltd.


2.
2.

1.5

1.
1.

dx( 52 ) (M )
dx( 31 ) (M )

0 1. 2.
0 1. 2. 3. 4. 5.

Figure 3.7 – Contraction horizontale


Figure 3.8 – Dilatation horizontale

2. dy( 32 ) (M )
3.

2.
1.

1.

dy( 14 ) (M )

0 1. 2.
Ce module de cours est sous licence GFDL

0 1. 2.

Figure 3.9 – Contraction verticale


Figure 3.10 – Dilatation verticale
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
LATEXer : rdjeamr Co. Ltd.
Chapitre Quatre

Factorisation et réduction d’une


matrice

L a factorisation d’une matrice est une astuce très importante dans le domaine de l’analyse
numérique. Elle permet de réduire les difficultés de résolution de problèmes et facilite les
opérations en décomposant le problème initial en de petits a probèmes plus faciles à résoudre. Elle
s’appuie aussi sur la réduction des matrices. Un but de la réduction des matrices est de trouver un
représentant priviligié dans chaque classe de similitude de Mn (K). Il faut également être capable,
étant donnée une matrice A, de caculer le représentant dans la classe de A. Enfin, les représentants
choisis doivent être aussi simple que possible afin qu’on soit en mesure de répondre à toute question
naı̈ve que ce soit à leur sujet. L’idée étant que pour étudier finement avec précision une matrice et
donc efficacement le problème qu’il traduit, on calcule son représentant et on montre la propriété
cherchée sur ce représentant. Ces buts peuvent être atteints de deux manières différentes ; chacune
d’entre elles présente des avantages et des inconvénients. Ici, nous présentons ces deux approches.
Nous expliquons ensuite comment passer de l’une à l’autre et essayons de dégager les avantages
de l’une et de l’autre des méthodes.

4.1 Décomposition LU
La factorisation LU est l’une des façons de factorisation de matrice lorsque celle-ci est possible.
Le sigle LU est un sigle anglo-saxon qui signifie L ≡ unit lower triangular  et U ≡ upper
triangular  qui peut se traduire chez les francophones comme  triangulaire inférieure à diagonale
unité  pour L et  triangulaire supérieure  pour U . La factorisation LU d’une matrice repose sur
la reduction en ligne sous la forme échelon de la matrice et l’idée fondamentale de la décomposition
Ce module de cours est sous licence GFDL

LU est de se “souvenir” des positions où l’on fabrique des zéros dans la procédure de l’élimination
de Gauss (pendant la recherche de la forme échelon).
Bien que toute matrice peut se mettre sous forme échelon, ce n’est pas toutes les matrices
qui possèdent une décomposition LU ; en d’autres termes, la factorisation LU d’une matrice A
donnée n’est pas toujours possible. Pour que cette factorisation soit possible, il faut arriver à écrire
la matrice A sous la forme d’un produit de deux matrices L et U où :
rrdjeam

1. U est une forme échelon particulière de la matrice A. Elle est obtenue à partir d’opérations
a. dans le sens de moins difficile à résoudre

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Décomposition LU 83

LATEXer : rdjeamr Co. Ltd.


elémentaires sur les lignes de la matrice A. Cependant, le seul type d’opération permise
sur les lignes de la matrice A est l’addition d’un multiple d’une ligne à une autre ligne. Le
changement des lignes et la multiplication des lignes par un scalaire ne sont pas autorisés
dans la détermination de cette forme échelon. La matrice U possède les mêmes dimensions
que la matrice A ; en d’autres termes, A et U sont de même type.
2. L est une matrice carrée qui possède le même nombre de lignes que la matrice A. De plus,
la matrice L doit être une matrice triangulaire inférieure possédant des valeurs égales à 1
sur la diagonale principale et ayant des valeurs nulles au-dessus de la diagonale principale.
La matrice L est construite en même temps que la matrice U . Pendant qu’on transforme
la matrice A vers la matrice U , on place en dessous de la diagonale principale de L des
éléments de telle sorte qu’en appliquant sur L les mêmes opérations qui transforment A en
U , on retrouve la matrice identité I d’ordre le nombre de lignes de A.

Remarque 4.1
1. Il importe de faire remarquer que l’appellation triangulaire supérieure pour la matrice U
est artificielle car la matrice U n’est pas forcément une matrice carrée mais en contient
une sous matrice triangulaire supérieure (dans sa partie supérieure) qui se complète
! d’une
T
matrice nulle ; en d’autres termes U est de la forme (en matrice bloc) où T est
O
réellement une matrice triangulaire supérieure et O une matrice nulle.
2. Observez que si la matrice A n’est pas une matrice carrée, on complète la matrice des co-
lonnes pivots de A retenues pour la construction de L avec les colonnes de la matrice identité
de sorte à avoir une matrice carrée d’ordre le nombre de lignes de A.

Exemple 4.1
 
2 −4 4 −2
1. Déterminons, si elle existe, la décomposition LU de la matrice A =  6 −9 7 −3 .
 
−1 −4 8 0
On a :
On constitue la matrice L en recopiant
les colonnes pivot à partir de la valeur
 
2 −4 4 −2
Ce module de cours est sous licence GFDL

A =  6 −9 7 −3  L2 ← L2 − 3L1
  pivot
 et les valeurs
 qui sont en dessous
−1 −4 8 0 L3 ← L3 + 21 L1 2
 6 3  puis on divise chacune de
   
2 −4 4 −2
−1 −6 5
≈  0 3 −5 3 
 
ces colonnes par la valeur de sa position pi-
0 −6 10 −1 L3 ← L3 + 2L2 vot. On obtient
 
2 −4 4 −2  
1 0 0
rrdjeam

≈  0 3 −5 3  = U.
 
L= 3 1 0 .
 
0 0 0 5
− 21 −2 1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Décomposition LU 84

LATEXer : rdjeamr Co. Ltd.


  
1 0 0 2 −4 4 −2
Ainsi A admet une décomposition LU de la forme A =  3 1 0  0 3 −5 3 
  
− 12 −2 1 0 0 0 5
 
1 2 1
2. Déterminons, si elle existe, la décomposition LU de la matrice A =  2 3 −1 . On a :
 
4 9 1
On constitue la matrice L en recopiant
les colonnes pivot à partir de la valeur
 
1 2 1
A =  2 3 −1  L2 ←− L2 − 2L1
  pivot
 et les valeurs
 qui sont en dessous
4 9 1 L3 ←− L3 − 4L1 1
 2 −1  puis on divise chacune de
   
1 2 1
4 1 −6
≈  0 −1 −3 
 
ces colonnes par la valeur de sa position pi-
0 1 −3 L3 ←− L3 + L2 vot. On obtient
 
1 2 1  
1 0 0
≈  0 −1 −3  = U.
 
L= 2 1 0 .
 
0 0 −6
4 −1 1
 
3 −7 −2 2
 −3 5 1 0 
3. Déterminons, si elle existe, la décomposition LU de la matrice A =  .
 
 6 −4 0 −5 
−9 5 −5 12
On a :
 
3 −7 −2 2
 −3 5 1 0  L2 ← L2 + L1 On constitue la matrice L en recopiant
A = 

 6 −4 0 −5  L3 ← L3 − 2L1

les colonnes pivot à partir de la valeur
−9 5 −5 12 L4 ← L4 + 3L1 pivot et les valeurs quisont en dessous
  
3 −7 −2 2 3
 0 −2 −1  −3 −2
2 

≈   puis on divise
   
10 −1

4 −9  L3 ← L3 + 5L2  6

 0 10 
0 −16 −11 18 L4 ← L4 − 8L2 −9 −16 −3 −1
Ce module de cours est sous licence GFDL

  chacune de ces colonnes par la valeur de


3 −7 −2 2
 0 −2 −1 2  sa position pivot. On obtient
≈ 
 
 
0 −1 1 

 0 1
0 0 −3 2 L4 ← L4 − 3L3  −1 1 
L= .
 
 2 −5 1
 
3 −7 −2 2 
 0 −2 −1 2  −3 8 3 1
rrdjeam

≈   = U.
 
 0 0 −1 1 
0 0 0 −1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Application à la résolution de système d’équations linéaires 85

LATEXer : rdjeamr Co. Ltd.


 
2 −6 6

 −4 5 −7 

4. Déterminons, si elle existe, la décomposition LU de la matrice A =  3 5 −1 . On
 
 
 −6 4 −8 
8 −3 9
a:

2 −6 6
 On constitue la matrice L en recopiant
−4 5 −7  ← L2 + 2L1 les colonnes pivot à partir de la valeur
 L2


A = 

3 5 −1  L3

← L3 − 23 L1 pivot et les valeurs qui sont en dessous
 
  2
 −6 4 −8  L4 ← L4 + 3L1  −4 −7 
8 −3 9 L5 ← L5 − 4L1  
 3 14  puis on divise chacune
 
 
2 −6 6 
 −6 −14 


 0 −7 5 
 8 21
≈  0 14 −10  L3 ← L3 + 2L2
 
  de ces colonnes par la valeur de sa posi-
 0 −14 10  L4 ← L4 − 2L2 tion pivot. On obtient
0 21 −15 L5 ← L5 + 3L2  
  1 0 0 0 0
2 −6 6  −2 1 0 0 0 
0 −7 5 
  
L =  23 −2 1 0 0  .
   
≈  0 0 0  = U.
   
   −3 2 0 1 0 
 0 0 0 
4 −3 0 0 1
0 0 0

4.1.1 Application à la résolution de système d’équations linéaires

Soit à résoudre un système d’équations linéaires (S) d’écriture matricielle AX = B. Supposons


que la matrice A admet une décomposition LU . Alors on a : (S) ⇐⇒(AX = B ⇐⇒ LU X = B.
Y = UX
En posant Y = U X on obtient (S) ⇐⇒ LY = B. Soit que : (S) ⇐⇒ .
LY = B
Ainsi le problème initial de résolution de (S) se décompose en deux petits problèmes de
résolution des systèmes d’écriture matricielles LY = B et U X = Y .
Par conséquent, si (S) est consistant alors on résoud le système LY = B puis le système
Ce module de cours est sous licence GFDL

U X = Y pour trouver la(es) solution(s) de (S).


Exemple 4.2
Justifier que le système (S) suivant

 x1 + 2x2 + x3 = 1

(S) 2x1 + 3x2 − x3 = 1
rrdjeam


 4x + 9x + x = 1
1 2 3

est constitent et que sa matrice admet une décomposition LU ; puis le résoudre en utilisant
cette décompostion.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Application à la résolution de système d’équations linéaires 86

LATEXer : rdjeamr Co. Ltd.


     
1 2 1 x1 1
On a : (S) ⇐⇒ AX = B où A =  2 3 −1 , X =  x2  et B =  1 .
     
4 9 1 x3 1
 
1 2 1
A =  2 3 −1  L2 ←− L2 − 2L1
 
4 9 1 L3 ←− L3 − 4L1
 
1 2 1
≈  0 −1 −3 
 
0 1 −3 L3 ←− L3 + L2
 
1 2 1
≈  0 −1 −3  = U.
 
0 0 −6

On observe que toutes les colonnes de A sont des colonnes pivots, par conséquent, le système (S)
est consistant. On constitue la matrice L en recopiant les colonnes pivot (à partir de la valeur
pivot et les valeurs qui sont en dessous d’elle) puis on divise les valeurs de chaque colonne par la
valeur pivot. On a

   
1 1 0 0
 2 −1  =⇒ L =  2 1 0 .
   
4 1 −6 4 −1 1

On peut donc donner la factorisation LU de A par


    
1 2 1 1 0 0 1 2 1
A =  2 3 −1  = LU =  2 1 0   0 −1 −3  .
    
4 9 1 4 −1 1 0 0 −6
 
y1
Trouvons à l’aide de cette factorisation les réels x1 , x2 et x3 . Soit Y =  y2  et posons
 
y3
(
Ce module de cours est sous licence GFDL

LY = B
Y = U X. Alors AX = B ⇐⇒ LU X = B ⇐⇒ .
Y = UX
  
 y1
 = 1 1
LY = B ⇐⇒ 2y1 + y2 = 1 ⇐⇒ Y =  −1 
 

 4y − y + y = 1
1 2 3 −4
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 87

LATEXer : rdjeamr Co. Ltd.



x1
Ainsi de l’équation U X = Y on tire X =  x2 
 
x3
  7 
x
 1
 + 2x 2 + x 3 = 1 3
 
U X = Y ⇐⇒ − x2 − 3x3 = −1 ⇐⇒ X = 
 −1 .


 − 6x3 = −4 2
3

Exemple 4.3  
−1 1 −3 0
 1 1 3 8 
On considère la matrice A = 
 
−2 2 −5 −1

 
3 1 8 13
1. Donnons, si elle existe, la décomposition LU de A. On
     
−1 1 −3 0 1 1 −3 0 1 0 0 0
 1 1 3 8   0 2
 0 8   −1 1 0 0 
A= ≈ =U et L=
   
 −2 2 −5 −1   0 0 1 −1 
  
 2 0 1 0 
3 1 8 13 0 0 0 −4 −3 2 −1 1

Ainsi A admet une décomposition A = LU où L et U sont les matrices ci-dessus trouvées.
 
0
 2 
2. Déduisons la résolution du système AX = B avec B =  .
 
 −1 
5
Posons Y = U X. On a
      
1 0 0 0 y1 0 0
 −1 1 0 0    y2   2 
     2 
LY = B ⇐⇒  =  ⇐⇒ U X = Y = 
  
1 0   y3   −1   −1 
 
 2 0
−3 2 −1 1 y4 5 0
   
x1 4
 x   1 
Ce module de cours est sous licence GFDL

 2  
⇐⇒ X =  = .

 x3   −1 
x4 0

4.2 Factorisation QR
La factorisation QR d’une matrice A qui possède des vecteurs colonnes linéairement indé-
rrdjeam

pendants est une façon d’exprimer la matrice A sous la forme d’un produit de deux matrices Q
et R. La matrice Q est une matrice de même dimension que A et ses colonnes forment une base
orthonormale du sous-espace engendré par les colonnes de A (ColA). La matrice R est une matrice

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 88

LATEXer : rdjeamr Co. Ltd.


carrée qui possède le même nombre de colonnes que la matrice A et est une matrice triangulaire
supérieure dont les éléments situés sur la diagonale principale sont strictement positifs.

Définition 4.2
Deux matrices A et B de M (K) sont dits semblables si il existe une matrice régulière P telle
que A = P BP −1 .

Exemple 4.4

Proposition 4.3
Toute matrice admettant une factorisation QR est semblable à la matrice RQ.

Définition 4.4
Soit E un espace vectoriel de dimension finie n munie d’une base B. On appelle
 produit
 scalaire

u1 v1
 u2   v2 
   
de deux vecteurs ~u et ~v de représentation matricielle dans B, U =  .  et V =  . 
  
 le
 ..   .. 
un vn
 
v1
n
 v2
 
  X
t
scalaire souvent noté ~u · ~v et égal à U V = u1 u2 · · · un  ..  = u1 v1 + · · · un vn = ui vi .
.
 
  i=1
vn

Propriétés 4.5
1. Le produit scalaire est commutatif : ~u · ~v = ~v · ~u
2. Le produit scalaire est distributif à gauche et à droite par rapport à l’addition :

~u · (~v + w)
~ = (~u · ~v ) + (~u · w)
~ = (~v · ~u) + (w
~ · ~u) = (~v + w)
~ · ~u

3. Soit α ∈ R, on a (α~u) · ~v = α~u · ~v


4. Le produit scalaire d’un vecteur par lui-même est positif ou nul ; ~u · ~u > 0 pour tout ~u ∈ E
avec l’égalité si et seulement si ~u = ~0.

Définition 4.6
Ce module de cours est sous licence GFDL

Soit E un espace vectoriel muni d’une base B et d’un produit scalaire < ·, · >.
 
u1
 u2 
 
1. On appelle norme de ~u =  .   le scalaire positif ou nul noté k~uk et défini par

 .. 
un
rrdjeam

v
u n
√ uX
k~uk = ~u · ~u = t u2i .
i=1

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 89

LATEXer : rdjeamr Co. Ltd.


2. Si k~uk = 1, on dit que ~u est unitaire ou normé.
3. On appelle normalisation le procédé par lequel on construit un vecteur unitaire à partir d’un
~u
vecteur non nul : pour tout ~u 6= ~0 on a le vecteur unitaire ~u1 =
k~uk
Propriétés 4.7
1. k~u + ~v k2 = k~uk2 + 2~u · ~v + k~v k2
2. k~u − ~v k2 = k~uk2 − 2~u · ~v + k~v k2
3. k~u + ~v k2 − k~u − ~v k2 = 4~u · ~v

Définition 4.8
On appelle distance entre deux vecteurs ~u et ~v le scalaire positif ou nul noté dist(~u, ~v ) et défini
par dist(~u, ~v ) = k~u − ~v k
On dit que deux vecteurs ~u et ~v sont orthogonaux si ~u · ~v = 0.

Proposition 4.9
Deux vecteurs ~u et ~v sont orthogonaux si et seulement si la distance entre ~u et ~v est égal à la
distance entre ~u et −~v . En d’autres termes,

~u · ~v = 0 ⇐⇒ k~u + ~v k = k~u − ~v k

Exemple 4.5
     
1 −1 2
Soit ~u =  1 , ~v =  1  et w
~ =  1 .
     
1 0 − 53

~u · ~v = 1 × (−1) + 1 × 1 + 1 × 0 = 0
 
3 3
~u · w ~ = 1×2+1×1+1× − =−
2 2
 
1 3 3
~v · w~ = (−1) × 2 + × 1 + (−2) × − =
2 2 2
s  2 √
√ √ 3 38
k~uk = 12 + 12 + 12 = 3, kwk ~ = 22 + 12 − =
5 5

Ce module de cours est sous licence GFDL

p
k~v k = (−1)2 + (1)2 + 02 = 2 (4.2.1)

Exemple 4.6
On considère l’application f : R4 −→ R4 représentée dans la base canonique de R4 par la
matrice suivante :
 
1 1 0 1
rrdjeam

 2 1 1 0 
A=
 
 1 2 −1

1 
−1 0 −1 −3

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 90

LATEXer : rdjeamr Co. Ltd.


1. Déterminons une base de Col(A) et une base de N ul(A). Pour ce faire, déterminons la
forme échelon reduit, disons U , de A. on a :
 
1 1 0 1
 L2 ←− L2 − 2L1
 2 1 1 0 
A = 

 1 2 −1 1  L3 ←− L3 − L1

−1 0 −1 −3 L4 ←− L4 + L1
 
1 1 0 1
 0 −1 1 −2   L2 ←− −L2
≈ 

1 −1

 0 0 
0 1 −1 −2
 
1 1 0 1
 0 1 −1 2 
≈ 
 
 0 1 −1 0  L3 ←− L3 − L2

0 1 −1 −2 L4 ←− L4 − L2
 
1 1 0 1
 0 1 −1 2 
≈  1
 
0 −2  L3 ←− − L3

 0 0
2
0 0 0 −4
 
1 1 0 1
 0 1 −1 2 
≈ 
 

 0 0 0 1 
0 0 0 −4 L4 ←− L4 + 4L3
 
1 1 0 1
 0 1 −1 2 
≈  =U
 
 0 0 0 1 
0 0 0 0

Ainsi une base B de Col(A) est donnée par l’ensemble formé de la première, de la deuxième
et de la quatrième colonne de A ; qui sont des colonnes pivots
Ce module de cours est sous licence GFDL

     

 1 1 1  

 2   1   0   
B=  , ,  .
     
 1   2   1  
 
 
−1 0 −3
 

Comme Col(A) est engendré par trois vecteurs (donc de dimension 3), alors N ul(A) sera
au plus de dimension 1, i.e engendré par un seul vecteur.
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 91

LATEXer : rdjeamr Co. Ltd.


 
x1
 x2 
Pour trouver une base de N ul(A), prenons la matrice unicolonne X =   et résolvons
 
 x3 
x4
l’équation AX = 0. On a : AX = 0 ⇐⇒ U X = 0. Ce qui conduit à

 x1 + x 2 + x4 = 0
 (
−x1 = x2 = x3
x2 − x3 + 2x4 = 0 =⇒
 x4 = 0
 x = 4 0
 
−1
 1 
Par conséquent N ul(A) est engendré par le vecteur  .
 
 1 
0
2. Soit B la matrice formée des vecteurs qui engendrent le sous-espace Col(A). Donnons une
factorisation QR de B. On a
 
1 1 1
 2 1 0 
B=
 

 1 2 1 
−1 0 −3

Appliquons le procédé d’orthogonalisation de Gram-Schmidt aux colonnes


 de B pour déterminer
1
 2 
la matrice orthogonale Q de la factorisation de B. Posons u1 =   On a
 
 1 
−1
   
1 1
 1   2 
 ·
   
      
1  2   1  1 2
 1  0 −1  2  1  −3 
u2 =   −  = 
     
  
 1  7 9 

 2  1 1
Ce module de cours est sous licence GFDL

0  2   2  −1 5
·
   
 
 1   1 
−1 −1
rrdjeam

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Factorisation QR 92

LATEXer : rdjeamr Co. Ltd.


 
2
 −3 
Considérons u02 = 7u2 =   . De même, on a
 
 9 
5
       
1 1 1 2
 0   2   0   −3 
· ·
       
       
1  1   1  1  1   9  2
 0  −3 −1  2  −3 5  −3 
u3 =  −  − 
     
      
 1  1 1  1  2 2  9 
−3  2   2  −1  −3   −3  5
· ·
       
   
 1   1   9   9 
−1 −1 5 5
 
3
2  −13 
=
 
17 
 
5 
−18

3
 −13 
Prenons u03 = 17 u =
 
2 3  
 5 
−18
Alors en normalisant les vecteurs u1 , u02 et u03 on a :
   
1 2
 2   −3 
v1 = ku11 k u1 = √17  , v2 = ku10 k u02 = √119
1 
  
 
 1  2  9 
−1 5
 
3
 −13 
et v3 = ku10 k u03 = √527
1 
.


3  5 
−18
Ce module de cours est sous licence GFDL

 
√1 √2 √3
7 119 527
 
3
− √119 √2
− √13
 
 
7
527 
On obtient donc la matrice Q donnée par Q =   . Puisque la ma-

 √1 √9 √5 
 7 119 527 
 
1 5 18
− √7 √
119
− √527
t
trice Q est orthogonale alors elle vérifie QQ = I4 . On deduit donc la matrice R de la
rrdjeam

factorisation de B par la formule R = t QB

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Approximation par la méthode des moindres carrées 93

LATEXer : rdjeamr Co. Ltd.


 
√1 √2 √3
7 119 527  
  1 1 1
√2 3
− √119 − √13
 
  2 1 0 
t 7 527
R =
 
  
 √1 √9 √5  1 2 1 
 7 119 527 
  −1 0 −3
− √17 √5
119
− √18
527

√1 √2 √1 − √17
  
7 7 7 1 1 1
 
 √2 3
− √119 √9 √5
 2 1 0 
= 

119 119 119
 
  1 2 1 
√3 − √13 √5 − √18
 
527 527 527 527 −1 0 −3

√7 √5 √5
 
7 7 7
 
0 √17 4
− √119
 
= 
 119
.

62
 
0 0 √
527

Donc
 
1 1 1
 
√1 √2 √3
√7 √5 √5
7 119 527
 
 
7 7 7
   
 2 1 0   √2 − √ 3

− √13

 
7 119 527 0 √17 4
− √119
  
B=  = QR =  .
 
 119

 1 2 1 
  √1 √9 √5  
√62
7 119 527

0 0
   
  527
−1 0 −3
 
− √17 √5
119
− √18
527

4.3 Approximation par la méthode des moindres carrées


Soit un système de n équations linéaires AX = B qui ne possède aucune solution. On a vu
précédemment qu’un système d’equations linéaires AX = B ne possède aucune solution si le
vecteur B n’appartient pas au sous-espace engendré par les colonnes de la matrice A. La méthode
Ce module de cours est sous licence GFDL

des moindres carrées consiste à trouver la solution approximative du système qui minimise la
distance entre le vecteur B et tout vecteur du sous-espace ColA. Cette distance est égale à la
norme de la composante
 du vecteur
 B qui est orthogonale
 au
 sous-espace
 ColA.
1 1 −2 4 x
Soient A =  1 −2 1 , B =  −2  et X =  y 
     
−2 1 1 1 z
rrdjeam

1. Démontrons que le système AX = B est inconsistent. Considérons la matrice augmentée

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Approximation par la méthode des moindres carrées 94

LATEXer : rdjeamr Co. Ltd.


(A B) et determinons sa forme échelon. On a :
 
1 1 −2 4
(A B) =  1 −2 1 −2  L2 ←− L2 − L1
 
−2 1 1 1 L3 ←− L3 + 2L1
 
1 1 −2 4
≈  0 −3 3 −6  L2 ←− − 31 L2
 
0 3 −3 9
 
1 1 −2 4
≈  0 1 −1 2 
 
0 3 −3 9 L3 ←− L3 − 3L2
 
1 1 −2 4
≈  0 1 −1 2 
 
0 0 0 3

La dernière colonne de la forme échelon de la matrice augmentée (A B) est une colonne pivot,
ainsi le vecteur B ne peut pas s’écrire comme combinaison linéaire des vecteurs colonnes de
A. Par conséquent, le système AX = B est inconsistent.
2. Trouvons une solution approchée X̂ au sens des moindres carrées du système AX = B
♣ Choix de l’approche et justification
Observons que A est une matrice carrée de determinant nul (det A = 0). Ainsi, les colonnes
de A ne forment pas un système linéairement indépendant. Par conséquent on ne peut pas
écrire une factorisation QR de A. Donc la solution approchée X̂ au sens des moindres carrées
du système non consistant AX = B sera donnée par la résolution du système consistant
t
AAX̂ = t AB

Calculons d’abord la matrice t AA et le vecteur t AB On a :


 
1 1 −2
t
A =  1 −2 1 =A (On dit que A est symétrique)
 
−2 1 1
Ce module de cours est sous licence GFDL

donc
   
6 −3 −3 −2 1 1
t
AA = A2 =  −3 6 −3  = −3  1 −2 1 
   
−3 −3 6 1 1 −2

et
rrdjeam

    
1 1 −2 4 0
t
AB =  1 −2 1   −2  =  9 
    
−2 1 1 1 −9

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Diagonalisation – Trigonalisation – Jordanisation 95

LATEXer : rdjeamr Co. Ltd.


Puisque det( t AA) = (det A)2 = 0 (car det A = 0 ), alors la matrice t AA n’est pas inver-
sible et on ne peut pas appliquer la formule X̂ = ( t AA)−1 t AB (qui donne une solution
unique). En d’autres termes le système possède une infinité de solutions approchée au sens
des moindres carrées. Pour les déterminer, trouvons la forme échelon reduit de la matrice
augmentée ( t AA t AB).
 
6 −3 −3 0 L1 ←− 16 L1
( t AA t AB) =  −3 6 −3 9 
 
−3 −3 6 −9
 
1 − 12 − 21 0
 
≈   −3 6 −3 9
 L2 ←− L2 + 3L1

−3 −3 6 −9 L3 ←− L3 + 3L1

1 − 12 − 21
 
0
 9 9

≈  0 − 9  L2 ←− 2 L2
 2 2  9

0 − 92 2
9
−9
1 − 12 − 21
 
0
 
≈ 
 0 1 −1 2 

0 − 92
−9 9 L3 ←− L3 + 29 L2
2

1 − 12 − 21
 
0
 
≈ 
 0 1 −1 2 

0 0 0 0
D’après la forme échelon reduit de la matrice augmentée ( t AA t AB), la variable x3 est
une variable libre. On a donc :
( (
x̂1 − 12 x2 − 12 x̂3 = 0 x̂1 = 1 + x̂3
=⇒
x̂2 − x̂3 = 2 x̂2 = 2 + x̂3

La solution générale du système t AAx̂ = t Ab exprimée en fonction de la variable libre x̂3


est :
Ce module de cours est sous licence GFDL

       
x̂1 1 + x̂3 1 1
X̂ =  x̂2  =  2 + x̂3  = x̂3  1  +  2 
       
x̂3 x̂3 1 0

4.4 Diagonalisation – Trigonalisation – Jordanisation


rrdjeam

En algèbre linéaire, un polynôme d’endomorphisme (resp. de matrice) est une combinaison


linéaire de puissances (au sens de la composition d’applications) d’un endomorphisme (resp. d’une

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Diagionalisation 96

LATEXer : rdjeamr Co. Ltd.


matrice). Soient E un K-espace vectoriel de dimension n, f ∈ L (E) de représentation matricielle
Mf dans une base de E et soit p ∈ N. On appelle polynôme de degré p de l’endomorphisme f
(resp. Mf ) la donnée de (a0 , a1 , · · · , ap ) ∈ Kp avec (ap 6= 0) :
p
X
0 1 2 p 2 p
P (f ) = a0 f + a1 f + a2 f + · · · + ap f = a0 idE + a1 f + a2 f + · · · + ap f = ai f i
i=0

k
X
(resp. P (Mf ) = a0 Mf0 +a1 Mf1 +a2 Mf2 +· · ·+ap Mfp = a0 In +a1 Mf +a2 Mf2 +· · ·+ap Mfp = ai Mfi )
i=0

Remarque 4.10
Observez que cette définition donne lieu à un morphisme d’anneaux (K[X], +, ×) des polynômes
à une indéterminée à coefficients dans K dans l’anneau (L (E), +, ◦) des endomorphismes de

Un polynôme P tel que P (f ) = 0 est appelé polynôme annulateur de f .

4.4.1 Diagionalisation

Soit f ∈ L (E) un endomorphisme d’un K-espace vectoriel E de dimension n. Soit M ∈ Mn2 (K)
la représentation matricielle de f dans une base B donnée de E.

Définition 4.11
On appelle vecteur (colonne) propre de f (resp. de M ) tout vecteur non nul ~u ∈ E (resp. toute
matrice colonne non nulle U ∈ Mn,1 ) pour lequel (resp. laquelle) il existe un scalaire α ∈ K tel
que f (~u) = α~u (resp. M U = αU ). Le scalaire α (utilisé dans la définition de vecteur propre) est
appelé valeur propre associée au vecteur propre ~u (resp. U ) ; de même, on dit que ~u (resp. U ) est
le vecteur propre associé à la valeur propre α.

4.4.1.1 Polynôme caractéristique – Équation caractéristique

Soit une matrice carrée M . Dire qu’un réel α est une valeur propre de M équivaut à dire que
l’équation matricielle M U = αU ⇐⇒ (M − αI)U = 0 admet au moins une solution. Considérant
M − αI, le polynôme à une indéterminée α qu’on notera Pcar,M (α) et défini par Pcar,M (α) =
det(M − αI) est appelé le polynôme caracteristique de M et l’équation Pcar,M (α) = 0 qui permet
de déterminer les valeurs propres de M est appelée l’équation caractéristique de M .
Ce module de cours est sous licence GFDL

Théorème 4.12 (Caley-Hamilton)


Soit f un endomorphisme d’un K-espace vectoriel de dimension finie n(n > 1) de représentation
matricielle Mf dans une base BE de E (ou bien soit Mf une matrice carrée d’ordre n, représentation
matricielle d’un endomorphisme f de Kn dans la base canonique). Alors

Pcar,f (f ) = 0 ou Pcar,Mf (Mf ) = 0.


rrdjeam

Proposition 4.13
Deux matrices semblables ont un même polynôme caractéristique.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Diagionalisation 97

LATEXer : rdjeamr Co. Ltd.


Définition 4.14
Soient E un espace vectoriel (complet) et f un endomorphisme continu de E,
— On dit que α est une valeur spectrale de f si l’endomorphisme f − αidE n’a pas un inverse
qui soit un endomorphisme continu.
Si E est de :::::::::::
dimension :::::
finie, tous les endomorphismes de E sont continus et tout endomor-
phisme de E injectif ou surjectif est bijectif, par conséquent la notion de valeur spectrale se
confond avec celle de valeur propre.
— On appelle spectre d’une matrice M (resp. d’un endomorphisme f ) l’ensemble de ses valeurs
spectrales de M (resp. f ).
— L’ordre de multiplicité algébrique d’une valeur propre α d’une matrice M (resp. d’un endo-
morphisme f ) de E est l’ordre de multiplicité de la racine dans le polynôme caractéristique.
C’est donc l’exposant du monôme (x − α) dans le polynôme caractéristique Pcar,f (α).
— L’ordre de multiplicité géométrique d’une valeur propre α d’une matrice M ( resp. d’un en-
domorphisme) est la dimension du sous-espace propre qui lui est associé.
Dire que le scalaire α est une valeur propre de f (resp. M ) équivaut à dire que l’équation
Pcar,M (α) = 0 admet au moins une solution. Déterminer les valeurs propres de M revient à
résoudre cette équation.
Proposition 4.15
L’ensemble des vecteurs propres associés à une valeur propre α est un sous-espace vectoriel de
E noté Eα et appellé sous-espace propre associé à α.
n o
En effet, soit α ∈ K une valeur propre de f et Eα = ~u ∈ E ; f (~u) = α~u . L’ensemble Eα 6= ∅
car ~0 ∈ E puisque f (~0) = ~0. Soit ~u ∈ Eα et ~v ∈ Eα c’est-à-dire f (~u) = α~u et f (~v ) = α~v . Soient
maintenant β et γ deux scalaires. On a
f (β~u + ~v ) = βf (~u) + f (~v ) linéarité de f
= βα~u + α~v car ~u, ~v ∈ Eα
= α(β~u + ~v ).
Théorème 4.16
Les vecteurs qui forment les bases pour les espaces propres correspondant aux valeurs propres
αi d’une matrice M constituent un ensemble de vecteurs linéairement indépendants.
Ce module de cours est sous licence GFDL

Une matrice M carrée d’ordre n est inversible si et seulement si elle n’admet pas de valeur
propre nulle.
Proposition 4.17
Toute matrice réelle symétrique est diagonalisable.

4.4.1.2 Recherche de vecteur propre (sous-espace propre)


rrdjeam

Dans la pratique la recherche des vecteurs propres survient après la connaissance de la valeur
propre bien que la définition de la valeur propre s’appuie sur celle de vecteur propre. Soient donc

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Critères de diagonalisation 98

LATEXer : rdjeamr Co. Ltd.


un espace vectoriel E et une valeur propre α d’un endomorphisme f de E de representation
matricielle M dans une base B de E. Alors pour trouver le sous-espace associé à α il suffit de
résoudre l’équation vectorielle (f − αidE )(~u) = ~0 de représentation matricielle (M − αIn )U = 0.

Remarque 4.18
En d’autres termes, le sous-espace propre associé à une valeur propre α est ker(f − αidE ) (resp.
N ul(M − αI))

Une matrice M (un endomorphisme f de E) est diagonalisable si il existe une base de vecteurs
propres de E dans laquelle elle est diagonale ; en d’autres termes M est semblable à une matrice
diagonale et la matrice regulière de liaison est celle des vecteurs propres M = P DP −1 .

4.4.2 Critères de diagonalisation

Les critères suivants sont tous des conditions nécessaires et suffisantes pour qu’une matrice
carrée M (resp. un endomorphisme f d’un espace vectoriel E) soit diagonalisable :
1. Il existe une base de E constituée des vecteurs propres de f
k
M
2. la somme (directe) des espaces propres est l’espace entier E = Eαi où les αi pour
i=1
i ∈ {1, 2, · · · , k} sont les valeurs propres de M (resp. de f )
3. la somme des dimensions des espaces propres est égale à la dimension de l’espace entier
4. le polynôme minimal est scindé sur R et à racines simples.
5. tout sous-espace propre Eαi possède une dimension égale à l’ordre de multiplicité algébrique
de la valeur propre αi associée.
6. toute représentation matricielle Mf de f est diagonalisable, c’est-à-dire peut s’écrire sous la
forme Mf = P DP −1 avec P (resp. D) matrice régulière (resp. diagonale).

Proposition 4.19
L’endomorphisme est entièrement déterminé par ses vecteurs propres et ses valeurs propres
associées s’il est diagonalisable, c’est-à-dire s’il existe une base de vecteurs propres.

Remarque 4.20 Dans un corps algébriquement clos :


Ce module de cours est sous licence GFDL

— le déterminant est égal au produit des valeurs propres élevées à leur ordre de multiplicité
algébrique ;
— la trace est égale à la somme des valeurs propres multipliées par leur ordre de multiplicité
algébrique.

Proposition 4.21
Soit A une matrice diagonalisable semblable à une matrice diagonale D ( c’est-à-dire qu’il existe
rrdjeam

P régulière telle que D = P −1 AP ou A = P DP −1 ) alors

An = P Dn P −1 pour tout entier naturel n

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Critères de diagonalisation 99

LATEXer : rdjeamr Co. Ltd.


Si de plus A est inversible alors

A−1 = P D−1 P −1 et A−n = P D−n P −1 pour tout entier naturel n

La matrice P étant la matrice de passage de l’ancienne base à la nouvelle base (des vecteurs
propres).

Proposition 4.22 (Relation entre le polynôme minimal et le polynôme caractéristique)


Soit M une matrice carrée d’ordre n (représentant un endomorphisme f d’un K-espace vec-
toriel de dimension n). Le polynôme minimal de M ( respectivement de f ) divise le polynôme
caractéristique de M (respectivement de f ).

Corollaire 4.23
Le degré du polynôme minimal deg(Pmin,M ) de M , une matrice carrée d’ordre n, est inférieur
ou égal à n (degré du polynôme caractéristique)

Cela améliore nettement le seul renseignement sur le degré du polynôme minimal résultant de
sa construction, à savoir : deg(Pmin,M ) 6 n2 . L’intérêt de ce théorème est de donner un moyen
supplémentaire pour déterminer le polynôme minimal. En effet, le polynôme caractéristique étant
calculé, on peut restreindre les possibilités pour le polynôme minimal en faisant la liste de tous les
diviseurs du polynôme caractéristique et en éliminant ceux qui n’ont pas les mêmes racines que
le polynôme caractéristique. Ensuite il ne reste plus qu’à chercher parmi les polynômes restants
les polynômes annulateurs et plus précisément celui de plus bas degré. Un résultat sur les fac-
teurs irréductibles du polynôme caractéristique et du polynôme minimal (étudié à la fin de cette
ressource) permet encore d’affiner ce crible.

Exemple 4.7  
−2 −2 1
Soit la matrice à coefficients réels M =  −2 1 −2 . Son polynôme caractéristique, égal
 
1 −2 −2
à det(M − αI3 ) se calcule facilement. Le résultat obtenu est Pcar,M (α) = (α + 3)2 (3 − α). Pour
déterminer le polynôme minimal de M , on fait les remarques suivantes :
1. il admet (α + 3) et (3 − α) comme racines,
Ce module de cours est sous licence GFDL

2. il divise (α + 3)2 (3 − α)
3. il est unitaire.
Il n’y a donc que deux possibilités (α + 3)(3 − α) ou (α + 3)2 (3 − α). Pour conclure il suffit de
calculer (M + 3I3 )2 (3I3 − M ). Si le résultat est la matrice nulle, le polynôme minimal de M est
(α + 3)(3 − α), sinon c’est (α + 3)(3 − α). Tous calculs faits on trouve ici (M + 3I3 )2 (3I3 − M ) = 0
et donc : Pmin,M (α) = (α + 3)2 (3 − α). Cela prouve que la matrice M est diagonalisable puisque
rrdjeam

Pmin,M (α) est scindé dans R et n’a que des racines simples.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Trigonalisation 100

LATEXer : rdjeamr Co. Ltd.


4.4.3 Application de la diagonalisation

On suppose que R3 est muni de sa base canonique B0 = (e1 , e2 , e3 ). Soit A une matrice
diagonalisable de valeurs propres (λi )i=1,2,3 dont les vecteurs propres associés sont respectivement
u1 , u2 et u3 . On considère un système d’équations différentielles
   
x0 (t) x(t)
 0
(S)  y (t)  = A  y(t)  .
  
z 0 (t) z(t)

Alors la solution de (S) est donnée par


   
x(t) αeλ1 t
 y(t)  = P  βeλ2 t  (4.4.1)
   
z(t) γeλ3 t

où P est la matrice de passage de la base canonique (e1 , e2 , e3 ) à la base des vecteurs propres
(u1 , u2 , u3 ) et α, β et γ sont des constantes rélles.
Donner une forme réduite de Jordan de A ∈ M (n, R) consiste à trouver pour chaque sous-
espace caractéristique une base dans laquelle l’application linéaire associée à A a une expression
simple .Considérons donc un des sous-espaces caractéristiques réels Eλi de A.

4.4.4 Trigonalisation

Rapportée pour la première fois par CHANG Ts’ang au 2e siècle avant J-C, cette méthode de
trigonalisation aussi méthode fang-cheng, vise à annuler progressivement les coefficients en dessous
de la diagonale et utilise :
— la mutiplication d’une ligne par un scalaire
— la somme de deux lignes

Proposition 4.24 Soit E un K-espace vectoriel de dimension n muni d’une base B et f un


endomorphisme de E de matrice Mf dans la base B. On suppose que Pcar,f est scindé et soit
α1 , · · · αn les valeurs propres de f (non nécessairement deux à deux distincts). Il existe une base
de E telle que P étant la matrice de changement de bases, la matrice P Mf P −1 est triangulaire
suppérieure
Ce module de cours est sous licence GFDL

 
α1 0 ··· 0

 0 α2 0


 
 0 0 α3 0
 · · · 

−1
 .. .. ... .. 
P Mf P =  . . 0 . 
 .. .. .. 

 . . . 
rrdjeam

 . .. ..

 . .
 . . ··· 0 

0 0 0 ··· αn

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Réduction de Jordan (Jordanisation) 101

LATEXer : rdjeamr Co. Ltd.


4.5 Réduction de Jordan (Jordanisation)
Soit A une matrice carrée d’ordre n. On appelle réduite de Jordan souvent notée Jn (λ) la matrice
 
α1 1 · · · 0 · · · 0 · · · · · · 0
.. .. . .. 
. 0 · · · ..

 0 . . 
.. .. .. 
 
..
. 1 ··· .

 . .   

.
 J l (α 1 ) 0 · · · · · · 0
0 · · · 0 α1 . . 0 · · · · · · 0  
  1
. ..
Jl2 (α2 ) 0 · · · ..
 
 .. ... ... ..   0 . 
 . ··· ··· ··· .  =  
.. ..

··· ···
 
 ... ...   . . 
 0 ··· ··· αk 1 · · · 0 

..
 0 0 ··· 0 Jlk (αk )
 .. .. 
 . ··· ··· 0 ··· 0 . . 0  
.. .. ..

..
. ··· ··· . ··· . . 1 
 

0 · · · · · · 0 · · · 0 · · · · · · αk
Théorème 4.25 (Décomposition de Dunford)
Soit A une matrice carrée d’ordre n. Il existe un unique couple (B, C) de matrices carrées
d’ordre n telles que :
1. B est diagonisable et C est nilpotent
2. B et C commutent
3. A = B + C

C’est donc dans les matrices nilpotentes que réside la difficulté. Bien sûr, elles ne sont pas diago-
nalisables mais on peut néanmoins les simplifier. La proposition suivante explique comment pour
le cas particulier où l’indice est maximal.

Proposition 4.26
Soit A une matrice carrée d’ordre n nilpotente d’indice n. Il existe une matrice d’Heinsenberg
supérieure H1 dont les termes diagonaux sont tous nuls et les termes super-diagonaux tous égaux
à 1 telle que A soit semblable à H1 .

L’algorithme de déterminatioon de la réduction de Jordan est le suivant


Ce module de cours est sous licence GFDL

1. Factoriser le polynôme caractéristique


2. Trouver une base de chaque sous-espace propre
3. Compléter cette base s’il y a lieu. En effet, si la multiplicité de la valeur propre λ est m alors
qu’il n’y a que l < m vecteurs propres indépendants, il faut trouver encore m − l vecteurs. Pour
chaque vecteur propre u déjà trouvé, il faut résoudre le système (A − λI)v = u, où u est un
vecteur propre déjà écrit et entrant dans la base. Ensuite vérivier que la solution v est linéairement
rrdjeam

indépendante des vecteurs déjà écrits. S’il manque encore des vecteurs, il faut résoudre le système
(A − λI)w = v, et ainsi de suite. On aura pas à itérer trop longtemps pour obtenir une base de
E.

Initiation au calcul matriciel Notes de cours


©UAC / FAST
Quelques exercices 102

LATEXer : rdjeamr Co. Ltd.


4. Calculer l’inverse P −1 de P
5. Vérifier vos calculs

4.6 Exponentielle d’une matrice


Soit A une matrice carrée d’ordre n. On appelle exponentielle de A la somme (lorsqu’elle existe
An
) de la série de terme générale :
n!
+∞
X An A2 A3 A4
exp(A) = eA = =I +A+ + + + ··· + ··· (4.6.1)
n=0
n! 2! 3! 4!

Propriétés 4.27
1. On a eO = I
2. Soient A et B qui commutent i.e telles que AB = BA alors eA+B = eA eB

Proposition 4.28 (Détermination de l’exponentielle d’une matrice)


Soit A une matrice carrée d’ordre n. Pour déterminer, lorsqu’elle existe, l’exponentielle de A
on peut utiliser :
1. une matrice diagonale D = diag (α1 , · · · , αk ) semblable à A de matrice de passage P :
−1
eA = eP DP = P eD P −1 = P diag (eα1 , · · · , eαk )P −1 (4.6.2)

2. la décomposition de Dunford (B, C) de A = B + C

eA = eB+C = eB eC car B et C commutent (4.6.3)

4.7 Quelques exercices


Ce module de cours est sous licence GFDL

Reférence
— David C Lay, Linear algebra and its applications, Addison-Wesley (2012)
— E. Ramis et al., Cours de mathématiques spéciales, Algèbre 1, édition Masson, (1993).
— J. Quinet, Cours élémentaires de Mathématiques supérieures, Algèbre 1, édition Dunod,
rrdjeam

(1976).
— J. Monier, Les méthodes et exercices de mathématiques de MPSI, édition Dunod, (2008).

Initiation au calcul matriciel Notes de cours


©UAC / FAST