Vous êtes sur la page 1sur 72

Département LSO 2

LSO 2
Algèbre linéaire

Denis Pasquignon

(version du 13 novembre 2020)


Denis Pasquignon
CEREMADE, Université Paris-Dauphine, 75016 Paris, France.
E-mail : denis.pasquignon@ceremade.dauphine.fr

Ce document est mis à disposition selon les termes de la licence Creative Com-
mons “Attribution - Partage dans les mêmes conditions 4.0 International”.
Il est protégé par le code de la propriété intellectuelle : toute utilisation illicite pourra entraîner des
poursuites disciplinaires ou judiciaires.

Ce polycopié a été créé avec LATEX; pour la mise en forme, nous avons adapté des fichiers de style fournis
par la Société Mathématique de France, notamment la classe smfbook.
LSO 2

Denis Pasquignon
TABLE DES MATIÈRES

1. L’ensemble Rn .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
2. Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
3. Combinaison linéaire de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
4. Sous-espace vectoriels de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
5. Produit scalaire euclidien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1. Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Premières opérations sur les matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3. Produit matriciel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3. Systèmes d’équations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17


1. Définitions et écriture matricielle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2. Systèmes faciles à résoudre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Opérations élémentaires sur les lignes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4. Méthode de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5. Application aux familles de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4. Matrices carrées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1. Matrices carrées particuliéres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2. Produit de matrices carrées. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3. Puissances d’une matrice carrée. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4. Suites matricielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5. Matrices inversibles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

5. Déterminant. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1. Définitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2. Propriétés. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3. Formules de Cramer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

6. Bases et dimension.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1. Bases de Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
2. Bases et dimension d’un sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

7. Théorème du rang.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1. Image et Noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2. Théorème du rang. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3. Systèmes d’équations linéaires. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60

8. Diagonalisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1. Eléments propres d’une matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
TABLE DES MATIÈRES v

2. Matrices diagonalisables. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3. Calcul d’une puissance kème de matrice. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
CHAPITRE 1

L’ENSEMBLE Rn .

1. Introduction
Dans le cours "fonctions de deux variables et optimisation", vous avez étudié les fonctions de deux
variables et donc rencontré la notion de couples de R2 . Nous donnons deux exemples :
• Espace des biens : Soit n un entier supérieur ou égal à 2. Considérons une économie avec n biens
(objets matériels ou services). Pour chaque bien une unité est choisie (gramme, kilogramme, litre,
heure · · · ) et nous supposons que chaque bien est complètement divisible. Si, pour i = 1 à n, nous
notons xi la quantité du bien i, xi est donc un réel positif ou nul et le n-uplet (x1 , x2 , · · · , xn ) est
appelé panier de biens. L’ensemble de tous les paniers possibles est appelé espace des biens. Cet espace
contient, en particulier, le panier vide représenté par (0, 0, · · · , 0).
• La statistique : Lors d’une enquête sur la consommation de deux biens X (acier par exemple) et Y
(automobile par exemple), on a relevé les observations suivantes sur n années : Pour i variant de 1
à n, xi représente la consommation de X (en millions de tonnes) la ième année, yi la consommation
de Y (en milliers d’unités) la ième année. A chaque année i, on peut alors associer le couple de réels
(xi , yi ).

2. Définitions
Dans tout ce chapitre n désigne un entier naturel supérieur ou égal à 2 et p un entier non
nul.

Définition 1.1
Un élément de Rn est une liste ordonnée de n nombre réels appelé n-uplet. Un tel n-uplet est appelé
vecteur et est écrit en colonne  
x1
 .. 
~x =  . 
xn
où xi ∈ R pour tout 1 ≤ i ≤ n, xi s’appelle la iieme composante de x.
On note ~0 le vecteur nul dont toutes les composantes sont nulles.
Un nombre réel est appelé scalaire pour le distinguer des vecteurs.

1
 
2 4
Exemple 1.2. — ~x = 
3 est un vecteur de R .

4
2. DÉFINITIONS 2

Proposition 1.3 – Egalités de deux vecteurs

Deux vecteurs sont égaux si et seulement si toutes les composantes sont égales.
~x = ~y ⇐⇒ ∀1 ≤ i ≤ n, xi = yi .

   
1 2
Remarque 1.4. — L’ordre des composantes est important, ainsi 6= .
2 1

Définition 1.5 – Opérations dans Rn

Soit deux vecteurs ~x, ~y et a un réel


       
x1 y1 x1 + y1 ax1
~x + ~y =  ...  +  ...  =  ..  . 
 et a ~x =  .. 
     
.
xn yn xn + yn axn

         
1 3 4 1 2
Exemple 1.6. — + = et 2 = .
2 4 6 2 4

Remarque 1.7. — On note −~x le vecteur (−1)~x

Proposition 1.8

• Propriétés de l’addition
Pour tous vecteurs ~x, ~y et ~z
— ~x + (~y + ~z) = (~x + ~y ) + ~z,
— ~x + ~y = ~y + ~x,
— ~x + ~0 = ~x,
— ~x + (−~x) = ~0.
• Propriétés du produit par un scalaire
Pour tous vecteurs ~x, ~y et tous réels λ et µ
— λ(µ~x) = (λµ)~x = µ(λ~x),
— λ(~x + ~y ) = λ~x + λ~y ,
— (λ + µ)~x = λ~x + µ~x,
— 1~x = ~x, 0~x = ~0 et λ~0 = ~0.

   
1 0
Représentation graphique dans R2 On considère les vecteurs e~1 = et e~2 = . On dit que
0 1
la famille (e~1 , e~2 ) est la base canonique de R2 . On se place dans le plan muni d’un repère orthonormé, on
associe le vecteur e~1 à l’axe horizontal et le vecteur e~2 à l’axe vertical. Tout vecteur de R2 s’écrit
 
x1
~x = = x1 e~1 + x2 e~2 .
x2
A tout vecteur ~x on associe le point M du plan où x1 est l’abscisse de M et x2 l’ordonnée de M . Alors le
~ .
vecteur ~x est représenté par le vecteur OM
En choisissant de représenter tous les couples de R2 par des vecteurs d’origine O, les opérations définies
dans le paragraphe précédent se représentent géométriquement (voir les figures 1 et 2).
3. COMBINAISON LINÉAIRE DE VECTEURS 3

Figure 1. Multiplication d’un vecteur par un réel. On a distingué les cas : λ < 0, 0 < λ < 1 et λ > 1

Figure 2. Somme de deux vecteurs

3. Combinaison linéaire de vecteurs


Définition 1.9 – Combinaison linéaire
On considère p vecteurs x~1 , · · · , x~p de Rn . On appelle combinaison linéaire de ces p vecteurs tout
vecteur de la forme
λ1 x~1 + · · · + λp x~p
où λ1 , · · · , λp sont des réels appelés coefficients de la combinaison linéaire.

Exemple 1.10. — On peut toujours écrire le vecteur nul de Rn comme une combinaison de p vecteurs
quelconques où les coefficients sont tous nuls.

1 −5
   
 0 
0
 
Exemple 1.11. — Dans R4 , ~x = 
−1 et ~y =  0 , alors

4 1

17
 
0
~v = 2~x − 3~y = 
−2 est une combinaison linéaire de ~x et de ~y .

Définition 1.12 – Famille de vecteurs


Une famille de p vecteurs de Rn est une liste ordonnée de p vecteurs x~1 , · · · , x~p de Rn notée
(x~1 , · · · , x~p ).
3. COMBINAISON LINÉAIRE DE VECTEURS 4

Exemple 1.13. — L’ordre des vecteurs est important et un même vecteur peut être répété plusieurs fois.
Ainsi les familles (~u, ~v , w)
~ et (~v , ~u, w) ~ est une famille de vecteurs de Rn où ~u, ~v et
~ sont différentes, (~u, ~u, w)
n
~ sont trois vecteurs de R avec ~u 6= ~v .
w

Proposition 1.14 – Base canonique de Rn

Soit les n vecteurs e~1 , · · · , e~n de Rn tel que pour tout entier 1 ≤ i ≤ n, e~i est le vecteur de Rn dont
toutes les composantes sont nulles sauf la ième qui vaut 1.
On dit que la famille B = (e~1 , · · · , e~n ) est la base canonique de Rn .
Tout vecteur ~x de Rn est combinaison linéaire des vecteurs de la base canonique.
 
x1 n
~x =  ...  = x1 e~1 + x2 e~2 + · · · + xn e~n =
X
xi e~i .
 
i=1
xn

 
x
Exemple 1.15. — on cherche à quelle condition un vecteur ~v = y  de R3 est combinaison linéaire de

z
   
1 0
v~1 =  0  et de ~v2 =  1 .
−1 −1
Solution : ~v est combinaison linéaire de v~1 et de v~2 si et seulement s’il existe des réels a et b tels que

~v = av~1 + bv~2

Cette égalité de vecteurs se traduit par l’égalité des coordonnées d’où le système :

  
 x = a  a = x  a = x
y = b ⇐⇒ b = y ⇐⇒ b = y
= −a − b z = −x − y
  
z x+y+z = 0

Ce système n’est possible que si x + y + z = 0 et si cette condition est réalisée


alors ~v = av~1 + bv~2 .  
x
Par conséquent un vecteur ~v = y  de R3 est combinaison linéaire de v~1 et de v~2 si et seulement si
z
x + y + z = 0.
 
1
Ainsi ~u = −2 est combinaison linéaire de v~1 et de v~2 car 1 − 2 + 1 = 0 et ~u = v~1 − 2v~2 . Par contre
1
 
1
~ =  2  n’est pas combinaison linéaire de v~1 et de v~2 car 1 + 2 − 1 6= 0.
w
−1
4. SOUS-ESPACE VECTORIELS DE Rn 5

4. Sous-espace vectoriels de Rn
Définition 1.16
Soit F une partie de Rn , on dit que F est un sous-espace vectoriel de Rn si
• F est non vide,
• ∀~x ∈ F, ∀~y ∈ F, ∀a ∈ R, ~x + a~y ∈ F.

Proposition 1.17

Si F est un sous-espace vectoriel de Rn , alors ~0 ∈ F .

Démonstration. — Puisque F est un sous-espace vectoriel, cet ensemble est non vide, soit ~x un élément de
F . On applique la deuxième propriété avec a = −1 d’ou ~x − ~x ∈ F donc ~0 ∈ F .

Remarque 1.18. — Ainsi une condition nécessaire pour que F soit un sous-espace vectoriel est que le
vecteur nul ~0 soit dans F .

Exemple 1.19. — L’ensemble {~0} est un sous-espace vectoriel de Rn ainsi que Rn .


 
x
Exemple 1.20. — E = { ∈ R2 , 2x + 3y = 2} n’est pas un sous-espace vectoriel de R2 . En effet le
y
vecteur nul n’est pas dans E.
 
x
Exemple 1.21. — G = { ∈ R2 , 2x + 3y = 0} est un sous-espace vectoriel de R2 .
y
 
x
Exemple 1.22. — F = { ∈ R2 , y = x2 } n’est pas un sous-espace vectoriel de R2 . En effet le
y
 
1
vecteur ~u = est dans F mais 2~u n’est pas dans F puisque 2 6= 22 .
1

Remarque 1.23. — Si F est un sous-espace vectoriel de Rn , alors toute combinaison linéaire de vecteurs
de F est un vecteur de F . On dit que F est stable par combinaison linéaire.

Définition 1.24

Soit U = (u~1 , · · · , u~p ) une famille de p vecteurs de Rn . On note Vect[(U)] l’ensemble des combinaisons
linéaires de U :
~x ∈ Vect[(U)] ⇐⇒ ∃(λ1 , · · · , λp ) ∈ Rp , ~x = λ1 u~1 + · · · + λp u~p .

h i
Exemple 1.25. — On a Vect ~0 = {~0}.
 
1
Exemple 1.26. — Soit D1 = Vect[e~1 ] où e~1 = ,
0
 
λ
~x ∈ Vect[e~1 ] ⇐⇒ ∃λ ∈ R, ~x = λ e~1 =
0
Graphiquement D1 est la droite vectorielle correspondant à l’axe des abscisses.
4. SOUS-ESPACE VECTORIELS DE Rn 6

 
2 x1
Exemple 1.27. — On a R = Vect[e~1 , e~2 ]. En effet soit ~x = , on a
x2
~x = x1 e~1 + x2 e~2
donc ~x est un vecteur de Vect[e~1 , e~2 ] donc R2 est inclus dans Vect[e~1 , e~2 ]. L’inclusion réciproque vient de
la définition de Vect[e~1 , e~2 ], on en déduit l’égalité R2 = Vect[e~1 , e~2 ].

Proposition 1.28

Soit U = (u~1 , · · · , u~p ) une famille de p vecteurs de Rn .


Vect[U] est un sous-espace vectoriel de Rn .

Démonstration. — Comme ~0 ∈ Vect[U] car ~0 = 0u~1 + · · · + 0u~p , Vect[U] est non vide. De plus soit ~x et ~y
deux vecteurs de Vect[U], il existe 2p réels λ1 , · · · , λp et µ1 , · · · , µp
~x = λ1 u~1 + · · · + λp u~p et ~y = µ1 u~1 + · · · + µp u~p
Soit a un réel
~x + a~y = (λ1 + aµ1 )u~1 + · · · + (λp + aµp )u~p .
Ainsi ~x + a~y est un vecteur de Vect[U]. Par conséquent Vect[U] est un sous-espace vectoriel de Rn .

Remarque 1.29. — Cette propriété est utilisée pour prouver qu’un ensemble est un sous-espace vectoriel
de Rn . Par exemple on considère l’ensemble
 
a+c
F = {b − a ∈ R3 , où a ∈ R, b ∈ R, c ∈ R}
c−b
donc
      
a+c 1 0 1
3
~x ∈ F ⇐⇒ ∃(a, b, c) ∈ R , ~x = b − a = a −1 + b 1 + c 0
      
c−b 0 −1 1
 
1
On en déduit qu’un vecteur ~x appartient à F si et seulement si ~x est combinaison linéaire de g~1 = −1,
0
   
0 1
g~2 =  1  et g~3 = 0 donc
−1 1
F = Vect[g~1 , g~2 , g~3 ] .
Par conséquent F est un sous-espace vectoriel de R3 .

Proposition 1.30 – Intersection

Soit F et G deux sous-espaces vectoriels de Rn , alors F ∩ G est un sous-espace vectoriel de Rn .

Démonstration. — Comme F et G sont des sous-espaces vectoriels, le vecteur nul ~0 est dans F et dans G
donc dans l’intersection F ∩ G. Soit ~x et ~y deux vecteurs de F ∩ G et λ un réel. Donc ~x et ~y sont deux
vecteurs de F et comme F est un sous-espace vectoriel, ~x + λ~y est un vecteur de F . De même ~x + λ~y est
un vecteur de G. Par conséquent ~x + λ~y est un vecteur de F ∩ G.
5. PRODUIT SCALAIRE EUCLIDIEN 7

5. Produit scalaire euclidien


Le produit scalaire est une opération entre vecteurs définie de la manière suivante

Définition 1.31 – Produit scalaire euclidien

Soit n un entier naturel non nul, soit ~u = (x1 , · · · , xn ) ∈ Rn et tout ~v = (y1 , · · · , yn ) ∈ Rn on appelle
produit scalaire de ~u et ~v le nombre réel, noté h~u, ~v i défini par :
X n
h~u, ~v i = xi yi .
i=1
Les vecteurs ~u et ~v sont dits orthogonaux si h~u, ~v i = 0.

Le produit scalaire est ainsi nommé car il associe à deux vecteurs de Rn un nombre réel (appelé aussi un
scalaire). On peut aussi associer à un vecteur sa norme ou longueur.

Définition 1.32 – norme euclidienne

Soit n un entier naturel non nul, soit ~u = (x1 , · · · , xn ) ∈ Rn , on appelle norme euclidienne de ~u le
nombre réel, noté k~uk défini par :
v
u n
p uX
k~uk = h~u, ~ui = t x2 . i
i=1
CHAPITRE 2

MATRICES

1. Définitions
1.1. Définition d’une matrice. — Une matrice est un tableau de nombres défini de la manière suivante :

Définition 2.1
Soit n et p deux entiers non nuls. On appelle matrice à coefficients réels la donnée de n × p nombres
réels notés : {aij }i∈{1,··· ,n},j∈{1,··· ,p} . On représente une matrice sous forme d’un tableau A entouré
de parenthèses :  
a11 · · · a1j · · · a1p
 · · · ... · · · · · · · · · 
 
 
A =  ai1 · · · aij · · · aip 
 
..
 
 ··· ··· ··· . ··· 
 
an1 · · · anj · · · anp
On note aussi une matrice par
A = (aij )n,p ou A = (aij )1≤i≤n, 1≤j≤n
Le premier indice est l’indice de la ligne, le deuxième celui de la colonne. On dit que aij est le terme
général de la matrice A.
Si n = p, on dit que la matrice est une matrice carrée d’ordre n. Les termes aii pour 1 ≤ i ≤ n
forment la diagonale principale de la matrice de la matrice A.
On note Mn,p (R) l’ensemble des matrices à coefficients dans R à n lignes et p colonnes.
On note Mn (R) l’ensemble des matrices carrées d’ordre n. On identifie M1 (R) à R. On dit qu’une
matrice de Mn,p (R) est de format n × p.

Exemple 2.2. — :
1 2 −1
 

A= 0 0 5 
0 0 2
est une matrice carrée d’ordre 3, sa diagonale est constituée des réels 1,0,2.
1. DÉFINITIONS 9

1.2. Matrices particulières. — Soit A une matrice de Mn,p (R), c’est une
• matrice-ligne si n = 1 et dans ce cas A = (x1 , · · · , xp ) ∈ M1,p (R).
 
x1
 .. 
• matrice-colonne si p = 1 et dans ce cas A =  . .
xn
• matrice triangulaire supérieure si n = p et
∀i ∈ {1, · · · , n}, ∀j ∈ {1, · · · , n}, i > j =⇒ aij = 0.
• matrice triangulaire inférieure si n = p et
∀i ∈ {1, · · · , n}, ∀j ∈ {1, · · · , n}, i < j =⇒ aij = 0.
• matrice nulle de Mn,p (R) notée O (le contexte donnera les valeurs de n et p) si tous ses coefficients
sont nuls.
• matrice élémentaire Ekl où k ∈ {1, · · · , n} et l ∈ {1, · · · , p},
Ekl = (eij )n,p où ekl = 1 et tous les autres coefficients sont nuls.
Exemple 2.3. — :
0 −1
   
1  1
A1 =  2  , A 2 = 1 0 4 2 5 , A3 =  0 4 5 
3 −1 5 9
A1 est une matrice colonne, élément de M3,1 (R), A2 est une matrice ligne, élément de M1,5 (R), A3 est une
matrice carrée d’ordre 3, élément de M3 (R).
 
0 0 0 0
E21 =  1 0 0 0  est une matrice élémentaire de M3,4 (R).
0 0 0 0
1 2 −1
   
4 5 0
B =  0 1 3  et C =  0 0 5  sont des matrices triangulaires supérieures.
0 0 2 0 0 2
et  
4 0 0
D =  5 1 0  est une matrice triangulaire inférieure.
0 2 2

1.3. Matrice représentant une famille de vecteurs de Rn . — A toute famille de vecteurs on associe
une matrice.

Définition 2.4

Soit E = (~e1 , · · · , ~ei , · · · , ~en ) la base canonique de Rn .


Soit U = (~u1 , · · · , ~uj , · · · , u~p ) une famille de p vecteurs de Rn . Pour tout j ∈ {1, · · · , p}, ~uj est un
n-uplet de réels :
 
a1j n
 ..  X
~uj =  . = aij ~ei
i=1
anj
On définit la matrice A par la matrice de format n × p dont le terme courant est aij .
Ainsi la jème colonne de A est le vecteur colonne ~uj . On notera
A = [~u1 , · · · , ~ui , · · · , u~p ].
On dit que la matrice A = (aij )n,p représente la famille U dans la base canonique de Rn .
2. PREMIÈRES OPÉRATIONS SUR LES MATRICES 10

Remarque 2.5. — La notation globale, comme une ligne de vecteurs, A = [~u1 , · · · , ~uj , · · · , u~p ] utilise des
crochets pour éviter la confusion avec la famille notée U = (~u1 , · · · , ~uj , · · · , u~p ) avec des parenthèses.
 
1 0
Exemple 2.6. — La matrice représente la base canonique de R2 .
0 1
1 0 1
 
 0 1 0  4
La matrice B =  4 2 0  de M4,3 (R) représente les trois vecteurs (~u1 , ~u2 , ~u3 ) de R où

0 0 3
1 0 1
     
 0   1
 , ~u3 =  0  .
  
 4  , ~u2 =  2
~u1 =   
  0 
0 0 3

1.4. Matrice transposée. — On a

Définition 2.7

Soit A une matrice de Mn,p (R) : A = (aij )1≤i≤n, 1≤j≤p .


On appelle transposée de A notée t A, la matrice de Mp,n (R) définie par : t A = (bij )p,n où
∀i ∈ {1, · · · , p}, ∀j ∈ {1, · · · , n}, bij = aji ;

 
1 2  
1 3 5
Exemple 2.8. — : Si A =  3 4  alors t A = .
2 4 6
5 6

Remarque 2.9. — On trouve parfois la notation AT avec la lettre t en majuscule et positionnée en


exposant à droite.

2. Premières opérations sur les matrices


2.1. Egalité. —

Définition 2.10

On dit que deux matrices A et B sont égales si elles ont le même format n, p (n = nombre de lignes,
p = nombre de colonnes) et
∀i ∈ {1, · · · , n} ∀j ∈ {1, · · · , p} aij = bij .

2.2. Addition. —

Définition 2.11

Soient A = (aij ) et B = (bij ) deux matrices de Mn,p (R), la somme A + B est la matrice C = (cij )
de Mn,p (R) définie par :
∀i ∈ {1, · · · , n} ∀j ∈ {1, · · · , p} cij = aij + bij .
3. PRODUIT MATRICIEL 11

Remarque 2.12. — On ne peut additionner que des matrices de même format.

2.3. Multiplication par un scalaire. —

Définition 2.13

Soient A = (aij ) une matrice de Mn,p (R) et λ un réel, la matrice λA est la matrice de Mn,p (R)
définie par : λA = (cij ) où
∀i ∈ {1, · · · , n} cij = λaij .
La matrice (−1)A de terme général (−aij ) se note plus simplement −A.

Exemple 2.14. — : Si l’on considère les matrices


   
1 2 3 0 3 4
A= , B=
0 1 2 1 0 −7

alors
     
3 6 9 1 5 7 3 3 5
3A = , A+B = , 3A − B = .
0 3 6 1 1 −5 −1 3 13

Proposition 2.15

Pour toutes matrices A, B et C de Mn,p (R), et pour tous λ et µ réels


• Propriétés de l’addition
— A + (B + C) = (A + B) + C,
— A + B = B + A,
— A + O = A,
— A + (−A) = 0.
• Propriétés du produit par un scalaire
— λ(µA) = (λµ)A = µ(λA),
— λ(A + B) = λA + λB,
— (λ + µ)A = λA + µA,
— 1A = A, 0 A = 0 et λ0 = 0.

Proposition 2.16

Pour toutes matrices A, B de Mn,p (R), et pour tout λ réel


t
(A + B) =t A +t B, t
(λA) = λt A, t t
( A) = A.

3. Produit matriciel
3.1. Définitions. —
3.1.1. Produit LC d’une matrice-ligne L par une matrice-colonne C. —
3. PRODUIT MATRICIEL 12

Définition 2.17 – Produit LC (ligne par colonne).


 
b1
Soient une matrice ligne L = (a1 , · · · , an ) de M1,n (R) et une matrice colonne C =  ...  de
 

bn
Mn,1 (R). La matrice produit LC est la matrice carrée de M1 (R) définie par :
 
b1 n
LC = (a1 , · · · , an )  ...  =
 X
ak bk .

k=1
bn
Cette matrice n’a qu’un seul terme, elle est identifiée à un réel.

 
 1
Exemple 2.18. — Si L = x y z et C =  2  alors LC = x + 2y + 3z.
3

Remarque 2.19. — Si L est une matrice-ligne de M1,p (R) et C une matrice colonne de Mq,1 (R), le
produit matriciel LC n’est possible que si p = q c’est-à-dire, si le nombre de colonnes de L est égal au
nombre de lignes de C.

Remarque 2.20. — Si L est une matrice-ligne de M1,n (R) et C une matrice colonne de Mn,1 (R), le
produit matriciel LC est le produit scalaire du vecteur t L avec le vecteur C.

3.1.2. Produit de deux matrices. —

Définition 2.21

Règle ligne-colonne pour calculer un produit matriciel Soient A ∈ Mp,n (R) et B ∈ Mn,q (R).
A = (aij )1≤i≤p 1≤j≤n et B = (bij )1≤i≤n 1≤j≤q . On écrit :
 
L1
A =  ...  où Li est la ième ligne de A, Li = (ai1 , · · · , ain ), 1 ≤ i ≤ p
 

Lp
et  
b1j
B = [C1 · · · Cq ] où Cj est la jème colonne de B, Cj =  ...  , 1 ≤ j ≤ q.
 

bnj
Alors la matrice produit AB est la matrice de Mp,q (R) dont le terme général dij est égal au produit
de la ième ligne de A par la jème colonne de B, c’est-à-dire :
n
X
∀i ∈ {1 · · · p} ∀j ∈ {1 · · · q}, dij = Li Cj = aik bkj
k=1
soit  
  L1 C1 ··· L1 Cj · · · L1 Cp
L1 
 ··· . ··· ··· ··· ··· 

 .. 
AB =  .  [C1 · · · Cq ] =  Li C1 ··· Li Cj · · · Li C p
 

··· . ··· ··· ··· ···
 
Lp  
Lp C1 ··· Lp Cj · · · Lp Cp
3. PRODUIT MATRICIEL 13

Remarque 2.22. — Le produit de deux matrices n’est pas toujours défini. Les formats des matrices
doivent être compatibles. Le produit AB n’a de sens que si le nombre de colonnes de A est égal au nombre
de lignes de B.

Exemple 2.23. — On peut adopter la disposition suivante afin d’éviter toute erreur :
 
2 1 0 1
B= 0 1 0 3 
1 0 1 1
   
1 2 3 5 3 3 10
A= AB =
0 1 2 2 1 2 5
AB a le même nombre de lignes que A et le même nombre de colonnes que B.

Proposition 2.24

Soient A ∈ Mp,n (R) et B ∈ Mn,q (R). Notons b~1 , · · · , b~q les vecteurs colonnes de la matrice B. Ce
sont des vecteurs de Rn .
La matrice produit AB est la matrice de Mp,q (R), dont les colonnes sont les vecteurs Ab~1 , · · · , Ab~q .
Autrement dit :

AB = A[b~1 , · · · , b~q ] = [Ab~1 , · · · , Ab~q ].

Démonstration. — Il suffit de reprendre la règle ligne colonne. En effet la j ème colonne du produit AB
L1 b~j

 . 
 .. 
 
vaut  Li b~j . Or Ab~j est une matrice colonne de format p × 1 et la i ème ligne est Li b~j .
 
 . 
 . 
 . 
Lp b~j
Exemple 2.25. —
  
1 2 3 2 0 0  
2 3 1 0 0 1 = ~a ~b ~c
3 1 2 1 0 0
avec     
1 2 3 2 5
~a = 2  3 1  0 = 5
 
3 1 2 1 8
  
1 2 3 0  
~b = 2 0
3 1   0 =

0
3 1 2 0
    
1 2 3 0 2
~c = 2 3 1 1 = 3
3 1 2 0 1
donc     
1 2 3 2 0 0 5 0 2
2 3 1 0 0 1 = 5 0 3
3 1 2 1 0 0 8 0 1
Cette règle présente un intérêt lorsque une matrice comporte une ou des colonnes de 0.
3. PRODUIT MATRICIEL 14

Proposition 2.26 – Interprétation des combinaisons linéaires de vecteurs.


 
x1
Soient A ∈ Mp,n (R) et ~x =  ...  un vecteur de Rn . Notons ~a1 , · · · , a~n les vecteurs colonnes de
 

xn
la matrice A. Ce sont des vecteurs de Rp .
Le produit de A par ~x noté A~x est la combinaison linéaire des vecteurs colonnes de A dans laquelle
les composantes de ~x (dans la base canonique) occupent la place des coefficients, c’est-à-dire :
 
x1 n
 ..  X
A~x = [~a1 , · · · , a~n ]  .  = x1~a1 + · · · + xn~an = xk a~k .
k=1
xn
Le produit A~x est donc un vecteur de Rp c’est-à-dire une matrice de Mp,1 (R).

Démonstration. — On note aij le terme courant de la matrice A. Le produit Y = A~x est une matrice
 
y1
colonne de format p lignes et une colonne. On note Y =  ...  et pour tout 1 ≤ i ≤ p, on a
 

yp
n
X
yi = aik xk
k=1

donc
 
n a1k n
xk  ...
X  X
Y = = xk a~k .

k=1 k=1
ank

Remarque 2.27. — Cette propriété permet de considérer une combinaison linéaire comme un produit
matriciel.

Exemple 2.28. —
 
  1        
1 0 0   1 0 0 1
2 =1 +2 +3 = .
2 1 0 2 1 0 4
3

Exemple 2.29. — Soit la famille de vecteurs ~u1 , ~u2 , ~u3 de R4 représentée par la matrice A =
1 5 1
 
 0 1 1 
 . Déterminons les composantes du vecteur ~y = 2~u1 − ~u2 + ~u3 . On écrit :
 3 0 1 
−1 2 1

−2
 
 
2  0 
~y = A  −1  = 
 5 

1
−3
  
1  4 5 6 7
Exemple 2.30. — C =  2  et L = 4 5 6 7 , alors CL = [4C, 5C, 6C, 7C] =  8 10 12 14 
3 12 15 18 21
3. PRODUIT MATRICIEL 15

3.2. Rôle des matrices identités ou unités. —

Définition 2.31

On appelle matrice unité (ou identité) d’ordre n, notée In , la matrice carrée ayant comme vecteurs
colonnes les vecteurs de la base canonique de Rn .
In = [~e1 , · · · , ~en ]
La matrice In est donc la matrice de d’ordre n dont tous les termes sont nuls, sauf ceux de la
diagonale qui sont égaux à 1.

Proposition 2.32

Pour toute matrice A ∈ Mp,n (R), AIn = A et Ip A = A.

Démonstration. — Notons ~a1 , · · · , a~n les vecteurs colonnes de la matrice A, on a

AIn = [A~e1 , · · · , A~en ].

Or A~ei = 1 a~i = a~i donc AIn = A.De plus

Ip A = [Ip~a1 , · · · , Ip~an ].
n
X
Or Ip a~i = aij e~j = a~i donc Ip A = A.
j=1

 
  1 2  
1 0 1 2 3 4
Exemple 2.33. — I2 = et si A =  0 4  et B = , alors AI2 = A et
0 1 0 1 0 1
5 0
I2 B = B. Remarquons que les produits I2 A et BI2 ne sont pas définis.

3.3. Bonnes propriétés du produit matriciel. — Le résultat suivant est admis

Proposition 2.34

Pour toutes matrices A de Mp,n (R) et B de Mn,q (R), pour tout λ réel :
• A(λB) = λ(AB) = (λA)B
• Pour toute matrice C de Mq,r (R), A(BC) = (AB)C On dit que le produit est associatif
• Pour toutes matrices E ∈ Mp,n (R), D ∈ Mn,q (R)
A(B + D) = AB + AD et (A + E)D = AD + ED
On dit que le produit est distributif par rapport à la somme .

t
(AB) =t B t A.

3.4. Pièges du produit matriciel. —

Exemple 2.35. — Si AB est calculable, BA n’est pas toujours calculable. Par exemple on peut faire le
produit d’une matrice A de format 2-3 par une matrice B de format 3-4 mais BA n’est pas calculable.
3. PRODUIT MATRICIEL 16

Exemple 2.36. — : Si A et B ne sont pas des matrices carrées et si AB et BA sont calculables alors AB
et BA ne sont pas de même format donc AB 6= BA.
 
  1 0
1 1 1
Par exemple pour A = , B =  −1 −1  alors :
1 1 1
0 1
 
  1 1 1
0 0
AB = BA =  −2 −2 −2 
0 0
1 1 1
Exemple
 — : Mêmesi A et B sont deux matrice d’ordre n en général AB 6= BA. Si A =
 2.37. 
1 1 1 1
, B= alors :
1 1 −1 −1
   
0 0 2 2
AB = BA =
0 0 −2 −2
On peut avoir AB = O sans que A = O ou B = O.
Exemple 2.38. — : On nepeut pas AB = AC.
 simplifier   Il se peut  et B 6= C.
 que l’on ait AB = AC
1 1 1 0 2 2 0 −1
Par exemple si A = , B= , C= on a : AB = AC = et
1 1 −1 −1 −2 −3 0 −1
pourtant B 6= C.
CHAPITRE 3

SYSTÈMES D’ÉQUATIONS LINÉAIRES

1. Définitions et écriture matricielle

Définition 3.1

On appelle équation linéaire à p inconnues (x1 , x2 , · · · , xp ) une équation de la forme : a1 x1 + a2 x2 +


· · · + ap xp = b où a1 , a2 , · · · , ap et b sont des réels.
On appelle système linéaire de n équations à p inconnues (x1 , x2 , · · · , xp ) tout système (S) de la
forme :

 a11 x1 + a12 x2 + · · · a1p xp = b1

.. ..
 . = .
an1 x1 + an2 x2 + · · · anp xp = bn

où pour tout 1 ≤ i ≤ n et 1 ≤ j ≤ p, aij ∈ R et bi ∈ R.


Les inconnues de (S) sont x1 , · · · , xi , · · · , xp .
Les coefficients de (S) sont les réels aij , ils sont affectés d’un double indice, le premier, i, est l’indice
de l’équation, le second, j, l’indice de l’inconnue : aij est le coefficient de la jème inconnue dans la
ième équation.
 
b1
~  .. 
Le second membre de (S) est le vecteur b =  .  de Rn .
bn
(S) est dit homogène lorsque le second membre est nul.
Le système homogène associé à (S) est le système (S 0 ) obtenu à partir de (S) en remplaçant le second
membre par le vecteur nul de Rn .
 
x1
Une solution de (S) est un vecteur ~x =  ...  de Rp qui vérifie les n équations.
 

xp
Résoudre (S) c’est déterminer toutes les solutions de (S). Il n’y a que trois situations
• (S) est dit impossible s’il n’admet aucune solution.
• (S) est dit indéterminé s’il admet plusieurs solutions.
• (S) admet une solution unique.
De plus on dit que (S)est un système de Cramer si n = p et s’il admet une solution unique.
Deux systèmes (S) et (S 0 ) sont dits équivalents s’ils ont le même ensemble de solutions.
2. SYSTÈMES FACILES À RÉSOUDRE 18

Définition 3.2

On appelle A la matrice des coefficients du système A = (aij )1≤i≤n,1≤j≤p , La ième ligne de la


matrice A contient les coefficients de la ième équation. La jème colonne de la matrice A contient les
coefficients de la jème inconnue. Le système s’écrit
A~x = ~b.

Exemple 3.3. — Soit le système 


 2x + y + z = 2
y + 2z = −1

5z = 5
La matrice du système est
 
2 1 1
A = 0 1 2
0 0 5
et    
x 2
~x = y  , ~b = −1 .
z 5

2. Systèmes faciles à résoudre


2.1. Systèmes triangulaires. —

Définition 3.4

Un système (S) est dit triangulaire si la matrice du système est triangulaire sans valeurs nulles sur
la diagonale.

On admet le résultat suivant :

Proposition 3.5

Tout système linéaire triangulaire de n équations à n inconnues admet une solution unique, c’est un
système de Cramer.
En particulier l’unique solution d’un système linéaire triangulaire homogène est le vecteur nul.

Exemple 3.6. — Soit le système 


 2x + y + z = 2
y + 2z = −1

5z = 5
 
2 1 1
C’est un système triangulaire car la matrice A = 0 1 2 est triangulaire sans valeurs nulles sur la
0 0 5
diagonale.
Ce système se résout "de proche en proche" (en commençant par la dernière équation) par la méthode
dite de "substitutions remontantes". La dernière équation donne z = 1. En reportant dans la deuxième on
trouve y + 2 = −1 ce qui donne y = −3. En reportant les valeurs trouvées pour z et y dans la première
2. SYSTÈMES FACILES À RÉSOUDRE 19

équation on obtient : 2x − 3 + 1 = 2 soit 2x = 4 c’est-à-dire x = 2. le système admet une solution unique


x = 2 , y = −3, z = 1 .

2.2. Systèmes échelonnés. —

Exemple 3.7. —

x1 + x2 + 2x3 + x4 = 5
2x3 − 4x4 = 0
Ce système se ramène à un système triangulaire en l’écrivant sous la forme :
 
x1 + 2x3 = 5 − x2 − x4 x1 = 5 − x2 − 5x4
⇐⇒
x3 = 2x4 x3 = 2x4
Le dernier système admet une infinité de solutions. Il est indéterminé. Une solution s’obtient en choisissant
arbitrairement des valeurs pour x2 et x4 et en calculant les valeurs correspondantes de x1 et x3 . On dit que
x2 et x4 sont des paramètres.
On peut écrire l’ensemble des solutions sous la forme suivante, dite représentation paramétrique du
système :
5 − x2 − 5x4
 
 x2 
{  , x2 ∈ R, x4 ∈ R}
 2x4 
x4
 
1 1 2 1
La matrice du système s’écrit : A = . Elle n’est pas triangulaire mais vérifie la définition
0 0 2 −4
suivante.

Définition 3.8
Une matrice échelonnée en ligne est une matrice telle que
• chaque ligne commence par plus de zéros que la ligne précédente, le premier élément non nul
de chaque ligne s’appelle pivot.
• Si une ligne est nulle, alors toutes les lignes suivantes sont nulle.

Exemple 3.9. — Les deux matrices des systèmes précédents sont échelonnées en ligne. La première a 3
pivots. La deuxième a 2 pivots.
1 2 0 4
 
   
1 2 3 4 5 1 2 0 0 0 1 0 3
Les matrices B = 0 0 1 2 3, C = 0 3 0 0  et D = 
0
 sont échelonnées
0 0 1
0 0 0 0 1 0 0 0 0
0 0 0 0
en ligne. B a 3 pivots. C a 2 pivots. D a 3 pivots.
1 2 0 4
 
 
0 0 1 2
  0 2 3 1
0 2 0 4
Les matrices E = 0 0 1 3, F = 5 0 1 2 , G = 0 4 0 5 ne sont pas échelonnées en
  
6 0 0
0 0 0 1
ligne.
Les pivots d’une matrice échelonnée en ligne forment un échelon (une marche) d’un escalier qui descend
du haut à gauche vers le bas à droite. La matrice E n’est pas échelonnée en lignes car on saute brutalement
deux marches !
Les matrices triangulaires supérieures n’ayant aucun zéro sur la diagonale principale sont échelonnées en
ligne.
3. OPÉRATIONS ÉLÉMENTAIRES SUR LES LIGNES 20

Par contre pour les matrices triangulaires supérieures qui ont des zéros sur la diagonale principale. Il faut
raisonner au cas par cas. La matrice D est échelonnée en ligne. La matrice E n’est pas échelonnée en ligne.

Proposition 3.10

Pour une matrice échelonnée en ligne comportant n lignes et p colonnes, on a


nombre de pivots ≤ min(n, p).

Démonstration. — Pour une matrice échelonnée en ligne, le nombre de pivots est égal au nombre de lignes
non nulles. Donc le nombre de pivots est inférieur au nombre de lignes.
Par ailleurs, tous les éléments d’une colonne situés sous un pivot sont nuls car un pivot est le premier
élément non nul d’une ligne. Les lignes suivantes doivent avoir au moins un zéro de plus en tête. Donc le
nombre de pivots est inférieur au nombre de colonnes.

Définition 3.11

Un système (S) est dit échelonné si sa matrice est échelonnée en ligne.


Un système triangulaire est échelonné.

La méthode de Gauss, appelée aussi méthode du pivot, est une méthode systématique qui consiste, en
un nombre fini d’étapes, à transformer un système (S) quelconque en un système échelonné (T ) équivalent
à (S).
A chaque étape de cette méthode, nous utiliserons les opérations sur les lignes, dites opérations élémen-
taires, et définies dans le paragraphe suivant.

3. Opérations élémentaires sur les lignes


3.1. Définition et propriété. — Soit (S) un système de n équations à p inconnues. Pour tout entier
1 ≤ i ≤ n, on note Li la ième équation de (S), appelée aussi la ième ligne de (S).

Définition 3.12
On appelle opération élémentaire sur les lignes l’une des trois transformations suivantes :
• cadrage : on multiplie la ième ligne par a (a 6= 0), cette opération est codée Li ← aLi .
• échange : on échange les lignes i et j de (S), (i 6= j), opération codée par : Li ↔ Lj .
• remplacement : on ajoute à la ligne i, la ligne j (i 6= j) multipliée par a, opération codée
Li ← Li + aLj .

On admet le résultat suivant :

Proposition 3.13

On obtient un système équivalent à (S) en conservant une équation Li et en ajoutant à toutes les
autres (sauf à Li ) un multiple de Li .
Li ← Li et pour j 6= i, Lj ← aLj + bLi avec a 6= 0, b ∈ R.
3. OPÉRATIONS ÉLÉMENTAIRES SUR LES LIGNES 21

En effectuant une succession d’étapes, on obtient à chaque fois un système qui a le même ensemble de
solutions que le système précédent, donc que le système initial.

Exemple 3.14. — : Soit à résoudre le système S


 x1 + 8x2 − 2x3 = −4
3x1 + 15x2 + 7x3 = 30

x1 + 4x2 + 2x3 = 8
On transforme ce système S en un sytème triangulaire équivalent.


 x1 + 8x2 − 2x3 = −4 L1 ← L1
(S) ⇐⇒ −9x2 + 13x3 = 42 L2 ← L2 − 3L1
−4x2 + 4x3 = 12 L3 ← L3 − L1


 x1 + 8x2 − 2x3 = −4 L1 ← L1
⇐⇒ x2 − x3 = −3 L2 ← −1
4 L3
−9x2 + 13x3 = 42 L3 ← L2


 x1 + 8x2 − 2x3 = −4 L1 ← L1
⇐⇒ x2 − x3 = −3 L2 ← L2
= 15 L3 ← L3 + 9L2

4x3

On a donc un système triangulaire dont la résolution donne



 x1 = −5/2
x = 3/4
 2
x3 = 15/4

Exemple 3.15. — On considère le système S


x+y = 2
x−y = 3
et le système obtenu par des opérations sur les lignes

2x = 5 L1 ← L1 + L2
2x = 5 L2 ← L2 + L1

Il est clair que ces deux systèmes ne sont pas équivalents. En effet on modifie les lignes simultanément, on
n’applique pas la proposition précédente.

3.2. Disposition pratique des calculs. — Nous pouvons au cours de cette résolution faire abstraction
des inconnues x1 , x2 , x3 pour ne travailler que sur les coefficients, ce qui donne au départ le tableau :

1 8 −2 −4 L1
3 15 7 30 L2
1 4 2 8 L3

Cette écriture met en évidence la matrice du système et son second membre . La matrice ainsi obtenue est
appelée matrice augmentée du système. C’est la juxtaposition de la matrice A du système et de la matrice
colonne b, du second membre. On notera A0 , cette matrice augmentée A0 = [A, b, ].
On opère alors sur les lignes de la matrice augmentée (qui sont les lignes du système). On réécrit le
système après la dernière étape pour la résolution finale.
4. MÉTHODE DE GAUSS 22

1 8 −2 −4 L1
3 15 7 30 L2
1 4 2 8 L3
1 8 −2 −4 L1
0 −9 13 42 L2 ← L2 − 3L1
0 −4 4 12 L3 ← L3 − L1
1 8 −2 −4 L1
0 1 −1 −3 L2 ← −L3 /4
0 −9 13 42 L3 ← L2
1 8 −2 −4 L1
0 1 −1 −3 L2
0 0 4 15 L3 ← L3 + 9L2
donc le système que l’on résout directement

 x1 + 8x2 − 2x3 = −4
x2 − x3 = −3

4x3 = 15
Dans la suite, nous traiterons tous les calculs de cette façon.

4. Méthode de Gauss
4.1. Exposé de la méthode. — Soit le système (S) de n équations et p inconnues.

 a11 x1 + a12 x2 + · · · a1p xp
 = b1
.. ..
 . = .
an1 x1 + an2 x2 + · · · anp xp

= bn
On note A la matrice du système et A0 la matrice augmentée. On suppose que l’un au moins des coefficients
de la première colonne est non nul, sinon l’inconnue x1 disparait.
A l’aide des opérations élémentaires sur les lignes de la matrice augmentée, on transforme le système (S)
en un système échelonné équivalent.
• étape 1 : choix du pivot
Par hypothèse l’un au moins des coefficients de la première colonne est non nul. On choisit l’un d’entre
eux : aio 1 . (si possible un coefficient égal à 1). aio 1 est alors le premier pivot.
Si i0 6= 1, on échange les lignes L1 et Lio .
Le premier pivot est donc l’élément a11 de la matrice obtenue après l’opération d’échange.
• étape 2 : élimination
La (première) ligne contenant le pivot ne sera plus modifiée. On se sert du pivot pour faire apparaitre,
avec des opérations de remplacement, des zéros sous le pivot de la première colonne ce qui revient à
éliminer la première inconnue des lignes L2 à Ln .
• étape 3 : boucle
A l’issue des deux étapes précédentes on a obtenu une matrice dont la première ligne et la première
colonne sont bien celles d’une matrice échelonnée. Cette ligne et cette colonne ne seront plus modifiées.
On va appliquer les étapes précédentes ( 1 et 2) à la sous-matrice obtenue en enlevant la première
ligne et la première colonne . On distingue deux cas.
— cas 1 : la première colonne de la sous-matrice est non nulle. On applique les étapes 1 et 2 à la
sous-matrice .
4. MÉTHODE DE GAUSS 23

— cas 2 : la première colonne de la matrice est nulle. On recherche alors dans la sous-matrice la
colonne non nulle la plus à gauche. Supposons que ce soit la jème. On appli que les étapes 1 et 2
à la nouvelle sous-matrice dont la première colonne est non nulle.
• Au terme de cette deuxième itération on recommence l’étape 3 avec la nouvelle sous-matrice obtenue
jusqu’à ce qu’il n’y ait plus de lignes ou plus de lignes non nulles dans la matrice augmentée. La
dernière matrice augmentée obtenue est donc échelonnée en ligne.
Comme chaque itération de la boucle travaille sur une matrice qui a au moins une colonne de
moins que la précédente, il est clair qu’au bout d’au plus p itérations on aura construit une matice
échelonnée.

4.2. Réduite de Gauss d’une matrice A. — La méthode précédente qui permet d’obtenir une matrice
échelonnée peut s’appliquer à n’importe quelle matrice. D’où la définition suivante :

Définition 3.16
Toute matrice échelonnée en ligne obtenue par application de la méthode de Gauss aux lignes d’une
matrice A, est appelée réduite de Gauss de A. Une réduite de Gauss n’est pas unique, elle dépend
des opérations élémentaires effectuées.

On admet le résultat suivant

Proposition 3.17

Si R et R0 sont deux réduites de Gauss d’une même matrice A, alors R et R0 ont le même nombre
de pivots.

Proposition 3.18

Soit R une réduite de Gauss de A, alors on a deux systèmes équivalents


A~x = ~b ⇐⇒ R~x = b~0 .

4.3. Exemples. —

Exemple 3.19. — : Soit à résoudre le système


 x+y+z = 3
2x + y + 3z = 1
x − y + 3z

= 5

   
1 1 1 3
La matrice du système est A = 2 1 3 et ~b = 1. La méthode donne
1 −1 3 5
4. MÉTHODE DE GAUSS 24

1 1 1 3 L1
2 1 3 1 L2
1 −1 3 5 L3
1 1 1 3 L1
0 −1 1 −5 L2 ← L2 − 2L1
0 −2 2 2 L3 ← L3 − L1
1 1 1 3 L1
0 −1 1 −5 L2 ← L2
0 0 0 12 L3 ← L3 − 2L2
 
1 1 1
Une réduite de A est R = 0 −1 1 qui possède deux pivots. Pour terminer la résolution, on revient
0 0 0
au système

 x+y+z = 3
−y + z = −5

0 = 12
La dernière équation se lit 0 = 12, le système est donc impossible.

Exemple 3.20. — : Soit à résoudre le système



 x+y+z+t = 4
x + y + 6z + 4t = 3

2x + 2y + 3z = 5

1 1 1 1 4 L1
1 1 6 4 3 L2
2 2 3 0 5 L3
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2 − L1
0 0 1 −2 −3 L3 ← L3 − 2L1
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 −13 −14 L3 ← 5L3 − L2
   
1 1 1 1 1 1 1 1
On en déduit qu’une réduite de A = 1 1 6 4 est R = 0 0 5 3  qui possède trois pivots.
2 2 3 0 0 0 0 −13
Le système initial est équivalent à

 x+y+z+t = 4
5z + 3t = −1
−13t = −14

En considérant y comme un paramètre, le système est triangulaire.


49
Le système admet une infinité de solutions : x = y + 13 , z = − 11 14
13 et t = 13 .
On dit que le système est indéterminé et l’ensemble des solutions s’écrit sous forme paramétrique :
49 11 14
{(y + , y, − , ), y ∈ R}
13 13 13
4. MÉTHODE DE GAUSS 25

Exemple 3.21. — : Soit à résoudre le système



 x+y+z+t = 4

x + y + 6z + 4t = 3


 2x + 2y + 3z = 5

x + y + 3t = 7

1 1 1 1 4 L1
1 1 6 4 3 L2
2 2 3 0 5 L3
1 1 0 3 7 L4
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2 − L1
0 0 1 −2 −3 L3 ← L3 − 2L1
0 0 −1 2 3 L4 ← L4 − L1
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 −13 −14 L3 ← 5L3 − L2
0 0 0 13 14 L4 ← 5L4 + L2
1 1 1 1 4 L1
0 0 5 3 −1 L2 ← L2
0 0 0 13 14 L3 ← −L3
0 0 0 0 0 L4 ← L4 + L3
Le système est équivalent à

 x+y+z+t = 4

5z + 3t = −1


 13t = 14

0 = 0
La quatrième équation est redondante. Le système est équivalent à
 
 x+y+z+t = 4  x = −y + 49/13
5z + 3t = −1 ⇐⇒ z = −11/13
 
13t = 14 t = 14/13
Le système admet une infinité de solutions, il est indéterminé et l’ensemble des solutions s’écrit sous
forme paramétrique :
49 11 14
{(y + , y, − , ), y ∈ R}.
13 13 13
C’est le même ensemble de solutions que dans l’exemple 3.4.5, les deux systèmes sont donc équivalents.

4.4. Choix des pivots. — On choisit le pivot le plus simple (égal à 1 si possible) et le cas échéant
indépendant des paramètres pour éviter de commencer une discussion trop rapidement.
Exemple 3.22. — : système avec paramètre.
Soit le système
ax − z + t

 = a

x − y + at = a


 −x + y + az = −a

ay + z − t = a
où a est un paramètre réel. Il s’agit de déterminer le nombre de solutions en fonction de a. On échange
L1 et L2 de façon à avoir un pivot constant non nul.
4. MÉTHODE DE GAUSS 26

a 0 −1 1 a L1
1 −1 0 a a L2
−1 1 a 0 −a L3
0 a 1 −1 a L4
1 −1 0 a a L1 ↔ L2
a 0 −1 1 a L2 ↔ L1
−1 1 a 0 −a L3 ← L3
0 a 1 −1 a L4 ← L4
1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2 − aL1
0 0 a a 0 L3 ← L3 + L1
0 a 1 −1 a L4 ← L4

On commence la discussion :
1. Si a 6= 0, a est un pivot donc

1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2
0 0 1 1 0 L3 ← a1 L3
0 0 2 −2 + a2 a2 L4 ← L4 − L2
1 −1 0 a a L1
0 a −1 1 − a2 a − a2 L2 ← L2
0 0 1 1 0 L3 ← L3
0 0 0 −4 + a2 a2 L4 ← L4 − 2L3

(a) Si a2 − 4 6= 0, alors on a une réduite de Gauss de A avec 4 pivots . Il admet une solution unique
que l’on calcule par le principe de remontée . Le système est de Cramer.
(b) Si a2 − 4 = 0 , alors en revenant au système, la dernière équation s’écrit 0 = 4 donc le système
est impossible.

2. Si a = 0, on a

1 −1 0 0 0 L1
0 0 −1 1 0 L2 ← L2
0 0 0 0 0 L3 ← L3
0 0 1 −1 0 L4 ← L4
1 −1 0 0 0 L1
0 0 −1 1 0 L2 ← L2
0 0 0 0 0 L3 ← L3
0 0 0 0 0 L4 ← L4 + L2

On revient au système


x−y = 0
−z + t = 0

Le système est alors indéterminé et l’ensemble des solutions s’écrit sous forme paramétrique :

{(y, y, z, z), y ∈ R z ∈ R}
5. APPLICATION AUX FAMILLES DE VECTEURS 27

4.5. Cas général : résolution du système. — Le système A~x = ~b est équivalent au système R~x = ~b0
où R est une réduite de Gauss de A. On note r le nombre de pivots notés a1 , · · · , ar réels non nuls. On
distingue plusieurs cas
• Si r = n, alors la matrice R s’écrit

a1 ··· ··· ··· ···


 
0 ··· a2 · · · · · ·
R= 
0 ··· 0 · · · · · ·
0 0 0 ar · · ·

En revenant au système, on obtient que


— si r = p, le système est de Cramer, il y a une unique solution,
— si r < p, le système est indéterminé.
• Si r < n, alors les n − r dernières lignes de la matrice R sont nulles et R s’écrit
 
a1 · · · · · · · · · · · ·
 0 ··· a · · · · · ·
 2 
R=0 0 0 ar · · ·
 
0 ··· 0 
 
0 0
0 0 0 ··· 0

En revenant au système, on obtient que


— si ∃i ∈ [[r + 1, n]] tel que b0i 6= 0, alors le système est impossible,
— si ∀i ∈ [[r + 1, n]] tel que b0i = 0, alors le système est indéterminé si r < p et admet une unique
solution si r = p.
On en déduit le résultat suivant pour le cas particulier d’un système homogène.

Proposition 3.23

On considère un système homogène A~x = ~0, où A est une matrice de format n × p. Soit r le nombre
de pivots d’une réduite de A. Alors
Le système admet une solution unique si et seulement si r = p.
Le système est indéterminé si et seulement si r < p.
Le système n’est jamais impossible.

5. Application aux familles de vecteurs


5.1. Interprétation vectorielle d’un système. — On considère un système dont l’écriture matricielle
est
A~x = ~b
   
x1 b1
 ..  ~  .. 
où A est une matrice de format n × p, ~x =  .  et b =  . . On associe à la matrice A une famille de
xp bn
vecteurs (~u1 , · · · , ~up ) de Rn constituée des vecteurs colonnes de A. Le système s’écrit aussi :

x1 ~u1 + · · · + xp ~up = ~b.

Ainsi résoudre le système revient à chercher si le vecteur ~b est combinaison linéaire des vecteurs (~u1 , · · · , ~up ).
Une solution du système est formée des coefficients de la combinaison linéaire. Ainsi le système a au moins
une solution si et seulement si ~b ∈ Vect[(] ~u1 , · · · , ~up ).
5. APPLICATION AUX FAMILLES DE VECTEURS 28

5.2. Caractérisation des familles libres. —

Définition 3.24

Soit U = (u~1 , · · · , u~p ) une famille de p vecteurs de Rn . On dit que la famille U est libre si
∀(λ1 , · · · , λp ) ∈ Rp , λ1 u~1 + · · · + λp u~p = ~0 ⇐⇒ ∀1 ≤ i ≤ p, λi = 0.
Si la famille n’est pas libre, on dit qu’elle est liée. Dans ce cas, il existe p réels λ1 , · · · , λp non tous
nuls tel que λ1 u~1 + · · · + λp u~p = ~0. Cette équation est appelée équation de liaison.

Exemple 3.25. — Soit ~u un vecteur non nul de Rn , alors (~u) est une famille libre de Rn . En effet pour
tout réel a, l’égalité a~u = ~0 entraine a = 0.

Exemple 3.26. — Toute famille U = (u~1 , · · · , u~p ) de Rn contenant le vecteur nul est liée. En effet suppo-
sons que u~p = ~0 alors
0u~1 + · · · + 0~up−1 + 1u~p = 0.
Il y a donc une combinaison linéaire des vecteurs de la famille U qui est nulle avec des coefficients non tous
nuls.

Proposition 3.27

Soit (~u1 , · · · , ~up ) de Rn une famille de p vecteurs de Rn , soit A la matrice représentant cette famille
de vecteurs dans la base canonique, R une réduite de Gauss de A.
La famille (~u1 , · · · , ~up ) est libre si et seulement si R a p pivots.

Démonstration. — Chercher si la famille (~u1 , · · · , ~up ) de vecteurs de Rn est libre revient à résoudre l’équa-
tion vectorielle
λ1 ~u1 + · · · + λp ~up = ~0,
où les inconnues sont les réels λ1 , · · · , λp .
Cette équation s’écrit avec A = [~u1 , · · · , ~up ]
  
λ1 0
 ..   .. 
A  .  = . .
λp 0
On obtient donc un système d’équations linéaires homogènes. Soit R la réduite de A, on note r le nombre
de pivots . On applique la proposition 3.4.8, on en déduit que
• si r < p, alors il y a une infinité de solutions, la famille n’est pas libre.
• si r > p, ce cas est impossible car le nombre de pivot est inférieur au nombre de lignes et au nombre
de colonnes.
• si r = p, alors le système a une unique solution qui est λ1 = · · · = λp = 0 donc la famille est libre.

Exemple 3.28. — La base canonique de Rn est libre. En effet la matrice associé est l’identité.

−1
     
1 0
Exemple 3.29. — Dans R3 , on considère les vecteurs v~1 = 2 et de ~v2 = −2 et v~3 = 0. La
3 −3 1
famille (v~1 , v~2 , v~3 ) est-elle libre ?
5. APPLICATION AUX FAMILLES DE VECTEURS 29

Solution : pour savoir si la famille est libre, on considère une combinaison linéaire de v~1 , v~2 , v~3 qui est nulle :
xv~1 + y v~2 + z v~3 = ~0 où (x, y, z) ∈ R3 .
 
x
Soit A la matrice de cette famille de vecteurs, l’égalité précédente équivaut à A y  = ~0. Cherchons une

z
réduite de Gauss R de A.
1 −1 0 L1
2 −2 0 L2
3 −3 1 L3
1 −1 0 L1
0 0 0 L2 ← L2 − 2L1
0 0 1 L3 ← L3 − 3L1
1 −1 0 L1
0 0 1 L2 ← L3
0 0 0 L3 ← L2
Le système à résoudre est
 
x−y = 0 x = y
⇐⇒
z = 0 z = 0
Le système est indéterminé, on a x = y = 1 et z = 0 une solution donc
~v1 − ~v2 + 0~v3 = ~0.
La famille (~u, ~v , w)
~ est donc liée.
On peut remarquer que la matrice R possède 2 pivots et 3 colonnes ce qui implique que la famille est
liée.

Définition 3.30
On dit que deux vecteurs ~x et ~y de Rn sont colinéaires s’il existe un réel a tel que ~x = a~y ou ~y = a~x.

Proposition 3.31

(~u, ~v ) est libre si et seulement si ~u et ~v sont non colinéaires.

Démonstration. — On démontre que (~u, ~v ) est liée si et seulement si ~u et ~v sont colinéaires. En effet si (~u, ~v )
est liée, il existe deux réels a et b dont l’un est non nul tel que a~u + b~v = ~0. Si a est non nul alors ~u = − ab ~v
et si b est non nul alors ~v = − ab ~u, dans les deux cas les vecteurs sont colinéaires. Réciproquement si ~u et ~v
sont colinéaires, alors il existe un réel a tel que ~u = a~v ou ~v = a~u, dans les deux cas (~u, ~v ) est liée.
     
1 2 0
Exemple 3.32. — Dans R3 , v~1 = 0 et ~v2 = 0 et v~3 = 1. Comme v~2 = 2v~1 , v~1 et v~2 sont
2 4 1
colinéaires donc la famille (v~1 , v~2 ) est liée. Par contre v~1 et v~3 sont non colinéaires donc la famille (v~1 , v~3 )
est libre.
     
0 1 1
Exemple 3.33. — Dans R3 , on considère les vecteurs v~1 = 1 et ~v2 = 0 et v~3 = 2. La famille
2 2 0
(v~1 , v~2 , v~3 ) est-elle libre ?
5. APPLICATION AUX FAMILLES DE VECTEURS 30

Solution : pour savoir si la famille est libre, on considère une combinaison linéaire de v~1 , v~2 , v~3 qui est nulle :
xv~1 + y v~2 + z v~3 = ~0.
Soit A la matrice de la famille de vecteurs (v~2 , v~1 , v~3 ) en modifiant l’ordre, l’égalité précédente équivaut à
 
x
A y  = ~0. Cherchons une réduite de Gauss R de A.
z
1 0 1 L1
0 1 2 L2
2 2 0 L3
1 0 1 L1
0 1 2 L2
0 2 −2 L3 ← L3 − 2L1
1 0 1 L1
0 1 2 L2
0 0 −6 L3 ← L3 − 2L1
La matrice R possède 3 pivots et 3 colonnes ce qui implique que la famille est libre.
     
0 1 3
Exemple 3.34. — Dans R3 , on considère les vecteurs v~1 = 1 et ~v2 = 0 et v~3 =  2 . La famille
2 2 10
(v~1 , v~2 , v~3 ) est-elle libre ?
Solution : pour savoir si la famille est libre, on considère une combinaison linéaire de v~1 , v~2 , v~3 qui est nulle :
av~1 + bv~2 + cv~3 = ~0.
Soit A la matrice de la famille de vecteurs (v~2 , v~1 , v~3 ) en modifiant l’ordre, l’égalité précédente équivaut à
 
x
A y  = ~0. Cherchons une réduite de Gauss R de A.

z
1 0 3 L1
0 1 2 L2
2 2 10 L3
1 0 3 L1
0 1 2 L2
0 2 4 L3 ← L3 − 2L1
1 0 3 L1
0 1 2 L2
0 0 0 L3 ← L3 − 2L1
La matrice R possède 2 pivots et 3 colonnes ce qui implique que la famille est liée.
Pour obtenir une équation de liaison, on revient sur le système

x + 3z = 0
y + 2z = 0
équivalent au système

x = −3z
y = −2z
On en conclut que 2v~1 + 3v~2 − v~3 = ~0.
On peut remarquer que les vecteurs sont deux à deux non colinéaires.
5. APPLICATION AUX FAMILLES DE VECTEURS 31

On admet le résultat suivant

Proposition 3.35

Toute sous-famille non vide d’une famille libre est libre.

Proposition 3.36

Toute famille libre de Rn admet au plus n vecteurs ou encore toute famille de p vecteurs de Rn avec
p > n est une famille liée.

Démonstration. — Si le nombre de vecteurs p est strictement supérieur à n, alors le nombre de pivots ne


sera jamais égal à p puisque le nombre de pivot est inférieur au nombre de lignes et au nombre de colonnes
d’où le résultat.

5.3. Caractérisation des familles génératrices de Rn . —

Définition 3.37

Soit U = (u~1 , · · · , u~p ) une famille de p vecteurs de Rn . On dit que U est une famille génératrice de
Rn si tout vecteur ~x de Rn peut s’écrire comme une combinaison linéaire de vecteurs de U soit
∀~x ∈ Rn , ∃(λ1 , · · · , λp ) ∈ Rp , ~x = λ1 u~1 + · · · + λp u~p .

Proposition 3.38

Soit (~u1 , · · · , ~up ) de Rn une famille de p vecteurs de Rn , soit A la matrice représentant cette famille
de vecteurs dans la base canonique, R une réduite de Gauss de A.
La famille est génératrice de Rn si et seulement si R a n pivots.

Démonstration. — Chercher si la famille (~u1 , · · · , ~up ) de vecteurs de Rn est génératrice de Rn revient à


résoudre l’équation vectorielle
x1 ~u1 + · · · + xp ~up = ~b,
où les inconnues sont les réels x1 , · · · , xp et ~b un vecteur quelconque de Rn .
Cette équation s’écrit avec A = [~u1 , · · · , ~up ]
   
x1 b1
 ..   .. 
A .  =  . .
xp bn
On obtient donc un système d’équations linéaires. Soit R la réduite de A, on note r le nombre de pivots.
En revenant au système, on distingue alors plusieurs cas
• si r < n, alors R possède n − r lignes nulles donc ces lignes donnent les équations 0 = b0i pour
r + 1 ≤ i ≤ n. Ainsi pour des vecteurs ~b tels que b0n 6= 0, le système n’a pas de solutions donc la
famille n’est pas génératrice de Rn .
• si r > n, ce cas est impossible car le nombre de pivot est inférieur au nombre de lignes et au nombre
de colonnes.
5. APPLICATION AUX FAMILLES DE VECTEURS 32

• si r = n, alors la résolution du système donne au moins une solution donc la famille est génératrice
de Rn .

Exemple 3.39. — La base canonique est une famille génératrice de Rn . En effet tout vecteur ~x de Rn est
combinaison linéaire des vecteurs de la base canonique ou encore la matrice associée est l’identité.

   
1 −1
Exemple 3.40. — Dans R2 , considérons la famille U = (u~1 , u~2 ) où u~1 = et u~2 = . La famille U
1 1
2
 de R . En effet soit A la matrice associée à cette famille de vecteurs, une réduite
est une famillegénératrice
1 −1
de A est R = donc il y a deux pivots pour deux lignes, ainsi la famille U est donc génératrice de
0 2
R2 .

−1
   
1
3
Exemple 3.41. — Dans R , considérons la famille U = (u~1 , u~2 ) où u~1 = 1 et u~2 =
   1 . La famille
1 1
U n’est pas une famille génératrice de R3 . En effet soit A la matrice associée à cette famille de vecteurs,
c’est une matrice 3 × 2 donc le nombre de pivot est au maximum 2 donc ne peut être égal à 3.

Exemple 3.42. — Dans la remarque 1.4.13, la famille (g~1 , g~2 , g~3 ) est une famille génératrice de F .

Proposition 3.43

Toute famille génératrice de Rn contient au moins n vecteurs ou encore toute famille de p vecteurs
de Rn avec p < n n’est pas une famille génératrice de Rn .

Démonstration. — Si p < n, alors le nombre de pivots ne sera jamais égal à n donc la famille n’est pas
génératrice de Rn .

5.4. Exemples. — Pour étudier si une famille de p vecteurs est libre, liée, génératrice de Rn , il suffit de
chercher une réduite de Gauss R de la matrice A associée à cette famille de vecteurs. On peut alors soit
revenir au système soit compter les pivots de R. Il convient aussi d’éliminer les cas évidents (p > n, famille
liée) ou (p < n famille non génératrice de Rn ).

1 2 3
     
3 4 5
Exemple 3.44. — Les trois vecteurs ~u =  5, ~v = 8 et w
   ~ = 11 forme-t-il une famille libre de

1 1 1
R4 ?
On considère une combinaison linéaire de ces vecteurs égale au vecteur nul :

~ = ~0,
x~u + y~v + z w

où (x, y, z) ∈ R3 .
5. APPLICATION AUX FAMILLES DE VECTEURS 33

 
x
Soit A la matrice de cette famille de vecteurs, l’égalité précédente équivaut à A y  = ~0. Cherchons une

z
réduite de Gauss R de A.

1 2 3 L1
3 4 5 L2
5 8 11 L3
1 1 1 L4
1 2 3 L1
0 −2 −4 L2 ← L2 − 3L1
0 −2 −4 L3 ← L3 − 5L1
0 −1 −2 L4 ← L4 − L1
1 2 3 L1
0 1 2 L2 ← −L4
0 0 0 L3 ← L3 − 2L4
0 0 0 L4 ← L2 − 2L4

Le système à résoudre est


 
x + 2y + 3z = 0 x = z
⇐⇒
y + 2z = 0 y = −2z

Le système est indéterminé, on a x = z = 1 et y = −2 une solution donc

~ = ~0.
~u − 2~v + w

La famille (~u, ~v , w)
~ est donc liée.
On peut remarquer que la matrice R possède 2 pivots et 3 colonnes ce qui implique que la famille est
liée.
     
1 2 3
Exemple 3.45. — Les trois vecteurs ~u = 3, ~v = 4 et w
~ = 5 forme t il une famille génératrice
1 1 1
3
de R ?
Si la famille est génératrice alors

∀~b ∈ R3 , ∃(x, y, z) ∈ R3 , x~u + y~v + z w


~ = ~b,
 
x
soit A y  = ~b. Cherchons une réduite de A

z

1 2 3 L1
3 4 5 L2
1 1 1 L3
1 2 3 L1
0 −2 −4 L2 ← L2 − 3L1
0 −1 −2 L3 ← L3 − L1
1 2 3 L1
0 1 2 L2 ← −L3
0 0 0 L3 ← L2 − 2L3
5. APPLICATION AUX FAMILLES DE VECTEURS 34

 
b1
~
En posant b = b2 , le système à résoudre est

b3

 x + 2y + 3z = b1
y + 2z = b2

0 = b3
Il est clair que si b3 n’est pas nul, le système est impossible donc la famille n’est pas génératrice de R3 .
On peut remarquer que la matrice R possède 2 pivots et 3 lignes ce qui implique que la famille n’est pas
génératrice de R3 .
CHAPITRE 4

MATRICES CARRÉES

Soit n un entier naturel supérieur ou égal à 2 et l’on se place dans Mn (R). Toutes les propriétés du chapitre
2 restent valables pour les matrices carrées, mais celles-ci possédent en plus des propriétés spécifiques.
On rappelle que si A appartient à Mn (R), on dit que A est une matrice carrée d’ordre n et que les termes
(aii )1≤i≤n forment la diagonale principale de la matrice A.

1. Matrices carrées particuliéres

Définition 4.1

La matrice identité d’ordre n notée In (ou I) est une matrice de Mn (R) telle que
∀1 ≤ i, j ≤ n, aij = 0 si i 6= j, 1 si i = j.
Soit A ∈ Mn (R), A = (aii ))1≤i≤n
• A est diagonale si ∀1 ≤ i, j ≤ n, aij = 0 si i 6= j
• A est scalaire si A diagonale et tous ses termes diagonaux sont égaux : ∃λ ∈ R, A = λIn .
• A est symétrique si t A = A
• A est antisymétrique si t A = −A

 
1 0 0
Exemple 4.2. — Dans M3 (R) I3 = 0 1 0 est la matrice unité. On pose
0 0 1

1 2 −1
       
4 0 0 3 0 0 1 0 0
A= 0
 1 0 , B= 0 3 0 , C= 0 0 2 , D= 3
     1 0
0 0 2 0 0 3 0 0 2 0 5 6
A est diagonale, B est scalaire, C est triangulaire supérieure et D triangulaire inférieure.
−2
   
1 0 5 0 1
La matrice E = 0 2 2 est symétrique et F = −1 0 3  est antisymétrique.
5 2 3 2 −3 0

2. Produit de matrices carrées


2.1. élément neutre pour le produit. —
2. PRODUIT DE MATRICES CARRÉES 36

Proposition 4.3

On a
• Le produit de deux matrices de Mn (R) est une matrice de Mn (R).
• Pour toute matrice A de Mn (R), on a :
AIn = In A = A.
On dit que In est élément neutre pour le produit.

Définition 4.4

On dit que deux matrices A et B de Mn (R) commutent si AB = BA.

Remarque 4.5. — En particulier, la matrice unité In commute avec toute matrice de Mn (R).

2.2. Calculs d’expressions. — Lorsque les matrices sont carrées du même ordre, on peut écrire des
formules de calcul mélangeant sommes et produits matriciels. Compte tenu de la non commutativité du
produit matriciel, il faut prendre quelques précautions pour développer ces expressions.
(A + B)(C + D) = AC + AD + BC + BD
2
(A + B) = ( A + B)(A + B) = A2 + AB + BA + B 2
En général, (A + B)2 6= A2 + 2AB + B 2 .
On peut factoriser des expressions en respectant l’ordre des facteurs : Par exemple,
AC + AD = A(C + D),
2
A + AB + A = A(A + B + In ),
mais (A + B + In )A = A2 + BA + A.

Dans la factorisation ci-dessus, In joue le rôle de 1 dans R.

2.3. Produit de deux matrices diagonales. —

Proposition 4.6

Le produit de deux matrices diagonales de Mn (R) est une matrice diagonale de Mn (R). Deux ma-
trices diagonales commutent. Plus précisément
    
a1 · · · 0 b1 · · · 0 a1 b1 ··· 0
 .. . . ..   .. . . ..  =  .. .. ..  .
 . . .  . . .   . . . 
0 · · · an 0 · · · bn 0 ··· an bn

Démonstration. — On note (~e1 , · · · , ~en ) la base canonique de Rn , et on pose


   
a1 · · · 0 b1 · · · 0
A =  ... . . . ...  B =  ... . . . ... 
   

0 · · · an 0 · · · bn
donc
A = [a1~e1 , · · · , an~en ] et B = [b1~e1 , · · · , bn~en ]
3. PUISSANCES D’UNE MATRICE CARRÉE 37

On remarque que
∀1 ≤ i ≤ n, A~ei = ai~ei et B~ei = bi~ei .

On en déduit que

 
a1 b1 ··· 0
 .. .. ..  .
AB = A[b1~e1 , · · · , bn~en ] = [b1 A~e1 , · · · , bn A~en ] = [a1 b1 A~e1 , · · · , an bn A~en ] =  . . . 
0 ··· an bn

Exemple 4.7. —
    
2 0 0 3 0 0 6 0 0
0 3 0 0 4 0 = 0 12 0
0 0 1 0 0 2 0 0 2

3. Puissances d’une matrice carrée


3.1. Définition. —

Définition 4.8

Soit A une matrice de Mn (R). Les puissances de A sont définies par récurrence :
A0 = In , A1 = A et ∀p ∈ N, Ap+1 = Ap A = AAp .

3.2. Puissance nième d’une matrice diagonale. — On prouve par récurrence sur n que

Proposition 4.9

Pour tout entier naturel p, on a


p 
ap1
 
a1 ··· 0 ··· 0
 .. .. ..  =  .. .. ..  .
 . . .   . . . 
0 ··· an 0 ··· apn

3.3. Formules de calcul. — On admet le résultat suivant

Proposition 4.10

(1) Si In est la matrice unité de Mn (R) alors pour tout entier p, Inp = In
(2) Pour tous entiers positifs p et q, pour toute matrice A de Mn (R)
Ap Aq = Ap+q = Aq Ap et (Ap )q = Apq = (Aq )p .
(3) Pour tout entier p positif et pour tout réel λ : (λA)p = λp Ap .
(4) Pour tout entier positif p et pour toute matrice A de Mn (R), t (Ap ) = (t A)p .
4. SUITES MATRICIELLES 38

Définition 4.11

Une matrice A de Mn (R) est dite nilpotente s’il existe un entier positif m tel que : Am = O.
Remarquons qu’alors, pour tout p ≥ m, Ap = O.

 
0 1
Exemple 4.12. — Soit A = , on a A2 = 0.
0 0

3.4. Formule du binôme. —

Proposition 4.13

Soient A et B deux matrices de Mn (R). Si A et B commutent (AB = BA), on peut appliquer la


formule du binôme de Newton :
p  
p
X p
∀p ∈ N, (A + B) = Ak B p−k .
k
k=0
On rappelle que  
p p!
= .
k k!(p − k)!
Cas particulier : si B = I,
p  
X p
(A + I)p = Ak .
k
k=0

 
1 2 2
Exemple 4.14. — Soit A = 0
 1 3, on peut écrire
0 0 1
 
0 2 2
A = I3 + B, où B = 0 0 3 .
0 0 0
 
0 0 6
On vérifie que B 2 = 0 0 0 et B 3 = 0 donc pour tout entier k ≥ 3, B k = 0. On applique la formule
0 0 0
du binôme de Newton puisque B et I3 commutent donc pour tout entier n
An = (B + I)n
n  
X n
= Bk
k
k=0
n(n − 1) 2
= I3 + nB + B
2
1 2n 2n + 3n(n − 1)
 

= 0 1 3n 
0 0 1

4. Suites matricielles
4.1. Limite d’une suite matricielle. — On considère une suite de matrices (An )n∈N de Mp,q (R) c’est-
à-dire les coefficients de la matrice An dépendent de n. On notera : An = (aij (n)).
4. SUITES MATRICIELLES 39

Proposition 4.15

On dira que la suite matricielle (An )n∈N de Mp,q (R) converge vers la matrice B de Mp,q (R) où
B = (bij ), si pour tout i ∈ {1, · · · , p} et pour tout j ∈ {1, · · · , q}
lim aij (n) = bij .
n→+∞
Autrement dit, la convergence s’entend terme à terme.

Rappel : nature des suites géométriques réelles.


Soit a un réel.
• si |a| < 1, alors lim an = 0.
n→+∞
• si a > 1, alors lim an = +∞.
n→+∞
• si a = 1, alors lim an = 1.
n→+∞
• si a ≤ −1, alors la suite an diverge.
1 + 2−n
   
1
Exemple 4.16. — Soit An =  4  alors lim An = 4.
n→+∞
3−n 0

4.2. Systèmes d’équations de récurrence linéaires du premier ordre. —

Exemple 4.17. — On considère deux suites réelles (xn ), (yn ) définies par leur premier terme : xo , yo et
la relation de récurrence : pour tout entier n,

xn+1 = xn + yn
yn+1 = yn
   
xn 1 1
Si l’on pose pour tout entier n, ~vn = et A = , alors la suite vectorielle (~vn ) est définie par :
yn 0 1
 
xo
~vo = et pour tout entier n : ~vn+1 = A~vn
yo
Le théorème suivant généralise cette situation. La preuve se fait par récurrence sur n.

Proposition 4.18 – Systèmes d’équations de récurrence

Soit A une matrice carrée d’ordre p et ~vn une suite vectorielle (matrice colonne é p lignes) définie
par : ~vo donné et pour tout entier n ~vn+1 = A~vn , Alors pour tout entier n
~vn = An~vo
et si lim An = L alors
n→+∞
lim ~vn = L~vo
n→+∞

Remarque 4.19. — Ce résultat permet d’exprimer les composantes de ~vn en fonction de n et des com-
posantes de ~vo . Si la suite est définie par : v1 donné et pour tout entier n, ~vn+1 = A~vn alors on aura
~vn = An−1 v~1 .
   
1 1 0 1
Remarque 4.20. — On termine l’exemple précédent, comme A = = I2 + . Or la matrice
0 1 0 0
 
0 1
B= est nilpotente car B 2 = 0 donc en appliquant la formule du binôme de Newton, puisque B et
0 0
5. MATRICES INVERSIBLES 40

I2 commutent, on obtient
 
n 1 n
A = I2 + nB = .
0 1

On en déduit que
∀n ∈ N, xn = x0 + ny0 , et yn = y0 .

Le vecteur ~vn n’a pas de limite finie quand n tend vers = ∞.

5. Matrices inversibles
5.1. Définition. —

Définition 4.21

On dit qu’une matrice A de Mn (R) est inversible (ou réguliére) s’il existe une matrice B de Mn (R)
telle que : AB = BA = In . La matrice B s’appelle inverse de A, on la note A−1 . Une matrice non
inversible est aussi appelée matrice singulière.

Proposition 4.22

La matrice inverse, si elle existe, est unique.

Démonstration. — Soit A une matrice inversible, supposons que AB = BA = AC = CA = In , on multiplie


l’égalité AB = In par C soit CAB = C soit B = C. On en déduit le résultat.

   
0 1 0 0 0 1
Exemple 4.23. — soient A = 0 0 1 et B = 1 0 0 On a AB = BA = I3 donc B = A−1 .
1 0 0 0 1 0

Exemple 4.24. — La matrice nulle O n’est pas inversible. En effet, pour toute matrice A de Mn (R), on
a : AO = OA = O.

Exemple 4.25. — Soit A une matrice de Mn (R) vérifiant A3 + 2A2 + 3A − In = 0. On constate qu’on
peut écrire : A3 + 2A2 + 3A = In . Le premier membre de cette égalité se factorise sous les formes :
A(A2 + 2A + 3In ) = (A2 + 2A + 3In )A = In donc la matrice A est inversible et A−1 = (A2 + 2A + 3In )

Exemple 4.26. — Matrices "diviseurs de zéro"


0 −1 2 −2 −1 −1
     
1 1 0
Soient A = 2 1 1 et B = 0 1 −2. On vérifie que AB = O et BA =  2 1 1 .
0 0 0 0 1 −2 2 1 1
Démontrons par l’absurde que A n’est pas inversible : supposons donc que A soit inversible. On peut
multiplier l’égalité AB = O à gauche par A−1 , ce qui donne : A−1 (AB) = A−1 O = O. Or, par associativité,
A−1 (AB) = (A−1 A)B = In B = B.
Par suite, si A est inversible on aura B = O, ce qui est faux. On en déduit que A n’est pas inversible. On
démontrerait de même que B n’est pas inversible.
5. MATRICES INVERSIBLES 41

5.2. Propriétés. —

Proposition 4.27 – Opérations sur les matrices inversibles

Soient A et B deux matrices carrées d’ordre n.


(1) Si A est inversible, alors A−1 est inversible et (A−1 )−1 = A.
(2) Si A est inversible et si λ 6= 0 alors λA est inversible et (λA)−1 = λ1 A−1 .
(3) Si A et B sont inversibles, alors le produit AB est inversible et
(AB)−1 = B −1 A−1
(4) A est inversible si et seulement si t A est inversible et dans ce cas : (t A)−1 = t (A−1 )

Démonstration. — (1) Si A est inversible, alors AA−1 = A−1 A = In donc A−1 est inversible et
−1 −1
(A ) = A.
(2) Si A est inversible et si λ 6= 0 alors λA λ1 A−1 = In et λ1 A−1 λA = In donc λA est inversible et
(λA)−1 = λ1 A−1 .
(3) Si A et B sont inversibles, alors

ABB −1 A−1 = AA−1 = In et B −1 A−1 AB = BB −1 = In .

Le produit AB est inversible et

(AB)−1 = B −1 A−1

(4) Si A est inversible, alors

t
A t (A−1 ) =t (A−1 A) =t (In ) = In et t (A−1 ) t A = In .

donc t A est inversible et dans ce cas : (t A)−1 = t (A−1 ). La réciproque se démontre de la même
manière.

On admet le résultat suivant :

Proposition 4.28 – Le théorème de l’inversibilité

Pour une matrice A de Mn (R), les propriétés suivantes sont équivalentes :


• A inversible
• Toute réduite de Gauss R de A possède n pivots, c’est-à-dire R est une matrice triangulaire
supérieure dont les termes diagonaux sont non nuls.

Exemple 4.29. — Toute matrice triangulaire sans termes nuls sur la diagonale est inversible.

5.3. Calcul d’une matrice inverse. —


5. MATRICES INVERSIBLES 42

Proposition 4.30

Soit A une matrice de Mn (R).


• (1) écrire la matrice augmentée [A In ]
• (2) Par une succession d’opérations élémentaires sur les lignes de la matrice augmentée, en
suivant la méthode de Gauss, réduire la matrice augmentée sous la forme [R J] oé R est une
réduite de Gauss de A. Si R a n pivots alors A est inversible et on exécute (3) sinon A n’est
pas inversible et on arréte les calculs.
• (3) Terminer la résolution en appliquant la méthode de Gauss-Jordan jusqu’é obtenir une
réduite de Gauss-Jordan de la forme [In C]. Alors C est la matrice inverse de A.

Il est prudent de toujours effectuer le produit AC pour vérifier AC = In et détecter ainsi d’éventuelles
erreurs de calculs.
 
1 0 1
Exemple 4.31. — Soit A = −1 1 −2, la méthode de Gauss Jordan donne
0 1 0

1 0 1 1 0 0 L1
−1 1 −2 0 1 0 L2
0 1 0 0 0 1 L3

1 0 1 1 0 0 L1
0 1 −1 1 1 0 L2 ← L2 + L1
0 1 0 0 0 1 L3

1 0 1 1 0 0 L1
0 1 −1 1 1 0 L2
0 0 1 −1 −1 1 L3 ← L3 − L2

1 0 0 2 1 −1 L1 ← L1 − L3
0 1 0 0 0 1 L2 ← L2 + L3
0 0 1 −1 −1 1 L3
Donc
−1
 
2 1
A−1 = 0 0 1
−1 −1 1
Remarque 4.32. — Pour inverser une matrice A, il est parfois plus facile de résoudre le système linéaire
associé. Par exemple

 x+z = a
−x + y − 2z = b

y = c
On exprime x, y et z en fonction de a, b et c d’où
  
 x+z = a  x+z = a  x+z = a
−x + y − 2z = b ⇐⇒ y−z = a + b ⇐⇒ y = c
= −a − b + c
  
y = c y = c z
donc 
 x = 2a + b − c
y = c
−a − b + c

z =
5. MATRICES INVERSIBLES 43

ce qui s’écrit matriciellement

−1
      
  a x 2 1 a
x
A = b ⇐⇒ y =
     0 0 1   b .
y
c z −1 −1 1 c
CHAPITRE 5

DÉTERMINANT

Dans ce chapitre nous cherchons à associer à toute matrice carrée A un nombre réel qui permette de
"déterminer" si A est inversible, ou non, d’où le nom de déterminant donné à ce nombre qui sera noté
det(A).

det(A) 6= 0 ⇐⇒ A est inversible


 
a11 · · · a1j · · · a1n
··· ··· ··· ··· ···
 
Notation : si A =  ai1 · · · aij · · · ain , alors le déterminant de A sera noté
 
··· ··· ··· ··· ···
 

an1 · · · anj · · · ann

a11 ··· a1j · · · a1n


··· ··· ··· ··· ···
det(A) = ai1 ··· aij · · · ain
··· ··· ··· ··· ···
an1 ··· anj · · · ann

1. Définitions
1.1. Déterminant d’ordre 1 et 2. —

Définition 5.1

Soit A = (a11 ) une matrice de M1 (R), on appelle déterminant de A, noté det(A), le réel défini par :
det(A) = a11 .
 
a11 a12
Soit A = une matrice de M2 (R), on appelle déterminant de A, noté det(A), le réel défini
a21 a22
par :
a11 a12
det(A) = = a11 a22 − a12 a21
a21 a22

1.2. Déterminant d’ordre 3. —


1. DÉFINITIONS 45

Définition 5.2

Soit A une matrice carrée d’ordre n, on note A∗ij la sous-matrice carrée d’ordre (n − 1) obtenue en
enlevant à A sa ième ligne et sa jème colonne.

 
1 2 3
Exemple 5.3. — si A = 4 5 6 alors
7 8 9
     
5 6 1 2 1 3
A∗11 = , A∗23 = , A∗32 =
8 9 7 8 4 6

Nous allons définir un déterminant d’ordre 3 en utilisant des déterminants d’ordre 2 :

Définition 5.4

Soit A une matrice de M3 (R), on appelle déterminant de A, noté det(A), le réel défini par :
det(A) = a11 det(A∗11 ) − a12 det(A∗12 ) + a13 det(A∗13 ).

 
1 2 3
Exemple 5.5. — Reprenons la matrice A = 4 5 6, on a
7 8 9

5 6 4 6 4 5
det(A) = det(A∗11 ) − 2 det(A∗12 ) + 3 det(A∗13 ) = 1 −2 +3 = 0.
8 9 7 9 7 8

Mais il n’y a aucune raison de privilégier une ligne ou une colonne d’où la proposition :

Définition 5.6

Soit A une matrice de M3 (R).


• Pour tout i ∈ {1, 2, 3}, on a :
det(A) = (−1)i+1 ai1 det(A∗i1 ) + (−1)i+2 ai2 det(A∗i2 ) + (−1)i+3 ai3 det(A∗i3 )
on dit alors que det(A) est développé par rapport à la ième ligne de A.
• Pour tout j ∈ {1, 2, 3}, on a :
det(A) = (−1)j+1 a1j det(A∗1j ) + (−1)j+2 a2j det(A∗2j ) + (−1)j+3 a3j det(A∗3j )
on dit alors que det(A) est développé par rapport à la jème colonne de A.

Remarque 5.7. — Le coefficient (−1)i+j de ces formules revient à affecter chaque coefficient aij de la
matrice A d’un signe + ou d’un signe -.
 
1 2 3
Exemple 5.8. — Reprenons la matrice A = 4 5 6, on a en développant par rapport à la première
7 8 9
colonne
5 6 2 3 2 3
det(A) = det(A∗11 ) − 4 det(A∗21 ) + 7 det(A∗31 ) = 1 −4 +7 = 0.
8 9 8 9 5 6
1. DÉFINITIONS 46

1.3. Déterminant d’ordre n. —

Proposition 5.9 – [

Soit A une matrice carrée d’ordre n > 1. On appelle déterminant de A et on note det(A) le réel
défini par une des formules de récurrence suivantes :
• on définit le développement par rapport à la kème colonne
Xn
det(A) = (−1)i+k aik det(A∗ik ).
i=1
• on définit le développement par rapport à la kème ligne
Xn
det(A) = (−1)i+k aki det(A∗ki ).
i=1
Ces formules donnent le même résultat, il y a 2n développements possibles.

1 0 2 0
 
3 0 1 1
Exemple 5.10. — Soit A = 
1
, on calcule le déterminant de A en développant par rapport
0 1 1
0 2 1 0
à la deuxième ligne :
0 2 0 1 2 0 1 0 0 1 0 2
det(A) = (−1)3 0 1 1 + (1)0 1 1 1 + (−1)1 1 0 1 + (1)1 1 0 1
2 1 0 0 1 0 0 2 0 0 2 1
= −3 × 2 × 2 − (−2) + (−2 + 4) = −8.
Plus astucieux est de développer par rapport à la deuxième colonne car elle comporte plus de 0 :
1 2 0
1 1 3 1
det(A) = 2 3 1 1 = 2( −2 ) = −8.
1 1 1 1
1 1 1
Comme l’on peut faire le calcul aussi bien en lignes qu’en colonnes, on a la propriété suivante

Proposition 5.11

Soit A une matrice de Mn (R), alors det(t A) = det(A).

On prouve par récurrence sur n que

Proposition 5.12

Si A est une matrice triangulaire alors det(A) est égal au produit de ses termes diagonaux. En
particulier det(In ) = 1 .

 
1 0 2
Exemple 5.13. — Soit T = 0 3 6 alors det(T ) = 3.
0 0 1
2. PROPRIÉTÉS 47

2. Propriétés
2.1. Linéarité. —

Proposition 5.14

Soit A une matrice de Mn (R).


• Si A = [C1 · · · Cn ] où C1 , · · · , Cn sont les colonnes de la matrice A et si pour un entier
1 ≤ j ≤ n, la jème colonne s’écrit Cj = Dj + λEj alors :
det(A) = |C1 · · · Cn | = |C1 · · · Dj + λEj · · · Cn | = |C1 · · · Dj · · · Cn | + λ |C1 · · · Ej · · · Cn|
 
L1
 .. 
• Si A =  .  où L1 , · · · , Ln sont les lignes de la matrice A et si pour un entier 1 ≤ i ≤ n,
Ln
la ième ligne s’écrit Li = Di + λEi alors :
L1 L1 L1
.. .. ..
. . .
det(A) = Li = Di +λ Ei
.. .. ..
. . .
Ln Ln Ln

Démonstration. — On note dij le terme courant de Dj et eij le terme courant de Ej , on développe par
rapport à la jième colonne donc
n
X
|C1 · · · Dj + λEj · · · Cn | = (−1)i+j (dij + λeij )det(A∗ij )
i=1

soit
n
X n
X
det(A) = (−1)i+j dij det(A∗ij ) + λ (−1)i+j eij det(A∗ij )
i=1 i=1

donc

det(A) = |C1 · · · Dj · · · Cn | + λ |C1 · · · Ej · · · Cn|

En raisonnant sur la transposée, on obtient le résultat sur les lignes.

 
6 4 6
Exemple 5.15. — Soit A = 6 0 −2, on a en factorisant par 2 dans la première ligne, par 3 dans
9 2 1
la première colonne puis par 2 dans la deuxième colonne et la deuxième ligne et enfin on développe par
rapport à la deuxième ligne

3 2 3 1 2 3 1 1 3
det(A) = 2 6 0 −2 =2×3 2 0 −2 =2×3×2×2 1 0 −1 = 24(2 − 2) = 0.
9 2 1 3 2 1 3 1 1

2.2. Opérations sur les lignes. — On admet le résultat suivant


2. PROPRIÉTÉS 48

Proposition 5.16

Soit A une matrice de Mn (R).


• Pour tousXentiers i et j de {1, · · · , n} : les opérations de remplacement de la ième ligne, Li
par Li + aj Lj ne modifient pas la valeur de det(A).
j6=i
Si j est fixé , les opérations Li ← Li + ai Lj peuvent être faites simultanément pour toutes les
valeurs de i 6= j sans modifier le déterminant.
• Pour tous entiers i et j de {1, · · · , n} : l’échange des deux lignes i et j multiplie le déterminant
par (-1).

 
1 2 2
Exemple 5.17. — Soit A = 2
 0 3, on applique la méthode du pivot de Gauss
3 2 1

1 2 2 1 2 2 L1
2 0 3 = 0 −4 −1 L2 ← L2 − 2L1
3 2 1 0 −4 −5 L3 ← L3 − 3L1
1 2 2 L1
= 0 −4 −1 = 16 L2 ← L2
0 0 −4 L3 ← L3 − L2

 
12 8 20
Exemple 5.18. — Soit A =  2 0 3 , on applique la méthode du pivot de Gauss. Or dans cette
1 2 1
méthode, les calculs sont plus facile si le premier pivot vaut 1 donc on échange la première et la troisième
ligne. De plus on met 4 en facteur dans la première ligne d’où

12 8 20 3 2 5
2 0 3 = 4 2 0 3 mise en facteur de 4 sur L1
1 2 1 1 2 1
1 2 1
= −4 2 0 3 échange de deux lignes
3 2 5
1 2 1
= −4 0 −4 1 méthode du pivot
0 −4 2
= 16 développement par rapport à C1

Comme le déterminant de A est égal au déterminant de sa transposée, on en déduit que les transformations
sur les lignes sont valables sur les colonnes, ainsi on a
2. PROPRIÉTÉS 49

Proposition 5.19

Soit A une matrice de Mn (R).


• Pour tousX
entiers i et j de {1, · · · , n} : les opérations de remplacement de la ième colonne, Ci
par Ci + aj Cj ne modifient pas la valeur de det(A).
j6=i
Si j est fixé , les opérations Ci ← Ci + ai Cj peuvent être faites simultanément pour toutes les
valeurs de i 6= j sans modifier le déterminant.
• Pour tous entiers i et j de {1, · · · , n} : l’échange des deux colonnes i et j multiplie le
déterminant par (-1).

Proposition 5.20

Une matrice carrée A est inversible si et seulement si det A 6= 0.

Démonstration. — Soit A une matrice carrée d’ordre n, on considère R la réduite de A obtenue par la
méthode du pivot de Gauss en ne faisant que des remplacement et des changements de lignes sans cadrage.
Le déterminant de A est égal à celui de R en valeur absolue. Or R est triangulaire donc le déterminant de
R est égal au produit des termes de sa diagonale. Si A est inversible, il y a n pivots et le déterminant de A
est non nul. Réciproquement si le déterminant de A est non nul, celui de R est non nul aussi ce qui prouve
que R possède n pivots donc A est inversible.

On en déduit des cas simples où det(A) = 0

Proposition 5.21

Soit A une matrice de Mn (R). Si la famille des vecteurs colonnes ou lignes est liée alors det(A) = 0.
En particulier,
• si une colonne ou une ligne de A est nulle, alors det(A) = 0.
• si deux colonnes ou deux lignes de A égales alors det(A) = 0.
• si deux colonnes ou deux lignes de A sont proportionnelles alors det(A) = 0.
• si une colonne ou une ligne est combinaison linéaire des autres colonnes ou lignes, alors
det(A) = 0.

Démonstration. — En effet si la famille des n vecteurs colonnes ou lignes est liée alors elle n’est pas libre
et le nombre de pivots r est strictement inférieur à n. On en déduit que le déterminant de toute réduite de
A est nul donc det(A) = 0.
 
101 102 103
Exemple 5.22. — Soit A = 201 202 203, on remarque que
301 302 303
2C2 = C1 + C3
donc det(A) = 0.

Exemple 5.23. — Dans cet exemple, les matrices sont données par blocs. (L pour Ligne, C pour Colonne).
1. D’après les propositions précédentes, on a :
3. FORMULES DE CRAMER 50

L1 L1 L1 L1 + L2 + L3 + L4
L2 + α2 L1 L2 L2 L2
= et = .
L3 + α3 L1 L3 L3 L3
L4 + α4 L1 L4 L4 L4
2. De même les résultats s’obtiennent aussi pour les colonnes :
C1 + α1 C3 C2 + α2 C3 C3 = C1 C2 C3
et
C1 C2 C3 = C1 C1 + C2 + C3 C3 .

2.3. Déterminant d’un produit matriciel. — On admet le résultat suivant

Proposition 5.24

Soient A et B deux matrices de Mn (R) et λ un réel, alors


• det(AB) = det(A)det(B)
• det(λA) = λn det(A)
• si de plus A est une matrice inversible de Mn (R), alors det(A−1 ) = 1
detA .

3. Formules de Cramer
Les déterminants permettent d’écrire des formules donnant la solution d’un système de Cramer.

Proposition 5.25
 
x1
Soit le système de n équations à n inconnues A~x = ~b où A est une matrice de Mn (R), ~x =  ...  ∈
 

xn
 
b1
~  .. 
R et b =  .  ∈ Rn . Si det(A) 6= 0, alors le système est de Cramer et admet comme unique
n

bn
solution :
det(B1 ) det(Bi ) det(Bn )
x1 = , · · · , xi = , · · · xn = .
det(A) det(A) det(A)
où Bi est la matrice obtenue en remplaçant la ième colonne de A par ~b.

Exemple 5.26. — On considère le système



5x + 2y = −3
7x + 3y = 2
 
5 2
On a A = et det(A) = 1 donc le système est de Cramer. Avec la proposition précédente, on a
7 3
−3 2 5 −3
2 3 7 2
x= = −13 et y = = 31.
det(A) det(A)
CHAPITRE 6

BASES ET DIMENSION.

1. Bases de Rn

Définition 6.1

On dit que la famille U = (~u1 , · · · , ~un ) est une base de Rn si elle est libre et génératrice de Rn .

On admet le résultat suivant

Proposition 6.2

Toutes les bases de Rn contiennent exactement n vecteurs. On dit que Rn est un espace vectoriel de
dimension n.

Proposition 6.3

Soit U = (~u1 , · · · , ~un ) une famille de n vecteurs de Rn , A la matrice représentant U dans la base
canonique. Les propriétés suivantes sont équivalentes :
• U est une base de Rn ,
• U est une famille libre de Rn ,
• U est une famille génératrice de Rn ,
• A est inversible,
• le déterminant de A est non nul.

Démonstration. — Montrons que U est une base de Rn est équivalent à A est inversible. On note r le
nombre de pivots de toutes les réduites de A. Si U est une base de Rn , U est libre , r est égal au nombre de
colonnes de A et comme U est génératrice de Rn , donc r est égal au nombre de lignes de A,donc A possède
n pivots ce qui entraine que A est inversible. Réciproquement si A est inversible, r = n donc la famille U
est libre et génératrice de Rn . Les autres équivalences se démontrent de la même façon.
   
1 0
Exemple 6.4. — • la base canonique de R2 : on pose ~e1 = et ~e2 = . La famille (~e1 , ~e2 )
0 1
est une base de R2 .
2. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL 52

     
1 0 0
3
• la base canonique de R : on pose ~e1 = 0 , ~e2 = 1 et ~e3 = 0. La famille (~e1 , ~e2 , ~e3 ) est
    
0 0 1
une base de R3 .

2. Bases et dimension d’un sous-espace vectoriel


2.1. Définitions. —

Proposition 6.5

Soit F un sous-espace vectoriel de Rn , il existe une famille U = (u~1 , · · · , u~p ) de p vecteurs de F tel
que
F = Vect[U] .
On dit que U est une famille génératrice de F .

On admet cette proposition

Définition 6.6

Soit F un sous-espace vectoriel de Rn , on dit que la famille U = (~u1 , · · · , u~p ) est une base de F si
elle est libre et génératrice de F . Toutes les bases de F ont le même nombre de vecteurs, ce nombre
est la dimension de F noté dim(F ).
Par convention, la dimension de {~0} est 0.

Exemple 6.7. — La dimension de R4 est 4, une droite vectorielle est de dimension 1.


   
1 0
Exemple 6.8. — On considère les vecteurs ~u1 = 0, ~u2 = 1. Soit
2 1

F = Vect[(~u1 , ~u2 )] .

F est un sous-espace vectoriel de R3 . Par définition la famille (~u1 , ~u2 ) est génératrice de F . De plus les
vecteurs ne sont pas colinéaires donc (~u1 , ~u2 ) est une famille libre. Par conséquent (~u1 , ~u2 ) est une base de
F . On en déduit que la dimension de F est 2, on dit que F est un plan vectoriel.

Proposition 6.9

Soit E et F deux sous-espaces vectoriels de Rn .


• Si E et F ont même base B alors E = F .
• Si B est une base de E dont tous les vecteurs sont dans F alors E ⊂ F .

Démonstration. — Le premier point est immédiat puisque E = Vect[B] et F = Vect[B], donc E = F . De


même comme E = Vect[B], F étant un sous-espace vectoriel, toute combinaison linéaire de vecteurs de B
est dans F donc E ⊂ F .
2. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL 53

2.2. Théorème de la base incomplète. — Pour réduire la taille d’une famille génératrice, on peut
utiliser le lemme de réduction suivant :

Proposition 6.10 – Lemme de réduction

Si F = Vect[(u~1 , · · · , u~p , ~v )], et ~v est combinaison linéaire de u~1 , · · · , u~p , alors


F = Vect[(u~1 , · · · , u~p )] .
En particulier h i
Vect (u~1 , · · · , u~p , ~0) = Vect[(u~1 , · · · , u~p )] .

Proposition 6.11

Soit L une famille libre de vecteurs de F , alors il existe une base B de F comportant les vecteurs de
L : L ⊂ B.
Soit G une famille génératrice de F , alors il existe une base B de F telle que : B ⊂ G.

On peut extraire de toute famille génératrice de F une base de F . Dans l’exemple suivant, on propose
une méthode pour extraire une base d’une famille génératrice d’un sous-espace vectoriel F .

     
1 2 3
Exemple 6.12. — On considère les trois vecteurs w ~1 = 3 , w
  ~2 = 4 w  ~ 3 = 5 , on note F =

1 1 1
Vect[(w~ 1, w
~ 2, w
~ 3 )]. Il s’agit de construire une base de F à partir de la famille génératrice de F . Pour cela
on calcule une réduite de la matrice associée à la famille (w ~ 1, w
~ 2, w
~ 3 ) soit

1 2 3 L1
3 4 5 L2
1 1 1 L3
1 2 3 L1
0 −2 −4 L2 ← L2 − 3L1
0 −1 −2 L3 ← L3 − L1
1 2 3 L1
0 −2 −4 L2 ← L2
0 0 0 L3 ← 2L3 − L2

 
1 2 3
R = 0 −2 −4 .
0 0 0

Les pivots sont 1 et -2, ils se situent sur la première et la deuxième colonne. On en déduit que (w ~ 1, w
~ 2)
 
1 2
est une famille libre. En effet la réduite de [w ~ 2 ] est R0 = 0 −2, cette réduite possède deux pivots
~ 1, w
0 0
pour deux colonnes. Donc (w ~ 1, w
~ 2 ) est une famille libre et (w ~ 1, w
~ 2, w
~ 3 ) est une famille liée. On en déduit
que w ~ 3 est combinaison linéaire de w ~ 1 et w
~ 2 donc (w ~ 1, w
~ 2 ) est une famille génératrice de F . Par conséquent
(w
~ 1, w
~ 2 ) est une base de F , on en déduit que F est de dimension 2.
2. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL 54

Proposition 6.13

Soit F un sous-espace vectoriel de Rn de dimension p, alors


• Toute famille de F contenant q vecteurs avec q > p est liée,
• Toute famille libre de F contenant p vecteurs est une base de F ,
• Toute famille génératrice de F contenant p vecteurs est une base de F ,
• Toute famille de F contenant q vecteurs avec q < p n’est pas génératrice de F .

Démonstration. — Soit U une famille comportant q vecteurs de F avec q > p. Si cette famille est libre,
alors on peut la compléter pour avoir une base de F , cette famille comporte au moins q vecteurs. Puisque
la dimension de F est p, cette base comporte p vecteurs ce qui est impossible car q > p. Donc toute famille
de F contenant q vecteurs avec q > p est liée.
Soit U une famille libre de F contenant p vecteurs. On complète cette famille pour avoir une base de F .
Or la dimension de F est p donc aucun vecteur ne peut être rajouté ce qui signifie que U est une base de
F . Ainsi toute famille libre de F contenant p vecteurs est une base de F .
Soit U une génératrice de F contenant p vecteurs, on peut extraire de U une base de F . Or la dimension
de F est p donc aucun vecteur ne peut être enlevé ce qui signifie que U est une base de F . Ainsi toute
famille génératrice de F contenant p vecteurs est une base de F .
Soit U une famille comportant q vecteurs de F avec q < p. Si cette famille est génératrice de F , alors on
peut extraire de cette famille une base de F , cette famille comporte au plus q vecteurs. Puisque la dimension
de F est p, cette base comporte p vecteurs ce qui est impossible car q < p. Donc toute famille de F contenant
q vecteurs avec q < p n’est pas génératrice de F .

Proposition 6.14

Si E et F sont deux sous-espaces vectoriels de Rn tel que E ⊂ F , alors


dim(E) ≤ dim(F )
De plus si dim(E) = dim(F ) alors E = F .

Démonstration. — Soit U une base de E, c’est une famille libre de vecteurs de E donc de F . Ainsi le nombre
de vecteurs de U qui est égal à la dimension de E est inférieur à la dimension de F d’où l’inégalité. De plus
si les dimensions sont égales toute base de E est une base de F d’où l’égalité.

2.3. Equation d’un sous-espace vectoriel. —

Définition 6.15 – S

it la famille U = (~u1 , · · · , u~p ) de vecteurs de Rn , le rang de U est la dimension de Vect[(] U).

Proposition 6.16

Soit la famille U = (~u1 , · · · , u~p ) de vecteurs de Rn , on pose F = vect( U). On a


~x ∈ F ⇐⇒ rg(U) = rg(U, ~x).
2. BASES ET DIMENSION D’UN SOUS-ESPACE VECTORIEL 55

Démonstration. — Si ~x ∈ F , alors ~x est combinaison linéaire de U donc Vect[U] = Vect[(U, ~x)] d’où le
résultat.
Réciproquement si rg(U) = rg(U, ~x), alors comme Vect[U] ⊂ Vect[(U, ~x)] et comme ces deux sous-
espaces sont de même dimension, on en déduit l’égalité Vect[U] = Vect[(U, ~x)]. Or ~x ∈ Vect[U, ~x)], donc
~x ∈ F .

1 2 3 x
       
3 4 5 y  4
Exemple 6.17. — Soit ~u1 =  5, ~u2 = 8 u~3 = 11, et ~u =  z  un vecteur quelconque de R , on
      

1 1 1 t
cherche à quelles conditions un vecteur ~u appartient à vect(U) où U est la famille (~u1 , ~u2 , u~3 ). On calcule
une réduite de A matrice associée à la famille de vecteurs U auquel on adjoint le vecteur ~u :
1 2 3 x L1
3 4 5 y L2
5 8 11 z L3
1 1 1 t L4
1 2 3 x L1
0 −2 −4 y − 3x L2 ← L2 − 3L1
0 −2 −4 z − 5x L3 ← L3 − 5L1
0 −1 −2 t−x L4 ← L3 − L1
1 2 3 x L1
0 −2 −4 y − 3x L2
0 0 0 z − 5x − y + 3x L3 ← L3 − L2
0 0 0 2t − 2x − (y − 3x) L4 ← 2L4 − L2
Si l’on ne considère que les trois premières colonnes, on trouve : rg(U) = 2 et le vecteur ~u appartient à

−2x − y + z = 0
vect(U) si et seulement si , ces deux équations sont les équations de F = vect(U).
x − y + 2t = 0
CHAPITRE 7

THÉORÈME DU RANG.

1. Image et Noyau
1.1. Image de A. —

Définition 7.1

Soit A une matrice de Mn,p (R). Notons (~c1 , · · · , ~cp ) la famille des vecteurs colonnes de A. On appelle
espace colonne de A, ou image de A, noté Im(A), le sous-espace vectoriel de Rn engendré par les
vecteurs colonnes de A. Autrement dit,
Im(A) = Vect[(~c1 , · · · , ~cp )] .
On appelle rang de A la dimension de ImA.

 
1 1 1
Exemple 7.2. — Soit A = , on constate que les trois colonnes de A sont égales. D’où, Im(A) =
2 2 2
         
1 1 1 1 1
Vect ( , , ) = Vect ( ) . Par suite, Im(A) est la droite vectorielle engendrée par
2 2 2 2 2
d’où dim Im(A) = 1, le rang de A est donc 1.

Pour calculer le rang d’une matrice, on admet le résultat suivant

Proposition 7.3

Soit A une matrice de Mn,p (R), le rang de A est égal au nombre de pivots d’une réduite de Gauss
de A.
On en déduit que
dim Im(A) ≤ n et dim Im(A) ≤ p.

 
1 1 1
Exemple 7.4. — Soit A = , la méthode du pivot donne comme réduite la matrice R =
2 2 2
 
1 1 1
, on constate que R a un pivot d’où dim Im(A) = 1, le rang de A est donc 1.
0 0 0
1. IMAGE ET NOYAU 57

Proposition 7.5

Soit B = (~b1 , · · · , ~bp ) une base de Rp . Soit A une matrice de Mn,p (R), alors
h i
ImA = Vect (A~b1 , · · · , A~bp ) .

Démonstration. — On note E = (e~1 , · · · , e~p ) la base canonique de Rp et (~c1 , · · · , ~cp ) la famille des vecteurs
colonnes de A. On a
∀1 ≤ i ≤ p, c~i = A~ei ,
donc comme e~i est combinaison linéaire h des vecteurs i de B, A~ ei est combinaison linéaire
h des vecteurs i
A~b1 , · · · , A~bp donc A~
ei est dans Vect (A~b1 , · · · , A~bp ) . On en déduit que ImA ⊂ Vect (A~b1 , · · · , A~bp ) .
Réciproquement tous les vecteurs b~j sont combinaison linéaire des vecteurs de E donc Ab~j est combinaison
linéaire des vecteurs Ae~1 , · · · , Ae~p donc est dans ImA. On en déduit l’inclusion inverse donc l’égalité.

Proposition 7.6

Soit A une matrice de Mn,p (R),


Im(A) = {~y ∈ Rn , tel que ∃~x ∈ Rp , ~y = A~x}.

Démonstration. — Notons (~c1 , · · · , ~cp ) la famille des vecteurs colonnes de A. Soit ~y ∈ Im(A), alors il existe
p réels x1 , · · · , xp tels que
 
x1
 .. 
~y = x1~c1 + · · · + xp~cp = A  .  .
xp
p
Réciproquement si ~y est tel qu’il existe ~x ∈ R vérifiant ~y = A~x alors
~y = x1~c1 + · · · + xp~cp ∈ Vect[(~c1 , · · · , ~cp )] = Im(A).

1.2. Noyau d’une matrice. —

Définition 7.7

Soit A une matrice de Mn,p (R). On appelle noyau de A, noté ker(A), le sous-ensemble de Rn
ker(A) = {~x ∈ Rp , tel que A~x = ~0}.

Proposition 7.8

Soit A une matrice de Mn,p (R), ker A est un sous-espace vectoriel de Rp .


On en déduit que dim ker A ≤ p.

Démonstration. — Le vecteur nul vérifie A~0 = ~0 donc ~0 ∈ ker A. De plus soit ~x et ~y deux vecteurs de ker A
et λ un réel, on a
A(~x + λ~y ) = A~x + λA~y = ~0,
2. THÉORÈME DU RANG 58

donc ~x + λ~y ∈ ker A. Par conséquent ker A est un sous-espace vectoriel de Rp .


 
1 2 1
Exemple 7.9. — Soit A = 1 0 0, on a
1 0 0
 
x  
x + 2y + z = 0 z = −2y
~x = y ∈ ker A ⇐⇒
  ⇐⇒
x = 0 x = 0
z

2. Théorème du rang

Proposition 7.10

Soit A une matrice deMn,p (R)


dimImA + dim ker A = nombre de colonnes de A = p.

Démonstration. — Comme ker A est un sous-espace vectoriel de Rp , on considère une base de ker A notée
(~u1 , · · · , ~us ). Cette famille est libre, on la complète pour avoir une base de Rp : (~u1 , · · · , ~us , ~us+1 · · · ~up ).
D’après une proposition précédente
ImA = Vect[(A~u1 , · · · , A~us , A~us+1 · · · A~up )] .
Or pour tout 1 ≤ i ≤ s, Au~i = ~0, donc
ImA = Vect[(A~us+1 · · · A~up )] .
Or la famille (A~us+1 · · · A~up ) est libre, en effet soit p − s réel as+1 , · · · ap tels que
as+1 A~us+1 + · · · + ap A~up = ~0.
soit
A(as+1 ~us+1 + · · · + ap ~up ) = ~0
donc as+1 ~us+1 + · · · + ap ~up est dans ker A donc est une combinaison linéaire de (~u1 , · · · , ~us ). donc
as+1 ~us+1 + · · · + ap ~up = a1 ~u1 + · · · + as ~us .
On en déduit que tous les coefficients ai sont nuls.
Donc (A~us+1 · · · A~up ) est une base de ImA. On en déduit que la rang de A est p − s.
 
1 2 1 0
Exemple 7.11. — Soit A = 0 2 0 1, cette matrice est une matrice échelonnée, il y a deux pivots
0 0 0 0
donc le rang de A est 2. En appliquant le théorème du rang, on en déduit que le noyau de A est un
sous-espace vectoriel de R4 de dimension 4 − 2 = 2. Vérifions le
x
 
 
y  x + 2y + z = 0 x = −2y − z
~x =   ∈ ker A ⇐⇒
  ⇐⇒
z 2y + t = 0 t = −2y
t
Ainsi
x −2y − z −2 −1
       
y  y  = y 1 +z 0 
     
 z  ∈ ker A ⇐⇒ ~x = 
~x =   
z   0   1
t −2y −2 0
2. THÉORÈME DU RANG 59

donc
−2 −1
   
1 0
ker A = Vect ( 0  ,  1 )
   

−2 0
On en déduit que le noyau est de dimension 2.
 
0 1 1
Exemple 7.12. — Soit A = 0 2 1. Notons ~c1 , ~c2 , ~c3 les vecteurs colonnes de A. On constate que
0 3 1
~
~c1 = 0 . Donc comme la famille (~c2 , ~c3 ) est libre (vecteurs non colinéaires), (~c2 , ~c3 ) est une base de Im(A).
Im(A) = Vect[(~c1 , ~c2 , ~c3 )] = Vect[(~c2 , ~c3 )] .
Donc la dimension de ImA est 2 et par le théorème du rang dim ker(A) = 1 puisque p = 3.
   
1 1
Or ~c1 = ~0 donc A 0 = c~1 = ~0, le vecteur ~b = 0 appartient à ker(A). Comme ~b n’est pas nul, la
0 0
h i
famille (~b) est libre donc est une base de ker(A) et ker(A) = Vect ~b .
 
1 −1 3 −1 1
3
 2 −1 0 5
Exemple 7.13. — on considère A = −1 1 −3 1 −1
 
−2 3
 
2 2 1
0 3 −6 2 1
 
1 −1 3 −1 1
0 5 −10 3 2 
 
A admet la matrice R = 0 0 0 1/5 −1/5 comme réduite de Gauss.
 
 
0 0 0 0 0 
0 0 0 0 0
Notons ~c1 , ~c2 , ~c3 , ~c4 , ~c5 les vecteurs colonnes de A. Comme R a trois pivots, on en conclut que
dim ImA = 3 et (~c1 , ~c2 , ~c4 ) est une base de ImA.
Le théorème du rang donne : dim ker A = 5 − 3 = 2. Pour trouver les équations du noyau, on utilise le
système échelonné :
 
x
 
 x − y + 3z − t + u = 0 = −z − u
y 
   x
~x =  z  ∈ ker A ⇐⇒ 5y − 10z + 3t + 2u = 0 ⇐⇒ y = 2z − u
 
t−u
   
t = 0 t = u
u
ce qui donne les équations de ker A
Déterminons une base de ker A :
     
−z − u −1 −1
 2z − u  2 −1
     
~x ∈ ker A ⇐⇒ ~x =  z  = z  1  + u  0  = z v~1 + uv~2 .
     
     
 u  0 1
u 0 1
Ainsi (v~1 , v~2 ) est une famille génératrice de ker A, donc une base de ker A puisque dim ker A = 2.
On peut aussi pour obtenir le noyau remarquer que
~c1 − 2~c2 − ~c3 = ~0 et ~c1 + ~c2 − ~c4 − ~c5 = ~0
3. SYSTÈMES D’ÉQUATIONS LINÉAIRES 60

   
1 1
−2 1
   
On en déduit, que les vecteurs w~1 = −1 et w~2 =  0  appartiennent à ker(A). Ces deux vecteurs
   
−1
   
0
0 −1
ne sont pas colinéaires, donc la famille (w~1 , w~2 ) est libre et comme dim ker(A) = 2, la famille (w~1 , w~2 ) est
une base de ker(A).

Proposition 7.14

Soit A une matrice de Mn (R), on a


A est inversible ⇐⇒ ker A = {~0}

Démonstration. — Si A est inversible, soit ~x ∈ ker A alors A~x = ~0. On multiplie à gauche par A−1 d’où
~x = A−1~0 = ~0. Donc ker A = {~0}.
Réciproquement si ker A = {~0}, alors d’après le théorème du rang, le rang de A est n. Ainsi A est une
matrice carrée d’ordre n comportant n pivots donc A est inversible.

3. Systèmes d’équations linéaires


On a

Proposition 7.15

Soit A une matrice de Mn,p (R), et ~b un vecteur de Rn , on note (S) le système linéaire A~x = ~b à n
équations et p inconnues.
• Existence des solutions
(S) admet au moins une solution ⇐⇒ ~b ∈ ImA.
• Unicité de la solution si ~b ∈ ImA
(S) admet exactement une solution ⇐⇒ ker A = {~0}.

Démonstration. — Si (S) admet une solution ~x on a ~b = A~x donc ~b ∈ ImA. Réciproquement si ~b ∈ ImA,
alors il existe ~x tel que A~x = ~b donc (S) admet au moins une solution.
Si ~b ∈ ImA, il y a au moins une solution. Si (S) admet deux solutions distinctes, alors A~x = A~y = ~b
donc A(~x − ~y ) = ~0 soit ~x − ~y ∈ ker A donc ker A 6= {~0}. Réciproquement si il y a une solution unique notée
~x, alors soit ~y ∈ ker A, si ~y est non nul, ~x + ~y est une autre solution de (S) ce qui est impossible. Donc
ker A = {~0}.
CHAPITRE 8

DIAGONALISATION

1. Eléments propres d’une matrice


1.1. Valeurs propres réelles. —

Définition 8.1
Soit A une matrice carrée d’ordre n à coefficients réels.
• On dit qu’un réel λ est une valeur propre de A s’il existe un vecteur ~x non nul de Rn tel que
A~x = λ~x.
• On dit alors que le vecteur ~x de Rn est un vecteur propre de A associé à la valeur propre λ.
• On appelle spectre de A, noté spectre(A), l’ensemble des valeurs propres de A.

       
1 0 3 0 0 0
Exemple 8.2. — Si A =  2 4 6 , alors A  1  =  4  , alors on a : ~x = 1 est un vecteur
3 0 1 0 0 0
propre associé à la valeur propre 4.
         
1 1 1 2 1 1
Exemple 8.3. — Si A = , alors A = , et A = 0 alors on a : ~x1 =
1 1 1 2 −1 1
 
1
est un vecteur propre associé à la valeur propre 2 et ~x2 = est un vecteur propre associé à la valeur
−1
propre 0 .

Remarque 8.4. — Le spectre d’une matrice de Mn (R) peut être l’ensemble vide. la matrice B =
 
0 1
n’a pas de valeur propre réelle.
−1 0

1.2. Polynôme caractéristique. —

Proposition 8.5

Caractérisation des valeurs propres


λ est valeur propre de A ⇐⇒ (A − λIn ) non inversible ⇐⇒ det(A − λIn ) = 0.

Démonstration. — Si λ est valeur propre de A, il existe ~x non nul tel que A~x = λ~x donc le noyau de A−λIn
n’est pas réduit au ~0 donc A − λIn n’est pas inversible. Réciproquement si A − λIn n’est pas inversible, le
1. ELÉMENTS PROPRES D’UNE MATRICE 62

noyau de A − λIn n’est pas réduit au ~0 donc il existe ~x non nul tel que A~x = λ~x donc λ est valeur propre
de A.

Remarque 8.6. — En particulier pour la valeur propre nulle, on a

0 est valeur propre de A ⇐⇒ A non inversible ⇐⇒ det(A) = 0.

Définition 8.7

PA (λ) = det(A − λIn ) est un polynôme en λ, appelé polynôme caractéristique de A et λ est valeur
propre de A si et seulement si P (λ) = 0.

 
1 1
Exemple 8.8. — Cherchons les valeurs propres de A = On a :
1 1

1−λ 1
PA (λ) = det(A − λI2 ) = = (1 − λ)2 − 1 = λ2 − 2λ = λ(λ − 2).
1 1−λ

Ainsi, les valeurs propres de A sont 0 et 2 et spectre(A) = {0, 2}.

Proposition 8.9

Valeurs propres d’une matrice triangulaire.


Les valeurs propres d’une matrice triangulaire sont ses éléments diagonaux.

Démonstration. — Soit A une matrice triangulaire, on note a1 , · · · , an ses éléments diagonaux. Pour tout
réel λ, la matrice A − λIn est une matrice triangulaire dont les termes diagonaux sont a1 − λ, · · · , an − λ
et donc
PA (λ) = (a1 − λ) · · · (an − λ)

Les racines de PA sont a1 , · · · , an . Donc les valeurs propres de A sont a1 , · · · , an


 
1 0
Exemple 8.10. — A = est une matrice triangulaire et n’a qu’une seule valeur propre λ = 1.
1 1
Cette valeur propre est racine double du polynôme caractéristique

PA (λ) = (1 − λ)2 .

On admet le résultat suivant

Proposition 8.11

Soit A une matrice de Mn (R). Son polynôme caractéristique PA (λ) est un polynôme de degré n.
Conséquence : la matrice A a au plus n valeurs propres réelles.

1.3. Sous-espaces propres d’une matrice A. —


1. ELÉMENTS PROPRES D’UNE MATRICE 63

Définition 8.12

Soit A une matrice de Mn (R) et λ une valeur propre de A. Le sous-ensemble


Eλ (A) = {~x ∈ Rn , / A~x = λ~x} = ker(A − λIn )
est un sous-espace vectoriel de Rn appelé sous-espace propre de A associé à la valeur propre λ.

Remarque 8.13. — Eλ est constitué du vecteur nul et des vecteurs propres associés à la valeur propre λ.
De plus puisque Eλ (A) 6= {~0}, on a
dim Eλ (A) ≥ 1.

On admet le résultat suivant

Proposition 8.14

Soit A une matrice de Mn (R). On suppose que A possède au moins une valeur propre, on note
λ1 , · · · , λp les p valeurs propres distinctes de A.
p
X
p ≤ dim(Eλi (A)) ≤ n
i=1

 
1 0 0
Exemple 8.15. — la matrice A =  0 2 0  admet les vecteurs ~e1 , ~e2 , ~e3 de la base canonique de R3
0 0 5
comme vecteurs propres. En effet, on a : A~e1 = ~e1 , A~e2 = 2~e2 , A~e3 = 5~e3 , on a
E1 (A) = Vect[(~e1 )] , E2 (A) = Vect[(~e2 )] , E5 (A) = Vect[(~e3 )] .

Exemple 8.16. — Si A est une matrice non inversible, alors λ = 0 est valeur propre de A et le sous-espace
propre associé E0 (A) est ker(A).
 
1 −1
Exemple 8.17. — Déterminons les valeurs propres et les sous-espaces propres de : A =
−1 1
• Recherche des valeurs propres : Le polynôme caractéristique de A est
 
1 − λ −1
PA (λ) = = λ(λ − 2).
−1 1−λ
D’où le spectre de A est {0, 2}.
• Recherche des vecteurs propres :
— Soit E0 le sous-espace propre de A associé à la valeur propre 0.
     
x x 0
∈ E0 ⇐⇒ A = ⇐⇒ x = y
y y 0
   
x 1
Donc les vecteurs de E0 sont de la forme et E0 = vect( )
x 1
— Soit E2 le sous-espace propre de A associé à la valeur propre 2.
     
x x x
∈ E2 ⇐⇒ A =2 ⇐⇒ y = −x
y y y
   
x 1
Donc les vecteurs de E2 sont de la forme et E2 = vect( )
−x −1
2. MATRICES DIAGONALISABLES 64

 
3 0 8
Exemple 8.18. — Déterminons les valeurs propres et les sous-espaces propres de :  3 −1 6 
−2 0 −5
• Recherche des valeurs propres : le polynôme caractéristique de A est
3−λ 0 8
PA (λ) = 3 −1 − λ 6
−2 0 −5 − λ
On développe PA (λ) par rapport à la deuxième colonne :

3−λ 8
PA (λ) = (−1 − λ)
−2 −5 − λ
= (−1 − λ)((3 − λ)(−5 − λ) + 16)
= −(1 + λ)3
donc le spectre de A est {−1}, il n’y a qu’une seule valeur propre.
• Soit E−1 le sous-espace propre de A associé à -1. Alors :
     
x x x
 y  ∈ E−1 ⇐⇒ A  y  = −  y  ⇐⇒ x = −2z
z z z
−2
   
0
Donc E−1 = vect( 0
  ,  1 )
1 0

2. Matrices diagonalisables
2.1. Définition. —

Définition 8.19

On dit qu’une matrice A de Mn (R) est diagonalisable s’il existe deux matrices notées P et D de
Mn (R), vérifiant : P inversible, D diagonale et
A = P DP −1 .
On dira que la matrice P diagonalise A.

Exemple 8.20. — Une matrice diagonale A est diagonalisable. En effet, il suffit de choisir P = In et
D = A.

2.2. Condition nécessaire et suffisante de diagonalisation. —

Proposition 8.21

Soit A une matrice de Mn (R).


A est diagonalisable ⇐⇒ il existe une base B de Rn constituée de vecteurs propres de A.

Démonstration. — On note (~e1 , · · · , ~en ) la base canonique de Rn .


2. MATRICES DIAGONALISABLES 65

Si A est diagonalisable, il existe deux matrices notées P et D de Mn (R), vérifiant : P inversible, D


diagonale dont le ième terme sur la diagonale est noté λi et
A = P DP −1 .
On note ~vi la ième colonne de P . On note B la famille (~v1 , · · · , ~vn ). Comme P est inversible, B est une base
de Rn . De plus
P −1 P = [P −1~v1 , · · · , P −1~vn ] = In = [~e1 , · · · , ~en ]
donc
∀1 ≤ i ≤ n, P −1~vi = ~ei
Par conséquent pour tout 1 ≤ i ≤ n
vi = P DP −1 v~i = P De~i
A~
Or D~ei est la ième colonne de D soit λi~ei donc
A~ui = λi P ~ei
et comme P ~ei est la ième colonne de P soit ~ui donc
A~ui = λi ~ui .
Ainsi B est une base de Rn constituée de vecteurs propres de A.
Réciproquement si il existe une base B = (~v1 , · · · , ~vn ) de Rn constituée de vecteurs propres de A. On
note P = [~v1 , · · · , ~vn ], P est inversible car B est une base de Rn . De plus on note λi la valeur propre associé
au vecteur propre v~i et on considère D la matrice diagonale dont le ième terme sur la diagonale est λi .
P DP −1 v~i = P De~i = λi P e~i = λi~vi .
Donc pour tout 1 ≤ i ≤ n,

P DP −1 v~i = A~
vi
donc
A = P DP −1 .

Remarque 8.22. — La preuve du théorème donne une méthode pour construire les matrices P et D à
partir d’une base de Rn constituée de vecteurs propres de A.

Exemple 8.23. — Nous montrons dans cet exemple que les matrices P et D ne sont pas uniques lorsque
la matrice A est diagonalisable.     
1 −1 1 1
Considérons la matrice A = . Posons ~u1 = et ~u2 = .
−1 1 1 −1
On a trouvé E0 = Vect[~u1 ] et E2 = Vect[~u2 ]. Comme la famille (~u1 , ~u2 ) est libre (vecteurs non coli-
néaires) c’est donc une base B de R2 constituée de vecteurs propres de A donc A est diagonalisable. De plus
si l’on pose
   
1 1 0 0
P = [~u1 , ~u2 ] = et D =
1 −1 0 2
on a
A = P DP −1 .
Par ailleurs la famille (~u2 , ~u1 ) est aussi une base de R2 constituée de vecteurs propres de A et nous aurons
   
−1 1 1 2 0
A = QD1 Q avec Q = et D1 = .
−1 1 0 0
Enfin la famille (2~u1 , ~u2 ) est aussi une base de R2 constituée de vecteurs propres de A et nous aurons
   
−1 2 1 0 0
A = RDR avec R = et D = .
2 −1 0 2
2. MATRICES DIAGONALISABLES 66

Une conséquence du théorème précédent

Proposition 8.24

Soit A une matrice de Mn (R). Soit λ1 , · · · , λp les p valeurs propres distinctes.


p
X
A est diagonalisable ⇐⇒ dim(Eλi (A)) = n
i=1

Remarque 8.25. — On obtient une base de Rn constituée de vecteurs propres de A en juxtaposant


(c’est-à-dire en réunissant) des bases des sous-espaces propres.
 
3 0 8
Exemple 8.26. — La matrice A =  3 −1 6  n’est pas diagonalisable. En effet, le polynôme
−2 0 −5
caractéristique est
3−λ 0 8
PA (λ) = 3 −1 − λ 6 = −(1 + λ)3
−2 0 −5 − λ
il y a une seule valeur propre −1 et le sous-espace propre associé est un sous-espace vectoriel de dimension
2, on ne peut donc pas trouver une base de R3 constituée de vecteurs propres de A.

2.3. Propriétés. —

Proposition 8.27 – Condition suffisante de diagonalisation

Soit A une matrice de Mn (R). Si A admet n valeurs propres distinctes alors A est diagonalisable.

Démonstration. — Soit λ1 , · · · , λn les n valeurs propres distinctes. Pour tout 1 ≤ i ≤ n, la dimension du


Xn
sous-espace propre Eλi (A) est supérieur ou égale à 1 donc dim(Eλi (A)) ≥ n, comme cette somme est
i=1
inférieure à n, elle est égale à n donc A est diagonalisable.
 
1 2 3
Exemple 8.28. — La matrice A = 0 4 5 de M3 (R) est triangulaire et admet trois valeurs propres
0 0 6
1, 4, 6, elle est donc diagonalisable.
 
1 0 0
Exemple 8.29. — La réciproque est fausse, considérons la matrice A = 0 1 0 de M3 (R) est diago-
0 0 6
nale et est diagonalisable et pourtant elle n’a que deux valeurs propres distinctes 1 et 6 (1 est racine double
du polynôme caractéristique).

Proposition 8.30

Soit A une matrice de Mn (R) admettant une unique valeur propre λ. Alors, A est diagonalisable si
et seulement si A = λIn .
3. CALCUL D’UNE PUISSANCE kÈME DE MATRICE 67

Démonstration. — Supposons que A soit diagonalisable, il existe donc une matrice inversible P de Mn (R)
et une matrice diagonale D telle que : A = P DP −1 . Mais comme A admet une seule valeur propre λ, la
matrice D est égale à λIn . Ainsi, on obtient : A = P (λIn )P −1 = λP In P −1 = λIn . On a donc démontré : A
est diagonalisable entraine que A = λIn .
La réciproque est immédiate.
On admet le résultat suivant

Proposition 8.31

Toute matrice symétrique A de Mn (R) est diagonalisable. De plus il existe une base orthonormée,
notée (u~1 , · · · , u~n ), de vecteurs propres de A c’est-à-dire

6 j,
0 si i =
∀1 ≤ i ≤ n, Au~i = λi u~i , et ∀1 ≤ i, j ≤ n, < u~i , u~i >=
1 si i = j.

Remarque 8.32. — Il n’y a aucun lien entre : A est une matrice inversible et A est une matrice diagona-
lisable.  
1 0
Il existe des matrices diagonalisables et non inversibles, par exemple : A = . En effet, det(A) = 0
0 0
donc A n’est pas inversible et pourtant A est diagonale donc diagonalisable.  
1 1
Il existe des matrices inversibles et non diagonalisables, par exemple : B = En effet, det(B) = 1
0 1
donc B est inversible. Comme B est triangulaire, ses valeurs propres sont ses termes diagonaux : B n’a donc
qu’une valeur propre : 1. On en déduit que si B est diagonalisable alors B est égal à I2 ce qui est faux donc
B n’est pas diagonalisable.

3. Calcul d’une puissance kème de matrice

Proposition 8.33

Soit A une matrice de Mn (R), on suppose que A est diagonalisable donc il existe P inversible et D
diagonale deux matrices de Mn (R) telles que :
A = P DP −1 .
Alors, on a
∀k ∈ N, Ak = P Dk P −1 .

Démonstration. — On procède par récurrence sur k, soit P (k) : Ak = P Dk P −1 .


• P (0) est vraie car A0 = In et P D0 P −1 = In .
• P (1) est vraie par construction de P et de D .
• Supposons que P (k) soit vraie pour un certain entier k ≥ 0. Alors, Ak+1 = Ak A = (P Dk P −1 )(P DP −1 )
car P (1) et P (k) sont vraies. Donc Ak+1 = P Dk (P −1 P )DP −1 = P Dk+1 P −1 car P −1 P = In . Ainsi,
P (k + 1) est vraie.

Vous aimerez peut-être aussi