Vous êtes sur la page 1sur 35

Chapitre 3

Les systèmes linéaires

3.1 Introduction
La résolution des équations est un problème aussi vieux que les mathématiques. Parmi les
situations que l’on peut modéliser par une équation, les plus simples sont celle pour lesquelles
l’équation est linéaire. La solution du problème d’arithmétique élémentaire du type : il y a
7 pommes dans un plat, si Marie en prend 2, combien en reste-il, est évidemment obtenue
en résolvant l’équation

x + 2 = 7 ⇒ x = 5.
Les équations linéaires sont donc simples, mais, quand elles impliquent plus d’une inconnue,
leur résolution exige l’utilisation d’une méthode qui doit être systématisée, surtout si l’on
veut l’implanter sur un calculateur.

Considérons donc une situation un peu moins triviale, soit celle d’une portion d’un réseau
routier. Nous étudions le traffic routier au voisinage de 4 intersections notées A, B, C, D. Le
sens de parcours des tronçons est indiqué par une flèche et l’apport à une intersection est
considéré comme positif si le véhicule part de l’intersection et comme négatif s’il y arrive. Le
nombre moyen de véhicules, par heure, est indiqué là où il est connu et on veut calculer le
traffic sur les tronçons x, y, z, w en respectant la règle que le nombre de véhicules qui arrivent
à une intersection est égale au nombre de véhicules qui en partent.

36
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 37

450 310

A x D
610 640

w
y

B C
600
520 z

480 390

Si l’on écrit les quatre égalités qui découle de l’application de la règle à chaque intersection,
on obtient le système

−x + y = 450 − 610 = −160


y−z = −520 + 480 = −40
(3.1)
−z + w = 390 − 600 = −210
x−w = 640 − 310 = 330
Un système de la forme (3.1) est appelé un système d’équations linéaires. Les symboles
x, y, z, w sont appelés inconnues et les nombres devant ces symboles sont appelés coefficients.
Plus généralement on a les définitions suivantes.

Définition 3.1.1 Une équation linéaire en x1 , . . . , xn est une équation de la forme

a1 x1 + . . . + an xn = b

où a1 , a2 , . . . , an , b ∈ R. Un système de m équations linéaires à n inconnues est un


ensemble de m équations linéaires de la forme ci-haut. Un vecteur ~v = (v1 , v2 , . . . , vn ) est
appelé solution du système si lorsque l’on remplace chacune des inconnues xi par la i-ème
composante de ~v l’équation est une égalité. L’ensemble de tous les vecteurs ~v pour lesquels
ceci se produit est appelé ensemble solution du système . Le système est dit consistant si
l’ensemble solution n’est pas vide. Sinon, il est dit inconsistant.

Exemple 3.1.1 Demandons à Maple de résoudre (3.1).


CHAPITRE 3. LES SYSTÈMES LINÉAIRES 38

> solve({-x+y=-160,y-z=-40, -z+w=-210, x-w=330},{x,y,z,w}) ;


{w = −210 + z, z = z, y = −40 + z, x = 120 + z}

On voit que le système possède une infinité de solutions décrites en fonction de la variable z,
il est donc consistant. On dira que z est une variable libre . Ce que ce résultat nous dit, c’est
que le traffic sur les 4 tronçons est entièrement connu lorqu’on le connait sur l’un d’eux. Ici
l’ensemble solution est infini et nous pouvons le décrire comme suit

S = {(120 + z, −40 + z, z, −210 + z) | z ∈ R}.

Notre but dans ce chapitre sera de développer des critères théoriques pour distinguer les
systèmes consistants des systèmes inconsistants et des méthodes algorithmiques pour calcu-
ler explicitement l’ensemble solution d’un système, lorsqu’il n’est pas vide. Ce travail sera
grandement facilité par la remarque suivante.

Proposition 3.1.1 Un système de m équations à n inconnues, peut toujours s’écrire sous


la forme d’une équation matricielle
A~x = ~b
où la matrice A ∈ Mm,n contient les coefficients de chacune des équations rangés en lignes,
le vecteur colonne (matrice n × 1) ~b a pour i-ème composante la somme des termes constants
de l’équation i reportée dans le membre de droite et le vecteur colonne ~x contient la liste des
inconnues.

Démonstration: Ce n’est qu’un jeu d’écriture. Le membre de gauche d’une équation


linéaire
a1 x1 + . . . + an xn
n’est rien d’autre que le produit scalaire du vecteur (a1 , . . . , an ) par le vecteur ~x = (x1 , . . . , xn ).
Le reste de la démonstration découle de la définition du produit d’une matrice par un vecteur.

Exemple 3.1.2 Ce lien fondamental est connu par Maple, qui a même une fonction
pour trouver la matrice associée à un système le vecteur contenant les membres de droite
correspondant . Si nous reprenons l’exemple précédent, il nous donne,
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 39

> sys :=[-x+y=160,y-z=40,-z+w=210,x-w=-330] ;


sys := [−x + y = 160, y − z = 40, −z + w = 210, x − w = −330]
> (A,b) :=GenerateMatrix(sys,[x,y,z,w]) ;
−1 1 0 0 160
   

 0 1 −1 0   40 
   
A, b := 

, 
  
0 0 −1 1 210

   
1 0 0 −1 −330
> b;
160
 

 40 
 
 
 210 
 
−330

3.2 Les systèmes à deux et trois inconnues


Dans cette courte section, nous allons donner une interprétation algébrique de certaines
propriétés géométriques simples. Ceci nous permettra d’illustrer les notions de systèmes
consistants et inconsistants.
(a) Une droite contient une infinité de points. Puisque l’équation d’une droite s’écrit

ax + by = c,

l’énoncé précédent se traduit algébriquement comme suit : une équation à deux in-
connues possède toujours une infinité de solutions.
(b) Dans l’espace deux plans sont soit parallèles soit concourants. Dans le dernier cas
l’intersection est une droite qui contient une infinité de points. Nos deux plans ont des
équations de la forme
a1 x + b1 y + c1 z = d1 ,
a2 x + b2 y + c2 z = d2 .
Un point (x, y, z) est dans l’intersection si et seulement si ses coordonnées donnent
une solution du système de deux équations à trois inconnues. Nous concluons donc, de
l’énoncé géométrique, que l’ensemble solution d’un tel système est, ou bien vide, ou
bien infini. Nous pouvons ajouter que la seconde possibilité est la plus fréquente.
(c) Dans le plan, si deux droites se coupent, elles ne se coupent qu’en un point sauf si elles
sont confondues. Dans l’espace, si trois plans se coupent, ils peuvent le faire en un seul
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 40

point, selon une droite ou selon un plan (lorsqu’ils sont confondus). Algébriquement,
ceci signifie que les systèmes carrés à deux ou trois inconnues ont pour ensemble solu-
tion, l’ensemble vide (les deux droites sont parallèles ou deux des plans sont parallèles),
un ensemble d’un élément ou un ensemble infini.
(d) Dans le plan, trois droites se coupent rarement. Dans l’espace, quatre plans se coupent
rarement. Donc, la plupart du temps, les systèmes à deux et trois inconnues qui ont
plus d’équations que d’inconnues n’ont pas de solutions.

Définition 3.2.1 Pour n et m deux entiers, on dira d’un système de m équations à n


inconnues qu’il est
(a) sousdéterminé si m < n ;
(b) surdéterminé si m > n.

Lorsque n = 2 ou 3, nous avons vu que les systèmes sousdéterminés avait presque toujours
une infinité de solutions, alors que les surdéterminés en ont rarement.
1111111111111
0000000000000
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111 surdetermine
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
sousdetermine

0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111

3.3 Les systèmes triangulaires


Il existe une famille de systèmes dont la résolution ne pose pas de problèmes. En particulier, si
dans un système l’une des équations n’implique qu’une inconnue, elle détermine entièrement
cette inconnue. Les systèmes triangulaires, c’est à dire les systèmes dont la matrice est
triangulaire supérieure ou inférieure peuvent facilement être ramenés à ce cas. Nous illustons
d’abord le procédé sur un exemple.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 41

Exemple 3.3.1 Le système 4 × 4,




 x−y+z−t = 1
2y − 2z + t = 0

(3.2)

 z − 3t = 6
2t = −2

est facilement résolu par une remontée . On calcule t dans la dernière équation pour obtenir
t = −1. Puisque t est connu, la troisième équation ne contient que l’inconnue z et peut-être
écrite comme z = 3. t, z étant connu, la seconde équation ne contient plus que l’inconnue y
et peut se récrire 2y = −t + 2z = 7, donc y = 72 . Finalement, on extrait x de la première
équation et le travail est terminé.
7 1
x =1+y−z+t = 1+ −3−1 = .
2 2

L’approche est clairement générale. Nous la résumons dans l’algorithme suivant.

Algorithme 3.3.1 Soit S un système linéaire n × n dont la matrice est triangulaire


supérieure.

a1,1 a1,2 ... ... ... a1,n


    
x1 b1
 0 a2,2 ... ... ... a2,n   x2   b2 
 .. .. ..  .   . 
..     
 0 0 . . . .   ..   .. 

  =  
 0 ... 0 ak,k . . . ak,n   xk   bk 

.. ..   .   . 
.   ..   .. 

 0 ... ... 0 .
0 0 ... ... . . . an,n xn bn

La solution du système peut-être obtenue de la façon suivante

Pour i = n, . . . , 1 faire
(a) si ai,i = 0 le système peut-être inconsistant STOP.
(b)
n
X
s= ai,j xj
j=i+1

(c)  
1
xi = (bi − s).
ai,i

Note : en (b), si i = n la somme est vide. Par convention, une somme vide vaut 0.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 42

Remarque 3.3.1 A l’étape (a), nous bloquons l’algorithme car sinon nous admettrions
une division par 0. En fait si ai,i = 0 il se pourrait que la variable numéro i soit libre, c’est-à-
dire que le système possède une infinité de solutions pour lesquelles cette variable prendrait
toutes les valeurs réelles. Ce serait le cas si la quantité bi − s = 0. Nous discuterons ce cas
particulier important plus tard.

3.4 Opérations sur les systèmes


Nous voulons maintenant nous attaquer à nos deux questions. Il est remarquable que et
les résultats théoriques et l’algorithme de calcul seront obtenus par la même approche qui
consiste à faire, de façon systématique, des opérations élémentaires sur les équations de
façon à remplacer le système par un système équivalent qui soit le plus proche possible d’un
système triangulaire. Précisons ce que nous appelons équivalents.

Définition 3.4.1 Deux systèmes de mêmes dimensions sont dits équivalents s’ils im-
pliquent les mêmes inconnues et ont le même ensemble solution.

Exemple 3.4.1 Les sytèmes 2 × 2 suivants sont équivalents.


 
−2x + 3y = 1 −2x + 3y = 1
, .
x − 4y = −3 −5y = −5
mais le deuxième est plus facile à résoudre.

Rappelons maintenant les trois règles suivantes. On peut, sans changer l’ensemble solution
d’un système d’équations linéaires :
(1) multiplier une équation par une constante non nulle ;
(2) échanger deux équations entre elles ;
(3) additionner un multiple d’une équation à une autre.

Exemple 3.4.2 L’ensemble des solutions du système



3x + 5y = 2
2x + 3y = −1
est égal à l’ensemble des solutions du système

6x + 10y = 4
2x + 3y = −1

2x + 3y = −1
ou du système ,
 3x + 5y = 2
3x + 5y = 2
ou du système .
5x + 8y = 1
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 43

Cet exemple montre clairement que les opérations admissibles sur les équations ne changent
que les coefficients. On pourrait donc éliminer les variables et ne travailler que sur les ma-
trices. Il faut cependant prendre garde que les opérations doivent aussi être faites sur les
membres de droite.

Définition 3.4.2 On appelle matrice augmentée du système de m × n




 a11 x1 + a12 x2 + . . . + a1n xn = b1
a21 x1 + a22 x2 + . . . + a2n xn = b1


 . . ..................................
am1 x1 + am2 x2 + . . . + amn xn = bm

la matrice  
a11 a12 . . . a1m | b1
 a21 a22 . . . a2m | b2 
Aa =  .. .. .. .. 
 
 . . . | . 
am1 am2 . . . amn | bm
obtenue de la matrice du système en lui adjoignant la colonne constituée du membre de
droite

Les trois règles énoncées plus haut peuvent maintenant être traduites dans le contexte ma-
triciel. Si on effectue, sur la matrice augmentée d’un système, l’une des trois opérations
élémentaires sur les lignes suivantes, on obtient la matrice augmentée d’un système équivalent.
(1) multiplier la ligne numéro i par une constante c non nulle (noté Ri → cRi ) ;
(2) échanger les lignes numéro i et numéro j entre elles (noté Ri ↔ Rj ) ;
(3) additionner un multiple de la ligne numéro i à la ligne numéro j (noté Rj → Rj + cRi ).

3x + 5y = 2
Exemple 3.4.3 La matrice augmentée du système
  2x + 3y = −1
3 5 2
est que l’on peut transformer :
2 3 −1
 1 " 5 2
# " 5 2
#
1 1

3 5 2 3 1 R 3 3 R−2−2R1 3 3
−→ −→
2 3 −1 1 3 −1 0 −3 −31 7

" #
1 53 32 R1 − 53 R2 1 0 −11
 
−3R2
−→ −→
0 1 7 0 1 7
(
x + 53 y = 2

3x + 5y = 2 3
Le système est alors équivalent au système ,
2x + 3y = −1 2x + 3y = −1
( (
x + 53 y = 2
x + 35 y = 23

3 x = −11
au système , au système , et au système .
1
−3y = −3 7
y = 7 y = 7
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 44

3.4.1 Élimination de Gauss


Définition 3.4.3 On appelle élément directeur d’une ligne d’une matrice, sa première
entrée non-nulle. Une matrice A ∈ Mm,n sera dite sous forme échelon si
(1) les lignes ne contenant que des zéros sont sous les autres lignes ;
(2) chaque élément directeur d’une ligne est à la droite de l’élément directeur de la ligne
qui la précède.
Exemple 3.4.4
   
  2 3 4 0 5 2 3 4 0 5
2 0 2 0
0 1 3,  0 0 0 0,
0
 0 −5 1 3 
.
0 0 −5 1 3 0 0 0 0 2
0 0 0
0 0 0 0 2 0 0 0 0 0
La première matrice est sous forme échelon, mais pas la seconde. La troisième matrice, qui
est obtenue de la seconde en échangeant successivement les lignes 2 et 3 puis 3 et 4, est sous
forme échelon.

La forme échelon est une généralisation de la forme triangulaire. Un système sous forme
échelon est facile à résoudre.
Exemple 3.4.5  
  x1  
2 3 4 0 5   1
0 0 −5 1 3  x2  
  x3  =  0 


0 0 0 0 2   −2 
 x4 
0 0 0 0 0 0
x5
La dernière équation ne donne pas d’information. De la précédente, on tire, x5 = −1. Si on
reporte dans l’équation précédente, on obtient
1
x3 = (−3 + x4 ). (3.3)
5
La variable x4 est libre. Nous reportons ceci dans la première équation qui nous donne
1
x1 = (1 − 3x2 − 4x3 + 5).
2
La variable x2 est aussi libre et nous pouvons finalement écrire en utilisant (3.3)
 
1 4
x1 = 18 − 3x2 − x4 .
2 5
L’ensemble solution est infini et nous pouvons décrire les solutions en fonction des variables
libres x2 et x4 . Ceci nous donne
 
1 4 1
S = {( 18 − 3x2 − x4 , x2 , (−3 + x4 ), x4 , −1) | x1 , x4 ∈ R}.
2 5 5
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 45

La procédure est claire.


- On commence par la ligne la plus courte.
- Pour une ligne donnée, on détermine la variable qui correspond à l’élément directeur.
Si d’autres variables apparaissent qui n’ont pas encore été déterminées, on les choisit
comme variables libres.
- Les variables libres sont nécessairement celles dont le numéro ne correspond au numéro
de colonne d’aucun élément directeur.
- Si la procédure conduit à une équation du type 0 = C où C 6= 0, le système est
inconsistant.
La procédure suivante , inspirée de la méthode d’élimination des variables étudiée au secon-
daire permet de mettre la matrice augmentée d’un système sous forme échelon.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 46

Algorithme 3.4.1 Donnée : la matrice augmentée Aa d’un système S.


 
a11 a12 . . . a1n | a1,n+1 := b1
 a21 a22 . . . a2n | a2,n+1 := b2 
Aa =  .. .. .. ..
 

 . . . | . 
am1 am2 . . . amn | am,n+1 := bm

Sortie : Une forme échelon de la matrice Aa .

1. j = 1,jmax = n.
2. d = maxl=j,...,n |aj,l |.
3. Si d 6= 0 aller à 5.
4. Si jmax = j, stop, sinon
(a) jmax = jmax − 1,
(b) Rl ↔ Rl+1 , pour l = j, . . . , jmax .// si on trouve une ligne nulle, on la place à la
fin,
(c) aller à 2,
5. Si aj,j = 0 faire // on cherche un élément directeur dans la colonne j
(a) k = j + 1,
(b) si ak,j 6= 0 faire Rj ↔ Rk ,
(c) aller à 6.
(d) Si k = jmax aller à 7. // La colonne j ne contient pas d’élément directeur.
(e) k = k + 1 aller à (b).
6. b = aj,j , pour k = j + 1, . . . n faire
(a) m = ak,j /b.
(b) Si m 6= 0, faire Rk ← Rk − mRj
7. j = j + 1. Si j < jmax + 1, aller à 2. sinon stop

Exemple 3.4.6
a) La matrice augmentée du système

2x + 3y + 4z = 1
x + 2y − z = 4
peut être mise sous sa forme échelon de la façon suivante :
   
2 3 4 1 R2 ←R2 −(1/2)R1 1 2 −1 4
−→
1 2 −1 4 0 1/2 −3 7/2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 47

Le système initial est alors équivalent au système



x + 2y − z = 4
1 ;
2
y − 3z = 7/2

De la dernière équation, on tire que

y = 6z + 7
et de la première que

x = 4 − 2y + z = 4 − 2(6z + 7) + z = −10 − 11z.


Il y a donc une variable libre z, ce qui correspond au fait que la troisième colonne ne
contient pas d’élément directeur, et l’ensemble solution s’écrit

S = {(−11z − 10, 6z + 7) | z ∈ R}.


b) Considérons la matrice augmentée suivante.
 
0 0 0 0 0 | 0
 1 2 3 −1 0 | 1 
1 3 1

 2 1 2 −2 0
 | 12 

0 7 0 0 2 | −6 
0 14 0 2 −4 | 3

À la première étape, la ligne de 0 est déplacée en position 5.


 
1 2 3 −1 0 | 1
1 1 3
− 21 0 | 12 
2 2 
0 7 0 0 2 | −6 
 
0 14 0 2 −4 | 3 
0 0 0 0 0 | 0
L’élément directeur 1 de la première ligne, est utilisé comme pivot . Pour annuler tous
les éléments qui le suivent dans la colonne, on fait R2 ← R2 − 21 R1 , les troisième et
quatrième lignes restent inchangées.
 
1 2 3 −1 0 | 1
0 0 0 0 0 | 0 
 
0 7 0 0 2 | −6 
 
 0 14 0 2 −4 | 3 
0 0 0 0 0 | 0
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 48

Ceci crée une autre ligne de 0 dans la matrice, que nous déplaçons en position 4 par
deux échanges successifs.
 
1 2 3 −1 0 | 1
0 7 0 0 2 | −6 
 
 0 14 0 2 −4 | 3 
 
0 0 0 0 0 | 0 
0 0 0 0 0 | 0

L’élément directeur 7 de la seconde ligne est maintenant le pivot . Il nous reste à faire
R3 ← R3 − 2R2 pour obtenir la forme échelon
 
1 2 3 −1 0 | 1
0 7 0 0 2 | −6 
 
 0 0 0 2 −8 | 15 
 
0 0 0 0 0 | 0 
0 0 0 0 0 | 0

Notons que les colonnes 3, 5 ne contiennent pas d’élément directeur. Les variables x3 et
x5 sont donc libres. Les deux dernières équations ne fournissent pas d’information. De
la troisième, on tire que x4 = 15
2
+ 4x5 . De la seconde, on a x2 = − 76 − 27 x5 , alors que la
6
première donne x1 = 1−2(− 7 − 27 x5 )−3x3 −( 15 2
81
+4x5 ) c’est-à-dire x1 = 14 −3x3 − 19 x.
2 5
L’ensemble solution s’écrit alors
81 19 6 2 15
S = {( − 3x3 − x5 , − − x5 , x3 , + 4x5 , x5 ) | x3 , x5 ∈ R}.
14 2 7 7 2

c) Si dans l’exemple précédent, le membre de droite de la troisième équation avait été


1 au lieu de 21 , après le déplacement de la ligne de 0, l’opération R2 ← R2 − 12 R1
aurait conduit à une rangée de 0 pour la matrice mais pas pour la matrice augmentée
puisque l’entrée numero 2 du membre de droite serait devenue 1 − 12 = 21 . Dans ce cas,
l’équation correspondante aurait été 0 = 12 ce qui est impossible. Dans ce cas, dès la
seconde étape, on aurait su que le système était inconsistant.
d)  
1 2 1 | 1
 2 −1 1 | 2
 
4 3 3 | 4
2 −1 3 | 5
Maple a une commande pour l’élimination (> GaussianElimination ;) , ainsi que pour
le processus de remontée ( > BackwardSubstitute ;).
Le calcul ci-dessous montre que notre système ne possède qu’une solution, car la partie
non-nulle de la matrice est une matrice triangulaire, dont tous les éléments diagonaux
sont non nuls.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 49

> A :=Matrix(4,3,[1,2,1,2,-1,1,4,3,3,2,-1,3]) ;
1 2 1
 

 2 −1 1 
 
A := 
 
 4 3 3 

2 −1 3
> droit :=Vector([1,2,4,5]) ;
1
 

 2 
 
droit :=  
 4 
 
5
> Aelim :=GaussianElimination(<A|droit>) ;
1 2 1 1
 

 0 −5 −1 0 
 
Aelim := 
 0 0

 2 3 

0 0 0 0
> sol :=BackwardSubstitute(Aelim) ;
 
1/10
 
 −3/10 
sol :=  
3/2

3.5 Systèmes homogènes et inhomogènes


Définition 3.5.1 Un système déquations linéaires est dit homogène si le membre de
droite du système est le vecteur 0. Un système est dit inhomogène s’il n’est pas homogène.

Un système homogène A~x = 0 possède toujours au moins une solution, la solution ~x = 0.


Nous allons montrer que, s’il possède plus d’une solution, il en possède en fait une infinité.

Proposition 3.5.1 Soit A ∈ Mm,n . Si le système A~x = 0 possède une solution ~x0 6= 0,
alors il possède une infinité de solutions non nulles.

Démonstration: Si ~x0 est une solution non nulle et c 6= 0 est un scalaire non nul,

A(c~x0 ) = cA~x0 = 0,
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 50

donc ~x1 = c~x0 est une solution du système différente de ~x0 . Puisque c est arbitraire, il y a
une infinité de tel ~x1 .
Dans ce contexte, les sytèmes sous déterminés sont particuliers.

Théorème 3.5.1 Un système homogène de m équations linéaires à n inconnues pour


lequel m < n, possède une infinité de solutions.

Démonstration: Soit Ae la forme échelon de la matrice augmentée du système. Suppo-


sons qu’elle ait k lignes nulles ou k ≥ 0. Le membre de droite de chacune d’elle étant 0, il
n’y a pas d’impossibilité qui résulte de leur apparition. Il y a alors m − k éléments directeurs
et n − (m − k) variables libres. Puisque n > m, n − m + k > 0 et le nombre de variables
libres n’est pas nul. Une seule variable libre suffit pour obtenir une infinité de solutions.

Exemple 3.5.1 La matrice augmentée du système



x + x2 + x3 + 2x4 = 0
 1


−x2 + 2x3 + x4 = 0


 x1 + 3x3 + 3x4 = 0
     
1 1 1 2 0 1 1 1 2 0 1 1 1 2 0
R3 −R1
devient  0 −1 2 1 0  −→  0 −1 2 1 0  −1R −→2  0 1 −2 −1 0 
1 0 3 3 0 0 −1 2 1 0 0 −1 2 1 0
   
1 0 3 3 0 1 0 3 3 0
R1 −R2 R3 +R2
−→  0 1 −2 −1 0  −→  0 1 −2 −1 0  .
0 −1 2 1 0 0 0 0 0 0
Le système initial est alors équivalent au système

x + 3x3 + 3x4 = 0
 1


x2 − 2x3 − x4 = 0


 0 = 0

dont l’ensemble des solutions est

S = {(−3x3 − 3x4 , 2x3 + x4 , x3 , x4 ) | x3 , x4 ∈ R}.

Une des raisons de notre intérêt pour les systèmes homogènes est le lien qui existe entre la
nature de leur ensemble solution et celle des ensembles solution des systèmes inhomogènes
associés.

Lemme 3.5.1 Soit A ∈ Mm,n et ~b ∈ Rm . Soit ~x1 ∈ Rn une solution du système A~x = ~b
et ~x0 une solution du système homogène A~x = 0. Alors, pour tout c > 0, ~x2 = ~x1 + c~x0 est
un autre solution du système inhomogène.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 51

Démonstration:

A~x2 = A(~x1 + c~x0 ) = A~x1 + cA~x0 = ~b + c0 = ~b.

Une première conséquence de ce Lemme est qu’un système sous-déterminé ne peut pas avoir
une seule solution. Il peut cependant ne pas en avoir. En général, nous avons le résultat
suivant.

Théorème 3.5.2 Soit A ∈ Mm,n et ~b ∈ Rm . Si le système A~x = ~b possède plus d’une


solution, il en possède nécessairement une infinité.

Démonstration: Si ~x1 et ~x2 sont deux solutions du système, puisque

A(~x1 − ~x2 ) = A~x1 − A~x2 = ~b − ~b = 0,

~x0 = ~x1 − ~x2 est une solution non-nulle du système homogène. Le résultat découle alors du
lemme 3.5.1.
Dans le cas des systèmes carrés , on peut préciser le lien existant entre la consistance des
systèmes homogènes et inhomogènes ayant la même matrice.

Lemme 3.5.2 Soit A ∈ Mn,n . Les trois propriétés suivantes sont équivalentes.
a) Le système A~x = 0 ne possède que la solution ~x = 0.
b) Les élément diagonaux d’une forme échelon de A sont tous non nuls.
c) Pour tout vecteur ~b, le système A~x = ~b possède une solution unique.

Démonstration: Démontrons d’abord que l’énoncé a) implique l’énoncé b). Si un des


éléments diagonaux de la forme échelon de A est nul, c’est qu’au moins une des colonnes
de A ne contient pas d’élément directeur et donc que la variable portant le numéro de cette
colonne peut être considérée comme libre. Mais, s’il y a une variable libre, c’est que l’ensemble
solution du système homogène est infini, ce qui contredit a).

Démontrons ensuite que l’énoncé b) implique l’énoncé c). Si tous les éléments diagonaux
de la forme échelon de A sont non nuls, le système A~x = ~b est équivalent à un système
triangulaire U~x = ~b′ . Puisque tous les éléments diagonaux de U sont non-nuls, chacun d’eux
est un élément directeur de sa rangée, il n’y a donc pas de variable libre et l’algorithme 3.3.1
permet de calculer l’unique solution ~x.

Il est clair que l’énoncé c) implique l’énoncé a).


CHAPITRE 3. LES SYSTÈMES LINÉAIRES 52

3.5.1 L’algorithme de Gauss-Jordan


Définition 3.5.2 Deux matrices sont dites équivalentes suivant les lignes, si l’une peut
être obtenue de l’autre au moyen d’opérations élémentaires sur les lignes.
Définition 3.5.3 Une matrice est dite sous forme échelon réduite si,
a) elle est sous forme échelon ;
b) tous ses éléments directeurs sont égaux à 1 ;
c) dans une colonne qui contient un 1 directeur, il n’y a pas d’autre élément non nul.
Exemple 3.5.2 Considérons l’exemple
 
1 2 3 −1 0 | 1
1 1 3 − 21 0 | 21 
2 2 
0 7 0 0 2 | −6 
 
 0 14 0 2 −4 | 3 
0 0 0 0 0 | 0
La forme échelon de cette matrice est donnée par
 
1 2 3 −1 0 | 1
0 7 0 0 2 | −6 
 
0 0 0 2 −8 | 15 
 
0 0 0 0 0 | 0 
0 0 0 0 0 | 0
Dans ce cas, il y a deux variables libres x3 et x5 . Pour mettre la matrice sous forme échelon
réduite, nous remplaçons d’abord les éléments directeurs par des 1, en faisant les opérations
suivantes : R2 ← 71 R2 et R3 ← 12 R3 .
 
1 2 3 −1 0 | 1
2
0 1 0 0
 7
| − 67 

 0 0 0 1 −4 | 15 
 2 
0 0 0 0 0 | 0 
0 0 0 0 0 | 0
Nous devons ensuite annuler les éléments non-directeurs des colonnes 2 et 4. R1 ← R1 − 2R2
1 0 3 −1 − 74 | 19
 
7
2
0 1 0 0
 7
| − 67 

 0 0 0 1 −4 | 15 
 2 
0 0 0 0 0 | 0 
0 0 0 0 0 | 0
R1 ← R1 + R3
0 − 32 | 143
 
1 0 3 7 14
2
0
 1 0 0 7
| − 67 

0
 0 0 1 −4 | 15
2 

0 0 0 0 0 | 0 
0 0 0 0 0 | 0
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 53

La matrice résultante est sous forme échelon réduite.

Nous pourrions formaliser l’exemple ci-dessus et montrer que la méthode aboutit à une
matrice échelon réduite quelle que soit la matrice de départ. Le fait que la matrice obtenue
soit toujours la même, sans égard à l’ordre des opérations n’est cependant pas évident.

Théorème 3.5.3 Soit A ∈ Mm,n , il existe une unique matrice échelon réduite R ∈ Mm,n
qui est équivalente à A suivant les lignes.

Remarque 3.5.1 La méthode de transformation d’une matrice A en sa forme échelon


réduite est appelée méthode de Gauss-Jordan . Cette méthode n’est rien d’autre que l’appli-
cation plus poussée de la méthode d’élimination à la partie supérieure de la matrice échelon.
Elle est souvent présentée comme une méthode de résolution des systèmes. Mais, à ce titre,
elle n’est pas compétitive car beaucoup plus chère que la combinaison de l’élimination avec
la remontée triangulaire. Nous limiterons son application au calcul des inverses.

3.5.2 Le rang d’une matrice, prise 1


Définition 3.5.4 On appelle rang d’une matrice A ∈ Mm,n , noté r(A), le nombre de
lignes non nulles de la forme échelon réduite de cette matrice.

Le rang de la matrice de l’exemple 3.5.2 est 3.

Remarque 3.5.2 Notons que le rang d’une matrice est aussi égal au nombre de colonnes
contenant un 1 directeur.

La notion de rang sera très utile par la suite. Les deux propriétés suivantes découlent direc-
tement du théorème et de la remarque.

Proposition 3.5.2 Soit A et B deux matrices m × n.


(a) Si A et B sont équivalentes suivant les lignes, r(A) = r(B).
(b) r(A) ≤ min(m, n).

Le résultat suivant illustre le lien existant entre le rang d’une matrice et la consistance des
systèmes linéaires associés.

Théorème 3.5.4 Soit A ∈ Mm,n une matrice et ~b ∈ Rm un vecteur. On note [A|~b] la


matrice augmentée du système A~x = ~b. On a alors,
(a) Si r([A|~b]) > r(A) le système n’admet aucune solution.
(b) Si r([A|~b]) = r(A) = r, le système aura une solution unique si r = n et une infinité de
solution si r < n.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 54

Démonstration: Pour (a), notons que, si r([A|~b]) > r(A), ceci implique que, après
réduction sous forme échelon-réduite, le membre de droite contient un 1 en position r(A) + 1.
Ceci implique que l’équation correspondante est de la forme 0 = 1 et donc que le système
est inconsistant.

Dans le cas (b), le dernier 1 directeur est dans la colonne numéro r ≤ n. Si r = n, cela signifie
que m ≥ n et que les m − n dernières lignes sont de la forme 0 = 0. Puisque chaque colonne
contient un 1 directeur, il n’y a pas de variables libres et aucune équation inconsistante, le
système possède alors une solution unique.

Si, au contraire, r < n, il y a au moins une variable libre et le système possède une infinité
de solution.

Exemple 3.5.3

> A :=Matrix(4,3,[1,2,-1,1,0,3,2,2,2,-1,-1,-1]) ;
1 2 −1
 

 1 0 3 
 
A := 
 2

 2 2 

−1 −1 −1
> ReducedRowEchelonForm(A) ;
1 0 3
 

 0 1 −2 
 
 
 0 0 0 
 

0 0 0

On voit que la troisième colonne est une combinaison linéaire des deux premières.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 55

> Rank(A) ;
2
> Ab :=<A|Vector([1,1,1,1])> ;
1 2 −1 1
 

 1 0 3 1 
 
Ab := 
 2

 2 2 1 

−1 −1 −1 1
> ReducedRowEchelonForm(Ab) ;
1 0 3 0
 

 0 1 −2 0
 

 
 0 0 0 1 
 
0 0 0 0
> Rank(Ab) ;
3

On voit bien que la troisième équation est inconsistante. Ceci correspond a l’apparition d’un
1 directeur de plus.
> c :=Vector([-1,1,0,0]) ;
−1
 

 1 
 
c :=  
 0 

0
> Ac :=<A|c> ;
1 2 −1 −1
 

 1 0 3 1 
 
Ac :=  
 2 2 2 0 
 

−1 −1 −1 0
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 56

> ReducedRowEchelonForm(Ac) ;
1 0 3 1
 

 0 1 −2 −1 
 
 
 0 0 0 0 
 
0 0 0 0
> Rank(Ac) ;
2

Cette fois le système est consistant. La variable x3 est libre et il y a une infinité de solutions.
> M :=Matrix(3,3,[1,2,-1,1,-1,3,0,1,2]) ;
 
1 2 −1
 
M :=   1 −1 3 

0 1 2
> Mb :=<M|Vector([1,1,1])> ;
 
1 2 −1 1
 
Mb :=   1 −1 3 1 

0 1 2 1
> ReducedRowEchelonForm(Mb) ;
 
1 0 0 1/2
 
 0 1 0 2/5 
 
0 0 1 3/10
> Rank(Mb) ;
3

Il n’y a pas de nouveau 1 directeur, donc le système est consistant. Il n’y a aucune variable
libre ce qui implique que la solution est unique.

3.6 Les systèmes carrés


Nous voulons maintenant explorer le lien fondamental entre la question de consistance d’un
système carré et celle d’inversibilité de sa matrice. Pour ce faire nous devons d’abord donner
une interprétation matricielle de l’algorithme d’élimination. Cette interprétation conduira à
un résultat fondamental sur l’équivalence entre cet algorithme et la factorisation des matrices,
dont l’intérêt sera à la fois théorique et pratique.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 57

3.6.1 Matrices élémentaires


Définition 3.6.1 Une matrice élémentaire n × n est une matrice obtenue de In après
avoir effectué l’une des trois opérations élémentaires sur les lignes de In .
     
1 0 0 1 0 0 1 0 0
Exemple 3.6.1  0 4 0  ;  0 0 1  ;  0 1 0 
0 0 1 0 1 0 0 5 1

Proposition 3.6.1 Soit A une matrice m × n. Soit E la matrice obtenue après avoir
effectué une opération élémentaire sur les lignes de Im . Alors EA est la matrice obtenue
après avoir effectué la même opération élémentaire sur les lignes de A.

La démonstration de ce théorème étant assez facile, nous nous contenterons de l’llustrer sur
un exemple.

Exemple 3.6.2
   
1 2 3 R2 ←R2 −3R1 1 2 3
A= −→ ;
3 2 1 0 −4 −8
   
1 0 R2 ←R2 −3R1 1 0
I2 = −→ =E;
0 1 −3 1
     
1 0 1 2 3 1 2 3
EA = = .
−3 1 3 2 1 0 −4 −8

Remarque 3.6.1 On vérifie directement les observations suivantes.


i R ←cR
i
Ri ← 1c Ri
(1) A −→ B −→ A.
Ri ↔Rj Ri ↔Rj
(2) A −→ B −→ A.
Ri ←Ri +cRj Ri ←Ri −cRj
(3) A −→ B −→ A.

La traduction de cette remarque en langage matriciel correspond au résultat suivant.

Proposition 3.6.2 Toute matrice élémentaire est inversible et l’inverse d’une matrice
élémentaire est aussi une matrice élémentaire.

Démonstration: Elle découle directement de la remarque ci-dessus qui décrit comment


construire explicitement les matrices inverses des matrices élémentaires.

Théorème 3.6.1 Soit A une matrice n×n. Alors les propriétés suivantes sont équivalentes.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 58

(1) A est inversible.


(2) A~x = O ne possède que la solution triviale.
(3) A est équivalente suivant les lignes à In .

Démonstration:
(i) Montrons que (1) implique (2). Soit A inversible. Soit ~x0 une solution de A~x = O.
Alors A~x0 = O. D’où A−1 (A~x0 ) = A−1 O = O, i.e. (A−1 A)~x0 = O, i.e. ~x0 = O.
(ii) Montrons que (2) implique (3). En vertu du lemme 3.5.2, n’importe quelle forme échelon
de A a toutes ses entrées diagonales non-nulles. Donc, pour une forme échelon donnée on
peut diviser chacune des lignes par l’entrée diagonale et obtenir un système équivalent
dont la matrice augmentée est de la forme

1 a1,2 a1,3 . . . a1,n 0


 
0 1 a2,3 . . . a2,n 0
 .. .. .. ..  .
0 0 . . . .
0 ... ... ... 1 0
En opérant colonne par colonne il est maintenant facile de ramener cette matrice à la
matrice identité par une suite d’opérations élémentaires.
(iii) Montrons que (3) entraı̂ne (1). Supposons que A se réduit à In au moyen d’opérations
élémentaires sur les lignes. Alors, d’après 3.6.1, chacune de ces opérations est équivalente
à multiplier à gauche par une certaine matrice élémentaire. Il existe alors des matrices
élémentaires E1 , . . . , Ek telles que Ek . . . E2 E1 A = In .
D’après 3.6.2, E1 , . . . , Ek sont inversibles. D’où, en multipliant respectivement à
gauche par Ek−1 , . . . , E1−1 , nous obtenons

E1−1 E2−1 . . . Ek−1 Ek . . . E2 E1 A = E1−1 E2−1 . . . Ek−1 In = E1−1 E2−1 . . . Ek−1 .

Donc A est inversible, car A est un produit de matrices inversibles..

Corollaire 3.6.1 Soit A une matrice n × n. Si la forme échelon réduite suivant les lignes
de A n’est pas In , alors A n’est pas inversible.

3.6.2 Calcul de l’inverse


S’il existe des matrices élémentaires telles que Ek . . . E2 E1 A = In , nous avons conclu que A
est inversible. Comme (
Ek . . . E2 E1 A = In
,
Ek . . . E2 E1 In = A−1
nous déduisons que In et A−1 sont des matrices obtenues en multipliant par les mêmes
matrices élémentaires dans le même ordre. Cette remarque suggère une première méthode
pour trouver l’inverse d’une matrice carrée n × n A, si cet inverse existe.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 59

Algorithme 3.6.1
(1) construire la matrice n × 2n, [A|In ],
(2) mettre A sous sa forme échelon réduite suivant les lignes,
(3) effectuer sur In les mêmes opérations élémentaires que sur A et ce dans le même ordre.
 
1 1 1
Exemple 3.6.3 L’inverse de A =  0 1 0  exist-t-il ? Si oui, quel est-il ?
1 2 0
Comme
   
1 1 1 1 0 0 1 0 1 1 −1 0
h1 −h2
[A|I3 ] = 0 1 0 0 1 0
  −→  0 1 0 0 1 0 
1 2 0 0 0 1 1 2 0 0 0 1
   
1 0 1 1 −1 0 1 0 1 1 −1 0
h3 −h1 h3 −2h2
−→  0 1 0 0 1 0  −→  0 1 0 0 1 0 
0 2 −1 −1 1 1 0 0 −1 −1 −1 1
   
1 0 1 1 −1 0 1 0 0 0 −2 1
−1h3 h1 −h3
−→  0 1 0 0 1 0  −→  0 1 0 0 1 0 
0 0 1 1 1 −1 0 0 1 1 1 −1
 
0 −2 1
nous concluons que A−1 =  0 1 0 .
1 1 −1

3.6.3 Inversion et résolution des systèmes


Théorème 3.6.2 Soit A une matrice n × n inversible. Alors pour toute matrice n × 1 ~b,
le système d’équations linéaires A~x = ~b ne possède qu’une solution, à savoir ~x = A−1~b.

Démonstration:
(i) Montrons que ~x = A−1~b est une solution. En effet, A(A−1~b) = (AA−1 )~b = I~b = ~b.
(ii) Pour montrer l’unicité, nous supposerons que ~x1 est une solution et prouverons que
~x1 = A−1~b. En effet, si A~x1 = ~b, alors A−1 (A~x1 ) = A−1~b, i.e. (A−1 A)~x1 = A−1~b, i.e.
~x1 = A−1~b.

  
 x+y+z = 1 −1
Exemple 3.6.4 La seule solution du système y = 2 est ~x =  2 . En
x + 2y = 3 0

CHAPITRE 3. LES SYSTÈMES LINÉAIRES 60
     
1 1 1 x 1
effet, si A = 0 1 0
  , ~x = y
  ~
, b = 2 , nous avons vu à l’exemple précédent

 1 2 0 z 3
0 −2 1
que A = 0
−1  1 0 .
1 1 0
Alors, d’après le théorème 3.6.2, la seule solution est
     
0 −2 1 1 −1
~x = A−1~b =  0 1 0   2  =  2 ,
1 1 −1 3 0

Nous revenons maintenant sur la proposition 1.4.2 dont nous avions laissé la démonstration
en suspens.

Proposition 3.6.3 Soit A une matrice carrée.


(1) Si B est une matrice carrée telle que BA = I, alors B = A−1 .
(2) Si B est une matrice carrée telle que AB = I, alors B = A−1 .

Démonstration:
(1) Soit BA = I. Si A est inversible, nous avons immédiatement la conclusion, car BA = I
entraı̂ne (BA)A−1 = A−1 i.e. B(AA−1 ) = A−1 i.e. B = A−1 . Il suffit donc de prouver
que A est inversible, i.e. d’après le théorème 3.6.1, que la seule solution du système
A~x = 0 est ~x = 0. Or, A~x = 0 entraı̂ne B(A~x) = BO = O, i.e. (BA)~x = O, i.e.
I~x = ~x = O.
(2) La preuve est semblable.

Théorème 3.6.3 Pour A une matrice n × n quelconque, les propriétés suivantes sont
équivalentes.
(1) A est inversible.
(2) A~x = O ne possède que la solution triviale ~x = O.
(3) A est équivalente suivant les lignes à In .
(4) Le système A~x = ~b est consistant pour toute matrice ~b.

Démonstration: Nous avons vu au théorème 3.6.1 que (1), (2) et (3) sont équivalents.
Montrons que (1) entraı̂ne (4) et que (4) entraı̂ne (1).
(i) Commençons par montrer que (1) entraı̂ne (4). Soit A une matrice inversible et soit
~b une matrice n × 1 quelconque. D’après le 3.6.2, ~x = A−1~b est solution du système
A~x = ~b, ce qui veut dire que le système A~x = ~b est consistant.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 61

(ii) Montrons que (4) entraı̂ne (1). Supposons le système A~x = ~b consistant pour toute
matrice ~b. Alors en particulier, les n systèmes
     
1 0 0
 0   1   0 
A~x =  ..  , A~x =  ..  , . . . A~x =  .. 
     
 .   .   . 
0 0 1
sont consistants. Supposons que ~x1 est une solution du premier système, ~x2 une solution
du deuxième, . . ., ~xn une solution du n-ième. Soit C une matrice dont la i-ième colonne
est ~xi , i.e.
C = [~x1 | ~x2 | . . . | ~xn ] .
Comme nous l’avons observé dans le chapitre sur les matrices , la j-ième colonne de
AC est égale à A multipliée par la j-ième colonne de C. Les colonnes successives de
AC sont donc A~x1 , A~x2 , . . . , A~xn . Donc
 
1 0 ... 0
 0 1 ... 0 
AC = [A~x1 | A~x2 | . . . |A~xn ] =  .. .. ..  = I ,
 
 . . . 
0 0 ... 1
ce qui, d’après 3.6.3, nous permet de conclure que C = A−1 , i.e. que A est inversible.

Exemple 3.6.5 Trouvez toutes les matrices 3 × 1 ~b pour lesquelles le système A~x = ~b est
consistant, où    
  x1 b1
1 2 3
 , ~b =  b2  .
   
A= 1 0 1 
 et ~x = 
 x2   
0 2 2
x3 b3
La matrice augmentée du système A~x = ~b se transforme ainsi :
   
1 2 3 b1 1 2 3 b1
 R2 ←− 21 R2
 1 0 1 b2  R2 ←R 2 −R1 
  
  −→  0 −2 −2 b2 − b1
 −→

0 2 2 b3 0 2 2 b3
   
1 2 3 b1 1 0 1 b2
 0 1 1 1 b1 − 1 b2  R1 ←R 1 −2R2 
   1 1

 2 2  −→  0 1 1 2
b1 − 2
b2


0 2 2 b3 0 2 2 b3
 
1 0 1 b2
R3 ←R3 −2R2 
 0 1 1 1 b1 − 1 b2 

−→  2 2 
0 0 0 b3 − b1 + b2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 62

Puisque la forme échelon réduite de la matrice n’est pas l’identité, nous déduisons qu’elle
n’est pas inversible, donc que le système n’est pas toujours consistant. Pour qu’il possède
une solution, il faut et il suffit que 0 = b3 − b1 + b2 , c’est-à-dire si et seulement si b1 = b2 + b3 .
Donc A~x = ~b est consistant pour toute matrice
 
b2 + b3
~b =  b2 
 
 
b3

avec b2 et b3 arbitraires.

Le système inhomogène n’est pas toujours consistant, donc le système homogène a d’autres
solutions que la solution nulle. Cherchons les !

Si le membre de droite est le vecteur nul, l’application de Gauss-Jordan au système conduit


à  
1 0 1 0
 
 0 1 1 0 
 
0 0 0 0
La troisième variable est libre et l’espace des solutions s’écrit

S = {(−t, −t, t) | t ∈ R}.


L’ensemble des membres de droites pour lesquels le système inhomogène possède une solution
est déterminé par deux paramètres (b2 et b3 ), alors que l’espace des solutions du système
homogène est déterminé par un paramètre (t). 2 + 1 = 3, la dimension de la matrice. Nous
verrons plus tard que cette propriété est générale.

3.7 Résolution et factorisation des matrices


Le raisonnement qui nous a permis de voir que la méthode de Gauss-Jordan pouvait être
utilisée pour calculer l’inverse d’une matrice fut basé sur l’équivalence entre les opérations
élémentaires et le produit à gauche par une matrice élémentaire. Si nous utilisons la même
approche pour analyser la méthode d’élimination, nous serons conduit à l’observation sui-
vante.

Lemme 3.7.1 Soit A ∈ Mn,n , il existe une matrice inversible P et une matrice triangu-
laire U pour lesquelles
P A = U.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 63

La matrice P du lemme précédent est un produit de matrices élémentaires. Or, la matrice


élémentaire correspondant à une opération du type Rj ← Rj + αRi est triangulaire inférieure
lorsque i < j. Ceci signifie, en particulier, que dans le produit de matrices donnant P ,
seules les éventuelles matrices de permutation ne sont pas triangulaires inférieures. Cette
observation conduit au résultat suivant qui revêt une grande importance pratique.

Théorème 3.7.1 Soit A ∈ Mn,n . Si la méthode d’élimination de Gauss permet de passer


de A à sa forme triangulaire U sans aucun échange de ligne, il existe une matrice triangulaire
inférieure L, telle que
(a) li,i = 1, pour chaque i = 1, . . . , n,
(b) A = LU.

Démonstration: D’après le lemme 3.7.1, il existe une matrice P pour laquelle P A = U.


Or, par hypothèse, chacun des facteurs produisant P est une matrice élémentaire triangulaire
inférieure dont les éléments diagonaux sont égaux à 1, c’est-à-dire

P = Ek Ek−1 . . . E2 E1 .
Puisque chacun des facteurs est inversible, on en déduit que

A = E1−1 E2−1 . . . Ek−1


−1
Ek−1 U. (3.4)
En vertu de la remarque 3.6.1, l’inverse d’une matrice élémentaire est une matrice élémentaire
de même nature, c’est-à-dire que, dans 3.4, tous les facteurs correspondent à une opération
du type Rj ← Rj + αRi avec i < j. Ces facteurs sont donc tous des matrices triangulaires
inférieures ayant des 1 dans la diagonale. Il reste à vérifier qu’un produit de telles matrices
a la même propriété, ce que nous laissons en exercice.
Illustrons les étapes de ce raisonnement sur un exemple.

Exemple 3.7.1 D’abord l’élimination


   
1 2 3 1 2 3
R2 ←R2 +R1
E1  −1 0 4  −→ 0 2 7,
2 8 7 2 8 7
 
1 2 3
R2 ←R3 −2R1
E2 −→ 0 2 7,
0 4 1
 
1 2 3
R3 ←R3 −2R2
E3 −→ 0 2 7 .
0 0 −13

Explicitons les matrices Ei .


CHAPITRE 3. LES SYSTÈMES LINÉAIRES 64

   
1 0 0 1 0 0
E1 =  1 1 0  ⇒ E1−1 =  −1 1 0 
0 0 1 0 0 1
   
1 0 0 1 0 0
E2 =  0 1 0  ⇒ E2−1 =  0 1 0 
−2 0 1 2 0 1
   
1 0 0 1 0 0
E3 = 0 1 0  ⇒ E3−1 =  0 1 0 
0 −2 1 0 2 1
Le produit E1−1 E2−1 E3−1 est donc égal à
 
1 0 0
P −1 =  −1 1 0 
2 2 1

et on a bien
    
1 2 3 1 0 0 1 2 3
 −1 0 4  =  −1 1 0   0 2 7 .
2 8 7 2 2 1 0 0 −13

L’exemple précédent n’est qu’une illustration et personne ne songerait à cette approche


pour calculer la matrice L. En fait, on peut modifier l’algorithme d’élimination de façon à
obtenir simultanément L et U. Plutôt que de présenter le résultat de cette modification, nous
illustrons la méthode sur un exemple.

Exemple 3.7.2 Soit à calculer la factorisation LU de la matrice


    
2 2 4 6 1 0 0 0 2 2 4 6
 0 −1 3 −1   l2,1 1 0 0   0 u2,2 u2,3
  u2,4 
A=  2 1 0 −4  =  l3,1 l3,2 1 0   0 0 u3,3
  .
u3,4 
3 1 5 6 l4,1 l4,2 l4,3 1 0 0 0 u4,4

Puisqu’il ne peut y avoir d’échange de ligne, nous savions d’avance que la première rangée
de U serait celle de A. Le calcul se fait dans l’ordre suivant : on calcule la rangée numéro i
de U puis la colonne i de L, ceci pour i = 1, . . . n. Puisque, pour i = 1, nous connaissons la
rangée de U nous commençons par la colonne 1 de L.

0 = A2,1 = l2,1 u1,1 = 2l2,1 ⇒ l2,1 = 0


2 = A3,1 = l3,1 u1,1 = 2l3,1 ⇒ l3,1 = 1
3 = A4,1 = l4,1 u1,1 = 2l4,1 ⇒ l4,1 = 32
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 65

Nous calculons ensuite la rangée 2 de U, puis la seconde colonne de L

−1 = A2,2 = l2,1 u2,1 + u2,2 = u2,2 ⇒ u2,2 = −1


3 = A2,3 = l2,1 u3,1 + u2,3 = u2,3 ⇒ u2,3 = 3
−1 = A2,4 = l2,1 u4,1 + u2,4 = u2,4 ⇒ u2,4 = −1

1 = A3,2 = l3,1 u2,1 + l3,2 u2,2 = 2 − l3,2 ⇒ l3,2 = 1


1 = A4,2 = l4,1 u2,1 + l4,2 u2,2 = 3 − l4,2 ⇒ l4,2 = 2

Nous calculons ensuite la rangée 3 de U, puis la colonne 3 de L

0 = A3,3 = l3,1 u1,3 + l3,2 u2,3 + u3,3 = 4 + 3 + u3,3 ⇒ u3,3 = −7


−4 = A3,4 = l3,1 u4,1 + l3,2 u2,4 + u3,4 = 6 − 1 + u3,4 ⇒ u3,4 = −9

5 = A4,3 = l4,1 u1,3 + l4,2 u2,3 + l4,3 u3,3 = 6 + 6 − 7l4,3 ⇒ l4,3 = 1

Il ne reste que le calcul de u4,4 .

6 = A4,4 = l4,1 u1,4 + l4,2 u2,4 + l4,3 u3,4 + u4,4 = 9 − 2 − 9 + u4,4 ⇒ u4,4 = 8.

Nous pouvons vérifier directement que


    
2 2 4 6 1 0 0 0 2 2 4 6
 0 −1 3 −1   0 1 0 0  0 −1 3 −1  .
 
 2 1 0 −4  =  1
  
1 1 0   0 0 −7 −9 
3 1 5 6 3/2 2 1 1 0 0 0 8

Il convient de se demander où l’absence d’échange de lignes joue un rôle dans le calcul
précédent. Or, dans l’algorithme d’élimination, on est amené à échanger des lignes quand
l’élément pivot c’est-à-dire uk,k est nul. Si ceci se produit à une étape donnée, on ne pourra
pas calculer la colonne k de L, puisque le calcul de ses entrées exige la division par uk,k .
Faire des échanges de lignes ce serait introduire une matrice de permutation dans le produit
de matrices élémentaires qui définit P . Une telle matrice n’est pas triangulaire inférieure et
donc L = P −1 ne le sera plus. On a pourtant le résultat suivant qui n’est pas tout à fait
élémentaire.

Proposition 3.7.1 Soit A ∈ Mn,n , il existe une matrice Q et une matrice L pour les-
quelles, si U est la matrice obtenue de A par la méthode d’élimination, on a
a) Q est un produit de matrices de permutation ;
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 66

b) L est triangulaire inférieure avec li,i = 1, ∀i ;


c) A = QLU.

Maple possède un outil pour faire la décomposition évoquée dans la dernière proposition.
Nous allons l’utiliser pour illustrer ce type de décomposition.

> restart :
> with(LinearAlgebra) :
> A :=Matrix(5,5,[1,2,-1,0,2,2,4,-2,1,1,3,1,0,1,-1,0,-1,1,2,-3,1,3,1,0,-2]) ;
1 2 −1 0 2
 

 2 4 −2 1 1 
 
 
A :=  3 1 0 1 −1 
 
 
 0 −1 1 2 −3 
 
1 3 1 0 −2
> (Q, L, U) := LUDecomposition(A,method=’GaussianElimination’) ;
1 0 0 0 0 1 0 0 0 0 1 2 −1 0 2
     

 0 0 0 1 0   3 1 0 0 0   0 −5 3 1 −7 
     
     
Q, L, U :=  0 1 0 0 0  ,  0 1/5 1 0 0  ,  0 0 2/5 9/5 −8/5 
     
     
 0 0 1 0 0   2 0 0 1 0   0 0 0 1 −3 
     
0 0 0 0 1 1 −1/5 13/2 −23/2 1 0 0 0 0 − 59
2
> A-Q.L.U ;
0 0 0 0 0
 

 0 0 0 0 0 
 
 
 0 0 0 0 0 
 
 
 0 0 0 0 0 
 
0 0 0 0 0

Le produit LU ne redonne pas A. Il y a eu permutation de certaines lignes. Le lien entre Q


et les lignes permutées n’est pas si facile à établir et nous ne discuterons pas cette question
plus avant.

3.7.1 Application de la factorisation LU


Supposons qu’un système linéaire soit de la forme

LU~x = ~b
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 67

où L et U sont des matrices triangulaires, inférieure pour L et supérieure pour U. Pour
résoudre un tel système, il serait inefficace de multiplier L par U puis d’appliquer la méthode
d’élimination puisqu’ainsi, on perdrait le bénéfice qui découle de la forme très particulière
de ces matrices. On procéderait plutôt comme suit.

Algorithme 3.7.1
But : résoudre LU~x = ~b
donnée : les matrices triangulaires L et U et le membre de droite ~b.

(1) Descente triangulaire pour résoudre LZ = ~b ;


(2) Remontée triangulaire pour résoudre U~x = Z.
(3) La solution cherchée est ~x.

Il est facile de voir a posteriori pourquoi cet algorithme marche. En effet,

LU~x = L(U~x) = LZ = ~b,


donc ~x est bien solution du système. Voyons sur un exemple.

Exemple 3.7.3 Soit à résoudre le système A~x = ~b où A est la matrice de l’exemple 3.7.2
~
et b = ( 1 1 1 1 )t . Puisque
  
1 0 0 0 2 2 4 6
 0 1 0 0   0 −1 3 −1 
A= 
 1 1 1 0   0 0 −7 −9 

3/2 2 1 1 0 0 0 8
nous devons d’abord résoudre
    
1 0 0 0 z1 1
 0 1 0 0  z2   1 
   =  
 1 1 1 0   z3   1 
3/2 2 1 1 z4 1
qui donne
   
z1 1
 z2   1 
 =
 z3   −1  .

z4 −3/2
Nous résolvons ensuite
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 68

      
2 2 4 6 x1 z1 1
 0 −1 3 −1   x2   z2   1 
 0 0 −7 −9   x3  =  z3  =  −1  ,
      

0 0 0 8 x4 z4 −3/2
qui donne
   
x1 −5/112
 x2   19/56 
 =
 x3   43/112  .

x4 −3/16

Pour les petits systèmes, le bénéfice qu’il y a à procéder de cette façon n’est pas apparent.
Nous avons pourtant déjà observé que l’élimination, i.e. le calcul de U, était beaucoup plus
coûteuse que la remontée. C’est ici que nous gagnons. Si les facteurs sont connus, le coût d’une
remontée-descente équivaut à celui de deux remontées qui, pour n grand, est beaucoup plus
faible que celui de l’élimination. Nous terminons ce chapitre en examinant une application.

Contrôle de circuits électriques.


Considérons un circuit électrique simple, constitué de deux boucles et de deux noeuds. Les
intensités sont i1 , i2 , i3 , les valeurs en Ohm sont indiquées et les deux chutes de potentiel V1
et V2 sont considérées comme données. La question posée : connaissant les résistances et les
chutes de potentiel, peut-on déterminer les intensités. La réponse à cette question est assez
simple et dépend de l’application des deux lois de Kirkoff.
a) En un noeud du circuit, la somme des courants entrants est égale à la somme des
courants sortants.
b) Pour une boucle, la chute de potentiel de la source est égale à la somme des chutes de
potentiel en chacun des éléments.

V1

I1

I1 4

2
I2

3 2
I3
I3

V2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 69

Si l’on applique ces deux règles en chacun des deux noeuds et sur chacune des deux boucles,
on est amené au système suivant.

i1 + i3 = i2
2i2 + 4i1 = V1
2i2 + 5i3 = V2
Il n’est pas difficile de calculer la solution de ce système et d’obtenir

7 1 5 2 1 3
( i1 , i2 , i3 ) = ( 38 V1 − V 2,
19 2
V
38 1
+ V,
19 2
− 19 V1 + V
19 2
). (3.5)
La question serait fort différente pour un circuit complexe comprenant de nombreux noeuds et
de nombreuses boucles. Une méthode numérique serait alors de rigueur et serait préférablement
basée sur la factorisation LU. Ici la matrice du système s’écrit
    
1 −1 1 1 0 0 1 −1 1
A =  4 2 0  =  l2,1 1 0   0 u2,2 u2,3  .
0 2 5 l3,1 l3,2 1 0 0 u3,3
Si nous appliquons la procédure décrite à l’exemple 3.7.2, nous obtenons successivement,

l2,1 = 4
l3,1 = 0

−l2,1 + u2,2 = 2 ⇒ u2,2 = 6


l2,1 + u2,3 = 0 ⇒ u2,3 = −4

1
−l3,1 + u2,2 l3,2 = 2 ⇒ l3,2 = 3

19
l3,1 + l3,2 u2,3 + u3,3 = 5 ⇒ u3,3 = 3
et nous pouvons vérifier que nous avons bien
  
1 0 0 1 −1 1
A= 4 1
 0   0 6 −4  .
0 13 1 0 0 19
3

Ceci fait, nous pouvons, pour un membre de droite donné numériquement, e.g. ( 0 8 9 )t ,
obtenir la solution du système par une descente
        
1 0 0 z1 0 z1 0
 4 1 0   z2  =  8  ⇒  z2  =  8  ,
0 13 1 z3 9 z3 19
3
suivie d’une remontée
        
1 −1 1 i1 0 i1 1
 0 6 −4   i2  =  8  ⇒  i2  =  2  .
19 19
0 0 3
i3 3
i3 1
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 70

On vérifiera tout de suite que cette solution coı̈ncide bien avec celle donnée en 3.5. La
méthode est clairement générale et il est facile de voir comment la programmer.
- On construit la matrice A par application des lois de Kirkoff.
- On calcule la factorisation A = LU (éventuellement A = QLU).
- Pour tous les voltages d’entrée que l’on veut considérer
a) Résoudre LZ = V
b) Résoudre UI = Z
- L’ampérage dans chacune des branches est donné par le vecteur I.

Vous aimerez peut-être aussi