Académique Documents
Professionnel Documents
Culture Documents
3.1 Introduction
La résolution des équations est un problème aussi vieux que les mathématiques. Parmi les
situations que l’on peut modéliser par une équation, les plus simples sont celle pour lesquelles
l’équation est linéaire. La solution du problème d’arithmétique élémentaire du type : il y a
7 pommes dans un plat, si Marie en prend 2, combien en reste-il, est évidemment obtenue
en résolvant l’équation
x + 2 = 7 ⇒ x = 5.
Les équations linéaires sont donc simples, mais, quand elles impliquent plus d’une inconnue,
leur résolution exige l’utilisation d’une méthode qui doit être systématisée, surtout si l’on
veut l’implanter sur un calculateur.
Considérons donc une situation un peu moins triviale, soit celle d’une portion d’un réseau
routier. Nous étudions le traffic routier au voisinage de 4 intersections notées A, B, C, D. Le
sens de parcours des tronçons est indiqué par une flèche et l’apport à une intersection est
considéré comme positif si le véhicule part de l’intersection et comme négatif s’il y arrive. Le
nombre moyen de véhicules, par heure, est indiqué là où il est connu et on veut calculer le
traffic sur les tronçons x, y, z, w en respectant la règle que le nombre de véhicules qui arrivent
à une intersection est égale au nombre de véhicules qui en partent.
36
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 37
450 310
A x D
610 640
w
y
B C
600
520 z
480 390
Si l’on écrit les quatre égalités qui découle de l’application de la règle à chaque intersection,
on obtient le système
a1 x1 + . . . + an xn = b
On voit que le système possède une infinité de solutions décrites en fonction de la variable z,
il est donc consistant. On dira que z est une variable libre . Ce que ce résultat nous dit, c’est
que le traffic sur les 4 tronçons est entièrement connu lorqu’on le connait sur l’un d’eux. Ici
l’ensemble solution est infini et nous pouvons le décrire comme suit
Notre but dans ce chapitre sera de développer des critères théoriques pour distinguer les
systèmes consistants des systèmes inconsistants et des méthodes algorithmiques pour calcu-
ler explicitement l’ensemble solution d’un système, lorsqu’il n’est pas vide. Ce travail sera
grandement facilité par la remarque suivante.
Exemple 3.1.2 Ce lien fondamental est connu par Maple, qui a même une fonction
pour trouver la matrice associée à un système le vecteur contenant les membres de droite
correspondant . Si nous reprenons l’exemple précédent, il nous donne,
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 39
0 1 −1 0 40
A, b :=
,
0 0 −1 1 210
1 0 0 −1 −330
> b;
160
40
210
−330
ax + by = c,
l’énoncé précédent se traduit algébriquement comme suit : une équation à deux in-
connues possède toujours une infinité de solutions.
(b) Dans l’espace deux plans sont soit parallèles soit concourants. Dans le dernier cas
l’intersection est une droite qui contient une infinité de points. Nos deux plans ont des
équations de la forme
a1 x + b1 y + c1 z = d1 ,
a2 x + b2 y + c2 z = d2 .
Un point (x, y, z) est dans l’intersection si et seulement si ses coordonnées donnent
une solution du système de deux équations à trois inconnues. Nous concluons donc, de
l’énoncé géométrique, que l’ensemble solution d’un tel système est, ou bien vide, ou
bien infini. Nous pouvons ajouter que la seconde possibilité est la plus fréquente.
(c) Dans le plan, si deux droites se coupent, elles ne se coupent qu’en un point sauf si elles
sont confondues. Dans l’espace, si trois plans se coupent, ils peuvent le faire en un seul
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 40
point, selon une droite ou selon un plan (lorsqu’ils sont confondus). Algébriquement,
ceci signifie que les systèmes carrés à deux ou trois inconnues ont pour ensemble solu-
tion, l’ensemble vide (les deux droites sont parallèles ou deux des plans sont parallèles),
un ensemble d’un élément ou un ensemble infini.
(d) Dans le plan, trois droites se coupent rarement. Dans l’espace, quatre plans se coupent
rarement. Donc, la plupart du temps, les systèmes à deux et trois inconnues qui ont
plus d’équations que d’inconnues n’ont pas de solutions.
Lorsque n = 2 ou 3, nous avons vu que les systèmes sousdéterminés avait presque toujours
une infinité de solutions, alors que les surdéterminés en ont rarement.
1111111111111
0000000000000
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
000000000000000000000
111111111111111111111
0000000000000
1111111111111
0000000000000000000
1111111111111111111
000000000000000000000
111111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111 surdetermine
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
sousdetermine
0000000000000000000
1111111111111111111
0000000000000000000
1111111111111111111
est facilement résolu par une remontée . On calcule t dans la dernière équation pour obtenir
t = −1. Puisque t est connu, la troisième équation ne contient que l’inconnue z et peut-être
écrite comme z = 3. t, z étant connu, la seconde équation ne contient plus que l’inconnue y
et peut se récrire 2y = −t + 2z = 7, donc y = 72 . Finalement, on extrait x de la première
équation et le travail est terminé.
7 1
x =1+y−z+t = 1+ −3−1 = .
2 2
Pour i = n, . . . , 1 faire
(a) si ai,i = 0 le système peut-être inconsistant STOP.
(b)
n
X
s= ai,j xj
j=i+1
(c)
1
xi = (bi − s).
ai,i
Note : en (b), si i = n la somme est vide. Par convention, une somme vide vaut 0.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 42
Remarque 3.3.1 A l’étape (a), nous bloquons l’algorithme car sinon nous admettrions
une division par 0. En fait si ai,i = 0 il se pourrait que la variable numéro i soit libre, c’est-à-
dire que le système possède une infinité de solutions pour lesquelles cette variable prendrait
toutes les valeurs réelles. Ce serait le cas si la quantité bi − s = 0. Nous discuterons ce cas
particulier important plus tard.
Définition 3.4.1 Deux systèmes de mêmes dimensions sont dits équivalents s’ils im-
pliquent les mêmes inconnues et ont le même ensemble solution.
Rappelons maintenant les trois règles suivantes. On peut, sans changer l’ensemble solution
d’un système d’équations linéaires :
(1) multiplier une équation par une constante non nulle ;
(2) échanger deux équations entre elles ;
(3) additionner un multiple d’une équation à une autre.
Cet exemple montre clairement que les opérations admissibles sur les équations ne changent
que les coefficients. On pourrait donc éliminer les variables et ne travailler que sur les ma-
trices. Il faut cependant prendre garde que les opérations doivent aussi être faites sur les
membres de droite.
la matrice
a11 a12 . . . a1m | b1
a21 a22 . . . a2m | b2
Aa = .. .. .. ..
. . . | .
am1 am2 . . . amn | bm
obtenue de la matrice du système en lui adjoignant la colonne constituée du membre de
droite
Les trois règles énoncées plus haut peuvent maintenant être traduites dans le contexte ma-
triciel. Si on effectue, sur la matrice augmentée d’un système, l’une des trois opérations
élémentaires sur les lignes suivantes, on obtient la matrice augmentée d’un système équivalent.
(1) multiplier la ligne numéro i par une constante c non nulle (noté Ri → cRi ) ;
(2) échanger les lignes numéro i et numéro j entre elles (noté Ri ↔ Rj ) ;
(3) additionner un multiple de la ligne numéro i à la ligne numéro j (noté Rj → Rj + cRi ).
3x + 5y = 2
Exemple 3.4.3 La matrice augmentée du système
2x + 3y = −1
3 5 2
est que l’on peut transformer :
2 3 −1
1 " 5 2
# " 5 2
#
1 1
3 5 2 3 1 R 3 3 R−2−2R1 3 3
−→ −→
2 3 −1 1 3 −1 0 −3 −31 7
" #
1 53 32 R1 − 53 R2 1 0 −11
−3R2
−→ −→
0 1 7 0 1 7
(
x + 53 y = 2
3x + 5y = 2 3
Le système est alors équivalent au système ,
2x + 3y = −1 2x + 3y = −1
( (
x + 53 y = 2
x + 35 y = 23
3 x = −11
au système , au système , et au système .
1
−3y = −3 7
y = 7 y = 7
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 44
La forme échelon est une généralisation de la forme triangulaire. Un système sous forme
échelon est facile à résoudre.
Exemple 3.4.5
x1
2 3 4 0 5 1
0 0 −5 1 3 x2
x3 = 0
0 0 0 0 2 −2
x4
0 0 0 0 0 0
x5
La dernière équation ne donne pas d’information. De la précédente, on tire, x5 = −1. Si on
reporte dans l’équation précédente, on obtient
1
x3 = (−3 + x4 ). (3.3)
5
La variable x4 est libre. Nous reportons ceci dans la première équation qui nous donne
1
x1 = (1 − 3x2 − 4x3 + 5).
2
La variable x2 est aussi libre et nous pouvons finalement écrire en utilisant (3.3)
1 4
x1 = 18 − 3x2 − x4 .
2 5
L’ensemble solution est infini et nous pouvons décrire les solutions en fonction des variables
libres x2 et x4 . Ceci nous donne
1 4 1
S = {( 18 − 3x2 − x4 , x2 , (−3 + x4 ), x4 , −1) | x1 , x4 ∈ R}.
2 5 5
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 45
1. j = 1,jmax = n.
2. d = maxl=j,...,n |aj,l |.
3. Si d 6= 0 aller à 5.
4. Si jmax = j, stop, sinon
(a) jmax = jmax − 1,
(b) Rl ↔ Rl+1 , pour l = j, . . . , jmax .// si on trouve une ligne nulle, on la place à la
fin,
(c) aller à 2,
5. Si aj,j = 0 faire // on cherche un élément directeur dans la colonne j
(a) k = j + 1,
(b) si ak,j 6= 0 faire Rj ↔ Rk ,
(c) aller à 6.
(d) Si k = jmax aller à 7. // La colonne j ne contient pas d’élément directeur.
(e) k = k + 1 aller à (b).
6. b = aj,j , pour k = j + 1, . . . n faire
(a) m = ak,j /b.
(b) Si m 6= 0, faire Rk ← Rk − mRj
7. j = j + 1. Si j < jmax + 1, aller à 2. sinon stop
Exemple 3.4.6
a) La matrice augmentée du système
2x + 3y + 4z = 1
x + 2y − z = 4
peut être mise sous sa forme échelon de la façon suivante :
2 3 4 1 R2 ←R2 −(1/2)R1 1 2 −1 4
−→
1 2 −1 4 0 1/2 −3 7/2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 47
y = 6z + 7
et de la première que
Ceci crée une autre ligne de 0 dans la matrice, que nous déplaçons en position 4 par
deux échanges successifs.
1 2 3 −1 0 | 1
0 7 0 0 2 | −6
0 14 0 2 −4 | 3
0 0 0 0 0 | 0
0 0 0 0 0 | 0
L’élément directeur 7 de la seconde ligne est maintenant le pivot . Il nous reste à faire
R3 ← R3 − 2R2 pour obtenir la forme échelon
1 2 3 −1 0 | 1
0 7 0 0 2 | −6
0 0 0 2 −8 | 15
0 0 0 0 0 | 0
0 0 0 0 0 | 0
Notons que les colonnes 3, 5 ne contiennent pas d’élément directeur. Les variables x3 et
x5 sont donc libres. Les deux dernières équations ne fournissent pas d’information. De
la troisième, on tire que x4 = 15
2
+ 4x5 . De la seconde, on a x2 = − 76 − 27 x5 , alors que la
6
première donne x1 = 1−2(− 7 − 27 x5 )−3x3 −( 15 2
81
+4x5 ) c’est-à-dire x1 = 14 −3x3 − 19 x.
2 5
L’ensemble solution s’écrit alors
81 19 6 2 15
S = {( − 3x3 − x5 , − − x5 , x3 , + 4x5 , x5 ) | x3 , x5 ∈ R}.
14 2 7 7 2
> A :=Matrix(4,3,[1,2,1,2,-1,1,4,3,3,2,-1,3]) ;
1 2 1
2 −1 1
A :=
4 3 3
2 −1 3
> droit :=Vector([1,2,4,5]) ;
1
2
droit :=
4
5
> Aelim :=GaussianElimination(<A|droit>) ;
1 2 1 1
0 −5 −1 0
Aelim :=
0 0
2 3
0 0 0 0
> sol :=BackwardSubstitute(Aelim) ;
1/10
−3/10
sol :=
3/2
Proposition 3.5.1 Soit A ∈ Mm,n . Si le système A~x = 0 possède une solution ~x0 6= 0,
alors il possède une infinité de solutions non nulles.
Démonstration: Si ~x0 est une solution non nulle et c 6= 0 est un scalaire non nul,
A(c~x0 ) = cA~x0 = 0,
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 50
donc ~x1 = c~x0 est une solution du système différente de ~x0 . Puisque c est arbitraire, il y a
une infinité de tel ~x1 .
Dans ce contexte, les sytèmes sous déterminés sont particuliers.
Une des raisons de notre intérêt pour les systèmes homogènes est le lien qui existe entre la
nature de leur ensemble solution et celle des ensembles solution des systèmes inhomogènes
associés.
Lemme 3.5.1 Soit A ∈ Mm,n et ~b ∈ Rm . Soit ~x1 ∈ Rn une solution du système A~x = ~b
et ~x0 une solution du système homogène A~x = 0. Alors, pour tout c > 0, ~x2 = ~x1 + c~x0 est
un autre solution du système inhomogène.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 51
Démonstration:
Une première conséquence de ce Lemme est qu’un système sous-déterminé ne peut pas avoir
une seule solution. Il peut cependant ne pas en avoir. En général, nous avons le résultat
suivant.
~x0 = ~x1 − ~x2 est une solution non-nulle du système homogène. Le résultat découle alors du
lemme 3.5.1.
Dans le cas des systèmes carrés , on peut préciser le lien existant entre la consistance des
systèmes homogènes et inhomogènes ayant la même matrice.
Lemme 3.5.2 Soit A ∈ Mn,n . Les trois propriétés suivantes sont équivalentes.
a) Le système A~x = 0 ne possède que la solution ~x = 0.
b) Les élément diagonaux d’une forme échelon de A sont tous non nuls.
c) Pour tout vecteur ~b, le système A~x = ~b possède une solution unique.
Démontrons ensuite que l’énoncé b) implique l’énoncé c). Si tous les éléments diagonaux
de la forme échelon de A sont non nuls, le système A~x = ~b est équivalent à un système
triangulaire U~x = ~b′ . Puisque tous les éléments diagonaux de U sont non-nuls, chacun d’eux
est un élément directeur de sa rangée, il n’y a donc pas de variable libre et l’algorithme 3.3.1
permet de calculer l’unique solution ~x.
Nous pourrions formaliser l’exemple ci-dessus et montrer que la méthode aboutit à une
matrice échelon réduite quelle que soit la matrice de départ. Le fait que la matrice obtenue
soit toujours la même, sans égard à l’ordre des opérations n’est cependant pas évident.
Théorème 3.5.3 Soit A ∈ Mm,n , il existe une unique matrice échelon réduite R ∈ Mm,n
qui est équivalente à A suivant les lignes.
Remarque 3.5.2 Notons que le rang d’une matrice est aussi égal au nombre de colonnes
contenant un 1 directeur.
La notion de rang sera très utile par la suite. Les deux propriétés suivantes découlent direc-
tement du théorème et de la remarque.
Le résultat suivant illustre le lien existant entre le rang d’une matrice et la consistance des
systèmes linéaires associés.
Démonstration: Pour (a), notons que, si r([A|~b]) > r(A), ceci implique que, après
réduction sous forme échelon-réduite, le membre de droite contient un 1 en position r(A) + 1.
Ceci implique que l’équation correspondante est de la forme 0 = 1 et donc que le système
est inconsistant.
Dans le cas (b), le dernier 1 directeur est dans la colonne numéro r ≤ n. Si r = n, cela signifie
que m ≥ n et que les m − n dernières lignes sont de la forme 0 = 0. Puisque chaque colonne
contient un 1 directeur, il n’y a pas de variables libres et aucune équation inconsistante, le
système possède alors une solution unique.
Si, au contraire, r < n, il y a au moins une variable libre et le système possède une infinité
de solution.
Exemple 3.5.3
> A :=Matrix(4,3,[1,2,-1,1,0,3,2,2,2,-1,-1,-1]) ;
1 2 −1
1 0 3
A :=
2
2 2
−1 −1 −1
> ReducedRowEchelonForm(A) ;
1 0 3
0 1 −2
0 0 0
0 0 0
On voit que la troisième colonne est une combinaison linéaire des deux premières.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 55
> Rank(A) ;
2
> Ab :=<A|Vector([1,1,1,1])> ;
1 2 −1 1
1 0 3 1
Ab :=
2
2 2 1
−1 −1 −1 1
> ReducedRowEchelonForm(Ab) ;
1 0 3 0
0 1 −2 0
0 0 0 1
0 0 0 0
> Rank(Ab) ;
3
On voit bien que la troisième équation est inconsistante. Ceci correspond a l’apparition d’un
1 directeur de plus.
> c :=Vector([-1,1,0,0]) ;
−1
1
c :=
0
0
> Ac :=<A|c> ;
1 2 −1 −1
1 0 3 1
Ac :=
2 2 2 0
−1 −1 −1 0
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 56
> ReducedRowEchelonForm(Ac) ;
1 0 3 1
0 1 −2 −1
0 0 0 0
0 0 0 0
> Rank(Ac) ;
2
Cette fois le système est consistant. La variable x3 est libre et il y a une infinité de solutions.
> M :=Matrix(3,3,[1,2,-1,1,-1,3,0,1,2]) ;
1 2 −1
M := 1 −1 3
0 1 2
> Mb :=<M|Vector([1,1,1])> ;
1 2 −1 1
Mb := 1 −1 3 1
0 1 2 1
> ReducedRowEchelonForm(Mb) ;
1 0 0 1/2
0 1 0 2/5
0 0 1 3/10
> Rank(Mb) ;
3
Il n’y a pas de nouveau 1 directeur, donc le système est consistant. Il n’y a aucune variable
libre ce qui implique que la solution est unique.
Proposition 3.6.1 Soit A une matrice m × n. Soit E la matrice obtenue après avoir
effectué une opération élémentaire sur les lignes de Im . Alors EA est la matrice obtenue
après avoir effectué la même opération élémentaire sur les lignes de A.
La démonstration de ce théorème étant assez facile, nous nous contenterons de l’llustrer sur
un exemple.
Exemple 3.6.2
1 2 3 R2 ←R2 −3R1 1 2 3
A= −→ ;
3 2 1 0 −4 −8
1 0 R2 ←R2 −3R1 1 0
I2 = −→ =E;
0 1 −3 1
1 0 1 2 3 1 2 3
EA = = .
−3 1 3 2 1 0 −4 −8
Proposition 3.6.2 Toute matrice élémentaire est inversible et l’inverse d’une matrice
élémentaire est aussi une matrice élémentaire.
Théorème 3.6.1 Soit A une matrice n×n. Alors les propriétés suivantes sont équivalentes.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 58
Démonstration:
(i) Montrons que (1) implique (2). Soit A inversible. Soit ~x0 une solution de A~x = O.
Alors A~x0 = O. D’où A−1 (A~x0 ) = A−1 O = O, i.e. (A−1 A)~x0 = O, i.e. ~x0 = O.
(ii) Montrons que (2) implique (3). En vertu du lemme 3.5.2, n’importe quelle forme échelon
de A a toutes ses entrées diagonales non-nulles. Donc, pour une forme échelon donnée on
peut diviser chacune des lignes par l’entrée diagonale et obtenir un système équivalent
dont la matrice augmentée est de la forme
Corollaire 3.6.1 Soit A une matrice n × n. Si la forme échelon réduite suivant les lignes
de A n’est pas In , alors A n’est pas inversible.
Algorithme 3.6.1
(1) construire la matrice n × 2n, [A|In ],
(2) mettre A sous sa forme échelon réduite suivant les lignes,
(3) effectuer sur In les mêmes opérations élémentaires que sur A et ce dans le même ordre.
1 1 1
Exemple 3.6.3 L’inverse de A = 0 1 0 exist-t-il ? Si oui, quel est-il ?
1 2 0
Comme
1 1 1 1 0 0 1 0 1 1 −1 0
h1 −h2
[A|I3 ] = 0 1 0 0 1 0
−→ 0 1 0 0 1 0
1 2 0 0 0 1 1 2 0 0 0 1
1 0 1 1 −1 0 1 0 1 1 −1 0
h3 −h1 h3 −2h2
−→ 0 1 0 0 1 0 −→ 0 1 0 0 1 0
0 2 −1 −1 1 1 0 0 −1 −1 −1 1
1 0 1 1 −1 0 1 0 0 0 −2 1
−1h3 h1 −h3
−→ 0 1 0 0 1 0 −→ 0 1 0 0 1 0
0 0 1 1 1 −1 0 0 1 1 1 −1
0 −2 1
nous concluons que A−1 = 0 1 0 .
1 1 −1
Démonstration:
(i) Montrons que ~x = A−1~b est une solution. En effet, A(A−1~b) = (AA−1 )~b = I~b = ~b.
(ii) Pour montrer l’unicité, nous supposerons que ~x1 est une solution et prouverons que
~x1 = A−1~b. En effet, si A~x1 = ~b, alors A−1 (A~x1 ) = A−1~b, i.e. (A−1 A)~x1 = A−1~b, i.e.
~x1 = A−1~b.
x+y+z = 1 −1
Exemple 3.6.4 La seule solution du système y = 2 est ~x = 2 . En
x + 2y = 3 0
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 60
1 1 1 x 1
effet, si A = 0 1 0
, ~x = y
~
, b = 2 , nous avons vu à l’exemple précédent
1 2 0 z 3
0 −2 1
que A = 0
−1 1 0 .
1 1 0
Alors, d’après le théorème 3.6.2, la seule solution est
0 −2 1 1 −1
~x = A−1~b = 0 1 0 2 = 2 ,
1 1 −1 3 0
Nous revenons maintenant sur la proposition 1.4.2 dont nous avions laissé la démonstration
en suspens.
Démonstration:
(1) Soit BA = I. Si A est inversible, nous avons immédiatement la conclusion, car BA = I
entraı̂ne (BA)A−1 = A−1 i.e. B(AA−1 ) = A−1 i.e. B = A−1 . Il suffit donc de prouver
que A est inversible, i.e. d’après le théorème 3.6.1, que la seule solution du système
A~x = 0 est ~x = 0. Or, A~x = 0 entraı̂ne B(A~x) = BO = O, i.e. (BA)~x = O, i.e.
I~x = ~x = O.
(2) La preuve est semblable.
Théorème 3.6.3 Pour A une matrice n × n quelconque, les propriétés suivantes sont
équivalentes.
(1) A est inversible.
(2) A~x = O ne possède que la solution triviale ~x = O.
(3) A est équivalente suivant les lignes à In .
(4) Le système A~x = ~b est consistant pour toute matrice ~b.
Démonstration: Nous avons vu au théorème 3.6.1 que (1), (2) et (3) sont équivalents.
Montrons que (1) entraı̂ne (4) et que (4) entraı̂ne (1).
(i) Commençons par montrer que (1) entraı̂ne (4). Soit A une matrice inversible et soit
~b une matrice n × 1 quelconque. D’après le 3.6.2, ~x = A−1~b est solution du système
A~x = ~b, ce qui veut dire que le système A~x = ~b est consistant.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 61
(ii) Montrons que (4) entraı̂ne (1). Supposons le système A~x = ~b consistant pour toute
matrice ~b. Alors en particulier, les n systèmes
1 0 0
0 1 0
A~x = .. , A~x = .. , . . . A~x = ..
. . .
0 0 1
sont consistants. Supposons que ~x1 est une solution du premier système, ~x2 une solution
du deuxième, . . ., ~xn une solution du n-ième. Soit C une matrice dont la i-ième colonne
est ~xi , i.e.
C = [~x1 | ~x2 | . . . | ~xn ] .
Comme nous l’avons observé dans le chapitre sur les matrices , la j-ième colonne de
AC est égale à A multipliée par la j-ième colonne de C. Les colonnes successives de
AC sont donc A~x1 , A~x2 , . . . , A~xn . Donc
1 0 ... 0
0 1 ... 0
AC = [A~x1 | A~x2 | . . . |A~xn ] = .. .. .. = I ,
. . .
0 0 ... 1
ce qui, d’après 3.6.3, nous permet de conclure que C = A−1 , i.e. que A est inversible.
Exemple 3.6.5 Trouvez toutes les matrices 3 × 1 ~b pour lesquelles le système A~x = ~b est
consistant, où
x1 b1
1 2 3
, ~b = b2 .
A= 1 0 1
et ~x =
x2
0 2 2
x3 b3
La matrice augmentée du système A~x = ~b se transforme ainsi :
1 2 3 b1 1 2 3 b1
R2 ←− 21 R2
1 0 1 b2 R2 ←R 2 −R1
−→ 0 −2 −2 b2 − b1
−→
0 2 2 b3 0 2 2 b3
1 2 3 b1 1 0 1 b2
0 1 1 1 b1 − 1 b2 R1 ←R 1 −2R2
1 1
2 2 −→ 0 1 1 2
b1 − 2
b2
0 2 2 b3 0 2 2 b3
1 0 1 b2
R3 ←R3 −2R2
0 1 1 1 b1 − 1 b2
−→ 2 2
0 0 0 b3 − b1 + b2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 62
Puisque la forme échelon réduite de la matrice n’est pas l’identité, nous déduisons qu’elle
n’est pas inversible, donc que le système n’est pas toujours consistant. Pour qu’il possède
une solution, il faut et il suffit que 0 = b3 − b1 + b2 , c’est-à-dire si et seulement si b1 = b2 + b3 .
Donc A~x = ~b est consistant pour toute matrice
b2 + b3
~b = b2
b3
avec b2 et b3 arbitraires.
Le système inhomogène n’est pas toujours consistant, donc le système homogène a d’autres
solutions que la solution nulle. Cherchons les !
Lemme 3.7.1 Soit A ∈ Mn,n , il existe une matrice inversible P et une matrice triangu-
laire U pour lesquelles
P A = U.
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 63
P = Ek Ek−1 . . . E2 E1 .
Puisque chacun des facteurs est inversible, on en déduit que
1 0 0 1 0 0
E1 = 1 1 0 ⇒ E1−1 = −1 1 0
0 0 1 0 0 1
1 0 0 1 0 0
E2 = 0 1 0 ⇒ E2−1 = 0 1 0
−2 0 1 2 0 1
1 0 0 1 0 0
E3 = 0 1 0 ⇒ E3−1 = 0 1 0
0 −2 1 0 2 1
Le produit E1−1 E2−1 E3−1 est donc égal à
1 0 0
P −1 = −1 1 0
2 2 1
et on a bien
1 2 3 1 0 0 1 2 3
−1 0 4 = −1 1 0 0 2 7 .
2 8 7 2 2 1 0 0 −13
Puisqu’il ne peut y avoir d’échange de ligne, nous savions d’avance que la première rangée
de U serait celle de A. Le calcul se fait dans l’ordre suivant : on calcule la rangée numéro i
de U puis la colonne i de L, ceci pour i = 1, . . . n. Puisque, pour i = 1, nous connaissons la
rangée de U nous commençons par la colonne 1 de L.
6 = A4,4 = l4,1 u1,4 + l4,2 u2,4 + l4,3 u3,4 + u4,4 = 9 − 2 − 9 + u4,4 ⇒ u4,4 = 8.
Il convient de se demander où l’absence d’échange de lignes joue un rôle dans le calcul
précédent. Or, dans l’algorithme d’élimination, on est amené à échanger des lignes quand
l’élément pivot c’est-à-dire uk,k est nul. Si ceci se produit à une étape donnée, on ne pourra
pas calculer la colonne k de L, puisque le calcul de ses entrées exige la division par uk,k .
Faire des échanges de lignes ce serait introduire une matrice de permutation dans le produit
de matrices élémentaires qui définit P . Une telle matrice n’est pas triangulaire inférieure et
donc L = P −1 ne le sera plus. On a pourtant le résultat suivant qui n’est pas tout à fait
élémentaire.
Proposition 3.7.1 Soit A ∈ Mn,n , il existe une matrice Q et une matrice L pour les-
quelles, si U est la matrice obtenue de A par la méthode d’élimination, on a
a) Q est un produit de matrices de permutation ;
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 66
Maple possède un outil pour faire la décomposition évoquée dans la dernière proposition.
Nous allons l’utiliser pour illustrer ce type de décomposition.
> restart :
> with(LinearAlgebra) :
> A :=Matrix(5,5,[1,2,-1,0,2,2,4,-2,1,1,3,1,0,1,-1,0,-1,1,2,-3,1,3,1,0,-2]) ;
1 2 −1 0 2
2 4 −2 1 1
A := 3 1 0 1 −1
0 −1 1 2 −3
1 3 1 0 −2
> (Q, L, U) := LUDecomposition(A,method=’GaussianElimination’) ;
1 0 0 0 0 1 0 0 0 0 1 2 −1 0 2
0 0 0 1 0 3 1 0 0 0 0 −5 3 1 −7
Q, L, U := 0 1 0 0 0 , 0 1/5 1 0 0 , 0 0 2/5 9/5 −8/5
0 0 1 0 0 2 0 0 1 0 0 0 0 1 −3
0 0 0 0 1 1 −1/5 13/2 −23/2 1 0 0 0 0 − 59
2
> A-Q.L.U ;
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
0 0 0 0 0
LU~x = ~b
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 67
où L et U sont des matrices triangulaires, inférieure pour L et supérieure pour U. Pour
résoudre un tel système, il serait inefficace de multiplier L par U puis d’appliquer la méthode
d’élimination puisqu’ainsi, on perdrait le bénéfice qui découle de la forme très particulière
de ces matrices. On procéderait plutôt comme suit.
Algorithme 3.7.1
But : résoudre LU~x = ~b
donnée : les matrices triangulaires L et U et le membre de droite ~b.
Exemple 3.7.3 Soit à résoudre le système A~x = ~b où A est la matrice de l’exemple 3.7.2
~
et b = ( 1 1 1 1 )t . Puisque
1 0 0 0 2 2 4 6
0 1 0 0 0 −1 3 −1
A=
1 1 1 0 0 0 −7 −9
3/2 2 1 1 0 0 0 8
nous devons d’abord résoudre
1 0 0 0 z1 1
0 1 0 0 z2 1
=
1 1 1 0 z3 1
3/2 2 1 1 z4 1
qui donne
z1 1
z2 1
=
z3 −1 .
z4 −3/2
Nous résolvons ensuite
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 68
2 2 4 6 x1 z1 1
0 −1 3 −1 x2 z2 1
0 0 −7 −9 x3 = z3 = −1 ,
0 0 0 8 x4 z4 −3/2
qui donne
x1 −5/112
x2 19/56
=
x3 43/112 .
x4 −3/16
Pour les petits systèmes, le bénéfice qu’il y a à procéder de cette façon n’est pas apparent.
Nous avons pourtant déjà observé que l’élimination, i.e. le calcul de U, était beaucoup plus
coûteuse que la remontée. C’est ici que nous gagnons. Si les facteurs sont connus, le coût d’une
remontée-descente équivaut à celui de deux remontées qui, pour n grand, est beaucoup plus
faible que celui de l’élimination. Nous terminons ce chapitre en examinant une application.
V1
I1
I1 4
2
I2
3 2
I3
I3
V2
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 69
Si l’on applique ces deux règles en chacun des deux noeuds et sur chacune des deux boucles,
on est amené au système suivant.
i1 + i3 = i2
2i2 + 4i1 = V1
2i2 + 5i3 = V2
Il n’est pas difficile de calculer la solution de ce système et d’obtenir
7 1 5 2 1 3
( i1 , i2 , i3 ) = ( 38 V1 − V 2,
19 2
V
38 1
+ V,
19 2
− 19 V1 + V
19 2
). (3.5)
La question serait fort différente pour un circuit complexe comprenant de nombreux noeuds et
de nombreuses boucles. Une méthode numérique serait alors de rigueur et serait préférablement
basée sur la factorisation LU. Ici la matrice du système s’écrit
1 −1 1 1 0 0 1 −1 1
A = 4 2 0 = l2,1 1 0 0 u2,2 u2,3 .
0 2 5 l3,1 l3,2 1 0 0 u3,3
Si nous appliquons la procédure décrite à l’exemple 3.7.2, nous obtenons successivement,
l2,1 = 4
l3,1 = 0
1
−l3,1 + u2,2 l3,2 = 2 ⇒ l3,2 = 3
19
l3,1 + l3,2 u2,3 + u3,3 = 5 ⇒ u3,3 = 3
et nous pouvons vérifier que nous avons bien
1 0 0 1 −1 1
A= 4 1
0 0 6 −4 .
0 13 1 0 0 19
3
Ceci fait, nous pouvons, pour un membre de droite donné numériquement, e.g. ( 0 8 9 )t ,
obtenir la solution du système par une descente
1 0 0 z1 0 z1 0
4 1 0 z2 = 8 ⇒ z2 = 8 ,
0 13 1 z3 9 z3 19
3
suivie d’une remontée
1 −1 1 i1 0 i1 1
0 6 −4 i2 = 8 ⇒ i2 = 2 .
19 19
0 0 3
i3 3
i3 1
CHAPITRE 3. LES SYSTÈMES LINÉAIRES 70
On vérifiera tout de suite que cette solution coı̈ncide bien avec celle donnée en 3.5. La
méthode est clairement générale et il est facile de voir comment la programmer.
- On construit la matrice A par application des lois de Kirkoff.
- On calcule la factorisation A = LU (éventuellement A = QLU).
- Pour tous les voltages d’entrée que l’on veut considérer
a) Résoudre LZ = V
b) Résoudre UI = Z
- L’ampérage dans chacune des branches est donné par le vecteur I.