Annexe B
Systèmes d’équations linéaires
B.1 Définitions
Définition B.1 (Système d’équations linéaires). Étant donnés deux entiers
non nuls n et p, on appelle système linéaire de n équations à p inconnues x1 , x2 , . . . , xp
tout système (S) du type :
a11 x1 + a12 x2 + . . . +a1j xj + . . . + a1p xp = b1
.. ..
. .
ai1 x1 + ai2 x2 + . . . +aij xj + . . . + aip xp = bi
.. ..
. .
an1 x1 + an2 x2 + . . . +anj xj + . . . + anp xp = bn
où (aij )(i,j)∈[[1,n]]×[[1,p]] est une famille de scalaires et (b1 , b2 , . . . , bn ) ∈ Kn
✓ Lexique relatif aux systèmes linéaires : avec les notations de la définition précédente,
— la matrice A = (aij )(i,j)∈[[1,n]]×[[1,p]] est appelée matrice du système (S) ;
— le n−uplet (b1 , b2 , . . . , bn ) est appelé second membre du système (S) ;
— lorsque b1 = b2 = . . . = bn = 0, on dit que le système (S) est homogène ou sans second
membre ;
— on appelle solution du système tout p−uplet (x1 , x2 , . . . , xp ) ∈ Kp vérifiant les n équations
de (S) ;
— on dit que le système (S) est compatible s’il admet au moins une solution. On note que
tout système homogène est compatible puisqu’il admet au moins la solution (0, 0, . . . , 0) ;
— on appelle rang du système S le rang de la matrice A ;
— on appelle système homogène associé à (S), le système (S0 ) obtenu en remplaçant tous
les bi par 0.
B.2 Interprétations d’un système linéaire
Soit (S) le système de n équations linéaires à p inconnues x1 , x2 , . . . , xp , abrégé en :
∑
p
∀i ∈ [[1, n]], aij xj = bi
j=1
et de matrice associée A = (aij )(i,j)∈[[1,n]]×[[1,p]] .
101
ANNEXE B. SYSTÈMES D’ÉQUATIONS LINÉAIRES
B.2.1 Interprétation matricielle
x1 b1
x2 b2
En notant X = .. et B = .. , le système (S) s’écrit AX = B.
. .
xp bn
Réciproquement, la recherche d’une matrice X ∈ Mp,1 (K) telle que AX = B, où A ∈ Mn,p (K)
et B ∈ Mn,1 (K), se ramène à la résolution d’un système d’équations linéaires.
Remarque. Dans cette interprétation, si la matrice A est inversible (et donc carrée), alors le
système (S) possède une unique solution donnée par X = A−1 B.
B.2.2 Interprétation vectorielle
En notant c1 , c2 , . . . , cp les vecteurs colonnes (de Kn ) de la matrice A et b = (b1 , b2 , . . . , bn ) ∈ Kn ,
∑p
le système (S) s’écrit xj cj = b.
j=1
∑
p
Réciproquement, la recherche de p scalaires x1 , x2 , . . . , xp tels que xj cj = b, où c1 , c2 , . . . , cp
j=1
et b sont les vecteurs d’un K−ev E de dimension n, se ramène (en exprimant l’égalité dans une
base B de E) à la résolution d’un système linéaire.
Remarque. Dans cette interprétation,
- (S) est compatible si, et seulement si, b ∈ Vect(c1 , c2 , . . . , cp ) ;
- par définition même, rg(S) = rg(c1 , c2 , . . . , cp ) ;
- si la famille (c1 , c2 , . . . , cp ) est libre, alors (S) admet au plus une solution ;
- si p = n et si (c1 , c2 , . . . , cn ) est une base de Kn , alors pour tout vecteur b ∈ Kn , (S)
possède une unique solution (à savoir les coordonnées de b dans la base (c1 , c2 , . . . , cn )).
B.2.3 Interprétation à l’aide d’une application linéaire
Si u ∈ L (Kp , Kn ) est l’application linéaire canonique associée à la matrice A et si on note
x = (x1 , x2 , . . . , xp ) ∈ Kp et b = (b1 , b2 , . . . , bn ) ∈ Kn , alors le système (S) s’écrit u(x) = b.
Réciproquement, la recherche des vecteurs x d’un K−ev E de dimension p tels que u(x) = b,
où u ∈ L (E, F ) et b ∈ F , avec F un K−ev de dimension n, se ramène (en exprimant l’égalité
dans des bases B et C respectivement de E et F ) à la résolution d’un système linéaire.
Remarque. Dans cette interprétation,
- (S) est compatible si, et seulement si, b ∈ Imu ;
- si u est injective, alors (S) possède au plus une solution ;
- si u est bijective, alors (S) possède une solution et une seule ;
- si x0 est une solution de (S), alors u(x) = b ⇐⇒ u(x) = u(x0 ) ⇐⇒ u(x − x0 ) = 0 ⇐⇒
(x − x0 ) ∈ Keru, et donc l’ensemble des solutions de (S) est :
x0 + Ker(u) = {x0 + h; h ∈ Ker(u)}
- si (S) est un système homogène de rang r, alors (d’après le théorème du rang) l’ensemble
des solutions de (S) (i.e. Ker(u)) est un sev de Kp de dimension p − r.
102
B.3. SYSTÈME DE CRAMER
B.2.4 Interprétation à l’aide de formes linéaires
Si, φ1 , φ2 , . . . , φn sont les formes linéaires sur Kp canoniquement associées aux lignes de A, et
si on note x = (x1 , x2 , . . . , xp ) ∈ Kp et b = (b1 , b2 , . . . , bn ) ∈ Kn , alors le système (S) s’écrit
φ1 (x) = b1 , φ2 (x) = b2 , . . . , φn (x) = bn .
Réciproquement, la recherche des vecteurs x d’un K−ev E de dimension p tels que φ1 (x) =
b1 , φ2 (x) = b2 , . . . , φn (x) = bn , où φ1 , φ2 , . . . , φn ∈ E ∗ et (b1 , b2 , . . . , bn ) ∈ Kn , se ramène (en ex-
primant l’égalité dans les bases B = (e1 , . . . , en ) et B ∗ = (e∗1 , . . . , e∗n ) de E et E ∗ respectivement,
où e∗i (ej ) = δi,j ) à la résolution d’un système linéaire.
Remarque. Dans cette interprétation,
∩
n
- l’ensemble des solutions du système homogène associé (S0 ) est Kerφi , i.e. l’intersection
i=1
de n hyperplans vectoriels, dont la dimension est p − n si (φ1 , φ2 , . . . , φn ) est libre (car
alors rg(A) = rg( t A) = rg(φ1 , φ2 , . . . , φn ) = n) ;
- l’ensemble des solutions de (S) est l’intersection de n hyperplans affines (i.e hyperplans
vectoriels ”décalés” par rapport à l’origine).
B.3 Système de Cramer
Soit (S) un système de n équations linéaires à p inconnues, de matrice associée A ∈ Mn,p (K),
que l’on écrit AX = B ou encore u(x) = b avec u ∈ L (Kp , Kn ) canoniquement associée à A.
Discussion de la résolution du système (S) en fonction de r = rg(A) :
si r = n : u est surjectif et (S) a des solutions quelque soit le second membre b ;
si r < n : le second membre doit vérifier des conditions de compatibilité pour que (S)
admette des solutions ;
si r = p : u est injectif, et la solution de (S), si elle existe, est unique ;
si r < p : les solutions, si elles existent, ne sont jamais uniques (r inconnues princi-
pales s’expriment en fonction de p − r inconnues secondaires),
si r = n = p : u est bijectif, et pour tout second membre b, il y a une solution unique,
à savoir u−1 (b). On dit que (S) est un système de Cramer.
Un système de Cramer est donc un système linéaire (S) de n équations à n inconnues qui
vérifie l’une des assertions équivalentes suivantes :
(i) (S) admet une solution et une seule,
(ii) le système homogène associé (S0 ) ne possède que la solution triviale (0, 0, . . . , 0),
(iii) la matrice A de (S) est inversible.
Proposition B.1 (Formules de Cramer). Si (S) est un système de Cramer
d’écriture matricielle AX = B, l’unique solution de (S) est le n−uplet (x1 , x2 , . . . , xn ) tel
que :
det Ai
∀i ∈ [[1, n]], xi =
det A
où Ai est la matrice obtenue à partir de A en remplaçant sa ième colonne par B
103
ANNEXE B. SYSTÈMES D’ÉQUATIONS LINÉAIRES
∑
n
Preuve. L’unique solution (x1 , . . . , xn ) du système de Cramer (S) vérifie xj cj = b, et donc, d’après les
j=1
propriétés sur les déterminants, ∀i ∈ [[1, n]], det(c1 , . . . ci−1 , b, ci+1 , . . . , cn ) = xi det(c1 , . . . , cn ), soit det(Ai ) =
xi det(A).
Application.
- Pour montrer qu’une matrice carrée A est inversible, il suffit donc de montrer que le
système AX = 0 ne possède que la solution nulle ;
- une matrice carrée A ∈ Mn (K) est inversible si le système AX = Y peut “s’inverser”,
l’expression de X en fonction Y permet alors de trouver A−1 ;
- si (S) est un système linéaire triangulaire de n équations à n inconnues, c’est à dire
si, et seulement si, sa matrice A est triangulaire supérieure, alors (S) est de Cramer
si ∀i ∈ [[1, n]], aii ̸= 0, et dans ces conditions, on trouve la solution (x1 , x2 , . . . , xn ) en
calculant de proche en proche xn , puis xn−1 , etc.
B.4 Résolution d’un système par la méthode du pivot
Si (S) est un système de Cramer d’écriture matricielle AX = B où A = MatB (u) et u ∈
GL(Kn ), la méthode du pivot de Gauss permet, par des opérations élémentaires sur les lignes,
de transformer la matrice A en une matrice triangulaire supérieure T .
Si P désigne la matrice inversible associée aux opérations élémentaires successives (P −1 =
PassB→B′ ) alors, en appliquant ces opérations simultanément à A et à B, on transforme le
système (S) en un système triangulaire équivalent (que l’on résout en “cascade” à partir de
la dernière équation, les coefficients diagonaux étant non nuls) du fait que son interprétation
matricielle est T X = P B, où T = P A = MatB,B′ (u) et P B est la matrice des coordonnées du
vecteur b ∈ Kn associé à B dans la nouvelle base définie par P −1 .
Remarque. La méthode du pivot de Gauss permet en fait de résoudre un système linéaire (S)
quelconque, car, par des opérations élémentaires sur les lignes et d’éventuelles permutations
de colonnes (correspondant à des permutations d’inconnues), on transforme (S) en le système
équivalent
:
α11 . . . . . . . . . . . . α1p x1 b′1
.. x b′
0 ... .
2 2
.
. ... .. ..
. αrr . . . . . . αrp . .
. .=
... , où les α11 , α22 , . . . αrr sont non nuls
.. ..
0 . . . . . . 0
.. .. .. . .
. . .
. . .
.
0 ... 0 ... ... 0 xp b′n
Le système a alors une solution si, et seulement si, les n − r valeurs b′r+1 , . . . , b′n obtenues en
transformant simultanément la matrice B sont nulles (ce sont les conditions de compatibilité),
et dans ces conditions les r premières inconnues, dites inconnues principales, s’expriment en
fonctions des p − r dernières inconnues, dites inconnues secondaires (les inconnues n’étant pas
nécessairement dans leur ordre initial).
104