Vous êtes sur la page 1sur 16

PCSI 2 Systèmes linéaires

Plan 2.1 Définitions et vocabulaire . . . . . . 8


2.2 Écriture matricielle d’un système . . 10
1 Opérations élémentaires sur les lignes
2.3 Structure de l’ensemble des solu-
et les colonnes d’une matrices 1
tions . . . . . . . . . . . . . . . . . . . 10
1.1 Les définitions . . . . . . . . . . . . . 1 2.4 Application à l’inversibilité d’une
1.2 Traduction en terme de produit ma- matrice . . . . . . . . . . . . . . . . . 11
triciel . . . . . . . . . . . . . . . . . . . 2
1.3 Matrices échelonnée et échelonnée 3 Résolution par la méthode du pivot de
réduite . . . . . . . . . . . . . . . . . . 5 Gauss 12
3.1 Systèmes échelonnés . . . . . . . . . . 12
1.4 Algorithme du pivot de Gauss . . . . 5
3.2 Opérations sur les équations d’un
1.5 Matrices élémentaires et inverse
système . . . . . . . . . . . . . . . . . 13
d’une matrice . . . . . . . . . . . . . . 8
3.3 Méthode du pivot de Gauss . . . . . . 14
2 Théorie des systèmes linéaires 8 3.4 Exercices . . . . . . . . . . . . . . . . . 16

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

1 Opérations élémentaires sur les lignes et les colonnes d’une matrices

1.1 Les définitions

Définition 1.1. Soit A ∈ M np (K) une matrice ayant les colonnes C 1 , C 2 , . . . , C p . On appelle opérations
élémentaires sur les colonnes de A les trois opérations suivantes :
1. C i ← λC i avec λ 6= 0 : multiplier une colonne par un scalaire non nul λ.
2. C i ← C i + λC j avec λ ∈ K (et j 6= i) : ajouter à la colonne C i la colonne C j multipliée par λ.
3. C i ↔ C j : échanger ou permuter deux colonnes.

Définition 1.2. Soit A ∈ M np (K) une matrice ayant les lignes L 1 , L 2 , . . . , L n . On appelle opérations élé-
mentaires sur les la lignes de A les trois opérations suivantes :
1. L i ← λL i avec λ 6= 0 : multiplier une la ligne par un scalaire non nul λ.
2. L i ← L i + λL j avec λ ∈ K (et j 6= i) : ajouter à la ligne L i la ligne L j multipliée par λ.
3. L i ↔ L j : échanger ou permuter deux lignes.

Remarque 1.1. Les opérations élémentaires sont réversible, plus précisément :


1
• Si B est obtenue de A par L i ← λL i alors A est obtenue de B par L i ← L i
λ
• Si B est obtenue de A par L i ← L i + λL j alors A est obtenue de B par L i ← L i − λL j .
• Si B est obtenue de A par L i ↔ L j alors A est obtenue de B par L j ↔ L i .
• On peut remplacer les lignes par les colonnes dans les points précédents.

www.laminelhoucine.blogspot.com page:1/ 16
PCSI 2 Systèmes linéaires

1.2 Traduction en terme de produit matriciel

Soient (E i j ) 1 ≤ i ≤ n la base canonique de M np (K).


1≤ j≤ p
 
0 ... 0 ... 0
. .. .. .. 
 .. . . .
On rappelle que E i j =
  est la matrice dont tous les coefficients sont nuls sauf celui à
 0 . . . 1 . . . 0

0 ... 0 ... 0
l’intersection de la i iemme ligne et la j iemme colonne qui vaut 1 et on a

p
n X
X
A= (a i j ) ⇔ A= ai j Ei j
i =1 j =1

De plus Si E i j est de taille (n, p) et E kl est de taille (p, q) alors :

E i j .E kl = δ jk E il
½
1 si r = s
où δrs = est le symbole de Kronecker, et E il est de taille (n, q).
0 si non
Lorsque on multiplie une matrice A par une matrice de type E i j on obtient
 
0 ... a 1,i ... 0
 .. .. 
 . a 2,i . 
AE i, j =  .
 
.. .. ..
. . .
 
 
0 ... a n,i ... 0

↑j

où la seule colonne non-nulle est la j-ième, et


 
0 ... ... 0
 .. .. 

 . . 

E i, j A =  a j,1 a j,2 ... a j,n  ← ligne i
 
 . .. 
 .
 . .


0 ... ... 0
où la seule ligne non-nulle est la i-ième.

Définition 1.3. On appelle matrices élémentaires, les matrices carrée d’ordre n définies par
1. T i j (λ) = I n + λE i j obtenue à partir de I n par l’opération élémentaire L i ← Li + λL j
2. D i (α) = I n − E ii + αE ii obtenue à partir de I n par l’opération élémentaire L i ← λL i
3. P i j = I n − E ii − E j j + E i j + E ji obtenue à partir de I n par l’opération élémentaire L i ↔ L j

i, j ∈ [[1, n]] tq i 6= j ; λ ∈ K et α ∈ K∗

www.laminelhoucine.blogspot.com page:2/ 16
PCSI 2 Systèmes linéaires

 
  1
1  .. 
 ..   . 
. λ
   
  
 1 

T i j (λ) = 
 .. 
D i (α) = 

α

 . 
 



..
  1 
.
   
   .. 
1  . 
| {z } 1
λ à la position ( i, j ) | {z }
α à la position ( i,i )

C1 ... C i−1 Ci C i+1 ... C j−1 Cj C j+1 . . . Cn


 
L1 1
..  .. 
. 
 . 

L i−1 
 1 

Li 0 1
 
 
 
L i+1  1 
.. ..
 
Pi j = . .
 
 
 
L j−1 
 1 

Lj 
 1 0 

L j+1 1
 
 
.. 
..

. .
 
 
Ln 1

Exemple 1.1. pour n = 4


     
1 0 0 0 1 0 0 0 1 0 0 0
0 5 0 0 −3 1 0 0
  0 0 0 1
D 2 (5) =   T2,1 (−3) =  P 2, 4 = 
   
0 0 1 0 0 0 1 0 0 0 1 0
 
0 0 0 1 0 0 0 1 0 1 0 0

Proposition 1.1. Les matrices élémentaires définie ci dessus sont inversibles et on a

1
T i j (λ)−1 = T i j (−λ); D i (α)−1 = D i ( ); P i−j1 = P i j
α

Théorème 1.1. Soit A ∈ M np (K)


1. Chaque opération élémentaire sur les lignes de A est obtenue en multipliant Aà Gauche par une
matrice élémentaire selon le tableau ci dessous
2. Chaque opération élémentaire sur les colonnes de A est obtenue en multipliant Aà droite par une
matrice élémentaire selon le tableau ci dessous

Opération sur les lignes Produit matriciel Opération sur les colonnes Produit matriciel
L i ← λL i D i (λ)A C i ← λC i AD i (λ)
L i ← L i + λL j T i j (λ)A C j ← C j + λC i AT i j (λ)
Li ↔ L j Pi j A Ci ↔ C j AP i j

Remarque 1.2. dans le premier tableau les matrices élémentaires sont carrées d’ordre n tandis que dans
le deuxième sont carrées d’ordre p

www.laminelhoucine.blogspot.com page:3/ 16
PCSI 2 Systèmes linéaires

Preuve : On va montrer seulement le résultat relativeà L i ← L i + λL j , les autre se font de la même façon

0 ... ... 0
 
 .. .. 

 . . 

T i j (λ)A = (I p + λE i j )A = A + λ AE i j = A +  a j,1 a j,2 ... a j,n  ← ligne i = B
 
 .. .. 
 
 . . 
0 ... ... 0

où B est la matrice obtenue de A en ajoutant la j iemme ligne à la iemme et en lissant les autres intactes .

x1 x2 x3
 

Exemple 1.2. Soit A =  y1 y2 y3 


z1 z2 z3
1
1. L 2 ← L 2
3    
1 0 0 
x1 x2 x3
 x1 x2 x3
1  1  1 1 1 
D2( ) × A = 
0 0
 ×  y1 y2 y3  = 
 3 y1 y2 y3 
3 3 3 3 
0 0 1 z1 z2 z3 z z2 z3
1

2. L 1 ← L 1 − 7L 3

1 0 −7 x1 x2 x3 x1 − 7z1 x2 − 7z2 x3 − 7z3


     

T1,3 (−7) × A = 0 1 0  ×  y1 y2 y3  =  y1 y2 y3 
0 0 1 z1 z2 z3 z1 z2 z3

3. L 2 ↔ L 3
1 0 0 x1 x2 x3 x1 x2 x3
    

P2,3 × A = 0 0 1 ×  y1 y2 y3  =  z1 z2 z3 
0 1 0 z1 z2 z3 y1 y2 y3

Proposition 1.2. Soit A ∈ M np (K)


1. Si B est déduite de Apar une opération élémentaire alors A et B sont équivalente donc rg B = rg A
2. Si B est déduite de Apar une opération élémentaire sur les colonnes alors

ImB = ImA

3. Si B est déduite de Apar une opération élémentaire sur les lignes alors

ker B = ker A

Preuve :
1. Découle du fait que B = E.A ou B = AE avec E une matrice élémentaire qui est inversible.
2. Déjà vue au paragraphe rang d’une matrice .
3. Dans ce cas B = E.A avec E une matrice élémentaire qui est inversible, par suite

X ∈ ker B ⇔ BX = 0 ⇔ EAX = 0 ⇔ AX = 0 ⇔ X ∈ ker A

D’où ker B = ker A

www.laminelhoucine.blogspot.com page:4/ 16
PCSI 2 Systèmes linéaires

1.3 Matrices échelonnée et échelonnée réduite

Définition 1.4. Une matrice est échelonnée lignes si :


— le nombre de zéros commençant une ligne croît strictement ligne par ligne jusqu’à ce qu’il ne reste
plus que des zéros.
Chaque premier terme non nul d’une ligne non nulle s’appelle pivot.
Elle est échelonnée réduite si en plus :
— le premier coefficient non nul d’une ligne (non nulle) vaut 1 ;
— et c’est le seul élément non nul de sa colonne.

Exemple d’une matrice échelonnée (à gauche) et échelonnée réduite (à droite) ; les ∗ désignent des coeffi-
cients quelconques, les + des coefficients non nuls qu’on appelle pivots :
   
+ ∗ ∗ ∗ ∗ ∗ ∗ 1 ∗ 0 0 ∗ ∗ 0
 0 0 + ∗ ∗ ∗ ∗  0 0 1 0 ∗ ∗ 0
   
 0 0 0 + ∗ ∗ ∗  0 0 0 1 ∗ ∗ 0
   
 0 0 0 0 0 0 + 0 0 0 0 0 0 1
   
   
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0

1.4 Algorithme du pivot de Gauss

Théorème 1.2. Étant donnée une matrice A ∈ M n,p (K), il existe une unique matrice échelonnée réduite
U obtenue à partir de A par des opérations élémentaires sur les lignes.
En d’autre termes Il existe une unique matrice échelonnée réduite U et une suite finie de matrices élé-
mentaires (E 1 , ..., E k ) dans M n (K) telle que

U = E k ....E 1 .A

Ce théorème permet donc de se ramener par des opérations élémentaires à des matrices dont la structure
est beaucoup plus simple : les matrices échelonnées réduites.

Démonstration. Nous admettons l’unicité.


L’existence se démontre grâce à l’algorithme de Gauss. L’idée générale consiste à utiliser des substitutions
de lignes pour placer des zéros là où il faut de façon à créer d’abord une forme échelonnée, puis une forme
échelonnée réduite.

Soit A une matrice n × p quelconque.

Partie A. Passage à une forme échelonnée.


Étape A.1. Choix du pivot.
On commence par inspecter la première colonne. Soit elle ne contient que des zéros, auquel cas on passe
directement à l’étape A.3, soit elle contient au moins un terme non nul. On choisit alors un tel terme, que
l’on appelle le pivot. Si c’est le terme a 11 , on passe directement à l’étape A.2 ; si c’est un terme a i1 avec
i 6= 1, on échange les lignes 1 et i (L 1 ↔ L i ) et on passe à l’étape A.2.

www.laminelhoucine.blogspot.com page:5/ 16
PCSI 2 Systèmes linéaires

Au terme de l’étape A.1, soit la matrice A a sa première colonne nulle (à gauche) ou bien on obtient une
matrice équivalente dont le premier coefficient a011 est non nul (à droite) :
 0
a 11 a012 · · · a01 j · · · a01 p
  
0 a 12 · · · a 1 j · · · a 1 p
 0
0 a
22 · · · a 2 j · · · a 2 p   a 21 a022 · · · a02 j · · · a02 p 
 

. .. .. ..   ..

.. .. .. 

 .. . . .   . . . . 
 = A ou  0  ∼ A.
 
0 0 0

0 a i2 · · · a i j · · · a i p  a i1 a i2 · · · a i j · · · a i p 
 

 .. .. .. ..   . .. .. .. 
 
. . . .   .
 . . . . 

0 a n2 · · · a n j · · · a np a0n1 a0n2 · · · a0n j · · · a0np

Étape A.2. Élimination.


On ne touche plus à la ligne 1, et on se sert du pivot a011 pour éliminer tous les termes a0i1 (avec i ≥ 2)
a0
situés sous le pivot. Pour cela, il suffit de remplacer la ligne i par elle-même moins 0i1 × la ligne 1, ceci
a 11
a021 a031
pour i = 2, . . . , n : L 2 ← L 2 − 0 L 1 , L 3 ← L 3 − 0 L 1 ,. . .
a 11 a 11
Au terme de l’étape A.2, on a obtenu une matrice de la forme
 0
a 11 a012 · · · a01 j · · · a01 p

 0 a0022 · · · a002 j · · · a002 p 


 
 .. .. .. .. 
 
 . . . . 
 00 00 00
 ∼ A.
 0
 a i2 · · · a i j · · · a i p  
 . .. .. .. 
 .
 . . . . 

0 a00n2 · · · a00n j · · · a00np

Étape A.3. Boucle.


Au début de l’étape A.3, on a obtenu dans tous les cas de figure une matrice de la forme
 1
a 11 a112 · · · a11 j · · · a11 p

 0 a122 · · · a12 j · · · a12 p 


 
 .. .. .. .. 
 
 . . . . 
1 1 1 ∼ A
 
 0
 a i2 · · · a i j · · · a i p 
 . .. .. .. 
 .
 . . . . 

0 a1n2 · · · a1n j · · · a1np

dont la première colonne est bien celle d’une matrice échelonnée. On va donc conserver cette première
colonne. Si a111 6= 0, on conserve aussi la première ligne, et l’on repart avec l’étape A.1 en l’appliquant cette
fois à la sous-matrice (n − 1) × (p − 1) (ci-dessous à gauche : on « oublie » la première ligne et la première
colonne de A) ; si a111 = 0, on repart avec l’étape A.1 en l’appliquant à la sous-matrice n × (p − 1) (à droite,
on « oublie » la première colonne) :
 1
a 12 · · · a11 j · · · a11 p

 1 1 1 
a 22 · · · a 2 j · · · a 2 p  1
 a 22 · · · a12 j · · · a12 p 

 . . .
 .. .. .. 

 .. .. .. 
 

 1 1 1 
  . . . 
 a i2 · · · a i j · · · a i p  
1 1 1

 a · · · a · · · a 
 .. .. ..  i2 ij ip 
  
 . . .   .. .. .. 

 . . . 

1 1 1
a n2 · · · a n j · · · a np
a1n2 · · · a1n j · · · a1np

www.laminelhoucine.blogspot.com page:6/ 16
PCSI 2 Systèmes linéaires

Au terme de cette deuxième itération de la boucle, on aura obtenu une matrice de la forme
 1
a 11 a112 · · · a11 j · · · a11 p

 0 a222 · · · a22 j · · · a22 p 


 
 .. .. .. .. 
 
 . . . . 
2 2  ∼ A,
 
 0
 0 · · · a ij · · · a ip 
 . .. .. .. 
 .
 . . . . 

0 0 · · · a2n j · · · a2np

et ainsi de suite.
Comme chaque itération de la boucle travaille sur une matrice qui a une colonne de moins que la précé-
dente, alors au bout d’au plus p − 1 itérations de la boucle, on aura obtenu une matrice échelonnée.

Partie B. Passage à une forme échelonnée réduite.


Étape B.1. Homothéties.
On repère le premier élément non nul de chaque ligne non nulle, et on multiplie cette ligne par l’inverse
1
de cet élément. Exemple : si le premier élément non nul de la ligne i est α 6= 0, alors on effectue L i ← L i .
α
Ceci crée une matrice échelonnée avec des 1 en position de pivots.

Étape B.2. Élimination.


On élimine les termes situés au-dessus des positions de pivot comme précédemment, en procédant à partir
du bas à droite de la matrice. Ceci ne modifie pas la structure échelonnée de la matrice en raison de la
disposition des zéros dont on part.

Exemple 1.3. Soit


1 2 3 4
 

A =  0 2 4 6 .
−1 0 1 0

A. Passage à une forme échelonnée.


Première itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a111 = 1.
Première itération de la boucle, étape A.2. On ne fait rien sur la ligne 2 qui contient déjà un zéro en bonne
position et on remplace la ligne 3 par L 3 ← L 3 + L 1 . On obtient

1 2 3 4
 

A ∼ 0 2 4 6 .
0 2 4 4

Deuxième itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a222 = 2.
Deuxième itération de la boucle, étape A.2. On remplace la ligne 3 avec l’opération L 3 ← L 3 − L 2 . On obtient

1 2 3 4
 

A ∼ 0 2 4 6  .
0 0 0 −2

Cette matrice est échelonnée.

B. Passage à une forme échelonnée réduite.

www.laminelhoucine.blogspot.com page:7/ 16
PCSI 2 Systèmes linéaires

1 1
Étape B.1, homothéties. On multiplie la ligne 2 par et la ligne 3 par − et l’on obtient
2 2

1 2 3 4
 

A ∼ 0 1 2 3 .
0 0 0 1

Étape B.2, première itération. On ne touche plus à la ligne 3 et on remplace la ligne 2 par L 2 ← L 2 − 3L 3
et L 1 ← L 1 − 4L 3 . On obtient
1 2 3 0
 

A ∼ 0 1 2 0 .
0 0 0 1

Étape B.2, deuxième itération. On ne touche plus à la ligne 2 et on remplace la ligne 1 par L 1 ← L 1 − 2L 2 .
On obtient
1 0 −1 0
 

A ∼ 0 1 2 0
0 0 0 1
qui est bien échelonnée et réduite.

1.5 Matrices élémentaires et inverse d’une matrice

Théorème 1.3. Soit A ∈ M n (K). La matrice A est inversible si et seulement si sa forme échelonnée réduite
est la matrice identité I n .

Preuve : Notons U la forme échelonnée réduite de A. Et notons E le produit de matrices élémentaires tel que E A = U.
⇐= Si U = I n alors E A = I n . Ainsi par définition, A est inversible et A −1 = E.
=⇒ Nous allons montrer que si U 6= I n , alors A n’est pas inversible.
— Supposons U 6= I n . Alors la dernière ligne de U est nulle (sinon il y aurait un pivot sur chaque ligne donc ce serait I n ).
— Cela entraîne que U n’est pas inversible : en effet, pour tout matrice carrée V , la dernière ligne de UV est nulle ; on
n’aura donc jamais UV = I n .
— Alors, A n’est pas inversible non plus : en effet, si A était inversible, on aurait U = E A et U serait inversible comme
produit de matrices inversibles (E est inversible car c’est un produit de matrices élémentaires qui sont inversibles).

Remarque 1.3. Justifions maintenant notre méthode pour calculer A −1 .


Nous partons de (A | I) pour arriver par des opérations élémentaires sur les lignes à (I |B). Montrons que
B = A −1 . Faire une opération élémentaire signifie multiplier à gauche par une des matrices élémentaires.
Notons E le produit de ces matrices élémentaires. Dire que l’on arrive à la fin du processus à I signifie
E A = I. Donc A −1 = E. Comme on fait les mêmes opérations sur la partie droite du tableau, alors on
obtient EI = B. Donc B = E. Conséquence : B = A −1 .

2 Théorie des systèmes linéaires

2.1 Définitions et vocabulaire

Soient n et p deux entiers naturels non nuls


• On appelle équation linéaire dans les variables (ou inconnues) x1 , . . . , x p toute relation de la forme

a 1 x1 + · · · + a p x p = b, (1)

où a 1 , . . . , a p et b sont des nombres réels donnés.

www.laminelhoucine.blogspot.com page:8/ 16
PCSI 2 Systèmes linéaires

• Un système de n équations linéaires à p inconnues (x1 , ..., x p ) est une liste de n équations linéaires
présentée sous la forme



 a 11 x1 +a 12 x2 +a 13 x3 + ··· +a 1 p x p = b1 (← équation 1)
a 21 x1 +a 22 x2 +a 23 x3 +a 2 p x p b2 (← équation 2)



 + ··· =
.. .. .. .. ..



 . . . . = .
S:
 a i1 x1
 + a i 2 x2 +a i3 x3 + · · · +a i p x p = bi (← équation i)
.. .. .. .. .

= ..





 . . . .
a n 1 x1 + a n 2 x2 + a n 3 x3 + · · · +a np x p = bn (← équation n)

• Les nombres a i j , i = 1, . . . , n, j = 1, . . . , p, sont les coefficients du système. Ce sont des données.


• Les nombres b i , i = 1, . . . , n, constituent le second membre du système et sont également des données.
• Lorsque b 1 = ... = b n = 0 on dit que le système et homogène ou sans second membre.
• Le système S 0 obtenue en remplaçant les b i par 0 s’appelle le système homogène associe à S
• La matrice A = (a i j ) 1 ≤ i ≤ n ∈ M np (K) s’appelle la matrice du système S
1≤ j≤ p
• On appelle solution du système linéaire tout p-uplet (s 1 , s 2 , . . . , s p ) ∈ K p qui vérifie toutes les équations
du système, C’est à dire si l’on substitue s 1 pour x1 , s 2 pour x2 , etc., dans le système linéaire, on obtient
une égalité.
L’ ensemble des solutions du système est l’ensemble de tous ces p-uplets.
• On dit que le système est compatible s’il admet au moins une solution . Tout système homogène est
compatible puisqu’il admet (0, ..., 0) comme solution triviale.
• En règle générale, on s’attache à déterminer l’ensemble des solutions d’un système linéaire. C’est ce que
l’on appelle résoudre le système linéaire.
• on appelle rang du système S le rang de sa matrice A.

Remarques 2.1. Il convient de bien observer comment on a rangé le système en lignes (une ligne par
équation) numérotées de 1 à n par l’indice i, et en colonnes : les termes correspondant à une même incon-
nue x j sont alignés verticalement les uns sous les autres. L’indice j varie de 1 à p. Il y a donc p colonnes à
gauche des signes d’égalité, plus une colonne supplémentaire à droite pour le second membre. La notation
avec double indice a i j correspond à ce rangement : le premier indice (ici i) est le numéro de ligne et le
second indice (ici j) est le numéro de colonne. Il est extrêmement important de toujours respecter cette
convention.

Exemple 2.1. Le système (S) suivant a 2 équations et 3 inconnues :


½
x1 − 3x2 + x3 = 1
−2x1 + 4x2 − 3x3 = 9

• on a n = 2 (nombre d’équations = nombre de lignes), p = 3 (nombre d’inconnues = nombre de colonnes à


gauche du signe =) et a 11 = 1, a 12 = −3, a 13 = 1, a 21 = −2, a 22 = 4, a 23 = −3, b 1 = 1 et b 2 = 9.
µ ¶ µ ¶
1 −3 1 1
Sa matrice est donc A = et son second membre est B =
−2 4 −3 9
• S admet comme solution (−18, −6, 1), c’est-à-dire

x1 = −18 , x2 = −6 , x3 = 1

donc S est compatible. Par contre , (7, 2, 0) ne satisfait que la première équation. Ce n’est donc pas une
solution du système.

Définition 2.1. On dit que deux systèmes linéaires sont équivalents s’ils ont le même ensemble de
solutions.

www.laminelhoucine.blogspot.com page:9/ 16
PCSI 2 Systèmes linéaires

À partir de là, le jeu pour résoudre un système linéaire donné consistera à le transformer en un système
équivalent dont la résolution sera plus simple que celle du système de départ. Nous verrons plus loin
comment procéder de façon systématique pour arriver à ce but.

2.2 Écriture matricielle d’un système

• Soit 

 a 11 x1 +a 12 x2 +a 13 x3 +a 1 p x p = b 1
+ ··· (← équation 1)
a 21 x1 +a 22 x2 +a 23 x3 +a 2 p x p = b 2 (← équation 2)



 + ···
.. .. .. .. ..



 . . . . = .
S:

 a i 1 x1 + a i 2 x2 +a i3 x3
+ · · · +a i p x p = b i (← équation i)
.. .. .. .. ..






 . . . . = .
a n 1 x1 + a n 2 x2 + a n 3 x3
+ · · · +a np x p = b n (← équation n)

b1 x1
   
 ..   .. 
Posons A = (a i j ) 1≤i≤n ∈ M np (K) sa matrice , B =  .  son second membre et X =  .  L’inconnu
1≤ j≤ p
bn xp

Alors le système S s’écrit A.X = B

• Réciproquement, si A ∈ M np (K) et B ∈ M n1 (K) alors la recherche des matrices X ∈ M p1 (K) qui vérifient
A X = B se traduit par un système linéaire de type S.

2.3 Structure de l’ensemble des solutions

Soit
b1 x1
  
 .   . 
— A = (a i j ) 1≤i≤n ∈ M np (K) B =  ..  X =  .. 
1≤ j≤ p
bn xp
— et Soit le système S : AX = B et SH : AX = 0 le système homogène associé .
— Notons :
— S l’ensemble des solutions de S
— S H l’ensemble des solutions de S H

Proposition 2.1. 1. S H = ker A est un sous espace vectoriel de K p


2. Si S est compatible il admet une solution particulière X 0 et on a
SH = X0 + SH = {X0 + X / X ∈ SH }
3. Si S n’est pas compatible alors S = ;

Preuve :
1. X ∈ S H ⇔ AX = 0 ⇔ X ∈ ker A
2. Soit X 0 une solution donnée de S donc X 0 ∈ K p et A X 0 = B

X ∈S ⇔ AX = B
⇔ A X = A X0
⇔ A(X − X 0 ) = 0
⇔ X − X0 ∈ SH
⇔ X ∈ X0 + SH

www.laminelhoucine.blogspot.com page:10/ 16
PCSI 2 Systèmes linéaires

X}0 = B ce qui assure l’autre inclusion et achève la démons-


réciproquement si X 0 ∈ S H alors X = X 0 + X 0 ∈ S car A X = A X 0 + |A{z
| {z }
=B 0
tration.
3. Par définition d’un système non compatible.

Remarque 2.1. 1. Un système linéaire homogène A X = 0 a :


(a) Ou bien une unique solution qui est 0 .
(b) Ou bien il admet une infinité de solutions.
2. Un système linéaire non homogène A X = B a :

(a) Ou bien une unique solution.


(b) Ou bien il admet une infinité de solutions.
(c) Ou bien le système n’est pas compatible donc n’admet pas de de solution.

Exemple 2.2. Si un système linéaire homogène a une solution (x1 , . . . , x p ) 6= (0, . . . , 0), alors il admet une
infinité de solutions.

Définition 2.2. On dit qu’ un système A X = B est un système de CRAMER si la matrice A est carrée
inversible.
Dans ce cas le système admet une unique solution donnée par X = A −1 B

2.4 Application à l’inversibilité d’une matrice

Le théorème suivant est déjà utilisé dans une partie précédente, il caractérise l’inversibilité d’une matrice
à l’aide des systèmes linéaires

b1 x1
   
 .   . 
Théorème 2.1. Soit A ∈ M n (K) est une matrice carrée d’ordre n B =  ..  et X =  ..  .
bn xn
Alors il y a équivalence entre :
1. A inversible
0
 
 .. 
2. Le système S H : A X = 0 admet  .  comme unique solution.
0
3. Le système S : A X = B admet une unique solution.

Preuve :
1 ⇔ 2 On sait qu’une conséquence tu théorème du rang on a :

A inversible ⇔ ker A = {0} ⇔ S H = {0}

1 ⇒ 3 Si A inversible alors
A X = B ⇔ X = A −1 B
Donc S admet une unique solution qui est A −1 B.
3 ⇒ 1 Supposons que S admet une unique solution X 0 .
Soit X ∈ ker A alors X + X 0 est aussi solution de S car : A(X + X 0 ) = |{z}
A X +A X0 = B
0
donc par unicité X 0 = X + X 0 ce qui donne X = 0 et montre que ker A = {0} et par conséquence que A est inversible.

www.laminelhoucine.blogspot.com page:11/ 16
PCSI 2 Systèmes linéaires

3 Résolution par la méthode du pivot de Gauss

3.1 Systèmes échelonnés

Définition 3.1. Un système est échelonné si :


— le nombre de coefficients nuls commençant une ligne croît strictement ligne après ligne.
Il est échelonné réduit si en plus :
— le premier coefficient non nul d’une ligne vaut 1 ;
— et c’est le seul élément non nul de sa colonne.

Remarque 3.1. Un système est échelonné si et seulement si sa matrice est échelonné par lignes

 2x1 +3x2 +2x3 − x4 = 5
Exemple 3.1. — − x2 −2x3 = 4 est échelonné (mais pas réduit).

3x4 = 1

 2x1 +3x2 +2x3 − x4 = 5
— −2x3 = 4 n’est pas échelonné (la dernière ligne commence avec la même

x3 + x4 = 1
variable que la ligne au-dessus).

Il se trouve que les systèmes linéaires sous une forme échelonnée réduite sont particulièrement simples à
résoudre.

Exemple 3.2. Le système linéaire suivant à 3 équations et 4 inconnues est échelonné et réduit.

 x1 +2x3 = 25
x2 −2x3 = 16

x4 = 1

Ce système se résout trivialement en



 x1 = 25 − 2x3
x = 16 + 2x3
 2
x4 = 1.
En d’autres termes, pour toute valeur de x3 réelle, les valeurs de x1 , x2 et x4 calculées ci-dessus fournissent
une solution du système, et on les a ainsi toutes obtenues. On peut donc décrire entièrement l’ensemble
des solutions :
S = (25 − 2x3 , 16 + 2x3 , x3 , 1) | x3 ∈ R .
© ª

3.2 Opérations sur les équations d’un système

Nous allons utiliser trois opérations élémentaires sur les équations (c’est-à-dire sur les lignes) qui sont :
1. L i ← λL i avec λ 6= 0 : on peut multiplier une équation par un réel non nul.
2. L i ← L i + λL j avec λ ∈ R (et j 6= i) : on peut ajouter à l’équation L i un multiple d’une autre équation
L j.
3. L i ↔ L j : on peut échanger deux équations.
Ces trois opérations élémentaires ne changent pas les solutions d’un système linéaire ; autrement dit ces
opérations transforment un système linéaire en un système linéaire équivalent.

Exemple 3.3. Utilisons ces opérations élémentaires pour résoudre le système suivant.

 x + y +7z = −1 (L 1 )
2x − y +5z = −5 (L 2 )

− x −3y −9z = −5 (L 3 )

www.laminelhoucine.blogspot.com page:12/ 16
PCSI 2 Systèmes linéaires

Commençons par l’opération L 2 ← L 2 − 2L 1 : on soustrait à la deuxième équation deux fois la première


équation. On obtient un système équivalent avec une nouvelle deuxième ligne (plus simple) :


 x + y +7z = −1
−3y −9z = −3 L 2 ←L 2 −2L 1

−x −3y −9z = −5

Puis L 3 ← L 3 + L 1 : 
 x + y +7z = −1
−3y −9z = −3

−2y −2z = −6 L 3 ←L 3 +L 1

On continue pour faire apparaître un coefficient 1 en tête de la deuxième ligne ; pour cela on divise la ligne
L 2 par −3 :

 x + y +7z = −1
y +3z = 1 L 2 ← − 13 L 2

−2y −2z = −6

On continue ainsi
 
 x + y +7z = −1  x + y +7z = −1
y +3z = 1 y +3z = 1
 
4z = −4 L 3 ←L 3 +2L 2 z = −1 L 3 ← 14 L 3

 
 x + y +7z = −1  x +y = 6 L 1 ←L 1 −7L 3
y = 4 L 2 ←L 2 −3L 3 y = 4
 
z = −1 z = −1

On aboutit à un système réduit et échelonné :



 x = 2 L 1 ←L 1 −L 2
y = 4

z = −1

On obtient ainsi x = 2, y = 4 et z = −1 et l’unique solution du système est (2, 4, −1).

La méthode utilisée pour cet exemple est reprise et généralisée dans le paragraphe suivant.

3.3 Méthode du pivot de Gauss

La méthode du pivot de Gauss permet de trouver les solutions de n’importe quel système linéaire. Nous
allons décrire cet algorithme sur un exemple. Il s’agit d’une description précise d’une suite d’opérations à
effectuer, qui dépendent de la situation et d’un ordre précis. Ce processus aboutit toujours (et en plus assez
rapidement) à un système échelonné puis réduit, qui conduit immédiatement aux solutions du système.
Partie A. Passage à une forme échelonnée.
Soit le système suivant à résoudre :

 − x2 +2x3 +13x4 = 5
x −2x2 +3x3 +17x4 = 4
 1
− x1 +3x2 −3x3 −20x4 = −1

www.laminelhoucine.blogspot.com page:13/ 16
PCSI 2 Systèmes linéaires

Pour appliquer la méthode du pivot de Gauss, il faut d’abord que le premier coefficient de la première
ligne soit non nul. Comme ce n’est pas le cas ici, on échange les deux premières lignes par l’opération
élémentaire L 1 ↔ L 2 : 
 x1 −2x2 +3x3 +17x4 = 4 L 1 ↔L 2
− x2 +2x3 +13x4 = 5

− x1 +3x2 −3x3 −20x4 = −1

Nous avons déjà un coefficient 1 devant le x1 de la première ligne. On dit que nous avons un pivot en
position (1, 1) (première ligne, première colonne). Ce pivot sert de base pour éliminer tous les autres termes
sur la même colonne.
Il n’y a pas de terme x1 sur le deuxième ligne. Faisons disparaître le terme x1 de la troisième ligne ; pour
cela on fait l’opération élémentaire L 3 ← L 3 + L 1 :

 x1 −2x2 +3x3 +17x4 = 4
− x2 +2x3 +13x4 = 5

x2 −3x4 = 3 L 3 ←L 3 +L 1

On change le signe de la seconde ligne (L 2 ← −L 2 ) pour faire apparaître 1 au coefficient du pivot (2, 2)
(deuxième ligne, deuxième colonne) :

 x1 −2x2 +3x3 +17x4 = 4
x2 −2x3 −13x4 = −5 L 2 ← −L 2

x2 −3x4 = 3

On fait disparaître le terme x2 de la troisième ligne, puis on fait apparaître un coefficient 1 pour le pivot
de la position (3, 3) :

 x1 −2x2 +3x3 +17x4 = 4
x2 −2x3 −13x4 = −5

2x3 +10x4 = 8 L 3 ←L 3 −L 2

 x1 −2x2 +3x3 +17x4 = 4
x2 −2x3 −13x4 = −5

x3 +5x4 = 4 L 3 ← 12 L 3

Le système est maintenant sous forme échelonnée.

Partie B. Passage à une forme réduite.


Il reste à le mettre sous la forme échelonnée réduite. Pour cela, on ajoute à une ligne des multiples adé-
quats des lignes situées au-dessous d’elle, en allant du bas à droite vers le haut à gauche.
On fait apparaître des 0 sur la troisième colonne en utilisant le pivot de la troisième ligne :

 x1 −2x2 +3x3 +17x4 = 4
x2 −3x4 = 3 L 2 ←L 2 +2L 3

x3 +5x4 = 4

 x1 −2x2 2x4 = −8 L 1 ←L 1 −3L 3
x2 −3x4 = 3

x3 +5x4 = 4

On fait apparaître des 0 sur la deuxième colonne (en utilisant le pivot de la deuxième ligne) :

 x1 −4x4 = −2 L 1 ←L 1 +2L 2
x2 −3x4 = 3

x3 +5x4 = 4

www.laminelhoucine.blogspot.com page:14/ 16
PCSI 2 Systèmes linéaires

Le système est sous forme échelonnée réduite.

Partie C. Solutions. Le système est maintenant très simple à résoudre. En choisissant x4 comme variable
libre, on peut exprimer x1 , x2 , x3 en fonction de x4 :

x1 = 4x4 − 2, x2 = 3x4 + 3, x3 = −5x4 + 4.

Ce qui permet d’obtenir toutes les solutions du système :

S = (4x4 − 2, 3x4 + 3, −5x4 + 4, x4 ) | x4 ∈ R .


© ª

Exemple 3.4. Considérons le système homogène




 3x1 + 3x2 − 2x3 − x5 = 0

 −x − x
1 2 + x3 + 3x4 + x5 = 0
 2x1 + 2x2 − x3
 + 2x4 + 2x5 = 0

 x3 + 8x4 + 4x5 = 0.

Sa forme échelonnée réduite est


 x1 + x2 + 13x5 = 0
x3 + 20x5 = 0

x4 − 2x5 = 0.

On pose comme variables libres x2 et x5 pour avoir

x1 = − x2 − 13x5 , x3 = −20x5 , x4 = 2x5 ,

et l’ensemble des solutions :

S = (− x2 − 13x5 , x2 , −20x5 , 2x5 , x5 ) | x2 , x5 ∈ R


© ª

qui estun sous espace vectoriel de dimension 2.

3.4 Exercices

Exercice 1. Discuter suivant la valeur du paramètre m ∈ R le système :



 3x + y − z = 1
x − 2y + 2z = m

x+ y− z = 1

Solution : Notons (S) ce système, et appliquons la méthode du pivot de Gauss :



 x+ y− z = 1 (L3)
(S) ⇐⇒ −3y + 3z = m − 1 (L1)-3(L3)
−2y + 2z = −2 (L2)-(L3)


 x + y − z = 1
⇐⇒ − y + z = (m − 1)/3
− y + z = −1

Le système admet donc des solutions si et seulement si (m − 1)/3 = −1, soit m = −2. Dans ce cas, il est équivalent à

½  x = 0
x = 1− y+ z
⇐⇒ y = y
z = −1 + y
z = −1 + y

Dans le cas où m = −2, l’ensemble des solutions est donc

{(0, y, −1 + y); y ∈ R}.

www.laminelhoucine.blogspot.com page:15/ 16
PCSI 2 Systèmes linéaires

Exercice 2. Discuter suivant la valeur du paramètre a ∈ R le système



 ax + (1 − a)y + (1 − a)z
 = a2
ax + (1 + a)y + (1 + a)z = a − a2

 x+ y+ z = 1−a

Solution : Notons (S) ce système, et appliquons la méthode du pivot de Gauss :


x+ y+ z = 1−a


(S) ⇐⇒ y+ z = 0
2a2 − a

(1 − 2a)y + (1 − 2a)z =

 x+ y+ z = 1−a
⇐⇒ y+ z = 0
a(2a − 1) = 0

On distingue alors plusieurs cas. Si a ∉ {0, 1/2}, le système n’est pas compatible et n’admet donc pas de solutions. Si a = 0, le
système est équivalent à ½
x+ y+ z = 1
y+ z = 0
et donc l’ensemble des solutions est {(1, y, − y); y ∈ R}. Si a = 1/2, le système devient
½
x + y + z = 1/2
y+ z = 0

et donc l’ensemble des solutions est {(1/2, y, − y); y ∈ R}.

www.laminelhoucine.blogspot.com page:16/ 16

Vous aimerez peut-être aussi