Vous êtes sur la page 1sur 15

Résolution des systèmes linéaires

1) Introduction

Les méthodes de résolution des systèmes d’équations linéaires peuvent être rangées, en principe, en
deux groupes

a) Méthodes directes qui sont les algorithmes finis de calcul des solutions des systèmes (Règle
de Cramer, méthode de Gauss, méthode de Gauss-Jordan, méthode de Choleski, etc…)
b) Méthodes itératives qui permettent d’obtenir les solutions des systèmes avec la précision
imposée à l’aide des processus convergents infinis (Méthode de Jacobi, méthode de Gauss-
Seidel, méthode de relaxation, etc…)

2) Rappel sur les matrices

2-1) Définitions

Rappelons que K désigne le corps IR des nombres réels ou le corps des nombres complexes.
On appelle ( ) matrice A ( ) à élément dans K ou matrice A à m lignes et n colonnes
un tableau rectangulaire de éléments de K rangés en m lignes et n colonnes.
En notant le jième élément de la ième ligne de la matrice A, le premier indice indique la ligne i et
le second la colonne j. La matrice A s’écrit :

( )

On utilise aussi la notation ( ) ( ) ou ( ) .


On dit alors que la matrice A est d’ordre .

- Si la matrice s’appelle carrée d’ordre n


- Si la matrice est dite rectangulaire

En particulier, lorsqu’elle est d’ordre , on lui donne le nom de vecteur ligne et de vecteur
colonne si elle est d’ordre . Un nombre (scalaire) peut être considéré comme une matrice
.

L’ensemble des ( ) matrices est noté ( ) ou lorsqu’il n’y a pas ambiguïté et c’est un
espace vectoriel sur K de dimension .
Lorsque l’espace est noté ( ).

2-2) Généralités sur les matrices

 Matrice transposée

Résolution des systèmes linéaire


Dr Benhadid Samir Page 1
En remplaçant dans la matrice

( )

Les lignes par les colonnes respectives, on obtient une matrice dite transposée , notée ou

( )

En particulier, pour le vecteur ( ) , la matrice transposée est le vecteur colonne

. La matrice transposée jouit des propriétés suivantes :

( )

1) Une matrice transposée deux fois se confond avec la matrice initiale ( )


2) La matrice transposée d’une somme est égale à la somme des matrices transposées des termes
de l’addition ( )
3) La matrice transposée d’un produit est égale au produit des matrices transposées pris dans
l’ordre inverse ( )

 Matrice conjuguée
La conjuguée de la matrice A, notée ̅ , est la matrice qui a pour élément ̅ (cas des matrices
complexes)

 Matrice adjointe
L’adjointe de la matrice A, notée , est la conjuguée de la transposée de la matrice A, ̅

 Matrice carrée d’ordre n


A la matrice carrée ( ) est liée la notion du déterminant

| |
| |

Le est un nombre défini par les règles bien connues et notamment

∑( )( )

Résolution des systèmes linéaire


Dr Benhadid Samir Page 2
Où la somme s’étend à toutes les permutations possibles ( ) des éléments 1,2,..,n et par
suite compte termes . De plus si la permutation est paire et si elle est impaire
(nombre impair de transpositions).

- Pour une matrice carrée d’ordre n, les éléments sont appelés éléments
diagonaux et la suite ( ) est appelée diagonale principale.

- On appelle matrice diagonale, une matrice carrée telle que lorsque

- Une matrice unité, notée, I, est une matrice diagonale avec

- On appelle matrice triangulaire inferieure (resp supérieure), un matrice carrée dont les
éléments situés au-dessus (resp au-dessous) de la diagonale principale sont nuls c’est-à-dire,
(resp ).

- Pour indiquer que les éléments situés au-dessus (ou au-dessous) de la diagonale principale
d’une matrice sont nuls on utilise le symbole 0 ce qui conduit aux notations suivantes

( ) ( )

- La somme (ou le produit) de deux matrices diagonales est encore une matrice diagonale. On
vérifie la même propriété pour les matrices triangulaires inferieures (resp supérieures).

- Si A est une matrice triangulaire (ou diagonale) son déterminant est le produit des valeurs
diagonales, autrement dit

- On appelle trace de la matrice A, notée ( ) , la quantité

( ) ∑

- Une matrice carrée A est dite symétriques si ses éléments symétriques par rapport à la
diagonale principale sont égaux entre eux autrement dit
Le produit est, naturellement, une matrice symétrique, puisque
( ) ( )

Par exemple :

( )( ) ( )

- On appelle matrice antisymétrique une matrice telle que ou


(ce qui entraine en particulier la nullité des éléments diagonaux, ).

- Une matrice A est dite Hermitienne si et nous avons ( )

Résolution des systèmes linéaire


Dr Benhadid Samir Page 3
 Matrice inverse

- On appelle matrice inverse par rapport à la matrice carrée donnée une matrice qui étant
multipliée à droite ou à gauche par la matrice initiale donne la matrice unité.
Désignons par la matrice inverse de la matrice A. On a alors par définition:
. Où I est la matrice unité.

- La recherche de l’inverse d’une matrice donnée est dite inversion de cette matrice.

- Une matrice carrée se nomme régulière si son déterminant est différent de zéro. Dans le cas
contraire elle est dite singulière.

- Théorème :

Toute matrice régulière possède une matrice inverse.

- On appelle comatrice de la matrice A, la matrice carrée d’ordre n, notée ( ) , définie

par : ( ) ( ) Où est le cofacteur de l’élément de la

matrice A défini à partir du mineur | | par la relation ( ) | | avec la sous


matrice carrée ( ) ( ) obtenue en supprimant la ième ligne et la jème colonne de
la matrice A.
Si alors ( ( )) ( )

- Le déterminant d’une matrice inverse est égal à la grandeur inverse du déterminant de la


matrice initiale. Autrement dit

- L’inverse du produit de deux matrices carrées est égal au produit des inverses des matrices
facteurs, pris dans l’ordre opposé, soit
( )

 Matrice définie positive

Une matrice symétrique A d’ordre n dont les éléments sont des nombres réels est définie positive
si pour tout vecteur x de non nul .

3) Généralités

Nous nous préoccupons d’obtenir la valeur numérique de n inconnues vérifiant le système des n
équations linéaires

Où les coefficients ( ) sont des données (exactes ou approchées).


En introduisant les matrices

Résolution des systèmes linéaire


Dr Benhadid Samir Page 4
, et

( ) ( ) ( )

Ce système se met sous la forme de l’équation matricielle


Nous supposons que la solution de cette équation existe et est unique, c’est-à-dire que le déterminant

| | (La matrice A est régulière)


| |

L’expression théorique de la solution est alors :

( ) (Formule de Cramer)

Où est le déterminant dont la colonne de rang i est remplacée par la colonne des seconds
membres . Sous forme matricielle cette solution théorique s’écrit aussi

Où désigne la matrice inverse de A donnée par la formule ( ).

Remarque 3-1
Du point de vue numérique pratique l’expression théorique des inconnues est souvent inutilisable. Par
exemple, l’obtention de la matrice demande d’effectuer un nombre d’opération de l’ordre
de pour n grand (dans la pratique la résolution approchée d’un problème aux dérivées partielles
peut conduire à la résolution d’un système linéaire où ) . Pour des raisons évidentes
d’encombrement et de destruction de toute précision par la propagation des erreurs d’arrondi, il est
impossible de tenter un tel calcul.
De cette dernière remarque et du besoin de pouvoir résoudre les grands systèmes linéaires, découle la
nécessité de construire des algorithmes numériques pouvant effectivement conduire à la valeur des
inconnues avec une certaine précision.
Les principes de ces algorithmes dépendent de la grosseur du système (valeur de n), des particularités
de la matrice A du système (matrice diagonale, triangulaire, symétrique,…) …. Nous allons les
examiner succinctement, priant le lecteur désireux d’approfondir la question de se reporter à des
ouvrages spécialisés : [1], [2] par exemple.

4) Algorithme de résolution directe


Il s’agit de résoudre l’équation dans le cas où l’ordre n du système est relativement faible
( pour fixer les idées). Toutes les méthodes directes dérivent plus au moins des procédures
d’éliminations qui visent à triangulaires ou diagonaliser le système . On va, dans ce
paragraphe, développer une méthode de triangularisation (méthode de Gauss), puis on l’a complètera
par une diagonalisation (méthode de Gauss-Jordan). On verra ensuite une méthode adaptée au cas des
systèmes définis par une matrice symétrique définie positive (méthode de Choleski). On terminera ce
paragraphe en donnant une comparaison, en termes de volume de calcul, de ces différentes méthodes.

4-1) Méthode de Gauss

Résolution des systèmes linéaire


Dr Benhadid Samir Page 5
4-1-1) Principe de la méthode d’élimination de Gauss
Considérons le système

{ ( )

et écrivons le sous la frome


( )

( )

{ ( )
Avec ( ) , …, ( )
En supposant que , ce système ( ) peut être remplacé par le système

( )
( ) ( )
( )

{ ( ) ( )

qui admet la même solution que ( ) et qui s’écrit

( ) ( ) ( )

( )

( ) ( ) ( )
{
Après avoir posé
( ) ( )
pour

L’inconnue a ainsi été éliminée des dernières équations.


En procédant ainsi de proche en proche, le système ( ) devient triangulaire et peut se noter

( ) ( ) ( )

( ) ( ) ( )

( ) ( )
{

Résolution des systèmes linéaire


Dr Benhadid Samir Page 6
Où les coefficients sont donnés par les formules récurrentes :
( ) ( )
( ) ( )
( ) ( )

( ) ( )
( ) ( )
et ( ) ( )

pour et
La résolution de ce système triangulaire s’effectue directement (sans faire intervenir la matrice
inverse) en calculant .
Exemple 4-1
En utilisant le principe de la méthode d’élimination de Gauss résoudre le système linéaire suivant :

{ ( )

Réponse
Ecrivons le système ( ) sous la forme
( )
{ ( )
( )
Comme , le système peut être remplacé par le système
( )
{ ( ) ( )
( ) ( )

Qui s’écrit { ( )

L’inconnue a ainsi été éliminée de la deuxième et troisième équation.


Pour éliminer de la troisième équation, on procède de la même manière que précédemment, on écrit
le système ( ) sous la forme
( )
{ ( )
( )

( )
Comme , le système peut être remplacé par le système
( )
{ ( )
( ) ( )

( )
Où ( ) , le système s’écrit alors

Résolution des systèmes linéaire


Dr Benhadid Samir Page 7
{ ( )

On résout alors le système ( ) en remontant les équations: , donc et .

4-1-2) Algorithme de Gauss


L’algorithme de Gauss consiste en fait à écrire la suite de systèmes

( ) ( )

( ) ( )

( ) ( )
Où les matrices : sont non singulières, (les systèmes admettent la même solution)
( )
et où la matrice du système final est triangulaire.
( ) ( )
En utilisant la notation précédente pour les éléments des matrices nous voyons qu’il
est possible de passer de la matrice ( ) à la matrice ( ) et du vecteur ( )
au vecteur ( )
en écrivant
( ) ( ) ( ) ( ) ( ) ( ) ( ) ( )
et pour (avec )

 1 
 
 1 0 
 . 
 
 1 
 
 1 
S k     k 1 
a k 1, k .
  
 a kkk 1 . 
 0 . 1 
 
 a nkk 1 
 0 1
 a kkk 1 
 
 

Colonne k

Cela donne la possibilité de triangulariser la matrice A en posant


( ) ( )
avec
( ) ( ) ( )

est une matrice triangulaire inferieure dont le déterminant est égal à 1.
( )
(Noter que les matrices A et ont même déterminant : produit des termes diagonaux de
( )
).
Résolution des systèmes linéaire
Dr Benhadid Samir Page 8
Exemple 4-2
Résoudre le système ( ) de l‘exemple4-1 en utilisant l’algorithme de Gauss.
Réponse :

Nous avons : ( ) ( ) ( )

Calculons la matrice S :

( )
On a ( ) ( )

( )
et ( ( ) ) ( )
( )

où, d’après ( )
( ) ( )
et

Donc la matrice S est donnée par :

( ) ( )
( )( ) ( )

( )
Par conséquent la matrice triangulaire supérieur est donnée par

( ) ( )
( ) et le vecteur ( )

( ) ( )
Le système est alors exactement le système ( ) de l’exemple précédent.
Remarques 4-1
( )
 Les termes qui interviennent par une division dans chaque élimination sont
appelés « pivots ».

 La méthode de Gauss nécessite un nombre d’opérations de l’ordre de [2].

4-2) Méthode de Gauss-Jordan


C’est une variante de la méthode de Gauss. Elle consiste non pas à triangulariser la matrice A, mais à
la diagonaliser. Pour la méthode de Gauss-Jordan, on procède comme dans le paragraphe précédent,
mais chaque étape va être complétée par une procédure tendant à annuler les éléments non diagonaux.

Résolution des systèmes linéaire


Dr Benhadid Samir Page 9
4-2-1) Matrices de Jordan
( ) ( )
Considérons les matrices et suivantes :

| |
| |
| |
| |
| |
( ) |
| |
| |
| |
| |
| |

( )

Colonne k

|
|

( )

|
|
|
|
|

( )

En convenant de dire que la matrice ( ) est de type ( )


, il est facile de vérifier que la matrice
( ) ( )
est de type ( ) .
Ainsi, partant d’une matrice régulière A, la suite

Résolution des systèmes linéaire


Dr Benhadid Samir Page 10
( ) ( ) ( ) ( )
avec
( ) ( ) ( )

( ) ( ) ( )

Conduit à la matrice ( ) qui est diagonale. La matrice A, étant supposée régulière, ( )


existe.
Les matrices ( ) sont les matrices de Jordan dont les déterminants valent 1.
Ceci donne la possibilité d’écrire :
( )
( ) ( ) ( ) ( )
avec
( )
dont le déterminant vaut 1 ( et A ont même déterminant : produit des éléments de la diagonale
de ( ) ).
4-2-2) Algorithme de Jordan
La méthode de diagonalisation que nous venons de voir permet donc de résoudre l’équation

en écrivant la suite de systèmes (admettant la même solution)

( ) ( )

( ) ( )


( ) ( ) ( ) ( ) ( ) ( ) ( )

Remarque 4-2

La méthode de Gauss-Jordan nécessite un nombre d’opérations de l’ordre de [2].

Exemple 4-3
Résoudre selon l’algorithme de Jordan le système linéaire suivant :

Réponse

Ecrivons le système donné sous forme matricielle :

( )( ) ( )

Résolution des systèmes linéaire


Dr Benhadid Samir Page 11
Calculons les matrices de Jordan

( )
( ⁄ ) d’où ( ) ( )
( ⁄ ⁄ )
⁄ ⁄ ⁄


( ) ( ) ( ) ( )
( ) d’où ( ⁄ ⁄ )


( ) ( ) ( ) ( )
( ⁄ ) d’où ( ⁄ )

⁄ ⁄ ⁄
( ) ( ) ( ) ( )
( ⁄ ⁄ ⁄ ) d’où ( ⁄ )

Le système final diagonal est donc donné sous forme matriciel par

( ⁄ )( ) ( ⁄ )

dont la solution est immédiate, on trouve alors: .

4-3) Problème des pivots


Lorsqu’un pivot est nul, la méthode de Gauss ou de Jordan n’est plus applicable. Ces pivots sont donc
supposés tous non nuls ; si un pivot est nul on permute l’équation correspondante avec l’une des
suivantes et si le pivot est très petit l’algorithme conduit à des erreurs d’arrondi importantes. C’est
pourquoi des algorithmes qui échangent les éléments de façon à avoir le pivot le plus grand possible
en module ont été développés.
Les programmes optimisés intervertissent les lignes à chaque étape de façon à placer en pivot le terme
de coefficient le plus grand, en module, de la ligne : c’est la méthode du pivot partiel ;[5],[6].
D’autres programmes intervertissent les lignes et les colonnes de façon à placer en pivot le terme de
coefficient le plus grand, en module, de la matrice : c’est la méthode du pivot total ; [5],[6].
Remarque 4-3
Dans la plupart des cas, une optimisation partielle sera suffisante.
4-4) Décomposition LU
On désire résoudre le système ( )

Résolution des systèmes linéaire


Dr Benhadid Samir Page 12
La décomposition LU consiste à écrire la matrice carrée A d’ordre n sous la forme

Où L est une matrice triangulaire inférieure à éléments diagonaux égaux à 1 et U est une matrice
triangulaire supérieure. Le terme LU signifie « Lower triangular- Upper triangular ».
Ainsi dans le cas où cette décomposition s’écrit avec

( ) et ( )

La décomposition LU est particulièrement intéressante lorsqu’on doit résoudre plusieurs fois et


successivement un système à même matrice avec des seconds membres différents. On l’utilise aussi
dans la recherche de valeurs propres d’une matrice A.
De même pour le calcul du déterminant de la matrice A, il s’obtient plus facilement : il est égal au
produit des éléments diagonaux de la matrice U.
Définition 4-4-1
Soit A une matrice de ( ) , pour tout k de { } on appelle sous matrice principale d’ordre k
de A, la sous matrice formée à l’intersection des k premières lignes et des k premières colonnes de
A.
Par exemple: On prend une matrice A de ( ) telle que

( ) . Les sous matrices principales de A sont :

( ) , ( ), ( ) et

Théorème 4-1 [5]

Soit 𝐴 𝑛 (𝐾) dont toutes les sous matrices principales d’ordre k, 𝑘 𝑛 sont régulières,
alors il existe une unique décomposition de A de la forme 𝐴 𝐿𝑈 avec 𝐿 une matrice
triangulaire inferieure ne possédant que des 1 sur sa diagonale principale et U une matrice
triangulaire supérieure.

4-4-1) Application
Avec cette décomposition le système linéaire ( ) devient que l’on peut mettre, en
posant , sous la forme
On trouve les composantes de Y par des substitutions élémentaires, puisque d’abord , puis
… etc.,. Cette étape est appelée descente, puisqu’on résout le système en descendant
de à .
Il reste à calculer les composantes du vecteur X en résolvant le système triangulaire
supérieur
Ce qui se fait d’une manière similaire, mais en calculant d’abord ,

etc. en remontant. (étape dite remontée).

Résolution des systèmes linéaire


Dr Benhadid Samir Page 13
4-4-2) Algorithme de décomposition LU

Soit ( ) une matrice de ( ) dont toutes les sous matrices principales d’ordre k,
sont régulières.
Algorithme
Lire A , n ( Commentaires )
Pour i allant de 1 jusqu’à n-1 Faire ( L matrice triangulaire inferieure)
Pour j allant de i+1 jusqu’à n Faire

Fin pour
Fin pour
Pour i allant de 2 jusqu’à n Faire ( U matrice triangulaire supérieure)
Pour j allant de 1 jusqu’à i-1 Faire

Fin pour
Fin pour
Pour i allant de 1 jusqu’à n Faire ( Les termes diagonaux de L sont égaux à 1)

Fin pour
Pour j allant de 1 jusqu’à n Faire ( Construction de la première ligne de U)

Fin pour
Pour i allant de 2 jusqu’à n Faire ( Construction de la première colonne de L)

Fin pour
Pour i allant de 2 jusqu’à n Faire
∑ (Construction de ième valeur diagonale de U )
Pour j allant de jusqu’à n Faire (Construction de la ième colonne de L

( ∑ ) et de la ième ligne de U )

Fin pour
Fin pour
Fin

Résolution des systèmes linéaire


Dr Benhadid Samir Page 14
Exemple 4-4
Soit A la matrice carrée d’ordre 4 donnée par :

( )

1) Vérifier que toutes les sous-matrices principales d’ordre k, sont régulières.


2) En suivant les étapes de l’algorithme précédent, trouver la décomposition LU de la matrice
A.
Réponse

1) On a: , | | , | | et

2) Sachant que

( ) ( )

 Calculons la première ligne de U


Nous obtenons :
 Calculons la première colonne de L
Nous obtenons :
 Calculons d’abord puis alternativement la deuxième colonne de L et la deuxième
ligne de U
Nous obtenons:
 Calculons d’abord puis alternativement la troisième colonne de L et la troisième
ligne de U
Nous obtenons :
 En fin nous obtenons :

Résolution des systèmes linéaire


Dr Benhadid Samir Page 15

Vous aimerez peut-être aussi