Académique Documents
Professionnel Documents
Culture Documents
160 PDF
160 PDF
Dénition 14.1 On dit qu'une matrice A ∈ Mn,m (K) est échelonnée en ligne si elle est nulle
ou si elle est non nulle et il existe un entier r compris entre 1 et n tel que :
∀i ∈ {1, · · · , r} , Li ̸= 0 ;
∀i ∈ {r + 1, · · · , n} , Li = 0 ;
1 ≤ d1 < d2 < · · · < dr ≤ m.
On dit qu'une matrice A ∈ Mn,m (K) est échelonnée en colonne si la matrice t A ∈ Mn,m (K)
est échelonnée en ligne.
Le cas où r = n correspond à une matrice ayant toutes ses lignes non nulles et de la forme :
0 ··· 0 a1d1 · · · ··· ··· ··· ··· a1m
0 ··· ··· ··· 0 a2d2 · · · ··· ··· a2m
A = .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . .
0 ··· ··· ··· ··· ··· 0 andn · · · anm
347
348 Algorithmes du pivot de Gauss. Applications
0 0 · · · 0 ardr
on a rg (A) ≥ r.
Pour r = n, on a nécessairement rg (A) = n = r puisque rg (A) ≤ n.
Pour 1 ≤ r ≤ n − 1, on a rg (A) ≤ r puisque les lignes r + 1 à n de A sont nulles et là encore
rg (A) = r.
Et comme rg (A) = rg ( t A) , on a le résultat pour les matrices échelonnées en colonnes.
Dénition 14.2 On dit qu'un système linéaire Ax = b est échelonné si la matrice A est
échelonnée en lignes.
∏
n
Remarque 14.2 La matrice Ti est de la forme :
i=2
1 0 ··· ··· 0
( ) λ21 1 0 ··· 0
∏
n (1)
−
ai1 .. .. . . . . . ..
Ti1 (1)
=
. . . .
a11 λn−1,1
i=2 0 ··· 1 0
λn1 0 ··· 0 1
Dénition 14.3 On appelle matrice de Frobenius une matrice carrée d'ordre n qui ne dière
de l'identité que par une colonne (ou une ligne).
Théorème 14.2 Soit A = ((aij )) 1≤i≤n ∈ Mn,m (K) . Il existe une matrice P ∈ GLn (K)
1≤j≤m
produit de matrices de permutation et de transvection telle que la matrice P A soit échelonnée
en ligne.
350 Algorithmes du pivot de Gauss. Applications
Remarque 14.5 Pour n = m, la matrice P A est équivalente à la matrice A mais pas semblable
(sauf si P = In ).
Remarque 14.6 Un système homogène est toujours compatible puisque le vecteur nul est so-
lution.
Remarque 14.7 Dans le cas où la matrice A est carrée et inversible, on dit que le système
linéaire Ax = b est de Cramer. Il a alors une unique solution.
On dit que deux systèmes linéaires Ax = b et A′ x = b′ sont équivalents s'ils ont même
ensemble de solutions.
En désignant par u l'application linéaire de Km dans Kn ayant A pour matrice dans les
bases canoniques, on peut remarquer que l'ensemble des solutions du système homogène associé
à (14.1) est le noyau de u et le système (14.1) est compatible si, et seulement si, b est dans
l'image de u.
Si le système (14.1) est compatible et si x0 en est une solution particulière, alors pour tout
autre solution x, le vecteur x − x0 est dans le noyau de u. L'ensemble des solutions de (14.1) est
donc, dans ce cas, x0 + ker (u) , c'est-à-dire le sous-espace ane de Km de dimension n − rg (A)
dirigé par ker (u) et passant par x0 .
On déduit donc, dans le cas où le système (14.1) est compatible, que l'ensemble des solutions
est soit réduit à un point (cas où ker (u) = {0}), soit inni (cas où ker (u) ̸= {0}).
Résolution des systèmes linéaires par la méthode des pivots de Gauss 351
Dans le cas où le système est compatible, le vecteur b est dans l'espace vectoriel engendré par
les vecteurs colonnes Cj et tout revient à déterminer toutes les écritures possibles de b comme
combinaison linéaire des Cj .
Le système homogène associé Ax = 0 possède d'autres solutions que la solution nulle si, et
seulement si, le système (C1 , · · · , Cm ) est lié dans Kn .
On appelle opération élémentaire sur le système (14.1) toute opération élémentaire sur les
lignes ou les colonnes de la matrice (A, b) ∈ Mn,m+1 (K) .
Théorème 14.3 Une opération élémentaire sur les lignes d'un système linéaire Ax = b le
transforme en un système équivalent.
les pivots αii étant tous non nuls. Un tel système a une unique solution et se résout alors
en remontée :
βn
xn = α
n( )
1 ∑n
xi = βi − αij xj (i = n − 1, · · · , 1)
αii j=i+1
p
∏
n
det (A) = (−1) αii
i=1
où p est le nombre de permutations qui ont été nécessaires pour avoir des pivots αii non
nuls, ce qui nous donne un algorithme de calcul du déterminant de A.
Soit on a obtenu un système de r ≤ n équations à m > r inconnues de la forme :
α11 x1 + α12 x2 + · · · + α1r xr + α1,r+1 xr+1 + · · · + α1m xm = β1
α22 x2 + · · · + α2r xr + α2,r+1 xr+1 + · · · + α2m xm = β2
..
.
αrr xr + αr,r+1 xr+1 + · · · + αrm xm = βr
Les r premières inconnues sont appelées inconnues principales et les autres inconnues non
principales. Les inconnues non principales sont alors utilisées comme paramètres en second
membre et on résout le système aux inconnues principales x1 , · · · , xr :
α11 x1 + α12 x2 + · · · + α1r xr = β1 − (α1,r+1 xr+1 + · · · + α1m xm )
α22 x2 + · · · + α2r xr = β2 − (α2,r+1 xr+1 + · · · + α2m xm )
..
.
αrr xr = βr − (αr,r+1 xr+1 + · · · + αnm xm )
les pivots αii , pour i compris entre 1 et r, étant tous non nuls. L'ensemble des solutions
est alors un espace ane de dimension n − r (le nombre de paramètres) et le rang de la
matrice est r.
Résolution des systèmes linéaires par la méthode des pivots de Gauss 353
où (z, t) ∈ R2 .
Exemple 14.4 Soient A, B, C, D quatre points distincts et alignés dans un plan. Peut-on dé-
terminer quatre points distincts et alignés M, N, P, Q tels que A, B, C, D soient respectivement
les milieux des segments [M, N ] , [N, P ] , [P, Q] et [Q, M ] ?
Si les points M, N, P, Q existent, ils sont nécessairement sur la droite (AB) . On munit (AB)
d'un repère et on désigne par a, b, c, d les abscisses respectives des points A, B, C, D et x, y, z, t
celles de M, N, P, Q dans ce repère. Le problème a des solutions si, et seulement si, le système :
x + y = 2a
y + z = 2b
z + t = 2c
x + t = 2d
Remarque 14.8 Pour éviter de faire une division par un nombre trop petit, dans le choix du
pivot, on aura intérêt, à chaque étape de l'algorithme, à permuter la ligne i avec la ligne j ≥ i
telle que :
|ajk | = max {|aik | | i = k, · · · , n}
de manière à avoir le pivot le plus grand possible en valeur absolue.
Si ce maximum est trop petit, alors le système est numériquement dégénéré.
Pour la programmation, on peut procéder comme suit dans le cas d'un système de Cramer
(n = m et det (A) ̸= 0).
La variable L utilisée dans la procédure PivotMax est le numéro de la ligne où se trouve le
pivot le plus grand en valeur absolue, pour tout k compris entre 1 et n.
La procédure PermuterLigne, facile à écrire permet de permuter deux lignes du système.
Après exécution de la procédure la matrice A est devenue triangulaire et le vecteur b est
transformé, de sorte que les valeurs initiales de A et b sont perdues. C'est-à-dire que les variables
A et b sont passées par adresse (c'est le mode Entrée_Sortie).
PROCEDURE PivotMax(Entrée k, n : Entier ; ε : Réel ; Entrée_Sortie A : Matrice ; b :
Vecteur) ;
Début
L = k;
Pour i Allant de k + 1 à n Faire
Début
Si |aik | > |aLk | Alors L = i ;
Si |aik | < ε Alors Stop('Pivot trop petit') ;
Si L ̸= k Alors PermuterLignes(n, k, L, A, b) ;
Fin ;
Fin ;
PROCEDURE Eliminer(Entrée k, n : Entier ; Entrée_Sortie A : Matrice ; b : Vecteur) ;
Début
Pour i Allant de k + 1 à n Faire
Début aik
m= ;
akk
Pour j Allant de k + 1 à n Faire aij = aij − m · akj ;
aik = 0 ;
bi = bi − m · bk ;
Fin ;
Fin ;
PROCEDURE Pivotage(Entrée n : Entier ; Entrée_ Sortie A : Matrice ; b : Vecteur) ;
Début
Pour k Allant de 1 à n − 1 Faire
Début
PivotMax(k, n, A, b) ;
Eliminer(k, n, A, b) ;
Fin ;
Fin ;
Puis, la résolution du système linéaire Ax = b se fait en appelant une procédure de résolution
d'un système triangulaire supérieur facile à écrire.
Etape 0 Après une éventuelle permutation de lignes, on a obtenu le système A(1) x = b(1)
à coecients dans Z avec un premier pivot non nul.
Etape 1 Elimination de x1 dans les équations 2, · · · , n.
En eectuant la division de la ligne 1 par le premier pivot, on perd le caractère entier du
système. Il est préférable de procéder comme suit :
garder la ligne 1 ;
L(1)
i 7→ a11 Li − ai1 L1 , pour i = 2, · · · , n.
(1) (1) (1) (1)
Ce qui donne le système A(2) x = b(2) , avec un deuxième pivot non nul (au prix d'une
éventuelle permutation).
Etape 2 Elimination de x2 dans les équations 3, · · · , n.
Si on procède de la même façon pour cette étape, on constate que les coecients de la
matrice A(3) et du vecteur b(3) sont divisibles par le premier pivot. On peut donc s'autoriser
une division par ce premier pivot pour cette étape 2, ce qui aura l'avantage de diminuer les
coecients obtenus.
Etape k Elimination de xk dans les équations k + 1, · · · , n.
Cette étape est décrite par les formules :
( )
(k) (k) (k) (k)
akk aij − aik akj
(k+1)
aij = (k−1)
ak−1,k−1
Dans la programmation structurée ci-dessus, on peut aussi travailler avec une matrice à n
lignes et n + 1 colonnes en prenant b pour colonne n + 1.
De manière plus générale, pour résoudre en parallèle p systèmes linéaires de même matrice
A et de seconds membres respectifs b1 , · · · , bp , on travaillera avec une matrice à n lignes et n + p
colonnes en prenant, pour j compris entre 1 et p, bj comme colonne n + j.
En prenant pour valeurs particulières des seconds membres les vecteurs de la base canonique
de Kn , on dispose d'un procédé de calcul de l'inverse d'une matrice. Mais, en fait, pour calculer
l'inverse d'une matrice on préfère utiliser la méthode Gauss-Jordan qui est une variante de la
méthode de Gauss.
La méthode de Gauss-Jordan pour les systèmes de Cramer 357
14.5 Applications
14.5.1 Décomposition LR (méthode de Crout)
Voir le paragraphe 13.4.
Applications 359