Vous êtes sur la page 1sur 11

Calcul matriciel

K désigne ℝ ou ℂ . m , n , p, q , r sont des entiers naturels.


0 si i ≠ j
On note δi , j =  (symbole de Kronecker)
1 si i = j

I. Opérations sur les matrices

1°) Matrice
Déf : On appelle matrice de type (n , p ) (pour n lignes et p colonnes) à coefficients dans K tout famille
A = (ai , j )1≤i ≤n ,1≤ j ≤p d’éléments de K .
Une telle matrice est généralement représentée sous la forme d’un tableau à n lignes et p colonnes :
a1,1 a1,2 … a1, p 
 
a a 2,2 … a 2, p 
A = (ai , j )1≤i ≤n ,1≤j ≤p =   2,1
 .
 ⋮ ⋮ ⋮ 
 
an ,1 an ,2 … an , p 

ai , j est appelé coefficient d’indice (i , j ) de la matrice A , il est positionné à la i ème ligne et j ème colonne
de A .
On notre M n , p (K ) l’ensemble des matrices de type (n , p ) à coefficients dans K .
Cas particuliers :
Pour n = p = 1 : les matrices de M1,1 (K ) sont appelées matrices
(uni-) coefficient.
Elles sont de la forme (x ) .
Il est usuel d’identifier ces matrices avec l’élément x de K qui leur correspond.
Pour n quelconque et p = 1 : les matrices de M n ,1 (K ) sont appelées matrices (uni-) colonnes.
a1 
 
Elles sont de la forme :  ⋮  .
 
an 
Il est usuel d’identifier cette matrice colonne avec le n uplet (a1 ,…, an ) .
Pour n = 1 et p quelconque : les matrices de M1, p (K) sont appelées matrices (uni-) lignes.
Elles sont de la forme : (a1 ⋯ a p ) .
Déf : Soit A = (ai , j ) ∈ M n , p (K ) (présentation de l’abus de notation correspondant).
a1,1 a1,2 … a1, p 
 
a a 2,2 … a 2, p 
A = 
2,1
 .
 ⋮ ⋮ ⋮ 
 
an ,1 an ,2 … an , p 
a1, j 
 

Pour 1 ≤ j ≤ p , la matrice C j =  ⋮  est appelée j ème colonne de A .
 
an , j 
Pour 1 ≤ i ≤ n , la matrice Li = (ai ,1 … ai , p ) est appelée i ème ligne de A .

2°) Matrice carrée


Déf : Les matrices de type (n , n ) sont appelées matrices carrées d’ordre n .
On note M n (K ) , au lieu de M n ,n (K) , l’ensemble de ces matrices.

- 1 / 11 -
Déf : Soit A = (ai , j ) ∈ M n (K ) .
Les coefficients d’indice (i , i ) de A sont appelées coefficients diagonaux de A .
La famille (a1,1 , a 2,2 ,…,an ,n ) = (ai ,i )1≤i ≤n est appelée diagonale de la matrice A .
Déf : Une matrice A ∈ M n (K ) est dite diagonale ssi tous ses coefficients hors de la diagonale sont nuls.
On note Dn (K) l’ensemble de ces matrices.
λ1 0 
 
Déf : On note diag(λ1 ,…, λn ) la matrice diagonale dont la diagonale est (λ1 ,..., λn ) i.e.  ⋱  .
 
 0 λn 
Déf : Une matrice A ∈ M n (K ) est dite triangulaire supérieure (resp. inférieure) ssi tous les coefficients en
dessous (resp. au dessus) de la diagonale sont nuls.
On note Tn+ (K) (resp. Tn− (K ) ) l’ensemble de ces matrices.
Prop : Dn (K ) = Tn+ (K) ∩Tn− (K ) .

3°) Espace vectoriel (M n , p (K), +,.) .


Déf : Soit A = (ai , j ) ∈ M n , p (K ) et B = (bi , j ) ∈ M n , p (K ) .
On définit la matrice A + B ∈ M n , p (K ) par A + B = (ai , j + bi , j )1≤i ≤n ,1≤ j ≤p .
a1,1 … a1, p  b1,1 … b1, p   a1,1 + b1,1 … a1, p + b1, p 
     
Ainsi  ⋮ ⋮  +  ⋮ ⋮  =  ⋮ ⋮  .
     
an ,1 … an , p  bn ,1 … bn , p  an ,1 + bn ,1 … an , p + bn , p 

Déf : Soit A = (ai , j ) ∈ M n , p (K ) et λ ∈ K .


On définit la matrice λ.A ∈ M n , p (K ) par λ.A = (λai , j )1≤i ≤n ,1≤ j ≤p .
a1,1 … a1, p   λa1,1 … λa1, p 
   
Ainsi λ. ⋮ ⋮  =  ⋮ ⋮  .
   
an ,1 … an , p  λan ,1 … λan , p 

Théorème : (M n , p (K), +,.) est un K -espace vectoriel d’élément nul O = On , p .


Déf : Soit 1 ≤ k ≤ n et 1 ≤ ℓ ≤ p . On appelle matrice élémentaire d’indice (k , ℓ) de M n , p (K ) la matrice E k , ℓ
dont tous les coefficients sont nuls sauf celui d’indice (k , ℓ) qui est égal à 1. Ainsi
 0
0 
Ek ,ℓ =  1  ∈ M n , p (K ) .

 
0 0
Théorème :
La famille B = (Ek , ℓ )1≤k ≤n ,1≤ℓ≤p forme une base de M n , p (K ) appelée base canonique.
Cor : dim M n , p (K ) = np et en particulier
dim M n (K ) = n 2 , dim M n ,1 (K ) = n et dim M 1, p (K ) = p .
Prop : Dn (K) est un sous-espace vectoriel de M n (K ) de dimension n .
n (n + 1)
Prop : Tn+ (K) et Tn− (K ) sont des sous-espaces vectoriels de M n (K ) de dimension .
2

4°) Produit matriciel


Déf : Soit A = (ai , j ) ∈ M n , p (K ) et B = (bj ,k ) ∈ M p ,q (K ) .
On définit la matrice C = A×B = (ci ,k ) ∈ M n ,q (K ) par :
p
∀1 ≤ i ≤ n , ∀1 ≤ k ≤ q , ci ,k = ∑ ai , jbj ,k .
j =1

- 2 / 11 -
5°) Propriétés du produit matriciel
Prop : Soit A ∈ M n , p (K ), B ∈ M p ,q (K),C ∈ M q ,r (K ) .
On a (AB )C = A(BC ) .
Prop : ∀A ∈ M n , p (K) , AI p = A et I n A = A
Prop : ∀A, B ∈ M n , p (K ) , ∀C ∈ M p ,q (K ) (A + B )C = AC + BC .
∀A ∈ M n , p (K) , ∀B ,C ∈ M p ,q (K ) , A(B +C ) = AB + AC .
Prop : ∀A ∈ M n , p (K) , ∀B ∈ M p ,q (K ) , ∀λ ∈ K , (λ.A)B = λ.AB = A(λ.B ) .

6°) L’anneau (M n (K ), +,×) .


a) présentation
Théorème :
(M n (K ), +,×) est un anneau, généralement non commutatif, d’élément nul O = On et d’élément unité

I = In .

De plus, ∀λ ∈ K, ∀A, B ∈ M n (K) : (λ.A)B = λ.(AB ) = A(λ.B ) .

Déf : On dit que deux matrices A et B de M n (K ) commutent ssi AB = BA .


Déf : Soit A ∈ M n (K ) . On note A0 = I n , A1 = A, A2 = A×A,..., Am = A×A×...×A ( m termes)
Théorème :
m

k =0
k ()
Si A et B commutent alors pour tout m ∈ ℕ : (AB )m = Am B m , (A + B )m = ∑ m Ak B m −k et
m −1
Am − B m = (A − B )∑ Ak B m −1−k .
k =0

Déf : On dit que A ∈ M n (K ) est idempotente ssi A2 = A .


On dit que A ∈ M n (K ) est une matrice nilpotente ssi ∃m ∈ ℕ, Am = 0 .
b) matrices inversibles
Déf : Une matrice A ∈ M n (K ) est dite inversible ssi ∃B ∈ M n (K ), AB = BA = I n . On note alors B = A−1 .
Prop : Soit A, B ∈ M n (K)
Si A et B sont inversibles alors AB l’est aussi et (AB )−1 = B −1A−1 .
Si A est inversible alors A−1 l’est aussi et (A−1 )−1 = A .
Déf : On note GLn (K ) l’ensemble des matrices inversibles de M n (K) .
Prop : (GLn (K ),×) est un groupe appelé groupe linéaire d’ordre n .
Théorème d’inversibilité :
Soit A ∈ M n (K ) . On a équivalence entre
(i) A est inversible
(ii) A est inversible à droite i.e. ∃B ∈ M n (K ), AB = I n
(iii) A est inversible à gauche i.e. ∃C ∈ M n (K),CA = I n .
De plus si tel est le cas A−1 = B = C .
c) matrices diagonales
Prop : Dn (K) est un sous-anneau commutatif de M n (K ) .
 
a1
Prop : Soit A =   ⋱  ∈ D (K ) . On a équivalence entre :
  n
 
an 
(i) A est inversible

- 3 / 11 -
(ii) ∀1 ≤ i ≤ n ,ai ≠ 0 .
1 a1 
 
De plus si tel est le cas : A = 
−1
⋱  .
 
 1 an 
d) matrices triangulaires
Prop : Tn+ (K) est un sous-anneau de M n (K ) .
Prop : Soit A ∈ Tn+ (K ) . On a équivalence entre :
(i) A est inversible
(ii) Les coefficients diagonaux de A sont tous non nuls.
De plus, si tel est le cas, A−1 ∈ Tn+ (K ) .

7°) Transposition
a) définition
Déf : Soit A = (ai , j ) ∈ M n , p (K ) . On appelle matrice transposée de A la matrice t A = (a j′,i ) ∈ M p ,n (K ) définie
par ∀1 ≤ i ≤ n , ∀1 ≤ j ≤ p, a j′,i = ai , j .
Ainsi le coefficient d’indice ( j , i ) de t A est égal au coefficient d’indice (i , j ) de A .
a11 … a1p  a11 … an1 
  t  

Concrètement : Pour A =  ⋮ ⋮  , A =  ⋮ ⋮  .
 
  
an1 … anp  a1p … anp 
Prop : ∀A ∈ M n , p (K ), t ( t A) = A .
∀A, B ∈ M n , p (K ), ∀λ, µ ∈ K, t (λA + µB ) = λ tA + µ t B .
Prop : ∀A ∈ M n , p (K ), ∀B ∈ M p ,q (K ), t (AB ) = t B t A .
Prop : Soit A ∈ M n (K ) .
Si A est inversible alors t A l’est aussi et t (A−1 ) = ( tA)−1 .
b) matrices symétriques et antisymétriques
Déf : On dit que A ∈ M n (K ) est symétrique (resp. antisymétrique) ssi t A = A (resp. t A = −A ).
On note Sn (K ) (resp. An (K) ) l’ensemble de ces matrices.
a11 a12 … a1n 
 
a a 22 ⋱ ⋮ 
Prop : Les matrices de Sn (K) sont de la forme : A =   12
 .
 ⋮ ⋱ ⋱ an −1,n 
 
a1n ... an −1,n an ,n 

n (n + 1)
Par suite Sn (K) est un sous-espace vectoriel de dimension de M n (K ) .
2
 0 a12 … a1n 
 
−a 0 ⋱ ⋮ 
Prop : Les matrices de An (K ) sont de la forme : A = 
12
 .
 ⋮ ⋱ ⋱ an −1,n 
 
−a1n … −an −1,n 0 
Théorème :
Sn (K ) et An (K) sont deux sous-espaces vectoriels supplémentaires de M n (K ) .
Prop : Soit A ∈ M n (K ) inversible.
Si A ∈ S n (K ) alors A−1 ∈ Sn (K ) .
Si A ∈ An (K ) alors A−1 ∈ An (K) .

- 4 / 11 -
II. Représentation matricielle d’une application linéaire

1°) Matrice d’une famille de vecteurs


Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en ) .
Pour tout x ∈ E , ∃!(α1 , …, αn ) ∈ Kn , x = α1e1 + ⋯ + αnen .
 α1 
 
Déf : On appelle matrice des composantes de x dans B la matrice colonne Mat B (x ) =  ⋮  ∈ M n ,1 (K) .
 
αn 
x
 
Ainsi Mat B (x ) =   composantes
 ⋮ 
  dans B.
 
Prop : L’application x ֏ Mat B (x ) est un isomorphisme entre les K -espaces vectoriels E et M n ,1 (K ) .
Soit F = (x1 , x 2 , …, x p ) une famille de vecteurs de E . Pour tout 1 ≤ j ≤ p , posons C j = Mat B (x j ) .
Déf : On appelle matrice représentative de la famille F dans B la matrice A dont les colonnes sont les
C1 ,C 2 ,…,C p . On note A = Mat B (F ) = Mat B (x1 ,…, x p ) ∈ M n , p (K ) .
x1 xp
  composantes
Ainsi Mat B (F ) =  
 ⋮ ⋮ 
  dans B.
 

2°) Matrice d’une application linéaire


Déf : Soit E et F des K -espaces vectoriels de dimension p et n et munis de bases B = (e1 ,…,e p ) et
C = ( f1 , …, fn ) . Soit u ∈ L(E , F ) , on appelle matrice représentative de u relativement aux bases B et
C la matrice : Mat B , C (u ) = Mat C (u (B )) = Mat C (u (e1 ),…, u (ep )) ∈ M n , p (K ) .
u (e1 ) u (e p )
 
Ainsi Mat B , C (u ) =   composantes .
 ⋮ ⋮ 
  dans C .
 
Déf : Soit E un K -espace vectoriel de dimension n muni d’une base B = (e1 , …,en ) et f ∈ L(E ) , en
général on représente matriciellement f en choisissant la même base au départ et à l’arrivée. La matrice
carrée d’ordre n ainsi obtenue est notée Mat B ( f ) au lieu de Mat B , B ( f ) .

3°) Propriétés de la représentation matricielle


a) isomorphisme
Théorème :
Soit E , F des K -espaces vectoriels munis de bases B = (e1 ,…,e p ) et C = ( f1 , …, fn ) .
L’application M : L(E , F ) → M n , p (K ) définie par M (u ) = Mat B , C (u ) est un isomorphisme de K -
espace vectoriel.
Cor : Soit E et F deux K -espaces vectoriels de dimensions finies.
L(E , F ) est un K -espace vectoriel de dimension finie et dim L(E , F ) = dim E × dim F .
En particulier : dim L(E ) = dim E 2 et dim E * = dim E .
Cor : Lorsque deux K -espaces vectoriels E et F sont munis de bases B et C , il est équivalent de se donner
u ∈ L(E , F ) ou de se donner A = Mat B ,C (u ) ∈ M n , p (K ) .

Déf : Pour E = K p et B base canonique de K p .


Pour F = Kn et C base canonique de Kn .

- 5 / 11 -
L’application M : L(K p , Kn ) → M n , p (K ) est appelée isomorphisme canonique entre L(K p , Kn ) et
M n , p (K ) .
Pour u ∈ L(K p , Kn ) , A = M (u ) ∈ M n , p (K ) est appelée matrice canoniquement associée à u .
Pour A ∈ M n , p (K ) , u = M −1 (A) ∈ L(K p , Kn ) est appelée application linéaire canoniquement associée à
A.
b) image d’un vecteur
Théorème :
Soit E et F des K -espaces vectoriels munis de bases B = (e1 ,…,e p ) et C = ( f1 , …, fn ) . Soit
u ∈ L(E , F ), x ∈ E et y ∈ F .
Notons A = Mat B ,C (u ), X = Mat B (x ) et Y = Mat C (y ) .
On a : y = u (x ) ⇔ Y = AX .
Ainsi : Mat C (u (x )) = Mat B , C (u )× Mat B (x ) .
En Particulier : Les formes linéaires.
Si F = K muni de sa base canonique (1) et f ∈ E ∗ alors la matrice de f est une matrice ligne L est
y = f (x ) ⇔ y = LX .
c) composition d’applications linéaires
Théorème :
Soit E , F ,G trois K -espaces vectoriels munis de bases B = (e1 ,…,e p ) , C = ( f1 , …, fn ) ,
D = (g1 ,…, g m ) .
Pour u ∈ L(E , F ) et v ∈ L(F ,G ) on a : Mat B , D (v
u ) = Mat C , D (v )× Mat B ,C (u )
Cor : Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en )
Soit f , g ∈ L(E ) et A = Mat B ( f ), B = Mat B (g ) ∈ M n (K ) .
On a Mat B ( f
g ) = AB et ∀m ∈ ℕ, Mat B ( f m ) = Am .
d) représentation d’un iso morphisme
Théorème :
Soit E et F deux K -espaces vectoriels de même dimension n munis de bases B = (e1 , …,en ) et
C = (e1 ,…,en ) .
Soit u ∈ L(E , F ) et A = Mat B ,C (u )
On a équivalence entre :
(i) u est un isomorphisme
(ii) A est inversible.
De plus si tel est le cas Mat C , B (u −1 ) = A−1 .
En Particulier : (Les automorphismes)
Soit E un K -espace vectoriel muni d’une base B = (e1 , …,en )
Soit f ∈ L(E ) et A = Mat B ( f ) .
f ∈ GL (E ) ⇔ A ∈ GLn (K )
De plus, si tel est le cas : Mat B ( f −1 ) = A−1 .
e) tableau de correspondances
E M n ,1 (K )
L(E , F ) M n ,p ( K )
L(E ) M n (K)
E∗ M1,n (K )
u A
y = u (x ) Y = AX

- 6 / 11 -
v
u BA
u isomorphisme A inversible
−1
u A−1

4°) Représentation d’un endomorphisme dans une base adaptée


Soit E un K -espace vectoriel de dimension n .
Prop : Soit λ ∈ K et hλ : E → E l’homothétie vectorielle de rapport λ .
λ 0
 
Dans toute base B = (e1 , …,en ) : Mat B (hλ ) =  ⋱  .

 
 0 λ 
Prop : Soit F et G deux sous-espaces vectoriels supplémentaires de dimensions respectives r et n − r .
Notons p la projection vectorielle sur F parallèlement à G et s la symétrie vectorielle par rapport à F
et parallèlement à G .
Dans toute base B adaptée à la supplémentarité de F et G :
I 0  I 0 
Mat B (p ) =  r  et Mat B (s ) =  r .
 0 0n −r   0 −I n −r 

5°) Formule de changement de base


a) matrice de passage
Soit E un K -espace vectoriel de dimension n muni de deux bases B = (e1 , …,en ) et B ′ = (ε1 ,…, εn ) .
Déf : On appelle matrice de passage de B à B ′ la matrice
P = Mat B (B ′) = Mat B (ε1 ,…, εn ) .
Prop : Soit P la matrice de passage de B à B ′ .
On a P = Mat B , B ′ (IdE ) .

Prop : Soit P la matrice de passage de B à B ′ .


P est inversible et P −1 est la matrice de passage de B ′ à B .
b) nouvelles composantes d’un vecteur
Prop : Soit B et B ′ deux bases d’un K -espace vectoriel E de dimension n .
Soit x ∈ E , notons X et X ′ ses matrices composantes dans B et B ′ .
En notant P la matrice de passage de B à B ′ , on a :
X = PX ′ et X ′ = P −1X ,
i.e. : Mat B (x ) = Mat B B ′ Mat B ′ (x ) et Mat B ′ (x ) = Mat B ′ B Mat B (x )
c) nouvelle représentation d’une application linéaire
Prop : Soit B et B ′ deux bases d’un K -espace vectoriel E .
Soit C et C ′ deux bases d’un K -espace vectoriel F .
Soit u ∈ L(E , F ) . Posons A = Mat B ,C (u ) et A′ = Mat B ′ , C ′ (u ) .
En notant P la matrice de passage de B à B ′ et Q a matrice de passage de C à C ′ on a :
A′ = Q −1AP
Ainsi A′ = Mat B ′ ,C ′ (u ) = Mat C ′ C .Mat B , C (u ).Mat B B ′ .
d) nouvelle représentation d’un endomorphisme
Théorème :
Soit B et B ′ deux bases d’un K -espace vectoriel E .
Soit f ∈ L(E ) . Posons A = Mat B ( f ) et A′ = Mat B ′ ( f ) .
En notant P = Mat B B ′ . On a : A′ = P −1AP .
Ainsi A′ = Mat B ′ ( f ) = Mat B ′ B.Mat B ( f ).Mat B B ′ .

- 7 / 11 -
6°) Trace
a) trace d’une matrice carrée
n
Déf : Soit A = (ai , j ) ∈ M n (K ) . On appelle trace de la matrice A le scalaire tr(A) = ∑ ai ,i .
i =1

Prop : tr : M n (K ) → K est une forme linéaire.


Prop : ∀A, B ∈ M n (K ), tr(AB ) = tr(BA) .
b) trace d’un endomorphisme
Soit E un K -espace vectoriel de dimension n et f ∈ L(E ) .
Soit B et B ′ deux bases de E
Notons P = Mat B B ′, A = Mat B ( f ), A′ = Mat B ′ ( f ) .
La relation de passage permet d’écrire : A = PA′ P −1 .
On a : tr(A) = ... = tr(A′) .
Par suite la trace de la matrice représentative de f est indépendante de la base choisie.
Déf : Cette quantité est appelée trace de l’endomorphisme f et est notée tr( f ) .
Prop : L’application tr : L(E ) → K est une forme linéaire sur E .
Prop : ∀f , g ∈ L(E ), tr( f
g ) = tr(g
f ) .

III. Rang d’une matrice

1°) Définition
Soit A = (ai , j ) ∈ M n , p (K ) . Notons C 1 ,C 2 ,…,C p les colonnes de A . Les C j sont des vecteurs du K -espace
vectoriel M n ,1 (K ) , on peut donc considérer le rang de la famille de vecteurs (C 1 ,C 2 ,…,C p ) .
Déf : On appelle rang de la matrice A , noté rg(A) , le rang de la famille des colonnes de A , ainsi
rg(A) = rg(C1 ,C 2 , …,C p ) .
Prop : Soit F = (x1 , x 2 , …, x p ) une famille de vecteurs de d’un K -espace vectoriel E muni d’une base B .
En notant A = Mat B (x1 , x 2 ,…, x p ) , on a rg(x1 , x 2 , …, x p ) = rg(A) .
Prop : Soit E , F deux K -espaces vectoriels munis de bases B et C et u ∈ L(E , F ) .
En notant A = Mat B ,C (u ) , on a rg(u ) = rg(A) .

2°) Propriétés du rang d’une matrice


Prop : ∀A ∈ M n , p (K ), rg(A) ≤ min(n , p ) .
Prop : ∀A ∈ M n , p (K ), ∀B ∈ M p ,q (K ), rg(AB ) ≤ min(rg(A), rg(B )) .
De plus :
Si A est une matrice carrée inversible alors rg(AB ) = rg(B )
Si B est une matrice carrée inversible alors rg(AB ) = rg(A) .
Théorème :
Soit A ∈ M n (K ) . On a équivalence entre :
(i) A est inversible
(ii) rg(A) = n .

3°) Caractérisation théorique du rang


Soit 0 ≤ r ≤ min(n , p ) .
1 0 
 
 ⋱ 0
On note J r la matrice de M n , p (K ) définie par J r =    .
0 1 

 0 0


- 8 / 11 -
Prop : rg(J r ) = r .
Théorème :
Soit A ∈ M n , p (K ) et r ∈ ℕ tel que 0 ≤ r ≤ min(n , p ) .
On a équivalence entre :
(i) rg(A) = r
(ii) ∃P ∈ GLp (K ), ∃Q ∈ GLn (K) telles que A = QJ r P .

Cor : ∀A ∈ M n , p (K ), rg( t A) = rg A .
Prop Soit A ∈ M n , p (K ) dont on note C1 ,…,C p les colonnes et L1 , …, Ln les lignes. On a
rg(A) = rg(C1 ,…,C p ) = rg(L1 , …, Ln ) .

4°) Opérations élémentaires sur les matrices


a) préliminaire
Prop : Les matrices de M n (K ) suivantes sont inversibles :
1) C = I n + λE i , j avec λ ∈ K et 1 ≤ i ≠ j ≤ n .
2) D = I n − E i ,i + λE i ,i avec λ ∈ K ∗ et 1 ≤ i ≤ n .
3) E = I n − Ei ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ n .
b) opérations élémentaires sur les lignes
Soit A = (ai , j ) ∈ M n , p (K ) et Ei , j la matrice élémentaire d’indice (i , j ) de M n (K ) :
1) Soit C = I n + λE i , j avec λ ∈ K et 1 ≤ i ≠ j ≤ n . CA = A + λEi , j A est obtenue en ajoutant à la i ème de A
λ fois sa j ème ligne. Cette manipulation est symbolisée : Li ← Li + λ.Lj .
2) Soit D = I n − E i ,i + λE i ,i avec λ ∈ K ∗ et 1 ≤ i ≤ n . DA = A − E i ,i A + λE i ,i A est obtenue en dilatant par
λ ≠ 0 la i ème ligne de A . Cette manipulation est symbolisée : Li ← λ.Li .
3) Soit E = I n − Ei ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ n . EA = A − Ei ,i A − E j , j A + Ei , j A + E j ,i A est obtenue
en échangeant la i ème ligne et la j ème ligne de A . Cette opération est symbolisée par : Li ↔ Lj .
Déf : Ces manipulations sont appelées opérations élémentaires sur les lignes de A .
Prop : Elles conservent le rang de A .
c) opérations élémentaires sur les colonnes
Soit A = (ai , j ) ∈ M n , p (K ) et Ei , j la matrice élémentaire d’indice (i , j ) de M p (K) .
1) Soit C = I p + λEi , j avec λ ∈ K et 1 ≤ i ≠ j ≤ p . AC = A + λAEi , j est la matrice obtenue par la
manipulation C j ← C j + λ.C i

2) Soit D = I p − Ei ,i + λEi ,i avec λ ∈ K ∗ et 1 ≤ i ≤ p . AD = A − AEi ,i + λAEi ,i est la matrice obtenue par la


manipulation C i ← λ.C i
3) Soit E = I p − E i ,i − E j , j + Ei , j + E j ,i avec 1 ≤ i ≠ j ≤ p . AE = A − AE i ,i − AE j , j + AEi , j + AE j ,i est la
matrice obtenue par la manipulation C i ↔ C j
Déf : Ces manipulations sont appelées opérations élémentaires sur les colonnes de A .
Prop : Elles conservent le rang de A .

5°) Méthode du pivot de Gauss


Soit A = (ai , j ) ∈ M n , p (K ) . On désire calculer le rang de A .
Si A = On , p alors rg(A) = 0 .
Sinon A possède un coefficient non nul p1 = ai , j .
Par les opérations Li ↔ L1 et C j ↔ C1 on amène le coefficient p1 en position (1,1) et on dispose alors d’une
matrice de la matrice de la forme :

- 9 / 11 -
 p1 *
 
α 
 2  avec p ≠ 0 appelé 1er pivot.
 ⋮ * 1
 
αn 

α2
On effectue alors les opérations L2 ← L2 − L1 , … et on aboutit à une matrice de la forme :
p1
p1 * 

 0 
 
 ⋮ B  avec p1 ≠ 0 .
 
 0 

On recommence ce processus avec la matrice B tant que la matrice obtenue est non nulle. A la fin, on obtient :
p1 * 

 ⋱ *
  avec p , …, p ≠ 0 .
 0 pr  1 r
 
 0 0
On peut alors conclure que rg(A) = r .

IV. Systèmes d’équations linéaires

1°) Positionnement du problème.


Soit ai , j ∈ K et bi ∈ K pour i ∈ {1, …, n } , j ∈ {1, …, p } .
On cherche tous les p uplets (x1 , …, x p ) ∈ K p solutions du système :
a11x1 + ⋯ + a1p x p = b1

Σ : ⋮ .

an1x1 + ⋯ + anp x p = bn
Déf : Σ est appelé système d’équations linéaires à n équations et p inconnues.
On note SΣ ⊂ K p l’ensemble des solutions du système Σ .
Posons x = (x1 ,…, x p ) ∈ K p , b = (b1 ,…,bn ) ∈ Kn et u : (x1 ,…, x p ) ֏ (a1,1x1 + ⋯ + a1,px p ,…,an ,1x1 + ⋯ + an ,p x p )
Le système Σ équivaut à u (x ) = b .
Déf : u (x ) = b est appélée équation vectorielle du système Σ .
Posons A = (ai , j ) ∈ M n , p (K ) , B = (bi ) ∈ M n ,1 (K ) et X = (x j ) ∈ M1, p (K ) . Le système Σ équivaut à AX = B .
Déf : L’équation AX = B est appelée équation matricielle du système Σ .
Déf : On appelle rang du système Σ le naturel : rg(Σ) = rg A = rg u .

2°) Compatibilité d’un système


Déf : Σ est dit compatible ssi SΣ ≠ ∅ .
a11x1 + ⋯ + a1p x p = b1

Considérons Σ :  ⋮ d’équation matricielle AX = B .

an1x1 + ⋯ + anp x p = bn

Déf : On note (A B ) la matrice de M n , p +1 (K) constituée des colonnes de A suivies de B .


Théorème :
Le système Σ est compatible ssi rg (A B ) = rg(A) .
Cor : Tout système de rang r = n est compatible.

- 10 / 11 -
3°) Description de l’ensemble solution
Déf : On appelle système homogène (ou sans second membre) associé à Σ le système :
a11x1 + ⋯ + a1p x p = 0

Σ0 : ⋮ .

an1x1 + ⋯ + anp x p = 0

Prop : L’ensemble solution du système Σ0 est un sous-espace vectoriel de K p de dimension p − r avec


r = rg(Σ) .
Théorème :
Si le système Σ est compatible alors SΣ est un sous-espace affine de K p de direction SΣ0 .

4°) Résolution pratique


a11x1 + ⋯ + a1p x p = b1

Considérons le système Σ :  ⋮ d’équation matricielle AX = B .

an1x1 + ⋯ + anp x p = bn
Par la méthode du pivot de Gauss, on peut en opérant sur les lignes et en permutant les colonnes, transformer A
p1 * 

 ⋱ *
en   avec p ,..., p ≠ 0 .
 1 r
 0 pr

 0 0

En suivant ce procédé, mais en opérant sur les équations au lieu des lignes et en permutant les inconnues au lieu
des colonnes, on peut transformer Σ en le système équivalent Σ ′ suivant :
p1x1′ + ⋯ + *x r′ + *x r′+1 + … + *x p′ = b1′ (1)

 …

 pr x r + *x r +1 + ⋯ + *x p = br′ (r )
′ ′ ′

 0 = br′+1 (r + 1)

 …

 0 = bn′ (n )
Déf : Les équations (1) ′, …, (r ) ′ sont appelées équations principales.
Les équations (r + 1) ′,…, (n ) ′ sont appelées équations de compatibilité.
Si l’une des équations de compatibilité est fausse, le système est incompatible.
Si les équations de compatibilité sont vérifiées, le système Σ est équivalent à :
p1x1′ + ⋯ + *x r′ = b1′ − (*x r′+1 + ⋯ + *x p′ )

 …


 pr x r = br′ − (*x r′+1 + ⋯ + *x p′ )

Ce système triangulaire se résout en cascade et permet d’exprimer les inconnues x1′,…, x r′ en fonction des
inconnues x r′+1 , …, x p′ .

Déf : Les inconnues x1′,…, x r′ sont appelées inconnues principales, c’est par rapport à celles-ci qu’on achève la
résolution du système.
Les inconnues x r′+1 , …, x p′ sont appelée inconnues paramètres, ce sont elles qui permettent la description
de SΣ .

5°) Système de Cramer


Déf : On appelle système de Cramer d’ordre n tout système à n équations, n inconnues et de rang n .
Théorème :
Un système de Cramer possède une et une seule solution.

- 11 / 11 -