Vous êtes sur la page 1sur 13

Espaces vectoriels, 2021-2022

Espaces vectoriels
Table des matières
1 Espace vectoriel 1
1.1 Produit d’espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Sous espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . 3
1.2.2 Somme d’un nombre fini de sous-espaces vectoriels . . . . . . . . . . . . . 3
1.3 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1 Dépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.2 Familles génératrices et bases . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Application linéaire et Matrice 6


2.1 Expression matricielle d’une application linéaire . . . . . . . . . . . . . . . . . . 8
2.2 Matrice inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2.1 Méthode de Cramer pour l’inversion . . . . . . . . . . . . . . . . . . . . 10
2.2.2 Méthode de Gauss-Jordan pour l’inversion . . . . . . . . . . . . . . . . . 11
2.3 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1 Espace vectoriel
Définition. Soit E un ensemble muni d’une loi de composition interne, notée additivement, et
d’une loi de composition externe à opérateurs dans le corps K,notée multiplicativement, c’est
à dire une application :

K ×E →E
(λ, →

x ) 7→ λ→

x
On dit que (E, +, ×) est un K-espace vectoriel (ou un espace vectoriel sur le corps K) si les
propriétés suivantes sont vérifiées :
1. (E, +) est un groupe commutatif
2. De plus on a :
(a) Pseudo-associativité : ∀λ, µ ∈ K ∀→−
x ∈ E λ (µ→−
x ) = (λµ) →

x (noté donc λµ→

x)
(b) Pseudo-distributivité à droite de × sur + : ∀λ, µ ∈ K ∀ x ∈ E (λ + µ) →

− −
x =


λx +µx →

(c) Pseudo-distributivité à gauche de × sur + : ∀λ ∈ K ∀→

x ,→

y ∈ E λ(→

x +→

y) =
λ→
−x + λ→−
y
(d) 1K est un pseudo-élément unité : ∀→

x ∈ E 1K →

x =→−x
Les éléments de E sont appelés des vecteurs. Ceux de K sont appelés scalaires. Nous
avons mis des flèches sur les vecteurs pour éviter des confusions, mais ce n’est nullement

− →

indispensable. L’élément nul est noté 0 ou 0 E et appelé le vecteur nul.

Propriété 1. :

1

− →

1. Soit λ ∈ K →
−x ∈ E. On a : λ→

x = 0 ⇔ λ = 0K ou → −x = 0
2. ∀λ ∈ K ∀→−x ∈ E λ (−→−x ) = (−λ) →

x = − (λ→

x ) (noté donc −λ→

x)
3. Pseudo-distributivité à droite de la loi × sur − :

∀λ, µ ∈ K ∀→

x ∈ E (λ − µ) →

x = λ→

x − µ→

x

et Pseudo-distributivité à gauche de la loi × sur − :

∀λ ∈ K ∀→

x ,→

y ∈ E λ(→

x −→

y ) = λ→

x − λ→

y

Exemple.
1. Soit l’ensemble K I des applications d’un ensemble I dans K. Sur K I les lois + et ×
sont définies comme suit : Soit f, g ∈ K I

∀x ∈ I (f + g) (x) = f (x) + g (x)

∀x ∈ I (λf ) (x) = λf (x)


(K I , +, ×) est un K espace vectoriel.
2. La famille d’éléments de K indexée par I munie des lois telles que, pour (xi )i∈I et (yi )i∈I
et λ ∈ K :
a) (xi )i∈I + (yi )i∈I = (xi + yi )i∈I
b) λ (xi )i∈I = (λxi )i∈I
est un K espace vectoriel.

1.1 Produit d’espaces vectoriels.


Propriété 2. le produit cartésien de 2 K-espaces vectoriels E et F, munis des lois + et ×
définies par
→
− → −  − → − − → −
1. (→
−x ,→
−y ) + x0 , y 0 = →x + x0 , →
y + y0
2. λ (→

x ,→

y ) = (λ→

x , λ→

y)
est un K-espace vectoriel.
Cette proposition se généralise donc aux produits d’un nombre fini de K - espaces vectoriels,
et donc au produit E n de l’espace E n fois par lui-même.
Le cas général est le produit d’une famille quelconque de K-espaces vectoriels, indexée par un
ensemble I :
Ei = (→
−
x i )i∈I / ∀i ∈ I →

Y
x i ∈ Ei
i∈I

les lois + et × étant définies par


1. (→

x i )i∈I + (→

y i )i∈I = (→

xi+→−
y i )i∈I


2. λ ( x ) = (λ x ) →

i i∈I i i∈I

2
1.2 Sous espace vectoriel
Définition. Une partie F d’un K - espace vectoriel E est appelée un sous-K-espace vectoriel
(sev en abrégé) de E si elle est non vide, stable pour l’addition et la multiplication externe. De
plus munie des deux lois induites, elle est un K-espace vectoriel.
Propriété 3. Une partie F d’un K - espace vectoriel E est un sous-espace vectoriel si et
seulement si elle soit stable pour l’addition et la multiplication externe et contienne le vecteur
nul, c’est-à-dire :


1. 0 ∈ F
2. ∀→−x ,→−
y ∈F → −x +→ −
y ∈ F (stabilité pour + ; on peut aussi écrire : F + F ⊂ F )
3. ∀λ ∈ K ∀→

x ∈ F λ→

x ∈ F (stabilité pour × externe ; on peut aussi écrire : KF ⊂ F )

1.2.1 Intersection de sous-espaces vectoriels.


Propriété 4. L’intersection de deux sous espaces vectoriels de E est un sev de E. Plus
généralement l’intersection d’une famille quelconque (Ei )i∈I de sev de E, à savoir

Ei = {→

x ∈ E / ∀i ∈ I →

\
x ∈ Ei }
i∈I

est un sev de E.

1.2.2 Somme d’un nombre fini de sous-espaces vectoriels


Définition. Si F et G sont deux sev de E, on définit la somme de F et G par

F + G = {→

x ∈ E / ∃ (→

y ,→

z )∈F ×G/→

x =→

y +→

z } = {→

y +→

z /→

y ∈ F et →

z ∈G}

Propriété 5. La somme de deux sev de E est un sev de E.


La somme d’une famille finie (Fk )k=1..p de sev, à savoir
p
( p )


x k / ∀k ∈ [|1, p|] →

X X
F1 + ... + Fp = Fk = x k ∈ Fk
k=1 k=1

Mais la réunion de deux sev n’est en général pas un sev !


Définition. Soit F1 et F2 deux sous espaces vectoriels de E. On dit que F1 et F2 est une somme
directe ou que F1 et F2 sont supplémentaires vis à vis de E si l’écriture →

x =→ −y +→ −
z , avec

− →

y ∈ F1 et z ∈ F2 , est unique. On note E = F1 ⊕ F2
Remarque.


F1 + F2 = F1 ⊕ F2 ⇔ F1 ∩ F2 = { 0 }

3
1.3 Combinaisons linéaires
Définition. Soit F = (→ −x 1 , ..., →
−x p ) = (→

x i )i=1..p une famille finie de p vecteurs du K-espace
p
vectoriel E et (λ1 , ..., λp ) ∈ K une famille de p scalaires. La combinaison linéaire de F de
p
coefficients (λ , ..., λ ) est le vecteur λ → −
P
1 p i x . Lorsque les coefficients sont nuls, la combinaison
i
i=1
linéaire est dite triviale.
Propriété 6. L’ensemble de toutes les combinaisons linéaires d’une famille finie de vecteurs
F est un sous-espace vectoriel de E appelé le sous espace vectoriel engendré par F (ou par les


x i , i = 1..p). On note :
( p )
vectF = vect (→
− λ→−
X
x ) =
i i=1..p x / ∀i ∈ [|1, p|] λ ∈ K
i i i
i=1

Par
n→convention, le sous-espace vectoriel engendré par une famille vide est le sous-espace réduit
−o
à 0 :
n→−o
vect∅ = 0

Remarque.
1. Lorsque F n’est constituée que d’un vecteur → −x , vect (→

x ) = {λ→

x / λ ∈ K} est aussi

− →

noté K x . On verra plus loin que si x est non nul, c’est une droite. C’est pourquoi on
l’appelle dans ce cas ”la droite engendrée par →

x ” ou encore ”la droite dirigée par →

x ”.
2. vectF n’est autre que la somme des sous-espaces engendrés par chacun des x : →

i

vect (→

x i )i=1..p = K →

x 1 + ... + K →

xp

Ceci montre que vectF est bien un sev, puisqu’on sait que les K →

x i en sont et qu’une
somme de sev est un sev.
Ne pas confondre K →

x + K→ −
y et K (→
−x +→ −
y)
3. Un sous-espace vectoriel est toujours stable par combinaisons linéaires (c’est-à-dire que
toute combinaison linéaire d’éléments d’un sev est encore un élément de ce sev).

1.3.1 Dépendance linéaire


Définition. Une famille finie de vecteurs est dite liée (ou qu’elle est formée de vecteurs
linéairement dépendants) lorsque l’un des vecteurs appartient au-sous-espace vectoriel engendré
par les autres. Autrement dit :

 

− →
− →
− →
− →
− →

F = ( x 1 , ..., x p ) est liée ⇔ ∃i0 ∈ [|1, p|] / x i0 ∈ vect x 1 , ..., x i0 , ..., x p

Lorsque p > 2, cela signifie que l’un des vecteurs s’exprime comme combinaison linéaire des
autres. Donc

F = (→ −
x 1 , ..., →

x p ) est liée ⇔ ∃ i0 ∈ [|1, p|] / →
− λi →

X
x i0 = xi
16i6p
i6=i0

4
Définition. Une famille finie de vecteurs est dite libre (ou qu’elle est formée de vecteurs
linéairement indépendants) lorsque elle est non liée. Donc si la seule combinaison linéaire de
ses vecteurs qui soit nulle est la combinaison linéaire triviale.
La négation des encadrés ci-dessus donne :

 

− →
− →

F = ( x 1 , ..., x p ) est libre ⇔ ∀i0 ∈ [|1, p|] / x i0 ∈ →
− →
− →

/ vect x 1 , ..., x i0 , ..., x p

Soit
p
!


F = (→

x 1 , ..., →
− λi →

X
x p ) est libre ⇔ ∀ (λ1 , .., λp ) ∈ K p x i = 0 ⇒ (λ1 , .., λp ) = (0, ..., 0)
i=1

1.3.2 Familles génératrices et bases


Définition. Une famille finie de vecteurs de E est dite génératrice de E si le sous-espace
vectoriel qu’elle engendre est égal à E tout entier. Donc tout vecteur de E s’exprime comme
combinaison linéaire des vecteurs de cette famille :


 ⇔ vectF = E
 ⇔ E ⊂ vectF


F = (→−
x 1 , ..., →

x p ) est génératrice ⇔ ∀→
−x ∈E →−x = cl (→ −x 1 .., →

x p)
p

− →
− →



 ⇔ ∀ x ∈ E ∃ (λ1 .., λp ) ∈ K p / x = λi x i
 P

i=1

Une famille libre et génératrice de E est appelée une base de E.


Remarque. Une base de E est une famille de vecteurs de E telle que tout vecteur de E
s’exprime de manière unique comme combinaison linéaire de ses éléments. Ainsi :
n
B = (→

e 1 , ..., →

e n ) est une base de E ⇔ ∀→

x ∈ E ∃! (x1 .., xn ) ∈ K n / →
− xi →

X
x = ei
i=1

Le nombre d’éléments d’une famille libre est toujours inférieur ou égal à celui d’une famille
génératrice.
Théorème 7. Les bases (finies) d’un espace vectoriel (s’il y en a) ont toutes le même
nombre d’éléments.
La dimension d’un espace vectoriel ayant au moins une base finie est le nombre
d’éléments de cette base :
 − →e 1 , ..., −
→ 

→ −
→ e n libre
dim E = n ⇔ ∃ e 1 , ..., e n ∈ E /
vect − →
e , ..., −
→ 
1e =En

Un espace vectoriel n’ayant pas de base finie est dit de dimension infinie.
Exemple.
n→
−o
1. 0 est de dimension nulle (base = ∅)


2. Un espace vectoriel de dimension 1 (donc de la forme K →

x avec →

x 6= 0 ) est appelé une

droite vectorielle

5
3. Un espace vectoriel de dimension 2 (donc de la forme K →

x + K→

y avec (→

x ,→

y ) libre)

est appelé un plan vectoriel

Théorème 8. Les sous-espaces vectoriels d’un espace vectoriel de dimension finie n


sont de dimension finie 6 n et le seul sous espace vectoriel de dimension n est E.
Application très importante : si F et G sont deux sous espace vectoriel de dimensions finies de
E, alors 
1. F ⊂ G
F =G⇔
2. dim F = dim G
Définition. La dimension de l’espace ambiant diminuée de la dimension de F est appelée la
codimension de F :
codim F = dim E − dim F
Un sous-espace de codimension 1 est appelé un hyperplan. 

− →

Si B = (→

e 1 , ..., →

e n ) est une base de E et C = f 1 , ..., f m est une base de F alors

→− −
→ 
→− − → →
→  − −  → →
− − 
D= e 1 , 0F , ..., e n , 0F , 0E , f 1 , ..., 0E , f m

est une base de E × F . Par conséquent, si E et F sont de dimensions finies, E × F aussi, et

dim E × F = dim E + dim F

Définition. Le rang d’une famille de vecteurs est la dimension du sous-espace vectoriel en-
gendré par cette famille :
rg (F) = dim (vect (F))

Propriété 9. Le rang de la famille F est la taille maximale d’une sous-famille libre de F ou


la taille minimale d’une sous famille engendrant le même sous-espace que F.

2 Application linéaire et Matrice


Définition. Soit E et F deux espaces vectoriels sur un même corps K. On appelle application
linéaire de E dans F une application ϕ de E dans F qui vérifie :
1.
∀→

x ,→

y ∈ E ϕ(→

x +→

y ) = ϕ(→

x ) + ϕ(→

y ).
2.
∀→

x ∈ E, ∀λ ∈ K, ϕ(λ→

x ) = λϕ(→

x ).

→ −

Notons que ϕ(→−x ) et ϕ(→

y ) ∈ F . Ainsi la linéarité implique ϕ(0E ) = 0F .
Définition. Soit ϕ une application linéaire de E dans F avec E et F des espaces vectoriels.
1. On appelle noyau de ϕ l’ensemble de vecteurs de E dont l’image par ϕ est le vecteur
nul deF . On note ker(ϕ).

− −

x ∈ ker(ϕ) ⇔ ϕ(→ −
x ) = 0F .
ker(ϕ) est un sous espace vectoriel de E.

6
2. On appelle image de ϕ, et on note =(ϕ), l’ensemble de vecteurs ϕ(→

x ) de F tels que


x ∈ E.

−y ∈ =()ϕ ⇔ ∃ →
−x ∈E/→ −
y = ϕ(→ −
x ).
=(ϕ) est un sous espace vectoriel de F .

Propriété 10. Soit ϕ une application linéaire de E dans F . L’application ϕ est :




1. injective si et seulement si ker(ϕ) = {0E }.
2. surjective si et seulement si =(ϕ) = F .

Théorème 11. Soit ϕ une application linéaire de E dans F . Si E est de dimension


finie on a
dim(ker(ϕ)) + dim(=(ϕ)) = dim(E).

La dimension dim(=(ϕ)) est aussi appelée rang de ϕ noté Rang(ϕ). Lorsque E est de dimension
on a Rang(ϕ) ≤ n
Définition. Une matrice A à n lignes et p colonnes (ou de format (n, p)) à coefficients dans
K est une application de [|1, n|] × [|1, p|] dans K ;
pour (i, j) ∈ [|1, n|] × [|1, p|] , A (i, j) est souvent noté de façon indicielle aij , de sorte que A est
notée (aij )16i6n ; on la représente aussi par le tableau rectangulaire :
16j6p

   j 
a11 a12 a1p a1j
 a21 a22 a2p   ... 
= i 
 ai1 ... aij ... aip  ;
 
 ... 
 
an1 anp  .... 
anj
[|1,n|]×[|1,p|]
l’ensemble K de ces matrices est noté Mnp (K) ; on sait que c’est un K-espace vectoriel
de dimension np, (donc isomorphe à K np ), dont la base canonique est formée des matrices
canoniques (Ekl ) avec Ekl (i, j) = δ.... δ.... .
16k6n
16l6p

Remarque. La connaissance des images des vecteurs d’une base de l’espace de départ ca-
ractérise entièrement une application linéaire ; plus précisément :

B = (→ −
e1 , ..., →

 
en ) base de E
si alors ∃!f ∈ L (E, F ) / ∀i ∈ [|1, n|] f (→

ei ) = →

yi
(→

y1 , ..., →

yn ) ∈ F n

Définition. La matrice d’une application linéaire entre espaces de dimensions finies relati-
vement à (ou dans) une base de l’espace de départ et une base de l’espace d’arrivée, est la
matrice dont les colonnes sont les coordonnées dans la base d’arrivée des images des vecteurs
de la base de départ ; autrement dit :

f ∈ L (E, F )
 B = (→ − , ..., →

e→1 en ) base de E X → −
− →
− alors A = mat(B,C) (f ) ⇔ ∀j ∈ [|1, n|] f (→

 def
si 
 C = f1 , ..., fp base de F ej ) = ai,j fi
 i
A = (aij ) 16i6p ∈ Mpn (K)
16j6n

7
f (→

e ) ... f (→
−ej ) ... f (→

en )
 1  →

a1j f1
 ...  ...

 ai1
 →

Par une représentation en tableau :  ......... aij ......... ain 
 fi
 ....  ...
apj →

fp
Propriété 12. Si B base de E de dimension n, C base de F de dimension p et A ∈ Mpn (K) ,
il existe une unique application linéaire f ∈ L (E, F ) telle que

A = mat (B,C) (f )

Notons qu’on ne peut additionner que des matrices de mêmes formats. On sait que (Mnp (K) , +, ×)
a une structure de d’espace vectoriel.
Si B base de E de dimension n, C base de F de dimension p, f ∈ L (E, F ) et λ ∈ K, on a

mat(B,C) (f + g) = mat(B,C) (f ) + mat(B,C) (g)

et
mat(B,C) (λf ) = λmat(B, C) (f )
Si les ev E et F sont de dimensions finies, L (E, F ) est lui aussi de dimension finie et

dim L (E, F ) = dim E dim F.

Propriété 13. Soit E, F et G trois ev. Soit f ∈ L (E, F ), g ∈ L (F, G) avec B base de E,C base de F
D base de G Alors
mat(B,D) (g ◦ f ) = mat(C,D) (g) × mat(B,C) (f )

2.1 Expression matricielle d’une application linéaire


Propriété 14. Soit E et F deux K-espacesvectorielsde dimensions finies n et p.

− →

Soit B = (→

e1 , ..., →

en ) une base de E et C = f1 , ..., fp base de F .
Soit f ∈ L (E, F ) et A = (aij ) = mat(B,C) (f ) ∈ Mpn (K). Alors


y = f (→

x ) ⇔ Y = AX
   
x1 y1
avec X =  ...  et Y =  ... 
xn yp
Y = AX est l’écriture matricielle de l’équation →

y = f (→

x ) dans les bases B et C

2.2 Matrice inversible


Définition. Une matrice carrée A ∈ Mn (K) est dite inversible si c’est un élément inversible
de l’anneau Mn (K) , autrement dit s’il existe B ∈ Mn (K) telle que

AB = BA = In

8
B est notée A−1 .
Si E est un espace vectoriel de dimension n, l’ensemble des matrices carrées d’ordre n inversibles
à coefficients dans K est un groupe multiplicatif isomorphe à (GL (E) , ◦) . Il est appelé ”groupe
linéaire en dimension n” et noté GLn (K) .
Remarque. Si f ∈ L (E) on a donc
f ∈ GL (E) ⇔ matB (f ) ∈ GLn (K)
et si A ∈ Mn (K) ,
A ∈ GLn (K) ⇔ fA ∈ GL (K n )

Un outil de calcul important pour determiner si une matrice carrée est inversible est le déterminant
d’une matrice.
Si A ∈ Mn (K), le déterminant de A, noté det(A) ou bien |ai,j | si A est la matrice [ai,j ], est un
élément de K que l’on définit par récurrence de la manière suivante :
1. Si n = 1 et A = [a], alors det(A) = a.
2. Si n ≥ 2 et A = [ai,j ], on note Ai la sous-matrice de A obtenue en enlevant la première
colonne et la i-ème ligne. On a alors :

n
X
det(A) = (−1)1+i ai,1 det(Ai ) = a1,1 det(A1 ) − a2,1 det(A2 ) + · · · + (−1)n+1 det(An ).
i=1

Si n ≥ 2, le déterminant d’une matrice n×n est donc défini au moyen de n déterminants


de matrices (n − 1) × (n − 1).
Exemple.
 
a b
(a) Soit n = 2 et A = .
c d
On a : det(A) = a det([d]) − c det([b]) = ad − bc.
 
1 1 −1
(b) Soit A = −1 4 1 
3 2 1
     
4 1 1 −1 1 −1
On a det(A) = 1 · det − (−1) det + 3 · det = (4 − 2) +
2 1 2 1 4 1
(1 + 2) + 3(1 + 4) = 20.
On peut calculer le déterminant en développant par rapport à n’importe quelle ligne ou colonne
de la matrice.
On note Aij la matrice extraite, obtenue en effaçant la ligne i et la colonne j de A.
Formule de développement par rapport à la ligne i.
n
X
det(A) = (−1)i+j aij det(Aij )
j=1

Formule de développement par rapport à la colonne j.


n
X
det(A) = (−1)i+j aij det(Aij )
i=1
Pour calculer un déterminant on doit :

9
1. Choisir une ligne (ou une colonne) qui a le plus de 0.
2. Si cela est possible, augmenter le nombre de ces 0 par opérations élémentaires sur les
colonnes (ou sur les lignes)
3. Développer le déterminant selon cette ligne (ou colonne), sans oublier l’alternance des
signes
Théorème 15 . Une matrice A ∈ Mn (K) est inversible si et seulement si son
déterminant est non nul. De plus, si A est inversible, alors det(A−1 ) = 1/ det(A).
On peut facilement montrer un sens du théorème. On suppose que A est inversible. Alors on
a:

1 = det(In ) = det(AA−1 ) = det(A) det(A−1 ),


donc det(A) 6= 0 et en plus on voit directement que det(A−1 ) = 1/ det(A).
Nous allons présenter deux méthodes différentes pour calculer l’inverse d’une matrice carrée :
la méthode de Cramer et la méthode de Gauss-Jordan.

2.2.1 Méthode de Cramer pour l’inversion


Soit A = [aij ] une matrice de Mn (K). On note Aij la matrice obtenue en effaçant la ligne i et
la colonne j de A.
La comatrice de A est la matrice de Mn (K), notée Com A, dont le coefficient à l’intersection
i+j
de la ligne i et la colonne
 j est(−1) det(Aij ).
1 2 0
Exemple. Soit A = 0 3 1 alors

1 1 1
   
det(A11 ) − det(A12 ) det(A13 ) 2 1 −3
Com A = − det(A21 ) det(A22 ) − det(A23 ) = −2 1 1 .
det(A31 ) − det(A32 ) det(A33 ) 2 −1 3

Propriété 16. Si A ∈ Mn (K) alors on a

(Com A)t A = At (Com A) = (det A)In .

Corollaire 17. Si A est une matrice inversible de Mn (K), alors on a


1
A−1 = (Com A)t .
det(A)

Preuve. D’après la proposition précédente, nous avons

(Com A)t A = (det A)(A−1 A) ⇔ (Com A)t = (det A)(A−1 ),


donc
1
A−1 = (Com A)t .
det(A)


10
2.2.2 Méthode de Gauss-Jordan pour l’inversion
Soit une matrice A ∈ Mn (K) inversible. Pour amener A à une forme échelonnée réduite nous
appliquons à la matrice A des opérations élémentaires sur les lignes. Cependant, une opération
élémentaire sur les lignes de A correspond à multiplier à gauche la matrice A par une matrice
élémentaire. On suppose que nous avons besoin de k opérations élémentaires afin d’amener A
à sa forme échelonnée réduite, qui dans le cas d’une matrice carrée correspond simplement à
la matrice identité. Dans ce cas nous multiplions A par k matrices élémentaires :

E1 E2 . . . Ek A = In .
Puisque la matrice est inversible nous pouvons multiplier les deux côtés par A−1 .

E1 E2 . . . Ek AA−1 = In A−1 ⇔ E1 E2 . . . Ek In = A−1 .


Ceci veut dire qu’en appliquant ces mêmes opérations élémentaires à la matrice identité, nous
obtenons directement la matrice inverse. L’idée est alors de commencer par une matrice de la
forme AIn et de la transformer à l’aide d’opérations élémentaire à une forme In B. Dans ce cas
B = A−1 .  
2 −4 4
Calculer l’inverse de la matrice A = 2 0 1
4 1 1 
2 −4 4 1 0 0
On commence par créer la matrice A|I3 =  2 0 1 0 1 0 
4 1 1 0 0 1
En effectuant ensuite des opérations élémentaires sur cette matrice nous essayons de la ramener
sous la forme I3 B, où selon la théorie, la matrice B sera la matrice A−1 recherchée.
On commence par l’opération L2 ← L2 − L1 :
 
2 −4 4 1 0 0
 0 4 −3 −1 1 0 
4 1 1 0 0 1
On applique ensuite l’opération L3 ← L3 − 2L1 :
 
2 −4 4 1 0 0
 0 4 −3 −1 1 0 
0 9 −7 −2 0 1
On fait L3 ← L3 − 49 L2 :
 
2 −4 4 1 0 0
 0 4 −3 −1 1 0 
0 0 −1/4 1/4 −9/4 1
L3 ← −4L3 :
 
2 −4 4 1 0 0
 0 4 −3 −1 1 0 
0 0 1 −1 9 −4
L2 ← L2 + 3L3 :

11
 
2 −4 4 1 0 0
 0 4 0 −4 28 −12 
0 0 1 −1 9 −4
L1 ← L1 − 4L3 :
 
2 −4 0 5 −36 16
 0 4 0 −4 28 −12 
0 0 1 −1 9 −4
L1 ← L1 + L2 :
 
2 0 0 1 −8 4
 0 4 0 −4 28 −12 
0 0 1 −1 9 −4
L2 ← 14 L2 :
 
2 0 0 1 −8 4
 0 1 0 −1 7 −3 
0 0 1 −1 9 −4
L1 ← 21 L1 :
 
1 0 0 1/2 −4 2
 0 1 0 −1 7 −3  ,
0 0 1 −1 9 −4
donc on obtient finalement
 
1/2 −4 2
A−1 =  −1 7 −3 
−1 9 −4

2.3 Systèmes d’équations linéaires


Une équation linéaire en les variables x1 , · · · , xn est une équation qui peut s’écrire sous la
forme :
a1 x 1 + · · · + an x n = b
où b et les coefficients a1 , · · · , an sont dans K. Un système d’équations linéaires (ou système
linéaire) est une collection d’une ou plusieurs équations linéaires relatives au même ensemble
de variables x1 , · · · , xn . On peut résumer le système linéaire à l’aide des matrices. La matrice
des coefficients du système est aussi appelée matrice associée au système.
Soit le système d’équations linéaires :


 a11 x1 + ... +a1j xj + ... +a1n xn = b1
 ... ... ...


(S) : ai1 x1 + ... +aij xj + ... +ain xn = bi
... ... ...




an1 x1 ... +anj xj + ... +ann xn = bn

Alors ce système peut se réécrire sous la forme AX = B. Avec

12
 
a11 · · · a1p
 .. ..  .
A= . . 
an1 · · · anp
La matrice associée au système (S). Les matrices
  X et B sont
 respectivement
 appelées matrice
x1 b1
 ..   .. 
de variables et matrice de constantes : X =  .  et B =  . .
xn bn
Résoudre le système revient donc à déterminer si la matrice A est inversible et si elle l’est on
peut alors écrire X = A−1 B.
Exemple. Résolvons le système : 
1x + 2y = 3
4x + 5y = 6
Alors on pose
 
1 2
A=
4 5
et  
3
X=
6
On cherche alors à résoudre AX=B. On commence par vérifier que la matrice A est inversible
ad − bc = 5 − 8 = −3. Donc la matrice A est inversible.
On a
 
−1 1 5 −2
A =
−3 −4 1
On en déduit que la solution est donnée par X = A−1 B
 
1 3
X=
−3 −6
Et finalement
 
−1
X=
2

13

Vous aimerez peut-être aussi