Vous êtes sur la page 1sur 36

Algèbre linéaire

11 mars 2021
Table des matières

1 Généralités sur les matrices 2


1.1 Notion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.1 Transposée et trace d’une matrice . . . . . . . . . . . . . . . . . . . 3
1.2.2 Multiplication d’une matrice par un scalaire . . . . . . . . . . . . . . 4
1.2.3 Somme de deux matrices . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.4 Produit matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Calcul du déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.4 Matrice carrée inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.1 Définition - Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4.2 Calcul de l’inverse : méthode des cofacteurs . . . . . . . . . . . . . . 10
1.5 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Systèmes d’équations linéaires 12


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.2 Ecriture matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Méthode du pivot de Gauss (forme échelonnée) . . . . . . . . . . . . . . . . 15
2.3 Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

3 Espaces vectoriels 18
3.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2 Sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . 22
3.4 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . . . . . . . 23
3.5 Changement de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.6 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . 26

4 Applications linéaires 27
4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021


TABLE DES MATIÈRES 1

4.2 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . 29


4.3 Noyau et image d’une application linéaire . . . . . . . . . . . . . . . . . . . 30
4.4 Effet d’un changement de base pour une application linéaire . . . . . . . . . 32
4.5 Endomorphisme particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Bibliographie 33
C HAPITRE UN

G ÉNÉRALITÉS SUR LES MATRICES

1.1 Notion de matrice

Définition 1.1. Soient m, n ≥ 1 des entiers ; on appelle matrice de type (m, n)


un tableau de nombres avec m lignes et n colonnes :
 
a11 a12 · · · a1n
 21 a22 · · · a2n 
 a 
. ···
 
 . . 
am1 am2 · · · amn
Les éléments aij s’appellent les coefficients de la matrice A. Par conven-
tion, le premier indice est le numéro de la ligne, le deuxième indice est le
numéro de la colonne. On désignera par Mm,n (R) l’ensemble des matrices de
type (m, n) à coefficients dans R.

Remarque 1.1. Si A est une matrice de type (m, n), on la notera :

A = (aij )1≤i≤m
1≤j≤n

Définition 1.2. Soit A une matrice de type (m, n).


1. Si n = 1, on dit que A est une matrice unicolonne.
2. Si m = 1, on dit que A est une matrice uniligne
3. A est la matrice nulle si tous ses coefficients sont nuls ; on la note Omn
ou simplement O.
4. Si m = n, on dit que A est une matrice carrée d’ordre n. L’ensemble
des matrices carrées d’ordre n à coefficients dans l’ensemble K est sim-
plement noté Mn (K).

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021


3

5. La matrice carrée A = (aij ) est dite diagonale lorsque aij = 0 pour


tout i 6= j. Si en plus d’être diagonale, tous les termes diagonaux (aii )
sont égaux alors la matrice A est dite scalaire.
6. La matrice identité d’ordre n est la matrice carrée d’ordre n dont tous
les coefficients sont nuls sauf ceux situés sur la diagonale qui valent 1 ;
on la note In ou simplement I si le contexte rend clair sa taille. Ainsi
 
1 0
 1 
I=
 
 . . .


0 1

7. La matrice carrée A = (aij ) est dite triangulaire supérieure lorsque


aij = 0 pour tous i > j. Elle est dite triangulaire inférieure lorsque
aij = 0 pour tous i < j.

1.2 Opérations sur les matrices

1.2.1 Transposée et trace d’une matrice

Soit A = (aij ) une matrice de type (n, p). On appelle transposée de la


matrice A, la matrice de type (p, n) notée t A telle qu’en posant t A = (bij ), on
a:
bij = aji (1 ≤ i ≤ p, 1 ≤ j ≤ n).
La transposée t A de A a donc pour lignes les colonnes de A et pour colonnes
les lignes de A.
La trace est une opération définie pour les matrices carrées. Souvent notée
T r(A), la trace d’une matrice carrée A d’ordre n est donnée par la somme de
ses termes diagonaux :
X n
T r(A) = aii .
i=1
4

Exercice 1.2. Soit  


2 0 2 7
 −3 1 0 −3 
A=
 
1 −5 2

 4 
−1 1 0 −2
Calculer t A et T r(A).
Définition 1.3. Une matrice A est dite symétrique (resp. antisymétrique ) si
t
A = A (resp. t A = −A).
 
2 5 1
Exemple 1.3. La matrice A =  5 4 0  est symétrique.
 
1 0 3
 
0 3 −1
La matrice B =  −3 0 6  est antisymétrique.
 
1 −6 0
Proposition 1.1. 1. t (A + B) = t A +t B ∀A, B ∈ Mnp (R)
2. t (λA) = λ t (A), pour tout λ ∈ R et pour toute matrice A ∈ Mnp (R)
3. t (t A) = A, pour toute matrice A ∈ Mnp (R)
4. T r(αA + βB) = αT r(A) + βT r(B), pour tous α, β ∈ R et pour toutes
matrices A, B ∈ Mn (R)
5.T r(t A) = T r(A), pour toute matrice A ∈ Mn (R).

1.2.2 Multiplication d’une matrice par un scalaire

Soit A = (aij )1≤i≤m une matrice de type (m, n) et λ un réel. On appelle


1≤j≤n
produit de A par le scalaire λ la matrice notée λA et définie par
λA = (λaij )1≤i≤m
1≤j≤n
Exercice 1.4. Soit  
1 −1 2 0
 3 1 0 −3 
A=
 
4 1 −5 2 


0 1 −1 1
Calculer : 3A, −2A.
5

1.2.3 Somme de deux matrices

Soient A et B deux matrices de même type (n, p). La somme de A et B est


la matrice notée A + B. Si nous notons cij ses éléments, on a

cij = aij + bij , (1 ≤ i ≤ n, 1 ≤ j ≤ p).

Autrement dit, la somme de deux matrices s’obtient en ajoutant les éléments


de mêmes indices.
   
2 5 1 0 3 −1
Exercice 1.5. Soit A =  5 4 0  et B =  −3 0 6 .
   
1 0 3 1 −6 0
Calculer A + B, 2A − 3B.

Proposition 1.2. Les propriétés de l’addition de matrices se déduisent de


celles de l’addition dans R (plus généralement de l’ensemble K des éléments
des matrices) :
(a) l’addition des matrices est commutative :

A + B = B + A, ∀A, B ∈ Mnp (R).

(b) l’addition des matrices est associative :

(A + B) + C = A + (B + C), ∀A, B, C ∈ Mnp (R).

(c) il existe un élément (dit) neutre pour l’addition des matrices : la matrice
nulle
A + O = O + A, ∀A ∈ Mnp (R).
(d) toute matrice A = (aij ) possède un opposé noté −A = (−aij ) et on a

A + (−A) = (−A) + A = O, ∀A ∈ Mnp (R).

Des propriétés qui précèdent il résulte que Mnp (R) muni de l’addition + est
un groupe commutatif (ou abélien).
6

1.2.4 Produit matricielle

Considérons donc deux matrices A ∈ Mnp (R) et B ∈ Mpq (R). Le produit


de A par B est une matrice de type (n, q) notée AB. Si nous posons AB = (cij ),
alors les éléments cij sont donnés pour tous 1 ≤ i ≤ n et 1 ≤ j ≤ q par
p
X
cij = aik bkj .
k=1
   
2 5 1 0 3 −1
Exercice 1.6. Soit A =  5 4 0  et B =  −3 0 6 .
   
1 0 3 1 −6 0
Calculer AB, BA.
Proposition 1.3. La multiplication des matrices vérifie les propriétés suivantes :
(a) associativité :
(AB)C = A(BC).
(b) distributivité par rapport à l’addition :

A(B + C) = AB + AC,

(A + B)C = AC + BC.
(c) (λA)B = A(λB) = λ(AB), λ ∈ R.
(d) pour toute matrice A ∈ Mnp (R), on a In A = AIp = A où In (resp. Ip )
désigne la matrice unité d’ordre n (resp. d’ordre p).
(e) En particulier, si A est une matrice carrée d’ordre n et I la matrice unité
d’ordre n, on a
A × I = I × A = A.
Proposition 1.4. - Si le produit AB est défini alors t (AB) = t B t A.
- On a T r(AB) = T r(BA) pour toutes matrices A ∈ Mnp (R) et B ∈
Mpn (R)).
 
−1 0 2
Exercice 1.7. Soit A =  1 1 −3 . Calculer A2 −2A+4I où I désigne
 
8 −6 5
la matrice unité d’ordre 3.
7

1.3 Calcul du déterminant

Le calcul du déterminant ne s’applique qu’aux matrices carrées ; par consé-


quent toutes les matrices considérées dans cette section seront des matrices
carrées.
Définition 1.4. Soit A = (aij ) 1≤i≤n une matrice carrée. On définit son déter-
1≤j≤n
minant par la formule :
X
det(A) = ε(σ)aσ(1),1 aσ(2),2 · · · aσ(n),n
σ∈Sn

où Sn désigne l’ensemble des permutations de {1, 2, · · · , n} et ε(σ) la signa-


ture de σ.
On notera entre deux barres le déterminant d’une matrice :
a11 a12 · · · a1n
a21 a22 · · · a2n
det(A) =
. . ··· .
an1 an2 · · · ann

Déterminant d’ordre 2
!
a b a b
Si A = , on a : det(A) = = ad − bc
c d c d

Déterminant d’ordre 3 (règle de Sarrus)


 
a11 a12 a13
Si A =  a21 a22 a23 , on a :
 
a31 a32 a33
det(A) = a11 a22 a33 +a12 a23 a31 +a13 a21 a32 −a31 a22 a13 −a32 a23 a11 −a33 a21 a12 .
Pour se souvenir de la formule du déterminant d’ordre 3, on peut utiliser la
disposition pratique suivante :
a11 a12 a13 a11 a12 a13
a21 a22 a23 a21 a22 a23
a31 a32 a33 a31 a32 a33
8

Ainsi, dans l’expression du déterminant d’ordre 3,


- les trois premiers termes (ceux précédés d’un signe +) se retrouvent grâce
aux trois premières diagonales descendantes,
- les trois derniers termes (ceux précédés d’un signe -) se retrouvent grâce aux
trois premières diagonales ascendantes.
1 −3 2 3 4 2
Exercice 1.8. Calculer : −4 0 −5 , −8 2 −1
2 −1 7 1 −1 6

Soit A = (aij ) une matrice carrée d’ordre n. Notons Aij la sous-matrice de


A obtenue en supprimant la iime ligne et la j ieme colonne. On observe que Aij
est une matrice carrée d’ordre n − 1.

Définition 1.5. Le déterminant (d’ordre n − 1) de Aij souvent noté mij =


det(Aij ) est appelé mineur relatif à l’élément aij et le réel noté cij = (−1)i+j mij
le cofacteur du facteur aij .

La formule du développement du déterminant par rapport à la j ieme colonne


est donnée par :
n
X n
X
det(A) = cij aij = (−1)i+j mij aij
i=1 i=1

La formule du développement du déterminant par rapport à la iime ligne est


donnée par :
Xn n
X
det(A) = cij aij = (−1)i+j mij aij
j=1 j=1

Remarquer qu’il y a changement de signe au passage d’un élément d’une ligne


ou d’une colonne au suivant et que m11 est (toujours) affecté du signe +.
1 3 2 −1 1 3 6 −1
−4 1 −5 0 −4 0 1 −3
Exercice 1.9. Calculer : ,
2 5 7 −2 5 2 −5 −2
6 0 8 2 1 2 8 7
9

Proposition 1.5. (a) Soit A une matrice carrée alors det(t A) = detA. Autre-
ment dit, toute matrice a même déterminant que sa transposée.
(b) Si on multiplie une colonne (resp. une ligne) d’une matrice par un réel λ,
le déterminant est multiplié par λ. En particulier si on multiplie une matrice
carrée d’ordre n par un réel λ, son déterminant est multiplié par λn :
det(λA) = λn detA.
(c) Si on échange deux colonnes (resp. deux lignes ) d’une matrice, son déter-
minant change de signe.
(d) Si dans une matrice, deux vecteurs colonnes (resp. lignes) sont colinéaires
(on dit aussi liés ou linéairement dépendants), le déterminant est nul.
(e) On ne modifie pas la valeur d’un déterminant en ajoutant à une colonne
(resp. une ligne ) une combinaison linéaire des autres colonnes (resp. des
autres lignes).
(f ) Si A et B sont deux matrices carrées de même ordre, on a :
det(AB) = (detA) × (detB).
(g) Si la matrice est triangulaire ou diagonale, le déterminant s’obtient en
faisant le produit des éléments diagonaux. En particulier si I est une matrice
unité, on a detI = 1.

1.4 Matrice carrée inversible

1.4.1 Définition - Propriétés

Définition 1.6. Soit A une matrice carrée d’ordre n. On dit que A est inversible
(ou régulière) s’il existe une matrice carrée B d’ordre n telle que
AB = BA = I où I désigne la matrice unité d’ordre n. Dans ce cas, la ma-
trice B est appelée l’inverse de A et est notée A−1 .
Lorsqu’une matrice carrée n’est pas inversible, on dit qu’elle est singulière.
On note GLn (K) l’ensemble des matrices carrées inversibles d’ordre n à co-
efficients dans K.
Proposition 1.6. Une matrice carrée A est inversible si et seulement si
detA 6= 0.
10

Proposition 1.7. 1. Si A est inversible son inverse A−1 est unique.


2. Si A est inversible, t A et A−1 sont aussi inversibles et on a

( t A)−1 = t (A−1 ), (A−1 )−1 = A.

3. Si A et B sont des matrices carrées d’ordre n inversibles, le produit AB est


inversible et on a (AB)−1 = B −1 A−1 .
4. Si A est une matrice carrée d’ordre n inversible, on a : det(A−1 ) = detA
1

Définition 1.7. • Deux matrices carrés A et B de Mn (K) sont dites sem-


blables si : ∃P ∈ GLn (K), B = P −1 AP.
• Deux matrices carrés A et B de Mm,n (K) sont dites équivalentes si et
seulement si : ∃Q ∈ GLm (K), ∃P ∈ GLn (K) tel que A = Q−1 BP.

1.4.2 Calcul de l’inverse : méthode des cofacteurs

Définition 1.8. Soit A = (aij ) une matrice carrée et cij le cofacteur relatif à
l’élément aij . On appelle comatrice de A et on note com(A) la matrice dont les
éléments sont les cofacteurs cij :

com(A) = (cij )1≤i,j≤n

Proposition 1.8. Si A est une matrice inversible alors son inverse est donnée
par :
1 t
A−1 = com(A)
detA
 
2 1 1
Exercice 1.10. Soit A =  0 0 −1 . Montrer que A est inversible et dé-
 
6 4 2
terminer son inverse.

1.5 Rang d’une matrice

Soit A une matrice de type (n, p). Soit C une matrice carrée d’ordre r dé-
duite de A en supprimant n − r lignes et p − r colonnes. On dit que C est une
matrice carrée extraite de A.
11

Définition 1.9. Le rang d’une matrice A est égal à l’ordre maximum des ma-
trices carrées inversibles extraites (sous-matrices) de A. On le note rg(A).

Proposition 1.9. 1. Le rang d’une matrice diagonale ou triangulaire est égal


au nombre d’éléments diagonaux non nuls.
2. Une matrice A de type (n, p) est de rang au plus min(n, p) :
rg(A) ≤ min(n, p). Si rg(A) = min(n, p), on dit que A est de rang maximal.
3. Une matrice carrée d’ordre n est inversible si et seulement si elle est de
rang n.

Définition 1.10. ( Opérations élémentaires sur les lignes ou les colonnes d’une
matrice)
On appelle opération élémentaire sur les lignes (respectivement sur les co-
lonnes) de la matrice A une des opérations suivantes :
1. Addition d’une ligne (respectivement d’une colonne) à une autre ligne (res-
pectivement à une autre colonne).
2. Multiplication d’une ligne (respectivement d’une colonne) par un scalaire
non nul.
3. Échange de deux lignes (respectivement de deux colonnes)

Remarque 1.11. Le rang d’une matrice n’est pas modifié lorsqu’on effectue
des opérations élémentaires sur les lignes ou les colonnes de cette matrice.
 
6 3 4
Exercice 1.12. Déterminer le rang de la matrice A =  2 1 1 .
 
−1 3 2
Proposition 1.10. Pour tous A et B ∈ Mn (R)
1. rg(A) + rg(B) − n ≤ rg(AB) ≤ min{rg(A), rg(B)}
2. rg(A + B) ≤ rg(A) + rg(B)
3. Si A est inversible alors rg(AB) = rg(B) et rg(BA) = rg(B)
4. rg(t AA) = rg(A t A) = rg(A)

Proposition 1.11. Deux matrices sont équivalentes si et seulement si elles ont


même rang.
C HAPITRE DEUX

S YSTÈMES D ’ ÉQUATIONS LINÉAIRES

De nombreuses situation-problèmes de la vie courante se modélisent en


systèmes d’équations dont les inconnues sont les variables à déterminer ; tou-
tefois, ces dernières peuvent aussi dépendre de plusieurs autres paramètres
rendant complexe le système. Pour certaines situations, le modèle adapté ne
fait intervenir que des équations linéaires rendant ainsi leur résolution moins
difficile que d’autres.

2.1 Généralités

2.1.1 Définitions

Définition 2.1. On appelle système linéaire de n équations à p inconnues,


tout système d’équations, qu’on notera souvent (S), pouvant se mettre sous la
forme 

 a11 x1 + · · · + a1p xp = b1

 a x + ··· + a x = b
21 1 2p p 2
(S) .
.. . .
.. · · · .. .
.. . .
.. ..



an1 x1 + · · · + anp xp = bn

où les nombres aij et bi sont des éléments donnés de R (ou C). Les nombres
b1 , · · · , bn sont appelés les seconds membres et les nombres aij les coefficients
du système.
Si b1 = · · · = bn = 0, le système est dit homogène ou sans second membre.

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021


13

Exemple 2.1. 

 2x1 −3x2 +x3 = −5

 4x
1 +x2 −5x3 = 0
(S)

 3x1 +2x2 −x3 = 1

−2x1 −4x2 +2x3 = −2

est un système linéaire de 4 équations à 3 inconnues.

Remarque 2.2. Un système linéaire (S) peut avoir


- plus d’équations que d’inconnues (i.e p < n et le système est dit surabon-
dant),
- moins d’équations que d’inconnues (i.e p > n et le système est dit sousabon-
dant )
- autant d’équations que d’inconnues (i.e p = n).

Définition 2.2. Soit (S) un système linéaire.


1. Résoudre le système (S), c’est déterminer les réels x1 , x2 , · · · , xp .
2. On appelle solution du système linéaire (S) tout p-uplet (x1 , · · · , xp ) véri-
fiant toutes les équations de (S).
3. On dit que le système est compatible ou consistant s’il admet au moins une
solution ; dans le cas contraire on dit qu’il est incompatible ou non consistant
ou encore impossible. Dans ce dernier cas, l’ensemble solution est vide.
4. Deux systèmes sont dits équivalents lorsqu’ils possèdent les mêmes en-
sembles de solution.
5. Un système est dit déterminé (resp. indéterminé) lorsqu’il possède une
unique solution (resp. une infinité de solutions)

2.1.2 Ecriture matricielle

Soit (S) un système linéaire. On appelle matrice associée à (S) la matrice


faite des coefficients du système : A = (aij )1≤i≤n . En notant X la matrice uni-
1≤j≤p
colonne des inconnues x1 , x2 , · · · , xp et B la matrice unicolonne des seconds
membres b1 , b2 , · · · , bn , le système a pour écriture matricielle :
14


  
x1 b1
AX = B avec X =  ...  , B =  .. 
. 
  

xn bn
Exercice 2.3. Donner l’écriture matricielle du système (S) de l’exemple 2.1.

Définition 2.3. On appelle matrice augmentée d’un système (S) d’écriture ma-
tricielle AX = B la matrice, disons A
e donnée par A
e = (AB) où on juxtapose
la matrice uni-colonne B des seconds membres à droite de la matrice A des
coefficients du système.

Exemple 2.4. Considérons le système



 −2x1 6x2 +x3 = 3

(S) 3x1 −x2 2x3 = 0

 4x +x −4x = 9
1 2 3

La matrice augmentée du système est


 
−2 6 1 3
A =  3 −1 2 0 
e  
4 1 −4 9

Définition 2.4. 1. Le rang d’un système linéaire




 a11 x1 + · · · + a1p xp = b1

 a x + ··· + a x
21 1 2p p = b2
(S) .
.. . .
.. · · · .. .. .. ..


 . . .
an1 x1 + · · · + anp xp = bn

est le rang de la matrice A = (aij )1≤i≤n qui lui est associée.


1≤j≤p
2. Le déterminant de la matrice A est appelé déterminant du système.

Exercice 2.5. Donner le rang de chacun des systèmes suivants :



 −2x1 −3x2 +x3 = −5

(S1 ) 3x1 +x2 −6x3 = 2

 x
1 +2x2 −x3 = 0
15

et 
 −2x1 +6x2 +x3 = −1

(S2 ) 3x1 −x2 +2x3 = 7

 4x
1 +x2 −4x3 = −3
Théorème 2.6. (Existence de solutions)
Soit le système linéaire (S) de n équations à p inconnues et d’écriture matri-
cielle AX = B. Le système linéaire (S) est consistant (ou admet de solution)
si et seulement si la matrice A et la matrice augmentée A
e = (AB) possèdent
le même rang : rg(A) = rg(A). e

Théorème 2.7. (Unicité et infinité de solutions)


- Unicité de solution
Le système (S) admet une unique solution si et seulement si

rg(A) = rg(A)
e = n (dans ce cas n = p).

- Infinité de solutions
Le système admet une infinité de solutions si et seulement si

rg(A) = rg(A)
e < n.

2.2 Méthode du pivot de Gauss (forme échelonnée)

La méthode d’élimination de Gauss ou méthode du pivot de Gauss est une


méthode de résolution d’un système linéaire qui permet une discussion de
l’existence éventuelle d’une solution, suivie dans le cas où l’existence est éta-
blie, d’un calcul de sa forme générale. La méthode se déroule en deux étapes :
- une première étape dite d’élimination et
- une seconde étape dite de remontée.

Étape d’élimination

Cette première étape vise à écrire le système sous une forme échelonnée.
Le passage du système initial au système échelonné s’effectue en utilisant les
opérations élémentaires suivantes :
16

1. Échange de deux équations Ek et Ek0


2. Multiplication d’une équation Ek par un scalaire non nul.
3. Addition d’un multiple d’une équation Ek0 à autre une équation Ek .

Étape de remontée

Le système obtenu à l’issue de l’étape d’élimination est un système triangu-


laire supérieur dont la résolution s’effectue en partant de la dernière équation
puis en remontant jusqu’à la première équation.

Exercice 2.8. Résoudre chacun des systèmes suivants par la méthode du pivot
de Gauss. 
 x +3y −z = 9

(S1 ) 3x −y +z = −1

 −2x +y −3z = 6
; 
 2x +y −z = 3

(S2 ) x −y −z = 2

 −3x −3y +z = −4

2.3 Système de Cramer

Définition 2.5. On appelle système de Cramer tout système d’écriture matri-


cielle AX = B de n équations linéaires à n inconnues où la matrice (carrée)
A est inversible (i.e de rang n).

Proposition 2.1. 1. Un système de Cramer est donc un système de n équations


à n inconnues dont le déterminant est non nul.
2. Un système de Cramer est un système qui admet une solution unique.

Proposition 2.2. Si (S) est un système de Cramer d’écriture matricielle


AX = B, l’unique solution de (S) est le n -uplet (x1 , · · · , xn ) tel que :
detAi
∀ ∈ {1; 2; · · · ; n}, xi =
detA
où Ai est la matrice obtenue en remplaçant la iime colonne de A par B.
17

Exercice 2.9. Résoudre le système



 −2x1 +6x2 +x3 = −1

(S) 3x1 −x2 +2x3 = 7

 4x
1 +x2 −4x3 = −3
C HAPITRE TROIS

E SPACES VECTORIELS

3.1 Définitions et exemples

Un espace vectoriel est un ensemble sur lequel sont définies :


— une addition interne (on peut ajouter entre eux deux éléments de l’en-
semble et cela donne un élément de l’ensemble)
— une multiplication externe (on peut multiplier un élément de l’ensemble
par un nombre réel (ou complexe) et cela donne un élément de l’en-
semble).
Ces deux opérations doivent vérifier certaines propriétés de compatibilité qui
sont listées dans la définition suivante :

Définition 3.1. Un espace vectoriel sur un corps (K, +, ×)(K = R ou C) ou


un K-espace vectoriel est un ensemble non vide E muni de deux opérations :
1. une opération (ou loi de composition) interne appelée addition (+)

+ : E × E −→ E
(u, v) 7−→ u + v

vérifiant les propriétés suivantes :


• elle est commutative : u + v = v + u ∀(u, v) ∈ E 2 ;
• elle est associative : u + (v + w) = (u + v) + w ∀(u, v, w) ∈ E 3
• elle admet un élément neutre noté 0E ou simplement 0 vérifiant :
u + 0 = 0 + u = u;
• pour tout vecteur u il existe un opposé noté −u tel que
u + (−u) = (−u) + u = 0.

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021


19

2. une opération (ou loi de composition) externe appelée multiplication


par un scalaire

. : K × E −→ E
(λ, v) 7−→ λ.u

vérifiant les propriétés suivantes : pour tous (α, β) ∈ K2 et pour tous


(u, v) ∈ E 2
• (α + β).u = α.u + β.u ;
• α.(u + v) = α.u + α.v
• α.(β.u) = (α × β).u ;
• 1K .u = u
Les éléments de E s’appellent les vecteurs et les éléments de K sont appelés
les scalaires.

Exemple 3.1. 1. Sur Kn (K = R ou C), on définit :


i. une addition (+)

+ : Kn × Kn −→ Kn
((x1 , ..., xn ), (y1 , ..., yn )) 7−→ (x1 + y1 , ..., xn + yn )

ii. une multiplication par un scalaire

. : K × Kn −→ Kn
(λ, (x1 , ..., xn )) 7−→ (λx1 , ..., λxn )

Muni de ces lois, Kn est un K-espace vectoriel.

2. Soit X un ensemble non vide et F(X, R) l’ensemble des fonctions de X


dans R. Alors on peut définir sur F(X, R) une addition de la façon suivante.
Soient f, g ∈ F(X, R). Alors f + g est définie par :

∀x ∈ X, (f + g)(x) = f (x) + g(x).

On définit de même une multiplication par un scalaire par :

∀λ ∈ R, ∀f ∈ F(X, R), (λf )(x) = λf (x) pour tout x ∈ X.


20

Muni de ces deux opérations, F(X, R) est un espace vectoriel sur R. On défi-
nit en particulier l’espace vectoriel des suites réelles et l’espace vectoriel des
polynômes sur R.

3. Soit (E, +, .) et (F, +, .) deux K-espace vectoriels. Sur E×F , on définit :


i. une addition (+)
+ : (E × F )2 −→ E × F
((u1 , u2 ), (v1 , v2 )) 7−→ (u1 + v1 , u2 + v2 )
ii. une multiplication par un scalaire
. : K × (E × F ) −→ Kn
(λ, (u1 , u2 )) 7−→ (λu1 , λu2 )
Muni de ces lois, E × F est un K-espace vectoriel.
Proposition 3.1. Soit (E, +, .) un K-espace vectoriel. Pour tous (α, β) ∈ K2
et pour tous (u, v) ∈ E 2 on a :
• 0K .u = 0E ;
• (−1K ).u = −u
• (−α).u = −(α.u) = α.(−u) ;
• α.0E = 0E
• (α − β).u = α.u − β.u
• α.(u − v) = α.u − α.v
• (α.u = 0E ) ⇔ (α = 0K ou u = 0E )
Définition 3.2. -Soient x1 ; ...; xn n vecteurs d’un K-espace vectoriel (E, +, .).
On appelle combinaison linéaire de ces n vecteurs tout vecteur x ∈ E de la
forme :
x = λ1 .x1 + λ2 .x2 + ... + λn .xn
où (λ1 , ..., λn ) ∈ Kn
- Si A est une partie de E, on appelle combinaison linéaire d’éléments de
A toute combinaison linéaire d’un nombre fini d’éléments de A.
Nous allons nous interesser à présent aux sous-ensembles d’un espace vec-
toriel qui, avec la restriction des opérations, vont avoir à leur tour une structure
d’espace vectoriel.
21

3.2 Sous-espace vectoriel

Définition 3.3. Une partie non vide F d’un K-espace vectoriel E est un sous-
espace vectoriel de E si :
i) pour tout u ∈ F et v ∈ F, u + v ∈ F ;
ii) pour tout λ ∈ K, et u ∈ F , λ.u ∈ F.
Il résulte immédiatement de cette définition que tout sous-espace vectoriel
de E est, avec les mêmes opérations, aussi un K-espace vectoriel.
Exercice 3.2. 1. Montrer que l’ensemble des suites nulles à partir d’un certain
rang est un sous-espace vectoriel de l’espace vectoriel des suites de réels.
2. Montrer que l’ensemble F = {(x, y, z) ∈ R3 , 2x − 3y + z = 0} est un
sous-espace vectoriel de R3 .
Proposition 3.2. Soit (E, +, .) un K-espace vectoriel. Soit (Fi )i∈I une famille
de sous-espaces vectoriels de E.
\
Alors Fi est un sous-espace vectoriel de E.
i∈I
Remarque 3.3. La réunion de deux sous-espaces vectoriels n’est pas un es-
pace vectoriel en général.
Proposition 3.3. Soit A un sous-ensemble non vide d’un K-espace vectoriel
E. L’ensemble de toutes les combinaisons linéaires (finies) d’éléments de A,
noté V ect(A), est un sous-espace vectoriel de E contenant A appelé sous-
espace vectoriel engendré par A. C’est le plus petit sous-espace vectoriel (au
sens de l’inclusion) de E contenant A.
Remarque 3.4. Pour montrer que F est un sous-espace vectoriel de E, il suffit
d’écrire F sous la forme F = V ect(A) où A un sous-ensemble non vide de
E.
Exemple 3.5. Montrer que les ensembles
F1 = {(x, y, z) ∈ R3 , 2x − y + 2z = 0}
et
F2 = {(x, y, z) ∈ R3 , 2x − y + 2z = 0 et x − 2y + 3z = 0}
sont des sous-espaces vectoriels de R3 .
22

Définition 3.4. Soit E un K-espace vectoriel.


• On dit que la famille F = (ui )i∈I de vecteurs de E est une famille
génératrice de l’espace vectoriel E lorsque pour tout u élément de E,
il existe une partie finie J de I et une famille (λj )j∈J d’éléments de K,
telles que : X
u= λj .uj
j∈J

• On dit que la famille F = (ui )i∈I de vecteurs de E est une famille libre
(ou que les vecteurs ui , i ∈ I, sont linéairement indépendants) lorsque
pour toute partie finie J de I et pour toute famille (λj )j∈J d’éléments
de K, on a :
X
( λj .uj = 0E ) ⇒ (∀j ∈ J, λj = 0)
j∈J

Lorsque la famille n’est pas libre on dit qu’elle est liée ou que les vec-
teurs de la famille sont linéairement dépendants.
• On dit que la famille F = (ui )i∈I de vecteurs de E est une base de E
lorsque c’est une famille génératrice et libre de E.
Propriété 3.6. 1. Toute famille contenant une famille génératrice est généra-
trice.
2. Toute sous-famille d’une famille libre est libre.
3. Toute famille contenant une famille liée est liée.
4. Toute famille contenant le vecteur 0E est liée.
5. Une famille composée d’un seul vecteur est libre si, et seulement si ce vec-
teur n’est pas nul.

3.3 Somme de sous-espaces vectoriels

Définition 3.5. — Soient E un espace vectoriel, F et G deux sous-espaces


vectoriels de E. On appelle somme de F et G, et on note F + G, le
sous-espace vectoriel engendré par la famille des vecteurs de F ∪ G.
Autrement dit :
F + G = V ect(F ∪ G)
23

— On dit que deux sous-espaces vectoriels F et G de E sont en somme


directe si F ∩ G = {0}. On note alors F ⊕ G leur somme.
— On dit que deux sous-espaces vectoriels F et G de E sont supplémen-
taires dans E s’ils vérifient :
i. F + G = E
ii. F ∩ G = {0}.
La justification du terme « somme » et l’intérêt de cette notion résident
dans la proposition suivante.
Proposition 3.4. Soit E un espace vectoriel, F et G deux sous-espaces vecto-
riels de E. On a :
1. F + G = {u + v, u ∈ F, v ∈ G}.
2. Si F ∩ G = {0}, alors pour tout vecteur w dans F ⊕ G, il existe un unique
couple de vecteurs (u, v), tels que u ∈ F, v ∈ G et w = u + v.
En particulier si F ⊕ G = E (F et G sont supplémentaires) alors pour tout w
dans E il existe un unique couple de vecteurs (u, v), tels que u ∈ F, v ∈ G et
w = u + v.

3.4 Espaces vectoriels de dimension finie

Définition 3.6. On dit qu’un K-espace vectoriel E est de dimension finie lors-
qu’il admet une base constituée d’un nombre fini de vecteurs.
Théorème 3.7. Soit E un K-espace vectoriel de dimension finie. Alors toutes
les bases de E sont constituées d’un même nombre de vecteurs. Si n est ce
nombre il est appelé la dimension de E et on écrit dim(E) = n. On convient
que dim({0E }) = 0.
Les coordonnées d’un vecteur sont définies grâce au résultat suivant.
Proposition 3.5. Soit E un espace vectoriel de dimension n et (u1 , ..., un ) une
base de E. Pour tout x ∈ E, il existe un unique n-uplet (λ1 , ..., λn ) ∈ Kn tel
que
x = λ1 .x1 + λ2 .x2 + ... + λn .xn .
On dit que le vecteur x a pour coordonnées (λ1 , ..., λn ) dans la base (u1 , ..., un ).
24

Le résultat suivant donne le lien entre le cardinal d’une famille génératrice


ou libre et celui d’une base.
Proposition 3.6. Soit E un espace vectoriel de dimension n.
1. Toute famille libre de E comporte au plus n vecteurs. En particulier
toute famille libre de E de n vecteurs est une base.
2. Toute famille génératrice de E comporte au moins n vecteurs. En par-
ticulier toute famille génératrice de E de n vecteurs est une base.
3. Si B est une base quelconque de E,alors la famille de vecteurs {e1 , ..., en }
est une base de E si et seulement si detB (e1 , ..., en ) 6= 0.
Exercice 3.8. Sur l’espace vectoriel E des polynômes de degrés inférieurs ou
égaux à 3, on considère les polynômes : u1 = 1; u2 = X; u3 = X 2 ; u4 = X 3
puis v1 = 1; v2 = (1 + X); v3 = (1 + X + X 2 ); v4 = (1 + X + X 2 + X 3 ).
1. Montrer que B1 = (u1 , u2 , u3 , u4 ) et B2 = (v1 , v2 , v3 , v4 ) sont des bases de
E.
2. Exprimer les coordonnées des vecteurs u1 ; u2 ; u3 ; u4 dans la base B2 .
Théorème 3.9. (Théorème de la base incomplète)
Soit E un espace vectoriel de dimension n. Toute famille libre de E peut être
complétée en une base de E.
Exercice 3.10. Soit E un espace vectoriel de dimension finie, F un sous-
espace vectoriel de E.
1. Montrer que F est de dimension finie et que dim(F ) ≤ dim(E).
2. Montrer que si dim(F ) = dim(E) alors E = F .
Proposition 3.7. Soit E un espace vectoriel de dimension finie, F et G deux
sous-espaces vectoriels de E. On a :
1.
dim(F + G) = dimF + dimG − dim(F ∩ G).
En particulier,
dim(F ⊕ G) = dimF + dimG.
2. F et G sont supplémentaires dans E si et seulement si

F ∩ G = {0} et dimE = dimF + dimG.


25

Définition 3.7. Soit E un espace vectoriel de dimension finie, F un sous-


espace vectoriel de E.
• Le sous-espace vectoriel F est appelé droite vectorielle si dim(F ) = 1.
• Le sous-espace vectoriel F est appelé plan vectoriel si dim(F ) = 2.
• Lorque n ≥ 1, Le sous-espace vectoriel F est appelé hyperplan vecto-
riel si dim(F ) = n − 1.

3.5 Changement de base

Soit E un espace vectoriel de dimension finie. Pour travailler dans cet es-
pace vectoriel, on utilise souvent une base et les coordonnées des vecteurs
dans cette base. Mais il arrive des moments où l’on souhaite changer de base.
Cette section aborde l’effet d’un changement de base sur les coordonnées des
vecteurs.
Définition 3.8. Soit E un K-espace vectoriel de dimension finie n, B = (e1 , e2 , ..., en )
une base de E. Considérons une nouvelle base B0 = (e01 , ..., e0n ) formée des
vecteurs n
X
0
ej = αij ei , j = 1, ..., n.
i=1
On appelle matrice de passage de la base B à la base B0 , la matrice
PB,B0 = (αij ).
La matrice de passage a pour vecteurs colonnes les vecteurs de la nouvelle
base (exprimés à l’aide de leurs composantes dans l’ancienne base). Notons
que la matrice de passage est inversible car ses n vecteurs colonnes forment
une base de E.
Proposition 3.8. Soit E un K-espace vectoriel de dimension finie n, B =
(e1 , e2 , ..., en ) et B0 
= (e01 ,..., e0n ) deuxbasesde E. Soit u un vecteur de E de
x1 x01
coordonnées X =  ...  et X 0 =  ...  respectivement dans les bases
   

xn x0n
B et B0 .On a :
X = PB,B0 X 0 ou encore X 0 = (PB,B0 )−1 X.
26

3.6 Rang d’une famille de vecteurs

Définition 3.9. Soit E un K-espace vectoriel et F une famille finie constituée


de p vecteurs u1 , u2 , ..., up de E. On appelle rang de F, et l’on note rg(F), la
dimension du sous-espace vectoriel engendré par F.

Remarque 3.11. Déterminer le rang d’une famille finie F revient à extraire


de F la plus grande (au sens de l’inclusion) sous-famille libre dans E. Le rang
de F est alors le cardinal de cette sous-famille libre maximale. Par conséquent
rg(F) ≤ Card(F). Par ailleurs si E est de dimension finie il est évident que
rg(F) ≤ dim(E).

On a donc le résultat suivant :

Proposition 3.9. Soit E un K-espace vectoriel et F une famille finie constituée


de p vecteurs u1 , u2 , ..., up de E. Alors
— rg(F) ≤ p.
— Si de plus E est de dimension finie n, on a : rg(F) ≤ min{n, p}.

Exercice 3.12. Dans R3 muni de sa structure usuelle de R− espace vectoriel,


quel est le rang des familles de vecteurs suivantes ?

F1 = {(1, −1, 1); (1, 0, −1); (1, 1, 0)}

F2 = {(3, 2, 1); (2, −1, 3); (1, 1, 0)}.


C HAPITRE QUATRE

A PPLICATIONS LINÉAIRES

Dans ce chapitre les espaces vectoriels considérés sont des K−espaces vec-
toriels (K = R ou C)

4.1 Définitions

Définition 4.1. Soient E et F deux espaces vectoriels et f une application de


E dans F . On dit que f est une application linéaire si
1. ∀u, v ∈ E, f (u + v) = f (u) + f (v)
2. ∀u ∈ E, ∀λ ∈ K, f (λu) = λf (u).
Une application linéaire est encore appelée morphisme d’espaces vectoriels.
Une application linéaire de E dans lui même est appelée un endomorphisme
de E et une application linéaire de E dans K est une forme linéaire sur E.
On note L(E, F ) l’ensemble des applications linéaires de E dans F . L’en-
semble des endomorphismes de E est noté L(E).

Remarque 4.1. Une application linéaire f de E dans F envoie nécessaire-


ment le vecteur nul de E sur le vecteur nul de F . Elle envoie l’opposé de u sur
l’opposé de f (u).

La proposition suivante se démontre aisément.

Proposition 4.1. Soient E et F deux espaces vectoriels et f une application


de E dans F . f est une application linéaire si et seulement si :

∀u, v ∈ E, ∀α, β ∈ K, f (αu + βv) = αf (u) + βf (v).

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021


28

Définition 4.2. Une application linéaire bijective de E sur F est appelée un


isomorphisme. Un endomorphisme bijectif de E est appelé un automorphisme
de E.
Exercice 4.2. 1. a) Montrer que l’application

f : R2 −→ R2
(x, y) 7−→ (x + y, 2x + 3y)

est un endomorphisme.
b) f est-elle un automorphisme ?
2. On considère l’espace des polynôme à coefficients réels noté R[X]. Montrer
que l’application

φ :R[X] −→ R
P 7−→ P (0)

est une forme linéaire.


Proposition 4.2. Soit E un espace vectoriel de dimension finie. Une applica-
tion linéaire f de E dans un espace vectoriel F est (entièrement) déterminée
dès que l’on connaît les images f (ei ) des vecteurs d’une base B = (e1 , ..., en )
de E. Autrement dit, pour tout espace vectoriel F et toute famille (u1 , ..., un )
de n vecteurs de F , il existe une unique application linéaire f : E −→ F telle
que f (ei ) = ui ; 1 ≤ i ≤ n.
Propriété 4.3. 1. Soient f et g deux applications linéaires de E dans F et
λ ∈ K. Alors :
- f + g est une application linéaire de E dans F.
- λf est une application linéaire de E dans F.
En conséquence l’ensemble L(E, F ) muni de l’addition et de la multiplication
par un scalaire est un espace vectoriel sur K.
2. La composée de deux applications linéaires est une application linéaire :

(f ∈ L(E, F ) et g ∈ L(F, G)) ⇒ g ◦ f ∈ L(E, G).

3. Si f ∈ L(E, F ) est un isomorphisme alors f −1 ∈ L(F, E) est un isomor-


phisme.
29

4. Si f ∈ L(E, F ) et g ∈ L(F, G)) sont des isomorphismes alors g ◦ f est un


isomorphisme et (g ◦ f )−1 = f −1 ◦ g −1 .

4.2 Matrice d’une application linéaire

Définition 4.3. Soit f : E −→ F une application linéaire, B = (e1 , ..., ep )


une base de E et B0 = (u1 , ..., un ) une base de F . Pour 1 ≤ j ≤ p, posons
n
X
f (ej ) = α1j u1 + ... + αnj un = αij ui
i=1

Alors la matrice A = [αij ] de type (n, p) est appelée matrice de l’application


linéaire f par rapport (ou relativement) aux bases B et B0 de E et F respec-
tivement. La matrice A est souvent notée MB,B0 (f ).
En particulier, si E = F on peut choisir B = B0 . Soit f un endomorphisme
de E. On appelle matrice associée à f relativement à B la matrice MB,B (f ).
On la note plus simplement MB (f ).

Exercice 4.4. Soit l’application linéaire

f: R3 −→ R2
(x, y, z) 7−→ (x − 2y + z, 4x − y + 3z).

1. Écrire la matrice de f relativement aux bases canoniques de R3 et R2 .


2. Montrer que B1 = {(1, −1, 1); (0, 2, −1); (0, 0, 3)} est une base de R3 .
3. Écrire la matrice de f relativement à la base B1 de R3 et à la base cano-
nique de R2 .

Proposition 4.3. Soient E et F deux espaces vectoriels de dimensions finies


et de bases respectives B et B0 . Soient f et g deux applications linéaires de E
dans F . Pour tous (α, β) ∈ K2 On a :

MB,B0 (αf + βg) = α.MB,B0 (f ) + β.MB,B0 (g)

.
30

Proposition 4.4. Soient E, F et G trois espaces vectoriels de dimensions finies


et de bases respectives B, B0 et B00 . Soient f et g deux applications linéaires
définies respectivement de E dans F et de F dans G. On a :

MB,B00 (g ◦ f ) = MB0,B00 (g) × MB,B0 (f ).

En particulier, si f est bijective on a :

MB0 ,B (f −1 ) = [MB,B0 (f )]−1 .

Proposition 4.5. Soit A une matrice de type (n, p) sur K. Il existe une unique
application linéaire de Kp dans Kn admettant A pour matrice associée re-
lativement aux bases canoniques. On dit qu’une telle application linéaire est
cononiquement associée à la matrice A.

4.3 Noyau et image d’une application linéaire

Le fait qu’une application linéaire respecte les combinaisons linéaires en-


traîne qu’elle respecte aussi les sous-espaces vectoriels, au sens suivant.

Proposition 4.6. Soient E et F deux espaces vectoriels, et f une application


linéaire de E dans F .
1. Soit A un sous-espace vectoriel de E. Alors
f (A) = {f (u), u ∈ A}, est un sous-espace vectoriel de F .
2. Soit B un sous-espace vectoriel de F . Alors
f −1 (B) = {u ∈ E, f (u) ∈ B}, est un sous-espace vectoriel de E.

Définition 4.4. Soient E, F deux espaces vectoriels et f une application li-


néaire de E dans F . On appelle
1. image de f et on note Im(f ) le sous-espace vectoriel de F :

Im(f ) = f (E) = {f (u), u ∈ E}.

2. noyau de f et on note Ker(f ) le sous-espace vectoriel de E :

Ker(f ) = f −1 ({0F }) = {u ∈ E, f (u) = 0F }.


31

Exercice 4.5. 1. Montrer que l’application

f : R3 −→ R2
(x, y, z) 7−→ (x + y − z, y − 2z)

est linéaire.
2. Déterminer Ker(f ) et Im(f ).

Définition 4.5. Soit E un espace vectoriel de dimension finie et f : E −→ F


une application linéaire. On appelle rang de l’application linéaire f , noté
rg(f ), la dimension de Im(f ) : rg(f ) = dimIm(f ).

Remarque 4.6. Il résulte de la proposition 4.6 que l’image de f est un sous-


espace vectoriel de F et que le noyau est un sous-espace vectoriel de E.

Proposition 4.7. Soit E un espace vectoriel de dimension finie et B = (e1 , ..., en )


une base de E. Soit f : E −→ F une application linéaire, alors

Im(f ) = V ect{f (e1 ), ..., f (en )}.

Proposition 4.8. Soit f : E −→ F une application linéaire.


1. f est injective si et seulement si Ker(f ) = {0E }.
2. f est surjective si et seulement si Im(f ) = F.

Exercice 4.7. Soit f : E −→ F une application linéaire. Montrer que


1. f est injective si et seulement si l’image par f d’une famille libre de E est
une famille libre de F .
2. f est surjective si et seulement si l’image par f d’une famille génératrice
de E est une famille génératrice de F .

En dimension finie, la dimension de l’espace de départ est la somme de la


dimension de l’image et de la dimension du noyau : c’est le théorème du rang.

Théorème 4.8. (Théorème du rang)


Soient E et F deux espaces vectoriels et f une application linéaire de E dans
F . Si E est de dimension finie, il en est de même pour Im(f ) et Ker(f ) et :

dim(E) = dim(Im(f )) + dim(Ker(f )).


32

Théorème 4.9. Soit E un espace vectoriel de dimension finie n. Un espace


vectoriel F est isomorphe à E si et seulement si dim(F ) = dim(E) = n.

Corollaire 4.10. Soit E un K− espace vectoriel de dimension finie n. Alors E


et Kn sont isomorphes.

Proposition 4.9. Soit f un endomorphisme de d’un espace vectoriel E de


dimension finie n. Les assertions suivantes sont équivalentes :
(a) f est injective.
(b) f est surjective.
(c) f est un automorphisme.
(d) det(Mf ) 6= 0 ; où Mf désigne la matrice de f dans une base quelconque
de E.

Exercice 4.11. Montrer que l’application

f : R3 −→ R3
(x, y, z) 7−→ (x − y, 2x + y + z, y − z)

est un automorphisme.

4.4 Effet d’un changement de base pour une application li-


néaire

Théorème 4.12. Soit E un espace vectoriel muni des bases B et C, F un


espace vectoriel muni des bases B0 et C0 et f une application linéaire de E
dans F . Alors on a :

MC,C0 (f ) = (PB0 ,C0 )−1 × MB,B0 (f ) × PB,C .

Corollaire 4.13. Soit E un espace vectoriel muni des bases B et C, et f un


endomorphisme de E. Alors on a :

MC (f ) = (PB,C )−1 × MB (f ) × PB,C .


33

4.5 Endomorphisme particuliers

Étant donné un endomorphisme f d’un espace vectoriel E, on convient de


noter, pour tout entier naturel k non nul

f k =: f ◦ f ◦ ... ◦ f .
| {z }
kf ois

Définition 4.6. Soit E un K− espace vectoriel. Un endomorphisme f de E


est dit nilpotent si
∃k ∈ N∗ , f k ≡ 0
c’est-à-dire s’il existe un entier naturel k non nul tel que

∀x ∈ E, f k (x) = 0E .

Si f est nilpotent, son indice de nilpotence est l’entier p défini par

p = min{k ∈ N∗ , f k ≡ 0}.

Définition 4.7. Soit E un K− espace vectoriel.


1. Un endomorphisme p de E est un projecteur de E si p ◦ p = p (c’est-à-
dire si et seulement si p est idempotent).
2. Un endomorphisme s de E est une symétrie de E si s ◦ s = IdE (c’est-
à-dire si et seulement si s est involutive).

Exercice 4.14. Soit E un K− espace vectoriel.


1. Montrer que si p est un projecteur de E alors 2p − IdE est une symétrie de
E.
2. Montrer que si s est une symétrie de E alors 12 (s + IdE ) est un projecteur
de E.
Bibliographie

Algèbre linéaire Raymond HOUNNONKPE c MI-FAST 2021

Vous aimerez peut-être aussi