Vous êtes sur la page 1sur 40

Notes de cours d’algèbre linéaire.

L1, algèbre 1.

Anne Beaulieu

Année 2008–2009
2
Table des matières

1 Résolution des systèmes linéaires. 5


1.1 Exemples élémentaires (à coefficients réels). . . . . . . . . . . . . . . . . . . . . . 5
1.2 Systèmes à n lignes et p colonnes, systèmes échelonnés. . . . . . . . . . . . . . . . 6
1.3 Résolution des systèmes échelonnés. . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4 Algorithme du pivot de Gauss. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.5 Principes à retenir, pour la résolution des systèmes linéaires. . . . . . . . . . . . 11
1.6 Structure de l’ensemble des solutions d’un système linéaire. . . . . . . . . . . . . 12

2 Espaces vectoriels sur R ou C. 15


2.1 Rappel : les vecteurs du plan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2 Espaces vectoriels sur R ou C. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3 Sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.4 Intersection de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . . . . . . 19
2.5 Somme d’un nombre fini de sous-espaces vectoriels. . . . . . . . . . . . . . . . . . 20
2.6 Somme directe de deux sous-espaces vectoriels. . . . . . . . . . . . . . . . . . . . 21
2.7 Sous-espace vectoriel engendré par une famille de vecteurs. . . . . . . . . . . . . 22
2.8 Dépendance et indépendance linéaire. . . . . . . . . . . . . . . . . . . . . . . . . 24
2.9 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

3 Espaces vectoriels sur R ou C de dimension finie. 27


3.1 Définition d’un espace vectoriel de dimension finie. Exemple d’un espace vectoriel
de dimension infinie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2 Théorème de la base incomplète. Existence des bases. . . . . . . . . . . . . . . . 27
3.3 Notion de dimension d’un espace vectoriel. . . . . . . . . . . . . . . . . . . . . . . 28
3.4 Sous-espaces vectoriels en dimension finie. . . . . . . . . . . . . . . . . . . . . . . 29
3.5 Rang d’une famille de vecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6 Sous-espaces vectoriels de Kp . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6.1 Passage d’une partie génératrice à une base ; calcul du rang. . . . . . . . . 31
3.6.2 Passage d’une base à un système d’équations cartésiennes. . . . . . . . . . 33

4 Applications linéaires. 35
4.1 Définitions et exemples. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.2 Image et noyau. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3 Application linéaire injective. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.4 Cas où l’espace vectoriel de départ est de dimension finie, image d’une partie
génératrice. Rang d’une application linéaire. . . . . . . . . . . . . . . . . . . . . . 38
4.5 Isomorphismes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.6 Exemples : projections vectorielles, symétries vectorielles. . . . . . . . . . . . . . 40

3
4 TABLE DES MATIÈRES
Chapitre 1

Résolution des systèmes linéaires.

Dans tout ce cours, le symbole K désigne R ou C, appelé corps des scalaires.

1.1 Exemples élémentaires (à coefficients réels).


Premier exemple. On veut trouver les couples de réels (x, y) qui satisfont les deux équations
du système
½
2x + 3y = 7 (L1 )
(S1 )
x−y = 1 (L2 )

Par exemple on retranche 2(L2 ) à (L1 ). On obtient le système


½
0 5y = 5 (L01 )
(S1 )
x − y = 1 (L02 )

qui a le même ensemble de solutions que (S1 ). En effet, on retrouve (S1 ) à partir de (S10 ) en
faisant ½
(L01 ) + 2(L02 )
(L02 )
La ligne (L01 ) est équivalente à y = 1. On reporte dans la deuxième équation, on trouve x = 2.
On conclut que (S1 ) a une solution et une seule : (x, y) = (2, 1).

Deuxième exemple.
½
2x − 2y = 10 (L1 )
(S2 )
x−y = 1 (L2 )

On retranche 2(L2 ) à (L1 ). On obtient le système


½
0 0 = 8 (L01 )
(S2 )
x − y = 1 (L02 ).

On remarque que le système (S2 ) peut être retrouvé à partir du système (S20 ) car

(L1 ) = (L01 ) + 2(L02 ).

Les systèmes (S2 ) et (S20 ) ont donc le même ensemble de solutions. La première ligne (L01 ) n’est
jamais réalisée. On conclut que le système (S2 ) n’a aucune solution.

5
6 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

Troisième exemple.
½
2x − 2y = 8 (L1 )
(S3 )
x−y = 4 (L2 ).

La première ligne est égale à deux fois la seconde. On conclut que le système (S3 ) est équivalent

(S 0 3) x=y+4

L’ensemble des couples (x, y) qui vérifient l’équation (S30 ) est

{(y + 4, y); y ∈ R}.

Le système (S3 ) a donc une infinité de solutions. On dit qu’on a pris y comme paramètre.
Remarquons qu’au lieu de prendre y comme paramètre, on peut prendre x. Le même ensemble
de solutions s‘écrit donc aussi
{(x, x − 4); x ∈ R}.

1.2 Systèmes à n lignes et p colonnes, systèmes échelonnés.


Définition 1.2.1 Soient p et n dans N∗ . On appelle système linéaire à n équations et p incon-
nues à coefficients dans K tout système d’équations qui s’écrit


 a1,1 x1 + ... + a1,j xj + ... + a1,p xp = b1


 ................
(S) ai,1 x1 + ... + ai,j xj + ... + ai,p xp = bi



 ................

an,1 x1 + ... + an,j xj + ... + an,p xp = bn

où ai,j ∈ K, 1 ≤ i ≤ n, 1 ≤ j ≤ p et bi ∈ K. On appelle matrice associée au système (S) le


tableau de nombres  
a1,1 a1,2 ... a1,p
 a2,1 a2,2 ... a2,p 
A=  .......


an,1 an,2 ... an,p
On note A = (ai,j ) On dit que A est une matrice à n lignes et p colonnes à coefficients
1≤i≤n
1≤j≤p
dans K.
On notera toujours par i l’indice de ligne (premier indice) et par j l’indice de colonne (deuxième
indice).
Exemple : Le système (S1 ) a pour matrice
µ ¶
2 3
A= .
1 −1

Définition 1.2.2 Si b1 = ... = bn = 0, on dit que le système est homogène. Le système



 a1,1 x1 + ... + a1,j xj + ... + a1,p xp = 0
(S0 ) ..............

an,1 x1 + ... + an,j xj + ... + an,p xp = 0

est appelé le système homogène associé à (S) (on dit aussi le système sans second membre).
1.2. SYSTÈMES À N LIGNES ET P COLONNES, SYSTÈMES ÉCHELONNÉS. 7

Exemple : Le système homogène associé à (S1 ) est


½
2x + 3y = 0
x−y =0

Définition 1.2.3 On appelle solution de (S) tout n-uplet (u1 , ..., un ) de K n tel que

 a1,1 u1 + ... + a1,p up = b1
...........

an,1 u1 + ... + an,p up = bn

Définition 1.2.4 Deux systèmes (S1 ) et (S2 ) sont équivalents s’ils ont le même ensemble de
solutions, c’est à dire si toute solution de (S1 ) est solution de (S2 ) et vice-versa.
½ ½
x1 =2 x1 + x2 = 0
Exemple : Les systèmes : et
x1 − x2 = 4 x1 − x2 = 4
sont équivalents car chacun d’eux a pour unique solution (2, −2).

Définition 1.2.5 On dit qu’un système n × p est carré si n = p. La matrice du système est
alors dite matrice carrée. On dit qu’un système carré est triangulaire inférieur si ai,j = 0 pour
tout couple (i, j) tel que i < j. On dit qu’un système carré est triangulaire supérieur si ai,j = 0
pour tout couple (i, j) tel que i > j.

Exemple : Le système suivant est triangulaire supérieur




 x1 +2x2 −x3 =2

x2 +x3 −x4 =0

 x3 −x4 =5

x4 =3

On dit que la diagonale est non nulle si tous les termes diagonaux sont non nuls. Le système
ci-dessus est triangulaire supérieur à diagonale non nulle. La matrice du système est dite matrice
triangulaire supérieure à diagonale non nulle.

Définition 1.2.6 On dit qu’un système n × p est échelonné s’il est de la forme


 a1,j1 xj1 + ....................... + a1,p xp = b1

 a2,j2 xj2 + ............. + a2,p xp = b2



 a3,j3 xj3 + .......... + a3,p xp = b3



..............
(S)

 ak,jk xjk + .... + ak,p xp = bk



 0 = bk+1



 ....

0 = bn

où 1 ≤ j1 < j2 < ... < jk ≤ p, 1 ≤ k ≤ n et tous les am,jm sont non nuls, m = 1....k. Les
k premières équations sont appelées les équations principales et les inconnues xj1 ,...,xjk sont
appelées les inconnues principales.
Exemple : Le système 3 × 5 suivant est échelonné.

 x1 − x2 + +x4 + 2x5 = 0
−x3 + x4 − x5 = 0

0 =1
8 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

Remarque : Tout système triangulaire supérieur de taille n × n à diagonale non nulle est
échelonné avec k = n et ji = i pour i = 1...n. Si un système carré est échelonné alors il est :
soit triangulaire supérieur à diagonale non nulle, soit triangulaire supérieur avec certains termes
diagonaux nuls. Dans ce dernier cas, la ou les dernière lignes ont leurs premiers membres nuls.
Exemple : Le système carré 4 × 4 suivant


 x1 +2x2 −x3 =2

x3 −x4 = 0

 x4 = 5

0 =3
est échelonné, triangulaire avec des termes diagonaux nuls. Le premier membre de sa dernière
ligne est nul.

1.3 Résolution des systèmes échelonnés.


Proposition 1.3.1 Soit (S) un système triangulaire supérieur n × n à diagonale non nulle.
Alors (S) a une solution unique obtenue par la méthode de la remontée.
bn bn−1 −an−1,n xn b1 −a1,2 x2 ....−a1,p xp
Preuve : xn = ap,p , xn−1 = an−1,n−1 , ...., x1 = a1,1 .
Remarque : Les systèmes triangulaires inférieurs à diagonale non nulle peuvent être résolus
par la méthode de la descente.
Proposition 1.3.2 Soit (S) le système échelonné p × n de la définition 1.2.6. Supposons k < n.
Alors
(i) Si l’un des bj , j ∈ {k + 1, ..., n} est non nul, S n’a pas de solution.
(ii) Si bk+1 = ... = bn = 0, alors S est équivalent à


 a1,j1 xj1 + ....................... + a1,p xp = b1


 a2,j2 xj2 + ............. + a2,p xp = b2
(Σ) a3,j3 xj3 + .......... + a3,p xp = b3



 ..............

ak,jk xjk + .... + ak,p xp = bk
où 1 ≤ j1 < j2 ... < jk ≤ p et a1,j1 6= 0 ,...., ak,jk 6= 0. Alors on a deux cas. Le premier cas est k =
p (autant d’équations que d’inconnues pour (Σ)), alors (Σ) est un système triangulaire supérieur
à diagonale non nulle, il a une solution unique. Le second cas est k < p (plus d’inconnues que
d’équations pour (Σ), on prend les inconnues non principales comme paramètres. On obtient
une infinité de solutions, par la méthode de la remontée.
Remarque : Si k = n, on est placé directement dans la situation (ii).
Exemples : 1) Cas (i). Le système 4 × 5


 x1 + 2x2 x5 = 1

x2 +2x4 − x5 = 2

 x5 = 6

0 =8
n’a pas de solutions.
2) Cas (ii). Le système 4 × 5


 x1 + 2x2 − x3 +x5 =1

x2 + +x4 −x5 =2

 x5 =6

0 =0
1.4. ALGORITHME DU PIVOT DE GAUSS. 9

a pour inconnues principales x1 , x2 , x5 . On prend x3 et x4 comme paramètres. On passe x3 et


x4 dans le second membre. On est ramené à un système triangulaire supérieur à diagonale non
nulle. Par la méthode de la remontée, on trouve

 x5 = 6
x2 = −x4 + 6 + 2 = −x4 + 8

x1 = x3 + 2x4 − 16 − 6 + 1 = x3 + 2x4 − 21

Le système a donc une infinité de solutions. L’ensemble des solutions est

{(x3 + 2x4 − 21, −x4 + 8, x3 , x4 , 6); x3 ∈ R, x4 ∈ R}.

1.4 Algorithme du pivot de Gauss.


L’algorithme du pivot de Gauss sert à transformer n’importe quel système en un système
échelonné équivalent, à l’aide de transformations élémentaires.
Les transformations élémentaires sont :
(1) échange de deux lignes du système ;
(2) multiplication d’une ligne par un scalaire non nul ;
(3) ajout d’une ligne à une autre ligne.
Proposition 1.4.1 Quand on transforme un système en un autre par une succession d’opérations
élémentaires, on obtient un système équivalent au premier. (Autrement dit, transformer un
système par une succession d’opérations élémentaires ne change pas l’ensemble des solutions.)
Preuve : Pour l’opération (1), c’est évident. Pour l’opération (2) : on passe de la ligne (Li ) :
ai,1 x1 + ... + ai,p xp = bi à la ligne (L0i ) : αai,1 x1 + ... + αai,p xp = αbi en multipliant par le
scalaire non nul α. Alors on passe de (L0i ) à (Li ) en multipliant par α1 . Pour l’opération (3) : On
remplace la ligne (Li ) par la ligne (Li ) + (Lj ),notée (L0i ), les autres lignes restant inchangées.
Dans le système initial les lignes numéros i et j sont
½
ai,1 x1 + .... + ai,p xp = bi (Li )
aj,1 x1 + .... + aj,p xp = bj (Lj )

Dans le système obtenu les lignes numéros i et j sont


½
(ai,1 + aj,1 )x1 +.... +(ai,p + aj,p )xp = bi + bj (L0i )
aj,1 x1 +.... +aj,p xp = bj (L0j )

Pour retrouver le système initial, on remplace la ligne (L0i ) par (L0i ) − (L0j ).
Théorème 1.4.2 Tout système est équivalent à un système échelonné.
La démonstration repose sur l’algorithme du pivot de Gauss. Montrons-le sur un exemple.
Soit le système 
 x1 +2x2 −x4 = 1 (L1 )
2x1 +3x2 +x3 +x4 = 2 (L2 )

x1 −x3 −x4 = 0 (L3 )
La première équation est prise comme pivot et reste inchangée. On remplace les deux dernières
lignes en leur retranchant un multiple de la première ligne, de manière à supprimer l’inconnue
x1 . On obtient le système équivalent suivant :

 x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ) = (L2 ) − 2(L1 )

−2x2 −x3 = −1 (L03 ) = (L3 ) − (L1 )
10 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

On réitère le procédé pour le système 2 × 3 formé par la deuxième et la troisième équation. La


deuxième équation est prise comme pivot.

 x1 +2x2 −x4 = 1 (L01 )
−x2 +x3 +3x4 = 0 (L02 ))

−3x3 −6x4 = −1 (L03 ) − 2(L02 )

On a obtenu un système échelonné. Les inconnues principales sont x1 , x2 , x3 . On a une inconnue


non principale : x4 . On la prend comme paramètre, puis on utilise la méthode de la remontée.

 x3 = −2x4 + 31
x2 = −2x4 + 13 + 3x4 = x4 + 31

x1 = 1 + x4 − 2(x4 + 13 ) = −x4 + 31

L’ensemble des solutions est


1 1 1
{(−x4 + , x4 + , −2x4 + ); x4 ∈ R}.
3 3 3
Remarquons qu’on peut présenter l’algorithme du pivot de Gauss sous une forme matricielle.
On fait alors une succession d’opérations élémentaires sur les lignes de la matrice du système,
sans oublier de faire simultanément les mêmes opérations sur le second membre. Dans le cas de
l’exemple ci-dessus,    
1 2 0 −1 1
la matrice du système est  2 3 1 1  et le second membre est  2 .
1 0 −1 −1 0
En prenant la première ligne comme pivot, on obtient d’abord la matrice et le second membre :

   
1 2 0 −1 1
 0 −1 1 3  et  0  .
0 −2 −1 0 −1
En réitérant le procédé, on obtient la matrice et le second membre :
   
1 2 0 −1 1
 0 −1 1 3  et  0  .
0 0 −3 −6 −1
Algorithme du pivot de Gauss dans le cas général.
Soit (S) un système n × p de matrice A non nulle. Soit j1 l’indice de la première colonne non
nulle.
Première étape. On permute éventuellement des lignes pour se ramener à a1,j1 6= 0. Après
cette permutation éventuelle, (S) est remplacé par un système équivalent, de matrice
 
0 ...0 a1,j1 ......
 .. .. 
A= . . 
0 .....0 an,j1 .......

On permute de la même manière les lignes du second membre.


Deuxième étape. On fait apparaı̂tre des 0 dans la colonne j1 , sous le coefficient a1,j1 . Pour
cela, on remplace la ligne (Li ), i = 2, ..., p, par
ai,j1
(L0i ) = (Li ) − (L1 ).
a1,j1
1.5. PRINCIPES À RETENIR, POUR LA RÉSOLUTION DES SYSTÈMES LINÉAIRES. 11

On n’oublie pas de faire simultanément les mêmes opérations élémentaires sur le second membre
du système. Après ces p opérations élémentaires, on obtient le système de matrice
 
0 ...0 a1,j1 ∗ ...∗
 .. 
 . 0 ∗ ...∗ 
0 .....0 0 ∗ ...∗
On recommence ces deux étapes pour le système (n − 1) × p constitué par les lignes numéros
2 à p du système obtenu à la fin de la première étape. L’algorithme s’arrête au bout d’au plus
n − 1 itérations, ou quand la matrice du sous-système obtenu a toutes ses lignes nulles.
L’algorithme est programmable et permet de résoudre des systèmes linéaires, même de très
grandes dimensions, par ordinateur.

1.5 Principes à retenir, pour la résolution des systèmes linéaires.


Pour résoudre un système linéaire, on le transforme en un système équivalent et on réitère le
procédé jusqu’à obtenir l’ensemble des solutions. Il y a deux procédés qui permettent de passer
d’un système donné à un système équivalent.
Premier procédé pour obtenir un système équivalent : la substitution. On se sert
de l’une des équations pour calculer l’une des inconnues en fonction des autres. Ensuite on
écrit un nouveau système équivalent au premier en gardant l’équation qui vient de servir et en
remplaçant, dans toutes les autres équations, l’inconnue qu’on a calculée par son expression en
fonction des autres. (Remarquons que le nombre d’équations reste le même).
Deuxième procédé pour obtenir un système équivalent : les opérations élémentaires.
On multiplie plusieurs équations par des nombres non nuls puis on les ajoute membre à membre.
Ensuite on écrit un nouveau système équivalent au premier en remplaçant l’une des équations
qu’on vient d’utiliser par celle qu’on a obtenue et en gardant toutes les autres. (Là aussi, on
remarque que le nombre d’équations reste le même).
Toute méthode de résolution qui utilise successivement l’un ou l’autre de ces deux procédés
est juste. La méthode du pivot de Gauss permet à coup sûr de trouver un système échelonné
équivalent au système donné en procédant par opérations élémentaires. La résolution par la
méthode de la remontée est un procédé de substitutions réitérées.
Dans la pratique courante (sans machine !) la méthode du pivot n’est pas toujours la méthode
la plus rapide, il se peut qu’on ait intérêt à procéder par substitutions.
Exemple : 
 2x1 −x2 +x3 = 4 (L1 )
x1 −x3 = 0 (L2 )

x2 +x3 = 0 (L3 )
Résolution
 par la méthode du pivot de Gauss : 
 2x 1 −x2 +x3 =4  2x1 −x2 +x3 = 4
x2 −3x3 = −4 2(L2 ) − (L1 ) puis x2 −3x3 = −4
 
x2 +x3 = 0 +4x3 = 4 (L03 ) − (L02 )
Par la méthode de la remontée on obtient la solution unique :

 x3 = 1
x2 = −4 + 3 = −1

x1 = 1
Reprenons le même système et résolvons-le par substitution :

 x1 = x3 (L2 )
x2 = −x3 (L3 )

2x3 + x3 + x3 = 4 (on substitue x3 à x1 et −x3 à x2 dans (L1 ))
12 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.

On retrouve la solution unique (1, −1, 1).

1.6 Structure de l’ensemble des solutions d’un système linéaire.


Présentation de l’ensemble des solutions. Exemple. Soit le système 3 × 4 à coefficients
dans R : 
 x1 −2x2 +x3 −x4 = 2 (L1 )
−x2 +x4 = 0 (L2 )

x3 +x4 = 1 (L3 )
C’est un système échelonné. On prend x4 comme paramètre et x1 , x2 , x3 comme inconnues
principales..

 x3 = −x4 + 1 (L3 )
x2 = x4 (L2 )

x1 = 2 + 2x4 + x4 − 1 + x4 (on substitue x4 à x2 et −x4 + 1 à x3 dans (L1 ))

 
x1 
 x1 = 4x4 + 1
 x2  
x2 = x4
L’ensemble des solutions est l’ensemble des quatre-uplets de réels  
 x3  qui vérifient :  x3 = −x4 + 1


x4 x =x .
       4 4
x1 x1 4 1
 x2   x2   1   0 
Ceci est équivalent à dire que la colonne       
 x3  est telle que :  x3  = x4  −1  +  1 

x4 x4 1 0.
On présente l’ensemble des solutions sous la forme :
   
4 1
 1   0 
E = {λ    
 −1  +  1  ; λ ∈ R}.
1 0

Proposition 1.6.1 Soit (S) un système linéaire et soit (S0 ) le système homogène associé.
Soient E et E0 leurs ensembles de solutions respectifs. Alors E0 n’est jamais l’ensemble vide,
car il contient toujours la solution nulle. De plus, la différence de deux éléments de E est un
élément de E0 et la somme d’un élément de E et d’un élément de E0 est un élément de E. On
a donc : soit E = ∅, soit E est l’ensemble de la somme des éléments de E0 et d’un élément
particulier de E.
Preuve : Si E = 6 ∅, soit (α1 , ..., αp ) une solution de (S). Si (x1 , ..., xp ) est une autre solution de
(S), alors la différence (x1 − α1 , ..., xp − αp ) est une solution de (S0 ). Pour le montrer, on écrit,
pour tout i = 1, ..., n, que la ligne numéro i du système (S) est vérifiée par (x1 , ..., xp ) et par
(α1 , ..., αp ). On a donc : ½
ai,1 x1 + ... + ai,p xp = bi
ai,1 α1 + ... + ai,p αp = bi
On soustrait membre à membre les deux équations ci-dessus, on obtient :

ai,1 (x1 − α1 ) + ... + ai,p (xp − αp ) = 0,

ce qui signifie que la ligne numéro i du système homogène (S0 ) est vérifiée par (x1 −α1 , ..., xp −αp ).
Ceci est vrai pour i = 1, ..., n, donc (x1 − α1 , ..., xp − αp ) est une solution du système homogène
(S0 ).
1.6. STRUCTURE DE L’ENSEMBLE DES SOLUTIONS D’UN SYSTÈME LINÉAIRE. 13

Réciproquement, on montre de la même manière que si (α1 , ..., αp ) est une solution de (S)
et si (β1 , ..., βp ) est une solution de (S0 ), alors (α1 + β1 , ..., αp + βp ) est une solution de (S).
 
1
 0 
Exemple. Dans l’exemple ci-dessus, remarquons que  
 1  est une solution de (S), obtenue
0
pour la valeur 0 du paramètre. D’après la proposition ci-dessus, les solutions de (S0 ) s’obtiennent
en retranchant cette solution particulière à toutes les solutions de (S). On a donc
 
4
 1 
E0 = {λ  
 −1  ; λ ∈ R}.
1

On dira que E0 est un sous-espace vectoriel de R4 .


14 CHAPITRE 1. RÉSOLUTION DES SYSTÈMES LINÉAIRES.
Chapitre 2

Espaces vectoriels sur R ou C.

2.1 Rappel : les vecteurs du plan.


On connaı̂t depuis le lycée ~u = (x, y).

Point de vue géométrique. Un vecteur du plan est un segment orienté. Plus précisémment,
c’est une classe d’équivalence de segments pour la relation :

[A, B] ∼ [A0 , B 0 ] ⇔ (AB) k (A0 B 0 ) et (AA0 ) k (BB 0 ).

Ou encore : les couples de points (A, B) et (A0 , B 0 ) définissent le même vecteur si et seulement
si le quadrilatère ABB 0 A0 est un parallélogramme.

Point de vue analytique. Un vecteur du plan est caractérisé par ses coordonnées x et y
suivant une base de vecteurs (~i, ~j) fixée une fois pour toutes.

Pour nous : un vecteur du plan sera un couple de réels, autrement dit un élément de R2 ,
~u = (x, y), qu’on notera soit en ligne, soit en colonne.
On sait déjà ajouter deux vecteurs du plan. u~1 = (x1 , y1 ), u~2 = (x2 , y2 ).

~u1 + ~u2 = (x1 + x2 , y1 + y2 ).

Comme la somme de deux vecteurs du plan est un vecteur du plan, on dit que l’addition est une
loi interne.
On sait multiplier un vecteur du plan par un nombre réel. Si λ est un nombre réel et si
~u = (x, y) est un vecteur du plan, on définit

λ~u = (λx, λy).

La multiplication est effectuée par un réel et non par un vecteur. On dit que la multiplication
par un réel est une loi externe.
On ne sait pas multiplier deux vecteurs du plan, ni diviser deux vecteurs du plan.
On peut combiner la multiplication par un réel et l’addition.
λ, µ ∈ R; λ~u1 + µ~u2 = (λx1 + µx2 , λy1 + µy2 ).
On dit qu’on a effectué une combinaison linéaire des deux vecteurs ~u1 et ~u2 avec les coefficients
λ et µ.
Lorsqu’il existe un réel λ tel que ~u = λ~v , ou tel que ~v = λ~u on dit que les vecteurs ~u et ~v
sont colinéaires. Dans le cas contraire, on dit qu’ils sont linéairement indépendants. Exemple :
(1, 0) et (0, 1) sont linéairement indépendants.
On peut définir aussi les vecteurs de l’espace comme les triplets de réels ~u = (x, y, z).

15
16 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

2.2 Espaces vectoriels sur R ou C.


On rappelle que K = R ou C est appelé le corps des scalaires.

Définition 2.2.1 Un espace vectoriel sur K est un ensemble non vide E qui est muni de deux
opérations : la somme et la multiplication par un scalaire. Ces deux opérations vérifient les
propriétés suivantes :
u, v ∈ E, u+v = v +u (l’addition est commutative). u, v, w ∈ E, u+(v +w) = (u+v)+w.
On notera u + v + w. (L’addition est associative).
Il existe e ∈ E tel que u + e = u pour tout u de E.
Pour tout u ∈ E, il existe u0 ∈ E tel que u + u0 = e.
u ∈ E, 1u = u.
u ∈ E, λ, µ ∈ K, (λ + µ)u = λu + µu
u ∈ E, λ, µ ∈ K, (λµ)u = λ(µu). (on notera λµu).
u, v ∈ E, λ ∈ K, λ(u + v) = λu + λv.
Tout élément de E s’appelle un vecteur. On pourrait noter ~u, on notera u.
Remarques : Ce n’est pas la nature des éléments de E qui fait que E est appelé un espace
vectoriel, mais ce sont les opérations qu’on peut effectuer sur les éléments de E et les propriétés
de ces opérations.
L’addition est une loi interne. Les quatre premières propriétés sont des propriétés de l’addi-
tion seulement. On dit que (E, +) est un groupe abélien. L’élément e est appelé l’élément neutre
pour +. Les éléments u et u0 sont appelés des éléments symétriques pour +.
La multiplication par un scalaire est une loi externe. On n’a pas défini la multiplication de
deux éléments de E.
Montrons l’unicité de l’élément neutre pour l’addition. Soient e et e0 tels que pour tout u ∈ E,
e + u = u et e0 + u = u. alors e + e0 = e et e0 + e = e0 . Mais e + e0 = e0 + e donc e = e0 .
Pour u ∈ E, montrons l’unicité de l’élément symétrique de u pour l’addition. Soient u0 et v
tels que u + u0 = e et u + v = e. Alors v + (u + u0 ) = (v + u) + u0 = e + u0 = u0 . Mais on a aussi
v + (u + u0 ) = v + e = v. Donc v = u0 .
Notation : L’élément neutre pour l’addition, e, sera noté 0. On pourrait noter ~0, pour ne pas
le confondre avec le 0 de R ou C, mais on décide de ne pas mettre de flèches sur les vecteurs.
Attention : On prendra garde, tout au long du cours, à ne pas confondre le vecteur 0 (vecteur
nul) avec le scalaire 0. C’est le contexte qui nous permettra de reconnaı̂tre dans quels cas le
symbole 0 désigne le vecteur nul et dans quels cas il désigne le scalaire nul.
Montrons que si u, v, w ∈ E,

(u + w = v + w) ⇒ (u = v).

Il suffit d’ajouter le symétrique de w, w0 , de chaque côté.


Montrons que si u ∈ E,
0u = 0.
(Remarquons que le 0 à gauche du signe = est un scalaire et que le 0 à droite du signe = est un
élément de E).
0u + u = 0u + 1u = (0 + 1)u = 1u = u donc 0u + u + u0 = u + u0 d’où 0u + 0 = 0, d’où 0u = 0.
Montrons que si λ est un scalaire,
λ0 = 0.
(Remarquons que le 0 à gauche du signe = et le 0 à droite du signe = désignent tous deux le
vecteur nul).
λ0 + λ0 = λ(0 + 0) = λ0 = λ0 + 0 donc λ0 = 0.
2.2. ESPACES VECTORIELS SUR R OU C. 17

Montrons que si u ∈ E et λ ∈ K et si λu = 0, alors u = 0 (u est le vecteur nul), ou λ = 0 (λ


est le zéro de R ou C). Supposons λ 6= 0. Soit 1/λ son inverse dans R ou C. On a (1/λ)(λu) = 0
Or (1/λ)(λu) = ((1/λ)λ)u = 1u = u, donc u = 0. On a donc bien montré

(λu = 0) ⇒ (λ = 0 ou u = 0).

Le symétrique pour l’addition du vecteur u ∈ E, u0 , sera noté −u. On a u + (−1)u =


1u + (−1)u, donc u + (−1)u = (1 + (−1))u = 0u = 0. Donc

−u = (−1)u.

Exemples d’espaces vectoriels a) L’ensemble K lui même est un espace vectoriel sur K. On
prend comme opérations l’addition et la multiplication dans K. Toutes les propriétés ci-dessus
sont vérifiées.
b) C est un espace vectoriel sur C, d’après a). C’est aussi un espace vectoriel sur R, si on
prend les opérations suivantes : comme loi interne l’addition dans C et comme loi externe la
mutiplication d’un nombre complexe par un nombre réel. C’est à dire
a, b, a0 , b0 ∈ R, (a + ib) + (a0 + ib0 ) = (a + a0 ) + i(b + b0 ).
a, b, λ ∈ R, λ(a + ib) = λa + iλb.
c) Si n est un entier supérieur ou égal à 2, l’ensemble Rn des n−uplets de réels est un espace
vectoriel sur R. Pour n = 2, on trouve les vecteurs du plan étudiés au lycée, pour n = 3, on
trouve les vecteurs de l’espace. L’addition dans Rn est définie par :

(x1 , ..., xn ) + (y1 , ..., yn ) = (x1 + y1 , ..., xn + yn ).

La multiplication par un réel λ est définie par :

λ(x1 , ..., xn ) = (λx1 , ..., λxn ).

L’addition dans Rn est commutative, car l’addition dans R l’est. On vérifie facilement que
l’addition dans Rn est associative car l’addition dans R l’est. L’addition dans Rn a un élément
neutre qui est (0, ..., 0) car (x1 , ..., xn ) + (0, ..., 0) = (x1 + 0, ..., xn + 0) = (x1 , ..., xn ). Chaque
élément (x1 , ..., xn ) de Rn a un symétrique pour l’addition, qui est (−x1 , ..., −xn ). Donc (Rn , +)
est un groupe abélien.
De plus on a :
1(x1 , ..., xn ) = (1x1 , ..., 1xn ) = (x1 , ..., xn ).
Pour λ, µ ∈ R on a :

(λ + µ)(x1 , ..., xn ) = ((λ + µ)x1 , ..., (λ + µ)xn ) = (λx1 + µx1 , ..., λxn + µxn ) =
(λx1 , ..., λxn ) + (µx1 , ..., µxn ) = λ(x1 , ..., xn ) + µ(x1 , ..., xn ),

λ(µ(x1 , ..., xn )) = λ(µx1 , ..., µxn ) = (λµx1 , ..., λµxn ) = (λµ)(x1 , ..., xn )

et

λ((x1 , ..., xn ) + (y1 , ..., yn )) = λ(x1 + y1 , ..., xn + yn ) = (λ(x1 + y1 ), ..., λ(xn + yn )) =


(λx1 + λy1 , ..., λxn + λyn ) = (λx1 , ..., λxn ) + (λy1 , ..., λyn ) = λ(x1 , ..., xn ) + λ(y1 , ..., yn ).

d) L’ensemble des n−uplets de nombres complexes, Cn , est un espace vectoriel sur C. La


démonstration est identique à celle de c).
18 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

e) L’ensemble Cn est un espace vectoriel sur R pour la somme dans Cn et la multiplication


d’un élément de Cn par un nombre réel.

f) Soit I un intervalle de R. Soit F(I, R) l’ensemble des fonctions de I dans R. F(I, R) 6= ∅,


puisqu’il contient au moins la fonction identiquement nulle : x → 0. On le munit des opérations
définies par :
(f + g)(x) = f (x) + g(x),
λ ∈ R, (λf )(x) = λ(f (x)).
On a bien une loi interne et une multiplication par les scalaires. Vérifions les quatre propriétés de
la loi interne. La fonction identiquement nulle est élément neutre pour l’addition. Montrons que
l’addition dans F(I, R) est commutative. Par la définition de f +g on a : (f +g)(x) = f (x)+g(x).
Comme l’addition dans R est commutative, on a f (x) + g(x) = g(x) + f (x). Or par la définition
de la fonction g + f , on a g(x) + f (x) = (g + f )(x). On conclut que f + g = g + f . On peut
montrer de la même manière que l’addition dans F(I, R) est associative. Chaque élément f a un
symétrique pour l’addition qui est la fonction x → −f (x), qu’on notera −f . On a donc montré
que (F(I, R), +) est un groupe abélien.
On a :
(1f )(x) = 1(f (x)) = f (x), donc 1f = f .
On a

((λµ)f )(x) = (λµ)(f (x)) = λ(µf (x)) = λ((µf )(x)) = (λ(µf ))(x), donc (λµ)f = λ(µf ).
On a
((λ + µ)f )(x) = (λ + µ)(f (x)) = λ(f (x)) + µ(f (x)) = (λf )(x) + (µf )(x),
donc (λ + µ)f = λf + µf .
On a

(λ(f + g))(x) = λ((f + g)(x)) = λ(f (x) + g(x)) = λ(f (x)) + λ(g(x)) = (λf )(x) + (λg)(x) =
(λf + λg)(x),
donc λ(f + g) = (λf ) + (λg).
On a démontré que F(I, R) muni de l’addition et de la multiplication par un scalaire définies
ci-dessus est un espace vectoriel sur R.

2.3 Sous-espaces vectoriels.


Dans cette partie, E sera un espace vectoriel sur K.
Définition 2.3.1 Soient n ∈ N∗ , u1 , ..., un , v ∈ E, alors
(i) si il existe λ ∈ K tel que v = λu1 , on dit que v est colinéaire à u1 .
(ii) si n ≥ 2 et si il existe λ1 , ..., λn ∈ K tels que v = λ1 u1 + ... + λn un , on dit que le vecteur v
est une combinaison linéaire des vecteurs u1 , ..., un .
Remarque : Le vecteur nul est colinéaire à tout autre vecteur car
0 = 0u, pour tout u ∈ E.
(À gauche du signe=, le symbole 0 désigne le vecteur nul ; à droite du signe= le même symbole
désigne le scalaire nul.)
2.4. INTERSECTION DE SOUS-ESPACES VECTORIELS. 19

Définition 2.3.2 Soit F un sous-ensemble non vide de E. On dit que F est un sous-espace
vectoriel de E si
(i) Pour tous u, v ∈ F , u + v ∈ F ;
(ii) pour tous λ ∈ K, u ∈ F , λu ∈ F .

Proposition 2.3.3 On a l’équivalence des propositions suivantes :


(i) F est un sous-espace vectoriel de E ;
(ii) Pour tous λ, µ, éléments de K, et tous u, v, éléments de F , λu + µv appartient F .
Remarques : Si F est un sous-espace vectoriel de E, alors
a) le vecteur nul appartient à F . En effet, comme F 6= ∅, soit u ∈ F . Soit 0 ∈ K le scalaire
nul, on a 0u ∈ F . Or 0u est le vecteur nul, donc le vecteur nul appartient à F .
b) Si n ≥ 2 et si u1 , ..., un ∈ F , alors u1 + ... + un ∈ F . (Appelons (Pn ) la propriété ”si
u1 , ..., un sont n vecteurs de F , alors le vecteur u1 + ... + un appartient à F ”. Démontrons par
récurrence que (Pn ) est vraie pour tout n ≥ 2. La propriété (P2 ) est vraie, donc la propriété (Pn )
est initialisée à l’ordre 2. Montrons qu’elle est héréditaire à partir de l’ordre 2, c’est à dire que
pour n ≥ 2, ((Pn ) ⇒ (Pn+1 )). Soit n ≥ 2 tel que (Pn ) soit vraie. Montrons que (Pn+1 ) est vraie.
Prenons n + 1 vecteurs de F . On a u1 + ... + un+1 = (u1 + ... + un ) + un+1 . Or, par la propriété
(Pn ) on a u1 + ... + un ∈ F . Par la propriété (P2 ), on a donc que (u1 + ... + un ) + un+1 ∈ F . La
propriété (Pn ) est donc bien héréditaire à partir de l’ordre 2. Comme elle est aussi initialisée à
l’ordre 2, alors elle est vraie pour tout n ≥ 2, par le théorème de récurrence.)
c) Si n ≥ 2, toute combinaison linéaire de n vecteurs de F appartient à F . (C’est vrai pour
toute combinaison linéaire de deux vecteurs de F , puis on fait une démonstration par récurrence
sur le nombre de vecteurs).

Proposition 2.3.4 Tout sous-espace vectoriel de E est un espace vectoriel sur K.


Preuve : On prend comme addition dans F la loi interne de E. On prend comme loi externe sur
F la loi externe sur E. On a vu que le vecteur nul de E appartient à F . C’est l’élément neutre
pour l’addition dans F . Si u appartient à F , on sait que son symétrique pour l’addition est
(−1)u, donc il appartient à F . La commutativité et l’associativité de la loi interne sont vérifiées
dans F , car elles le sont dans E. Il en est de même des quatre dernières propriétés qui définissent
un espace vectoriel.
Exemples : a) Si E est un espace vectoriel sur K alors {0} est un sous-espace vectoriel de E
et E lui-même est un sous-espace vectoriel de E.

b) Soit n ∈ N, n ≥ 2 et soit l’espace vectoriel sur K Kn . Soit 1 ≤ p ≤ n. Alors

F = {(x1 , ..., xp , 0...0); xi ∈ K, i = 1, ..., p}

est un sous-espace vectoriel de Kn . On a (0, ..., 0) ∈ F , donc F 6= ∅. Si u = (x1 , ..., xp , 0, ...0) ∈ F


et si λ ∈ K, alors λu ∈ F car λu = (λx1 , ..., λxp , 0, ..., 0). Si v = (y1 , ..., yp , 0, ..., 0) ∈ F , alors
u + v ∈ F car u + v = (x1 + y1 , ..., xp + yp , 0, ..., 0).
c) Soit C ∞ (R) l’ensemble des fonctions indéfiniment dérivables de R dans R. C’est un sous-espace
vectoriel de l’espace vectoriel sur R F(R, R).

2.4 Intersection de sous-espaces vectoriels.


Proposition 2.4.1 Si (Fi )i∈I est une famille de sous-espaces vectoriels de E, alors ∩i∈I Fi est
un sous-espace vectoriel de E.
Preuve : 0 ∈ ∩i∈I Fi , donc ∩i∈I Fi 6= ∅. Si u, v ∈ ∩i∈I Fi et λ ∈ K, alors λu ∈ ∩i∈I Fi et
u + v ∈ ∩i∈I Fi .
20 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

Proposition 2.4.2 L’ensemble des solutions d’un système homogène n × p est un sous-espace
vectoriel de Kp .
Preuve : 0n rappelle qu’un système homogène n × p a n lignes et p inconnues et un second
membre nul.


 a1,1 x1 + ... + a1,p xp = 0


 ...
(S) ai,1 x1 + ... + ai,p xp = 0



 ...

an,1 x1 + ... + an,p xp = 0

Soit F1 l’ensemble des solutions de la première ligne, c’est à dire :

F1 = {(x1 , ..., xp ) ∈ Kp ; a1,1 x1 + ... + a1,p xp = 0}.

Montrons que F1 est un sous-espace vectoriel de Kp . D’abord F1 n’est pas vide car il contient
(0, ..., 0). Si λ ∈ K, (x1 , ..., xp ) ∈ F1 et (y1 , ..., yp ) ∈ F1 , alors on a
½
a1,1 x1 + ... + a1,p xp = 0
a1,1 y1 + ... + a1,p yp = 0

En sommant membre à membre on obtient :

a1,1 (x1 + y1 ) + ... + a1,p (xp + yp ) = 0,

ce qui montre que (x1 , ..., xp ) + (y1 , ..., yp ) ∈ F1 .


En multipliant la premıère ligne de (S) par λ on obtient

a1,1 (λx1 ) + ... + a1,p (λxp ) = 0,

ce qui montre que


λ(x1 , ..., xp ) ∈ F1 .
Donc F1 est un sous-espace vectoriel de Kp . Si n = 1, F1 est l’ensemble des solutions de (S). Si
n ≥ 2, on appelle Fi l’ensemble des solutions de la ième ligne du système (S), pour i = 2, ..., n.
La même démonstration que pour F1 montre que Fi est un sous-espace vectoriel de Kp , pour
i = 2, ..., n. Or l’ensemble des solutions de (S) est F1 ∩ ... ∩ Fn . C’est l’intersection d’une famille
finie de sous-espaces vectoriels de Kp , donc c’est un sous-espace vectoriel de Kp .

2.5 Somme d’un nombre fini de sous-espaces vectoriels.


Définition 2.5.1 Soient n ≥ 2 et F1 ,...,Fn des sous-espaces vectoriels de E. On appelle somme
des sous-espaces vectoriels F1 ,...,Fn , et on note F1 + ... + Fn l’ensemble défini par

F1 + ... + Fn = {u1 + ... + un ; u1 ∈ F1 , ..., un ∈ Fn }.

Proposition 2.5.2 F1 + ... + Fn est un sous-espace vectoriel de E.


Preuve : Soient u1 ∈ F1 , v1 ∈ F1 ,....,un ∈ Fn , vn ∈ Fn . Alors (u1 + ... + un ) + (v1 + .... + vn ) =
(u1 + v1 ) + ... + (un + vn ) ∈ F1 + ... + Fn . Si λ ∈ K, alors λ(u1 + ... + un ) = (λu1 ) + ... + (λun ) ∈
F1 + ... + Fn .
Exemple. Dans R2 . Soit F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R}. Ce sont des sous-
espaces vectoriels de R2 . On a F1 + F2 = {(λ, µ), λ ∈ R, µ ∈ R}. Donc F1 + F2 = R2 . Soit
F3 = {(λ, λ), λ ∈ R}. C’est un sous-espace vectoriel de R2 . Alors F1 + F2 + F3 = R2 .
2.6. SOMME DIRECTE DE DEUX SOUS-ESPACES VECTORIELS. 21

2.6 Somme directe de deux sous-espaces vectoriels.


Soient F et G deux sous-espaces vectoriels de E.

Définition 2.6.1 On dit que la somme F + G est une somme directe si tout vecteur de F + G
s’écrit de manière unique comme somme d’un vecteur de F et d’un vecteur de G.

Notation. Quand la somme est directe, on écrit F ⊕ G à la place de F + G.


Exemple. Dans l’exemple ci-dessus la somme F1 + F2 est directe.

Proposition 2.6.2 La somme F + G est directe si et seulement si F ∩ G = {0}.


Preuve : Supposons d’abord que la somme F +G est directe. Tout u de F +G s’écrit de manière
unique u = v + w, où v ∈ F et w ∈ G. Soit u ∈ F ∩ G. Le vecteur nul appartient à F + G et
on a d’une part 0 = 0 + 0 et d’autre part 0 = u + (−u). Or la décomposition de tout vecteur de
F + G comme somme d’un vecteur de F et d’un vecteur de G est unique, donc 0 = u.
Supposons maintenant que F ∩ G = {0}. Soit u ∈ F + G. Il existe v ∈ F et w ∈ G tels
que u = v + w. Montrons l’unicité de la décomposition. Soient v 0 ∈ F et w0 ∈ G tels que
u = v 0 + w0 . Alors en retranchant membre à membre les deux décompositions de u on obtient
0 = (u − u0 ) + (v − v 0 ), ce qui donne u − u0 = v 0 − v. Or u − u0 ∈ F et v 0 − v ∈ G. Donc
u − u0 ∈ F ∩ G et v 0 − v ∈ F ∩ G. On a donc u = u0 et v = v 0 .
Exercice Si F est un sous-espace vectoriel de E et si u ∈ E, u 6∈ F , alors la somme V ectu + F
est directe.

Définition 2.6.3 On dit que F et G sont supplémentaires si tout vecteur de E s’écrit de manière
unique comme somme d’un vecteur de F et d’un vecteur de G.
On note alors E = F ⊕ G.

Proposition 2.6.4 Soient F et G deux sous-espaces vectoriels de E. Alors ils sont supplémentaires
si et seulement si E = F + G et F ∩ G = {0}. (C’est un corollaire de la proposition précédente).
Exemples : a) Dans R2 F1 = {(λ, 0), λ ∈ R} et F2 = {(0, λ), λ ∈ R} sont des sous-espaces
vectoriels supplémentaires.
b) Soit G l’espace vectoriel des fonctions affines de R dans R : G = {x → ax + b, a ∈ R, b ∈ R}.
Alors G = G1 ⊕ G2 où G1 est le sous-espace vectoriel des fonctions constantes et G2 est le
sous-espace vectoriel des fonctions linéaires. On vérifie que G1 ∩ G2 = {0G }, où 0G désigne la
fonction constante x → 0.
c) Dans E = F(R, R), on définit

F = {f ∈ F(R, R), f paire} et G = {g ∈ F(R, R), f impaire}.

On vérifie d’abord (exercice) que F et G sont des sous-espaces vectoriels de F(R, R). Montrons
que F(R, R) = F ⊕ G. Prouvons d’abord que F ∩ G = {0}. Soit f ∈ F ∩ G. Alors f est à la fois
paire et impaire, donc pour tout x ∈ R on a f (−x) = f (x) et f (−x) = −f (x). Donc f (x) = 0
pour tout x ∈ R, ce qui prouve que F ∩ G = {0}. Prouvons maintenant que F(R, R) = F + G.
Soit h ∈ F(R, R). On écrit :
h(x)+h(−x) h(x)−h(−x)
h(x) = 2 + 2 .

Posons
h(x)+h(−x) h(x)−h(−x)
f (x) = 2 et g(x) = 2 .
22 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

Alors f est paire et g est impaire. On a donc bien F(R, R) = F + G et on conclut que
F(R, R) = F ⊕ G. Remarquons que pour trouver la décomposition d’une fonction h, on écrit a
priori h = f + g, avec f paire et g impaire, puis on calcule f et g en faisant h(x) = f (x) + g(x)
et h(−x) = f (x) − g(x).
d) Soit E comme dans l’exemple précédent, soit F le sous-espace vectoriel des fonctions qui
s’annulent en 0 et soit G le sous-espace vectoriel des fonctions constantes. Prouver que E = F ⊕G.

2.7 Sous-espace vectoriel engendré par une famille de vecteurs.


Soit S une partie non vide de E. On considère toutes les familles finies d’éléments de S et
on appelle F l’ensemble de toutes les combinaisons linéaires de toutes les parties finies de S.
Xn
F ={ λi si ; n ∈ N; λi ∈ K; si ∈ S, i = 1, ..., n}.
i=1

Proposition 2.7.1 L’ensemble F est un sous-espace vectoriel de E et c’est le plus petit sous-
espace vectoriel de E, pour l’inclusion, qui contient tous les vecteurs de la partie S.
Dire que F est le plus petit sous-espace vectoriel, pour l’inclusion, contenant S signifie que
si G est un autre sous-espace vectoriel de E qui contient S, alors F ⊂ G.
Preuve : Le fait que F est un sous-espace vectoriel de E est immédiat : la somme de deux
combinaisons linéaires de familles finies d’éléments de S est une combinaison linéaire de la
réunion de ces deux familles ( pour les mêmes coefficients) donc c’est encore une combinaison
linéaire finie d’éléments de S. La multiplication par un scalaire d’une combinaison linéaire finie
d’éléments de S est encore une combinaison linéaire finie des mêmes éléments de S (avec les
coefficients multipliés par λ). Donc F est un sous-espace vectoriel de E. Montrons que c’est le
plus petit sous-espace vectoriel, pour l’inclusion, qui contient S. Soit G un sous-espace vectoriel
de E qui contient la partie S. Alors G contient toutes les combinaisons linéaires finie d’éléments
de S (Voir Remarques c)), donc F ⊂ G.
Définition 2.7.2 On appelle F le sous-espace vectoriel de E engendré par la partie S. On dit
que S est une partie génératrice de F .

Notation : F = Vect S.
Cas particulier : si S a un nombre fini d’éléments, il existe p ∈ N et e1 , ..., ep des vecteurs de
E tels que S = {e1 , ..., ep }. Dans ce cas,
Xp
F ={ λi ei ; λ1 ∈ K, ..., λp ∈ K}.
i=1

Définition 2.7.3 Soit u ∈ E, u 6= 0 et soit S = {u}. Alors Vect S = {λu; λ ∈ K}. On dit alors
que Vect S est une droite vectorielle de E. C’est la droite vectorielle engendrée par le vecteur
non nul u.

Exemple. Si E = R2 . Soit e ∈ E, e 6= 0 et soit e0 ∈ E, e0 6∈ Vect {e}. On dessine Vect {e} dans


le plan R2 comme la droite passant par 0 de vecteur directeur e. On dessine Vect {e0 } comme une
droite passant par 0, différente de Vect {e}. Alors Vect {e, e0 } = {λe+µe0 , λ, µ ∈ K} est l’ensemble
des sommes des vecteurs de la droite vectorielle Vect {e} et des vecteurs de la droite vectorielle
Vect {e0 }. On construit la somme de deux vecteurs par la méthode du parallélogramme. On
constate sur la figure que Vect {e, e0 } = R2 .
Exemples. a) Soit E = F(R, R) le R-espace vectoriel des fonctions de R dans R. Soit S le
sous-ensemble de E constitué des monômes x → xk , k = 0, 1.... Le sous-espace vectoriel Vect S
2.7. SOUS-ESPACE VECTORIEL ENGENDRÉ PAR UNE FAMILLE DE VECTEURS. 23

est par définition l’ensemble de toutes les combinaisons linéaires d’un nombre fini de monômes.
On a donc
Vect S = {αn xn + .... + α0 ; n ∈ N; α0 , ..., αn ∈ R}.
Donc les éléments de Vect S sont des fonctions polynômes de R dans R, de tous les degrés
possibles, avec tous les coefficients réels possibles. Vect S est donc l’ensemble des fonctions po-
lynômes de R dans R.
b) Soit F = {(x, y, z) ∈ R3 ; 2x − y + z = 0}. On sait que F est un sous-espace vectoriel de
R3 (c’est l’ensemble des solutions d’un système homogène 1 × 3). Peut-on trouver une partie
de R3 qui engendre F ? On a un système échelonné, avec une seule inconnue principale et deux
paramètres.
      
 x=x x 1 0
(2x − y + z = 0) ⇔ (y = 2x + z) ⇔ y = 2x+ z ⇔  y  = x  2  + z  1  .

z= z z 0 1
On en déduit que F est l’ensemble des combinaisons linéaires des vecteurs (1, 2, 0) et (0, 1, 1).
Donc F est le sous espace vectoriel de R3 engendré par ces deux vecteurs. On dit aussi que
ces deux vecteurs constituent une partie génératrice de F . Remarquons qu’en montrant que
F = Vect {(1, 2, 0); (0, 1, 1)}, on a redémontré que F est un sous-espace vectoriel de R3 !

Proposition 2.7.4 F + G est le sous-espace vectoriel de E engendré par la partie F ∪ G.

Cela signifie que F + G est le plus petit sous-espace vectoriel, pour l’inclusion, qui contient
à la fois les éléments du sous-espace vectoriel F et ceux du sous-espace vectoriel G.
Preuve : Prouvons que F + G = Vect (F ∪ G). Prouvons d’abord que F + G ⊂ Vect (F ∪ G).
Soit u ∈ F et v ∈ G. Alors u + v est une combinaison linéaire de deux éléments de F ∪ G,
donc u + v ∈ Vect (F ∪ G). On a donc bien : F + G ⊂ Vect (F ∪ G). Montrons maintenant que
Vect (F ∪ G) ⊂ F + G. Soit w ∈ Vect (F ∪ G). Alors w est une combinaison linéaire d’un nombre
fini de vecteurs de F ∪ G. C’est à dire qu’il existe n, m ∈ N, il existe f1 ,...,fn ∈ F , il existe
g1 ,...,gm ∈ G, il existe λ1 ,...,λn ∈ K, il existe µ1 ,...,µm ∈ K tels que
n
X m
X
w= λi fi + µj gj .
i=1 j=1

Or la première somme est un vecteur de F et la deuxième est un vecteur de G. Donc w ∈ F + G.


On a donc bien Vect (F ∪ G) ⊂ F + G. Finalement : Vect (F ∪ G) = F + G. Remarquons que
cela redémontre que F + G est un sous-espace vectoriel de E.

Proposition 2.7.5 Si F est le sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp et
si G est le sous- espace vectoriel de E engendré par les vecteurs g1 ,...,gq , alors F + G est le
sous-espace vectoriel de E engendré par les vecteurs f1 ,...,fp , g1 ,...,gq . (la réunion des parties
génératrices est une partie génératrice de F + G. Ou encore V ect(X ∪ Y ) = V ectX + V ectY .)

Proposition 2.7.6 Soient g1 , ..., gq et f1 , ..., fp deux familles de vecteurs de E. Supposons que
pour tout i = 1, ..., q le vecteur gi s’écrive comme combinaison linéaire des vecteurs f1 , ..., fp .
Alors V ect{g1 , ..., gq } ⊂ V ect{f1 , ..., fp }. (Ou encore : si X ⊂ V ectY , alors V ectX ⊂ V ectY .)

Exercice résolu. Soit E = R3 , F = {(x, y, z) ∈ R3 , x + y = 0} et G = V ect{(1, 0, 0)}.


On sait que F est un sous-espace vectoriel de R3 (ensemble des solutions d’un système
homogène) et que G est un sous-espace vectoriel de R3 (sous-espace
L vectoriel engendré par un
vecteur non nul, appelé droite vectorielle.) Montrer que R3 = F G.
24 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

On va prouver d’abord que E = F + G. Cherchons une partie génératrice de F . On a

((x, y, z) ∈ F ) ⇔ (x = −y) ⇔ (x, y, z) = y(−1, 1, 0) + z(0, 0, 1).

Donc F est engendré par les deux vecteurs (−1, 1, 0) et (0, 0, 1). Alors F + G est le sous-espace
vectoriel de R3 engendré par la réunion des parties génératrices de F et de G. c’est à dire :

F + G = Vect {(−1, 1, 0); (0, 0, 1); (1, 0, 0)}

Montrons que tout vecteur de R3 appartient à F + G. Soit (x, y, z) ∈ R3 . On écrit

(x, y, z) = x(1, 0, 0) + y((−1, 1, 0) + (1, 0, 0)) + z(0, 0, 1),

donc
(x, y, z) = (x + y)(1, 0, 0) + y(−1, 1, 0) + z(0, 0, 1).
D’où R3 ⊂ F + G et donc R3 = F + G.
Montrons que F ∩ G = {0}. Si (x, y, z) ∈ F ∩ G, alors d’une part il existe λ ∈ R tel que
(x, y, z) = λ(1, 0, 0) , ce qui signifie que y = z = 0 et d’autre part x = −z. Donc x = y = z = 0.
Finalement R3 = F ⊕ G. Remarquons que pour trouver la décomposition d’un vecteur (x, y, z)
de R3 sur F et G, on peut écrire a priori (x, y, z) = α(1, 0, 0) + β(−1, 1, 0) + γ(0, 0, 1) et calculer
α, β et γ.

Attention : Ne pas confondre somme de deux sous-espaces vectoriels et réunion (F + G et


F ∪ G).
Ne pas confondre sous-espaces vectoriels supplémentaires et sous-ensembles complémentaires.

2.8 Dépendance et indépendance linéaire.


Définition 2.8.1 Soit n un entier positif et u1 ,...,un des vecteurs de E. Les vecteurs u1 ,..., un
sont dits linéairement indépendants si on a l’implication :

λ1 ,...,λn ∈ K,
(λ1 u1 + ... + λn un = 0) ⇒ (λ1 = ... = λn = 0).

Remarques : a) Cette implication signifie qu’il n’y a qu’une seule façon d’écrire le vecteur nul
comme une combinaison linéaire des vecteurs u1 ,...,un . Cette écriture est 0 = 0u1 + .. + 0un ,
dans laquelle tous les coefficients sont des scalaires nuls.
b) Si n = 1, l’implication devient (λ1 u1 = 0) ⇒ (λ1 = 0). Donc u1 est ”linéairement
indépendant” si et seulement si il est non nul.
c) Si n ∈ N∗, et si u1 ,...,un sont des vecteurs de E, alors 0, u1 ,...,un ne sont pas linéairement
indépendants. En effet, le vecteur nul s’écrit de plusieurs manières comme combinaison linéaire
des vecteurs 0, u1 ,...,un , car pour n’importe quel scalaire λ on a : 0 = λ0 + 0u1 + ... + 0u2 .
Exemples : a) Dans R2 les vecteurs (1, 0) et (0, 1) sont linéairement indépendants. En effet si
λ1 (1, 0) + λ2 (0, 1) = 0, alors (λ1 , λ2 ) = (0, 0) donc λ1 = λ2 = 0.
b) Dans R2 les vecteurs (0, 3) et (0, 1) ne sont pas linéairement indépendants. On a (0, 3) −
3(0, 1) = (0, 0), donc le vecteur nul s’écrit au moins de deux manières différente comme combi-
naison linéaire des vecteurs (0, 3) et (0, 1).
Vocabulaire. a) Si les vecteurs u1 ,...,un sont linéairement indépendants, on dit qu’ils forment
une famille libre. On dit aussi que {u1 , ..., un } est une partie libre. Sinon, on dit qu’ils forment
une famille liée.
b) Si la partie {u1 , ..., un } est liée, et si λ1 ,...,λn sont n scalaires non tous nuls tels que λ1 u1 +
2.9. BASES. 25

... + λn un = 0, on dit qu’on a une relation linéaire non triviale entre les vecteurs u1 ,....,un , de
coefficients λ1 ,...,λn . La relation linéaire ”triviale” est celle où les coefficients sont tous nuls.
Généralisation. On peut définir la notion de famille libre ou liée pour des familles de vecteurs
qui ont une infinité d’éléments. Soient I un ensemble infini et ui , i ∈ I, une famille de vecteurs
de E. On dit qu’elle est libre si toute sous-famille finie est libre. On dit qu’elle est liée si elle n’est
pas libre. Par conséquent, la famille des ui , i ∈ I, sera liée si et seulement il existe un nombre fini
de vecteurs pris parmi les ui qui forment une famille liée. (Dans ce cours, on s’interessera plus
particulièrement aux familles libres qui ont un nombre fini d’éléments et aux parties génératrices
qui ont un nombre fini d’éléments).

Proposition 2.8.2 Si n ≥ 2, les vecteurs u1 ,...,un forment une famille liée si et seulement si
l’un des vecteurs est combinaison linéaire des autres.
Preuve : Supposons que les vecteurs u1 , ... , un forment une famille liée (autrement dit, ils
ne sont pas linéairement indépendants). Alors il existe des scalaires λ1 , ..., λn non tous nuls
tels que λ1 u1 + ... + λn un = 0. Quitte à réindexer, on Ppeut supposer que λ1 6= 0. Alors on a :
1 n −λi
u1 = λ1 (−λ2 u2 − ... − λn un ), c’est à dire que u1 = i=1 ( λ1 )xj . Donc u1 est combinaison
linéaire des vecteurs u2 , ..., un .
Supposons maintenant que l’un des vecteurs est combinaison linéaire des autres. En réindexant
on peut se ramener au cas où u1 est combinaison linéaire de u2 ,...,un . Il existe λ2 ,...,λn des sca-
laires tels que u1 = λ2 u2 + ... + λn un , donc u1 − λ2 u2 − ... − λn un = 0, donc u1 ,...,un ne sont
pas linéairement indépendants (car le coefficient 1 est 6= 0).
Remarque : Pour n = 2, la proposition ci-dessus signifie que deux vecteurs sont liés si et seule-
ment si ils sont colinéaires. (c’est à dire si il existe un scalaire λ tel que u1 = λu2 ou u2 = λu1 ).

Proposition 2.8.3 Soit n ∈ N. Soient u1 , ..., un des vecteurs de E linéairement indépendants


et soit v un vecteur de E. Alors les deux propositions suivantes sont équivalentes :
(i) v est combinaison linéaire de u1 , ..., un .
(ii) Les n + 1 vecteurs v, u1 ,...,un ne sont pas linéairement indépendants.
Preuve : (i) ⇒ (ii) : voir la proposition ci-dessus.
(ii) ⇒ (i) : par (ii) il existe µ, λ1 , ..., λn ∈ K non tous nuls tels que µv+λ1 u1 +...+λn un = 0. Si
on avait µ = 0, alors on aurait λ1 u1 +...+λn un = 0. Or u1 , ..., un sont linéairement indépendants,
donc λ1 = ... = λn = 0, ce qui contredit l’hypothèse ”µ, λ1 , ..., λn non tous nuls”. Donc µ 6= 0
et on peut donc diviser par µ. On en déduit que v = − λµ1 − ... − λµn un .

Proposition 2.8.4 Si n ≥ 2 Et si u1 ,...,un sont des vecteurs de E linéairement indépendants.


Alors u1 ,...,un sont deux à deux différents et pour tout 1 ≤ p ≤ n, les vecteurs u1 , ..., up sont
linéairement indépendants.
Preuve : En exercice.

2.9 Bases.
Définition 2.9.1 Si il existe des vecteurs u1 ,...,un de E qui sont linéairement indépendants et
qui engendrent E, on dit que u1 ,...,un forment une base de E.

Théorème 2.9.2 Les deux propositions suivantes sont équivalentes :


(i) les vecteurs u1 ,...,un forment une base de E
(ii) tout vecteur de E s’écrit de manière unique comme combinaison linéaire des vecteurs
u1 ,...,un .
26 CHAPITRE 2. ESPACES VECTORIELS SUR R OU C.

Preuve : (i) ⇒ (ii) : soit u un vecteur de E. Comme les vecteurs u1 ,...,un engendrent E il
existe des scalaires λ1 ,...,λn tels que u = λ1 u1 + ... + λn un . Supposons qu’il existe des scalaires
λ01 ,...,λ0n tels que u = λ01 u1 + ... + λ0n un . En soustrayant membre à membre on trouve 0 =
(λ1 − λ01 )u1 + ... + (λn − λ0n )un . Comme u1 ,...,un sont linéairement indépendants, on en déduit
que λ1 − λ01 = ... = λn − λ0n = 0,, donc λ1 = λ01 , ..., λn = λ0n . Donc la décomposition de u comme
combinaison linéaire des vecteurs u1 ,...,un est unique.
(ii) ⇒ (i) : Comme tout vecteur de E s’écrit comme combinaison linéaire des vecteurs
u1 ,...,un , alors les vecteurs u1 ,...,un engendrent E. Prouvons qu’ils sont linéairement indépendants.
Le vecteur nul, comme tout vecteur de E s’écrit de manière unique comme combinaison linéaire
des vecteurs u1 ,...,un ( cette écriture unique est : 0 = 0u1 + ... + 0un ). Ceci est la définition de
vecteurs linéairement indépendants.
Exemples : a) Dans R2 , les vecteurs (1, 0) et (0, 1) forment une base de R2 . En effet, tout vecteur
de R2 s’écrit de manière unique comme combinaison linéaire de (1, 0) et (0, 1) : soit (x, y) ∈ R2 ,
on écrit (x, y) = x(1, 0) + y(0, 1) et si a et b sont des scalaires tels que (x, y) = a(1, 0) + b(0, 1),
alors a = x et b = y.
b) Pour n ∈ N, n ≥ 2, les vecteurs e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ..., 0) (1 à la ième
place),..., en = (0, ...., 0, 1). forment une base de Rn , appelée la base canonique. En effet, tout
vecteur (x1 , ..., xn ) de Rn s’écrit comme combinaison linéaire des vecteurs e1 , ..., en :

(x1 , ..., xn ) = x1 (1, 0, ..., 0) + ... + xn (0, ..., 0, 1).

Cette écriture est unique car si (x1 , ..., xn ) = a1 (1, 0, ..., 0) + ... + an (0, ..., 0, 1), alors x1 =
a1 ,...,xn = an .
c) On donne les vecteurs de R3 : v1 = (1, −1, 0), v2 = (0, 1, −1), v3 = (2, −1, −1). Forment-ils
une base de R3 ?
(Rep. :Non.)
Notation Si les vecteurs e1 ,...,en forment une base de E, on notera : (e1 , ..., en ) est une base de
E.

Définition 2.9.3 Soit (e1 , ..., en ) une base de E. Soit u ∈ E. Les scalaires λ1 ,...,λn ∈ K qui sont
tels que u = λ1 e1 + .... + λn en s’appellent les coordonnées du vecteur u dans la base (e1 , ..., en ).
Remarque : Si E = Kn . Soit u = (x1 , ..., xn ) un vecteur de Kn . Alors les coordonnées de u
dans la base canonique de Kn sont ses composantes x1 ,...,xn .
Chapitre 3

Espaces vectoriels sur R ou C de


dimension finie.

3.1 Définition d’un espace vectoriel de dimension finie. Exemple


d’un espace vectoriel de dimension infinie.
Soit E un espace vectoriel sur K = R ou C.

Définition 3.1.1 On dit que E est un espace vectoriel de dimension finie s’il est engendré par
un nombre fini d’éléments. C’est à dire s’il existe un sous-ensemble de vecteurs {u1 , ..., up } tel
que tout vecteur u de E s’écrive u = λ1 u1 + ... + λp up , pour certains scalaires λ1 ,...,λp .
Rappel L’ensemble {u1 , ..., up } est alors appelé une partie génératrice de E et il peut exister
d’autres coefficients µ1 ,...,µp tels que u = µ1 u1 + ... + µp up .
Exemple : Soit l’espace vectoriel sur R E = R3 . Les vecteurs e1 = (1, 2, 0), e2 = (0, 1, 1),
e3 = (0, 1, 0) et e4 = (0, 0, 1) engendrent R3 . En effet, on a
(1, 0, 0) = e1 − 2e2 + 2e4 .
Or tout vecteur de R3 est combinaison linéaire des vecteurs de la base canonique (1, 0, 0), (0, 1, 0),
(0, 0, 1). Ces trois vecteurs de la base canonique s’écrivent comme combinaisons linéaires des
vecteurs e1 , e2 , e3 , e4 , donc tout vecteur de R3 s’écrit comme combinaison linéaire de e1 , e2 , e3 ,
e4 .
On remarque que le vecteur e3 = (0, 1, 0) s’écrit au moins de deux manières comme combi-
naison linéaire des vecteurs e1 , e2 , e3 , e4 . En effet on écrit : e3 = 1e3 et e3 = e2 − e4 . Donc les
vecteurs e1 , e2 , e3 , e4 engendrent R3 mais ne forment pas une base de R3 .
Remarque : Il existe des espaces vectoriels qui ne sont pas engendrés par une famille finie de
vecteurs. On dit qu’ils sont de dimension infinie. Par exemple, montrons que l’espace vectoriel
E sur R des fonctions polynômes à coefficients réels n’est pas de dimension finie. Faisons une
démonstration par l’absurde. Supposons qu’il existe un nombre fini de fonctions polynômes
f1 ,...,fq qui engendrent E. Parmi ces fonctions polynômes, l’une au moins a un degré maximal,
noté d. (Par exemple, si on a : q = 2, f1 : x → x2 et f2 : x → x3 + 1, ce degré maximal est
d = 3.) Alors toute fonction polynôme est une combinaison linéaire de f1 ,...,fq (dans l’exemple,
toute fonction polynôme s’écrit x → λ1 x2 + λ2 (x3 + 1), pour certains réels λ1 , λ2 ). Donc toute
fonction polynôme est de degré inférieur ou égal à 3, ce qui est absurde.

3.2 Théorème de la base incomplète. Existence des bases.


Théorème 3.2.1 (Théorème de la base incomplète). On suppose E 6= {0}. Soient q et

27
28 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

p des entiers, p ≥ 1, q ≥ 1. Supposons que E soit engendré par les vecteurs g1 ,...,gq . Soient
f1 ,...,fp des vecteurs de E linéairement indépendants. Alors il existe un sous-ensemble G0 de
l’ensemble {g1 , ..., gq } tel que les éléments de l’ensemble {f1 , ..., fp } ∪ G0 forment une base de E.
Le théorème dit que si E est de dimension finie et si E 6= {0}, alors toute partie libre de E
peut être complètée en une base de E en lui ajoutant des vecteurs d’une partie génératrice.
Preuve : Remarquons d’abord qu’on peut toujours trouver des vecteurs f1 ,...,fp linéairement
indépendants. En particulier on peut choisir p = 1 et prendre pour f1 n’importe quel vecteur
non nul de E.
Posons G = {g1 , ..., gq } et L = {f1 , ..., fp }. Il existe des parties G0 de G telles que L ∪ G0 soit
libre : il y a au moins G0 = ∅. Soit G0 une partie de G telle que L ∪ G0 soit libre, de cardinal
maximal. (On commentera plus tard l’existence d’une telle partie G0 ).
Assertion : L ∪ G0 est une base de E.
Preuve de cette assertion. Par hypothèse, L ∪ G0 est libre. Il reste à prouver qu’elle engendre
E. Il suffit de prouver que tout élément g de G est combinaison linéaire des vecteurs de L ∪ G0 .
Distinguons deux cas.
Premier cas : G ⊂ L ∪ G0 . Alors il n’y a rien à démontrer.
Deuxième cas : il existe g ∈ G, g ∈ / L ∪ G0 . En particulier, g ∈ / G0 . Considèrons la partie G0 ∪ {g}
de G. Elle a un cardinal strictement plus grand que celui de G0 . On en déduit que L ∪ G0 ∪ {g}
n’est pas libre. Or L ∪ G0 est libre, donc g s’écrit comme combinaison linéaire des éléments de
L ∪ G0 .
Finalement, tout élément g de la partie génératrice G est combinaison linéaire des éléments de
L ∪ G0 , donc L ∪ G0 engendre E.
Commentons l’existence d’une partie G0 de G de cardinal maximal telle que L ∪ G0 soit libre.
Point de vue ”pratique” : on regarde les parties L ∪ {g1 },...,L ∪ {gq }. Si toutes ces parties sont
liées, alors G0 = ∅.
Sinon il existe un élément g de G tel que L∪{g} est libre. Supposons que c’est g1 . On recommence
avec les parties L∪{g1 } et {g2 , ..., gq }. On regarde donc les parties L∪{g1 }∪{g2 },...,L∪{g1 }∪{gq }.
Si toutes ces parties sont liées, alors on prend G0 = {g1 }. Sinon il existe un élément g de G tel
que L ∪ {g1 } ∪ {g} est libre. Supposons que c’est g2 . On recommence avec les parties L ∪ {g1 , g2 }
et {g3 , ..., gq }. Etc...On arrive à un nombre n maximal, n ≤ q tel que L ∪ {g1 , ..., gn } est libre.
On pose G0 = {g1 , ..., gn }.
Point de vue ”axiomatique” : l’existence d’une partie G0 de G, de cardinal le plus grand possible
telle que L ∪ G0 est libre vient de ”l’axiome du choix”.

Corollaire 3.2.2 Tout espace vectoriel de dimension finie, non égal à {0} possède des bases qui
ont un nombre fini d’éléments.
Preuve : Soit f un vecteur non nul de E et soit G une partie génératrice de E. Par le théorème
de la base incomplète il existe une partie G0 de G telle que {f } ∪ G0 est une base de E.

Corollaire 3.2.3 Si E est un espace vectoriel de dimension finie, E 6= {0}, alors de toute partie
génératrice de E on peut extraire une base.
Preuve : Soit G une partie génératrice de E et soit f un vecteur non nul de G, puis voir la
démonstration ci-dessus.

3.3 Notion de dimension d’un espace vectoriel.


Proposition 3.3.1 Soit G un ensemble fini de générateurs de E. Soit q ∈ N? le cardinal de G.
Alors toute partie de E contenant plus de q éléments est liée.
3.4. SOUS-ESPACES VECTORIELS EN DIMENSION FINIE. 29

Preuve : Posons G = {g1 , ..., gq }. On va faire une démonstration par l’absurde. Soit L =
{f1 , ..., fq+1 , ...} une partie libre de plus de q éléments. On va utiliser le théorème de la base
incomplète pour arriver à une absurdité. La partie L\{f1 } est libre. Montrons qu’elle n’engendre
pas E. Comme L est libre, f1 ne peut pas s’écrire comme une combinaison linéaire d’éléments de
L\{f1 }, sinon cela donnerait une relation linéaire non triviale entre les éléments de L. Cela prouve
que L\{f1 } n’engendre pas E. Par le théorème de la base incomplète, il existe une partie G0 de G
telle que L\{f1 }∪G0 est une base de E. On a G0 6= ∅. Soit un élément g de G0 . On a que L\{f1 }∪
{g} est libre, car c’est un sous-ensemble de la base L\{f1 }∪G0 . Supposons que cet élément est g1 .
On est arrivé à : L\{f1 }∪{g1 } est libre et G engendre E. On recommence avec L\{f1 }∪{g1 } à la
place de L. La partie L\{f1 , f2 } ∪ {g1 } est libre et n’engendre pas E. Il existe donc un élément g
de G, g 6= g1 , tel que L\{f1 , f2 }∪{g1 , g} est libre. Supposons que c’est g2 . On recommence avec la
partie libre L\{f1 , f2 }∪{g1 , g2 } à la place de L\{f1 }∪{g1 }. Comme L a au moins q +1 éléments,
on peut faire ce raisonnement q fois. Au bout de q fois on obtient que L\{f1 , f2 , ..., fq }∪{g1 , ..., gq }
est libre. Donc L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq } est libre. Or comme G = {g1 , ..., gq } engendre
E, alors L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq } engendre E. En particulier, le vecteur fq+1 s’écrit
comme combinaison linéaire des vecteurs de L\{f1 , f2 , ..., fq , fq+1 } ∪ {g1 , ..., gq }. Cela donne une
relation linéaire non triviale entre les éléments de L\{f1 , f2 , ...fq } ∪ {g1 , ..., gq }. On conclut que
cette partie est à la fois libre et liée, ce qui est absurde. L’hypothèse de l’existence d’une partie
libre d’au moins q + 1 éléments est donc fausse.

Corollaire 3.3.2 Soit E un espace vectoriel de dimension finie. Alors toutes les bases de E
sont finies et ont le même nombre d’éléments.
Preuve : Soit B et B0 deux bases de E. Elles ont un nombre fini d’éléments car il existe une
partie génératrice finie. Soit n =CardB et n0 =CardB 0 . Alors on a n ≤ n0 et n ≥ n0 , donc n = n0 .

Définition 3.3.3 Si E est de dimension finie, le nombre d’éléments commun à toutes les bases
de E s’appelle la dimension de E. (Si E = {0}, E n’admet pas de base).

Théorème 3.3.4 Soit E 6= {0} un K-espace vectoriel de dimension n. Alors :


(i) Toute partie libre a au plus n éléments et toute partie libre de n éléments est une base de E.
(ii) Toute partie génératrice a au moins n éléments et toute partie génératrice de n éléments est
une base de E.
Preuve : Prouvons (i). Comme il existe une base de E à n éléments, alors toute partie de plus
de n éléments est liée. Donc si f1 ,...,fp forment une partie libre, alors p ≤ n. Par le théorème de
la base incomplète, on peut complèter f1 ,...,fp en une base de E, donc si n = p, f1 ,...,fp forment
une base de E (sinon, en complètant, on trouverait une base d’au moins n + 1 éléments).
Montrons (ii). Il existe un sous-ensemble de {g1 , ..., gq } qui forme une base de E. Donc n ≤ q.
Si n = q, alors cette base est g1 ,...,gq .

3.4 Sous-espaces vectoriels en dimension finie.

Soit E un K-espace vectoriel de dimension n. Soit F un sous-espace vectoriel de E. Soit


e1 ,....,en une base de E. Alors tout vecteur de F s’écrit comme combinaison linéaire des vecteurs
e1 ,...,en , mais les vecteurs ei ne sont pas forcément dans F . Nous allons montrer que F est
engendré par un nombre fini de vecteurs, qui ne sont peut-être pas des éléments de la base
e1 ,...,en .
Exemple : E = R2 , F est la droite vectorielle engendrée par le vecteur (2, 1) (on la dessine, dans
le plan rapporté à la base canonique, comme la droite passant par (0, 0) de vecteur directeur
(2, 1)). Alors (1, 0) et (0, 1) 6∈ F et F est de dimension 1. Il admet pour base le vecteur (2, 1).
30 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Théorème 3.4.1 Si F est un sous-espace vectoriel de E, F 6= {0}. alors F est de dimension


finie et dim F ≤ dim E. Si dim F = dim E, alors F = E.
Preuve : Supposons F 6= {0}. Soit un vecteur non nul de F . Il forme une famille libre. On sait
que n + 1 vecteurs de E sont liés, donc c’est vrai aussi pour n + 1 vecteurs de F . Donc il existe
un plus grand entier p, 1 ≤ p ≤ n pour lequel on peut trouver p vecteurs de F linéairement
indépendants. Soient f1 ,...,fp p vecteurs de F linéairement indépendants. Soit u ∈ F . Alors
les vecteurs u,f1 ,...,fp ne sont pas linéairement indépendants car ils constituent une famille
de p + 1 vecteurs. Comme f1 ,...,fp sont linéairement indépendants, alors u est combinaison
linéaire de f1 ,...,fp . On en déduit que f1 ,...,fp engendrent F . Comme de plus ils sont linéairement
indépendants, alors ils forment une base de F . On a donc dim F ≤ n.
Supposons que p = n. Alors f1 ,...,fn sont n vecteurs linéairement indépendants, donc ils
forment une base de E. Comme ils forment aussi une base de F , alors E = F (car tous deux
sont égaux à Vect {f1 , ..., fn }).

Définition 3.4.2 On appelle plan vectoriel de E tout sous-espace vectoriel de dimension 2. On


appelle hyperplan vectoriel de E tout sous-espace vectoriel de dimension n − 1.
Exemple : Si E = R3 les hyperplans sont les plans vectoriels. Si E = R4 , les hyperplans sont
les sous-espaces vectoriels de dimension 3.
Remarque : Les droites vectorielles sont les sous-espaces vectoriels de dimension 1.

Proposition 3.4.3 Soient F et G des sous-espaces vectoriels de E différents de {0}. Si e1 ,...,ep


forment une base de F et si ep+1 ,...,ep+q forment une base de G, alors F et G sont des sous-
espaces vectoriels supplémentaires si et seulement si les vecteurs e1 ,...ep+q forment une base de
E.
Preuve : Supposons que F et G sont supplémentaires. Soit u ∈ E. Il existe v ∈ F et w ∈ G
uniques tels que u = v+w. Or v est combinaison linéaire des vecteurs e1 ,...ep et w est combinaison
linéaire des vecteurs ep+1 ,...,ep+q . Donc les vecteurs e1 ,...ep ,ep+1 ,...,ep+q engendrent E. D’autre
part écrivons le vecteur nul comme combinaison linéaire des vecteurs e1 ,...ep ,ep+1 ,...,ep+q . Soient
des scalaires λ1 ,...,λp+q tels que 0 = λ1 e1 + .... + λp+q ep+q . Alors λ1 e1 + .... + λp ep = −λp+1 ep+1 −
... − λp+q ep+q . Or à gauche du signe égal nous avons un vecteur de F et à droite du signe
égal un vecteur de G. Comme F ∩ G = {0}, on en déduit que λ1 e1 + .... + λp ep = 0 et que
λ1 e1 + .... + λp+q ep+q = 0. Comme les vecteurs e1 ,...ep d’une part et ep+1 ,...,ep+q d’autre part
sont linéairement indépendants, alors λ1 = 0,...,λp+q = 0. Donc les vecteurs e1 ,...ep ,ep+1 ,...,ep+q
sont linéairement indépendants et engendrent E. Ils forment une base de E.
Supposons maintenant que les vecteurs e1 ,...ep ,ep+1 ,...,ep+q forment une base de E. Alors
tout vecteur u de E s’écrit de manière unique u = λ1 e1 + ... + λp ep + λp+1 ep+1 + ... + λp+q ep+q ,
où λ1 ,...,λp+q ∈ K. Posons v = λ1 e1 + ... + λp ep et w = λp+1 ep+1 + ... + λp+q ep+q . Alors v ∈ F ,
w ∈ G et u = v + w. Puis, si u = v 0 + w0 est une autre décomposition de u sur les sous-espaces
vectoriels F et G, on a v 0 = λ01 e1 + ... + λ0p ep et w0 = λ0p+1 ep+1 + ... + λ0p+q ep+q , où λ01 ,...,λ0p+q ∈ K,
donc u = λ01 e1 + ... + λ0p ep + λ0p+1 ep+1 + ... + λ0p+q ep+q . Comme la décomposition de u sur la
base e1 ,...,ep ,ep+1 ,...,ep+q est unique, alors λ01 = λ1 ,...,λ0p+q = λp+q , doncL la décomposition de u
suivant les sous-espaces vectoriels F et G est unique. On a donc E = F G.

Théorème 3.4.4 Soit E un espace vectoriel sur K de dimension finie. Alors tout sous-espace
vectoriel de E admet un sous-espace vectoriel supplémentaire.
Preuve : Soit e1 ,...,ep une base de F . Par le théorème de la base incomplète, on peut complèter
ces vecteurs pour obtenir une base de E. Soient ep+1 ,...,en des vecteurs de E tels que les
vecteurs e1 ,...,ep ,ep+1 ,...,en forment une base de E. On pose G = V ect{ep+1 , ..., en }. Les vec-
teurs ep+1 ,...,en sont linéairement indépendants (car ils font partie d’une famille de vecteurs
linéairement indépendants) et ils engendrent G (par la définition de G). Donc les vecteurs
3.5. RANG D’UNE FAMILLE DE VECTEURS. 31

ep+1 ,...,en forment une base


L de G. La réunion d’une base de F et d’une base de G forme une
base de E, donc E = F G par la proposition ci-dessus.
Exemple : Dans R3 on considère le sous-espace vectoriel F engendré par e1 = (1, 0, 0), e2 =
(1, 2, 0) et e3 = (1, 1, 0). Soit G le sous-espace vectoriel engendré par e4 = (0, 0, 3). On voit que e1
et e2 sont non colinéaires, donc ils sont linéairement indépendants. On remarque que e1 +e2 = 2e3
donc F est de dimension 2 et admet une base formée des vecteurs e1 et e2 . D’autre part, G est
une droite vectorielle. Montrons que e1 ,e2 ,e4 sont linéairement indépendants. S’ils étaient liés,
alors e4 serait combinaison linéaire de e1 et e2 (car e1 et e2 sont linéairement indépendants). Or
cela implique que la dernière composante de e4 serait nulle, ce qui est faux. Donc e1 ,e2 ,e4 sont
linéairementL indépendants, leur nombre est trois, donc ils forment une base de R3 . Cela montre
que R3 = F G.

3.5 Rang d’une famille de vecteurs.


Définition 3.5.1 Soit E un espace vectoriel sur K et soient u1 ,...,uq des vecteurs de E. On
appelle rang de la famille de vecteurs u1 ,...,uq la dimension du sous-espace vectoriel engendré
par les vecteurs u1 ,...,uq .
Remarque : Si le rang de la famille de vecteurs u1 ,...,uq est r, alors r ≤ q et on peut extraire
une sous-famille à r éléments de la famille u1 ,...,uq qui soit une base de Vect {u1 , ..., uq }. De plus,
dans le cas où r < q, toute sous famille de u1 ,...,uq de plus de r éléments est liée.

3.6 Sous-espaces vectoriels de Kp .


Un sous-espace vectoriel de Kp peut être donné d’au moins trois manières :
a) par une partie génératrice ;
b) par un système d’équations linéaires de second membre nul ;
c) par une base.
Il faut savoir passer d’une description à l’autre.

3.6.1 Passage d’une partie génératrice à une base ; calcul du rang.


Le problème : on donne un sous-espace vectoriel F de Kp par des vecteurs u1 ,..., uq qui
l’engendrent, c’est à dire que F = Vect {u1 , ..., uq }. On veut calculer la dimension de F (encore
appelée le rang de la famille de vecteurs u1 ,...,uq ) et trouver une base de F . On peut aussi se
poser le problème d’extraire une base de F de la famille de vecteurs u1 ,...,uq .
On va écrire les vecteurs u1 ,...,uq en colonnes et utiliser l’algorithme du pivot de Gauss
appliqué aux colonnes u1 ,...,uq .
Principe. Si λ2 ,...,λq sont des scalaires, alors les vecteurs w1 = u1 , w2 = u2 − λ2 u1 ,....,wq =
uq − λq u1 engendrent F . En effet, d’une part on a w1 ,....,wq ∈ F , donc Vect {w1 , ..., wq } ⊂ F
et d’autre part on peut écrire u1 = w1 , u2 = w2 + λ2 w1 ,....,uq = wq + λq w1 , donc u1 ,....,uq ∈
Vect {w1 , ..., wq } , donc F ⊂ Vect {w1 , ..., wq }. Finalement, F = Vect {w1 , ..., wq }.
On explique la méthode sur des exemples.

Premier exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vecteurs
u1 = (1, 0, −1, 1), u2 = (2, 1, 4, 0), u3 = (1, 1, 0, 0), u4 = (3, 1, 2, 1) et u5 = (4, 2, 13, −1). On
les place en colonnes. Comme la première composante de u1 est non nulle, on la prend comme
pivot. La première étape consiste à remplacer pour tout i ≥ 2 le vecteur ui par un vecteur de la
forme ui − λu1 , où le scalaire λ est choisi pour que la première composante du vecteur
32 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

1 2 1 3 4 1 0 0 0 0
0 1 1 1 2 0 1 1 1 2
ui − λu1 soit nulle. On écrit : puis . Appelons
−1 4 0 2 13 −1 6 1 5 17
1 0 0 1 −1 1 −2 −1 −2 −5
w1 , w2 , w3 , w4 et w5 les colonnes qu’on vient d’obtenir. Alors F = Vect {w1 , w2 , w3 , w4 , w5 },
d’après le principe énoncé ci-dessus. Comme le coefficient de la deuxième colonne et deuxième
ligne est non nul, on le prend comme pivot et on recommence sur les colonnes j, j ≥ 2. On écrit :
1 0 0 0 0
0 1 0 0 0
Appelons η1 ,...,η5 les 5 colonnes obtenues. Selon le principe énoncé
−1 6 −5 4 5
1 −2 1 −1 −1
ci-dessus, on a Vect {w1 , ..., w5 } = V ect{η1 , ..., η5 } ; on recommence sur les colonnes 4 et 5.

1 0 0 0 0
0 1 0 0 0
.
−1 6 −5 0 0
1 −2 1 −1/5 0

Appelons t1 ,...,t5 les colonnes qu’on vient d’obtenir. Toujours grace au même principe, on a
Vect {η1 , ..., η5 } = Vect {t1 , ..., t5 }. Donc finalement F = Vect {t1 , ..., t5 }. Or t5 est nul, donc
F = Vect {t1 , t2 , t3 , t4 }. De plus les vecteurs t1 , t2 , t3 et t4 sont linéairement indépendants, à
cause du caractère échelonné de leurs composantes. En effet, t4 et t3 sont non colinéaires. Puis t2
n’est pas combinaison linéaire des vecteurs t4 et t3 , sinon sa deuxième composante serait nulle.
donc t4 , t3 , t2 sont linéairement indépendants. Puis t1 n’est pas combinaison linéaire de t4 , t3 ,t2 ,
sinon sa première composante serait nulle. Donc t1 , t2 , t3 , t4 sont linéairement indépendants.
Comme on sait qu’ils engendrent F , alors ils forment une base de F . On a donc trouvé que le
rang de la famille des 5 vecteurs u1 , u2 , u3 , u4 , u5 est 4.
Remarquons qu’au cours de l’utilisation de l’algorithme du pivot de Gauss, on n’a pas eu
besoin d’intervertir l’ordre des colonnes. Montrons, à titre d’exercice, que cela implique que
les vecteurs u1 , u2 , u3 , u4 forment une base de F , extraite de la famille u1 , u2 , u3 , u4 , u5 .
Soient w1 ,...,w5 les vecteurs obtenus après la première étape. On remarque que w1 , w2 , w3 ,
w4 ∈ Vect {u1 , u2 , u3 , u4 } et que u1 , u2 , u3 ,u4 ∈ Vect {w1 , w2 , w3 , w4 }. En effet, les vecteurs
wi , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des vecteurs ui , i = 1, ..., 4 et
réciproquement, les vecteurs ui , i = 1, ..., 4 s’écrivent comme des combinaisons linéaires des
vecteurs wi , i = 1, ..., 4. Par conséquent Vect {u1 , ..., u4 } = Vect {w1 , ..., w4 }. A l’étape sui-
vante, on n’a pas intervertit les colonnes. On trouve donc des vecteurs η1 ,...,η5 de la forme
ηi = wi − λi w2 , i = 1, ..., 5, donc les vecteurs η1 ,...,η4 sont combinaisons linéaires de w1 ,...,w4
et réciproquement les vecteurs w1 ,...,w4 sont combinaisons linéaires de η1 ,...,η4 . Par conséquent
Vect {w1 , ..., w4 } = Vect {η1 , ..., η4 }. On recommence le même raisonnement à la dernière étape.
On trouve Vect {t1 , t2 , t3 , t4 } = Vect {η1 , η2 , η3 , η4 }. Finalement :
Vect {u1 , u2 , u3 , u4 } = Vect {t1 , t2 , t3 , t4 } = F . Les vecteurs u1 , u2 , u3 , u4 engendrent donc F .
Or F est de dimension 4, donc toute partie génératrice de 4 vecteurs est une base de F . Donc
les quatre vecteurs u1 , u2 , u3 et u4 forment une base de F .
Dans certains cas, on peut être obligé d’intervertir les colonnes, afin d’avoir à chaque itération
un pivot non nul.

Deuxième exemple. Dans R4 on considère le sous-espace vectoriel F engendré par les vec-
teurs e1 = (1, 2, 3, 1), e2 = (1, 2, 1, 0), e3 = (2, 1, 0, 1) et e4 = (0, 1, 2, 2). On cherche la dimension
de F , en même temps qu’une base de F . On écrit
3.6. SOUS-ESPACES VECTORIELS DE KP . 33

1 1 2 0 1 0 0 0
2 2 1 1 2 0 −3 1
puis .
3 1 0 2 3 −2 −6 2
1 0 1 2 1 −1 −1 2
le deuxième pivot est nul. On intervertit par exemple la deuxième colonne avec la dernière.
On obtient :
1 0 0 0 1 0 0 0
2 1 −3 0 2 1 0 0
, puis
3 2 −6 −2 3 2 0 −2
1 2 −1 −1 1 2 5 −1
Le troisième pivot est nul. On intervertit la troisième colonne et la quatrième. On obtient :
1 0 0 0
2 1 0 0
.
3 2 −2 0
1 2 −1 5
Soient t1 ,...,t4 ces colonnes . Comme dans le premier exemple on a F = V ect{t1 , ..., t4 } et t1 , t2 ,
t3 , t4 sont linéairement indépendants, car leurs composantes sont échelonnées. Donc le rang des
vecteurs e1 , e2 , e3 , e4 est 4 (et donc ils forment une base de F ).

3.6.2 Passage d’une base à un système d’équations cartésiennes.


Le problème : On donne un sous-espace vectoriel F de Kp par une de ses bases. On va trouver
un système homogène d’équations linéaires dont l’ensemble des solutions est F . Un tel système
sera appelé un système d’équations cartésiennes de F .
Exemple : Soit F le sous-espace vectoriel de R4 engendré par les vecteurs u1 = (1, 1, 2, 1) et
u2 = (2, 1, 3, 4). On vérifient que u1 et u2 sont non colinéaires, donc indépendants. Ils forment une
base de F . Soit w = (x, y, z, t) ∈ R4 . Le sous-espace vectoriel Vect {w, u1 , u2 } est de dimension 2
si w ∈ F et il est de dimension 3 si w 6∈ F . Donc w ∈ F si et seulement si la famille de vecteurs
u1 , u2 , w est de rang 2. Utilisons la méthode décrite dans ce chapitre pour calculer le rang d’une
famille de vecteurs. On écrit les trois vecteurs u1 , u2 , w en colonnes.
1 2 x 1 0 0
1 1 y 1 −1 y − x
. On prend la première colonne comme pivot. . On prend la deuxième
2 3 z 2 −1 z − 2x
1 4 t 1 2 t−x
1 0 0
1 −1 0
colonne comme pivot. . Appelons t1 , t2 , t3 les vecteurs qui apparaissent
2 −1 −x − y + z
1 2 −3x + 2y + t
en colonnes. Comme dans les exemples ci-dessus, t1 et t2 sont linéairement indépendants, car
leurs composantes sont ”échelonnées”. ( Ici on voit que t1 et t2 sont non colinéaires). Si on a
t3 6= 0, alors t3 et t2 ne sont pas colinéaires, puis t1 n’est pas combinaison linéaire de t3 et t2
(sinon sa première composante serait nulle), donc t1 , t2 , t3 sont linéairement indépendants. Par
conséquent, si t3 6= 0, alors le rang des trois vecteurs u1 , u2 , w est trois. On en déduit que w ∈ F
si et seulement si ½
−x− y+ z = 0
−3x+ 2y+ t = 0
On a trouvé un système d’équations cartésiennes de F . Remarquons qu’on obtient d’autres
systèmes d’équations cartésiennes de F en multipliant l’une ou l’autre des deux équations du
système ci-dessus par une constante non nulle, ou en formant une ou plusieurs combinaisons
linéaires des deux équations et en les joignant au système.
34 CHAPITRE 3. ESPACES VECTORIELS SUR R OU C DE DIMENSION FINIE.

Attention : La méthode ci-dessus ne s’applique qu’à partir d’une base de F et pas de n’importe
quelle partie génératrice. Si F est donné par une partie génératrice quelconque, il faut d’abord
trouver une base avant de calculer un système d’équations cartésiennes par cette méthode.
Chapitre 4

Applications linéaires.

Dans cette partie E et F désignent deux espaces vectoriels sur K.

4.1 Définitions et exemples.


Définition 4.1.1 Une application linéaire de E dans F est une application f : E → F telle que
(i) x, y ∈ E, f (x + y) = f (x) + f (y)
(ii) x ∈ E, λ ∈ K, f (λx) = λf (x).

Remarque : f est un homomorphisme de groupe du groupe (E, +) dans le groupe (F, +).
Propriétés. a) Pour tout u ∈ E, f (0u) = 0f (u) = 0F . Donc f (0E ) = 0F .
b)Pour tous n ∈ N? , λ1 ,...,λn ∈ K, u1 ,...,un ∈ E, f (λ1 u1 + ... + λn un ) = λ1 f (u1 ) + ... + λn f (un ).
(Démonstration par récurrence).
Exemples. a) Soit a ∈ R et f : R 7→ R, x → ax. Alors f est une application linéaire.
(Rappel : sa représentation graphique est une droite qui passe par 0. Les applications linéaires
de R dans R sont utilisées dans les problèmes de proportionnalité.) Montrons que si g : R 7→ R
est une application linéaire, alors il existe a ∈ R tel que pour tout x, g(x) = ax. On a g(x) =
g(1x) = xg(1). On pose a = g(1).
f :R →R
b) Si a ∈ R et b ∈ R, b 6= 0, alors l’application n’est pas linéaire, car
x → ax + b
f (0) 6= 0.

f :R →R
c) Soit alors f n’est pas une application linéaire. En effet :f (2x) = 4f (x) 6=
x → x2
2f (x) si x 6= 0.

d) E = C 1 (R, R), F = C 0 (R, R). E et F sont des espaces vectoriels sur R car ce sont des sous
Ψ:E →F
-espaces vectoriels de F(R, R). Alors est une application linéaire de E dans F .
f → f0
Φ:E →R
e) Soit F = C 0 (R, R) alors Rb est une application linéaire de E dans R.
f → a f (t)dt
H : Kn → Kp
f) Soient n et p des entiers, 1 ≤ p ≤ n alors est une application
(x1 , ..., xn ) → (x1 , ..., xp )
linéaire.

F(R, R) → R
g) Soit x0 un réel fixé. L’application est linéaire.
f → f (x0 )

35
36 CHAPITRE 4. APPLICATIONS LINÉAIRES.

R2 → R
h) Si a ∈ R et b ∈ R, alors est une application linéaire. Si λ ∈ R,
(x, y) → ax + by
on a f (λ(x, y)) = f (λx, λy) = aλx + bλy = λ(ax + by) = λf ((x, y)). et f ((x, y) + (x0 , y 0 )) =
f ((x + x0 , y + y 0 )) = a(x + x0 ) + b(y + y 0 ) = ax + ax0 + by + by 0 = f ((x, y)) + f ((x0 , y 0 )).

Proposition 4.1.2 Soient f : E → F et g : F → G des applications linéaires, alors

g◦f :E →F →G

est une application linéaire.

Preuve : Si u,v ∈ E, (g ◦ f )(u + v) = g(f (u + v)) = g(f (u) + f (v)) = g(f (u)) + g(f (v)) =
g ◦ f (u) + g ◦ f (v). De même, si λ ∈ K, g ◦ f (λu) = λg ◦ f (u).

Proposition 4.1.3 Soit f : E → F une application linéaire bijective. Alors son application
linéaire réciproque f −1 : F → G est une application linéaire.
Preuve : On sait que si u ∈ E, v ∈ F , (u = f −1 (v)) ⇔ (v = f (u)). Soient v1 et v2 ∈ F .
Montrons que f −1 (v1 + v2 ) = f −1 (v1 ) + f −1 (v2 ). Soient u1 et u2 les éléments de E tels que
f (u1 ) = v1 et f (u2 ) = v2 . Comme f est linéaire, on a

v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ).

On pose u = u1 +u2 . On a f (u) = v1 +v2 , donc u = f −1 (v1 +v2 ), c’est à dire f −1 (v1 )+f −1 (v2 ) =
f −1 (v1 + v2 ).
Si λ ∈ K, v ∈ F et u ∈ E, montrons que f −1 (λv) = λf −1 (v). Soit u l’élément de E tel que
f (u) = v alors, comme f est linéaire, on a f (λu) = λv, donc f −1 (λv) = λu = λf −1 (v).
Exemple : Si a ∈ R, a 6= 0, alors f : R → R, x 7→ ax est une application linéaire bijective et
f −1 : x 7→ a1 x.

Définition 4.1.4 Soit f : E → F une application linéaire bijective. On dit que f est un iso-
morphisme d’espaces vectoriels de E sur F . On dit aussi que l’espace vectoriel E est isomorphe
à l’espace vectoriel F .

Proposition 4.1.5 Soit la relation binaire R définie sur l’ensemble des K-espaces vectoriels
par ”ERF si E est isomorphe à F ”. Alors R est une relation d’équivalence dans l’ensemble des
K-espaces vectoriels.
Preuve : Réflexive : id : E → E est un isomorphisme. Symétrique : si f : E → F est un
isomorphisme, alors f −1 : F → E est un isomorphisme. Transitive : si f : E → F et g : F → G
sont des isomorphismes, alors g ◦ f : E → G est un isomorphisme.
Exemple fondamental. Si E est un espace vectoriel de dimension n, alors E est isomorphe à
Kn .
Preuve : Soit (e1 , ..., en ) une base de E. On définit f : E → Kn , u 7→ (x1 , ..., xn ), où x1 , ..., xn
sont les coordonnées de u dans la base (e1 , ...., en ). On vérifie que f est une application (si u est
un vecteur de E, existence et unicité des coordonnées de u). Puis on vérifie que f est linéaire.
Ensuite on définit l’application g par g : Kn → E, (x1 , ..., xn ) 7→ x1 e1 +...+xn en . On a g◦f = idE
et f ◦ g = idKn . Donc f est bijective, d’application réciproque g.
Vocabulaire. Une application linéaire de E dans K s’appelle une forme linéaire.
Une application linéaire de E dans lui-même s’appelle un endomorphisme d’espace vectoriel de
E.
Un endomorphisme bijectif de E s’appelle un automorphisme de E.
4.2. IMAGE ET NOYAU. 37

4.2 Image et noyau.


Rappel. Soit f : E → F une application entre deux ensembles E et F. Si G est une partie
de E, on appelle image de G l’ensemble des éléments de F de la forme f (x) où x ∈ G. On note
cet ensemble f (G).
Dans la suite, E et F sont des espaces vectoriels sur K et f : E → F est une application
linéaire.

Définition 4.2.1 On appelle image de f l’image de E par l’application linéaire f .


Notation. Im f .
On a donc Im f = f (E), Im f = {f (u); u ∈ E}, ou encore (v ∈ Im f ) ⇔ (∃u ∈ E, f (u) = v).

Proposition 4.2.2 L’image de f est un sous-espace vectoriel de F .


Preuve : D’abord 0F ∈ Im f , donc Im f 6= ∅. Soient v1 , v2 ∈ Im f . Il existe u1 , u2 ∈ E,
v1 = f (u1 ), v2 = f (u2 ). Alors v1 + v2 = f (u1 ) + f (u2 ) = f (u1 + u2 ), donc v1 + v2 ∈ Im f . Si
λ ∈ K, alors λv1 = λf (u1 ) = f (λu1 ), donc λv1 ∈ Im f .
Remarque : L’application linéaire f est surjective si et seulement si Im f = F .

Définition 4.2.3 On appelle noyau de f l’ensemble des vecteurs de E dont l’image par f est
le vecteur nul de F .
Notation ker f .
On a ker f = {u ∈ E, f (u) = 0F }.

Proposition 4.2.4 Le noyau de f est un sous-espace vectoriel de E.


Preuve : On a 0E ∈ Ker f car f (0E ) = 0F (à gauche du signe =, 0E désigne le vecteur nul
de E, à droite 0F désigne le vecteur nul de F ). Si u et v ∈ Ker f , alors f (u) + f (v) = 0F ,
or f est linéaire, donc f (u + v) = f (u) + f (v) = 0F , donc u + v ∈ Ker f . Si λ ∈ K, on a
f (λu) = λf (u) = λ0F = 0F , donc λu ∈ Ker f .

4.3 Application linéaire injective.


Proposition 4.3.1 L’application linéaire f est injective si et seulement si Ker f = {0E } (où
0E désigne le vecteur nul de E ).
Preuve : Supposons f injective. Comme on a f (0E ) = 0F , alors le seul vecteur de E dont l’image
est le vecteur nul de F est le vecteur nul de E. Donc Ker f = {0E }. Supposons maintenant que
Ker f = {0E }. Soient u et v ∈ E tels que f (u) = f (v). Comme f est linéaire, alors :

(f (u) = f (v)) ⇔ (f (u − v) = 0F ).

Donc

(f (u) = f (v)) ⇔ (u − v ∈ Ker f ).

Comme Ker f = {0E }, alors : (f (u) = f (v)) ⇒ (u = v), donc f est injective.
Exemples f : R2 → R (x, y) → 2x + 3y. ker f = {(x, −(2/3)x); x ∈ R}, donc ker f 6= {(0, 0)}.
f n’est pas injective. Rπ
Soit E = C 0 (R, R) et Φ : E → R, f → −π f (t)dt. Soit f (t) = sin t. On a Φ(f ) = 0, et f 6= 0E ,
donc Φ n’est pas injective.

Proposition 4.3.2 Si f est injective alors l’image de toute partie libre de E est une partie libre
de F .
38 CHAPITRE 4. APPLICATIONS LINÉAIRES.

Preuve : Soient u1 ,...,up des vecteurs de E linéairement indépendants. On suppose que f


est injective. Montrons que les vecteurs f (u1 ),...,f (up ) sont linéairement indépendants. Soient
λ1 ,...,λp des scalaires tels que λ1 f (u1 ) + ... + λp f (up ) = 0F . Comme f est linéaire, f (λ1 u1 + ... +
λp up ) = 0F . Or f est injective, donc λ1 u1 + ... + λp up = OE . Comme u1 ,...,up sont linéairement
indépendants, λ1 = .... = λp = 0.
Remarque : La réciproque de cette proposition est vraie (exercice).

4.4 Cas où l’espace vectoriel de départ est de dimension fi-


nie, image d’une partie génératrice. Rang d’une application
linéaire.
Dans cette partie, f : E → F est une application linéaire et E est de dimension finie n.

Proposition 4.4.1 Si {g1 , ..., gq } est une partie génératrice de E, alors son image {f (g1 ), ..., f (gq )}
est une partie génératrice de Im f .
Preuve : Si v ∈ Im f , alors il existe u ∈ E tel que v = f (u). Il existe des scalaires λ1 ,...,
λq tels que u = λ1 g1 + ... + λq gq . Donc v = λ1 f (g1 ) + ... + λq f (gq ), ce qui prouve que
Im f ⊂ Vect {f (g1 ), ..., f (gq )}. Réciproquement, on a bien Vect {f (g1 ), ..., f (gq )} ⊂ Im f, car
f (g1 ), ..., f (gq ) ∈ Im f . Finalement, Im f = Vect {f (g1 ), ..., f (gq )}.

Corollaire 4.4.2 Si l’espace vectoriel E est de dimension finie, alors son image par une appli-
cation linéaire est un espace vectoriel de dimension finie et dim Im f ≤ dim E.

Définition 4.4.3 On appelle rang de l’application linéaire f la dimension de l’espace vectoriel


Im f .

Remarque 4.4.4 Si (e1 , ..., en ) est une base de E, alors le rang de f est égal au rang des
vecteurs f (e1 ),...,f (en ).

Théorème 4.4.5 (du rang). dim E = dim Im f + dim Ker f .


Preuve : Soit (u1 ,...,uk ) une base de Ker f et soit (f1 , ..., fn ) une base de Im f . Il existe v1 ∈ E
tel que f (v1 ) = f1 ,..., il existe vn ∈ E tel que f (vn ) = fn . Prouvons que (u1 , ..., uk , v1 , ..., vn ) est
une base de E. Prouvons qu’elle engendre E. Soit u ∈ E. On a f (u) ∈ Im f , donc il existe des
scalaires λ1 ,...,λn tels que f (u) = λ1 f1 +...+λn fn . Ceci donne : f (u−λ1 v1 −...−λn vn ) = 0, donc
u − λ1 v1 − ... − λn vn ∈ Ker f . Finalement, il existe des scalaires µ1 ,...,µk tels que u = λ1 v1 + ... +
λn vn + µ1 u1 + ... + µk uk . Donc u1 , ..., uk , v1 , ..., vn engendrent E. Prouvons qu’ils forment une
famille libre. Soient λ1 ,...,λn , µ1 ,...,µk des scalaires tels que λ1 v1 + ... + λn vn + µ1 u1 + ... + µk uk =
0E . Alors f (λ1 v1 +...+λn vn +µ1 u1 +...+µk uk ) = 0F , donc λ1 f1 +...+λn fn = 0. Or f1 ,...,fn sont
linéairement indépendants, donc λ1 = ... = λn = 0. On en déduit que µ1 u1 + ... + µk uk = 0. Or
u1 ,...,uk sont linéairement indépendants, donc µ1 = ... = µk = 0. Finalement u1 , ..., uk , v1 , ..., vn
engendrent E et forment une famille libre, donc une base de E. La dimension de E est égale au
nombre de vecteurs de cette base, n + k, qui est égal à dim Im f + dim Ker f .

4.5 Isomorphismes.
Théorème 4.5.1 Soit f : E → F une application linéaire. Supposons que E est de dimension
finie. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) L’image de toute base de E est une base de F .
(iii) Il existe une base de E dont l’image par f est une base de F .
4.5. ISOMORPHISMES. 39

Preuve : a) Montrons (i) ⇒ (ii). Soit (e1 , ..., en ) une base de E. Comme f est injective alors
{f (e1 ), ..., f (en )} est une partie libre de F . On sait que cette partie engendre Im f , donc c’est
une base de Im f . Or f est surjective, donc Im f = F . Finalement, (f (e1 ), ..., f (en )) est une base
de F .
b) Montrons que (iii) ⇒ (i). Soit (e1 , ..., en ) une base de E telle que (f (e1 ), ..., f (en )) soit
une base de F . Montrons que f est bijective. On voit immédiatement que F ⊂ Im f , car
f (e1 ),...,f (en ) ∈ Im f. Donc f est surjective. Montrons que f est injective. Soit u ∈ ker f . Il
existe des scalaires λ1 ,...,λn tels que u = λ1 e1 +...+λn en . Alors f (λ1 e1 +...+λn en ) = 0F . Comme
f est linéaire, λ1 f (e1 ) + ... + λn f (en ) = 0F . Or f (e1 ),...,f (en ) sont linéairement indépendants,
donc λ1 = ... = λn = 0. On en déduit que u = 0E .

Corollaire 4.5.2 Soient E et F des espaces vectoriels isomorphes. Alors si l’un est de dimen-
sion finie, l’autre aussi et ils ont tous deux la même dimension.

Théorème 4.5.3 Supposons que E et F sont de dimension finie et que dim E = dim F . Soit
f : E → F une application linéaire. Alors on a l’équivalence de
(i) f est un isomorphisme de E dans F .
(ii) f est injective.
(iii) f est surjective.

Preuve : Soit (e1 , ..., en ) une base de E.


a) Montrons (ii) ⇒ (i). On suppose que f est injective. Alors {f (e1 ), ..., f (en )} est une partie
libre de F . Or on sait que F est de dimension n, donc (f (e1 ), ..., f (en )) est une base de F . On
en déduit que f est un isomorphisme.
b) Montrons (iii) ⇒ (i). On suppose que f est surjective, donc que Im f = F . On sait
que {f (e1 ), ..., f (en )} est une partie génératrice de Im f , donc de F . Or dim F = n, donc
(f (e1 ), ..., f (en )) est une base de F . On en déduit que f est un isomorphisme.

Proposition 4.5.4 Soit f : E → F un isomorphisme. Soient u1 , ...up des vecteurs de E. Alors


le rang de la famille de vecteurs u1 , ...up est égal au rang de la famille de vecteurs f (u1 ), ...f (up ).

Preuve : Soit r le rang des vecteurs u1 , ..., up . Rappelons que le rang est la dimension de
Vect {u1 , ..., up }. Le rang r est caractérisé par le fait qu’il existe r vecteurs linéairement indépendants
parmi les p vecteurs u1 , ..., up et que toute sous-famille d’au moins r + 1 vecteurs pris parmi
u1 , ..., up est liée. Supposons que u1 ,...,ur sont linéairement indépendants. Alors, comme f
est injective, f (u1 ), ..., f (ur ) sont linéairement indépendants. Appelons r0 le rang de la famille
f (u1 ), ..., f (up ). On a montré que r0 ≥ r. En faisant le même raisonnement avec l’isomorphisme
f −1 , on en déduit que r ≥ r0 . Donc r = r0 .

Corollaire 4.5.5 Soit E un espace vectoriel de dimension n. Soit (e1 , ..., en ) une base de E.
Soient u1 ...up des vecteurs de E. On note (x11 , ..., x1n ),...,(xp1 , ..., xpn ) les coordonnées des vecteurs
u1 ,...,up dans la base (e1 , ..., en ). Alors le rang de la famille u1 ,...,up est égal au rang de la
famille des p vecteurs de Kn : (x11 , ..., x1n ),...,(xp1 , ..., xpn ).
Applications. a) Pour calculer le rang de p vecteurs de E, on fixe une base de E et on écrit
les coordonnées de ces vecteurs dans la base. On est ramené au calcul du rang de p vecteurs de
Kn , ce qu’on sait faire, par la méthode du pivot appliquée aux colonnes.
b) Soit F un sous-espace vectoriel de E. Une base (e1 , ..., en ) de E étant fixée, on peut calculer
un système d’équations cartésiennes de F dans la base (e1 , ..., en ).
40 CHAPITRE 4. APPLICATIONS LINÉAIRES.

4.6 Exemples : projections vectorielles, symétries vectorielles.


I) Soient F et G des sous-espaces vectoriels supplémentaires de E. Soit p l’application linéaire
définie par L
p: E=F G →E
u=v+w 7→ v
Alors tout vecteur u de E a bien une image et une seule par p car la décomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application p
est appelée la projection vectorielle sur le sous-espace vectoriel F , parallèlement au sous-espace
vectoriel G.

Proposition 4.6.1 p est un endomorphisme de E. On a Ker p = G et Im p = F .

II) Soient F et G des sous-espaces vectoriels supplémentaires de E. Soit s l’application


linéaire définie par L
s: E=F G →E
u=v+w 7→ v−w
Alors tout vecteur u de E a bien une image et une seule par s car la décomposition de tout vecteur
u comme somme d’un vecteur de F et d’un vecteur de G existe et est unique. L’application s
est appelée la symétrie vectorielle par rapport au sous-espace vectoriel F , parallèlement au
sous-espace vectoriel G.

Proposition 4.6.2 s est un isomorphisme de E.

III) Exercice Dans E = R2 , soit F la droite vectorielle engendrée par le vecteur (1, 1) et G
la droite vectorielle engendrée par (1, −1).
(i) Montrer que E = F ⊕ G. (Indication : réunir une base de F et une base de G.)
(ii) Soit w = (x, y) un vecteur de R2 . Trouver les coordonnées de p(w) dans la base canonique
de R2 . (Réponse : p(w) = ( x+y x+y
2 , 2 )).