Vous êtes sur la page 1sur 18

Cours et Exercices résolus d’Algèbre linéaire

CHAPITRE V

ESPACES VECTORIELS – APPLICATIONS LINEAIRES


NOTION D’ESPACE VECTORIEL

5. 1 Définition
On appelle espace vectoriel sur un corps K un ensemble E muni de
deux lois de composition:
• D’une loi interne, application de E x E dans E, appelée addition qui
fait de E un groupe abélien, c’est-à-dire qui satisfait aux axiomes
suivants:
1. ∀ u, v ∈ E, u + v = v + u ( co m mu t at i vi té) ,
2. ∀ u, v, w ∈ E, (u + v) + w = u + (v + w) ( as so c ia ti v ité ),
3. ∃! e = 0 ∈ E, ∀ u ∈ E, u + 0 = u ( élé me n t n e utr e) ,
4. ∀ u ∈ E, ∃ u’ = - u ∈ E, (opposé de u), u + (-u) = 0 (élément
s ymétrique).
• D’une loi externe, application de K x E dans E, appelée multiplication,
satisfaisant aux axiomes suivants:
5. ∀ u, v ∈ E, ∀ α ∈ K, α (u + v) = α u + α v ( d is tr ib u ti v it é) ,
6. ∀ u ∈ E, ∀ α, β ∈ K, ( α + β ) u = α u + β u ( d is tr ib u ti v it é) ,
7. ∀ u ∈ E, ∀ α, β ∈ K, α ( β u) = ( αβ ) u ( as so c ia ti v ité) ,
8. ∀ u ∈ E, 1.u = u où 1 est l’élément neutre de K.

Les éléments de E sont appelés vecteurs, ceux de K, les scalaires.


L’espace E est réel ou complexe selon que K = IR ou K = C).

Exemple:
L’ensemble des matrices IR m x n de genre (m x n) muni de l’addition des
matrices et de la multiplication des matrices par un scalaire est un espace
vectoriel.

5. 2 Propriétés

1. L’élément nul 0 est unique.

Soient 0 1 et 0 2 deux zéros de E; considérons leur somme 0 1 + 0 2 .


Puisque 0 2 est un zéro, l’axiome 3 entraîne que 0 1 + 0 2 = 0 1 . De même,
puisque 0 1 est un zéro, on a: 0 1 + 0 2 = 0 2 , donc 0 1 = 0 2 .

2. Tout élément possède un seul opposé.

Soient u’ et u’’ des vecteurs opposés à u.


Montrons que u’ = u’’.
En effet ,
u’ + u + u’’ = u’ + (u + u’’) = u’ + 0 = u’,
u’ + u + u’’ = (u’ + u) + u’’ = 0 + u’’ = u’’,
c’est-à-dire que u’ = u’’.

Dr. AKPATA Edouard


75
Cours et Exercices résolus d’Algèbre linéaire

3 0.u = 0 pour tout vecteur u,


4 - u = (-1) u pour tout vecteur u,
5 α 0 = 0, pour tout scalaire α ,
6 α u = 0 ⇒ α = 0 ou u = 0.

SOUS-ESPACES VECTORIELS

5. 3 Définition:
Un sous-ensemble S non vide d’un espace vectoriel E est un sous-
espace vectoriel de E si quels que soient u et v de S et pour tout α de
K, on a:

1. u + v ∈ S,
2. α u ∈ S. (5. 1)
Cette définition est équivalente à la suivante:
∀ u, v ∈ S, ∀α , β ∈ K, α u + β v ∈ S. (5. 2)
Exemple :
L’ensemble E 2 des vecteurs du plan est un sous-espace vectoriel de E 3 .

5. 3 Propriétés:
1. Si u 1 , … … … … , u k sont des éléments du sous espace vectoriel S, toute
combinaison linéaire α u 1 + ……….+ α k u k est un élément de S.

2. Tout sous-espace vectoriel S est un espace vectoriel.

Il suffit de s’assurer que S contient le vecteur 0 et tout élément u avec


son opposé. La multiplication par un scalaire étant stable pour tout u de S,
on a: 0u = 0 ∈ S, (-1) u = -u ∈ S.

5. 4 Somme de sous-espaces vectoriels

i) Définition
Soient S 1 et S 2 des sous-espaces d’un espace vectoriel E. On
appelle somme S 1 + S 2 , des sous-espaces S 1 et S 2 l’ensemble des
vecteurs u de E de la forme u = u 1 + u 2 , où u 1 ∈ S 1 et u 2 ∈ S 2 .
Ainsi S1 + S2 = {u ∈ E / u = u1 + u2 , u1 ∈ S1 , u2 ∈ S2 }

ii) Proposition
La somme S 1 + S 2 est un sous-espace vectoriel de E.

Soient u et v deux vecteurs de S 1 et S 2 respectivement. Par


définition de la somme des sous-espaces, il existe des vecteurs u 1 , v 1 ∈
S 1 , u 2 , v 2 ∈ S 2 et α , β des scalaires tels que :
u = u1 + u2 ⇒ αu = αu1 + αu2
et
v = v1 + v2 ⇒ β v = β v1 + β v2,
alors,
αu + β v = (αu1 + αu 2) + (β v1 + β v2)
= ( α u 1 + β v 1 ) + ( α u 2 + β v 2 );
Dr. AKPATA Edouard
76
Cours et Exercices résolus d’Algèbre linéaire

Comme ( α u 1 + β v 1 ) ∈ S 1 et ( α u 2 + β v 2 ) ∈ S 2 (car S 1 et S 2 sont des sous-


espaces vectoriels), alors ( α u 1 + β v 1 ) + ( α u 2 + β v 2 ) ∈ S 1 + S 2 , c’est-à-
dire α u + β v ∈ S 1 + S 2 .

iii) Définition
La somme des sous-espaces vectoriels S 1 et S 2 est directe et on la note
S 1 ⊕ S 2 , si la décomposition u = u 1 + u 2 est unique.

5. 5 Propriétés

1. Si le seul élément commun de deux sous-espaces S 1 et S 2 est le


vecteur nul, alors la somme de ces derniers est directes.
2. L’intersection S 1 ∩ S 2 n’est pas vide: elle contient toujours le
vecteur nul 0.
3. L’intersection S 1 ∩ S 2 est un sous-espace vectoriel de E.

5. 6 Enveloppe linéaire
On appelle enveloppe linéaire L(X) d’un sous ensemble X d’un espace
vectoriel V, l’ensemble de toutes les combinaisons linéaires de X:

 k 
L(X) =  y = ∑α x j j / x j ∈ X , α j ∈ IR, k = 1, 2, ........ (5. 3)
 j =1 

Propriétés

1. L’enveloppe linéaire L(X) contient l’ensemble X.


2. L’enveloppe linéaire L(X) est un sous-espace vectoriel de V.
3. L’enveloppe linéaire L(X) est le plus petit sous-espace vectoriel
contenant l’ensemble X.
La troisième propriété veut dire que si un sous-espace vectoriel S contient
l’ensemble X, il contiendra aussi son enveloppe linéaire L(X).

Exemple
Soient les vecteurs u(1, 1, 0) et v(1, 0, 1) de IR 3 .
Déterminer l’enveloppe linéaire L(u, v) des vecteurs u et v.

Solution
1 è r e méthode
Déterminer l’enveloppe linéaire L(u, v) des vecteurs revient à déterminer
l’ensemble des vecteurs w(x, y, z) tels que w = α u + β v; autrement dit trouver
l’équation que vérifient les composantes x, y, z de w quelles que soient les
valeurs de α et β .
 x 1 1
L’écriture w = α u + β v peut s’écrire sous cette forme:  x  = α  1  + β  0  ; ainsi
 z  0 1
 x = α + β
on obtient le s ystème suivant:  y = α ; nous remarquons que
 z = β

Dr. AKPATA Edouard


77
Cours et Exercices résolus d’Algèbre linéaire

x - y - z = 0 ∀ α , β ∈ IR.
Donc l’ensemble des solutions de l’équation x-y- z = 0 est l’enveloppe
linéaire L(u, v) des vecteurs u et v.

2 e m e méthode
Ecrire que w = α u + β v, cela veut dire que les trois vecteurs sont liés,
autrement dit det(w, u, v) = 0. En effet:
x 11
det(w, u, v) = y 1 0 = 0 ⇔ − y 1 1 + x 1 = 0 ⇔ − y + x − z 0
z 01 01 z1
Donc l’ensemble des solutions de l’équation x-y-z = 0 est l’enveloppe linéaire
L(u, v) des vecteurs u et v.

INDEPENDANCE LINEAIRE DES VECTEURS

5.7 Définition
On dit que le s ystème (u 1 ,………u k ) d’un espace vectoriel E est
générateur si:
∀ u ∈ E ∃ (α1 , α 2 , .........., α k ) / u = α1u1 + α 2u2 + ............ + α k uk (5. 4).

5. 8 Définition
On dit que des vecteurs u 1 ,………u k d’un espace vectoriel E sont
linéairement dépendants s’il existe des nombres α 1 , … … … … α k tous non nuls
tels que α 1 u 1 +………. α k u k = 0 (5. 5).
On dit également que le s ystème (u 1 ,………u k ) est lié.

5. 9 Définition
On dit que des vecteurs u 1 ,………u k d’un espace vectoriel E sont
linéairement indépendants si de l’équation: α 1 u 1 +………. α k u k = 0 entraîne
que α 1 = ………….= α k = 0. (5. 6)
On dit également que le s ystème (u 1 ,………u k ) est libre.

5. 10 Théorème
Des vecteurs u 1 ,………u k sont linéairement dépendants si et seulement
si l’un d’eux peut être représenté par une combinaison des autres.

Supposons que les vecteurs u 1 ,………u k sont linéairement dépendants et


pour fixer les idées que dans ( * ), le coefficient α k ≠ 0, on a:
α1 α k −1
α 1 u 1 +………. α k u k = 0 ⇒ uk = - u 1 - ………….- uk-1.
αk αk
Réciproquement, si un vecteur est une combinaison linéaire des autres, c’est-
à-dire:
β 1 u 1 + …………+ β k - 1 u k - 1 = u k , en le portant au premier membre, on obtient la
combinaison linéaire:
β 1 u 1 + …………+ β k - 1 u k - 1 + (-1)u k = 0 don’t tous les coefficients sont non tous
nuls (-1 ≠ 0). Donc les vecteurs u 1 ,………u k sont linéairement dépendants.

Dr. AKPATA Edouard


78
Cours et Exercices résolus d’Algèbre linéaire

5. 11 Théorème
Si un s ystème de vecteurs u 1 ,……u k est linéairement indépendant et si y
= α 1 u 1 +……+. α k u k , les coefficients α 1 , … … … … α k se définissent d’une seule
façon.

Soit y = α 1 u 1 +……+. α k u k ; alors on a:


α 1 u 1 +……+. α k u k = β 1 u 1 + ……+ β k u k d’où ( α 1 - β 1 ) u 1 + …..+ ( α k - β k ) u k = 0;
or u 1 , ………..,u k , sont linéairement indépendants, donc:
α 1 - β 1 = ……= α k - β k = 0, c’est-à-dire: α 1 = β 1 , ………, α k = β k .

5. 12 Théorème
Un s ystème de vecteurs contenant un sous-s ystème linéairement
dépendant est linéairement dépendant.

Supposons que les k premiers vecteurs du s ystème u 1 ,……u k sont


linéairement dépendants et u k + 1 ,…u n sont linéairement indépendants. On a
donc: α 1 u 1 +……+. α k u k = 0 et ( α 1 ,……….. α k ) ≠ (0,…………..0).
En ajoutant les vecteurs u k + 1 ,….…u n avec les coefficients nuls, on obtient la
combinaison linéaire: α 1 u 1 +……+. α k u k + 0 u k + 1 +….…+0 u n =0, donc les
coefficients sont tous non nuls, c’est-à-dire les vecteurs u 1 ,……..,u k ,
u k + 1 ,….…, u n sont linéairement dépendants.

Exemple
Etudier la dépendance linéaire des s ystèmes suivants: S 1 = (u 1 , u 2 , u 3 )
et S 2 = (v 1 , v 2 , v 3 ) avec: u 1 = (1; 0; 0), u 2 = (1; 1; 0), u 3 = (1; 1; 1);
v 1 = (1; 2;0), v 2 =(1; 0; 2), v 3 = (0; -1; 1).

Solution
1 è r e méthode (Par la définition)
1. Soit α , β , γ ∈ IR. Cherchons les valeurs de α , β , et γ pour qu’on ait:
α u 1 + β u 2 + γ u 3 = 0, c’est-à-dire:
1 1  1 α + β + γ = 0  γ = 0
α  0  + β  1  + γ  1 = 0 ⇔ 
      β + γ = 0 ⇔  β = 0 , c’est-à-dire S 1 est un s ystème
 0  0  1  γ =0 α = 0
libre.

2. Soit δ, η , λ ∈ IR. Cherchons les valeurs de δ , η et λ pour qu’on ait:


δ v 1 + ηv 2 + λv 3 = 0, c’est-à-dire:
1 1  0  δ +η = 0 λ = 2 δ
δ  2  + η  0  + λ  −1  = 0 ⇔ 2δ −λ = 0 ⇔ 
0  2  1 2η + λ = 0  η = −δ
 
On obtient: δ v 1 - δ v 2 + 2 δ v 3 = 0 ⇔ v 1 – v 2 + v 3 = 0 ⇔ v 1 = v 2 – v 3 ; autrement
dit les trois vecteurs v 1 , v 2 et v 3 sont liés.

Dr. AKPATA Edouard


79
Cours et Exercices résolus d’Algèbre linéaire

2 è m e méthode (par le déterminant)


En calculant le déterminant respectif des vecteurs des s ystèmes S 1 et S 2 , on se
rendra compte que celui de S 1 sera différent de zéro et celui de S 2 sera égal à
zéro; ce qui veut dire que S 1 et S 2 sont libre et lié respectivement.

BASE - DIMENSION

5. 13 Définition
On dit qu’un s ystème de vecteurs e 1 , ……….e n d’un espace vectoriel E
est une base de cet espace, si les vecteurs e 1 , ……….e n sont linéairement
indépendants et si chaque vecteur de E se présente par leur combinaison
linéaire; autrement dit si le s ystème de vecteurs { e 1 , ………,e n } est a la fois
libre et générateur.

Remarque
Avec un s ystème de n vecteurs e 1 , ……….e n on peut former n! bases
distinctes différant l’une de l’autre par l’ordre des vecteurs e 1 , ……….e n .

Exemple
Avec le s ystème ( e 1 , e 2 , e 3 ) de 3 vecteurs linéairement indépendants, on
peut former les 3! = 6 bases distinctes: (e 1 , e 2 , e 3 ); (e 2 , e 3 , e 1 ); (e 3 , e 1 , e 2 );
(e 2 , e 1 , e 3 ); (e 1 , e 3 , e 2 ); (e 3 , e 2 , e 1 ).

5. 14 Composantes d’un vecteur dans une base

Soit B = ( e 1 , e 2 , e 3 ) une base de E . Pour tout vecteur u de E , il existe


alors un ensemble de nombres ( α 1…………α n ) tels que:
n
u = α 1 e 1 +………… .. + α n e n = ∑α e
i =1
i
i . (5. 7)

Les nombres α 1 ,…………, α n sont appelés composantes du vecteur u dans la


base B . Ces composantes sont définies de façon unique en vertu du théorème
3.3.4.

5. 15 Somme de deux vecteurs et multiplication d’un vecteur par un


nombre dans une base donnée
Soit une base B = ( e 1 , e 2 , e 3 ), de E .
n n
Soient: u = α 1 e 1 +……… . + α n e n = ∑α i ei et v = β 1 e 1 +………+ β n e n =
i =1
∑β e
i =1
i
i des
vecteurs de E .
On a:
n n n
u + v = ∑α e
i =1
i
i .+ ∑β e
i =1
i
i = ∑(α
i =1
i
+ β i ) ei
c’est-à-dire:
n
u + v = ∑(α
i =1
i
+ β i ) ei (5. 8)
Donc l’addition de vecteurs revient à additionner leurs composantes.

Dr. AKPATA Edouard


80
Cours et Exercices résolus d’Algèbre linéaire

Soit λ un nombre; on a:
n n
λu = λ ∑α e
i =1
i
i = ∑(λ α ) e
i =1
i
i

n
λu = ∑(λ α ) e
i =1
i
i (5. 9)
Donc la multiplication d’un vecteur par un nombre revient à multiplier ses
composantes par ce nombre.

Remarque
Il est parfois commode de représenter les composantes d’un vecteur
 α1 
n  . 
u = ∑α i ei sous forme du vecteur colonne  .  .
i =1  . 
α n 
 

5. 16 Décomposition d’un système de vecteurs suivant une base donnée

Soient B = (e 1 , e 2 , e 3 ) une base de E et un s ystème de vecteurs


u 1 ,…………….u k .
Décomposition le s ystème suivant la base B :

n n
x1 = ∑α1i ei ,……………………, xk = ∑α ki ei et considérons les vecteurs colonnes de
i =1 i =1
leurs composantes dans la base B :

 α11   α 1k 
 .   . 
 .  ,………………………………,  .  .
 .n   .n
α1   .α k 

5. 17 Théorème
Des vecteurs u 1 ,…………….u k sont linéairement dépendants si et
seulement si les vecteurs colonnes de leurs composantes le sont dans une base
quelconque.

k
Supposons qu’on ait: λ 1 u 1 + … … … … … … … . . + λ k u k = ∑λ
m =1
m um
n
De façon détaillée: (car u m = ∑α
i =1
i
m ei ),
k k n n k

∑λ
m =1
m um = ∑λ (∑α
m =1
m
i =i
i
m ei ) = ∑(∑λ
i =1 m =1
m α mi ) ei = 0 (5. 10)

L’unicité de la composition d’un vecteur suivant une base entraîne:


De:

Dr. AKPATA Edouard


81
Cours et Exercices résolus d’Algèbre linéaire

k k

∑λm α m1 e1 + ⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯+∑λm α mn = 0 ,
m =1 m =1
on a:
k k

∑λ
m =1
m α m1 = 0, ⋯⋯⋯⋯⋯⋯⋯⋯⋯∑λm α mn = 0,
m =1

c’est-à-dire:

 α11   α 1k   0 
 .   .  .
λ1  .  +⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯+ λk  .  =. (5. 11)
 .n   .n   . 
α1  α k   0 

autrement dit:
λ1u1 + + λ k u k = 0 ; donc la combinaison linéaire des
………………

vecteurs colonnes des composantes u 1 ,…………….u k est également au vecteur


colonne nul.
Réciproquement, si la relation (5. 9) a lieu, on obtient la famille (5. 10) en
reprenant les raisonnements en sens inverse.

5. 18 Théorème
Si une base d’un espace vectoriel E est composée de n vecteurs, tout
s ystème de m ( m > n ) vecteurs est linéairement dépendants.

Corollaire
Les bases de l’espace vectoriel E sont composées d’un même nombre de
vecteurs.

5. 19 Définition
On appelle dimension d’un espace vectoriel E le nombre de vecteurs
d’une base de E .

5. 20 Théorème
Si u 1 ,…………….u k est un s ystème linéairement indépendant de vecteurs
d’un espace vectoriel E tel que k < n , il existe dans E des vecteurs
uk +1 ,………………, un tels que le s ystème u 1 ,…………….u k , uk +1 ,………………, un forme
une base de E .

Exemple
Compléter le s ystème de vecteurs u 1 (1; 2; 0; 1) ,et u 2 (-1; 1; 1; 0) à une
base de l’espace IR 4 .

Solution
Considérons les vecteurs u 3 (1; 0; 0; 0) et u 4 (0; 1; 0; 0) et montrons que le
s ystème (u 1 , u 2 , u 3 , u 4 ) est une base de IR 4 .
Formons la matrice
Dr. AKPATA Edouard
82
Cours et Exercices résolus d’Algèbre linéaire

 1 2 0 1
 
A =  −1 1 1 0  dont les lignes sont les composantes des vecteurs u 1 , u 2 , u 3 , u 4 ..
1 0 0
 0 1 0 0 0
 
Puisque rg(A) = 4 (à vérifier!), les lignes de A, c’est-à-dire les vecteurs u 1 ,
u 2 , u 3 , u 4 sont linéairement indépendants.

5. 21 Théorème
Pour tous sous-espaces vectoriels S 1 et S 2 de E , ona:

dim (S 1 + S 2 ) = dim S 1 + dim S 2 – dim (S 1 ∩ S 2 ) (5. 12)

La formule (5. 11) est appelée formule des dimensions.

Exemple

CHANGEMENT DE BASE

5. 22 Définition
B = (e 1 ,……………e n ) et B’ = ( e1' ,………………, en' ) des bases de E .
Décomposons les vecteurs de la base B’ suivant ceux de B . On a:
n
e'j = α 1j e1 + ⋯⋯⋯⋯⋯⋯+ α nj en = ∑α ij ei , j =1,………, n.
i =1
Ces relations s’écrivent sous la forme matricielle suivante:

 α11 . . α n1 
 . .... . 
( e1' ,………………, en' ) = (e 1 ,……………e n )  . . .. . . (5. 13)
 . . .. . 
α n . . . α nn 
 1

 α11 . . α n1 
 . .... . 
La matrice P =  . . . . .  .s’appelle matrice de passage de la base B à l a
 . . .. . 
α n . . . α nn 
 1
base B’ .

Remarque
Pour déterminer la matrice de passage d’une base B à une base B’ , il
suffit d’écrire en colonne de la matrice les composantes des vecteurs de la
base B’ .

Exemple
Soient B = (e 1 ,……………e n ) la base (appelée base canonique) d’un
espace vectoriel E et u = 2 e 2 – e 3 ; v = e 1 – 3 e 3 ; w = e 1 + e 2 – 2 e 3 .
Déterminer la matrice de passage de la base B à la base B’ = (u, v, w).

Dr. AKPATA Edouard


83
Cours et Exercices résolus d’Algèbre linéaire

Solution
Si P est la matrice de passage, alors on a:

 0 1 1

P= 2 0 1 
 −1 −3 −2 
 
5. 23 Propriétés
1. det(P) ≠ 0.

Supposons par absurde que det(P) = 0. Ceci exprime que les colonnes
de la matrice sont linéairement dépendants. Vu que ces colonnes sont les
composantes des vecteurs e1' ,………………, en' dans la base B , ces derniers sont
linéairement dépendants en vertu du théorème 3.4.5, ce qui contredit le fait
que B est une base. Donc det(P) ≠ 0.

2. Si α 1 ,…………,α n et α '1 ,…………,α ' n sont les composantes d’un


vecteur u dans les bases B et B’ respectivement, alors:

 α1   α '1 
   
 .   . 
 .  = P . 
   
 .   . 
α   'n 
α 
n
 
3. P-1 est la matrice de passage de la base B’ à la base B .

APPLICATIONS LINEAIRES

GENERALITES
5. 24 Définition
Soient E et F deux espaces vectoriels sur un corps commutatif K
( K = IR ou C). On appelle application linéaire f de E dans F , toute
application de E dans F qui possède les deux propriétés suivantes:
1. ∀ u ∈ E , ∀ v ∈ E : f(u + v) = f(u) + f(v) ,
2. ∀ u ∈ E ∀ λ ∈ IR : f( λ u) = λ f(u) .
Les deux propriétés peuvent se résumer en une seule:
∀ u ∈ E , ∀ v ∈ E , ∀ ( α , β ) ∈ IR 2 : f( α u + β v) = α f(u) + β f(v) .
Remarques

1. Quelle que soit l’application linéaire f considérée, l’image du


vecteur nul de E est le vecteur nul de F , autrement dit: f(0 E ) = 0 F

E f
0E 0F F F

Fig.16

En particulier, si λ = -1 , alors on a: f(-u) = - f(u) .


Dr. AKPATA Edouard
84
Cours et Exercices résolus d’Algèbre linéaire

2. i) On dira également que f est un homomorphisme de E dans F .


ii) Si f est bijective , on dit que f est un isomorphisme .
iii) Si F = E , on dit que f est un endomorphisme et si de plus f est
bijective, alors on dira que c’est un automorphisme .

Exemple
Soit E l’ensemble des applications f de IR * + dans IR indéfiniment
dérivables. On considère l’application ϕ de E dans E définie par :
ϕ (f) = f + 2xf’ .
Montrer que ϕ est un endomorphisme .

Solution
Remarquons tout d’abord que ϕ est bien une application de E dan s
E , puisque f + 2xf’ est indéfiniment dérivable dès que f l’est.
Montrons que ϕ est une application linéaire.
∀ (f 1 , f 2 ) ∈ E 2 , ∀ ( α , β ) ∈ IR 2 , on a:
ϕ ( α f 1 , + β f 2 ) = ( α f 1 + β f 2 ) + 2x( α f 1 + β f 2 )’ ( p ar d é fi n it io n )
= α f 1 + β f 2 + 2x[( α f 1 )’ + ( β f 2 )’] ( d ér ivée d e l a so m me d e d e u x fo nc tio n s)
= α f 1 + β f 2 + 2x( α f 1 )’ + 2x( β f 2 )’ ( d i st r ib u ti v ité d e . p ar r ap p o r t à + )
= α f 1 + β f 2 + 2x α f 1 ’ + 2x β f 2 ’
= α f 1 + 2x α f 1 ’ + β f 2 + 2x β f 2 ’
= α (f 1 + 2xf 1 ’) + β (f 2 + 2xf 2 ’) ( mi s e e n f ac te ur d e α e t β )
= αϕ (f 1 ) + βϕ (f 2 ) , donc on a démontré que:
ϕ ( α f 1 + β f 2 = αϕ (f 1 ) + βϕ (f 2 ) , c’est-à-dire que ϕ est une application linéaire
de E dans E d’où ϕ est un endomorphisme.

5. 25 Détermination d’une application linéaire


Soit B = (e 1 ,……………e n ) une base de E . Une application linéaire f
de E dans F est complètement déterminée si les images des éléments
e 1 ,……………e n de la base B e1' = f(e1 ) ,……………, en' = f(en ) sont connues.

Soient u = a 1 e 1 + … … … … … … +a n e n un élément de E et son image u’ par f


dans F . Alors on a:
u’ = f(u) = f(a 1 e 1 + … … … . … … … +a n e n )
= a 1 f(e 1 ) + … … … … … … … + a n f(e n ) ; c’est-à-dire
u’ = a 1 f(e 1 ) + … … … … … … … + a n f(e n )
u’ = a 1 e1' +⋯⋯⋯⋯+ an en'

Conséquence
Pour montrer qu’une application linéaire vérifie certaines conditions,
il suffit de vérifier que les transformés (ou images) des vecteurs de base
vérifient ces conditions.

5.26 Définitions
Dr. AKPATA Edouard
85
Cours et Exercices résolus d’Algèbre linéaire

i) Forme linéaire : On appelle forme linéaire , toute application


linéaire de E dans IR .
ii) Image d’une partie, P, de E : On appelle image d’une partie, P,
de E et on la note f(P) , l’ensemble des images par f des éléments
de P .( Fig.17.a ) .

E f F E F
f

f
P f(P) Imf
Fig.17.a Fig.17.b

En particulier, l’image de E lui-même est noté f(E) ou encore Imf ( Fig.17.b ).


On a évidemment: Imf ⊆ F .

iii) Rang d’une application linéaire : On appelle rang d’une


application linéaire, la dimension de f(E) , si elle existe et on
note: rang(f) = dim f(E) .

iv) Image réciproque d’une partie, P’, de F : On appelle image


réciproque d’une partie, P’ , de F , et on note: f - 1 (P’) ,
l’ensemble des éléments de E qui ont pour images les éléments
de P’ (Fig.18.a) .

-1
E f E f 0F F

-1
f
-1
f (P’) P’ Kerf
Fig.18 . a Fig.18.b

Cas particulier (très important)

v) Noyau d’une application linéaire : On appelle noyau d’une


application linéaire et l’on note N (f) ou Kerf , l’ensemble des
éléments de E qui ont pour image l’élément nul 0 F de F , c’est-à-
dire l’image réciproque de {0 F }.
Autrement dit: N (f) = Kerf = f - 1 (0 F ) = {u ∈ E: f(u) = 0 F }
Les éléments de N (f) constituent donc l’ensemble des solutions de
l’équation: f(u) = 0 F (Fig.18.b) .

Remarque
Dr. AKPATA Edouard
86
Cours et Exercices résolus d’Algèbre linéaire

Cet ensemble N (f) n’est jamais vide puisque f(0) = 0 ∈ Kerf .

5. 27 Théorème
Kerf est un sous-espace de E .

1. Kerf ≠ ∅ , car 0 = f(0) ∈ Kerf .


2. ∀ u ∈ Kerf, ∀ v ∈ Kerf, on a :
f(u + v) = f(u) + f(v) ( car f e s t u ne ap p l ica tio n li né air e)
= 0 F + 0 F ( c ar u ,v ∈ Ke rf)
= 0 F , cela veut dire que (u + v) ∈ Kerf.
3. ∀ u ∈ Kerf, ∀ α ∈ K, on a:
f( α u) = α f(u) ( car f e s t u ne ap p li ca tio n li n éair e)
= α 0 F ( car u ∈ K e rf)
= 0 F , cela veut dire que α u ∈ Kerf .
De ce qui précède, on conclut que Kerf est bel et bien un sous-espace
vectoriel de E .

5. 28 Théorème
Pour qu’une application linéaire f de E dans F soit injective , il faut et
il suffit que Kerf = {0}

i) Condition nécessaire : f injective ⇒ Kerf = {0} .


Soit f est injective, c’est-à-dire ∀ (u, v) ∈ E 2 , f(u) = f(v) ⇒ u = v
c’est-à-dire f(u) = f(v) ⇒ u – v = 0 ;
or f(u) = f(v) ⇔ f(u) – f(v) = 0
⇔ f(u - v) = 0 ( car f e s t l i néa ir e)
⇒ (u – v) ∈ Kerf, or u – v = 0 ( car f e st ij ec ti v e)
⇒ 0 ∈ Kef
⇒ f(0) = 0 ⇒ Kerf = {0}.

ii) Condition suffisante : Kerf = {0} ⇒ f injective


Soit u et v deux éléments de Kerf
u ∈ Kerf ⇒ f(u) = 0 ⇒ f(u) = f(v) = 0 ,
v ∈ Kerf ⇒ f(v) = 0 
or f(u) = f(v) ⇔ f(u) – f(v) = 0
⇔ f(u - v) = 0 ( car f es t l i néa ir e)
⇒ (u - v) ∈ Kerf = {0} ⇒ u – v = 0 ⇒ u = v;
c’est-à-dire f(u) = f(v) ⇒ u = v d’où f est injective.

5. 29 Théorème
Si E et F ont même dimension on a l’équivalence:
Kerf = {0 E } ⇔ f est bijective .

5. 30 Théorème
Imf est un sous-espace vectoriel de F .

Soient y 1 et y 2 deux éléments de Imf . Cela veut dire qu’il existe dans
E des éléments x 1 et x 2 tels que: y 1 = f(x 1 ) et y 2 = f(x 2 ) .
Dr. AKPATA Edouard
87
Cours et Exercices résolus d’Algèbre linéaire

Soient deux réels α et β . On a:


α y 1 + β y 2 = α f(x 1 ) + β f(x 2 ) = f( α x 1 + β x 2 ) ( c ar f es t l i né air e ) .
Ce qui veut dire qu’il existe un élément X ∈ E , avec X = α x 1 + β x 2 , tel que Y
= f(X) où Y = α y 1 + β y 2 ∈ Imf d’où Imf est un sous-espace vectoriel de F .

5. 31 Théorème
La dimension de E est la somme de la dimension de l’image f( E ) de E
par l’application f et de la dimension du no yau de f , en d’autres termes:
dim E = dim Kerf + dim Imf

Remarques
1.
i) Si f est injective, c’est-à-dire Kerf = {0} , alors dim E = dim Imf ( car
d im Ke r f = 0 ) .
iii) dim E = dim Imf ⇔ l’image de toute base de E est une base de
f( E ) .

2. Pour un espace vectoriel E de dimension finie. Si f est une


application linéaire bijective (c’est-à-dire f est un isomorphisme),
alors f est à la fois injective et surjective, c’est-à-dire f( E ) = F et
dim E = dim Imf = dim f( E ) = dim F d’où dim E = dim F .

5. 32 Matrice associée d’une application linéaire

Soit deux espaces vectoriels E et F définis sur un corps commutatif


K , tels que dim E = 2 , dim F = 3 . Soient B 1 = {e 1 , e 2 } une base de E et
B 2 = { e1', e2' , e3' } une base de F .
On appelle L ( E , F ), l’ensemble des applications linéaires définies de
E dans F .
Soit f ∈ L ( E , F ). Définissons f(e 1 ) et f(e 2 ) dans la base B 2 :

 f(e1 ) = a11 e1' + a21 e2' + a31 e3'


 f(e ) = a e' + a e ' + a e'
 2 12 1 22 2 32 3

Pour tout u ∈ E , on peut décomposer u dans la base B de la manière suivante:


u = u 1 e 1 + u 2 e 2 , or f(u) = v = v1 e1' + v2 e2' + v3 e3' ; f étant une application
linéaire, on a:
v = f(u) = u 1 f(e 1 ) + u 2 f(e 2 )
= u 1 (a11 e1' + a21 e2' + a31 e3' ) + u2 (a12 e1' + a22 e2' + a33 e3' )
= (a 1 1 u 1 + a 1 2 u 2 ) e1' + (a 2 1 u 1 + a 2 2 u 2 ) e2' + (a 3 1 u 1 + a 3 3 u 2 ) e3' = v1 e1' + v2 e2' + v3 e3' ,
ce qui nous permet d’écrire:

 v1 = a11 u1 + a12 u2

v2 = a21 u1 + a22 u2 (5. 14)
 3
v = a u
31 1 + a u
33 2

Le s ystème (5. 13) est appelé la forme analytique de l’application linéaire f


Soit A la matrice suivante issue du s ystème (5. 14):
Dr. AKPATA Edouard
88
Cours et Exercices résolus d’Algèbre linéaire

f(e 1 ) f(e 2 )

 a11 a12 
 
A =  a21
 a31
a22  .
 a32 

Examinons le cas général:


Considérons deux espaces vectoriels E et F de dimension finie, telles
que dim E = n et dim F = m. Soient B 1 = {e 1 ,……..,e n } et B 2 = { e1' ,………,em' } les
bases respectives de E et de F .
Soit f ∈ L( E , F ); on rappelle que f est déterminée de manière unique dès
qu’on fixe les images:

 f(e1 ) = a11 e1' +⋯⋯⋯⋯⋯+ am1 em'


 ...................................................
 ................................................... ,
 ...................................................
 f(en ) = a1n e1' +⋯⋯⋯⋯⋯+ amn em'
m
c’est-à-dire f (e j ) = ∑ a e′ ,
i =1
ij i 1≤ j ≤ n
n
∀ u ∈ E , u = u 1 e 1 + ……………….+ u n e n = ∑u
j =1
j ej.
m
L’image de u par f est v, (v ∈ F ) tel que v = v1 e1' +⋯⋯⋯⋯+ vm em' = ∑vi ei'
i =1
n n
f étant linéaire, alors on a: v = f(u) = f(∑u j e j ) = ∑u j f(e j ).
j =1 j =1

En utilisant les propriétés d’associativité et de commutativité de l’addition


vectorielle et la multiplication externe, on peut écrire:

n n m m n m n
v = f(u) = ∑u
j =1
j f(e j ) = ∑u j ∑ aij ei' = ∑(∑ aij u j ) ei' = ∑vi ei' ⇒ vi = ∑ aij u j ,
j =1 i =1 i =1 j =1 i =1 j =1

1 ≤ i ≤ m.
en d’autres termes:
v1 = a11 u1 +⋯⋯⋯⋯⋯⋯+ a1n un
...................................................
................................................... (5. 15)
...................................................
 vm = am1 u1 +⋯⋯⋯⋯⋯+ amn un

Le s ystème (5. 15) est appelé forme analytique de f.

Soit A la matrice issue de ce s ystème (5.15), on a:

f(e 1 ) f(e n )

Dr. AKPATA Edouard


89
Cours et Exercices résolus d’Algèbre linéaire

 a11.............................a1n 
 ... ... ... ... ... ...... ... 
A =  ... ... ... ... ... ...... ...  .
 ... ... ... ... ... ...... ... 
 am1 ... ... ... ... .........amn 

La matrice A est appelée matrice associée de f.


Ainsi, à toute application linéaire on peut associer une matrice.

5. 33 Théorème (très important)


Soit f une application linéaire définie dans un espace vectoriel E , de
matrice associée A.
f est bijective si et seulement si dét(A) ≠ 0 .

5. 34 Détermination du noyau et de l’image d’une application linéaire


Soient Kerf et Imf respectivement le no yau et l’image de l’application
linéaire définie dans un espace vectoriel E . Soit A la matrice associée de f.
On a les propositions suivantes:
i) dim Imf = rg(A) où rg(A) est le rang de la matrice A.
ii) dim Kerf = dim E – rg(A) .

Exemple
Soit E un espace vectoriel de base canonique B = (e 1 , e 2 , e 3 ).
Considérons une application linéaire f ayant pour matrice associée A définie
par:
1 2 1 
A = 1 0 −1 .
1 1 0 
 
Déterminer l’image Imf et le no yau Kerf de f.

Solution
Par définition v ∈ Imf si et seulement si on peut trouver un vecteur
 x
u  y  ∈ E , tel que v = f(u) = A(u) ou encore:
z
 

1 2 1   x  1   2  1
v = A(u) = 1 0 −1 .  y  = x 1 + y  0  + z  −1 (5. 16)
1 1 0   z  1  1  0
     
L’égalité (5. 15) montre que l’image Imf de f se confond avec l’enveloppe
linéaire du s ystème de vecteurs colonnes de la matrice A. Ce qui veut dire qu e
le rang de f est égal à celui de la matrice A qui est égal à deux (à vérifier!).
Donc nous pouvons prendre deux vecteurs colonnes quelconques des trois qui
engendreront l’image Imf de f. Par exemple nous pouvons prendre

1   2
v 1 = 1 , v2 =  0  .
1  1
D’où Imf est de dimension deux, donc le plan vectoriel engendré par les
vecteurs v 1 et v 2 .

Dr. AKPATA Edouard


90
Cours et Exercices résolus d’Algèbre linéaire

Comme indication on peut déjà savoir que le no yau Kerf de f sera de


dimension 1 (3 – 2 = 1), c’est-à-dire une droite vectorielle.
De façon analogue, u ∈ Kerf ⇔ f(u) = A(u) = 0 ou encore
1 2 1   x   0
A(u) = 1 0 −1 .  y  =  0  .
1 1 0   z   0
   
Ce qui veut dire que le no yau Kerf est l’ensemble des solutions du s ystème
homogène suivant:

 x + 2y + z = 0  x = z y
 x − z = 0 ⇔  x = -y = z ou x = = z
 x + y =0  x = − y 1 −1 1
D’où le no yau Kerf est la droite d’équation x = - y = z ou engendrée par le
vecteur u(1; -1; 1).

5. 35 Composition des applications linéaires


Soit L ( E , F ) l’ensemble des applications linéaires de E dans F . Dans
cet ensemble, on définit les opérations suivantes:

i) Addition
On appelle somme des applications f 1 et f 2 et l’on note f 1 + f 2 ,
l’application f qui à tout élément u de E associe l’élément f(u) tel que
f(u) = (f 1 + f 2 )(u) = f 1 (u) + f 2 (u) .

ii) Multiplication par un scalaire


On appelle produit de l’application f par le scalaire λ , l’application
( λ f)(u) = λ f(u) .

Remarque
1. ( L , +) est un groupe abélien;
2. L ( E , F ) muni des deux opérations précédentes est un espace
vectoriel sur IR.
iii) Composition de deux applications linéaires
Soient E , F et G trois espaces vectoriels sur IR et soit f une
application linéaire de E dans F et g une application linéaire de F
dans G . On appelle application composée de f par g et l’on note
( g f ), l’application de E dans G qui à tout élément u ∈ E associ e
l’élément (g ° f)(u) ∈ G définie par:
(g ° f)(u) = g[f(u)] .

5. 36 Théorème
La composée de deux applications linéaires est une application
linéaire.

Soient f, g ∈ L ( E , F ) x L ( F , G ) et α , β ∈ IR on a:
(g ° f)( α u + β v) = g[f( α u + β v)]
= g[ α f(u) + β f(v)]
= g( α f(u)) + g( β f(v))
= α g[f(u)] + β g[f(v)]
Dr. AKPATA Edouard
91
Cours et Exercices résolus d’Algèbre linéaire

= α g ° f(u) + β g ° f(v).
D’où g ° f est une application linéaire.

5. 37 Théorème
La composition des applications linéaires est distributive par rapport
à l’addition.

[g ° (f 1 + f 2 )] (u) = g[(f 1 + f 2 )(u)]


= g[f 1 (u) + f 2 (u)]
= (g ° f 1 )(u) + (g ° f 2 )(u)
= [(g ° f 1 ) + (g ° f 2 )] (u), soit g ° (f 1 + f 2 ) = g ° f 1 + g ° f 2 d’où la
distributivité à droite est vérifiée.
De même on verrait que: (g 1 + g 2 ) ° f = g 1 ° f + g 2 ° f; c’est-à-dire que la
distributivité à gauche est également vérifiée.

Dr. AKPATA Edouard


92