CHAPITRE V
5. 1 Définition
On appelle espace vectoriel sur un corps K un ensemble E muni de
deux lois de composition:
• D’une loi interne, application de E x E dans E, appelée addition qui
fait de E un groupe abélien, c’est-à-dire qui satisfait aux axiomes
suivants:
1. ∀ u, v ∈ E, u + v = v + u ( co m mu t at i vi té) ,
2. ∀ u, v, w ∈ E, (u + v) + w = u + (v + w) ( as so c ia ti v ité ),
3. ∃! e = 0 ∈ E, ∀ u ∈ E, u + 0 = u ( élé me n t n e utr e) ,
4. ∀ u ∈ E, ∃ u’ = - u ∈ E, (opposé de u), u + (-u) = 0 (élément
s ymétrique).
• D’une loi externe, application de K x E dans E, appelée multiplication,
satisfaisant aux axiomes suivants:
5. ∀ u, v ∈ E, ∀ α ∈ K, α (u + v) = α u + α v ( d is tr ib u ti v it é) ,
6. ∀ u ∈ E, ∀ α, β ∈ K, ( α + β ) u = α u + β u ( d is tr ib u ti v it é) ,
7. ∀ u ∈ E, ∀ α, β ∈ K, α ( β u) = ( αβ ) u ( as so c ia ti v ité) ,
8. ∀ u ∈ E, 1.u = u où 1 est l’élément neutre de K.
Exemple:
L’ensemble des matrices IR m x n de genre (m x n) muni de l’addition des
matrices et de la multiplication des matrices par un scalaire est un espace
vectoriel.
5. 2 Propriétés
SOUS-ESPACES VECTORIELS
5. 3 Définition:
Un sous-ensemble S non vide d’un espace vectoriel E est un sous-
espace vectoriel de E si quels que soient u et v de S et pour tout α de
K, on a:
1. u + v ∈ S,
2. α u ∈ S. (5. 1)
Cette définition est équivalente à la suivante:
∀ u, v ∈ S, ∀α , β ∈ K, α u + β v ∈ S. (5. 2)
Exemple :
L’ensemble E 2 des vecteurs du plan est un sous-espace vectoriel de E 3 .
5. 3 Propriétés:
1. Si u 1 , … … … … , u k sont des éléments du sous espace vectoriel S, toute
combinaison linéaire α u 1 + ……….+ α k u k est un élément de S.
i) Définition
Soient S 1 et S 2 des sous-espaces d’un espace vectoriel E. On
appelle somme S 1 + S 2 , des sous-espaces S 1 et S 2 l’ensemble des
vecteurs u de E de la forme u = u 1 + u 2 , où u 1 ∈ S 1 et u 2 ∈ S 2 .
Ainsi S1 + S2 = {u ∈ E / u = u1 + u2 , u1 ∈ S1 , u2 ∈ S2 }
ii) Proposition
La somme S 1 + S 2 est un sous-espace vectoriel de E.
iii) Définition
La somme des sous-espaces vectoriels S 1 et S 2 est directe et on la note
S 1 ⊕ S 2 , si la décomposition u = u 1 + u 2 est unique.
5. 5 Propriétés
5. 6 Enveloppe linéaire
On appelle enveloppe linéaire L(X) d’un sous ensemble X d’un espace
vectoriel V, l’ensemble de toutes les combinaisons linéaires de X:
k
L(X) = y = ∑α x j j / x j ∈ X , α j ∈ IR, k = 1, 2, ........ (5. 3)
j =1
Propriétés
Exemple
Soient les vecteurs u(1, 1, 0) et v(1, 0, 1) de IR 3 .
Déterminer l’enveloppe linéaire L(u, v) des vecteurs u et v.
Solution
1 è r e méthode
Déterminer l’enveloppe linéaire L(u, v) des vecteurs revient à déterminer
l’ensemble des vecteurs w(x, y, z) tels que w = α u + β v; autrement dit trouver
l’équation que vérifient les composantes x, y, z de w quelles que soient les
valeurs de α et β .
x 1 1
L’écriture w = α u + β v peut s’écrire sous cette forme: x = α 1 + β 0 ; ainsi
z 0 1
x = α + β
on obtient le s ystème suivant: y = α ; nous remarquons que
z = β
x - y - z = 0 ∀ α , β ∈ IR.
Donc l’ensemble des solutions de l’équation x-y- z = 0 est l’enveloppe
linéaire L(u, v) des vecteurs u et v.
2 e m e méthode
Ecrire que w = α u + β v, cela veut dire que les trois vecteurs sont liés,
autrement dit det(w, u, v) = 0. En effet:
x 11
det(w, u, v) = y 1 0 = 0 ⇔ − y 1 1 + x 1 = 0 ⇔ − y + x − z 0
z 01 01 z1
Donc l’ensemble des solutions de l’équation x-y-z = 0 est l’enveloppe linéaire
L(u, v) des vecteurs u et v.
5.7 Définition
On dit que le s ystème (u 1 ,………u k ) d’un espace vectoriel E est
générateur si:
∀ u ∈ E ∃ (α1 , α 2 , .........., α k ) / u = α1u1 + α 2u2 + ............ + α k uk (5. 4).
5. 8 Définition
On dit que des vecteurs u 1 ,………u k d’un espace vectoriel E sont
linéairement dépendants s’il existe des nombres α 1 , … … … … α k tous non nuls
tels que α 1 u 1 +………. α k u k = 0 (5. 5).
On dit également que le s ystème (u 1 ,………u k ) est lié.
5. 9 Définition
On dit que des vecteurs u 1 ,………u k d’un espace vectoriel E sont
linéairement indépendants si de l’équation: α 1 u 1 +………. α k u k = 0 entraîne
que α 1 = ………….= α k = 0. (5. 6)
On dit également que le s ystème (u 1 ,………u k ) est libre.
5. 10 Théorème
Des vecteurs u 1 ,………u k sont linéairement dépendants si et seulement
si l’un d’eux peut être représenté par une combinaison des autres.
5. 11 Théorème
Si un s ystème de vecteurs u 1 ,……u k est linéairement indépendant et si y
= α 1 u 1 +……+. α k u k , les coefficients α 1 , … … … … α k se définissent d’une seule
façon.
5. 12 Théorème
Un s ystème de vecteurs contenant un sous-s ystème linéairement
dépendant est linéairement dépendant.
Exemple
Etudier la dépendance linéaire des s ystèmes suivants: S 1 = (u 1 , u 2 , u 3 )
et S 2 = (v 1 , v 2 , v 3 ) avec: u 1 = (1; 0; 0), u 2 = (1; 1; 0), u 3 = (1; 1; 1);
v 1 = (1; 2;0), v 2 =(1; 0; 2), v 3 = (0; -1; 1).
Solution
1 è r e méthode (Par la définition)
1. Soit α , β , γ ∈ IR. Cherchons les valeurs de α , β , et γ pour qu’on ait:
α u 1 + β u 2 + γ u 3 = 0, c’est-à-dire:
1 1 1 α + β + γ = 0 γ = 0
α 0 + β 1 + γ 1 = 0 ⇔
β + γ = 0 ⇔ β = 0 , c’est-à-dire S 1 est un s ystème
0 0 1 γ =0 α = 0
libre.
BASE - DIMENSION
5. 13 Définition
On dit qu’un s ystème de vecteurs e 1 , ……….e n d’un espace vectoriel E
est une base de cet espace, si les vecteurs e 1 , ……….e n sont linéairement
indépendants et si chaque vecteur de E se présente par leur combinaison
linéaire; autrement dit si le s ystème de vecteurs { e 1 , ………,e n } est a la fois
libre et générateur.
Remarque
Avec un s ystème de n vecteurs e 1 , ……….e n on peut former n! bases
distinctes différant l’une de l’autre par l’ordre des vecteurs e 1 , ……….e n .
Exemple
Avec le s ystème ( e 1 , e 2 , e 3 ) de 3 vecteurs linéairement indépendants, on
peut former les 3! = 6 bases distinctes: (e 1 , e 2 , e 3 ); (e 2 , e 3 , e 1 ); (e 3 , e 1 , e 2 );
(e 2 , e 1 , e 3 ); (e 1 , e 3 , e 2 ); (e 3 , e 2 , e 1 ).
Soit λ un nombre; on a:
n n
λu = λ ∑α e
i =1
i
i = ∑(λ α ) e
i =1
i
i
n
λu = ∑(λ α ) e
i =1
i
i (5. 9)
Donc la multiplication d’un vecteur par un nombre revient à multiplier ses
composantes par ce nombre.
Remarque
Il est parfois commode de représenter les composantes d’un vecteur
α1
n .
u = ∑α i ei sous forme du vecteur colonne . .
i =1 .
α n
n n
x1 = ∑α1i ei ,……………………, xk = ∑α ki ei et considérons les vecteurs colonnes de
i =1 i =1
leurs composantes dans la base B :
α11 α 1k
. .
. ,………………………………, . .
.n .n
α1 .α k
5. 17 Théorème
Des vecteurs u 1 ,…………….u k sont linéairement dépendants si et
seulement si les vecteurs colonnes de leurs composantes le sont dans une base
quelconque.
k
Supposons qu’on ait: λ 1 u 1 + … … … … … … … . . + λ k u k = ∑λ
m =1
m um
n
De façon détaillée: (car u m = ∑α
i =1
i
m ei ),
k k n n k
∑λ
m =1
m um = ∑λ (∑α
m =1
m
i =i
i
m ei ) = ∑(∑λ
i =1 m =1
m α mi ) ei = 0 (5. 10)
k k
∑λm α m1 e1 + ⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯+∑λm α mn = 0 ,
m =1 m =1
on a:
k k
∑λ
m =1
m α m1 = 0, ⋯⋯⋯⋯⋯⋯⋯⋯⋯∑λm α mn = 0,
m =1
c’est-à-dire:
α11 α 1k 0
. . .
λ1 . +⋯⋯⋯⋯⋯⋯⋯⋯⋯⋯+ λk . =. (5. 11)
.n .n .
α1 α k 0
autrement dit:
λ1u1 + + λ k u k = 0 ; donc la combinaison linéaire des
………………
5. 18 Théorème
Si une base d’un espace vectoriel E est composée de n vecteurs, tout
s ystème de m ( m > n ) vecteurs est linéairement dépendants.
Corollaire
Les bases de l’espace vectoriel E sont composées d’un même nombre de
vecteurs.
5. 19 Définition
On appelle dimension d’un espace vectoriel E le nombre de vecteurs
d’une base de E .
5. 20 Théorème
Si u 1 ,…………….u k est un s ystème linéairement indépendant de vecteurs
d’un espace vectoriel E tel que k < n , il existe dans E des vecteurs
uk +1 ,………………, un tels que le s ystème u 1 ,…………….u k , uk +1 ,………………, un forme
une base de E .
Exemple
Compléter le s ystème de vecteurs u 1 (1; 2; 0; 1) ,et u 2 (-1; 1; 1; 0) à une
base de l’espace IR 4 .
Solution
Considérons les vecteurs u 3 (1; 0; 0; 0) et u 4 (0; 1; 0; 0) et montrons que le
s ystème (u 1 , u 2 , u 3 , u 4 ) est une base de IR 4 .
Formons la matrice
Dr. AKPATA Edouard
82
Cours et Exercices résolus d’Algèbre linéaire
1 2 0 1
A = −1 1 1 0 dont les lignes sont les composantes des vecteurs u 1 , u 2 , u 3 , u 4 ..
1 0 0
0 1 0 0 0
Puisque rg(A) = 4 (à vérifier!), les lignes de A, c’est-à-dire les vecteurs u 1 ,
u 2 , u 3 , u 4 sont linéairement indépendants.
5. 21 Théorème
Pour tous sous-espaces vectoriels S 1 et S 2 de E , ona:
Exemple
CHANGEMENT DE BASE
5. 22 Définition
B = (e 1 ,……………e n ) et B’ = ( e1' ,………………, en' ) des bases de E .
Décomposons les vecteurs de la base B’ suivant ceux de B . On a:
n
e'j = α 1j e1 + ⋯⋯⋯⋯⋯⋯+ α nj en = ∑α ij ei , j =1,………, n.
i =1
Ces relations s’écrivent sous la forme matricielle suivante:
α11 . . α n1
. .... .
( e1' ,………………, en' ) = (e 1 ,……………e n ) . . .. . . (5. 13)
. . .. .
α n . . . α nn
1
α11 . . α n1
. .... .
La matrice P = . . . . . .s’appelle matrice de passage de la base B à l a
. . .. .
α n . . . α nn
1
base B’ .
Remarque
Pour déterminer la matrice de passage d’une base B à une base B’ , il
suffit d’écrire en colonne de la matrice les composantes des vecteurs de la
base B’ .
Exemple
Soient B = (e 1 ,……………e n ) la base (appelée base canonique) d’un
espace vectoriel E et u = 2 e 2 – e 3 ; v = e 1 – 3 e 3 ; w = e 1 + e 2 – 2 e 3 .
Déterminer la matrice de passage de la base B à la base B’ = (u, v, w).
Solution
Si P est la matrice de passage, alors on a:
0 1 1
P= 2 0 1
−1 −3 −2
5. 23 Propriétés
1. det(P) ≠ 0.
Supposons par absurde que det(P) = 0. Ceci exprime que les colonnes
de la matrice sont linéairement dépendants. Vu que ces colonnes sont les
composantes des vecteurs e1' ,………………, en' dans la base B , ces derniers sont
linéairement dépendants en vertu du théorème 3.4.5, ce qui contredit le fait
que B est une base. Donc det(P) ≠ 0.
α1 α '1
. .
. = P .
. .
α 'n
α
n
3. P-1 est la matrice de passage de la base B’ à la base B .
APPLICATIONS LINEAIRES
GENERALITES
5. 24 Définition
Soient E et F deux espaces vectoriels sur un corps commutatif K
( K = IR ou C). On appelle application linéaire f de E dans F , toute
application de E dans F qui possède les deux propriétés suivantes:
1. ∀ u ∈ E , ∀ v ∈ E : f(u + v) = f(u) + f(v) ,
2. ∀ u ∈ E ∀ λ ∈ IR : f( λ u) = λ f(u) .
Les deux propriétés peuvent se résumer en une seule:
∀ u ∈ E , ∀ v ∈ E , ∀ ( α , β ) ∈ IR 2 : f( α u + β v) = α f(u) + β f(v) .
Remarques
E f
0E 0F F F
Fig.16
Exemple
Soit E l’ensemble des applications f de IR * + dans IR indéfiniment
dérivables. On considère l’application ϕ de E dans E définie par :
ϕ (f) = f + 2xf’ .
Montrer que ϕ est un endomorphisme .
Solution
Remarquons tout d’abord que ϕ est bien une application de E dan s
E , puisque f + 2xf’ est indéfiniment dérivable dès que f l’est.
Montrons que ϕ est une application linéaire.
∀ (f 1 , f 2 ) ∈ E 2 , ∀ ( α , β ) ∈ IR 2 , on a:
ϕ ( α f 1 , + β f 2 ) = ( α f 1 + β f 2 ) + 2x( α f 1 + β f 2 )’ ( p ar d é fi n it io n )
= α f 1 + β f 2 + 2x[( α f 1 )’ + ( β f 2 )’] ( d ér ivée d e l a so m me d e d e u x fo nc tio n s)
= α f 1 + β f 2 + 2x( α f 1 )’ + 2x( β f 2 )’ ( d i st r ib u ti v ité d e . p ar r ap p o r t à + )
= α f 1 + β f 2 + 2x α f 1 ’ + 2x β f 2 ’
= α f 1 + 2x α f 1 ’ + β f 2 + 2x β f 2 ’
= α (f 1 + 2xf 1 ’) + β (f 2 + 2xf 2 ’) ( mi s e e n f ac te ur d e α e t β )
= αϕ (f 1 ) + βϕ (f 2 ) , donc on a démontré que:
ϕ ( α f 1 + β f 2 = αϕ (f 1 ) + βϕ (f 2 ) , c’est-à-dire que ϕ est une application linéaire
de E dans E d’où ϕ est un endomorphisme.
Conséquence
Pour montrer qu’une application linéaire vérifie certaines conditions,
il suffit de vérifier que les transformés (ou images) des vecteurs de base
vérifient ces conditions.
5.26 Définitions
Dr. AKPATA Edouard
85
Cours et Exercices résolus d’Algèbre linéaire
E f F E F
f
f
P f(P) Imf
Fig.17.a Fig.17.b
-1
E f E f 0F F
-1
f
-1
f (P’) P’ Kerf
Fig.18 . a Fig.18.b
Remarque
Dr. AKPATA Edouard
86
Cours et Exercices résolus d’Algèbre linéaire
5. 27 Théorème
Kerf est un sous-espace de E .
5. 28 Théorème
Pour qu’une application linéaire f de E dans F soit injective , il faut et
il suffit que Kerf = {0}
5. 29 Théorème
Si E et F ont même dimension on a l’équivalence:
Kerf = {0 E } ⇔ f est bijective .
5. 30 Théorème
Imf est un sous-espace vectoriel de F .
Soient y 1 et y 2 deux éléments de Imf . Cela veut dire qu’il existe dans
E des éléments x 1 et x 2 tels que: y 1 = f(x 1 ) et y 2 = f(x 2 ) .
Dr. AKPATA Edouard
87
Cours et Exercices résolus d’Algèbre linéaire
5. 31 Théorème
La dimension de E est la somme de la dimension de l’image f( E ) de E
par l’application f et de la dimension du no yau de f , en d’autres termes:
dim E = dim Kerf + dim Imf
Remarques
1.
i) Si f est injective, c’est-à-dire Kerf = {0} , alors dim E = dim Imf ( car
d im Ke r f = 0 ) .
iii) dim E = dim Imf ⇔ l’image de toute base de E est une base de
f( E ) .
v1 = a11 u1 + a12 u2
v2 = a21 u1 + a22 u2 (5. 14)
3
v = a u
31 1 + a u
33 2
f(e 1 ) f(e 2 )
a11 a12
A = a21
a31
a22 .
a32
n n m m n m n
v = f(u) = ∑u
j =1
j f(e j ) = ∑u j ∑ aij ei' = ∑(∑ aij u j ) ei' = ∑vi ei' ⇒ vi = ∑ aij u j ,
j =1 i =1 i =1 j =1 i =1 j =1
1 ≤ i ≤ m.
en d’autres termes:
v1 = a11 u1 +⋯⋯⋯⋯⋯⋯+ a1n un
...................................................
................................................... (5. 15)
...................................................
vm = am1 u1 +⋯⋯⋯⋯⋯+ amn un
f(e 1 ) f(e n )
a11.............................a1n
... ... ... ... ... ...... ...
A = ... ... ... ... ... ...... ... .
... ... ... ... ... ...... ...
am1 ... ... ... ... .........amn
Exemple
Soit E un espace vectoriel de base canonique B = (e 1 , e 2 , e 3 ).
Considérons une application linéaire f ayant pour matrice associée A définie
par:
1 2 1
A = 1 0 −1 .
1 1 0
Déterminer l’image Imf et le no yau Kerf de f.
Solution
Par définition v ∈ Imf si et seulement si on peut trouver un vecteur
x
u y ∈ E , tel que v = f(u) = A(u) ou encore:
z
1 2 1 x 1 2 1
v = A(u) = 1 0 −1 . y = x 1 + y 0 + z −1 (5. 16)
1 1 0 z 1 1 0
L’égalité (5. 15) montre que l’image Imf de f se confond avec l’enveloppe
linéaire du s ystème de vecteurs colonnes de la matrice A. Ce qui veut dire qu e
le rang de f est égal à celui de la matrice A qui est égal à deux (à vérifier!).
Donc nous pouvons prendre deux vecteurs colonnes quelconques des trois qui
engendreront l’image Imf de f. Par exemple nous pouvons prendre
1 2
v 1 = 1 , v2 = 0 .
1 1
D’où Imf est de dimension deux, donc le plan vectoriel engendré par les
vecteurs v 1 et v 2 .
x + 2y + z = 0 x = z y
x − z = 0 ⇔ x = -y = z ou x = = z
x + y =0 x = − y 1 −1 1
D’où le no yau Kerf est la droite d’équation x = - y = z ou engendrée par le
vecteur u(1; -1; 1).
i) Addition
On appelle somme des applications f 1 et f 2 et l’on note f 1 + f 2 ,
l’application f qui à tout élément u de E associe l’élément f(u) tel que
f(u) = (f 1 + f 2 )(u) = f 1 (u) + f 2 (u) .
Remarque
1. ( L , +) est un groupe abélien;
2. L ( E , F ) muni des deux opérations précédentes est un espace
vectoriel sur IR.
iii) Composition de deux applications linéaires
Soient E , F et G trois espaces vectoriels sur IR et soit f une
application linéaire de E dans F et g une application linéaire de F
dans G . On appelle application composée de f par g et l’on note
( g f ), l’application de E dans G qui à tout élément u ∈ E associ e
l’élément (g ° f)(u) ∈ G définie par:
(g ° f)(u) = g[f(u)] .
5. 36 Théorème
La composée de deux applications linéaires est une application
linéaire.
Soient f, g ∈ L ( E , F ) x L ( F , G ) et α , β ∈ IR on a:
(g ° f)( α u + β v) = g[f( α u + β v)]
= g[ α f(u) + β f(v)]
= g( α f(u)) + g( β f(v))
= α g[f(u)] + β g[f(v)]
Dr. AKPATA Edouard
91
Cours et Exercices résolus d’Algèbre linéaire
= α g ° f(u) + β g ° f(v).
D’où g ° f est une application linéaire.
5. 37 Théorème
La composition des applications linéaires est distributive par rapport
à l’addition.