Vous êtes sur la page 1sur 23

1.

Espace vectoriel
Un espace vectoriel est ensemble formé de vecteurs, de sorte que l’on
puisse additionner et (soustraire) deux vecteurs u, v pour en former un troisième
u + v ou (u − v) et aussi afin que que l’on puisse multiplier chaque vecteur
par un facteur λ pour obtenir un vecteur λ.u.

Définition 1. Un K espace vectoriel est un ensemble non vide E muni d’une


loi de composition interne, c’est-à-dire, une application de E × E dans E :

E×E → E
(u, v) → u + v,

et d’une loi de composition externe, c’est-à-dire, une application de K × E


dans E :

K×E → E
(λ, u) → λ.u

K est un corps (souvent K = R ou K = C). Les deux lois doivent vérifier la


liste des axiomes suivants:
Axiomes relatifs à la loi interne
(a) Commutativité

Pour tous, u, v ∈ E, u + v = v + u.

(b) Associativité

Pour tous, u, v, w ∈ E, u + (v + w) = (u + v) + w.

(c) Existence d’un élément neutre: Il existe un élément de E, noté 0E ,


vérifiant:
pour tout, u ∈ E, u + 0E = u.
On a aussi , 0E + u = u. Cet élément 0E s’appelle aussi le vecteur nul.

1
(d) Existence d’un symétrique
Pour tout u de E, il existe un élément u0 de E tel que u + u0 = 0E . On
a aussi u0 + u = 0E . Cet élement u0 est noté -u.
Axiomes relatifs à la loi externe
(a) Soit 1 l’élément neutre de la multiplication de K Pour tout élément u de
E,on a
1.u = u.

(b) Pour tous éléments λ et µ de K et pour tout élément u de E, on a

λ.(µ.u) = (λ × µ).u.

Axiomes liant les deux lois


(a) Distributivité par rapport à l’addition des vecteurs.
Pour tout élément λ de K et pour tous éléments u et v de E, on a

λ.(u + v) = λ.u + µ.v.

(b) Distributivité par rapport à l’addition des scalaires.


Pour tous éléments λ et µ de K et pour tout éléments u de E, on a

(λ + µ).u = λ.u + µ.u.

Soit E un K espace vectoriel.

Les éléments de E seront appelés des vecteurs.


Les éléments du corps K seront appelés des scalairs.

Proposition 1. Il existe un unique élément neutre 0E .


Pour u un élément de E, il existe un unique symétrique −u.

Preuve. Soient 0E et 00E deux éléments neutres de E. Alors pour tout u de


E
u + 0E = 0E + u = u,
(1)
00E + u = u + 00E = u.

2
Alors (1) avec u = 00E donne 00E + 0E = 0E + 00E = 00E
et (1) avec u = 0E donne 00E + 0E = 0E + 00E = 0E
d’où 0E = 00E .
Si u0 , u00 sont deux symétriques du même u, on a

u + u0 = u0 + u = 0E et u + u00 = u00 + u = 0E .

Donc

u0 + (u + u00 ) = u0 + 0E = u0 ,
u0 + (u + u00 ) = (u0 + u) + u00 = 0E + u00 = u00 .

On en déduit que u0 = u00 .

Exemple
(1) Posons K = R et E = R2 . Un élément u ∈ E est donc un couple (x, y)
avec x un élément de R et y un élément de R.

R2 = {(x, y)/x ∈ R, y ∈ R}.

Définition de la loi interne


Si (x, y) et (x0 , y 0 ) sont deux élements de R2 , alors

(x, y) + (x0 , y 0 ) = (x + x0 , y + y 0 ).

Définition de la loi externe Si λ est un réel et (x, y) un élement de R2 ,


alors
λ.(x, y) = (λx, λy).
L’élement neutre de loi interne est le vecteur nul (0, 0).
Le symétrique de (x, y) est (−x, −y), que l’on note −(x, y).

(2) Soient K = R et E = Rn . Un élement u ∈ E est donc un n− uplet


(x1 , ..., xn ).
Définition de la loi interne
Si (x1 , ..., xn ) et (x01 , ..., x0n ) sont deux élements de Rn , alors

(x1 , ..., xn ) + (x01 , ..., x0n ) = (x1 + x01 , ..., xn + x0n ).

3
Définition de la loi externe
Si λ est un réel et (x1 , ..., xn ) est un élement de Rn , alors
λ.(x1 , ..., xn ) = (λx1 , ..., λxn ).
L’élement neutre de loi interne est le vecteur nul (0, ..., 0).
Le symétrique de (x1 , ..., xn ) est (−x1 , ..., −xn ), que l’on note −(x1 , ..., xn ).

(3) F(R, R) : l’ensemble des fonctions f : R → R. Définition de la loi interne:


pour f, g ∈ F(R, R), f + g est définie par
∀x ∈ R, (f + g)(x) = f (x) + g(x).

Définition de la loi externe: pour λ ∈ R et f ∈ F(R, R), la fonction λ.f


est définie par
∀x ∈ R, (λ.f )(x) = λ × f (x).

L’élément neutre pour l’addition est la fonction nulle, définie par


∀x ∈ R f (x) = 0.

Le symétrique de f ∈ F(R, R) est g définie par


∀x ∈ R g(x) = −f (x).

(4) L’espace vectoriel R[X] des polynômes P (x) = an X n +...+a2 X 2 +a1 X +


a0 . L’addition est l’addition de deux polynômes P (X) + Q(X).
La multiplication par un scalaire λ ∈ R est λ.P (X).
L’élément neutre est le polynôme nul.
L’opposé de P (X) = −P (X).
Proposition 2. Soit E un K-espace vectoriel, alors pour tous éléments λ et
µ de K et pour tous éléments u et v de E, on a
(i) λ.0E = 0E .
(ii) λ.u = 0E ⇒ λ = 0K ou u = 0E .
(iii) (λ − µ).u = (λ.u) − (µ.u).
(iv) λ.(u − v) = (λ.u) − (λ.v).

4
2. Sous-espace vectoriel
Soit E un K-espace vectoriel

Définition 2. Une partie F ⊂ E est appelée un s.e.v si


(1) 0E ∈ F.

(2) u + v ∈ F, ∀u, v ∈ F.

(3) λ.u ∈ F, ∀λ ∈ K et ∀u ∈ F.

Exemples

(1) F = {(x, y) ∈ R2 /x + y = 0} est s.e.v de R2 . (0, 0) ∈ F. Si u =


(x1 , y1 ), v = (x2 , y2 ) ∈ F alors x1 + y1 = 0 et x2 + y2 = 0 donc
(x1 + x2 ) + (y1 + y2 ) = 0 et ainsi u + v = (x1 + x2 , y1 + y2 ) ∈ F. Si
u = (x1 , y1 ) ∈ F et λ ∈ R alors x + y = 0 donc λx + λy = 0 d’où λu ∈ F.

(2) L’ ensemble des fonctions continues sur R est un s.e.v de l’espace vecto-
riel des fonctions de R dans R.

(3) L’ensemble des suites réelles convergentes est un s.e v de l’espace vectoriel
des suites réelles.

Voici des sous-ensembles qui ne sont pas des s. e. v

(a) F = {(x, y) ∈ R2 /x + y = 2} n’est pas s.e.v de R2 . En effet: (0, 0) ∈


/ F.

(b) F = {(x, y) ∈ R2 /x = 0 ou y = 0} n’est pas s.e.v de R2 . En effet:


u = (1, 0), v = (0, 1) ∈ F, mais u + v = (1, 1) ∈
/ F.

(c) F = {(x, y) ∈ R2 /x ≥ 0 et y ≥ 0} n’est pas s.e.v de R2 . En effet:


u = (1, 1) ∈ F mais, pour λ = −1, −u = (−1, −1) ∈
/ F.

Théorème 3. Soit E un espace vectoriel et F un s.e.v de E. Alors F est lui


même un espace vectoriel pour les lois induites par E.

Méthodologie F est-il un espace vectoriel?

E1 Trouver un espace vectoriel E qui contient F.

5
E2 Prouver que F est un s.e.v de E.

Proposition 4. Soient F et G deux s.e.v d’un espace vectoriel E, alors


l’intersection F ∩ G est un s.e.v de E.
Toute intersection de sous-espaces vectoriels de E est un s.e.v de E.

Preuve. 0E ∈ F, 0E ∈ G donc 0E ∈ F ∩ G. Soient u, v ∈ F ∩ G, F est


un s.e.v, alors u, v ∈ F ⇒ u + v ∈ F. De même u, v ∈ G ⇒ u + v ∈ G.
Soient u ∈ F ∩ G et λ ∈ K, F est un s.e.v, alors u ∈ F ⇒ λu ∈ F. De même
u ∈ G ⇒ λu ∈ G. Donc λu ∈ F ∩ G. Conclusion: F ∩ G est un s.e.v.

La réunion de deux sous-espaces vectoriels n’est pas en général un sous-espace


vectoriel:
soit F = {(x, y, z) ∈ R2 /x = 0} et G = {(x, y) ∈ R2 /y = 0}, on a (1, 0) ∈ F,
(0, 1) ∈ G et (1, 0) + (1, 0) = (1, 1) ∈
/ F ∪ G.

Définition 3. F et G deux s.e.v d’un espace vectoriel E. L’ensemble de tous


les éléments u + v, où u un élément de F et v un élément de G, est appelé
somme des deux sous-espaces vectorils de F et G. On note alors

F + G = {u + v/u ∈ F, v ∈ G}.

Proposition 5. (1) F + G est un sous-espace vectoriel de E.

(2) F + G est le plus petit sous-espace vectoriel contenant F et G.

Exemples
(1) F = {(x, y, z) ∈ R3 /y = z = 0} et G = {(x, y, z) ∈ R3 /x = z = 0}.
Un élément w de F + G s’écrit w = u + v où u ∈ F et v ∈ G. Comme
u ∈ F, u = (x, 0, 0) et comme v ∈ G, v = (0, y, 0). ⇒ w = (x, y, 0) et
donc F + G = {(x, y, z) ∈ R3 /z = 0}.

(2) F = {(x, y, z) ∈ R3 /x = 0} et G = {(x, y, z) ∈ R3 /y = 0}. Montrons que


F +G = R3 . Soit w = (x, y, z) ∈ R3 , alors on écrit w = (0, y, z)+(x, 0, 0),
avec (0, y, z) ∈ F et (x, 0, 0) ∈ G. Donc F + G = R3 .

Remark 1. Remarquons que dans ce dernier exemple un élément de R3 ne


s’écrit pas d’une façon unique comme la somme d’un élément de F et un
élément de G. Par exemple (1, 2, 3) = (0, 2, 3) + (1, 0, 0) = (0, 2, 0) + (1, 0, 3).

6
Soient F et G deux sous-espaces vectoriels de E.
Définition 4. F et G sont en somme directe dans E si

F ∩ G = {0E } et F + G = E.

On note alors F ⊕ G = E et on dit aussi que F et G sont deux sous-espaces


vectoriels supplémentaires dans E.
Proposition 6. F et G sont supplémentaires dans E si seulement si tout
élément de E s’écrit d’une manière unique comme la somme d’un élément
de F et un élément de G.

Preuve. Si w ∈ E, on a w = u + v avec u ∈ F et v ∈ G . C’est possible


car E = F + G. Si de plus w = u0 + v 0 avec u0 ∈ F et v 0 ∈ G. Donc
u − u0 = v − v 0 ∈ F ∩ G = {0E } ⇒ u − u0 = 0E et v 0 − v = 0E . On en déduit
u = u0 puis v = v 0 .

Exemples
(1) F = {(x, y, z) ∈ R3 /x − y − z = 0} et G = {(x, y, z) ∈ R3 /y = z = 0}.
F ∩ G = {0R3 } : si u = (x, y, z) ∈ F ∩ G alors x − y − z = 0 car
u ∈ F et y = z = 0 car u ∈ G, donc u = (0, 0, 0) = 0R3 . Montrons
que F + G = R3 . Soit u = (x, y, z) ∈ R3 . On cherche v ∈ F et w ∈ G
tels que u = v + w. On a v = (y1 + z1 , y1 , z1 ) et w = (x2 , 0, 0). Donc
(x, y, z) = (y1 + z1 + x2 , y1 , z1 ). Ainsi y1 = y, z1 = z, x2 = x − y − z ⇒
(x, y, z) = (y +z, y, z)+(x−y −z, 0, 0) ∈ F ⊕G. Conclusion: F ⊕G = R3 .
(2) E = F(R, R), P l’ensemble des fonctions paires, I l’ensemble des fonc-
tions impaires. Montrons que P ⊕I = F(R, R). Soit f ∈ P ∩I, alors pour
tout réel x ∈ R, f (x) = f (−x) = −f (−x), ce qui implique f (x) = 0.
Donc f est la fonction nulle. Montrons que P + I = F(R, R). Soit
f ∈ F(R, R), posons g(x) = f (x)+f 2
(−x)
et h(x) = f (x)−f
2
(−x)
, donc g est
une fonction paire et h est une fonction impaire telles que f = g + h.
Définition 5. Un vecteur u de E est combinaison linéaire des vecteurs
u1 , ..., un de E, s’il existe des scalaires λ1 , ..., λn tels que

u = λ1 u1 + ... + λn un .

Les scalaires λ1 , ..., λn s’appellent les coefficients de la combinaison linéaire.

7
Exemple
Dans R4 , posons u1 = (1, 2, 0, 1), u2 = (2, 1, 3, −1), u3 = (3, 3, 3, 0) et u =
(5, 4, 6, −1). Le vecteur u est combinaison linéaire de {u1 , u2 , u3 } puisque
1 3 1
u = u1 + u2 + u3 .
2 2 2
Remarquez que cette combinaison linéaire égale à u n’est pas la seule, par
exemple
u = u1 + 2u2 = u2 + u3 .

Définition 6. Si u1 , ....., un sont des vecteurs d’un espace vectoriel E, l’ensemble


de toutes les combinaisons linéaires de ces vecteurs est un s.e.v de E. On
l’appelle s.e.v engendré par v1 , ....., vn et on le note V ect(u1 , ..., un ) ou hu1 , ..., un i.
Ona
V ect(u1 , ..., un ) = {λ1 u1 + ... + λn un /λ1 , ..., λn ∈ K}.

Montrons que V = V ect(u1 , ..., un ) est effectivement un s.e.v de E. Il


contient 0 puisque
0 = 0u1 + ... + 0un .
Si λ1 u1 + ... + λn un et λ01 u1 + ... + λ0n sont deux vecteurs de V alors

(λ1 u1 + ... + λn un ) + (λ01 u1 + ... + λ0n un ) = (λ1 + λ01 )u1 + ... + (λn + λ0n )un

est aussi un vecteur de V. L’ensemble V est donc stable par addition. Enfin,
si λ1 u1 + ... + λn un est un vecteur de V et si λ ∈ K alors

λ(λ1 u1 + ... + λn un ) = λλ1 u1 + ... + λλn un

est aussi un vecteur de V. L’ensemble V est donc stable par produit externe.
C’est bien un s.e.v de E et que c’est le plus petit s.e.v de E contenant
u1 , ..., un , (au sens de l’inclusion).
Grâce à la notion de sous-espace vectoriel engendré, nous obtenons beau-
coup d’exemples d’espaces vectoriels. Voici quelques-uns:

(1) Droite vectorielle V ect(u) = {λu/λ ∈ K} = Ku (u 6= 0E ).

(2) V ect(u, v) = {λu + µv/λ, µ ∈ K}. Si u et v ne sont pas colinéaires, c’est


un plan vectoriel.

8
   
1 1
(3) Si u =  1  et v =  2  ∈ R3 . Déterminons P = V ect(u, v).
  1 3 
x x
 y  ∈ V ect(u, v) ⇔  y  = λu + µv, pour certains λ, µ ∈ R.
z z 
     
x 1 1  x = λ + µ,
⇔  y  =λ 1  +µ 2
  ⇔ y = λ + 2µ,
z 1 3 z = λ + 3µ.

L’équation cartésienne de P est x − 2y + z = 0.

(4) E = F(R, R), f0 (x) = 1, f1 (x) = x, f2 (x) = x2 . V ect(f0 , f1 , f2 ) =


{f /f (x) = a + bx + cx2 } = R2 [X].
Proposition 7. Soit u1 , ....., un des vecteurs d’un espace vectoriel E. Soit
i ∈ {1, ..., n}. Alors,
X
V ect(u1 , ..., ui + αj uj , ..., un ) = V ect(u1 , ..., un ).
j6=i

pour tout ensemble de scalaires {αj : 1 ≤ j ≤ n, j 6= i}.


Preuve.
X X X
u= λj uj + λi (ui + αj uj ) ⇒ u = (λj + λi αj )uj + λi ui
j6=i j6=i j6=i

et X X X
u= αj uj ⇒ u = (λj − λi αj )uj + λi (ui + αj uj ).
j j6=i j6=i

Exemple
Dans R3 , on considère les trois vecteurs u1 = (1, 1, 1), u2 = (1, 2, 3) et u3 =
(3, 4, 5). On a u3 = 2u1 + u2 . Or,
V ect(u1 , u2 , u3 ) = V ect(u1 , u2 , u3 − 2u1 − u2 ) = V ect(u1 , u2 , 0)
et
= V ect(u1 , u2 , 0) = V ect(u1 , u2 ).
Ainsi,
= V ect(u1 , u2 , u3 ) = V ect(u1 , u2 ).
Écrire un espace engendré avec le moins de vecteurs possibles est l’un des
objetcifs de la partie suivante

9
3. Bases des espaces vectoriels
Définition 7. Une famille de vecteurs de E est libre si aucun de ses vecteurs
n’est combinaison linéaire des autres. Une famille de vecteurs de E est liée
si elle n’est pas libre.

Théorème 8. Une famille {u1 , ..., un } de vecteurs de E est libre si et seule-


ment si
n
X
n
∀(λ1 , ..., λn ) ∈ K , λi ui = 0E ⇒ λ1 = ... = λn = 0.
i=1

Preuve. Soient λ1 , ..., λn ∈ K tels que λ1 u1 + ... + λn un = 0. S’il existe un


coefficient non nul λi , alors
λ1 λi−1 λi+1 λn
ui = − u1 + ... − ui − ui+1 ... − un .
λi λi λi λi
Le vecteur ui est combinaison linéaire des autres : ceci contredit la liberté
de la famille {u1 , ..., un }. On en déduit que tous les coefficients sont nuls.

Exemples:
(1) Les vecteurs u1 = (1, 0, 1), u2 = (−1, 1, 1), u3 = (0, 1, 0) de R3 sont
linéairement indépendants. Soient α, β, γ ∈ R.

 α − β = 0,
αu1 + βu2 + γu3 = 0 ⇔ β + γ = 0,
α + β = 0.

Aprés résolution du système, on obtient αu1 + βu2 + γu3 = 0 ⇔ α = β =


γ = 0. On en déduit que la famille {u1 , u2 , u3 } est libre.

(2) Dans le R-espace vectoriel R3 , soit u1 = (1, −1, −1), u2 = (2, −1, 1) et
u3 = (1, 0, 2). Soient α, β, γ ∈ R tels que αu1 + βu2 + γu3 = (0, 0, 0).
Nous obtenons donc:

 α + 2β + γ = 0,
αu1 + βu2 + γu3 = 0 ⇔ −α − β = 0,
−α + β + 2γ = 0.

10
Aprés résolution du système, on obtient
αu1 + βu2 + γu3 = (0, 0, 0) ⇔ α = γ, β = −γ.
On en déduit que le système {u1 , u2 , u3 }. est lié car on a notament la
relation linéaire u1 − u2 + u3 = 0.
Définition 8. Le rang d’une famille est égal au plus grand nombre de vecteurs
linéairement indépendants que l’on peut extraire de cette famille
.
(1) {(1, 1, 1), (−1, 1, 1)} est libre ⇒ rang{(1, 1, 1), (−1, 1, 1)} = 2.
(2) Ona (0, −1, 1) = −(1, 0, −1) − (−1, 1, 0) ⇒
V ect{(1, 0, −1), (−1, 1, 0), (0, −1, 1)} = V ect{(1, 0, −1), (−1, 1, 0)}.
Puisque {(1, 0, −1), (−1, 1, 0)} est libre donc
rg{(1, 0, −1), (−1, 1, 0), (0, −1, 1)} = 2
Définition 9. Une famille {u1 , ..., un } de vecteurs de E est dite génératrice
de E si
E = V ect(v1 , ..., vn ).
On dit aussi que la famille {u1 , ..., un } engendre E ou que E est engendré
par la famille {u1 , ..., un }.
Exemple: F = {(x1 , x2 , x3 , x4 ) ∈ R4 /x1 − x2 = 0, x1 + x3 + x4 = 0}. F est
un s.e.v de R4 . Déterminons une famille génératrice de F. Ona
F = {(x1 , x1 , x3 , −x1 − x3 )/x1 , x3 ∈ R}
= {x1 (1, 1, 0, −1) + x3 (0, 0, 1, −1)/x1 , x3 ∈ R}.
Donc {(1, 1, 0, −1), (0, 0, 1, −1)} une famille génératrice de F.
Définition 10. Une famille de vecteurs de E est une base de E si c’est une
famille à la fois génératrice de E et libre.
Théorème 9. Une famille B = {u1 , ..., un } de vecteurs de E est base de E
si et seulement si
n
X
∀u ∈ E, il existe unique (λ1 , ..., λn ) ∈ Kn , u = λi ui .
i=1

Les scalaires λi sont appelés coordonnées du vecteur u dans la base B.

11
Preuve. Tout vecteur u de E est combinaison linéaire des vecteurs de
B puisque B est une famille génératrice de E. Soit u ∈ E et {λ1 , ..., λn },
{µ1 , ..., µn }, deux ensembles de scalaires tels que
n
X n
X
λi ui = µi u i .
i=1 i=1

On a alors n
X
(λi − µi )ui = 0E
i=1

et puisque la famille B est libre, on en déduit λi = µi pour tout i = 1, ..., n.


L’écriture de u en combinaison linéaire de vecteurs de B est donc unique.

Exemple:  
x
{(1, 1, 1), (−1, 1, 0), (1, 0, −1) forment une base de R3 . Soit  y  ∈ R3 ,
z
       
x 1 −1 1
 y  = a  1  + b  1  + c  0  , pour certains a, b, c ∈ R
z 1 0 −1
x+y+z
 
 x = a − b + c,  a= 3 ,
⇔ y = a + b, ⇔ b = −x+2y−z
3
,
x+y−2z
z = a − c. c= 3 .
 

Ceci implique
       
x 1 −1 1
 y  = x + y + z  1  + −x + 2y − z  1  + x + y − 2z  0  .
3 3 3
z 1 0 −1

Donc {(1, 1, 1), (−1, 1, 0), (1, 0, −1) est une partie génératrice de R3 . Si x =
y = z = 0 ⇒ a = b = c = 0 ce qui montre qu’elle est libre et donc c’est
une base de R3 . Les composantes de (x, y, z) dans cette base sont: x+y+z 3
,
−x+2y−z x+y−2z
3
et 3
.
Exemples :
(1) {(1, 0), (0, 1)} est une base de R2 .

12
(2) {(1, 0, 0), (0, 1, 0), (0, 0, 1)} est une base de R3 .

(3) En général, {e1 = (1, 0, ..., 0), ..., ei = (0, ..., 1, ...0), ..., en = (0, ..., 0, 1)}
est la base canonique de Rn .

(4) La famille {1, X, ..., X n } est une base de Rn [X] qui désigne l’espace vec-
toriel des polynômes de degré inférieur ou égal à n, on l’appelle la base
canonique de Rn [X].
Le théorème suivant s’appelle théorème de la base incomplète et il énonce
qu’une famille libre quelconque peut être complétée en une base en prenant
des vecteurs dans une famille génératrice quelconque.
Théorème 10. Soit E un espace vectoriel. Soit {u1 , ..., up } une famille libre
de E et {v1 , ..., vq } une famille génératrice de E. Alors il existe un entier
n ≥ p et une base {e1 , ..., en } de E telle que:
1. pour tout i ≤ p on a ei = ui
2. pour tout i > p on a ei ∈ {v1 , ..., vq }.
Exemple
Soit F le sous espace vectoriel R4 [X] engendré par les vecteurs P1 = X 2 ,
P2 = (X − 1)2 et P3 = (X + 1)2 Montrons que B = (P1 , P2 , P3 ) est une base
de F. Par construction, B est génératrice. Montrons que B est libre. En effet
soient α, β, γ ∈ R tels que αP1 + βP2 + γP3 = 0. Nous obtenons donc:

 α + β + γ = 0,
2
αP1 +βP2 +γP3 = 0 ⇔ (α+β+γ)X −2(β−γ)X+β+γ = 0 ⇔ β − γ = 0,
β + γ = 0.

Aprés résolution du système, on obtient αP1 + βP2 + γP3 = 0 ⇔ α = β =


γ = 0. On en déduit que le système {P1 , P2 , P3 } est libre donc c’est une base.
Complétons (P1 , P2 , P3 ) en une base de R4 [X]. Posons P4 = X 3 et P5 = X 4 .
Les vecteurs P1 , P2 , P3 , P4 et P5 forment une base de R4 [X].

Soit E est un espace vectoriel


(i) Toutes les bases de E ont le même ordre égal à n. Ce nombre n s’appelle
la dimension de l’espace. On note dim E = n. On a

dim Rn = n et dim Rn [X] = n + 1.

13
(ii) Le rang d’une famille est égal à la dimension du s.e.v engendré par cette
famille.

(iii) Le nombre d’éléments de toute famille génératrice de E est supérieur à


n.

(iv) Le nombre d’éléments de toute famille libre de E est inférieur à n.

(v) Si le nombre d’éléments d’une famille libre ou génératrice de E est égal


à n, alors cette famille est une base de E.

(vi) Si F est un sous espace vectoriel de E, alors dim F ≤ dim E. Si dim F =


dim E. alors F = E.
(vii) Si F et G sont deux s.e.v de E alors:
(a) dim(F + G) = dim F + dim G − dim F ∩ G.

(b) Si F ⊕ G = E alors dim(F + G) = dim F + dim G = dim E. Si


{u1 , ..., up } et {u1 , ..., vq } sont deux bases respectives de F et G
alors {u1 , ..., up , v1 , ..., vq } est une base de E.

4. Applications linéaires
Définition 11. Soit E et F deux espaces vectoriels. Une application f de
E dans F est une application linéaire si:
1. f (u + v) = f (u) + f (v), ∀u, v ∈ E.
2. f (λ.u) = λf (u), ∀u ∈ E et ∀λ ∈ K.

Exemples:
(1)

f : R2 → R3
(x, y) 7→ (x − y, x, x + y)

14
Soient X = (x, y) et X 0 = (x, y) de R2 ,

f (X + X 0 ) = f (x + x0 , y + y 0 )
= ((x + x0 ) − (y + y 0 ), x + x0 , (x + x0 ) + (y + y 0 ))
= (x − y + x0 − y 0 , x + x0 , x + y + x0 + y 0 )
= (x − y, x, x + y) + (x0 − y 0 , x0 , x0 + y 0 )
= f (X) + f (X 0 ).

Soient X = (x, y) et λ ∈ R,

f (λX) = f (λx, λy)


= (λx − λy, λx, λx + λy)
= λ(x − y, x, x + y)
= λf (X).

Donc, f est une application linéaire.

(2) Soit E = R2 [X] et soit f : E → E, définie par

f (P ) = 2P − (X − 1)P 0 , ∀P ∈ E.

Soient P et Q de E,

f (P + Q) = 2(P + Q) − (X − 1)(P + Q)0


= 2(P + Q) − (X − 1)(P 0 + Q0 )
= 2P + 2Q − (X − 1)P 0 + (X − 1)Q0
= 2P − (X − 1)P 0 + 2Q − (X − 1)Q0
= f (P ) + f (Q).

f (λP ) = 2(λP )−(X−1)(λP )0 = 2λP −(X−1)λP 0 = λ(2P −(X−1)P 0 ) = λf (P ).


Donc, f est une application linéaire.
(3) Soit f : R → R définie par: f (x) = x2 . On a f (1) = 1 et f (2) = 4. Donc
f (2) 6= 2.f (1). On a pas toujours l’égalité f (λx) = λf (x). Donc f n’est
pas linéaire. On a pas non plus f (x + x0 ) 6= f (x) + f (x0 ) dès que xx0 6= 0.
Donc, f une application non linéaire.

15
Proposition 11. Si f : E → F une application linéaire, alors
(a) f (0E ) = 0F .

(b) f (−u) = −f (u), ∀u ∈ E.


Proposition 12. f : E → F une application linéaire si seulement si, pour
tous vecteurs u, v de E et tous scalaires λ, µ de K
f (λu + µv) = λf (u) + µf (v).
Une application linéaire préserve les combinaisons linéaires, c’est-à-dire,
f (λ1 u1 + ... + λn un ) = λ1 f (u1 ) + ... + λn f (un ).
Vocabulaire:
(1) Une application linéaire de E dans F est aussi appelée morphisme d’espaces
vectoriels.

(2) L’ensemble des applications linéaires de E dans F est noté L(E, F ).

(3) Une application linéaire de E dans E est appelée endomorphisme de E.


(4) L’ensemble des endomorphismes de E est noté L(E).

Définition 12. Si f ∈ L(E, F ), alors le noyau de f, noté ker(f ), et l’image


de f, notée Im(f ), sont définis par
ker(f ) = {x ∈ E/f (x) = 0F } = f −1 ({0F }).
Im(f ) = {f (x)/x ∈ E} = {y ∈ F/∃x ∈ E : f (x) = y} = f (E).
Théorème 13. L’ensemble Ker(f ) est un s.e.v de E et l’ensemble Im(f )
est un s.e.v de F.

Preuve. 0E ∈ ker(f ) car f (0E ) = 0F . Soient x1 , x1 ∈ ker(f ) et λ ∈ K,


Montrons que x1 + λx2 ∈ ker(f ). On a f (x1 + λx2 ) = f (x1 ) + λf (x2 ) = 0F +
λ.0F = 0F +0F = 0F . Donc x1 +λx2 ∈ ker(f ). Conclusion: Ker(f ) est un s.e.v
de E. On a 0F = f (0E ) ∈ Im(f ). Soient y1 , y2 ∈ Im(f ) et λ ∈ K, montrons
que y1 + λy2 ∈ Im(f ). Il existe x1 , x2 ∈ E tels que f (x1 ) = y1 et f (x2 ) = y2 .
Comme f est linéaire alors y1 + λy2 = f (x1 ) + λf (x2 ) = f (x1 + λx2 ) ∈ Im(f )
donc y1 + λy2 ∈ Im(f ). Conclusion: Im(f ) est un s.e.v de F.

16
Le théorème du rang suivant donne une relation entre la dimension du noyau
et la dimension de l’image de f.
Théorème 14. Soit E et F deux espaces vectoriels de dimension finie et
f ∈ L(E, F ). On a

dim E = dim Im(f ) + dim ker(f ).

dim Im(f )) est aussi appelée le rang de f et est notée rg(f ).


Dans la pratique, il suffit donc de déterminer la dimension du noyau ou
celle de l’image d’une application linéaire pour avoir les deux dimensions.
Exemples:
(1) f (x, y) = (x − y, x, x + y)
Calculons le noyau :

(x, y) ∈ ker(f ) ⇔ (x − y, x, x + y) = (0, 0, 0)



 x−y =0
⇔ x=0 ⇔ (x, y) = (0, 0).
x+y =0

Ainsi ker(f ) = {(0, 0)}. La formule du rang, appliquée à f : R2 → R3


s’écrit dim R2 = dim Im(f ) + dim ker(f ). Donc dim Im(f ) = 2.
Calculons l’image. Quels éléments (X, Y, Z) ∈ R3 peuvent s’écrire f (x, y)?

f (x, y) = (X, Y, Z) ⇔ (X, Y, Z) = (x − y, x, x + y)


 
 x−y =X  x=Y
⇔ x=Y ⇔ y =Y −X
x+y =Z 2Y − X = Z.
 

Donc

Im(f ) = {(X, Y, Z) ∈ R3 /2Y − X = Z}


= {(X, Y, 2Y − X)/X, Y ∈ R}
= {X(1, 0, −1) + Y (0, 1, 2)/X, Y ∈ R}
= V ect{(1, 0, −1), (0, 1, 2)}.

17
(2) f (x, y, z) = (2x − y + z, x − y − z, x + 2z)
Calculons le noyau :
(x, y, z) ∈ ker(f ) ⇔ (2x − y + z, x − y − z, x + 2z) = (0, 0, 0)

 2x − y + z = 0 
x = −2z
⇔ x−y−z =0 ⇔
y = −3z
x + 2z = 0

Ainsi
ker(f ) = {(−2z, −3z, z)/z ∈ R} = V ect{(−2, −3, 1)}.
La formule du rang, appliquée à f : R3 → R3 s’écrit dim R3 = dim Im(f )+
dim ker(f ). Donc dim Im(f ) = 2.
Calculons l’image. Quels éléments (X, Y, Z) ∈ R3 peuvent s’écrire f (x, y, z)?
f (x, y, z) = (X, Y, Z) ⇔ (x, y) = (x − y, x, x + y)
  
 2x − y + z = X  2x − y + z = X  2x − y + z = X
⇔ x−y−z =Y ⇔ −y − 3z = 2Y − X ⇔ y + 3z = X − 2Y
x + 2z = Z y + 3z = 2Z − X X − Y − Z = 0.
  

Donc
Im(f ) = {(X, Y, Z) ∈ R3 /X − Y − Z = 0}
= {(X, Y, X − Y )/X, Y ∈ R}
= {X(1, 0, 1) + Y (0, 1, −1)/X, Y ∈ R}
= V ect{(1, 0, 1), (0, 1, −1)}.

(3) f (P ) = 2P − (X − 1)P 0 , ∀P ∈ R2 [X].


Soit P ∈ R2 [X], on a P = a + bX + cX 2 pour certains a, b, c ∈ R. Alors
f (P ) = 0 ⇔ P vérifie l’équation différentielle
2P − (X − 1)P 0 = 0 ⇔ 2(a + bX + cX 2 ) − (X − 1)(b + 2cX 2 ) = 0

 2a + b = 0,
⇔ b = 0,
3c = 0.

Ainsi ker(f ) = {0}. Par le théorème du rang la dimension de l’image est:


dim Im(f ) = dim R2 [X] − dim ker(f ) = 3. Ainsi Im(f ) est un s.e.v de
dimension 3 inclus dans R2 [X] de dimension 3 donc Im(f ) = R2 [X].

18
Propriété
(1) L’application linéaire f est injective si son noyau est réduit au vecteur
nul: ker(f ) = {0}. Une application linéaire injective transforme les
familles libres en familles libres.

(2) L’application linéaire f : E → F est surjective si son image est égale


à F entier. Une application linéaire surjective transforme les familles
génératrices en familles génératrices.

(3) Une application linéaire bijective (injective est surjective) de E dans F


est appelée isomorphisme. Un isomorphisme transforme une base en
une base. Lorsqu’une telle application existe, on dit que E et F sont
isomorphes. Deux espaces isomorphes ayant même dimension. Si E et
F ont la même dimension, alors pour toute application linéaire f de E
dans F, les trois propriétés suivantes sont équivalentes : f injective ⇔ f
surjective ⇔ f bijective.

5. Matrices et applications linéaires


Définition 13. Une matrice de type (n, p) est un tableau de scalaires à n
lignes et p colonnes:

a11 · · · · · ·
 
a1p
 .. .. .. .. 
 . . . . 
A =  ai1 · · · · · · aip  .
 
 . .. .. .. 
 .. . . . 
an1 · · · · · · anp
On note aussi la matrice A par: A = (aij )0≤i≤n,0≤j≤p . On note Mn,p (K)
l’ensemble des matrices de type (n, p). Les matrices de type (n, n) sont ap-
pelées matrices carrées de taille n. L’ensemble de ces matrices sera notèe
Mn (K).
Exemples
 
  1 4  
1 2 3 1
A= ∈ M2,3 (K), B =  2 5  ∈ M3,2 (R), B = ∈
4 4 5 2
 3 6
M2,1 (R), B = 1 ∈ M1 (R).

19
Définissons maintenant les opérations sur les matrices:
Addition:
Si A=(aij ), B = (bij ) sont des matrices de type (n, p), alors A + B est une
matrice de type (n, p) dont les coefficients sont donnée par:
cij = aij + bij .
Exemple:
   
1 2 −1 1 0 1
A= ,B = ∈ M2,3 (R).
2 1 −2 0 −1 1
 
2 2 0
A+B = ∈ M2,3 (R).
2 0 −1
Multiplication par un scalaire:
Si A=(aij ) est une matrice de type (n, p) et α ∈ K alors αA est une matrice
de type (n, p) dont les coefficients sont donnée par:
cij = αaij .
Exemple:  
1 2 −1
A =  2 1 −2  .
0 1 −1
 
5 10 −5
5 × A =  10 5 −10  .
0 5 −5
Multiplication de deux matrices:

Si A=(aij ), B = (bij ) sont deux matrices de type (n, p), (p, q) alors AB
est une matrice de type (n, q) dont les coefficients sont donnée par:
p
X
∀i, j : cij = aik bkj = ai1 b1j + ai2 b2j + · · · + ain bnj
k=1
Il faut noter que le produit de deux matrices n’est possible que si le nom-
bre de lignes de la première est égal au nombre de colonnes de la deuxième.

Exemples:

20
(a) Le produit d’une matrice ligne A ∈ M1,m (K) par une mtrice colonne
B ∈ Mm,1 (K) est un scalaire:
 
b1j
 ..
 .


A = (ai1 , ai2 , ..., aim )  bkj  = ai1 b1j +· · ·+aik bkj +· · ·+aim bmj ∈ K.
 
 .
 ..


bmj


  −2 0
1 −1 2
(b) A = , et B =  1 −1  .
−2 0 1
−3 4
A ∈ M2,3 (R) et B ∈ M3,2 (R) ⇒ A × B ∈ M2,2 (R) et B × A ∈ M3,3 (R).
 
−9 9
A×B = .
1 4
 
−2 2 −4
B × A =  3 −1 1  .
−11 3 −2

Remark 2. La multiplication des matrices n’est pas commutative, on a en


général AB 6= BA.

         
1 1 0 1 1 2 −1 0 0 1 1 1
= 6= = .
−1 0 1 1 0 −1 0 1 1 1 −1 0

Matrice unité ou identité: C’est la matrice de Mn (K) dont les coefficients


aij vérifient (
aii = 1
. On note In .
aij = 0 si i 6= j

Théorème 15. Mn,p (K) muni de l’addition et de multiplication par un scalaire


est un espace vectoriel de dimension np.

21
Proof. L’élément neutre pour l’addition est la matrice nulle On,p : la matrice
de type (n, p) dont tous les coefficients sont nulle.
Le symétrique d’une matrice A ∈ Mn,p (K) est la matrice obtenue en changeant
la signe de chaque coefficient.
B = {Eij , 1 ≤ i ≤ n, 1 ≤ j ≤ p} est une base de Mn,p (K), avec

1 si (m, n) = (i, j),
(Eij )mn = :
0 sinon

Colonne Cj

0 ··· 0 ··· 0
 
 ... ..
.
..
.
..
.
.. 
.

Eij = .0 · · · 1 · · · 0  ← i ligne.
 .. .. .. .. .. 
. . . .
0 ··· 0 ··· 0
La base B s’appelle la base canonique de Mn,p (K).

Définition 14. La transposée tA d’une matrice A est la matrice obtenue en


échangeant les lignes et les colonnes de A

Exemple:  
  1 2
1 3 5
A= ∈ M (2, 3), At =  3 4  ∈ M (3, 2).
2 4 6
5 6
Matrice unité ou identité: C’est la matrice de Mn (K) dont les coefficients
aij vérifient (
aii = 1
. On note In .
aij = 0 si i 6= j
Propriété: AIn = In A = A, ∀A ∈ Mn (K).

Définition 15. Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe
une matrice carrée B ∈ Mn (K) telle que : A × B = B × A = In . On note
B = A−1 . La matrice B = A−1 s’appelle la matrice inverse de la matrice A.
   
1 2 3 −2
A= ,B= ,
1 3 −1 1

22
 
1 0
A×B =B×A= = I2
0 1
La matrice
 A est alors
 inversible
 et A−1
 = B.
0 1 a b
A= , ∀B = ,
0 0  c d
c d
A×B = 6= I2 ,
0 0
donc la matrice A est alors non inversible.

Les opérations sur les matrices vérifient les règles suivantes:


Proriétés:

(i) A(BC) = (AB)C

(ii) A(B + C) = AB + AC

(iii) α(AB) = (αA)B

(iv) (At)t = A

(v) (A + B)t = At + B t

(vi) t(αA) = αAt

(vii) t(AB) = B tAt

(viii) (AB)−1 = B −1 A−1

23

Vous aimerez peut-être aussi