Vous êtes sur la page 1sur 57

Chapitre 3 : Espaces vectoriels

1 Préliminaires

Historiquement, la notion de vecteur apparaît comme un excellent outil pour formaliser


des phénomènes de la physique. Au tout début, cette notion a un caractère fortement
géométrique : il s’agit de visualiser dans le plan ou dans l’espace des "objets" de la physique
(forces, moments, etc...) ayant un caractère plus complexe que juste leur valeur mesurée.
Dans cette vision, un vecteur est un segment de droite orienté : on lui désigne une origine
(un de ses bouts) et un point d’application (l’autre bout), mais il est caractérisé également
par sa longueur qui est une quantité mesurable par des nombres réels positifs (ce qui lui
confère un caractère algébrique aussi).

1.1 Vecteurs de la droite réelle

Si on voit le segment-vecteur "plongé" sur une axe réelle, de par les propriétés des nombres
réels il est évident que la longueur du segment peut être modulée par sa multiplication
par un autre réel λ > 0. En effet, vu qu’un tel segment est un intervalle I = [a, b], sa
longueur est lI = b − a et un quelconque de ses points x vérifie a 6 x 6 b. En multipliant
le tout par un λ > 0 on a λa 6 λx 6 λb ce qui désigne un autre intervalle réel, notons-le
λI = [λa, λb], de longueur lλI = λb − λa = λlI . Il est alors évident que pour 0 < λ < 1 le
segment λI est plus court que I et si λ > 1, le segment λI est plus long que I.
Pour λ = 1 les segments λI et I ne sont pas seulement de longueurs égales, mais ils
coïncident même. Cette (banale) précision n’est pas dénouée de sens : on peut avoir des
segments de droite (lire : vecteurs) ayant une même longueur mais qui, géométriquement
sur l’axe réelle, ne coïncident pas. Et c’est là où, à la petite échelle qui est celle d’une
simple ligne (la droite réelle) on comprend la distinction entre le point de vue algébrique
"naïf" (illustré par les longueurs) et le point de vue géométrique, qui, lui, arrive à distinguer
des objets ayant la même longueur.
Le cas λ = 0 nous met encore un peu plus sur la voie. Dire qu’un segment I = [a, b] est de
longueur 0, affirme l’égalité a = b et réduit I à un seul point de l’axe réelle : {a} = {b}.
Mais si I = [a, b] n’est pas forcement de longueur 0, le segment λI avec λ = 0 se réduit
toujours à l’origine {0} de l’axe réelle. Ceci montre que même pour ce cas très particulier
il y a distinction entre les vecteurs perçus juste par leur longueur et la notion géométrique
de vecteur.
Le cas λ < 0 met en évidence une symétrie par rapport à l’origine de l’axe réel de ce qui
a été décrit pour le cas λ > 0, à ceci près, que ce cas arrive à modeler (algébriquement)
la notion d’orientation du segment-vecteur. En effet, si I = [a, b] est un tel segment, en

1
multipliant a 6 x 6 b par un λ < 0 on a λb 6 λx 6 λa ce qui désigne l’intervalle réel λI
sous la forme [λb, λa] = [−|λ|b, −|λ|a], qui est le symmetrique par rapport à l’origine de
[|λ|a, |λ|b] = |λ| I. Concernant les longueurs, elles se gardent peu importe le signe de λ :
l−|λ|I = l|λ|I .
Après avoir fait le point sur les possibilités offertes (ou... les résultats obtenus) par la
multiplication d’un segment-vecteur par un réel λ, annonçons notre but : il s’agit de voir
si, en partant d’un seul segment-vecteur de l’axe réelle (fixé), on peut "fabriquer" tout
segment-vecteur par l’opération de multiplication de celui fixé par un réel λ convenable-
ment choisi.
D’une façon plus générale encore, la démarche qui sera la notre est de se demander,
lorsqu’on part d’un ensemble donné avec des propriétés de ses éléments données, quel
est alors le sous-ensemble minimal et quel est le minimum d’opérations nécéssaires à
introduire dessus, pour arriver à "fabriquer" le grand ensemble à partir des éléments de
ce petit sous-ensemble.
Avec ce but en tête, faisons le bilan de l’opération de multiplication d’un segment-vecteur
par un réel λ. On arrive ainsi à :
• moduler les longueurs des vecteurs
• à leur faire changer de sens d’orientation,
mais...
• on n’arrive pas à distinguer deux vecteurs de l’axe lorsqu’il ont la même longueur
et le même sens.
En effet, il n’y a pas de λ réel qui fasse que λI soit le vecteur placé symétriquement
à I (par rapport à 0) mais de sorte que λI ait une orientation dans le même sens
que I.
• on n’arrive pas à récupérer tous les vecteurs de l’axe réelle en partant d’un seul
vecteur (ni d’un nombre fini, ou même infini dénombrable de vecteurs).
En effet, si par exemple I = [a, b] ⊂ R∗+ , lorsque λ > 0 on n’arrive pas à "fabriquer"
tous les vecteurs de R+ par des λI car ceux-ci sont seulement les vecteurs de la demie-
axe positive ayant des longueurs proportionnelle à celle de I. Le fait de considérer un
ensemble dénombrable {In | n ∈ N} de tels intervalles ne change pas la conclusion :
l’ensemble {λIn | n ∈ N, λ ∈ R} ne couvre pas celui de tous les vecteurs-segments
de R+ .

En ce sens, on peut dire que la multiplication d’un segment-vecteur par un réel λ est
insuffisante pour "fabriquer" tous les vecteurs de l’axe réelle à partir d’un seul, choisi
arbitrairement.
Au vu de cette situation, la question qui se pose est : n’y aurait-il pas un abord algébrique
supérieur (à celui du banal calcul entre des nombres λ ∈ R et les longueurs de segments)
qui permettrait de décrire les objets visuels que sont les vecteurs tout aussi bien que
l’abord géométrique le fait ?

2
Arrivés à ce niveau, faisons une observation : que, si l’on se restreint aux seuls segments-
vecteurs ayant un bout qui coïncide avec l’origine O de l’axe réelle, le problème décrit
ci-dessus n’arrive plus. Autrement dit, si on se restreint plus encore, aux segments de R+
du type Ix = [0, x], ∀x ∈ R+ , alors il y a une correspondance biunivoque entre Ix et sa
longueur lIx = x − 0 = x > 0, et, par multiplication par des λ = −1 < 0 on obtient à
partir des Ix leur symétriques (−1)I = I−x = [−x, 0].
Par voie de conséquence, le problème soulevé dans le bilan tiré précédemment disparaîtrait
si on arrivait à décrire tous les vecteurs-segments de l’axe réel (peu importe leur origine)
par le biais de seulement ceux qui ont l’origine en l’origine O de l’axe.
Pour ce faire, un ingrédient nouveau doit être introduit : l’opération d’addition des vecteurs
ayant l’origine en O.
En effet, si I = [a, b] ⊂ R+ , sa longueur vaut lI = b − a = (b − 0) + (0 − a) = lIb + lI−a =
lIb − lIa . Ceci suggère la définition de la somme de deux vecteurs-segments de R comme :
Ia + I = Ib , ce qui est très naturel aussi en tant qu’ensembles, puisque cette somme
coïncide avec l’union : [0, a] ∪ [a, b] = [0, b], et qui s’écrit aussi [0, b] \ [0, a] = [a, b]. Le
cas des segments I = [−b, −a] ⊂ R− est obtenu en imitant la définition précédente :
I−a + I = I−b , mais remarquer que ceci s’écrit aussi comme (−1)Ia + (−1)I = (−1)Ib donc
peut être obtenu du cas I = [a, b] ⊂ R+ par simple multiplication des vecteurs segments
par le scalaire λ = −1. Reste à considérer le cas a < 0 < b, i.e. lorsque I = [−|a|, b].
Or, en tant qu’ensembles on a [−|a|, b] = [−|a|, 0] ∪ [0, b] ce qui s’écrit avec les notations
introduites auparavant : I = I−|a| + Ib = Ia + Ib . Concernant les longueurs, on a : lI =
b − a = (b − 0) + (0 − a) = (b − 0) + (|a| − 0) = lIb + lI|a| .
En conclusion, on vient de montrer que :
• On peut obtenir tout vecteur-segment de R ayant l’origine en O (origine de R) à
partir d’un seul tel objet, juste en multipliant ce dernier par un scalaire λ ∈ R.
• On peut obtenir tout vecteur-segment de R d’origine et point d’application quel-
conque à partir de deux vecteurs-segment de R ayant l’origine en O juste en les
additionnant.
Ainsi, pour l’étude des vecteurs de la droite réelle, on s’est réduits à devoir considérer
uniquement le sous-ensemble de ceux qui ont l’origine en O (origine de R), muni de deux
opérations :

• L’une, entre un "scalaire" λ ∈ R et un vecteur Ix de l’axe réelle. Cette opération (de


multiplication) est dite "externe" car elle mélange scalaires à des vecteurs (donc elle
est externe au seul ensemble des vecteurs)
• L’autre, entre deux vecteurs ayant l’origine en O. Cette opération (d’addition) est
dite "interne" car elle n’a lieu qu’entre des vecteurs (donc elle est interne à l’ensemble
des vecteurs)

3
1.2 Vecteurs du plan

Nous nous proposons de généraliser au plan géométrique les idées et les constatations
faites précédemment pour le cas des vecteurs de la droite réelle.
Dans le cas du plan, la caractère géométrique des vecteurs est encore plus prononcé que
sur la droite : ce sont de flèches (segments orientés) qui relient deux points du plan.
Rappelons que, vu en tant qu’ensemble, le plan est le produit cartésien :
n o
R2 = R × R = (x, y) | x ∈ R, y ∈ R .

Un élément (point) u du plan est donc un couple (x, y) avec x et y éléments de R. Même
si cette écriture prête à le croire, il n’y a, à ce niveau, aucun choix fait sur un "système
de coordonnées" dans le plan. Ce qui veut dire que cette définition "ensembliste" du plan
ne lui confère aucune qualité géométrique pour l’instant.
Cependant, dans un plan il y a des droites et à l’intérieur des droites il y a des vecteurs-
segment comme ceux décrits à la section précédente. Réciproquement, il n’y a pas d’autre
vecteurs dans le plan hormis ceux qui se trouvent sur une des droites de celui-ci.
Il est évident alors que, si on prend comme ensemble de scalaires (de nombres) les réels, en
ce qui consiste l’opération externe de multiplication d’un vecteur du plan avec un scalaire
λ ∈ R elle sera la même que celle définie auparavant : on peut ainsi, à partir de deux
points du plan, obtenir un segment de droite qui les relie, segment qu’on verra comme un
vecteur et la multiplication de celui-ci par tous les scalaires réels fournira tous les vecteurs
de la droite sur laquelle se trouvent les deux points du plan considérés.
Cette construction montre bien les limites de l’opération (externe) de multiplication entre
un scalaire λ ∈ R et un vecteur : par cette opération on ne peut espérer obtenir plus d’une
seule droite dans le plan.
Pour pouvoir retrouver tous les vecteurs du plan, il nous faut une opération qui nous
"sort" de la droite : l’addition entre deux vecteurs non-colinéaires.
La condition de non-colinéarité est importante car, comme déjà vu auparavant, l’addition
de deux vecteurs appartenant à une même droite donnait un vecteur de la même droite,
donc on n’arrive toujours pas à "sortir" de la droite lorsque les vecteurs qui s’additionnent
sont co-linéaires.
D’un point de vue géométrique (visuel) l’addition de deux vecteurs ayant une origine
commune est donnée par la "règle du parallélogramme". Cette règle peut être modelée par
une définition purement algébriques que nous donnons ci-dessous. Noter que le choix d’un
système de coordonnées orthogonales (perpendiculaires) n’est pas nécessaire pour établir
l’équivalence entre la règle visuelle du parallélogramme et la définition ci-dessous.

• Définition de la loi interne. Si u = (x, y) et v = (x0 , y 0 ) sont deux éléments de R2 ,


alors la somme u + v est un élément de R2 défini par :

u + v = (x, y) + (x0 , y 0 ) := (x + x0 , y + y 0 ).

4
• Définition de la loi externe. Si λ est un réel et u = (x, y) est un élément de R2 , alors
λ · u est un élément de R2 défini par :

λ · u = λ · (x, y) := (λx, λy).

Remarquer que ci-dessus nous avons deux types de multiplications distinctes : dans l’écri-
ture λx ou λy il s’agit du produit dans R entre λ et x et y qui sont tous des réels.
Cependant celle désignée par "·" fait référence à une opération qu’on est justement en
train de définir, entre un (scalaire) réel λ et un couple de réels (x, y) qui a la signification
de vecteur u.
De même pour le signe "+" : en écrivant x + x0 ou y + y 0 on fait référence à l’addition
usuelle entre des réels, alors que u + v signifie une addition entre des vecteurs, qu’on veut
justement, définir en termes des opérations connues sur R.
Nous avons vu dans la section précédente qu’on arrivait à exprimer tous les vecteurs de
la droite réelle par des opérations entre des vecteurs ayant l’origine en O. C’est la cas
aussi pour le plan : si on note O l’élémént (0, 0) ∈ R2 ou bien si on se choisit un point
quelconque du plan et on le fixe en le nommant "origine du plan" (noté O) on arrive à
exprimer tous les vecteurs du plan en termes des vecteurs ayant l’origine en O par le
biais des deux opérations, celle externe de multiplication avec des scalaires et celle interne
d’addition de tels vecteurs.
λ·u
Par exemple, dans la figure ci-contre le vecteur cor- S
respondant au segment AS est obtenu de la somme
OA + AS = OS (règle d’addition du triangle) sachant u A
u+v
que le vecteur OS = u + v peut être obtenu de la règle O B
v
du parallélogramme OA+OB = OS qui, elle, n’utilise
−u
que des vecteurs ayant l’origine en O.

1.3 Vecteurs de l’espace. Vecteurs de Rn .

Nous sommes prêts pour généraliser les définitions dégagées pour les opérations externe
et interne des vecteurs dans le cas des vecteurs
n
de l’espace, qui, en tant
o
qu’ensemble, est
le produit cartésien R3 = R × R × R = (x, y, z) | x ∈ R, y ∈ R, z ∈ R .

• Définition de la loi interne. Si u = (x, y, z) et v = (x0 , y 0 , z 0 ) sont deux éléments de


R3 , alors la somme u + v est un élément de R3 défini par :

u + v = (x, y, z) + (x0 , y 0 , z 0 ) := (x + x0 , y + y 0 , z + z 0 ).

• Définition de la loi externe. Si λ est un réel et u = (x, y, z) est un élément de R3 ,


alors λ · u est un élément de R3 défini par :

λ · u = λ · (x, y, z) := (λx, λy, λz).

5
Pour ce qui est de la façon dont ces opérations s’expriment géométriquement, remarquons
que dans le cas de la deuxième, le choix de deux points de R3 donne un segment de droite
(orienté) qui, multiplié par des λ ∈ R fournit tous les vecteurs de cette droite (qui sont
des vecteurs de R3 , ne l’oublions pas).
Aussi, le choix de trois points non-colinéaires de l’espace entraîne un choix (pas unique)
de deux vecteurs u et v ayant une même origine. Ceux-ci sont des segments de droite
se trouvant dans le plan déterminé (univoquement) par les 3 points considérés. Ainsi,
par la section précédente, on voit qu’on peut "fabriquer" tout vecteur de ce plan sous la
forme d’une combinaison linéaire λu + µv des vecteurs u et v, où λ et µ sont des scalaires
convenablement choisis.
Remarquons que jusque là avec les règles/opérations connues on n’a pas pu "fabriquer" plus
qu’une figure planaire dans l’espace. Pour arriver à "fabriquer" n’importe quel vecteur de
l’espace on a besoin d’un troisième vecteur, non-coplanaire aux premiers deux, mais ayant
une même origine qu’eux, de sorte qu’on puisse faire appel à une définition d’addition des
3 vecteurs dans l’espace qui se nommerait "règle du parallélépipède" : les 3 vecteurs sont
les 3 côtés d’un parallélépipède et la somme ce ces vecteurs est la diagonale dans l’espace
qui relie l’origine des vecteurs au sommet opposé du parallélépipède.
On assiste donc à une accumulation de définitions de plus en plus compliquées et particu-
lières en même temps, qui s’avèrent nécessaires pour décrire la construction géométrique
de la somme de vecteurs, au fur et au mesure que l’espace dans lequel se trouvent les
vecteurs est plus grand ...
En contraste avec ces difficultés liées à la description géométrique, le traitement algébrique
reste limpide et toujours le même : pour un n ∈ N∗ quelconque, si Rn désigne le produit
cartésien de R par lui-même : R × . . . × R par n fois, un élément u ∈ Rn est donc un
n-uplet (x1 , x2 , . . . , xn ) avec x1 , x2 , . . . , xn des éléments de R et on a, sur le modèle du
plan R2 et de l’espace R3 :

• Définition de la loi interne. Si u = (x1 , . . . , xn ) et v = (x01 , . . . , x0n ) sont deux élé-


ments de Rn , alors :

u + v = (x1 , . . . , xn ) + (x01 , . . . , x0n ) := (x1 + x01 , . . . , xn + x0n ).

• Définition de la loi externe. Si λ est un réel et u = (x1 , . . . , xn ) est un élément de


Rn , alors :
λ · u = λ · (x1 , . . . , xn ) := (λx1 , . . . , λxn ).

De manière analogue, lorsque à la place de R on prend C (corps des nombres complexes)


on peut prendre le produit cartésien Cn , considérer les scalaires λ appartenant à C et
définir les deux opérations vectorielles ci-dessus de la même manière.
Dans un degré d’abstraction encore plus grand, si K est un corps on peut voir les éléments
de Kn comme des "vecteurs" et on peut munir, par les mêmes définitions que celle dessus,
Kn de deux opérations (l’une externe, la multiplication des u ∈ Kn par des "scalaires" de
λ ∈ K et l’autre interne, l’addition de deux éléments, u et v de Kn ).

6
1.4 Correspondance entre vecteurs et points.

Nous avons vu jusque là qu’on arrive à décrire d’une façon algébrique cohérente et unitaire
des objets géométriques, les vecteurs, qui sont plus compliqués que des simples scalaires
(les nombres).
On arrive à décrire tous les vecteurs d’une ligne (droite réelle), d’un plan et de l’espace en
termes seulement de vecteurs ayant une origine commune (qu’on appelle, par convention
"origine de l’espace d’étude", notée O) et à l’aide de deux opérations, l’une additive interne
et l’autre multiplicative, externe.
On s’occupera donc dorénavant que de vecteurs ayant leur origine en O. Or, comme, en
tant qu’objets géométriques ces vecteurs sont des segments de droite, leur origine à tous
étant fixée en O, ils seront univoquement déterminés par l’autre bout du segment, à savoir
le point d’application du vecteur.
On obtient ainsi – une fois une origine O fixée dans un espace d’étude – une correspondance
biunivoque entre les vecteurs-segments partant de O et leur points d’application, qui sont
des points arbitraires de cet espace.
Cette observation est à la base de la notion d’espace vectoriel : il s’agira dorénavant d’un
ensemble non-vide E muni d’un point (élément) O singularisé nommé origine de E et
dont les éléments u ∈ E sont vus comme des vecteurs.
Ceci veut dire qu’on munira E de deux opérations, l’une interne (addition des éléments
de E) et l’autre externe à E, qui fait appel à un ensemble de nombres (corps des scalaires)
K et où l’on définit la multiplication entre un scalaire λ ∈ K et un élément de u ∈ E.
Nous avons déjà vu dans les sous-sections précédentes trois exemples de telles définitions,
pour les cas où E était successivement R (l’axe réelle), R2 (le plan) et R3 (l’espace) et K
était à chaque fois R.
Le but final est de dégager une structure algébrique générale, celle d’espace vectoriel, ayant
des propriétés communes que partagent des ensembles pourtant très différents lorsqu’on
prend des exemples concrets pour E.
Par exemple, on peut choisir pour E d’être l’ensemble de toutes les fonctions réelles,
ou seulement de celles continues, ou dérivables, ou bien d’être l’ensemble des polynômes
de degré plus petit ou égal à n, ou bien un ensemble de tableaux carrés à n lignes et
colonnes (les matrices carrées) ... et dans chacun de ces ensembles on se propose d’avoir
une notion d’addition entre les objets et une notion de leur multiplication par des scalaires
qui permette de faire des calculs avec des objets si compliqués.
Le but est donc d’obtenir des théorèmes généraux qui s’appliqueront aussi bien aux vec-
teurs du plan, de l’espace, aux espaces de fonctions, aux polynômes, aux matrices,... Ainsi,
nous n’aurons plus à démontrer ces résultats dans des cas concrets où, parfois, la spécifi-
cité du problème cache les vérités générales, autrement dit, où l’on risque de "ne plus voir
la forêt à cause des arbres".

7
2 Espace vectoriel : définition et exemples
Dans ce sous-chapitre, K désigne un corps (commutatif). Dans la plupart des exemples,
ce sera le corps des réels R ou des complexes C.
Nous rappelons qu’un corps est une structure algébrique très complète : il s’agit d’un
ensemble K muni de deux opérations internes : une addition et une multiplication. Les
deux sont associatives, commutatives, admettent un élément neutre (noté 0 pour l’addition
et 1 pour la multiplication), et sont telles que chaque λ ∈ K admet un opposé par rapport à
l’addition, noté −λ et chaque λ ∈ K\{0} admet un inverse par rapport à la multiplication,
noté λ−1 .

2.1 Définition d’un espace vectoriel


Un espace vectoriel est un ensemble formé de vecteurs, de sorte que l’on puisse additionner
deux vecteurs u, v pour en former un troisième u+v et aussi afin que l’on puisse multiplier
chaque vecteur u d’un scalaire λ pour obtenir un vecteur λ · u. Voici la définition formelle :

Définition 1. Un K-espace vectoriel est un ensemble non vide E muni :


• d’une loi de composition interne, c’est-à-dire d’une application de E × E dans E :

E×E → E
(u, v) 7→ u + v

• d’une loi de composition externe, c’est-à-dire d’une application de K × E dans E :

K×E → E
(λ, u) 7→ λ · u

qui vérifient les propriétés suivantes :


1. u + v = v + u (pour tous u, v ∈ E)
2. u + (v + w) = (u + v) + w (pour tous u, v, w ∈ E)
3. Il existe un élément neutre 0E ∈ E tel que u + 0E = u (pour tout u ∈ E)
4. Tout u ∈ E admet un opposé u0 tel que u + u0 = 0E . L’élément u0 est noté −u.
5. 1 · u = u (pour tout u ∈ E)
6. λ · (µ · u) = (λµ) · u (pour tous λ, µ ∈ K, u ∈ E)
7. λ · (u + v) = λ · u + λ · v (pour tous λ ∈ K, u, v ∈ E)
8. (λ + µ) · u = λ · u + µ · u (pour tous λ, µ ∈ K, u ∈ E)

Nous reviendrons en détail sur chacune de ces propriétés juste après des exemples.

Exemple 1.
1. Le R-espace vectoriel R2 :
Posons K = R et E = R2 . Avec les définitions des deux opérations données dans le
sous-chapitre précédent, on a dans ce cas les définitions :

8
• pour la loi interne : ∀(x, y), (x0 , y 0 ) de R2 : (x, y) + (x0 , y 0 ) := (x + x0 , y + y 0 ).
• pour la loi externe : Si ∀λ ∈ R et ∀(x, y) ∈ R2 : λ · (x, y) = (λx, λy).
E = R2 devient un R-espace vectoriel. Pour la loi interne (addition des vecteurs)
l’élément neutre est le vecteur nul (0, 0). Le symétrique (opposé) de tout (x, y) est
(−x, −y), que l’on note aussi −(x, y).
2. Le R-espace vectoriel C :
Sachant qu’il y a une correspondance biunivoque entre les éléments z = a + ib de
C et les couples (x, y) de R2 cet exemple est identique au précédent : les opérations
introduites sur C seront :
• pour la loi interne, l’addition des complexes :
∀z = x + iy et z = x0 + iy 0 de C : z + z 0 := (x + x0 ) + i(y + y 0 ).

• pour la loi externe : la multiplication d’un complexe par un scalaire réel :


∀λ ∈ R et ∀z = x + iy : λ · z := (λx) + i(λy).

L’élément neutre est le nombre complexe 0 et le symétrique du nombre complexe z


est −z. Ainsi C devient un R-espace vectoriel.
3. Le R-espace vectoriel R3 :
Posons K = R et E = R3 . Nous allons calquer cet exemple sur le premier, à ceci
près que les éléments de R3 sont des triplets (au lieu des couples de R2 ).
• pour la loi interne :
∀(x, y, z), (x0 , y 0 , z 0 ) de R3 : (x, y, z) + (x0 , y 0 , z 0 ) := (x + x0 , y + y 0 , z + z 0 ).

• pour la loi externe : ∀λ ∈ R et ∀(x, y, z) ∈ R3 : λ · (x, y, z) = (λx, λy, λz).


Il est facile de vérifier que E = R3 devient ainsi un R-espace vectoriel. Pour la
loi interne (addition des triplets) l’élément neutre est le vecteur nul (0, 0, 0). Le
symétrique (opposé) de tout (x, y, z) est (−x, −y, −z), que l’on note aussi −(x, y, z).
Faisons juste la remarque que l’on peut généraliser ces exemples pour le cas de Rn (pour
n > 2) en considérant des opérations entre des n-tuplets (x1 , x2 , . . . , xn ) ∈ Rn .

Passons en révue quelques notions de terminologie et notations :

• On appelle les éléments de E des vecteurs. Au lieu de K-espace vectoriel, on dit


aussi espace vectoriel sur K.
• Les éléments de K seront appelés des scalaires.
• L’élément neutre 0E s’appelle aussi le vecteur nul. Il ne doit pas être confondu avec
l’élément 0 de K. Lorsqu’il n’y aura pas de risque de confusion, 0E sera noté 0.
• L’opposé −u d’un vecteur u ∈ E s’appelle aussi le symétrique de u.
• La loi de composition interne sur E (notée usuellement +) est appelée couramment
l’addition et u + u0 est appelée somme des vecteurs u et u0 .

9
• La loi de composition externe sur E est appelée couramment multiplication par
un scalaire. La multiplication du vecteur u par le scalaire λ sera souvent notée
simplement λu, au lieu de λ · u.
• Somme de n vecteurs. Il est possible de définir, par récurrence, l’addition de n
vecteurs, n > 2. La structure d’espace vectoriel permet de définir l’addition de deux
vecteurs (et initialise le processus). Si maintenant la somme de n − 1 vecteurs est
définie, alors la somme de n vecteurs v1 , v2 , . . . , vn est définie par

v1 + v2 + · · · + vn = (v1 + v2 + · · · + vn−1 ) + vn .

L’associativité de la loi + nous permet de ne pas mettre de parenthèses dans la


n
somme v1 + v2 + · · · + vn notée vi .
X

i=1
• Combinaison linéaire de vecteurs. Pour n ∈ N∗ , si (λ1 , . . . , λn ) ∈ Kn et v1 , v2 , . . . , vn
n
sont des vecteurs du K-espace vectoriel E, une somme du type λi vi = λ1 v1 , . . . , λn vn
X

i=1
est appelée combinaison linéaire des vecteurs v1 , v2 , . . . , vn .

2.2 Retour sur les axiomes de la définition d’un e.v.


Revenons en détail, avec des explications, sur la définition d’un espace vectoriel. Soit donc
E un K-espace vectoriel.
La loi de composition (ou opération) interne dans E, est une application de E × E dans
E:
E×E → E
(u, v) 7→ u + v
C’est-à-dire qu’à partir de deux vecteurs u et v de E, elle nous en fournit un troisième,
qui sera noté u + v.
La loi de composition interne dans E et la somme dans K seront toutes les deux notées
+, mais le contexte permettra de déterminer aisément de quelle loi il s’agit.

La loi de composition (ou opération) externe, est une application de K × E dans E :

K×E → E
(λ, u) 7→ λ · u

C’est-à-dire qu’à partir d’un scalaire λ ∈ K et d’un vecteur u ∈ E, on nous fournit un


autre vecteur, qui sera noté λ · u.

Axiomes relatifs à la loi interne.


1. Commutativité. Pour tous u, v ∈ E, u + v = v + u. On peut donc additionner des
vecteurs dans l’ordre que l’on souhaite.
2. Associativité. Pour tous u, v, w ∈ E, on a u + (v + w) = (u + v) + w. Conséquence :
on peut « oublier » les parenthèses et noter sans ambiguïté u + v + w.

10
3. Il existe un élément neutre, c’est-à-dire qu’il existe un élément de E, noté 0E ,
vérifiant : pour tout u ∈ E, u+0E = u (et on a aussi 0E +u = u par commutativité).
Cet élément 0E s’appelle aussi le vecteur nul.
4. Tout élément u de E admet un opposé (ou symétrique), c’est-à-dire qu’il existe un
élément u0 de E tel que u + u0 = 0E (et on a aussi u0 + u = 0E par commutativité).
Cet élément u0 de E est noté −u.

Proposition 1.
• S’il existe un élément neutre 0E vérifiant l’axiome (3) ci-dessus, alors il est unique.
• Soit u un élément de E. S’il existe un élément opposé u0 de E vérifiant l’axiome
(4), alors il est unique.

Preuve :
• Soient 0E et 00E deux éléments vérifiant la définition de l’élément neutre. On a alors,
pour tout élément u de E :

u + 0E = 0E + u = u et u + 00E = 00E + u = u

— Alors, la première propriété utilisée avec u = 00E donne 00E +0E = 0E +00E = 00E .
— La deuxième propriété utilisée avec u = 0E donne 0E + 00E = 00E + 0E = 0E .
— En comparant ces deux résultats, il vient 0E = 00E .
• Supposons qu’il existe deux symétriques de u notés u0 et u00 . On a :

u + u0 = u0 + u = 0E et u + u00 = u00 + u = 0E .

Calculons u0 + (u + u00 ) de deux façons différentes, en utilisant l’associativité de la


loi + et les relations précédentes.
— u0 + (u + u00 ) = u0 + 0E = u0
— u0 + (u + u00 ) = (u0 + u) + u00 = 0E + u00 = u00
— On en déduit u0 = u00 .

Remarque. Les étudiants connaissant la théorie des groupes reconnaîtront, dans les
quatre premiers axiomes ci-dessus, les axiomes caractérisant un groupe commutatif.

Axiomes relatifs à la loi externe.


5. Soit 1 l’élément neutre de la multiplication de K. Pour tout élément u de E, on a

1 · u = u.

6. Pour tous éléments λ et µ de K et pour tout élément u de E, on a

λ · (µ · u) = (λµ) · u.

11
Axiomes liant les deux lois.
7. Distributivité par rapport à l’addition des vecteurs. Pour tout élément λ de K et
pour tous éléments u et v de E, on a

λ · (u + v) = λ · u + λ · v.

8. Distributivité par rapport à l’addition des scalaires. Pour tous λ et µ de K et pour


tout élément u de E, on a :

(λ + µ) · u = λ · u + µ · u.

La loi interne et la loi externe doivent donc satisfaire ces huit axiomes pour que (E, +, ·)
soit un espace vectoriel sur K.

2.3 Exemples
Dans tous les exemples qui suivent, la vérification des axiomes se fait simplement et est
laissée au soin du lecteur. Seules seront indiquées, dans chaque cas, les valeurs de l’élément
neutre de la loi interne et du symétrique d’un élément.
On a déjà vu des exemples où R2 , C, R3 (voire Rn ) étaient des R-espaces vectoriels.
On commence par discuter de quelle façon K peut être vu comme un K-espace vectoriel
lorsque K a déjà une structure algébrique de corps commutatif. On continue ensuite par
donner quelques exemples où les vecteurs sont des fonctions, des polynômes, des matrices.

Exemple 2. R est espace vectoriel sur lui-même :


Nous avons commencé l’exemple précédent par le plan R2 et l’avons fini par l’espace R3 ,
qui s’organisent en espaces vectoriels lorsqu’on prend comme corps de scalaires R. Mais
alors que peut-on dire de l’axe réelle ? Les exemples du plan et de l’espace semblent être
plus compliqués que celui de la droite réelle, mais en vérité ce dernier est plus subtil.
Plus précisément, lorsqu’on prend E = R (i.e. on le voit comme futur ensemble de vec-
teurs) et que l’on prend les scalaires toujours les réels, donc K = R, on se doute qu’il
va y avoir une certaine confusion entre la qualité de vecteur et celle de scalaire pour un
même nombre réel. En vérité, cette "confusion" s’avère féconde, à condition que l’on fasse
attention aux rôles joués successivement par les réels dans ces deux postures différentes.
En effet, d’après le premier chapitre du cours, on sait que R a une structure de corps
commutatif lorsqu’on le munit de deux lois internes, l’une additive, l’autre multiplicative,
la première donnant à R une structure de groupe commutatif (axiomes : associativité,
existence d’un élément neutre, 0, existence d’opposé −x pour tout x ∈ R et enfin commu-
tativité), la deuxième ayant les mêmes axiomes que celles d’un groupe commutatif (avec 1
comme élément neutre et 1/x comme inverse de tout x 6= 0) à l’exception de l’obligation
de l’existence d’un inverse de 0. On rappelle également que ces deux opérations internes
sont connectées par un axiome de distributivité.
Or, en comparant les axiomes du groupe (R, +) avec les axiomes de la définition d’un

12
espace vectoriel se référant à la loi additive (interne), i.e. les premières 4 axiomes de cette
définition, on constate une coïncidence parfaite.
Nous reste à montrer que les autres 4 axiomes d’espace vectoriel – celles se référant à la loi
externe de multiplication avec des scalaires – résultent des axiomes de corps commutatif
de R. Certes, la multiplication de corps de R est une loi interne, mais, comme on le disait,
ici on peut bénéficier de la confusion entre R regardé comme ensemble de vecteurs et R
regardé comme ensemble de scalaires !
Par exemple, si " · " note la loi multiplicative interne dans le corps R et " " note la loi
multiplicative externe introduite sur E = R afin de le rendre R-espace vectoriel, alors la
distributivité des lois internes de corps

∀x, y, z ∈ R : x · (y + z) = (x · y) + (x · z)

se prête à deux re-lectures différentes (on utilise des lettres grèques lorsqu’on veut signifier
qu’on voit les éléments de R comme des scalaires) :

∀λ, y, z ∈ R : λ (y + z) = (λ y) + (λ z)
∀x, λ, µ ∈ R : x (λ + µ) = (x λ) + (x µ) ⇐⇒ (λ + µ) x = (λ x) + (µ x)

la dernière équivalence étant une conséquence de la commutativité de "·" qui devient ” ”.


Nous venons de montrer ainsi que les axiomes 7. et 8. de la définition d’un espace vectoriel
sont satisfaites pour le cas E = R = K, i.e. lorsque les réels jouent à la fois le rôle de
scalaires et de (futurs) vecteurs de cet espace.
Aussi, l’associativité de la multiplication interne dans le corps

∀x, y, z ∈ R : z · (y · x) = (z · y) · x

peut se re-lire comme 6-ème axiome des espaces vectoriels :

∀λ, µ, x ∈ R : λ (µ x) = (λ · µ) x.

Rappelons que l’élément neutre de la multiplication interne dans le corps R est notée 1
et on a par l’axiome de corps : ∀x ∈ R : 1 · x = x, mais si on voit 1 comme un scalaire
réel, ceci se ré-écrit : ∀x ∈ R : 1 x = x qui est le 5-ème axiome des espaces vectoriels.
Nous venons de montrer que les axiomes du corps commutatif (R, +, · ) impliquent celles
de R-espace vectoriel pour le triplet (R, +, ).
Concluons par faire remarquer qu’il s’agit en vérité d’une situation générale :
Si (K, +, · ) est un corps commutatif alors automatiquement il peut être vu comme K-
espace vectoriel (on dit : comme espace vectoriel sur lui-même).
En particulier, pour K = R2 , comme C = (R2 , +, · ) est un corps commutatif par rapport
à l’addition et multiplication des nombres complexes entre eux, alors automatiquement
C peut être vu comme C-espace vectoriel. Mais attention ! Là il ne s’agit pas du même
espace vectoriel que celui de l’Exemple 1 où C était espace vectoriel sur le corps de scalaires
K = R.

13
Exemple 3. Les espaces vectoriels de la droite, du plan et de l’espace :
Les affirmations suivantes comportent une partie "existence" (facile à vérifier, et encore
plus facile une fois la notion de sous-espace vectoriel sera introduite plus loin) mais elles
contiennent aussi une autre partie, de type "unicité", qui est admise pour l’instant mais
qui sera démontrée vers la fin du chapitre.
• Sur l’axe réelle (donc dans R), le singleton origine {0} est un R-espace vectoriel (par
rapport aux opérations de l’espace vectoriel R)
De surcroît, {0} est le seul espace vectoriel inclus dans l’axe réelle, hormis R lui-
même.
• Toute droite du plan (donc dans R2 ) passant par l’origine O de R2 est un espace
vectoriel.
De surcroît, le singleton origine {(0, 0)} et les droites D passant par l’origine sont
les seuls espaces vectoriels inclus dans le plan, hormis R2 lui-même.
• Toute droite ainsi que tout plan de l’espace (donc dans R3 ) passant par l’origine
O de R3 est un espace vectoriel (par rapport aux opérations habituelles entre les
vecteurs de l’espace).
De surcroît, le singleton origine {(0, 0, 0)} et les droites D et les plans P mais
seulement ceux passant par l’origine, sont les seuls espaces vectoriels inclus dans
l’espace, hormis R3 lui-même.
Exemple 4. L’espace vectoriel des fonctions de R dans R
L’ensemble des fonctions f : R −→ R est noté F(R, R). Nous le munissons d’une structure
de R-espace vectoriel de la manière suivante.
• Loi interne. Soient f et g éléments de F(R, R). La fonction f + g est définie par :

∀x ∈ R (f + g)(x) = f (x) + g(x)

(où le signe + désigne la loi interne de F(R, R) dans le membre de gauche et l’ad-
dition dans R dans le membre de droite).
• Loi externe. Désignons pour l’instant par " " la loi externe de F(R, R) et par "·" la
multiplication dans R. Avec l’habitude on renoncera à cette distinction et on écrira
λf pour λ f , donc on aura (λf )(x) = λf (x).
Si λ est un nombre réel et f une fonction de F(R, R), la fonction λ f est définie
par l’image de tout réel x comme suit :

∀x ∈ R (λ f )(x) = λ · f (x).

L’élément neutre pour l’addition est la fonction nulle, définie par : ∀x ∈ R : f (x) = 0.
On peut noter cette fonction 0F (R,R) .
Le symétrique de l’élément f de F(R, R) est l’application g de R dans R définie par :

∀x ∈ R g(x) = −f (x).

Le symétrique de f est noté −f .

14
Exemple 5. Le R-espace vectoriel des suites réelles
On note S l’ensemble des suites réelles (un )n∈N . Cet ensemble peut être vu comme l’en-
semble des applications de N dans R ; autrement dit S = F(N, R).
• Loi interne. Soient u = (un )n∈N et v = (vn )n∈N deux suites appartenant à S. La
suite u + v est la suite w = (wn )n∈N dont le terme général est défini par

∀n ∈ N wn = un + vn

(où un + vn désigne la somme de un et de vn dans R).


• Loi externe. Si λ est un nombre réel et u = (un )n∈N un élément de S, λ u est la
suite v = (vn )n∈N définie par

∀n ∈ N vn = λ · un

où "·" désigne la multiplication dans R.


L’élément neutre de la loi interne est la suite dont tous les termes sont nuls.
Le symétrique de la suite u = (un )n∈N est la suite u0 = (u0n )n∈N (notée −u)définie par :

∀n ∈ N u0n = −un .

Exemple 6. Les matrices On note Mn,p (R) l’ensemble des matrices : tableaux de nombres
réels à n lignes et p colonnes notés (ai,j ) où i = 1, . . . , n est l’indice de ligne et j = 1, . . . , p
est l’indice de colonne. On le munit d’une structure de R-espace vectoriel :
• La loi interne est l’addition de deux matrices : ∀(i, j), (ai,j ) + (bi,j ) := (ai,j + bi,j ).
• La loi externe est la multiplication d’une matrice par un scalaire :
∀(i, j), ∀λ ∈ R, λ · (ai,j ) := (λai,j ).
L’élément neutre pour la loi interne est la matrice nulle (tous les coefficients ai,j sont
nuls). Le symétrique de la matrice (ai,j ) est la matrice (−ai,j ).
De même, l’ensemble Mn,p (K) des matrices à coefficients dans K est un K-espace vectoriel.

Exemple 7.
L’espace vectoriel R[X] des polynômes P (X) = a0 +a1 X +a2 X 2 +· · ·+an X n à coefficients
réels a0 , a1 , a2 , · · · , an .
En effet, on munit R[X] des deux opérations vectorielles suivantes :
• l’addition P (X) + Q(X) de deux polynômes (supposons, sans perte de généralité
que n, m ∈ N sont tels que n 6 m) :
(a0 + a1 X + a2 X 2 + · · · + an X n ) + (b0 + b1 X + b2 X 2 + · · · + bn X n + · · · + bm X m )
:= (a0 + b0 ) + (a1 + b1 )X + (a2 + b2 )X 2 + · · · + (an + bn )X n + bn+1 X n+1 + · · · + bm X m ),
• la multiplication λ · P (X) de P (X)∈ R[X] par un scalaire λ ∈ R :
λ · (a0 + a1 X + a2 X 2 + · · · + an X n ) := λa0 + (λa1 )X + (λa2 )X 2 + · · · + (λan )X n .
Alors l’élément neutre est le polynôme nul (i.e. celui qui a tous les coefficients ak = 0).
L’opposé de P (X), noté, comme d’habitude, −P (X), est (−1) · P (X).

15
2.4 Règles de calcul
Nous énumérons quelques conséquences importantes des axiomes d’un espace vectoriel.
Proposition 2. Soit E un espace vectoriel sur un corps K. Soient u ∈ E et λ ∈ K.
Alors on a :
1. 0 · u = 0E
2. λ · 0E = 0E
3. (−1) · u = −u
4. λ · u = 0E ⇐⇒ λ = 0 ou u = 0E
L’opération qui à (u, v) associe u + (−v) s’appelle la soustraction. En vérité ce n’est pas
une opération à part entière mais une conséquence des deux opérations qui définissent un
espace vectoriel (l’addition, interne, et la multiplication par des scalaires, externe).
Le vecteur u + (−v) est noté u − v. Les propriétés suivantes sont satisfaites : λ(u − v) =
λu − λv et (λ − µ)u = λu − µu.

Preuve : Les démonstrations des propriétés sont des manipulations sur les axiomes défi-
nissant les espaces vectoriels.
1. • Le point de départ de la démonstration est l’égalité dans K : 0 + 0 = 0.
• D’où, pour tout vecteur de E, l’égalité (0 + 0) · u = 0 · u.
• Donc, en utilisant la distributivité de la loi externe par rapport à la loi interne
et la définition de l’élément neutre, on obtient 0·u+0·u = 0·u. On peut rajouter
l’élément neutre dans le terme de droite, pour obtenir : 0 · u + 0 · u = 0 · u + 0E .
• En ajoutant −(0 · u) de chaque côté de l’égalité, on obtient : 0 · u = 0E .
2. La preuve est semblable en partant de l’égalité 0E + 0E = 0E .
3. Montrer (−1) · u = −u signifie exactement que (−1) · u est le symétrique de u,
c’est-à-dire vérifie u + (−1) · u = 0E . En effet :
u + (−1) · u = 1 · u + (−1) · u = (1 + (−1)) · u = 0 · u = 0E .
4. On sait déjà que si λ = 0 ou u = 0E , alors les propriétés précédentes impliquent
λ · u = 0E .
Pour la réciproque, soient λ ∈ K un scalaire et u ∈ E un vecteur tels que λ · u = 0E .
Supposons λ différent de 0. On doit alors montrer que u = 0E .
• Comme λ 6= 0, alors λ est inversible pour le produit dans le corps K. Soit λ−1
son inverse.
• En multipliant par λ−1 les deux membres de l’égalité λ · u = 0E , il vient :
λ−1 · (λ · u) = λ−1 · 0E .
• D’où en utilisant les propriétés de la multiplication par un scalaire (λ−1 ×λ)·u =
0E et donc 1 · u = 0E .
• D’où u = 0E .

16
3 Sous-espaces vectoriels : définitions
Vérifier les 8 axiomes qui font d’un ensemble un espace vectoriel est assez lassant.
Heureusement, il existe une manière plus efficace de prouver qu’un ensemble F est un
espace vectoriel : de le voir, le cas échéant, comme un sous-ensemble d’un espace vectoriel
E plus grand et de montrer que les deux lois de composition de l’espace vectoriel E
confèrent à F une qualité d’espace vectoriel également. Dans ce cas, on dit que F est un
sous-espace vectoriel de E.

3.1 Définition d’un sous-espace vectoriel


Il y a plusieurs façons d’aborder la notion de sous-espace vectoriel. La description don-
née ci-dessus en est une. Mais nous faisons le choix de commencer par celle qui est la
plus pratique dans les applications, et, plus tard, on démontrera l’équivalence des deux
définitions.

Définition 2. Soit E un K-espace vectoriel. Un sous-ensemble non-vide F de E est


appelée un sous-espace vectoriel de E si :
• u + v ∈ F pour tous u, v ∈ F ,
• λ · u ∈ F pour tout λ ∈ K et tout u ∈ F .

Expliquons chaque condition :


• La première condition, c’est dire que F est stable pour l’addition : la somme u+v de
deux vecteurs u, v de F est bien sûr un vecteur de E (car E est un espace vectoriel),
mais ici on exige que u + v soit un élément de F .
• La deuxième condition, c’est dire que F est stable pour la multiplication par un
scalaire. À nouveau, vu que E est espace vectoriel, on sait que λ · u ∈ E mais a
priori rien n’assure son appartenance à F ⊂ E.
Remarque : Noter que souvent on rencontre les deux conditions de la Définition précé-
dente sous une des formes "condensées" :
• ∀u, v ∈ F et ∀λ ∈ K, on a : u + λ · v ∈ F ,
ou bien en symétrisant par rapport aux scalaires,
• ∀u, v ∈ F et ∀λ, µ ∈ K, on a : λ · u + µ · v ∈ F .
Remarquer que la dernière permet d’exprimer la Définition d’un sous-espace vectoriel F
de E en mots seulement : F est un sous-espace vectoriel du K-espace vectoriel E ssi toute
combinaison linéaire de vecteurs de F appartient toujours à F . Autrement dit, si F est
stable par combinaisons linéaires de ses éléments.
Montrons à présent l’équivalence entre la Définition précédente et la deuxième forme
condensée ci-dessus :
• Supposons que F soit un sous-espace vectoriel. Et soient u, v ∈ F , λ, µ ∈ K. Alors
par la définition de sous-espace vectoriel : λu ∈ F et µv ∈ F et ainsi λu + µv ∈ F .

17
• Réciproquement, supposons que pour chaque u, v ∈ F , λ, µ ∈ K on a λu + µv ∈ F .
Déjà, comme F n’est pas vide, soient u, v ∈ F . Posons λ = µ = 0. Alors λu + µv =
0E ∈ F . Ensuite,
— Si u, v ∈ F , alors en posant λ = µ = 1 on obtient u + v ∈ F .
— Si u ∈ F et λ ∈ K (et pour n’importe quel v, en posant µ = 0), alors λu ∈ F .

Corollaire 1. Si F est sous-espace vectoriel de E alors 0E ∈ F .

En effet, soit un u ∈ F . Comme F ⊂ E, on a u ∈ E, donc 0E = u + (−u) = u + (−1) · u.


Or, F étant sous-espace vectoriel de E, en prenant λ = −1 dans la deuxième condition
de la définition ci-dessus, on déduit que (−1) · u ∈ F , puis en appliquant la première
condition de la définition, on déduite que u + (−1) · u ∈ F , i.e. 0E ∈ F .
Remarques :

• La reciproque de l’implication affirmée dans le Corollaire est fausse en général. Donc


le Corollaire fournit, par 0E ∈ F , une condition nécessaire (mais pas suffisante) pour
que F soit un sous-espace vectoriel de E.
L’intérêt principal de ce Corollaire est qu’il fournit un test pour éliminer vite une
partie des sous-ensembles F de E.
Noter qu’il y a cependant bien de sous-ensembles F de E tels que 0E ∈ F et pourtant
F n’est pas sous-espace vectoriel de E.
• Dans la section suivante on montrera que F est lui-même espace vectoriel dès lors
qu’il est puisque sous-espace vectoriel de E. Alors, F, en tant qu’espace vectoriel
doit avoir un élément neutre pour l’addition des vecteurs, qui soit son origine (ou
vecteur nul). Notons-le 0F . Mais si celui-ci était différent de 0E , pour l’addition des
vecteurs de F il y aurait deux éléments neutres distincts, ce qui est faux, car F est
un espace vectoriel et alors il n’y a qu’un seul élément neutre pour l’addition.

Exemple 8. Exemples simples


n o
1. L’ensemble F = (x, y) ∈ R2 | x + y = 0 est un sous-espace vectoriel de R2 . En
effet, on voit déjà que (0, 0) ∈ F (donc F est non-vide). Mais, comme dit ci-dessus
ceci n’est pas suffisant pour décider que F est sous-espace vectoriel. Il nous faut
alors vérifier la définition.
(a) si u = (x1 , y1 ) et v = (x2 , y2 ) appartiennent y
à F , alors x1 + y1 = 0 et x2 + y2 = 0 donc
(x1 + x2 ) + (y1 + y2 ) = 0
et ainsi u + v = (x1 + x2 , y1 + y2 ) appartient
0 x
à F,
(b) si u = (x, y) ∈ F et λ ∈ R, alors x + y = 0
F
donc λx + λy = 0, d’où λu ∈ F .

18
2. Soient K = R et F = P un plan passant par l’origine de E = R3 . Le plan admet
une équation de la forme : ax + by + cz = 0 où a, b et c sont des réels non tous nuls.

Un élément u ∈ F est donc un triplet (x, y, z) tel 0


que ax + by + cz = 0.

Soit (x, y z) et (x0 , y 0 , z 0 ) deux éléments de P. Autrement dit, ax + by + cz = 0 et


ax0 +by 0 +cz 0 = 0 et en les additionnant on obtient a(x+x0 )+b(y +y 0 )+c(z +z 0 ) = 0.
Ceci prouve que (x + x0 , y + y 0 , z + z 0 ) vérifie aussi l’équation du plan donc il est
stable par rapport à la somme. Ensuite, en multipliant l’équation du plan par un
scalaire λ ∈ R quelconque, on a : λax + λby + λcz = 0 ⇔ a(λx) + b(λy) + c(λz) = 0
ce qui montre que λx, λy, λz) ∈ P donc P est stable par multiplication par scalaires,
donc finalement il est un sous-sespace vectoriel de R3 .
Attention ! Un plan ne contenant pas l’origine n’est pas un espace vectoriel, car
justement il ne contient pas le vecteur nul.
3. L’ensemble des fonctions continues sur R est un sous-espace vectoriel de l’espace
vectoriel des fonctions de R dans R. En effet, déjà, la fonction nulle est continue.
Ensuite, la somme de deux fonctions continues est continue et si on multiplie une
fonction continue par une constante on obtient toujours une fonction continue.
4. L’ensemble des suites réelles convergentes est un sous-espace vectoriel de l’espace
vectoriel des suites réelles.

Voici à présent des sous-ensembles qui ne sont pas des sous-espaces vectoriels :

Exemple 9.
n o
1. L’ensemble F1 = (x, y) ∈ R2 | x + y = 2 n’est pas un sous-espace vectoriel de R2 .
En effet le vecteur nul 0R2 = (0, 0) n’appartient pas à F1 .
n o
2. L’ensemble F2 = (x, y) ∈ R2 | x = 0 ou y = 0 n’est pas un sous-espace vectoriel de
R2 . En effet, bien que 0R2 = (0, 0) ∈ F2 et bien que F2 soit stable par multiplication
par les scalaires , il n’est pourtant pas stable pour l’addition des vecteurs. Un contre-
exemple est fourni par : u = (1, 0) et v = (0, 1) qui appartiennent à F2 , mais pas le
vecteur u + v = (1, 1).
n o
3. L’ensemble F3 = (x, y) ∈ R2 | x > 0 et y > 0 n’est pas un sous-espace vectoriel
de R2 . En effet, bien que 0R2 = (0, 0) ∈ F2 et bien que F2 soit stable pour l’addition
des vecteurs, il n’est pourtant pas stable pour la multiplication par les scalaires.
Un contre-exemple est : u = (1, 1) ∈ F3 mais, pour λ = −1, le vecteur (−1) · u =
(−1, −1) n’appartient pas à F3 .

19
F2 F3

0
0 0
F1

3.2 Tout sous-espace vectoriel est un espace vectoriel


La notion de sous-espace vectoriel prend tout son intérêt avec le théorème suivant : un
sous-espace vectoriel est lui-même un espace vectoriel. C’est ce théorème qui va nous
fournir plein d’exemples d’espaces vectoriels.

Théorème 1. Soient E un K-espace vectoriel et F un sous-espace vectoriel de E. Alors


F est lui-même un K-espace vectoriel pour les lois de composition induites par E.

Faisons d’abord un commentaire sur la terminologie et sur le théorème en soi :


• On appelle lois de composition induites sur F depuis E la restriction à F × F ,
respectivement à K × F des applications :

E×E → E K×E → E
et
(u, v) 7→ u + v (λ, u) 7→ λ · u

Remarquer que ces restrictions s’écrivent a priori ainsi :

F ×F → E K×F → E
et
(u, v) 7→ u + v (λ, u) 7→ λ · u

à savoir qu’il n’y a, a priori, aucune raison d’avoir comme domaine d’arrivée F .
Pourtant, F est un sous-espace vectoriel de E, donc il est stable par rapport à ces
deux lois, ce qui nous permet d’affirmer que le domaine d’arrivée de ces restriction
est bien F .
• Donc, sous l’hypothèse que F est un sous-espace vectoriel de E, les restrictions à F
des deux opérations du K-espace vectoriel (E, +, ·) s’écrivent bien ainsi :

F ×F → F K×F → F
et
(u, v) 7→ u + v (λ, u) 7→ λ · u
Ceci permet de munir l’ensemble F d’une loi de composition interne (addition) et
d’une loi de composition externe (multiplication par des scalaires), et par rapport
à ces deux lois se pose actuellement la question si F est un espace vectoriel (dans
le sens de la définition donné en début de chapitre). Le Théorème précédent donne
une réponse positive à cette question.

20
Méthode : Comme déjà annoncé dans l’introduction, pour répondre à une question du
type « L’ensemble non-vide F est-il un espace vectoriel ? », une façon efficace de procéder
est de trouver un espace vectoriel E qui contient F , puis prouver que F est un sous-espace
vectoriel de E. Il y a seulement deux propriétés à vérifier au lieu de huit !

Preuve du Théorème 1. : Soit F un sous-espace vectoriel d’un espace vectoriel (E, +, ·).
La stabilité de F pour les deux lois permet de munir cet ensemble d’une loi de composition
interne et d’une loi de composition externe, en restreignant à F les opérations définies
dans E. Les propriétés de commutativité et d’associativité de l’addition, ainsi que les
quatre axiomes relatifs à la loi externe sont vérifiés, car ils sont satisfaits dans E donc en
particulier dans F , qui est inclus dans E.
L’existence d’un élément neutre découle de la définition de sous-espace vectoriel. Il reste
seulement à justifier que si u ∈ F , alors son symétrique −u appartient à F .
Fixons u ∈ F . Comme on a aussi u ∈ E et que E est un espace vectoriel alors il existe un
élément de E, noté −u, tel que u + (−u) = 0E . Comme u est élément de F , alors pour
λ = −1, (−1)u ∈ F . Et ainsi −u appartient à F .

Exemple 10.

1. L’ensemble des solutions d’un système linéaire homogène est un espace vectoriel.
En effet, soit (S) un système à n équations ayant toutes le membre de droite nul
(système homogène) et p inconnues (nous prenons les coefficients aij des inconnues
réels, mais ils peuvent être dans une corps de scalaires K quelconque) :




 a11 x1 + a12 x2 + . . . + a1p xp =0


+ a22 x2 + . . . + a2p xp =0

a21 x1

(S)



 ... ...


+ an2 x2 + . . . + anp xp =0

an1 x1

L’ensemble S des solutions de (S) est un sous-ensemble de Rp . Remarquer que la


solution triviale (0, . . . , 0) ∈ S.
Soient (x1 , . . . , xp ) et (x01 , . . . , x0p ) deux solutions. Puisqu’elles vérifient chacune des
deux toutes les équations de (S), pour la première solution on multiplie (S) par un
λ ∈ R quelconque et pour la deuxième on multiplie (S) par un µ ∈ R quelconque.
On obtient ainsi des systèmes équivalents aux premiers qu’on additionne équation
par équation. On obtient ainsi le système




 a11 (λx1 + µx01 ) + a12 (λx2 + µx02 ) + . . . + a1p (λxp + µx0p ) =0


a21 (λx1 + µx01 ) + a22 (λx2 + µx02 ) + . . . + a2p (λxp + µx0p ) =0


(S) 


... ...


an1 (λx1 + µx01 ) + an2 (λx2 + µx02 ) + . . . + anp (λxp + µx0p ) = 0

21
ce qui prouve que
(λx1 + µx01 , λx2 + µx02 , . . . , λxp + µx0p ) = λ · (x1 , x2 , . . . , xp ) + µ · (x01 , x02 , . . . , x0p ) ∈ S,
donc S est un sous-espace vectoriel de Rp donc S est lui-même un R-espace vectoriel.
Donnons à présent un exemple concret. Soit le système homogène :




 x − 2y + 3z =0

(S) −2x + 4y − 6z =0


3x − 6y + 9z =0

Il est facile de voir que, après avoir appliqué la méthode du pivot, le système se
réduit à une seule équation : (S) ⇔ x − 2y + 3z = 0. On désignera donc deux des
inconnues comme secondaires, i.e ; on les prend comme paramètres arbitraires. Par
exemple : y = λ et z = µ, ∀(λ, µ) ∈ R2 . On a ainsi :




 x = 2λ − 3µ

(S) ⇐⇒ y =λ ∀(λ, µ) ∈ R2




z

Autrement dit, l’ensemble des solutions est (on le sait maintenant !) un sous-espace
vectoriel de R3 : S = {(2λ − 3µ, λ, µ) ∈ R3 | ∀(λ, µ) ∈ R2 }.
Méthode : arrivés à ce point, nous décomposons le triplet (2λ − 3µ, λ, µ) en com-
binaison linéaire de vecteurs (concrets, fixes) de R3 :

(2λ − 3µ, λ, µ) = (2λ, λ, 0) + (−3µ, 0, µ) = λ · (2, 1, 0) + µ · (−3, 0, 1).

Il en résulte que tous les vecturs de S sont des combinainsons linéaires de seulement
deux vecteurs : (2, 1, 0) et (−3, 0, 1). Autrement dit, que l’espace vectoriel S peut
être "fabriqué" à base de seulement deux vecteurs-solutions du système (S). On dit
dans ce cas que l’ensemble des ces deux vecteurs engendre l’espace vectoriel S.
Remarquer qu’une conséquence de ceci est que, d’un point de vue géométrique, S
est un plan de R3 , à savoir, celui du triangle dont les sommets sont O = (0, 0, 0), et
les points d’application des deux vecteurs, à savoir A = (2, 1, 0) et B = (−3, 0, 1).
2. L’ensemble des fonctions paires (respectivement des fonctions impaires) forme un
R-espace vectoriel (avec les lois usuelles sur les fonctions).
En effet, notons P l’ensemble des fonctions paires et I l’ensemble des fonctions
impaires. Ce sont deux sous-ensembles de l’espace vectoriel F(R, R) des fonctions.
n o
P = f ∈ F(R, R) | ∀x ∈ R, f (−x) = f (x)
n o
I = f ∈ F(R, R) | ∀x ∈ R, f (−x) = −f (x)
P et I sont des sous-espaces vectoriels de F(R, R). En effet, par exemple pour P,
on observe déjà que la fonction nulle est une fonction paire. Après :

22
(a) si f, g ∈ P alors f + g ∈ P,
car ∀x ∈ R : (f + g)(−x) = f (−x) + g(−x) = f (x) + g(x) = (f + g)(x).
(b) si f ∈ P et si λ ∈ R alors λ · f ∈ P,
car ∀x ∈ R : (λ · f )(−x) = λf (−x) = λf (x) = (λ · f )(x.
Par le théorème 1, P est alors un espace vectoriel (et de même pour I).
3. L’ensemble Sn des matrices symétriques (carrées) de taille n (tableaux (ai,j ) avec
i, j = 1, . . . , n tels que ai,j = aj,i , ∀ (i, j)) est un R-espace vectoriel (avec les lois
usuelles sur les matrices).
En effet, Sn est un sous-ensemble de l’espace vectoriel Mn (R) des matrices carrées
n × n. Et c’est même un sous-espace vectoriel. En effet la matrice nulle est symé-
trique. Et il est facile de vérifier que la somme de deux matrices symétriques est
encore symétrique et que le produit d’une matrice symétrique par un scalaire est
une matrice symétrique. Par le Théorème 1, Sn est alors un R-espace vectoriel.

3.3 Combinaisons linéaires. Espace vectoriel engendré.


Définition 3. Pour n ∈ N∗ , soient v1 , v2 , . . . , vn , n vecteurs d’un K-espace vectoriel E.
Tout vecteur de la forme
u = λ1 v1 + λ2 v2 + · · · + λn vn

(où λ1 , λ2 , . . . , λn sont des éléments de K) est appelé combinaison linéaire des vec-
teurs v1 , v2 , . . . , vn . Les scalaires λ1 , λ2 , . . . , λn sont appelés coefficients de la combinaison
linéaire.

Remarque : Si n = 1, alors u = λ1 v1 et on dit que u est colinéaire à v1 .


Inversement, si on se donne un seul vecteur v les combinaisons linéaires qu’on peut obtenir
avec lui-même sont les vecteurs λv avec λ ∈ R. Remarquons que, si E était R ou R2 ou R3
alors tous ces vecteurs sont sur une même droite passant par l’origine de l’espace vectoriel
considéré. Ce qui explique le nom de "colinéaire".

Exemple 11.

1. Dans le R-espace vectoriel R3 , (5, −1, 3) est combinaison linéaire des vecteurs (1, 1, 0)
et (1, −1, 1) car on a l’égalité (5, −1, 3) = 2(1, 1, 0) + 3(1, −1, 1).
2. Dans le R-espace vectoriel R2 , le vecteur u = (2, 1) n’est pas colinéaire au vecteur
v = (1, 1) car s’il l’était, il existerait un réel λ tel que u = λv, ce qui équivaudrait à
l’égalité (2, 1) = (λ, λ) qui équivaut à 2 = λ = 1. Absurde.
3. Soit E = F(R, R) l’espace vectoriel des fonctions réelles. Soient f0 , f1 , f2 et f3 les
fonctions définies par : ∀x ∈ R, f0 (x) = 1, f1 (x) = x, f2 (x) = x2 , f3 (x) = x3 .
Alors la fonction f définie par ∀x ∈ R, f (x) = x3 − 2x2 − 7x − 4 est combinaison
linéaire des fonctions f0 , f1 , f2 , f3 puisque l’on a l’égalité f = f3 − 2f2 − 7f1 − 4f0 .

23
 
1 1 3
4. Dans M2,3 (R), on considère A =  . On peut écrire A naturellement sous
0 −1 4
la forme d’une combinaison linéaire de matrices élémentaires Ei,j (i.e. qui ont des
zéros partout, sauf un 1 à l’intersection de la ligne "i" avec la colonne "j") :
         
1 0 0 0 1 0 0 0 1 0 0 0 0 0 0
A =  + + 3 − + 4
0 0 0 0 0 0 0 0 0 0 1 0 0 0 1
= 1 · E1,1 + 1 · E1,2 + 3 · E1,3 + (−1) · E2,2 + 4 · E2,3 .

Revenons à la Remarque précédente pour se rappeller qu’avec un seul vecteur v ∈ E nous


avons trouvé ses combinaisons linéaires (avec lui-même) qui sont du type λv. L’ensemble
D de ces vecteurs est stable par multiplication par les scalaires de K, puisque ∀µ, λ ∈ K,
µ(λv) = (µλ)v = λ0 v et λv + µv = (µ + λ)v = λ00 v. Donc D est un sous-espace
vectoriel de E et dans les cas très simples connus (E est R ou R2 ou R3 ) amors D est une
droite passat par l’origine.
Le résultat suivant nous assure que ce phénomène peut se généraliser à un nombre quel-
conque de vecteurs.

Théorème 2. Soit S = {v1 , . . . , vn } un ensemble fini de vecteurs d’un K-espace vectoriel


E. Alors :
• L’ensemble des combinaisons linéaires des vecteurs {v1 , . . . , vn } est un sous-espace
vectoriel de E.
Ce sous-espace vectoriel est appelé sous-espace engendré par la famille de
vecteurs S et sera noté dorénavant Vect{v1 , . . . , vn } ou Vect S . On a donc

u ∈ Vect{v1 , . . . , vn } ⇔ il existent λ1 , . . . , λn ∈ K tels que u = λ1 v1 + . . . + λn vn .

• Vect S est le plus petit (au sens de l’inclusion) sous-espace vectoriel de E qui
contient les vecteurs v1 , . . . , vn . Autrement dit, pour tout autre sous-espace vecto-
riel G de E tel que {v1 , . . . , vn } ⊆ G ⊆ E, on a : Vect{v1 , . . . , vn } ⊆ G.

Remarques :
• Retenons donc la définition sous la forme suivante :

Vect{v1 , . . . , vn } := {u ∈ E | u = λ1 v1 + . . . + λn vn , ∀(λ1 , . . . , λn ) ∈ Kn }

La somme dans la combinaison linéaire étant commutative, cela infirme la nécessité


d’un ordre pré-établi d’énonciation des vecteurs de la famille S = {v1 , . . . , vn }.
Cependant, noter que, à partir de la section § 5.1, lorsque de la notion de base d’un
espace vectoriel sera définie, l’énonciation des éléments d’une famille de vecteurs
qui est une base se fera dans un ordre précis et nous adopterons alors la notation
(v1 ; . . . ; vn ) plutôt que {v1 , . . . , vn } lorsque cette famille de vecteurs sera une base.

24
• Plus généralement, on peut définir le sous-espace vectoriel engendré par une partie
S quelconque (non nécessairement finie) d’un espace vectoriel E. Dans ce cas,
Vect S est l’ensemble de toutes les combinaisons linéaires que l’on puisse faire avec
des sous-ensembles finis F de S . On montre que Vect S reste le plus petit sous-
espace vectoriel de E contenant S .

Exemple 12.
E étant un K-espace vectoriel, et u un élément quel-
conque de E, l’ensemble Vect{u} = {λu | λ ∈ K} est
Ku = Vect(u)
le sous-espace vectoriel de E engendré par u. Il est sou-
0
vent noté Ku. u
Si u n’est pas le vecteur nul, on parle d’une droite
vectorielle dans E.

Si u et v sont deux vecteurs de E, alors


n o
Vect{u, v} = λu + µv | (λ, µ) ∈ K2 . v u
0
Si u et v ne sont pas colinéaires, alors Vect{u, v} est
Vect(u, v)
un plan vectoriel dans E.

Preuve du Théorème 2 :
1. On note ici F l’ensemble des combinaisons linéaires des vecteurs {v1 , . . . , vn }.
Remarquer d’abord que l’origine 0E ∈ F car F contient la combinaison linéaire
particulière 0v1 + · · · + 0vn . Ensuite, on a :
(a) Si u, u0 ∈ F alors il existe (λ1 , . . . , λn ) ∈ Kn tel que u = λ1 v1 + · · · + λn vn et
(µ1 , . . . , µn ) ∈ Kn tel que u0 = µ1 v1 + · · · + µn vn . On en déduit que u + u0 =
(λ1 + µ1 )v1 + · · · + (λn + µn )vn appartient bien à F .
(b) De même, ∀µ ∈ K, µ · u = (µλ1 )v1 + . . . + (µλn )vn ∈ F .
Conclusion : F est un sous-espace vectoriel.
2. Si G est un sous-espace vectoriel de E contenant {v1 , . . . , vn }, alors il est stable
par combinaison linéaire ; il contient donc toute combinaison linéaire des vecteurs
{v1 , . . . , vn }. Par conséquent Vect{v1 , . . . , vn } est inclus dans G, et de ce fait, il est
le plus petit sous-espace (au sens de l’inclusion) contenant S = {v1 , . . . , vn }.

Exemple 13.

1. Soit u = (1, 1, 1) et v = (1, 2, 3) deux éléments de R3 . Déterminons P = Vect{u, v}.


(x, y, z) ∈ Vect{u, v} ⇐⇒ (x, y, z) = λu + µv pour certainsλ, µ ∈ R
⇐⇒ (x, y, z) = λ(1, 1, 1) + µ(1, 2, 3)
x = λ+µ




⇐⇒

y = λ + 2µ
z = λ + 3µ

25
Nous obtenons bien une équation paramétrique du plan P passant par l’origine et
contenant les vecteurs u et v.
Si on applique la méthode du pivot au système d’équations précédent, vu en incon-
nues λ et µ, à la fin de l’algorithme on obtient la dernière équation sous la forme
x − 2y + z = 0, ce qui représente une équation cartésienne du plan vectoriel P.
2. Soient E l’espace vectoriel des applications de R dans R et f0 , f1 , f2 les applications
définies par : ∀x ∈ R, f0 (x) = 1, f1 (x) = x et f2 (x) = x2 . Le sous-espace vectoriel
de E engendré par {f0 , f1 , f2 } est l’espace vectoriel des fonctions polynômes f de
degré inférieur ou égal à 2, c’est-à-dire celles de la forme f (x) = a + bx + cx2 .

Dans ce qui suit, nous explorons un point de vue qui est la démerche inverse de celle
illustrée dans l’exemple précédent.
Méthode : On peut démontrer qu’un sous-ensemble F d’un espace vectoriel E est un
sous-espace vectoriel de E en montrant que F est égal à l’ensemble des combinaisons
linéaires d’un nombre fini de vecteurs de E.
n o
Exemple 14. On sait déjà que F = (x, y, z) ∈ R3 | x − y − z = 0 est un sous-
espace vectoriel de R3 car l’équation le définissant est celle d’un plan passant par l’origine.
Redémontrons-le comme suit : un triplet (x, y, z) de R3 est élément de F si et seulement
si x = y + z. Donc u est élément de F si et seulement s’il peut s’écrire u = (y + z, y, z). Or,
on a l’égalité (y + z, y, z) = y(1, 1, 0) + z(1, 0, 1). Donc F est l’ensemble des combinaisons
linéaires de S = {(1, 1, 0),n(1, 0, 1)} et c’estodonc le sous-espace vectoriel engendré par S
et on écrit donc F = Vect (1, 1, 0), (1, 0, 1) .

3.4 Famille génératrice d’un sous-espace vectoriel


Le titre de cette section n’apporte rien de nouveau par rapport à la précédente : on aurait
pu introduire la notion de "famille génératrice" auparavant. En effet, récapitulons ce qui
a été illustré par des exemples précédents :
• Étant donnée une famille (finie) S = {v1 , . . . , vn } de vecteurs d’un K-espace vecto-
riel E, on peut engendrer un sous-espace vectoriel noté Vect{v1 , . . . , vn } par combi-
naisons linéaires de ces vecteurs.
• Réciproquement, dans tout K-espace vectoriel E il existent des sous-espaces F pour
lesquels on peut trouver une famille finie S de vecteurs telle que F soit engendré
par cette famille, i.e. F = Vect S . On appelle une telle famille de vecteurs famille
génératrice de l’espace vectoriel F .

Exemple 15. D’un point de vue pratique, nous avons vu comment, étant donné un tel
F (par des définitions implicites (par exemple par des équations)) on peut trouver une
famille de vecteurs qui l’engendre.

26
Les exemples les plus élémentaires sont fournis par les espaces vectoriels R2 et R3 eux-
mêmes. En effet, on a :
∀(x, y) ∈ R2 , (x, y) = (x, 0) + (0, y) = x(1, 0) + y(0, 1) d’où R2 = Vect{(1, 0), (0, 1)}.
De la même façon on déduit que R3 = Vect{(1, 0, 0), (0, 1, 0), (0, 0, 1)}.

Remarques :
1. Une famille génératrice d’un espace vectoriel n’est pas l’unique ensemble de vecteurs
ayant cette propriété.
En effet, si, par exemple, u et v engendrent un espace vectoriel E, autrement dit,
si la famille S = {u, v} est génératrice de E, pour tout vecteur w ∈ E il existent
des scalaires λ et µ tels que w = λu + µv. Soit alors u0 = u + v et v 0 = u − v, qui
sont toujours des vecteurs de E. En voyant ces deux égalités comme un système
d’équations en inconnues u et v on en tire u = (u0 + v 0 )/2 et v = (u0 − v 0 )/2 ce qui
λ+µ 0 λ−µ 0
nous donne w = u + v , à savoir, il existent des scalaires λ0 = λ+µ et
2 2 2
µ0 = λ−µ2
tels que w = λ0 u0 + µ0 v 0 . La famille de vecteurs S = {u0 , v 0 } =
6 S est donc
aussi génératrice de E : Vect{u , v } = E = Vect{u, v}.
0 0

2. Notons que, a priori, plus on ajoute des vecteurs à une famille S génératrice d’un
sous-espace F d’un espace vectoriel E, plus de chances il y a pour que la nouvelle
famille S 0 obtenue, étant plus riche que S , engendre un sous-espace vectoriel plus
grand que F = Vect S .
Par exemple, si on munit le plan d’un repère orthonormal xOy, et si S = {(1, 0)},
le vecteur (1, 0) n’engendre que l’axe réel Ox du plan. Mais si on ajoute à S le
vecteur (0, 1) alors la nouvelle famille de vecteurs S 0 = {(1, 0), (0, 1)} engendre R2
tout entier.
Cette intuition n’est pas toujours confirmée, comme le montre l’affirmation suivante :
3. Si à une famille génératrice S d’un sous-espace vectoriel on ajoute un vecteur qui
est combinaison linéaire de ses propres vecteurs on obtient une famille S 0 qui en-
gendre le même sous-espace vectoriel.
En effet, soit S = {u, v} famille génératrice de F sous-espace d’un K-espace vec-
toriel E. Soit w = λu + µv pour un certain couple (λ, µ) ∈ K2 . Notons S 0 =
S ∪ {w} = {u, v, w}. Alors toute combinaison linéaire d’éléments de S 0 s’écrit :
αu + βv + γw = αu + βv + λu + µv = (α + λ)u + (β + µ)v ce qui prouve que
Vect S 0 = F = Vect S .
Ce raisonnement s’étend facilement à une famille S contenant un nombre fini ar-
bitraire de vecteurs.
Malgré la réciprocité des points de vue exposée en début de cette section, une question se
pose : étant donné d’une part F , sous-espace vectoriel d’un espace vectoriel E, et d’autre
part S une famille de vecteurs de E, comment décide-t-on sur la relation (d’inclusion,
voire d’égalité ou bien d’incomparabilité) entre les sous-espaces vectoriels F et Vect S ?
L’exemple suivant illustre bien cette situation.

27
Exemple 16. En E = R3 , soit u = (1, 2, −1) et v = (6, 4, 2). Montrons d’abord que w =
(9, 2, 7) est combinaison linéaire de u et v. On cherche donc λ et µ tels que w = λu + µv.
Or, (9, 2, 7) = λ(1, 2, −1) + µ(6, 4, 2) = (λ + 6µ, 2λ + 4µ, −λ + 2µ). Ceci équivaut à :

λ + 6µ = 9 λ + 6µ = 9
 

λ + 6µ = 9

 

  
2λ + 4µ = 2 ⇔ −8µ = −16 ⇔
   µ = 2
−λ + 2µ = 7 8µ = 16.

 

d’où l’unique solution de ce système : λ = −3, µ = 2, ce qui implique que w est combi-
naison linéaire de u et v.
Montrons à présent que w = (4, −1, 8) n’est pas une combinaison linéaire de u et v.
L’égalité (4, −1, 8) = λ(1, 2, −1) + µ(6, 4, 2) = (λ + 6µ, 2λ + 4µ, −λ + 2µ) équivaut à :

λ + 6µ = 4 λ + 6µ = 9 λ + 6µ = 9
  

 
 

  

2λ + 4µ = −1 ⇔ 
−8µ = −9 ⇔ 
8µ = −9
−λ + 2µ = 8 8µ = 12. 0 = 3

 
 

d’où l’incompatibilité du système. Donc il n’existe pas (λ, µ) ∈ R2 tel que w = λu + µv.
Donc w ∈ / Vect{u, v} et par conséquent aucun des sous-espaces vectoriels Vect{u, v} et
Vect{w} n’est inclus dans l’autre.
En particulier, on en déduit que Vect{u, v} ∩ Vect{w} = {0E }.

3.5 Intersection de deux sous-espaces vectoriels


Proposition 3. Soient F, G deux sous-espaces vectoriels d’un K-espace vectoriel E.
1. L’intersection F ∩ G est un sous-espace vectoriel de E.
2. L’intersection F ∩ G est le plus grand sous-espace de E contenu à la fois par F et
par G.

Preuve : Soient F et G deux sous-espaces vectoriels de E. Remarquons déjà que 0E ∈ F ,


0E ∈ G car F et G sont des sous-espaces vectoriels de E. Donc 0E ∈ F ∩ G. Ensuite,
• Soient u et v deux vecteurs de F ∩ G. Comme F est un sous-espace vectoriel, alors
u, v ∈ F implique u + v ∈ F . De même u, v ∈ G implique u + v ∈ G. Donc
u + v ∈ F ∩ G.
• Soient u ∈ F ∩ G et λ ∈ K. Comme F est un sous-espace vectoriel, alors u ∈ F
implique λu ∈ F . De même u ∈ G implique λu ∈ G. Donc λu ∈ F ∩ G.
Conclusion : F ∩ G est un sous-espace vectoriel de E.
La deuxième affirmation de la Proposition est évidente compte tenu de la définition de
F ∩ G en tant que ensemble.

On démontre de même que l’intersection F1 ∩ F2 ∩ F3 ∩ · · · ∩ Fn d’une famille quelconque


de sous-espaces vectoriels de E est un sous-espace vectoriel de E.

28
Exemple 17. Soit D le sous-ensemble de R3 défini par :
n o
D = (x, y, z) ∈ R3 | x + 3y + z = 0 et x − y + 2z = 0 .

On peut établir facilement que D est sous-espace vectoriel de R3 en résolvant le système


homogène à deux équations qui le définissent (comme cela a été fait dans des exemples
précédents).
Mais il y a une autre façon de voir l’ensemble D : il est l’intersection de F et G, les
sous-ensembles de R3 définis par :
F
n o
F = (x, y, z) ∈ R3 | x + 3y + z = 0
n o
G = (x, y, z) ∈ R3 | x − y + 2z = 0
Ce sont deux plans passant par l’origine, donc des sous- G
D
espaces vectoriels de R3 . Ainsi D = F ∩ G est un sous-
espace vectoriel de R3 , à savoir c’est une droite vectorielle.

3.6 Somme de deux sous-espaces vectoriels


Nous avons vu dans la section précédente que l’intersection F ∩ G de deux sous-espaces
vectoriels F et G est le plus grand des sous-espaces H de E ayant la propriété : H ⊆ F
et H ⊆ G.
Il est alors naturel de se poser la question : étant donné un couple F , G de sous-espaces
de E, qui serait le plus petit sous-espace H 0 de E tel qu’on ait F ⊆ H 0 et G ⊆ H 0 ?
Dans le cas où F et G sont vus seulement en tant que sous-ensembles de E, la réponse à
cette question est claire : le sous-ensemble H avec cette propriété est l’union d’ensembles
F ∪ G. Pourtant, une question se pose : le sous-ensemble F ∪ G de E est-il toujours un
sous-espace vectoriel de E ? La réponse est négative :
La réunion de deux sous-espaces vectoriels de E n’est, en général, pas un sous-espace
vectoriel de E.
En effet, si par exemple E = R2 , prenons les sous-espaces
vectoriels F
F = {(x, y) | x = 0}
G = {(x, y) | y = 0}. (1, 1)
(0, 1)
Alors F ∪ G n’est pas un sous-espace vectoriel de R2 . Par G
exemple, (0, 1) + (1, 0) = (1, 1) est la somme d’un élément 0 (1, 0)

de F et d’un élément de G, mais n’est pas dans F ∪ G.


Nous pouvons être encore plus précis :

Proposition 4. Si E est un K-espace vectoriel et F , G deux de ses sous-espaces, on a :


F ∪ G est sous-espace de E ⇐⇒ F ⊆ G ou G ⊆ F .

29
Preuve : L’implication "⇐" étant triviale, on montre seulement "⇒" :
Pour v ∈ F et w ∈ G quelconques, puisque par hypothèse F ∪ G est sous-espace vectoriel,
on a v + w ∈ F ∪ G, donc v + w ∈ F ou v + w ∈ G. Or,

• si v + w ∈ G il existe w0 ∈ G tel que v + w = w0 , d’où v = w0 − w ∈ G.


• si v + w ∈ F il existe v 0 ∈ F tel que v + w = v 0 , d’où w = v 0 − v ∈ F ,
En conclusion, on a l’alternative :
• si v ∈ F alors v ∈ G, donc F ⊆ G, ou bien
• si w ∈ G alors w ∈ F , donc G ⊆ F .

Il s’agit donc de trouver un sous-espece vectoriel de E, dépendant F et G et qui contienne


à la fois ces deux sous-espaces tout en ayant la qualité d’être le plus petit (au sens de
l’inclusion) parmi ceux qui ont cette propriété. Comme nous allons le démontrer ultérieu-
rement, cet espace est défini comme suit :

Définition 4. Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E.


L’ensemble de tous les éléments u + v, où u est un élément de F et v un élément de G,
est appelé somme des sous-espaces vectoriels F et G. Cette somme est notée F + G. On
a donc n o
F + G := u + v | u ∈ F, v ∈ G .

La représentation de la somme F + G dans le dessin ci-


contre est purement schématique. Contrairement à des
figures précédentes où l’on représentait des droites en R2
G
ou R3 , ou bien des plans en R3 , ici les espaces F et G ne
sont pas forcement des sous-espaces d’un Rn concret et
encore moins des droites vectorielles du plan. C’est juste F +G

une façon d’arriver à visualiser des objets appartenant à


un espace vectoriel abstrait. Nous encourageons le lecteur F
à se donner de telles représentations, mais par la même
nous l’invitons à la prudence, car à force de schématiser,
des détails ou des cas particuliers du problème abstrait
pourraient lui échapper.
Proposition 5. Soient F et G deux sous-espaces vectoriels du K-espace vectoriel E.
1. F + G est un sous-espace vectoriel de E.
2. F + G est le plus petit sous-espace vectoriel contenant à la fois F et G.

Preuve :
1. Montrons que F +G est un sous-espace vectoriel. On remarque que 0E ∈ F , 0E ∈ G,
donc 0E = 0E + 0E ∈ F + G. Ensuite,

30
• Soient w et w0 des éléments de F + G. Comme w est dans F + G, il existe u
dans F et v dans G tels que w = u + v. Comme w0 est dans F + G, il existe u0
dans F et v 0 dans G tels que w0 = u0 + v 0 . Alors w + w0 = (u + v) + (u0 + v 0 ) =
(u + u0 ) + (v + v 0 ) ∈ F + G, car u + u0 ∈ F et v + v 0 ∈ G.
• Soit w un élément de F + G et λ ∈ K. Il existe u dans F et v dans G tels que
w = u + v. Alors λw = λ(u + v) = (λu) + (λv) ∈ F + G, car λu ∈ F et λv ∈ G.
2. • L’ensemble F + G contient F et contient G. En effet, tout élément u de F
s’écrit u = u + 0 avec u appartenant à F et 0 appartenant à G (puisque G est
un sous-espace vectoriel), donc u appartient à F + G. De même tout élément
v de G s’écrit v = 0 + v avec v ∈ F et 0 vu comme élément de G (puisque
celui-ci est sous-espace vectoriel de E).
• Si H est un sous-espace vectoriel contenant F et G, montrons que F + G ⊂ H.
Si u ∈ F alors en particulier u ∈ H (car F ⊂ H), de même si v ∈ G alors
v ∈ H. Comme H est un sous-espace vectoriel, alors u + v ∈ H.
Remarque : Il est évident que pour le cas particulier où F ⊆ G ⊆ E en tant qu’espaces
vectoriels, on a F + G = G et F ∩ G = F .
Exemple 18. Déterminons F + G dans le cas où F et G sont les sous-espaces vectoriels
de R3 suivants : z
n o
F = (x, y, z) ∈ R3 | y = z = 0 F +G
n o
G = (x, y, z) ∈ R3 | x = z = 0 . F
G 0
Un élément w de F + G s’écrit w = u + v où y
u est un élément de F et v un élément de G. x
Comme u ∈ F alors il existe x ∈ R tel que u = (x, 0, 0), et comme v ∈ G il existe y ∈ R
tel que v = (0, y, 0). Donc w = (x, y, 0). Réciproquement,
n
un tel élément w
o
= (x, y, 0) est
la somme de (x, 0, 0) et de (0, y, 0). Donc F + G = (x, y, z) ∈ R | z = 0 .
3

On observe que, pour cet exemple, tout élément de F + G s’écrit de façon unique comme la
somme d’un élément de F et d’un élément de G. À ce propos, toute autre est la situation
décrite dans l’exemple suivant.
Exemple 19. Soient F et G les deux sous-espaces vectoriels de R3 suivants :
z G
n o
F = (x, y, z) ∈ R | x = 0
3

F
n o
G = (x, y, z) ∈ R3 | y = 0 .
On veut montrer que F + G = R3 . Par définition de y
0
F + G, tout élément de F + G est dans R3 .
x
Réciproquement, si w = (x, y, z) est un élément quelconque de R3 : w = (x, y, z) =
(0, y, z) + (x, 0, 0), avec (0, y, z) ∈ F et (x, 0, 0) ∈ G, donc w appartient à F + G.
Remarquons que, dans cet exemple, un élément de R3 ne s’écrit pas forcément de façon
unique comme la somme d’un élément de F et d’un élément de G. Par exemple
(1, 2, 3) = (0, 2, 3) + (1, 0, 0) = (0, 2, 0) + (1, 0, 3).

31
3.7 Somme directe de sous-espaces
Dans les deux exemples précédents nous avons vu que la décomposition d’un vecteur
u ∈ F + G sous forme v + w avec v ∈ F et w ∈ G peut être unique ou non, selon la paire
de sous-espaces F et G de E que l’on considère. Il est donc naturel de se poser la question
s’il existent des critères généraux qui tranchent sur ce sujet.

Définition 5. Soient F et G deux sous-espaces vectoriels de E. On dit alors que le sous-


espace somme F + G est une somme directe de sous-espaces F et G si et seulement si
F ∩ G = {0E }.
Dans ce cas on note F + G = F ⊕ G et on dit que "F et G sont en somme directe".

Proposition 6. La somme F +G est directe si et seulement si tout élément lui appartenant


s’écrit d’une manière unique comme la somme d’un élément de F et d’un élément de G.

Remarque : Dire qu’un élément u s’écrit d’une manière unique comme la somme d’un
élément de F et d’un élément de G signifie que si u = v + w avec v ∈ F , w ∈ G et
u0 = v 0 + w0 avec v 0 ∈ F , w0 ∈ G alors v = v 0 et w = w0 .

Preuve :
• Supposons F + G = F ⊕ G et montrons que tout élément u ∈ F + G se décompose
de manière unique. Soient donc u = v + w et u = v 0 + w0 avec v, v 0 ∈ F et w, w0 ∈ G.
On a alors v + w = v 0 + w0 , donc v − v 0 = w0 − w. Comme F est un sous-espace
vectoriel alors v − v 0 ∈ F , mais d’autre part G est aussi un sous-espace vectoriel
donc w0 − w ∈ G. Conclusion : v − v 0 = w0 − w ∈ F ∩ G. Mais par la définition
ci-dessus F ∩ G = {0E }, donc v − v 0 = 0E et aussi w0 − w = 0E . On en déduit v = v 0
et w = w0 , ce qu’il fallait démontrer.
• Supposons que tout u ∈ F + G se décompose de manière unique et montrons alors :
F ∩ G = {0E }. Si u ∈ F ∩ G, il peut s’écrire des deux manières suivantes comme
somme d’un élément de F et d’un élément de G : u = 0E + u et u = u + 0E . Par
l’unicité de la décomposition, u = 0E .
Exemple 20.

1. Soient en R2 les sous-espaces : y


G
n o G0
F = (x, 0) ∈ R2 | x ∈ R
n o
G = (0, y) ∈ R2 | y ∈ R
F
n o
G0 = (x, x) ∈ R2 | x ∈ R .
0 x
On a :
(x, y) ∈ F ⇒ y = 0 et (x, y) ∈ G ⇒ x = 0 donc (x, y) ∈ F ∩ G ⇔ (x, y) = (0, 0).
Donc la somme F + G est bien directe.
Montrons à présent F ∩ G0 = {(0, 0)}.
Si (x, y) ∈ F ∩ G0 alors d’une part (x, y) ∈ F donc y = 0, et aussi (x, y) ∈ G0 donc
x = y. Ainsi (x, y) = (0, 0). Donc la somme F + G0 est aussi directe.

32
2. De façon plus générale, la somme de deux droites distinctes passant par l’origine
(du plan, de l’espace ou bien de Rn ) est toujours directe.

3.8 Sous-espaces vectoriels supplémentaires


Définition 6. Soit un espace vectoriel E. On dit que deux sous-espaces F et G de E sont
supplémentaires dans E s’ils sont en somme directe et si le sous-espace somme vaut E.
Dans ce cas, on écrit : E = F ⊕ G.

 F ∩ G = {0E }, et
On a donc : E = F ⊕ G ⇐⇒
 F + G = E.

Il s’agit donc d’un cas particulier de somme directe : lorsque celle-ci vaut l’espace vectoriel
entier. Ainsi, on obtient, comme corollaire de la Proposition 6,

Corollaire 2. F et G sont supplémentaires dans E si et seulement si tout élément de E


s’écrit d’une manière unique comme la somme d’un élément de F et d’un élément de G.

Remarques :

• Si E = F ⊕ G on dit aussi que F est un sous-espace supplémentaire de G dans E


(ou que G est un sous-espace supplémentaire de F dans E).
• Cette notion n’est pas propre à E : si F , G et H sont des sous-espaces vectoriels de
E tels que H = F ⊕ G on dit que F et G sont supplémentaires dans H.
• Ne pas confondre "supplémentaire" avec "complémentaire" : la deuxième notion est
spécifique aux ensembles et fait référence à l’union des ensembles, et non pas à
leur somme, qui, d’ailleurs, est une notion inconnue (i.e. n’a pas de sens) pour les
ensembles, vu que cette notion ne suppose pas qu’une opération (loi de composition)
soit introduite dessus !
Pour donner un exemple, prenons la situation décrite dans l’Exemple 22 ci-dessous :
on y montre qu’un supplémentaire du plan vectoriel F de l’espace est la droite
vectorielle G, alors que le complémentaire de l’ensemble F est tout l’espace sauf F ,
c’est donc R3 \ F . Ce dernier est grand, mais incomparable à G puisqu’il ne contient
pas l’origine, et de ce fait, le complémentaire de F n’est pas un espace vectoriel.
• Il n’y a pas unicité du supplémentaire d’un sous-espace vectoriel donné.
On l’a vu dans l’exemple de la section précédente (qui sera repris ci-dessous).
Nous pouvons rebondir sur la remarque précédente en disant que, le complémentaire
d’un ensemble dans un autre étant unique, et le supplémentaire d’un sous-espace
vectoriel ne l’étant pas, ces deux notions ne peuvent être confondues.
• L’existence d’un supplémentaire de tout sous-espace vectoriel sera prouvée dans le
cadre des espaces vectoriels de dimension finie.
n o
Exemple 21. Reprenons l’exemple de la section précédente : F = (x, 0) ∈ R2 | x ∈ R ,
n o n o
G = (0, y) ∈ R2 | y ∈ R et G0 = (x, x) ∈ R2 | x ∈ R .

33
On a vu que les sommes F + G et F + G0 sont directes. Or, comme pour tout couple de
(x, y) ∈ R2 on a (x, y) = (x, 0) + (0, y), on en déduit que F + G = R2 .
Montrons que l’on a aussi F ⊕ G0 = R2 . Soit u = (x, y) ∈ R2 . Cherchons v ∈ F et w ∈ G0
tels que u = v + w. Comme v = (x1 , y1 ) ∈ F alors y1 = 0, et comme w = (x2 , y2 ) ∈ G0
alors x2 = y2 . Il s’agit donc de trouver x1 et x2 tels que (x, y) = (x1 , 0) + (x2 , x2 ). Donc
(x, y) = (x1 + x2 , x2 ). Ainsi x = x1 + x2 et y = x2 , d’où x1 = x − y et x2 = y. On trouve
bien (x, y) = (x−y, 0)+(y, y), qui prouve que tout élément de R2 est somme d’un élément
de F et d’un élément de G0 .
En conclusion, F ⊕ G = R2 = F ⊕ G0 donc G 6= G0 sont deux supplémentaires de F en
R2 . En vérité, il y a une infinité de tels supplémentaires à F en R2 , à savoir toute droite
vectorielle qui diffère de la droite F .

Exemple 22.
G
Les sous-espaces vectoriels F et G de R3 définis par G0
n o
F = (x, y, z) ∈ R3 | x − y − z = 0 0 F
n o
G = (x, y, z) ∈ R | y = z = 0
3

sont supplémentaires dans R3 .


1. Montrons que F ∩ G = {0}. Si u = (x, y, z) ∈ F ∩ G alors : x − y − z = 0 (car u
appartient à F ), et y = z = 0 (car u appartient à G), donc u = (0, 0, 0).
2. Montrons que F + G = R3 .
Soit u = (x, y, z) un élément quelconque de R3 ; il faut déterminer des éléments
v ∈ F et w ∈ G tels que u = v + w. Or, compte tenu de la définition de F et G, v
doit être de la forme v = (b + c, b, c) et w de la forme w = (a0 , 0, 0). Alors u = v + w
équivaut à b = y, c = z, a0 = x−y −z. D’où la décomposition de tout (x, y, z) ∈ R3 :

(x, y, z) = (y + z, y, z) + (x − y − z, 0, 0)

avec v = (y + z, y, z) dans F et w = (x − y − z, 0, 0) dans G.

Exemple 23. Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on considère
le sous-espace vectoriel des fonctions paires P et le sous-espace vectoriel des fonctions
impaires I. Montrons que P ⊕ I = F(R, R).
Soit f ∈ F(R, R) quelconque. Montrons que f peut s’écrire d’une manière unique comme
la somme d’une fonction paire et d’une fonction impaire.
Si f = g + h avec g ∈ P, h ∈ I, alors pour tout x ∈ R,
 
 f (x) = g(x) + h(x)  h(x) + g(x) = f (x)
⇐⇒
 f (−x) = g(−x) + h(−x) = g(x) − h(x)  2g(x) = f (x) + f (−x)
donc, par pivot de Gauss nous avons apporté le système sous une forme échelonnée, ce
qui assure l’unicité des solutions :
f (x) + f (−x) f (x) − f (−x)
∀x ∈ R, g(x) = et h(x) = .
2 2
34
Par simple vérification, pour tout x ∈ R on a : g(−x) = g(x) et h(−x) = −h(x)).
Ainsi, pour chaque f ∈ F(R, R), il existent deux fonctions g, h déterminées d’une manière
unique par f (via les formules ci-dessus) et telles que g ∈ P, h ∈ I et f = g + h. Par
conséquent, le Corollaire 2 assure que : P ⊕ I = F(R, R).
Pour clore, remarquons que l’unicité de la décomposition a été assurée par la manière dont
les fonctions g et h ont été trouvées (pivot de Gauss), et ceci nous dispense de montrer que
P et I sont en somme directe, i.e. que P ∩ I = {0F (R,R) }. Cependant, en tant qu’exercice,
nous donnons aussi la preuve de cette assertion.
Supposons que f ∈ P ∩ I, i.e. f est à la fois une fonction paire et impaire. Il s’agit de
montrer que f est alors nécessairement la fonction identiquement nulle. Pour tout x ∈ R,
comme f est paire, on a f (−x) = f (x) et comme f est impaire, on a aussi f (−x) = −f (x).
D’où, ∀x ∈ R, f (x) = −f (x) i.e. f (x) = 0. Donc f est bien la fonction nulle.

4 Familles libres, liées, bases et dimension


Dans la sous-section § 3.4 nous avons vu que, pour un quelconque sous-espace vectoriel F
(fixé arbitrairement dans un espace vectoriel E) on peut avoir les situations suivantes :
• F peut être engendré par combinaisons linéaires de ses vecteurs se trouvant dans
deux familles de vecteurs qui soient différentes entre elles.
• Si F est engendré par une famille S il existe un autre famille S 0 ⊃ S telle que
l’on ait Vect S = F = Vect S 0 .
Cette deuxième observation, regardée "à rebours", fait naître une question naturelle :
partant d’une famille S de vecteurs de F , exite-t-il une sous-famille B ⊆ S ayant un
nombre minimal d’éléments et telle que qu’on ait tout de même Vect B = F ?
La recherche d’une réponse à cette question conduit à la notion de base d’un espace
vectoriel.
En supposant que F est engendré par une famille S ayant un nombre fini d’éléments (on
écrit : card S < ∞) la première observation ci-dessus nous emmène à se poser la question
si parmi les différentes familles qui l’engendrent n’existent-il pas certaines ayant un même
nombre minimal d’éléments ? Autrement dit, malgré l’infinité de possibilités d’engendrer
un espace par des familles de ses vecteurs, n’existe-t-il pas une caractéristique qui soit
intrinsèque à l’espace et qui soit donc indépendante du choix de ces familles ?
La réponse à cette question conduit à la notion de dimension d’un espace vectoriel.
Pour comprendre les questions posées ci-dessus, exposons-les d’abord dans un contexte
très élémentaire : E = R2 (le plan géométrique).
Nous avons vu qu’en prenant un vecteur non-nul u ∈ R2 toute combinaison linéaire
de celui-ci est de la forme v = λu avec λ ∈ R. On dit que les vecteurs u et v sont
proportionnels (colinéaires) et ils engendrent alors, seuls ou à deux, un même sous-espace
vectoriel de R2 , la droite vectorielle Ru = Vect{u} = Vect{v} = Vect{u, v}.

35
Par rapport à la première question posée ci-dessus, nous sommes donc en mesure de
répondre : oui, il existe une famille avec un nombre minimal d’éléments, à savoir à un
seul élément, telle qu’elle engendre la droite vectorielle F = Ru. Mais cette famille n’est
pas unique : on peut choisir S = {u} ou bien toute autre famille Sλ = {λu} pour tout
λ ∈ R∗ et on aura F = Ru = Vect S = Vect Sλ .
Par rapport à la deuxième question posée ci-dessus, nous répondons aussi par l’affirmative :
peu importe le choix qu’on fait sur λ 6= 0, les familles Sλ = {λu} (à un seul élément) qui
engendrent la droite vectorielle F = Ru sont toutes de cardinal = 1. Donc l’assertion :
"un seul élément est suffisant pour engendrer la droite" est une caractéristique de la droite
et est indépendant du choix fait sur les familles qui l’engendrent. Ainsi, on dira que la
droite est de dimension = 1.
Enfin, en se penchant sur la définition v = λu de v en termes de u, remarquer qu’on peut
la voir comme : (−1) · v + λu = 0.
Ceci est une re-écriture du fait suivant :
Dans une combinaison linéaire du type αv + βu = 0 les vecteurs u et v sont proportionnels
si et seulement si au moins un parmi les réels α et β est non-nul.
En effet, si α 6= 0 on divise par celui-ci et on a : v = − αβ u et alors on pose λ = − αβ , et de
même sous l’hypothèse β 6= 0 (voir Proposition 7 pour plus de détails).
Le contraire de cette situation est celui de la non-proportionnalité des vecteurs u et v.
Dans cette situation on a : Vect{u, v} = Vect{u}+Vect{v}, et, comme vu dans les sections
précédentes, cette somme vaut R2 et elle est directe.
Or, ce cas de non-colinéarité (proportionnalité) de u et v s’énonce en disant que pour
tout couple de réels α et β pour lesquels on a αv + βu = 0, nécessairement on doit avoir
α = β = 0. Ceci nous conduit à la notion de famille libre de vecteurs.

4.1 Famille libre, famille liée


Définition 7. Une famille S = {v1 , v2 , . . . , vn } d’un K-espace vectoriel E est une famille
libre si toute combinaison linéaire nulle λ1 v1 + λ2 v2 + · · · + λn vn = 0 est telle que tous
ses coefficients sont nuls, c’est-à-dire λ1 = 0, λ2 = 0, . . . , λn = 0.

En écriture condensée cela donne :


S = {v1 , v2 , . . . , vn } est libre, ou on dit aussi que les vecteurs v1 , v2 , . . . , vn sont linéai-
rement indépendants ssi

∀(λ1 , λ2 , . . . , λn ) ∈ Kn , λ1 v1 + λ2 v2 + · · · + λn vn = 0E =⇒ λ1 = λ2 = · · · = λn = 0.

Dans le cas contraire, c’est-à-dire s’il existe une combinaison linéaire nulle à coefficients
non tous nuls, on dit que S est une famille liée ou que les vecteurs v1 , v2 , . . . , vn sont
linéairement dépendants. Dans ce cas, en écriture condensée cela donne :

∃(λ1 , λ2 , . . . , λn ) ∈ Kn , tel que : λ1 v1 + λ2 v2 + · · · + λn vn = 0E et (λ1 , λ2 , · · · , λn ) 6= 0Kn .

36
4.2 Exemples
Comme nous allons le voir dans les exemples suivants, souvent, décider si une famille
S = {v1 , . . . , vn } est libre ou liée revient à résoudre un système d’équations linéaires. Il
est très important de le faire par la méthode du pivot, car celle-ci permet un "diagnostique"
complet sur les solutions du système.

Exemple 24. Soient en E = R3 les vecteurs : v1 = (1, 1, 1), v2 = (2, −1, 0), v3 = (2, 1, 1).
Pour étudier si la famille {v1 , v2 , v3 } est libre ou liée, nous résolvons le système linéaire
correspondant à l’équation λ1 v1 + λ2 v2 + λ3 v3 = 0R3 :

+ 2λ2 + 2λ3 = 0 λ + 2λ2 + 2λ3 = 0


 

 λ
 1  1


λ1 − λ2 + λ3 = 0 ⇐⇒  3λ2 + λ3 = 0
+ λ3 = 0 λ3 = 0
 
λ1
 

On trouve ainsi comme solution unique λ1 = 0, λ2 = 0, λ3 = 0. La famille {v1 , v2 , v3 } est


donc une famille libre.

Exemple 25. Soient en E = R3 les vecteurs : v1 = (2, −1, 0, 3), v2 = (1, 2, 5, −1) et
v3 = (7, −1, 5, 8). Alors, par simple observation on voit que v3 = 3v1 + v2 .
Donc {v1 , v2 , v3 } est une famille liée, car ils existent des coefficients non tous nuls dans la
combinaison linéaire 3v1 + v2 − v3 = 0R4 .

Exemple 26. Dans le R-espace vectoriel R3 , considérons la famille de vecteurs :


v1 = (1, 2, 3), v2 = (4, 5, 6) et v3 = (2, 1, 0). On souhaite déterminer si elle est libre ou liée.
On cherche donc tous les scalaires réels λ1 , λ2 , λ3 tels que λ1 v1 + λ2 v2 + λ3 v3 = (0, 0, 0)
ce qui équivaut au système :

+ 4λ2 + 2λ3 = 0

λ
 1

− 2λ3 = 0

 λ
1
2λ1 + 5λ2 + λ3 = 0 ⇐⇒
  λ2 + λ3 = 0
3λ1 + 6λ2 = 0

Ce système, étant échelonné (par la méthode du pivot) et ayant 3 inconnues et seulement


2 équations, aura une infinité de solutions. En effet on doit prendre 3 − 2 = 1 inconnues
comme paramètre réel quelconque et résoudre le système par rapport aux 2 inconnues
(principales restantes). Par exemple, en prenant λ3 = t ∈ R on obtient λ1 = 2t et λ2 = −t,
ce qui fait que le système a comme ensemble de solutions {(2t, −t, t) | t ∈ R}. Il suffira
ainsi de donner à t la valeur 1 pour obtenir (λ1 , λ2 , λ3 ) = (2, −1, 1) donc la combinaison
linéaire 2v1 + (−1)v2 + v3 = 0R3 , qui montré que la famille donnée n’est pas libre.

Exemple 27. Les polynômes P1 (X) = 1 − X, P2 (X) = 5 + 3X − 2X 2 et P3 (X) =


1 + 3X − X 2 forment une famille liée dans l’espace vectoriel R[X], car

3P1 (X) − P2 (X) + 2P3 (X) = 0.

Bien entendu, ce n’est pas facile de le voir, ce genre de relation sort d’un calcul préalable.

37
Exemple 28. Dans le R-espace vectoriel F(R, R) des fonctions de R dans R, on consi-
dère la famille {cos, sin}. Montrons que c’est une famille libre. Supposons que l’on ait
λ cos +µ sin = 0. Cela équivaut à ∀x ∈ R, λ cos(x) + µ sin(x) = 0.
En particulier, pour x = 0, cette égalité donne λ = 0. Et pour x = π2 , elle donne µ = 0.
Donc la famille {cos, sin} est libre.

Exemple 29. Notons par 1 la fonction constante qui vaut 1 sur R. Alors la famille
{cos2 , sin2 , 1} est liée car on a la relation de dépendance linéaire cos2 + sin2 −1 = 0. Les
coefficients de dépendance linéaire sont λ1 = 1, λ2 = 1, λ3 = −1.

4.3 Propriétés des familles liées


D’après les définitions précédentes, si E est un K-espace vectoriel et on prend un vecteur
v 6= 0E , la famille {v} à un seul vecteur est libre. Mais si v = 0E , alors la famille à un
seul vecteur {0E } est liée. Cependant, n’oublions pas que OE = {0E } est le plus petit
sous-espace vectoriel de E.
Considérons d’abord dans E le cas particulier d’une famille de deux vecteurs.

Proposition 7. Soit E un K-espace vectoriel.


1. Pour tout v 6= 0E , la famille {0E , v} est liée.
2. La famille {v1 , v2 } de deux vecteurs non-nuls de E est liée si et seulement si v1 est
proportionnel à v2 ou v2 est proportionnel à v1 .

Remarquer que le deuxième assertion se reformule aussi par contraposition : La famille


{v1 , v2 } est libre si et seulement si v1 et v2 ne sont pas proportionnels (colinéaires).

Preuve : Pour (1), si on écrit λ · 0E + µ · v = 0E on voit que ceci est vrai même si λ 6= 0.
Pour (2) :
• Supposons la famille {v1 , v2 } liée, alors il existe λ1 , λ2 non tous les deux nuls tels
que λ1 v1 + λ2 v2 = 0. Si c’est λ1 qui n’est pas nul, on peut diviser par λ1 , ce qui
donne v1 = − λλ12 v2 et v1 est un multiple de v2 . Si c’est λ2 qui n’est pas nul, alors de
même v2 est un multiple de v1 .
• Réciproquement, si v1 est un multiple de v2 , alors il existe un scalaire µ tel que
v1 = µv2 , soit 1v1 + (−µ)v2 = 0, ce qui est une relation de dépendance linéaire entre
v1 et v2 puisque 1 6= 0 : la famille {v1 , v2 } est alors liée. Même conclusion si c’est v2
qui est un multiple de v1 .

La Proposition précédente se généralise à une famille d’un nombre quelconque de vecteurs


(voir la Proposition 9 ci-dessous). Mais avant cela il faudra comprendre comment se
comporte une famille liée/libre lorsqu’on lui ajoute, ou on lui enlève des vecteurs :

Proposition 8. Soit E un K-espace vectoriel.


1. Si on ajoute un vecteur à une famille liée on obtient une nouvelle famille liée.

38
2. Si on enlève un vecteur à une famille libre on obtient une nouvelle famille libre.
3. Les réciproques des premières deux assertions sont fausses en général.
Preuve : soit S = {v1 , v2 , . . . , vn } une famille de vecteurs de E.
1. Supposons que S est famille liée.
Donc ∃(λ1 , . . . , λn ) ∈ Kn \ {(0, . . . , 0)}, tel que : λ1 v1 + λ2 v2 + · · · + λn vn = 0E .
Soit u ∈ E et S 0 = S ∪{u} = {v1 , v2 , . . . , vn , u}. Alors puisque dans la combinaison
linéaire λ1 v1 + λ2 v2 + · · · + λn vn + 0 · u = 0E il y a au moins un λk 6= 0 il résulte
que S 0 est liée aussi.
2. Supposons que S est famille libre.
Donc ∀(λ1 , . . . , λn ) ∈ Kn , λ1 v1 + λ2 v2 + · · · + λn vn = 0E ⇒ λ1 = λ2 = · · · = λn = 0.
Soit k = 1, . . . , n fixé et soit S 0 = S \ {vk } = {v1 , . . . , vk−1 , vk+1 , . . . , vn }. Alors en
prenant, en particulier, dans la combinaison linéaire ci-dessus λk = 0, on obtient :
∀(λ1 , . . . , λk−1 , λk+1 , . . . , λn ) ∈ Kn−1 , λ1 v1 + . . . + λk−1 vk−1 + λk+1 vk+1 + . . . + λn vn = 0E
implique λ1 = λk−1 = . . . = λk+1 = . . . = λn = 0. D’où il résulte que S 0 est libre
aussi.
3. Pour montrer que les réciproques des premières deux assertions sont fausses nous
allons donner des contreexemples simples. Soit E = R :
• Soit u, v deux vecteurs non-nuls. Ils sont forcement colinéaires donc S 0 =
{u, v} est liée. Par contre, par exemple S = S 0 \ {u} = {v} est libre puisque
v 6= 0R .
• Inversement, S = {v} est libre puisqu’on suppose v 6= 0R , mais si on lui ajoute
un vecteur u, on obtient S 0 = {u, v} qui est liée.
Proposition 9. Soit E un K-espace vectoriel.
1. Si vi 6= 0E pour au moins un k = 1, . . . , n, la famille {0E , v1 , . . . , vn } est liée.
2. Une famille S = {v1 , v2 , . . . , vn } de vecteurs de E est une famille liée si et seulement
si au moins un des vecteurs de S est combinaison linéaire des autres vecteurs de
S.
Preuve : Le (1), c’est un corollaire de la proposition précédente.
Pour le (2) c’est essentiellement la même démonstration que celle du cas à 2 vecteurs.
• Supposons d’abord S liée. Il existe donc une relation de dépendance linéaire
λ1 v1 + λ2 v2 + · · · + λn vn = 0,

avec λk 6= 0 pour au moins un indice k. Passons tous les autres termes à droite du
signe égal. Il vient
λk vk = −λ1 v1 − λ2 v2 − · · · − λn vn ,
où vk ne figure pas au second membre. Comme λk 6= 0, on peut diviser cette égalité
par λk et l’on obtient
λ1 λ2 λn
vk = − v1 − v2 − · · · − vn ,
λk λk λk

39
c’est-à-dire que vk est combinaison

linéaire

des autres vecteurs de S , ce qui peut
encore s’écrire vk ∈ Vect S \ {vk } (avec la notation ensembliste A \ B pour
l’ensemble des éléments de A qui n’appartiennent pas à B).
 
• Réciproquement, supposons que pour un certain k, on ait vk ∈ Vect S \ {vk } .
Ceci signifie que l’on peut écrire

vk = µ1 v1 + µ2 v2 + . . . + µn vn ,

où vk ne figure pas au second membre. Passant vk au second membre, il vient

0 = µ1 v1 + µ2 v2 + . . . − vk + . . . + µn vn ,

ce qui est une relation de dépendance linéaire pour S (puisque −1 6= 0) et ainsi la


famille S est liée.

On peut résumer les situations de dépendance linéaire par une interprétation géométrique
dans le cas du plan et de l’espace :
• Dans R2 ou R3 , deux vecteurs sont linéairement 0
v1
dépendants si et seulement s’ils sont colinéaires. v2
Ils sont donc sur une même droite vectorielle.
e3
• Dans R3 , trois vecteurs sont linéairement dépen- v3
v2
dants si et seulement s’ils sont coplanaires (ils
sont donc dans un même plan vectoriel). v1
Remarquer que ceci n’exclut pas qu’ils soient e2
tous colinéaires sur une droite vectorielle du plan e1
en question.

Proposition 10. Soit S = {v1 , v2 , . . . , vp } une famille de vecteurs de Rn . Si S contient


plus de n éléments (c’est-à-dire p > n), alors S est une famille liée.

Preuve : Notons v1 = (v11 , v21 , . . . , vn1 ), v2 = (v12 , v22 , . . . , vn2 ), . . . , vp = (v1p , v2p , . . . , vnp ).
L’équation λ1 v1 + λ2 v2 + . . . + λp vp = 0Rn équivaut alors au système suivant :



 v11 λ1 + v12 λ2 + · · · + v1p λp = 0

v21 λ1 + v22 λ2 + · · · + v2p λp = 0



..



 .
vn1 λ1 + vn2 λ2 + · · · + vnp λp = 0


C’est un système homogène de n équations linéaires à p inconnues. Lorsque p > n, on


doit nécessairement choisir p − n inconnues comme paramètres. En fait, dans le cas où,
après lui avoir appliqué la méthode du pivot on resterait avec m 6 n équations dans le
système échelonné, alors on choisirait p − m > p − m paramètres. Toujours est-il, qu’on
aura au moins p − n > 1 paramètres donc une infinité de solutions, donc il n’y aura pas
que la solution triviale λ1 = λ2 = . . . = λn = 0. Ceci montre que la famille S est une
famille liée.

40
4.4 Retour sur les famille génératrices
Soit E un espace vectoriel sur un corps K. À la section 3.4 nous avons introduit la notion
de famille génératrices d’un (sous)-espace vectoriel. Rappelons cette définition et étudions
quelques-unes de ses propriétés.

Définition 8. Soient v1 , . . . , vn des vecteurs de E. La famille G = {v1 , . . . , vn } est une


famille génératrice de l’espace vectoriel E si tout vecteur de E est une combinaison
linéaire des vecteurs v1 , . . . , vn . Autrement dit :

∀v ∈ E, ∃(λ1 , . . . , λn ) ∈ Kn tel que : v = λ1 v1 + · · · + λn vn

On dit que la famille G = {v1 , . . . , vn } engendre l’espace vectoriel E.

Cette notion est bien sûr liée à la notion de sous-espace vectoriel engendré : les vecteurs
{v1 , . . . , vn } forment une famille génératrice de E si et seulement si E = Vect{v1 , v2 , . . . , vn }.

Exemple 30. Soit en E = R3 les vecteurs Considérons par exemple les vecteurs v1 =
(1, 0, 0), v2 = (0, 1, 0) et v3 = (0, 0, 1). La famille {v1 , v2 , v3 } est génératrice car tout
vecteur v = (x, y, z) de R3 peut s’écrire v = x(1, 0, 0)+y(0, 1, 0)+z(0, 0, 1). Les coefficients
sont donc ici λ1 = x, λ2 = y, λ3 = z.

Exemple 31. Méthode Soient les vecteurs v1 = (1, 1, 1), v2 = (1, 2, 3) de E = R3 . La


famille {v1 , v2 } n’est pas une famille génératrice de R3 . En effet, si c’était le cas, alors
pour tout v = (x, y, z) de R3 il existerait λ1 , λ2 ∈ R tels que v = λ1 v1 + λ2 v2 . Ceci s’écrit
aussi (x, y, z) = λ1 (1, 1, 1) + λ2 (1, 2, 3), ce qui équivaut au le système linéaire :

λ1 + λ2 = x λ + λ2 = x λ + λ2 = x
  
 1  1

 
 



λ1 + 2λ2 = y ⇐⇒  λ2 = y − x ⇐⇒  λ2 = y − x
λ1 + 3λ2 = z 2λ2 = z − x 0 = x − 2y + z

 
 

Donc ce système a des solutions si et seulement si x − 2y + z = 0. Il suffit donc de prendre


le vecteur (1, 0, 1) dont les coordonnées ne vérifient pas cette équation pour affirmer qu’il
n’est pas engendré par la famille {v1 , v2 }.

Exemple 32. Soit E = R2 .


• Soient v1 = (1, 0) et v2 = (0, 1). La famille G = {v1 , v2 } est génératrice de R2 car
tout vecteur (x, y) ∈ R2 se décompose comme (x, y) = x(1, 0) + y(0, 1).
• Soient maintenant v10 = (1, −1) et v20 = (1, 1). Alors G 0 = {v10 , v20 } est aussi une
famille génératrice. En effet, soit v = (x, y) un élément quelconque de R2 . Montrer
que v est combinaison linéaire de v10 et v20 revient à démontrer l’existence de deux
réels λ et µ tels que v = λv10 + µv20 . Il s’agit donc d’étudier l’existence de solutions
au système :
  
 λ+µ = x λ+µ = x  λ = (x − y)/2 
⇐⇒ ⇐⇒
 −λ + µ = y  2µ = x + y  µ = (x + y)/2
Donc le système a des solutions quels que soient les réels x et y.

41
Ceci prouve qu’il peut exister plusieurs familles finies différentes, non incluses les unes
dans les autres, engendrant le même espace vectoriel.
Exemple 33. Soit Rn [X] l’espace vectoriel des polynômes de degré 6 n, à savoir : P (X) =
a0 +a1 X +. . .+an X n , avec (a0 , a1 , . . . , an ) ∈ Rn+1 . Alors cette forme même des polynômes
de degré 6 n montre que la famille {1, X, . . . , X n } est une famille génératrice de Rn [X].
Définition 9 (Dimension finie). Soit E un K-espace vectoriel. Si dans E il existe une
famille de vecteurs G = {v1 , v2 , . . . , vn } de cardinal fini n < ∞ alors on dit que E est
espace vectoriel de dimension finie.
Remarquer qu’on ne définit pas (pour l’instant) la notion de dimension d’un espace vec-
toriel mais seulement celle de dimension finie pour un tel espace.
La Proposition suivante établit les liens entre familles génératrices :
Proposition
n o
11. Soit S = {v1 , v2 , . . . , vn } une famille génératrice de E. Alors S 0 =
v10 , v20 , . . . , vq0 est aussi une famille génératrice de E si et seulement si tout vecteur de
S est une combinaison linéaire de vecteurs de S 0 .
Preuve : C’est une conséquence immédiate de la définition de Vect S et de Vect S 0 .

Comme annoncé dans l’introduction de ce sous-chapitre, nous sommes à la recherche d’un


nombre minimal de générateurs d’un espace vectoriel. Le résultat suivant fixe un critère
sur la réduction d’une famille génératrice.
Proposition 12. Si la famille de vecteurs {v1 , . . . , vn } engendre E et si l’un des vecteurs,
par exemple vn , est combinaison linéaire des autres, alors la famille {v1 , . . . , vn } \ {vn } =
{v1 , . . . , vp−1 } est encore une famille génératrice de E.
Preuve : En effet, comme les vecteurs v1 , . . . , vn engendrent E, alors pour tout élément v
de E, il existe des scalaires λ1 , . . . , λn tels que v = λ1 v1 + · · · + λn vn .
Or l’hypothèse "vn est combinaison linéaire des vecteurs v1 , . . . , vn−1 " se traduit par l’exis-
tence de scalaires α1 , . . . , αp−1 tels que vn = α1 v1 + · · · + αn−1 vn−1 .
Alors, le vecteur v s’écrit : v = λ1 v1 + · · · + λn−1 vn−1 + λn (α1 v1 + · · · + αn−1 vn−1 ) .
Donc v = (λ1 + λn α1 ) v1 +· · ·+(λn−1 + λn αn−1 ) vn−1 , ce qui prouve que v est combinaison
linéaire des vecteurs v1 , . . . , vn−1 . Ceci achève la démonstration. Il est clair que si l’on
remplace vn par n’importe lequel des vecteurs vi , la démonstration est la même.

5 Base d’un espace vectoriel


La notion de base généralise la notion de repère.
Dans R2 , un repère est donné par un couple de vec- v = λ1 v1 + λ2 v2
teurs non colinéaires. Dans R3 , un repère est donné
λ 2 v2
par un triplet de vecteurs non coplanaires. Dans un
repère, un vecteur se décompose suivant les vecteurs v2
d’une base. Il en sera de même pour une base d’un λ 1 v1
v1
espace vectoriel.

42
5.1 Définition d’une base d’espace vectoriel
Définition 10. Soit E un K-espace vectoriel. Une famille {v1 , v2 , . . . , vn } de vecteurs de
E est une base de E si elle est une famille libre et génératrice de E.

Théorème 3. Si {v1 , v2 , . . . , vn } est une base de l’espace vectoriel E, tout vecteur v ∈ E


s’exprime de façon unique comme combinaison linéaire d’éléments de B.
Autrement dit, il existe et sont uniques des scalaires λ1 , . . . , λn de K tels que :

v = λ1 v1 + λ2 v2 + · · · + λn vn .

Les scalaires λ1 , . . . , λn s’appellent les coordonnées du vecteur v dans la base B.

Preuve du Théorème 3 :
• Par définition, B est une famille génératrice de E, donc pour tout v ∈ E il existe
λ1 , . . . , λn ∈ K tels que v = λ1 v1 + λ2 v2 + · · · + λn vn . Cela prouve la partie existence.
• Il reste à montrer l’unicité des λ1 , λ2 , . . . , λn . Soient µ1 , µ2 , . . . , µn ∈ K d’autres
scalaires tels que v = µ1 v1 + µ2 v2 + · · · + µn vn . Alors, par différence on a :
(λ1 − µ1 )v1 + (λ2 − µ2 )v2 + · · · + (λn − µn )vn = 0. Comme B = {v1 , . . . , vn } est une
famille libre, ceci implique λ1 − µ1 = 0, λ2 − µ2 = 0, . . . , λn − µn = 0 et donc
λ1 = µ1 , λ2 = µ2 , . . . , λn = µn .

Remarques :
• Comme nous allons le voir plus loin, un espace vectoriel admet une infinité de bases.
• Si la famille de vecteurs {v1 , . . . , vn } est une base de E
 φ : Kn → E
L’application 
(λ1 , λ2 , . . . , λn ) 7→ λ1 v1 + λ2 v2 + · · · + λn vn
est biunivoque, grâce à l’unicité de la décomposition de tout v ∈ E en combinaison
linéaire des vecteurs de la base {v1 , . . . , vn }. Ceci nous emmène à la nécessité de
spécifier un ordre des vecteurs dans la famille {v1 , . . . , vn }. Bien sûr, si dans cette
famille on permutait des vecteurs on obtiendrait toujours une base, mais alors il
faudrait aussi permuter les coordonnées dans le n-uplet (λ1 , λ2 , . . . , λn ) ce qui nous
désignerait, via l’application ci-dessus, un autre vecteur de E. Nous avons donc :
Convention d’écriture :
1. Si la famille {v1 , . . . , vn } est une base on la notera dorénavant comme (v1 ; v2 ; . . . ; vn )
pour accentuer qu’il ne s’agit pas d’un ensemble quelconque de vecteurs permutables,
mais qu’il y a un ordre d’énonciation des vecteurs de cet ensemble. Nous utilisons
ainsi les paranthèses rondes, qui sont réservées plutôt aux n-uplets (suite ordon-
née à n objets) mais les objets étant ici des vecteurs, nous les séparons par des " ;"
pour les distinguer des n-uplets de scalaires, où la séparation se fait par des virgules.

43
2. Dorénavant, lorsqu’une base B = (v1 ; v2 ; . . . ; vn ) a été don-  
λ
 1
née dans un espace vectoriel E tout vecteur v ∈ E sera écrit
 λ2 
 
comme vecteur-colonne de ses coordonnées dans cette base. v=
 .. 

 . 
Si il n’y a qu’une seule base dont on parle, on peut omettre  
λn
l’indice "B" du vecteur-colonne. B

Remarques :
1. Il convient d’attirer l’attention sur un paradoxe, qui est conséquence de la conven-
tion d’énonciation ordonnée des éléments d’une base :
Les vecteurs d’une base quelconque B = (v1 ; v2 ; . . . ; vn ) d’un espace vectoriel de di-
mension finie E s’écrivent d’une même façon par rapport à la base dont ils font partie.
À savoir, pour k = 1, . . . , n le vecteur-colonne vk a toutes les coordonnées nulles à
l’exception de la k-ième, qui vaut 1.
En efet, cela suit du fait qu’on peut voir la banale identité vk = vk comme
vk = 0 · v1 + . . . + 0 · vk−1 + 1 · vk + 0 · vk−1 + . . . + 0 · vn .

2. La remarque précédente montre qu’il n’y a pas de choix privilégié à faire entre une
base ou une autre si on désire avoir une écriture avec des coordonnées si simples,
c’est à dire qu’avec des 0 et un seul 1.
Cependant, le choix d’une base une fois fait et cette base fixée, les coordonnées des
autres vecteurs de E dans cette base n’auront pas cette écriture si simple.
Une telle base, choisie par pure convention et gardée comme référence par rapport
à d’autres bases de E, s’appelle base canonique de E.

Exemple 34.
1. Soit en R2 les vecteurs e1 = ( 10 ) et e2 = ( 01 ). Alors, par la convention de la dernière
remarque ci-dessus, B = (e1 ; e2 ) est la base canonique de R2 .
Soient les vecteurs v1 = ( 31 ) et v2 = ( −1 2 ) de R . Puisque −1 6= 2 , ces vecteurs ne
2 3 1

sont pas colinéaires, la famille {v1 , v2 } est libre. On peut montrer également qu’elle
engendre R2 . Donc c’est une base de cet espace, qu’on notera B 0 = (v1 ; v2 ).
On a donc deux bases de R2 , et si les coordonnées de v1 et v2 sont plus compliquées
que juste des 0 et 1, c’est parce que dès le début, d’une façon implicite, les vecteurs v1
et v2 ont été définis par rapport à la base canonique B = (e1 ; e2 ). Donc maintenant
qu’on a deux bases, pour être précis, on devrait écrire par exemple v1 comme ( 31 )B .
En effet, car d’après la remarque (4) ci-dessus, le même vecteur v1 , s’écrit dans sa
propre base B 0 comme : ( 10 )B0 .
2. On se donne la base canonique B = (e1 ; e2 ) en R2 et deux vecteurs dont les coor-
données exprimés dans cette base sont : v1 = ( 31 ) et v3 = ( 12 ). À nouveau, on peut
montrer qu’ils fournissent une base de R2 , qu’on notera B 00 = (v1 ; v3 ).

44
ye2 v = λ1 v1 + λ2 v2
La figure ci-contre montre la décomposition d’un vec-
teur quelconque u ∈ R2 par rapport à ces bases. On a λ 2 v2
donc deux écritures distinctes
 
pour un même vecteur v2
u, à savoir u = ( y )B = λλ12 00 .
x e2 λ1 v1
B v1
e1 xe1
1 0 0 e3
3. De même dans R3 , si e1 = 0 , e2 = 1 , e3 = 0 ,
0 0 1
alors (e1 ; e2 ; e3 ) forment la base canonique de R3 . e2
1 2 3 e1
Exemple 35. Soient v1 = 2 , v2 = 9 et v3 = 3 .
1 0 4
Afin de montrer que la famille S = {v1 , v2 , v3 } est une base de R3 , nous verrons ci-dessous
que la question se ramène à l’étude des systèmes linéaires. En effet :
• Pour montrer que S est une famille génératrice de E = R3 nous allons établir
l’existence des solutions d’un système ayant comme membre de droite des équations
des réels arbitraires.
• Pour montrer que S est une famille libre nous allons établir l’unicité des solutions
d’un système homogène.
x
1. Montrons d’abord que S est une famille génératrice de R3 . Soit v = yz un vecteur
quelconque de R3 . On cherche λ1 , λ2 , λ3 ∈ R tels que v = λ1 v1 + λ2 v2 + λ3 v3 . Ceci
se reformule comme suit :
1 2 3 λ1 + 2λ2 + 3λ3
         
x
y  = λ1 2 + λ2 9 + λ3 3 = 2λ + 9λ + 3λ  .
         
         1 2 3
z 1 0 4 λ1 + 4λ3
Ceci conduit au système suivant :

λ1 + 2λ2 + 3λ3 = x




2λ1 + 9λ2 + 3λ3 = y (S)

+ 4λ3 = z.

λ1

Il nous restera à montrer que ce système est compatible (i.e. il admet au moins une
solution (λ1 , λ2 , λ3 ) ∈ R3 ).
2. Pour montrer que S est une famille libre, il faut montrer que l’unique solution de
λ1 v1 + λ2 v2 + λ3 v3 = 0 est λ1 = λ2 = λ3 = 0.
Ceci équivaut à montrer que le système

λ1 + 2λ2 + 3λ3 = 0





2λ1 + 9λ2 + 3λ3 = 0 (S’)
+ 4λ3 = 0

λ1

a une unique solution car alors elle ne peut être que le solution triviale, le système
étant homogène.
     
1 0 0
 .. 
     
0 1 .
   
Exemple 36. Les vecteurs de Kn : e1 =   ..  , e2 =  ..  , . . . , en =   forment
    
. . 0
     
0 0 1
une base de K , qu’on prend comme base canonique de K .
n n

45
Exemple 37.
1. La base canonique de Rn [X] est B = (1; X; X 2 ; . . . ; X n ). Attention, il y a n + 1
vecteurs !
Une autre base de Rn [X] est : (1; 1 + X; 1 + X + X 2 ; . . . ; 1 + X + X 2 + · · · + X n ).
2. L’espace vectoriel M2 (R) des matrices 2 × 2 admet une base formée des vecteurs :
       
1 0 0 1 0 0 0 0
M1 =  M2 =  M3 =  M4 =  .
0 0 0 0 1 0 0 1
 
a b
En effet, n’importe quelle matrice M =  de M2 (R) se décompose de manière
c d
unique en
M = aM1 + bM2 + cM3 + dM4 .

Il est facile de prouver que les quatre matrices suivantes forment aussi une base de
M2 (R) :
       
1 0 1 0 0 1 1 3
M10 =  M20 =  M30 =  M40 =  .
1 0 0 1 1 0 4 2

En effet, cela nous ramène à un système d’équations linéaires qui s’avère avoir (après
l’avoir échelonné par pivot de Gauss) une solution unique.

5.2 Existence d’une base. Théorème de la base incomplète


Soit E un espace vectoriel de dimension finie (on dit aussi : finiment généré). Le résultat
suivant assure alors l’existence d’une base finie de E. Dans la suite, les espaces vectoriels
sont supposés non réduits à {0}.

Théorème 4 (Théorème d’existence d’une base). Tout espace vectoriel admettant une
famille finie génératrice admet une base.

Une version importante et plus générale de ce qui précède est le théorème suivant :

Théorème 5 (Théorème de la base incomplète). Soit E un K-espace vectoriel admettant


une famille génératrice finie.
1. Toute famille libre L peut être complétée en une base. C’est-à-dire qu’il existe une
famille S telle que L ∪ S soit une famille libre et génératrice de E.
2. De toute famille génératrice G on peut extraire une base de E. C’est-à-dire qu’il
existe une famille B ⊂ G telle que B soit une famille libre et génératrice de E.

Preuves des Théorèmes 4 et 5 : Les deux théorèmes précédents sont la conséquence d’un
résultat encore plus général :
Théorème 6. Soit G une famille génératrice finie de E et L une famille libre de E.
Alors il existe une famille S de G telle que L ∪ S soit une base de E.

46
Le Théorème 5 de la base incomplète se déduit du Théorème 6 ainsi :
1. On sait qu’il existe une famille génératrice de E : notons-la G . On applique le
théorème 6 avec ce L et ce G .
2. On applique le théorème 6 avec L = ∅ et la famille G de l’énoncé.
En particulier, le Théorème 4 d’existence d’une base se démontre comme le point (2)
ci-dessus avec L = ∅ et G une famille génératrice de E.

Nous avons montré que : Théorème 6 =⇒ Théorème 5 =⇒ Théorème 4.


Il nous reste donc à prouver le théorème 6. La démonstration que nous en donnons est un
algorithme.

Preuve du Théorème 6 :
• Étape 0. Si L est une famille génératrice de E, on pose S = ∅ et c’est fini puisque
L est une famille génératrice et libre, donc une base. Sinon on passe à l’étape
suivante.
• Étape 1. Comme L n’est pas une famille génératrice, alors il existe au moins un
élément g1 de G qui n’est pas combinaison linéaire des éléments de L . (En effet,
par l’absurde, si tous les éléments de G sont dans Vect L , alors L serait aussi
une famille génératrice.) On pose L1 = L ∪ {g1 }. Alors la famille L1 vérifie les
propriétés suivantes :
(i) L ( L1 ⊂ E : la famille L1 est strictement plus grande que L .
(ii) L1 est une famille libre. (En effet, si L1 n’était pas une famille libre, alors une
combinaison linéaire nulle impliquerait que g1 ∈ Vect L .)
On recommence le même raisonnement à partir de L1 : si L1 est une famille gé-
nératrice de E, alors on pose S = {g1 } et on s’arrête. Sinon on passe à l’étape
suivante.
• Étape 2. Il existe au moins un élément g2 de G qui n’est pas combinaison linéaire
des éléments de L1 . Alors la famille L2 = L1 ∪ {g2 } = L ∪ {g1 , g2 } est strictement
plus grande que L1 et est encore une famille libre.
Si L2 est une famille génératrice, on pose S = {g1 , g2 } et c’est fini. Sinon on passe
à l’étape d’après.
• ...
L’algorithme consiste donc à construire une suite, strictement croissante pour l’inclusion,
de familles libres, où, si Lk−1 n’engendre pas E, alors Lk est construite partir de Lk−1
en lui ajoutant un vecteur gk de G , de sorte que Lk = Lk−1 ∪ {gk } reste une famille libre.

• L’algorithme se termine en un nombre fini de pas. En effet, comme la famille G


est finie, le processus s’arrête en moins d’étapes qu’il y a d’éléments dans G . Notez
que, comme G est une famille génératrice, dans le pire des cas on peut être amené
à prendre S = G .

47
• L’algorithme est correct. Lorsque l’algorithme s’arrête, disons à l’étape s : on a
Ls = L ∪ S où S = {g1 , . . . , gs }. Par construction, Ls est une famille finie, libre
et aussi génératrice (car c’est la condition d’arrêt). Donc L ∪ S est une base de E.

Exemple 38. Soit R[X] le R-espace vectoriel des polynômes réels et E le sous-espace de
R[X] engendré par la famille G = {P1 , P2 , P3 , P4 , P5 } définie par :

P1 (X) = 1, P2 (X) = X, P3 (X) = X + 1, P4 (X) = 1 + X 3 , P5 (X) = X − X 3 .

Partons de L = ∅ et cherchons S ⊂ G telle que S soit une base de E.

• Étape 0. Comme L n’est pas génératrice (vu que L = ∅), on passe à l’étape
suivante.
• Étape 1. On pose L1 = L ∪ {P1 } = {P1 }. Comme P1 est non nul, L1 est une
famille libre.
• Étape 2. Considérons P2 . Comme les éléments P1 et P2 sont linéairement indépen-
dants, L2 = {P1 , P2 } est une famille libre.
• Étape 3. Considérons P3 : ce vecteur est combinaison linéaire des vecteurs P1 et
P2 car P3 (X) = X + 1 = P1 (X) + P2 (X) donc {P1 , P2 , P3 } est une famille liée.
Considérons alors P4 . Un calcul rapide prouve que les vecteurs P1 , P2 et P4 sont
linéairement indépendants. Alors L3 = {P1 , P2 , P4 } est une famille libre.
Il ne reste que le vecteur P5 à considérer. Il s’agit, pour pouvoir conclure, d’étu-
dier l’indépendance linéaire des vecteurs P1 , P2 , P4 , P5 . Or un calcul rapide montre
l’égalité
P1 + P2 − P4 − P5 = 0,

ce qui prouve que la famille {P1 , P2 , P4 , P5 } est liée. Donc avec les notations de
l’algorithme, s = 3 et L3 = {P1 , P2 , P4 } est une base de E.

6 Dimension d’un espace vectoriel


6.1 Définition
Nous pouvons reformuler la Définition 9 comme suit :

Définition 11. Un K-espace vectoriel E admettant une base ayant un nombre fini d’élé-
ments est dit espace de dimension finie.

On va pouvoir parler de la dimension d’un espace vectoriel grâce au théorème suivant :

Théorème 7 (Théorème de la dimension). Toutes les bases d’un espace vectoriel E de


dimension finie ont le même nombre d’éléments.

48
La preuve est une conséquence de la Proposition 13 et sera donnée dans la sous-chapitre
suivant.

Définition 12. La dimension d’un espace vectoriel de dimension finie E, notée dim E,
est par définition le nombre d’éléments d’une base B de E : dim E := Card B.

Méthodologie. Pour déterminer la dimension d’un espace vectoriel, il suffit de trouver


une base de E (une famille à la fois libre et génératrice) : le cardinal (nombre d’éléments)
de cette famille donne la dimension de E. Le théorème 7 de la dimension prouve que
même si on choisissait une base différente alors ces deux bases auraient le même nombre
d’éléments.
Convention. On convient d’attribuer à l’espace vectoriel {0} la dimension 0.

6.2 Exemples
Exemple 39.
1. La base canonique de R2 est (( 10 ) , ( 01 )). La dimension de R2 est donc 2.
2. Les vecteurs (( 21 ) , ( 11 )) forment aussi une base de R2 , et illustrent qu’une autre base
contient le même nombre d’éléments.
3. Plus généralement, Kn est de dimension n, car par exemple sa base canonique
(e1 ; e2 ; . . . ; en ) contient n éléments.
4. dim Rn [X] = n + 1 car une base de Rn [X] est (1; X; X 2 ; . . . ; X n ), qui contient n + 1
éléments.

Exemple 40. Les espaces vectoriels suivants ne sont pas de dimension finie :
• R[X] : l’espace vectoriel de tous les polynômes,
• S (R, R) : l’espace vectoriel des fonctions de R dans R,
• S = S (N, R) : l’espace vectoriel des suites réelles.

Exemple 41. Nous avons vu que l’ensemble des solutions d’un système d’équations li-
néaires homogène est un espace vectoriel. Soit (S) un tel système, ayant n équations et
p inconnues x1 , . . . , xp :



 a11 x1 + a12 x2 + · · · + a1p xp = 0

a21 x1 + a22 x2 + · · · + a2p xp = 0



..



 .
an1 x1 + an2 x2 + · · · + anp xp = 0


Puisque le système est homogène il ne risque pas d’être incompatible, car il admet au moins
la solution triviale x1 = . . . = xp = 0 donc même si n > p équations linéaires à p inconnues.
Lorsque p > n, après lui avoir appliqué la méthode du pivot on reste avec tout au plus
n équations. On peut donc considérer que n 6 p et dans ce cas, après l’avoir échelonné,

49
supposons qu’on obtient un système équivalent à (S), mais ayant m 6 n équations. Dans
ce cas, p − m inconnues seront choisies comme paramètres et on en déduit alors que
l’ensemble des solutions sera engendré par un nombre de p − m vecteurs. De surcroît,
comme ces vecteurs ont été déduits d’un système échelonné (qui assure l’unicité des m
solutions des inconnues principales, une fois les paramètres fixés) on déduit qu’ils forment
une famille libre. Donc une base de l’espace vectoriel des solutions aura nécessairement
p − m éléments.
On considère par exemple le système (où on a p = 5 et n = 4) :
−x1 − x2 + 2x3 − 3x4 + = 0



 x5
2x1 + 2x2 − x3 + = 0

x5


 x


 1 + x2 − 2x3 − x5 = 0
x 3 + x4 + = 0.


x5
On lui applique le pivot de Gauss en obtenant un système équivalent :
−x1 − x2 + 2x3 − 3x4 + x5 = 0





+ 3x3 − 6x4 + 3x5 = 0
− 3x4 = 0

à p = 5 et m = 3 équations. D’après ce qu’on avait dit auparavant, on choisit p − m =


5 − 3 = 2 paramètres : par exemple x5 = t et x2 = s. Alors, sachant que x4 = 0, le système
se réduit à : 
 −x + 2x = s − t
1 3
 x3 = −t
d’où la solution générale : x1 = −s − t, x2 = s, x3 = −t, x4 = 0, x5 = t, ∀(t, s) ∈ R2 .
Donc les vecteurs solutions s’écrivent sous la forme
   
x1 ! −s−t ! −s ! −t −1 ! −1
x2 s s 0 1 0
x3
x4
= −t = 0 +  −t  =s 0 + t −1 
 .
0 0 0 0 0
x5 t 0 t 0 1
 
−1 ! −1
1 0
Ceci montre que v1 = 0 et v2 =  −1  engendrent l’espace des solutions de (S).
0 0
0 1
D’autre part, noter qu’il est inutile de vérifier que v1 et v2 sont linéairement indépendants,
car ils ont été déduits à base d’un système échelonné par la méthode du pivot, ce qui dicte
le nombre maximal de paramètres à choisir et qui assure ainsi l’unicité des solutions pour
chaque couple (t, s) ∈ R2 fixé.
En conclusion, (v1 ; v2 ) est une base de l’espace des solutions du système. Ceci montre que
cet espace vectoriel est de dimension 2.

6.3 Connexion entre dimension et qualités d’une base


Lorsqu’un espace vectoriel est de dimension finie, le fait de connaître sa dimension est
une information très riche ; les propriétés suivantes montrent comment exploiter cette
information.
Le schéma de preuve sera : Lemme 1 =⇒ Proposition 13 =⇒ Théorème 7.

50
Lemme 1. Soit E un espace vectoriel. Soit L une famille libre et soit G une famille
génératrice finie de E. Alors Card L 6 Card G .

Ce lemme implique le résultat important :

Proposition 13. Soit E un K-espace vectoriel admettant une base ayant n éléments.
Alors :
1. Toute famille libre de E a au plus n éléments.
2. Toute famille génératrice de E a au moins n éléments.

En effet, soit B une base de E telle que Card B = n.


1. On applique le lemme 1 à la famille B considérée génératrice ; alors une famille libre
L vérifie Card L 6 Card B = n.
2. On applique le lemme 1 à la famille B considérée maintenant comme une famille
libre, alors une famille génératrice G vérifie n = Card B 6 Card G .

Cette proposition impliquera bien le Théorème 7 de la dimension :

Corollaire 3. Si E est un espace vectoriel admettant une base ayant n éléments, alors
toute base de E possède n éléments.

Preuve : La preuve du corollaire , et donc du théorème 7 de la dimension, est la suivante :


par la proposition 13, si B est une base quelconque de E, alors B est à la fois une famille
libre et génératrice, donc possède à la fois au plus n éléments et au moins n éléments,
donc exactement n éléments.

Il reste à énoncer un résultat important et très utile dans les applications :

Théorème 8. Soient E un K-espace vectoriel de dimension finie, et S = {v1 , . . . , vn }


une famille de n vecteurs de E. Il y a équivalence entre :
(i) S est une base de E,
(ii) S est une famille libre et dim E = n,
(iii) S est une famille génératrice de E et dim E = n.

La preuve sera une conséquence du Théorème 7 de la dimension et du Théorème 5 de la


base incomplète.
Autrement dit, lorsque le nombre de vecteurs considéré est exactement égal à la dimension
de l’espace vectoriel, l’une des deux conditions – être libre ou bien génératrice – suffit pour
que ces vecteurs déterminent une base de E.

Preuve :
• Les implications (i) =⇒ (ii) et (i) =⇒ (iii) découlent de la définition d’une base.

51
• Preuve de (ii) =⇒ (i).
Si S est une famille libre ayant n éléments, alors par le théorème de la base incom-
plète (théorème 5) il existe une famille S 0 telle que S ∪S 0 soit une base de E. D’une
part S
∪ S 0 est
une base de E qui est de dimension

n, donc le Théorème 7 entraîne
Card S ∪ S = n. Mais d’autre part Card S ∪ S 0 = Card S + Card S 0 (par
0

l’algorithme du théorème 5) et par hypothèse Card S = n. Donc Card S 0 = 0, ce


qui implique que S 0 = ∅ et donc que S est déjà une base de E.
• Preuve de (iii) =⇒ (i).
Par hypothèse, S est cette fois une famille génératrice. Toujours par le Théorème
5, on peut extraire de cette famille une base B ⊂ S . Puis par le Théorème 7,
Card B = n, donc n = Card B 6 Card S = n. Donc B = S et S est bien une
base.

Exemple 42. Pour quelles valeurs de t ∈ R les vecteurs (v1 , v2 , v3 ) suivants forment une
base de R3 ?
1 1 1
     

v1 = 1 v2 = 3 v3 = 1


     
    

4 t t
• Nous avons une famille de 3 vecteurs dans l’espace R3 de dimension 3. Donc pour
montrer que la famille {v1 , v2 , v3 } est une base, par le théorème 8, il suffit de montrer
que la famille est libre ou bien de montrer qu’elle est génératrice. Dans la pratique,
il est souvent plus facile de vérifier qu’une famille est libre.
• À quelle condition la famille {v1 , v2 , v3 } est libre ? Soient λ1 , λ2 , λ3 ∈ R tels que
λ1 v1 + λ2 v2 + λ3 v3 = 0. Cela implique le système

λ1 + λ2 + λ3 = 0





λ1 + 3λ2 + λ3 = 0 .
4λ1 + tλ2 + tλ3 = 0

Ce système est équivalent à :

λ1 + λ2 + λ3 = 0 λ1 + λ3 = 0
 

 

 

2λ2 = 0 ⇐⇒

λ2 = 0
(t − 4)λ2 + (t − 4)λ3 = 0 (t − 4)λ3 = 0

 

• Il est clair que si t 6= 4, alors la seule solution est (λ1 , λ2 , λ3 ) = (0, 0, 0) et donc
{v1 , v2 , v3 } est une famille libre. Si t = 4, alors par exemple (λ1 , λ2 , λ3 ) = (1, 0, −1)
est une solution non nulle, donc la famille n’est pas libre.
• Conclusion : si t 6= 4 la famille est libre, donc par le théorème 8 la famille {v1 , v2 , v3 }
est en plus génératrice, donc c’est une base de R3 . Si t = 4, la famille n’est pas libre
et n’est donc pas une base.

52
Preuve du lemme 1 : (la démonstration est hors-programme)
On démontre par récurrence que, pour tout n > 1, la propriété suivante est vraie :
« Dans un espace vectoriel engendré par n vecteurs, toute famille ayant n + 1 éléments
est liée. »
• Initialisation. On vérifie que la propriété est vraie pour n = 1. Soit E un espace
vectoriel engendré par un vecteur noté g1 , et soit {v1 , v2 } une famille de E ayant
deux éléments. Les vecteurs v1 et v2 peuvent s’écrire comme combinaisons linéaires
du vecteur g1 ; autrement dit, il existe des scalaires α1 , α2 tels que v1 = α1 g1 et
v2 = α2 g1 , ce qui donne la relation : α2 v1 − α1 v2 = 0E . En supposant v2 non nul
(sinon il est évident que {v1 , v2 } est liée), le scalaire α2 est donc non nul. On a
trouvé une combinaison linéaire nulle des vecteurs v1 , v2 , avec des coefficients non
tous nuls. Donc la famille {v1 , v2 } est liée.
• Hérédité. On démontre maintenant que si la propriété est vraie au rang n−1 (n > 2),
alors elle vraie au rang n. Soit E un espace vectoriel engendré par n vecteurs notés
g1 , g2 , . . . , gn , et soit {v1 , v2 , . . . , vn , vn+1 } une famille de E ayant n + 1 éléments.
Tout vecteur vj , pour j = 1, 2, . . . , n + 1, est combinaison linéaire de g1 , g2 , . . . , gn ,
donc il existe des scalaires α1j , α2j , . . . , αnj tels que :

vj = α1j g1 + α2j g2 + · · · + αnj gn .

Remarque. On est contraint d’utiliser ici deux indices i, j pour les scalaires (atten-
tion ! j n’est pas un exposant) car deux informations sont nécessaires : l’indice j
indique qu’il s’agit de la décomposition du vecteur vj , et i indique à quel vecteur de
la famille génératrice est associé ce coefficient.

En particulier, pour j = n + 1, le vecteur vn+1 s’écrit :

vn+1 = α1n+1 g1 + α2n+1 g2 + · · · + αnn+1 gn .

Si vn+1 est nul, c’est terminé, la famille est liée ; sinon, vn+1 est non nul, et au
moins un des coefficients αjn+1 est non nul. On suppose, pour alléger l’écriture, que
αnn+1 est non nul (sinon il suffit de changer l’ordre des vecteurs). On construit une
nouvelle famille de n vecteurs de E de telle sorte que ces vecteurs soient combinaisons
linéaires de g1 , g2 , . . . , gn−1 , c’est-à-dire appartiennent au sous-espace engendré par
{g1 , g2 , . . . , gn−1 }. Pour j = 1, 2, . . . , n, on définit wj par :
n
wj = αnn+1 vj − αnj vn+1 = (αnn+1 αkj − αnj αkn+1 )gk .
X

k=1

Le coefficient de gn est nul. Donc wj est bien combinaison linéaire de g1 , g2 , . . . , gn−1 .


On a n vecteurs qui appartiennent à un espace vectoriel engendré par n−1 vecteurs ;
on peut appliquer l’hypothèse de récurrence : la famille {w1 , w2 , . . . , wn } est liée. Par
conséquent, il existe des scalaires non tous nuls λ1 , λ2 , . . ., λn tels que

λ1 w1 + λ2 w2 + · · · + λn wn = 0.

53
En remplaçant les wj par leur expression en fonction des vecteurs vi , on obtient :

αnn+1 λ1 v1 + αnn+1 λ2 v2 + · · · + αnn+1 λn vn − (λ1 αn1 + · · · + λn αnn )vn+1 = 0E

Le coefficient αnn+1 a été supposé non nul et au moins un des scalaires λ1 , λ2 , . . . , λn


est non nul ; on a donc une combinaison linéaire nulle des vecteurs v1 , v2 , . . . , vn , vn+1
avec des coefficients qui ne sont pas tous nuls, ce qui prouve que ces vecteurs forment
une famille liée. La démonstration par récurrence est ainsi achevée.

6.4 Dimension d’un sous-espace vectoriel


Tout sous-espace vectoriel F d’un K-espace vectoriel E étant lui même un K-espace
vectoriel, la question est de savoir s’il est de dimension finie ou s’il ne l’est pas.
Prenons l’exemple de l’espace vectoriel E = S (R, R) des fonctions de R dans R :
• il contient le sous-espace vectoriel F1 = Rn [X] des (fonctions) polynômes de degré
6 n, qui est de dimension finie ;
• et aussi le sous-espace vectoriel F2 = R[X] de l’ensemble des (fonctions) polynômes,
qui lui est de dimension infinie.
Nous allons voir par contre que lorsque E est de dimension finie alors F l’est aussi.

Théorème 9. Soit E un K-espace vectoriel de dimension finie.


1. Alors tout sous-espace vectoriel F de E est de dimension finie ;
2. dim F 6 dim E ;
3. F = E ⇐⇒ dim F = dim E.

Le Théorème ci-dessus a une conséquence méthodique remarquable :

Corollaire 4. Soit E un K-espace vectoriel. Soient F et G deux sous-espaces vectoriels


de E. On suppose que F est de dimension finie et que G ⊂ F . Alors :

F = G ⇐⇒ dim F = dim G

Méthode : sachant qu’un sous-espace est inclus dans un autre, alors pour montrer qu’ils
sont égaux il suffit de montrer l’égalité des dimensions.

Preuve du Théorème 9 :
• Soit E un espace vectoriel de dimension n et soit F un sous-espace vectoriel de E.
Si F = {0} il n’y a rien à montrer. On suppose donc F 6= {0} et soit v un élément
non nul de F . La famille {v} est une famille libre de F , donc F contient des familles
libres. Toute famille libre d’éléments de F étant une famille libre d’éléments de E
(voir la définition des familles libres), alors comme E est de dimension n, toutes les
familles libres de F ont au plus n éléments.

54
• On considère l’ensemble K des entiers k tels qu’il existe une famille libre de F ayant
k éléments :
 
K = k ∈ N | ∃{v1 , v2 , . . . , vk } ⊂ F et {v1 , v2 , . . . , vk } est une famille libre de F

Cet ensemble K est non vide (car 1 ∈ K) ; K est un sous-ensemble borné de N


(puisque tout élément de K est compris entre 1 et n) donc K admet un maximum.
Notons p ce maximum et soit {v1 , v2 , . . . , vn } une famille libre de F ayant p éléments.
• Montrons que {v1 , v2 , . . . , vn } est aussi génératrice de F . Par l’absurde, s’il existe
w un élément de F qui n’est pas dans Vect{v1 , . . . , vn }, alors la famille {v1 , . . . , vn , w}
ne peut pas être libre (sinon p ne serait pas le maximum de K). La famille {v1 , . . . , vn , w}
est donc liée, mais alors la relation de dépendance linéaire implique que w ∈
Vect{v1 , . . . , vn }, ce qui est une contradiction.
Conclusion : {v1 , . . . , vn } est une famille libre et génératrice, donc est une base de
F.
• On a ainsi démontré simultanément que :
— F est de dimension finie (puisque (v1 ; v2 ; . . . ; vn ) est une base de F ).
— Ainsi dim F = p, donc dim F 6 dim E (puisque toute famille libre de F a au
plus n éléments).
— De plus, lorsque p = n, le p-uplet (v1 ; v2 ; . . . ; vn ), qui est une base de F , est aussi
une base de E, car {v1 , v2 , . . . , vn } est une famille libre de E ayant exactement
n éléments, donc est une base de E. Tout élément de E s’écrit comme une
combinaison linéaire de v1 , v2 , . . . , vn , d’où E = F .

Exemple 43. Si E est un K-espace vectoriel de dimension 2, les sous-espaces vectoriels


de E sont :
• soit de dimension 0 : c’est alors le sous-espace {0} ;
• soit de dimension 1 : ce sont les droites vectorielles, c’est-à-dire les sous-espaces
Ku = Vect{u} engendrés par les vecteurs non nuls u de E ;
• soit de dimension 2 : c’est alors l’espace E tout entier.

Vocabulaire. Plus généralement, dans un K-espace vectoriel E de dimension n (n > 2),

• tout sous-espace vectoriel de E de dimension 1 est appelé droite vectorielle de E


• tout sous-espace vectoriel de E de dimension 2 est appelé plan vectoriel de E
• Tout sous-espace vectoriel de E de dimension n − 1 est appelé hyperplan de E. Pour
n = 3, un hyperplan est un plan vectoriel ; pour n = 2, un hyperplan est une droite
vectorielle.

Exemple 44. Deux droites vectorielles F et G sont soit égales (on dit aussi : confondues),
soit d’intersection réduite au vecteur nul.

55
Exemple 45. Soient les sous-espaces vectoriels de R3 suivants :
nx o 1  2 
F = y
z
∈ R3 | 2x − 3y + z = 0 et G = Vect{u, v} où u = 1 et v = 1
−1
.
1

• On remarque que les vecteurs u et v ne sont pas colinéaires, donc {u, v} est famille
libre donc base de G, qui est ainsi de dimension 2.
Par ailleurs, les coordonnées de u et v vérifient l’équation qui définit F donc ils
appartiennent à F , donc, étant espace vectoriel, contient toutes les combinaisons
linéaires de ses vecteurs, et en particulier celles de u et v. Donc G = Vect{u, v} est
contenu dans F .
• Pour trouver la dimension de F , on pourrait déterminer une base de F et on montre-
rait alors que la dimension de F est 2. Mais il est plus judicieux
1
ici de remarquer que
F est contenu strictement dans R (par exemple le vecteur 0 de R3 n’est pas dans
3
0
F ), donc dim F < dim R3 = 3 ; mais puisque F contient G alors dim F > dim G = 2,
donc la dimension de F ne peut être que 2.
• On a donc démontré que G ⊆ F et que dim G = dim F , ce qui entraîne G = F .

6.5 Théorème de Grassmann


Théorème 10 (Théorème de Grassmann ou des quatre dimensions). Soit E un espace
vectoriel de dimension finie et F, G des sous-espaces vectoriels de E. Alors :

dim(F + G) + dim(F ∩ G) = dim F + dim G.

Corollaire 5. Si E = F ⊕ G, alors dim E = dim F + dim G.

Remarque : Notez l’analogie de la formule avec la formule pour les ensembles finis :

Card(A ∪ B) + Card(A ∩ B) = Card A + Card B.

Exemple 46. Dans un espace vectoriel E de dimension 6, on considère deux sous-espaces


F et G avec dim F = 3 et dim G = 4. Que peut-on dire de F ∩ G ? de F + G ? Peut-on
avoir F ⊕ G = E ?
• F ∩ G est un sous-espace vectoriel inclus dans F , donc dim(F ∩ G) 6 dim F = 3.
Donc les dimensions possibles pour F ∩ G sont pour l’instant 0, 1, 2, 3.
• F + G est un sous-espace vectoriel contenant G et inclus dans E, donc 4 = dim G 6
dim(F + G) 6 dim E = 6. Donc les dimensions possibles pour F + G sont 4, 5, 6.
• Le théorème 10 des quatre dimensions nous donne la relation : dim(F ∩ G) =
dim F + dim G − dim(F + G) = 3 + 4 − dim(F + G) = 7 − dim(F + G). Comme
F + G est de dimension 4, 5 ou 6, alors la dimension de F ∩ G est 3, 2 ou 1.
• Conclusion : les dimensions possibles pour F + G sont 4, 5 ou 6 ; les dimensions
correspondantes pour F ∩ G sont alors 3, 2 ou 1. Dans tous les cas, F ∩ G 6= {0} et
donc F + G ne peut être directe.

56
La méthode de la preuve du Théorème 10 implique aussi :

Corollaire 6. Tout sous-espace vectoriel F d’un espace vectoriel E de dimension finie


admet un supplémentaire.

Preuve du théorème 10 :
• Nous allons partir d’une base BF ∩G = {u1 , . . . , up } de F ∩ G. On commence par
compléter BF ∩G en une base BF = {u1 , . . . , up , vp+1 , . . . , vq } de F . On complète
ensuite BF ∩G en une base BG = {u1 , . . . , up , wp+1 , . . . , wr } de G.
• Nous allons maintenant montrer que la famille

{u1 , . . . , up , vp+1 , . . . , vq , wp+1 , . . . , wr }

est une base de F + G. Il est tout d’abord clair que c’est une famille génératrice de
F + G (car BF est une famille génératrice de F et BG est une famille génératrice
de G).
• Montrons que cette famille est libre. Soit une combinaison linéaire nulle :
p q r
αi ui + βj vj + γk wk = 0 (1)
X X X

i=1 j=p+1 k=p+1

On pose u = pi=1 αi ui , v = qj=p+1 βj vj , w = rk=p+1 γk wk . Alors d’une part


P P P

u + v ∈ F (car BF est une base de F ) mais comme l’équation (1) équivaut à


u + v + w = 0, alors u + v = −w ∈ G (car w ∈ G). Maintenant u + v ∈ F ∩ G et
aussi bien sûr u ∈ F ∩ G, donc v = qj=p+1 βj vj ∈ F ∩ G. Cela implique βj = 0 pour
P

tout j (car les {vj } complètent la base de F ∩ G).


La combinaison linéaire nulle (1) devient pi=1 αi ui + rk=p+1 γk wk = 0. Or BG est
P P

une base de G, donc αi = 0 et γk = 0 pour tout i, k.


Ainsi BF +G = {u1 , . . . , up , vp+1 , . . . , vq , wp+1 , . . . , wr } est une base de F + G.
• Il ne reste plus qu’à compter le nombre de vecteurs de chaque base : dim F ∩ G =
Card BF ∩G = p, dim F = Card BF = q, dim G = Card BG = r, dim(F + G) =
Card BF +G = q+r−p. Ce qui prouve bien dim(F +G) = dim F +dim G−dim(F ∩G).

57

Vous aimerez peut-être aussi