Vous êtes sur la page 1sur 83

MathF122: Algèbre Linéaire

Partie 1: Espaces vectoriels et applications linéaires

Cours pour les programmes de Bachelier en sciences


mathématiques et physiques

Samuel Fiorini - Joost Vercruysse


Année académique 2023–2024

Version du 21 décembre 2023


AVERTISSEMENT IMPORTANT
Ceci n’est que la partie 1 du syllabus et ne couvre que les 6 dernières
semaines de Q1
Table des matières

Table des matières i

1 Les espaces vectoriels sur un corps 1


1.1 Quelques structures algébriques . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Les groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Les anneaux et les corps . . . . . . . . . . . . . . . . . . . . . 4
1.2 Définition d’espace vectoriel et exemples . . . . . . . . . . . . . . . . 6
1.3 Sous-espaces . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Bases et dimension 13
2.1 Parties génératrices et parties libres . . . . . . . . . . . . . . . . . . . 13
2.2 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 La dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . 20

3 Applications linéaires 24
3.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Propriétés des applications linéaires . . . . . . . . . . . . . . . . . . . 27

4 La matrice d’une application linéaire 31


4.1 Associer une matrice à une application linéaire . . . . . . . . . . . . . 31
4.2 Correspondance entre les applications linéaires et les matrices . . . . . 34
4.3 Changement de base et transformation des coordonnées . . . . . . . . 36

5 La somme directe et le produit direct 40


5.1 Produit direct et somme directe . . . . . . . . . . . . . . . . . . . . . 40
5.2 Espaces infinidimensionnels . . . . . . . . . . . . . . . . . . . . . . . 44
5.3 Coordonnées, produits et coproduits revisités . . . . . . . . . . . . . . 46

6 Noyau et Image 48
6.1 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 48
6.2 Noyau et image . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

i
TABLE DES MATIÈRES ii

7 Géométrie affine 60
7.1 La géométrie affine d’un espace vectoriel . . . . . . . . . . . . . . . . 60
7.2 Transformations affines . . . . . . . . . . . . . . . . . . . . . . . . . 62
7.3 Systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . 63

8 Dualité 66
8.1 L’espace dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
8.2 Le dual d’une application linéaire . . . . . . . . . . . . . . . . . . . . 69
8.3 L’espace bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

L’alphabet Grec 75

Liste des notations 76


Préface

Ceci sont les notes de cours pour la première partie du cours MathF122: Algèbre li-
néaire et géométrie, comme il est donné dans la première année du Bachelier en Sciences
Mathématiques et Physiques à l’Université libre de Bruxelles pendant l’année acadé-
mique 2023-2024. Ces notes sont librement et partiellement basées sur les anciennes
notes de cours rédigées par Michele D’Adderio, Samuel Fiorini, Francis Buekenhout et
Jean Doyen.
Il reste sans doute encore beaucoup d’erreurs et fautes dans ces notes. Pour toute
correction ou question, le lecteur est invité à contacter les auteurs via l’adresse email
joost.vercruysse@ulb.be pour la partie du premier quadrimestre et l’adresse email
samuel.fiorini@ulb.be pour la partie du deuxième quadrimestre.
Les codes QR qui apparaissent parfois en marge du texte, donnent un accès direct
aux capsules vidéo, qui expliquent cette partie du théorie. Ils concernent des vidéos
réalisées pendant la crise sanitaire, souvent sous une forte pression temporelle, donc
la qualité n’est pas toujours top, mais nous espérons qu’elles pourront quand-même
servir comme support supplémentaire pour étudier le cours.

Les cadres gris, comme celui-ci, contiennent de l’information supplémentaire, sur


l’histoire des Maths, des liens avec d’autres cours du curriculum ou des applications
de la théorie, qui ne sont pas à connaître pour l’examen.

Dans cette première partie, nous développons la théorie des espaces vectoriels et des
applications linéaires entre eux, c’est-à-dire l’algèbre linéaire. Ceci mène à une théorie
qui est plus abstraite, mais aussi beaucoup plus générale et applicable comparée avec ce
qui est fait dans le cours de MATHF121. En effet, les techniques de calculs traitées dans
le cours de MATHF121 seront très utiles dans cette première partie et nous donnerons
beaucoup d’exemples des notions abstraites introduites ici et nous donnerons aussi des
outils pour les manipuler. L’algèbre linéaire est une des théories les plus centrales dans
les mathématiques. Les espaces vectoriels et les applications linéaires apparaissent en
un certain sens dans toute théorie mathématique, et aussi dans les théories physiques,
informatiques, économiques, ... .

iii
Chapitre 1

Les espaces vectoriels sur un corps

1.1 Quelques structures algébriques


1.1.1 Les groupes
Considérons un triangle équilatéral T dans le plan euclidienne, avec des arrêts
a, b, c. Nous considérons les symétries de cette triangle. Par symétrie nous attendons
une transformation du plan euclidienne, qui respecte les distances et tel que l’image du
triangle T est identique à T . Nous trouvons alors exactement 6 de ces symétries:
(σ1 ) une réflexion (symétrie axiale) par rapport à l’axe A1 ;
(σ2 ) une réflexion (symétrie axiale) par rapport à l’axe A2 ;
(σ3 ) une réflexion (symétrie axiale) par rapport à l’axe A3 ;
(σ4 ) une rotation de 2π
3
radiales (dans le sens inverse des aiguilles d’une montre) par
rapport au centre c (= le point d’intersection des axes A1 , A2 , A3 );

(σ5 ) une rotation de 3
radiales par rapport au centre c;
(σ6 ) l’identité.

σ4 4 σ1 j σ5
.a

σ3 σ2

. .
b c
A2 A3
A1

1
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 2

Remarquons que si nous exécutons une symétrie après l’autre, le résultat est de
nouveau une symétrie. Autrement dit, nous pouvons "composer" les symétries. Plus
exactement, nous avons le tableau suivante pour ces compositions
◦ σ1 σ2 σ3 σ4 σ5 σ6
σ1 σ6 σ5 σ4 σ3 σ2 σ1
σ2 σ4 σ6 σ5 σ1 σ3 σ2
σ3 σ5 σ4 σ6 σ2 σ1 σ3
σ4 σ2 σ3 σ1 σ5 σ6 σ4
σ5 σ3 σ1 σ2 σ6 σ4 σ5
σ6 σ1 σ2 σ3 σ4 σ5 σ6
Nous appelons ce tableau un tableau de Cayley. Nous pouvons constater que la com-
position est associative, que σ6 est un élément neutre pour la composition et que tout
symétrie est inversible (pour toute symétrie donnée, il existe une (autre) symétrie tel
que la composition des deux est la symétrie idenique). En effet, tout ensemble de sy-
métries d’un objet quelconque satisfait ces trois propriétés pour la composition des
symétries. Ceci nous mène à la définition suivante.
Définitions 1.1. Un groupe est un ensemble G, muni d’une loi de composition 1
binaire, c’est-à-dire une application

∗ : G × G → G, (x, y) 7→ x ∗ y

telle que les 3 axiomes suivantes sont satisfaits:


[G1] la loi est associative, c’est-à-dire pour tous éléments x, y, z ∈ G on a

x ∗ (y ∗ z) = (x ∗ y) ∗ z;

[G2] il existe un élément neutre, c’est-à-dire il existe un élément e ∈ G tel que pour
tous les éléments x ∈ G on a :

x ∗ e = x = e ∗ x;

[G3] tout élément de G est inversible, c’est-à-dire pour tout x ∈ G, il existe x−1 ∈ G
tel que
x ∗ x−1 = e = x−1 ∗ x.
Un groupe G est appelé un groupe commutatif ou abélien si et seulement si en
outre l’axiome suivante est satisfait:
[G4] pour tous éléments x, y ∈ G on a

x ∗ y = y ∗ x.
1. aussi appelée loi interne ou simplement loi ou composition
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 3

Remarque 1.2 (Notation). On note un groupe par l’ensemble accompagnée de sa loi


de composition et éventuellement de son élément neutre, i.e. par (G, ∗) ou (G, ∗, e).
S’il n’y a pas de risque de confusion, on omet d’écrire la composition ∗ et donc on
note simplement G. De la même manière, dans ce cas, on note x ∗ y simplement par
xy (notation multiplicative). Parfois, et surtout si le groupe est commutatif, on peut
aussi utiliser une notation “additive”, surtout si la structure est commutative. On peut
alors écrire x ∗ y = x + y = y + x.
On peut montrer (exercice !) que l’élément neutre dans un groupe est unique et
que l’inverse d’un élément dans un groupe est unique aussi.
Exemples 1.3. (1) (Z, +), (Q, +), (R, +), (C, +), (Q0 , ·), (R0 , ·), (C0 , ·) sont tous
des groupes abéliens.
(2) Les nombres naturels positifs avec l’addition ne forment pas un groupe, comme il
n’existe pas un inverse pour tout n > 0. 2
(3) Les nombres entiers modulo m ∈ Z avec la multiplication forment un groupe
(Zm , ·) si et seulement si m est un nombre premier.
(4) Soit X un ensemble (non-vide), alors Sym(X) (l’ensemble de tous les applications
bijectifs de X dans X) est un groupe pour la composition naturelle des applications.
Si X = {1, . . . , n} est l’ensemble de n éléments, on note par Sym(X) = Sn le
groupe des permutations de n éléments. Nous avons rencontré ces groupes dans
le chapitre sur les déterminants du cours MathS121.
(5) Considérons l’ensemble des applications f ∈ App(R, R) continues et telles que

lim x→±∞ f (x) = 0 = f (0).

Cet ensemble muni de la composition naturelle des applications n’est pas un groupe,
comme il n’y a pas d’élément neutre. 3
(6) Étant donné un ensemble X, considérons l’ensemble P(X) de tous les sous-
ensembles de X. Muni de la loi suivante, P(X) est un groupe commutatif:

A∆B = (A ∪ B) \ (A ∩ B) = (A \ B) ∪ (B \ A),

où A, B ∈ P(X). L’élément neutre est ∅ et composer avec n’importe quel élément


est toujours une involution (c’est-à-dire A∆(A∆B) = B pour tous A, B ∈ P(X)).
(7) Considérons l’ensemble Rn×n des matrices carrées de taille n × n, avec n > 1.
Alors Rn×n est un groupe pour l’addition des matrices, mais pas un groupe pour
la multiplication des matrices. Nous notons par GLn (R) l’ensemble de tous les
matrices réelles de taille n × n qui ont un déterminant non-nul, et qui sont donc
2. L’addition dans N est quand-même commutative, associative et il existe un neutre. On dit alors
que (N, +) est un monoïde abélien.
3. Cette loi est quand-même associative. On dit que cet ensemble est un semi-groupe.
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 4

inversibles (par rapport à la multiplication matricielle). Alors GLn (R) est un groupe
pour la multiplication matricielle. On appele ce groupe le groupe général linéaire
de degré n sur R. Le sous-ensemble de tous les matrices de déterminant 1 est
aussi un groupe pour la multiplication matricielle, qu’on dénote comme SLn (R) et
qu’on appelle le groupe spécial linéaire. L’ensemble de toutes les matrices A de
taille n × n qui sont inversibles et qui satisfont A−1 = At est appelé le groupe
orthogonal et est noté comme On (R). Finalement l’intersection de On (R) et de
SLn (R) est notée comme SOn (R) et forme le groupe spécial orthogonal. Tous
ces groupes sont non-commutatifs.
(8) Soient X un ensemble et (G, ∗) un groupe. Alors App(X, G) est un groupe muni
de la loi de convolution suivante

(f ∗ g)(x) = f (x) ∗ g(x), ∀f, g ∈ App(X, G), ∀x ∈ X.

Soit e ∈ G le neutre, alors l’élément neutre de App(X, G) est donné par l’applica-
tion fe : X → G, fe (x) = e pour tout x ∈ X. Pour tout f ∈ App(X, E), l’inverse
dans App(X, G) est donné par l’application f −1 : X → G, f −1 (x) = f (x)−1 pour
tout x ∈ X. Si G est commutatif alors App(X, G) est aussi commutatif.

1.1.2 Les anneaux et les corps


Définition 1.4. Un corps (commutatif) ou un champ K est un ensemble, dont les
éléments sont appelés nombres ou bien scalaires, muni de deux opérations internes:
une addition + : K × K → K, (a, b) 7→ a + b et une multiplication · : K × K →
K, (a, b) 7→ a · b = ab, et en possession de deux élément distingués 0 ∈ K, appelé
l’élément zéro, et 1 ∈ K, appelé l’unité, qui satisfont les proprétés suivantes:
(C1) ∀a, b, c ∈ K, (a + b) + c = a + (b + c);
(l’addition est associative)
(C2) ∀a ∈ K, a + 0 = a = 0 + a ;
(0 est neutre pour l’addition)
(C3) ∀a ∈ K, ∃ − a ∈ K tq a + (−a) = 0 = (−a) + a;
(existence d’inverses pour l’addition)
(C4) ∀a, b ∈ K, a + b = b + a;
(l’addition est commutative)
(C5) ∀a, b, c ∈ K, a(bc) = (ab)c;
(la multiplication est associative)
(C6) ∀a ∈ K, 1a = a = a1;
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 5

(1 est neutre pour la multiplication)


(C7) ∀a, b, c ∈ K, a(b + c) = ab + ac et (a + b)c = ac + bc;
(la multiplication est distributive par rapport à l’addition)
(C8) ∀a, b ∈ K, ab = ba;
(la multiplication est commutative)
(C9) ∀a ∈ K0 = K \ {0}, ∃a−1 ∈ K tq aa−1 = 1 = a−1 a.
(existence d’inverses pour la multiplication)
Si K satisfait tous les conditions sauf la condition (C8), nous disons que K est un
corps (non-commutatif). Si K satisfait les conditions (C1) jusqu’à (C7), nous disons
que K est un anneau. Un anneau qui satisfait aussi la condition (C8) est appelé un
anneau commutatif.
Remarquons que pour tout corps K, on a deux groupes (K, +) et (K0 , ·).
Exemples 1.5 (exemples et contre-exemples). 1. Les exemples classiques sont le
corps des nombres rationnel Q, le corps des nombres réels R et le corps des
nombres complexes C.
2. L’ensemble Fp des nombres entiers modulo p avec p un nombre premier est un
corps commutatif à p éléments.
3. Les nombres naturels N ne forment pas un corps: les conditions (C3) et (C9)
ne sont pas satisfaites pour N. En d’autres mots, il n’y a pas d’inverses pour
l’addition, ni pour la multiplication.
4. L’ensemble des nombres entiers Z est un anneau commutatif, mais pas un corps
: il n’y a pas d’inverses pour la multiplication, i.e. la condition (C9) n’est pas
satisfaite.
5. D’autres exemples d’anneaux commutatifs sont les anneaux des polynômes R[X],
C[X], Z[X], . . .et les anneaux Zn avec n ∈ N \ {0, 1} (et si n est premier,
Zn = Fn est un corps comme remarqué ci-dessus).
6. L’ensemble des matrices carrées Rn×n est un anneau (non-commutatif), Ce n’est
pas un corps commutatif, comme la multiplication n’est pas commutative. Ce
n’est pas un corps non-commutatif comme il n’y a pas d’inverses pour la multi-
plication.
7. L’ensemble des matrices carrées Rn×n inversibles, complété avec la matrice zéro,
n’est pas un corps, comme l’addition n’est pas une opération interne pour cet
ensemble:      
1 0 1 0 2 0
+ =
0 1 0 −1 0 0
Les deux premières matrices sont inversibles, bien que la dernière ne l’est pas.
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 6

√ √
8. Considérons l’ensemble Q[ 2] = {a + b 2 | a, b ∈ Q} ⊂ R. Alors l’addition
et la multiplication de R induisent une structure de corps commutatif sur cet
ensemble.
9. Considérons l’ensemble R × R, des couples de nombres reéls avec l’addition et
multiplication suivantes:

(a, b) + (c, d) = (a + c, b + d), (a, b) · (c, d) = (ac, bd).

Alors tous les axiomes d’un corps commutatif sont satisfaits, sauf l’existence
des inverses pour la multiplication (C9): par exemple (1, 0) n’a pas d’inverse
multiplicatif. Ceci est donc un anneau commutatif.
10. Considérons le sous-ensemble H de l’ensemble des matrices C2×2 , de tous les
matrices de la forme suivante:
 
z w
−w z

avec z, w ∈ C. Alors nous pouvons vérifier que H satisfait tous les axiomes d’un
corps commutatif sauf la commutativité de la multiplication, donc H est un corps
non-commutatif.
Dans la suite, nous allons toujours travailler sur un corps commutatif K (bien que
tous la théorie que nous développons reste - mutatis mutandis - valable sur un corps
non-commutatif). Comme nous n’allons pas considérer de corps non-commutatifs,
“corps” sera utilisé comme un synonyme de “corps commutatif” dans ce syllabus.

1.2 Définition d’espace vectoriel et exemples


Définition 1.6. Un espace vectoriel (V, +, ·) sur un corps K est un ensemble V ,
dont les éléments sont appelés vecteurs, muni d’une loi interne + : V × V → V ,
qu’on appelle l’addition ou la somme vectorielle et une opération · : K × V → V ,
qu’on appele la multiplication scalaire (qui à un scalaire λ ∈ K et un vecteur
⃗v ∈ V associe un vecteur λ · ⃗v = λ⃗v ∈ V ) et en possession d’un élément distingué
⃗0 ∈ V , appelé le vecteur zéro ou vecteur nul, qui satisfont les conditions suivantes,
(EV1) ∀⃗v , w,
⃗ ⃗u ∈ V, ⃗v + (w
⃗ + ⃗u) = (⃗v + w)
⃗ + ⃗u;
(associativité de l’addition)
(EV2) ∀⃗v ∈ V, ⃗v + ⃗0 = ⃗v = ⃗0 + ⃗v ;
(⃗0 est le neutre pour l’addition)
(EV3) ∀⃗v ∈ V, ∃ − ⃗v ∈ V tel que ⃗v + (−⃗v ) = ⃗0 = (−⃗v ) + ⃗v ;
(existence d’inverses pour l’addition)
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 7

(EV4) ∀⃗v , w
⃗ ∈ V, ⃗v + w
⃗ =w
⃗ + ⃗v ;
(commutativité de l’addition)
(EV5) ∀λ, µ ∈ K, ∀⃗v ∈ V, λ(µ⃗v ) = (λµ)⃗v ;
(associativité mixte pour la multiplication scalaire)
(EV6) ∀λ, µ ∈ K, ∀⃗v ∈ V, (λ + µ)⃗v = λ⃗v + µ⃗v ;
(distributivité de la multiplication scalaire par rapport à l’addition scalaire)
(EV7) ∀λ ∈ K, ∀⃗v , w
⃗ ∈ V, λ(⃗v + w)
⃗ = λ⃗v + λw;

(distributivité de la multiplication scalaire par rapport à l’addition vectorielle)
(EV8) ∀⃗v ∈ V, 1⃗v = ⃗v ;
(1 ∈ K est l’élément neutre pour la multiplication scalaire).
Si K est le corps des réels R (respectivement des complexes C), nous parlons d’espace
vectoriel réel (respectivement complexe)

Remarque 1.7. Nous notons un élément dans un espace vectoriel comme ⃗v , donc
avec une petite flèche au dessus. En effet, les mathématiciens préfèrent plutôt de ne
pas écrire ces flèches, et donc écrivent souvent simplement v pour un élément de V .
Les physiciens prérèrent écrire ⃗v , ou parfois v ou v. Dans ce syllabus, nous utilisons la
notation ⃗v , afin de souligner la différence entre les vecteurs (les éléments de V ) et les
scalaires (les éléments du corps de base K).

Exemples 1.8 (Espaces vectoriels).


1. L’ensemble {⃗0} est un espace vectoriel sur n’importe quel corps K. L’addition et
la multiplication sont définies de manière unique par les formules
⃗0 + ⃗0 = ⃗0, λ⃗0 = ⃗0

pour tout λ ∈ K. Nous appelons cet espace vectoriel l’espace trivial, l’espace
zéro ou l’espace nul. Nous notons cet espace vectoriel simplement 0.
2. Chaque corps K est un espace vectoriel sur lui-même avec pour loi interne l’addi-
tion du corps, et pour la multiplication scalaire la multiplication du corps. Ainsi,
R est un espace vectoriel réel et C est un espace vectoriel complexe.
3. L’ensemble des vecteurs du plan réel, muni de l’addition des vecteurs et de la
multiplication scalaire pour les vecteurs, est un espace vectoriel réel. Si nous
fixons un point o dans le plan, et nous identifions tout point p avec le vecteur


op, nous obtenons de la même manière une structure d’espace vectoriel sur l’en-
semble des points du plan, où o est le vecteur nul. Similairement, l’ensemble
des vecteurs dans l’espace tridimensionnel et l’ensemble des points dans l’espace
tridimensionnel sont naturellement munis d’une structure d’espace vectoriel.
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 8

4. Soit n ∈ N un nombre naturel. Considérons l’ensemble des n-tuples de réels


Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, i = 1, . . . , n}.
Alors Rn est un espace vectoriel réel avec l’addition et la multiplication scalaire
données par les formules suivantes
(x1 , . . . , xn ) + (y1 , . . . , yn ) = (x1 + y1 , . . . , xn + yn )
α(x1 , . . . , xn ) = (αx1 , . . . , αxn )
pour tous (x1 , . . . , xn ), (y1 , . . . , yn ) ∈ Rn et α ∈ R. Remarquons que le vecteur
zéro est donné par (0, . . . , 0). Rappelons que nous pouvons identifier R2 et R3
respectivement avec l’ensemble des points du plan et l’espace tridimensionnel
réel. En effet, nous verrons plus tard que ces correspondances sont des exemples
d’isomorphismes d’espaces vectoriels.
5. De même que dans l’exemple précédent, les n-tuples de nombres complexes, Cn
est un espace vectoriel complexe, et l’ensemble Fnp des n-tuples d’éléments dans
un corps à p éléments est un espace vectoriel sur Fp . En général, pour tout corps
K, l’ensemble Kn des n-tuples d’éléments dans K est un espace vectoriel sur K.
6. Les nombres complexes C forment un espace vectoriel sur R, avec l’addition et
la multiplication comme suit
(a + bi) + (c + di) = (a + c) + (b + d)i
α(a + bi) = (αa) + (αb)i
pour tous a + bi, c + di ∈ C et tout α ∈ R. Similairement, Cn est un espace
vectoriel sur R.
7. Soit V un espace vectoriel (sur K) et A un ensemble. Dénotons par V A l’ensemble
de toutes les applications de A dans V , alors V A est à nouveau un espace vectoriel
sur K avec l’addition et la multiplication scalaire donnés par:
(f + g)(a) = f (a) + g(a)
(αf )(a) = α · f (a)
pour tous a ∈ A, α ∈ K et f, g ∈ V A . En particulier, on obtient que RN , l’en-
n
semble des suites, RR (fonctions réelles numériques), RR (fonctions de plusieurs
m
variables) et (Rn )(R ) (fonctions à valeurs vectorielles) sont des espaces vecto-
riels réels. Dans la suite et surtout dans le cours MathF101, certains sous-espaces
de ces espaces seront étudiés, comme les applications linéaires d’un espace dans
un autre, ou les applications continues et différentiables (de plusieurs variables).
8. Considérons l’ensemble des polynômes en la variable X,
n
X
R[X] = { ai X i = a0 +a1 X+a2 X 2 +. . .+an X n | n ∈ N, ai ∈ R, i = 0, . . . , n}.
i=0
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 9

Alors, R[X] est un espace vectoriel réel avec l’addition et laP


multiplication scalaire
données par les formules suivantes pour tous i=0 ai X , m
Pn i j
j=0 bj X ∈ R[X] et
α ∈ R,
n m p
X X X
i j
ai X + bj X = (ak + bk )X k
i=0 j=0 k=0
n
X Xn
α( ai X i ) = (αai )X i
i=0 i=0

où on a utilisé p = max(n, m) et on pose ai = bj = 0 si i > n ou j > m.


Similairement, l’ensemble de tous les polynômes de degré n ou inférieur (on
appelle ces polynômes des polynômes d’ordre n) est aussi un espace vectoriel
réel (n est fixé).
n
X
Rn [X] = { ai X i = a0 + a1 X + a2 X 2 + . . . + an X n | ai ∈ R, i = 0, . . . , n}.
i=0

De la même façon, C[X] et Cn [X] sont des espaces vectoriels complexes.


9. L’ensemble de toutes les matrices de n lignes et m colonnes sur un corps K, noté
Mn,m (K) ou Kn×m , est un espace vectoriel sur K avec les opérations naturelles.
10. L’ensemble de tous les solutions (x1 , . . . , xn ) ∈ Kn d’une système d’équations
linéaire homogène à n variables est un espace vectoriel, avec la même addition
et la même multiplication scalaire que Kn .
11. L’espace des phases, considéré souvent en physique pour décrire des systèmes
dynamiques. C’est un espace vectoriel réel avec comme éléments des couples
(⃗r, p⃗), où ⃗r ∈ R3 décrit la position de l’objet qu’on étudie, et p⃗ ∈ R3 décrit la
quantité de mouvement du même objet. Classiquement, p⃗ est le produit de la
masse et de la vitesse de l’objet.

Remarque 1.9. Les axiomes (EV1)-(EV8) ne sont pas tous indépendants. Par exemple,
l’existence d’un inverse à droite pour l’addition mis avec la commutativité impliquent
l’existence d’un inverse à gauche.

On peut observer quelques propriétés élementaires :

Proposition 1.10. (i) ∀⃗v , w,


⃗ ⃗u ∈ V , si w
⃗ + ⃗v = ⃗u + ⃗v alors w
⃗ = ⃗u;
(ii) ∀⃗v , w
⃗ ∈ V , si ⃗v + w ⃗ = ⃗0;
⃗ = ⃗v , alors w
(iii) ∀⃗v ∈ V , 0 · ⃗v = ⃗0;
(iv) ∀α ∈ K, α⃗0 = ⃗0;
(v) ∀⃗v ∈ V et α ∈ K, si α⃗v = ⃗0 alors α = 0 ou ⃗v = ⃗0;
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 10

(vi) ∀⃗v ∈ V , (−1) · ⃗v = −⃗v .


Démonstration. (i). Si on ajoute −⃗v aux deux membres, alors on trouve
w
⃗ + ⃗v + (−⃗v ) = ⃗u + ⃗v + (−⃗v )
(EV 3)
⃗ + ⃗0 = ⃗u + ⃗0
= w
(EV 2)
= w
⃗ = ⃗u
(EV 3)
(ii). Suit de (i) avec ⃗u = ⃗0 parce que w ⃗ + ⃗0.
⃗ = w
(iii). Nous avons
(EV 6)
0⃗v + 0⃗v = (0 + 0)⃗v = 0⃗v
Donc 0⃗v = ⃗0 grâce à la propriété (ii).
(iv) − (vi). Exercice.

1.3 Sous-espaces
Définition 1.11. Un sous-espace (vectoriel) W d’un espace vectoriel V sur un
corps K est un sous-ensemble W de V tel que W muni de la restriction de l’addition
et de la multiplication scalaire de V est de nouveau un espace vectoriel.
Remarque 1.12. Si W est un sous-espace de V , alors W n’est pas vide comme il doit
contenir un vecteur zéro. De plus, grace à Proposition 1.10(ii), ce vecteur zéro dans W
est exactement le vecteur ⃗0, le vecteur zéro de V . Donc si W est us sous-espace de V ,
alors ⃗0 ∈ W . La réciproque n’est pas vraie. Par exemple, soit W = {(0, 0), (0, 1)} ⊂
R2 , alors ⃗0 = (0, 0) ∈ W mais 2(0, 1) = (0, 2) ∈/ W . Le prochain but est de formuler
un critère pour vérifier facilement si un sous-ensemble est un sous-espace.
Définition 1.13. Soit V un espace vectoriel sur un corps K.
Si λ1 , . . . , λr ∈ K et ⃗v1 , . . . , ⃗vr ∈ V , le vecteur
r
X
λ1⃗v1 + . . . + λr⃗vr = λi⃗vi
i=1

est une combinaison linéaire ou combili des vecteurs ⃗v1 , . . . , ⃗vr .


Exemples 1.14. 1. Considérons (1, 0) ∈ R2 . Alors 0 · (1, 0) = (0, 0) et π · (1, 0) =
(π, 0) sont deux combilis de (1, 0). Considérons (1, 0, 0) et (0, 0, 1) dans R3 . Alors
2 · (1, 0, 0) + (−7) · (0, 0, 1) = (2, 0, −7) et π · (1, 0, 0) + e(0, 0, 1) = (π, 0, e)
sont deux combilis de (1, 0, 0) et (0, 0, 1).
2. Dans l’espace vectoriel réel RR , la fonction f : R → R, x 7→ cos 2x est une
combili des fonctions g : R → R, x 7→ sin2 x et h : R → R, x 7→ cos2 x, grâce
à la formule
cos 2x = cos2 x − sin2 x.
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 11

Proposition 1.15. Soit W un sous-ensemble d’un espace vectoriel V sur un corps K.


Les conditions suivantes sont équivalentes:
(i) W est un sous-espace vectoriel de V ;
⃗ ∈ W et tout λ ∈ K, ⃗v + w
(ii) W est non-vide et pour tous ⃗v , w ⃗ ∈ W et λ⃗v ∈ W .
⃗ ∈ W et tous λ, µ ∈ K, la combili λ⃗v + µw
(iii) W est non-vide et pour tous ⃗v , w ⃗ est
dans W ;
(iv) W est non-vide et pour tout nombre fini de vecteurs ⃗v1 , ⃗v2 , . . . , ⃗vr ∈ W , chaque
combili λ1⃗v1 + . . . + λr⃗vr est dans W ;

Démonstration. (i) ⇔ (ii). Si W est un sous-espace, il suit de la Remarque 1.12 que


⃗0 ∈ W , donc W est non-vide. Comme W est un sous-espace pour la même addition
et multiplication scalaire de W , il suit que condition (ii) est satisfaite.
Réciproquement, pour un sous-ensemble non-vide W , la condition (ii) dit exacte-
ment que l’addition et la multiplication scalaire de V se restreignent à W . Comme W
est non-vide, il existe w ⃗ ∈ W et nous trouvons que 0w ⃗ = ⃗0 ∈ W . Tous les axiomes
(EV1)-(EV8) sont maintenant des identités de vecteurs qui sont valables dans V , et
donc en particulier dans W ⊂ V .
⃗ ∈ W et tous λ, µ ∈ K, il suit de la deuxième condition
(ii) ⇒ (iii). Pour tous ⃗v , w
⃗ ∈ W . Ensuite la première condition de (ii) implique que λ⃗v + λw
de (ii) que λ⃗v , µw ⃗∈
W.
(ii) ⇒ (iii). Il suffit d’appliquer (iii) successivement pour arriver à (iv).
(iv) ⇒ (ii). Soient ⃗v , w⃗ ∈ W , alors (iv) appliqué dans le cas n = 2, λ1 = λ2 = 1
nous donne que ⃗v + w ⃗ ∈ W . Pour ⃗v ∈ W et λ ∈ K, appliquons (iv) avec n = 1,
λ1 = λ et ⃗v1 = ⃗v .

Exemples 1.16. 1. V et {0} sont des sous-espaces de V ;


2. L’ensemble des solutions d’un système homogène de m équations linéaires à n
inconnues sur K est un sous-espace de Kn . L’ensemble des solutions d’un système
non-homogène n’est pas un sous-espace de Kn .
3. L’ensemble des fonctions continues de R dans R est un sous-espace de RR .
4. Soit n ∈ N0 . L’ensemble des matrices n × n diagonales est un sous-espace de
l’espace vectoriel des matrices Rn×n .
5. L’ensemble Rn [X] de tous le polynômes d’un degré inférieur ou égal à n (avec
n ∈ N) est un sous-espace de R[X].
6. Considérons C comme espace vectoriel réel. Alors R est un sous-espace de C.

Définition 1.17. Soit V un espace vectoriel sur un corps K et A ⊆ V un sous-


ensemble de V . Le sous-espace vectoriel engendré par A (appelé aussi enveloppe
linéaire de A) est le plus petit sous-espace W de V qui contient A. Il est noté ⟨A⟩ ou
Vect(A).
CHAPITRE 1. LES ESPACES VECTORIELS SUR UN CORPS 12

Proposition 1.18. Supposons que A ̸= ∅. Alors


n
X
Vect(A) = ⟨A⟩ = { ai⃗vi | n ∈ N0 , ai ∈ K, ⃗vi ∈ A}
i=1

autrement dit, le sous-espace vectoriel engendré par A est l’ensemble de tous les com-
bilis d’éléments de A.
Si A = ∅, alors Vect(A) = {⃗0}.

Démonstration. Soit A ̸= ∅. Soit Y l’ensemble de tous les combilis d’éléments de


A. Clairement Y est un sous-espace vectoriel, comme une combinaison linéaire des
combilis d’éléments de A est de nouveau une combili d’éléments de A. Il suffit de
montrer que Y satisfait les deux propriétés suivantes:
— A⊂Y;
— Si A ⊂ W et W est un sous-espace, alors Y ⊂ W .
Puisque tout élément de A est de manière triviale une combili d’éléments de A, on a
A ⊂ Y . Finalement, si W est un sous-espace qui contient A, W contient aussi toutes
les combilis d’éléments de A (voir Proposition 1.15), donc Y ⊂ W .
Soit maintenant A = ∅. Clairement A ⊂ {⃗0} ⊂ V . Comme {⃗0} est le plus petit
espace vectoriel qui existe, on a Vect(A) = {⃗0}.

Exemples 1.19. 1. Considérons l’espace Euclidien de tridimensionnel comme es-


pace vectoriel réel avec comme vecteur neutre le point fixé o. Soient p et q deux
points dans l’espace, donc deux vecteurs dans l’espace vectoriel associé. Si p, q
et o ne sont pas colinéaires, alors Vect(p, q) est exactement le plan passant par o
contenant p et q. Dans le cas où o, p et q sont collinéaires mais pas tous les trois
identiques, Vect(p, q) est exactement la droite pq. Si p = q = o, alors Vect(p, q)
est l’espace nul {o}.
2. Dans R[X], on a Vect(1, x, x2 ) = R2 [X].
Chapitre 2

Bases et dimension

2.1 Parties génératrices et parties libres


Définition 2.1. Un sous-ensemble A ⊆ V est une partie génératrice de V si tout
vecteur de V une est combili de vecteurs de A. Autrement dit, si Vect(A) = V .

Exemples 2.2. 1. Pour chaque espace vectoriel V , V lui-même est une partie
génératrice.
2. Comme Vect(∅) = 0, l’ensemble vide est une partie génératrice pour l’espace
zéro.
Dans chacun des espaces vectoriels suivants on donne deux parties génératrices.
3. Dans l’espace réel R3 :

{(1, 0, 0), (0, 1, 0), (0, 0, 1)} et {(0, 0, 1), (0, 1, 1), (1, 0, 1), (1, 1, 1)}.

4. Dans l’espace réel C:

{1, i} et {0, 1 + i, π − 3i, 5i + 12}.

5. Dans l’espace réel R[X]:


( i )
X
{X i | i ∈ N} et Xk | i ∈ N .
k=0

6. Dans l’espace F2p sur Fp :

{(1, 0), (0, 1)} et {(p − 1, 0), (0, p − 2), (p − 1, p − 1)}.

13
CHAPITRE 2. BASES ET DIMENSION 14

Remarque 2.3. Soit A une partie génératrice infinie pour un espace vectoriel V (par
exemple {X i | i ∈ N} pour R[X]). Comme A est génératrice, on peut écrire chaque
élément ⃗v de V comme une combili d’un nombre fini d’éléments de A:
n
X
⃗v = λi⃗ai (2.1)
i=1

avec λi ∈ K, ⃗ai ∈ A. Il revient au même d’ajouter les termes λ⃗a avec λ = 0 pour tous
les ⃗a ∈ A qui n’appartiennent pas à la combili (2.1). Alors on peut dire que A est une
partie génératrice (infinie) ssi pour tous ⃗v ∈ V , il existe des éléments λ⃗a ∈ K, pour
tout ⃗a ∈ A tels que X
⃗v = λ⃗a⃗a,
⃗a∈A

où seulement un nombre fini de λ⃗a sont différents de zéro. Nous disons simplement
que presque tous les λ⃗a sont zéro.
Proposition 2.4. Considérons un espace vectoriel V sur K.
(i) Soit A ⊆ V une partie génératrice de V et ⃗v ∈ V , alors A ∪ {⃗v } est une partie
génératrice de V ;
(ii) Soit A ⊆ V une partie génératrice de V et ⃗v ∈ A. Alors A \ {⃗v } est une partie
génératrice de V ssi ⃗v ∈ Vect(A \ {⃗v }).
Démonstration. (i). Si A est génératrice pour V , alors tout vecteur w ⃗ ∈ V s’écrit
Pn
comme w ⃗ = i=1 λi⃗ai avec λi ∈ K et ⃗ai ∈ A. Comme A ⊂ A ∪ {⃗v }, tout vecteur
⃗ ∈ V est aussi une combili d’éléments de A ∪ {⃗v } et donc cette partie est aussi
w
génératrice.
(ii). Si A \ {⃗v } est une partie génératrice de V , alors V = Vect(A \ {⃗v }) et donc en
particulier ⃗v ∈ Vect(A \ {⃗v }). Réciproquement, si ⃗v ∈ Vect(A \ {⃗v }) alors
X
⃗v = λ⃗a⃗a (2.2)
a∈A

a̸=⃗
⃗ v

avec λ⃗a ∈ K. PourP un vecteur quelconque w ⃗ ∈ V = Vect(A), nous pouvons donc


⃗ = µ⃗v + ⃗a∈A µ⃗a⃗a, avec µ, µ⃗a ∈ K (où il est possible que µ = 0). Si nous
écrire w
a̸=⃗
⃗ v
appliquons (2.2), nous trouvons que
X X
w
⃗ = µ( λ⃗a⃗a) + µ⃗a⃗a
a∈A
⃗ a∈A

a̸=⃗
⃗ v a̸=⃗
⃗ v
X
= (µλ⃗a + µ⃗a )⃗a
a∈A

a̸=⃗
⃗ v

Comme presque tous les λ⃗a et presque tous les µ⃗a sont zéro, cette somme est finie et
⃗ ∈ Vect(A \ {⃗v }) et donc A \ {⃗v } est une partie génératrice.
nous trouvons que w
CHAPITRE 2. BASES ET DIMENSION 15

Définition 2.5. Un espace vectoriel V est de dimension finie ou finidimension-


nel s’il admet une partie génératrice finie. Sinon, il est de dimension infinie ou
infinidimensionnel.
Proposition 2.6. Soit V un espace finidimensionnel. Alors tout ensemble G qui est
générateur contient un sous-ensemble fini qui est toujours générateur.
Démonstration. Comme V est finidimensionnel, il existe un ensemble fini G′ = {⃗v1 , . . . , ⃗vn }
qui est générateur. Comme G est aussi générateur, pour tout ⃗vi ∈ G′ , il existe un
nombre fini
P d’éléments w⃗ iji ∈ G et des scalaires λiji ∈ K, avec ji = 1, . . . , mi tel
que ⃗vi = m ji =1 iji iji Soit H = {w
i
λ w
⃗ . ⃗ iji | ji = 1, . . . , mi , i = 1, . . . , n, } ⊂ G. Alors
H est fini et G ⊆ Vect(H). Donc aussi V = Vect(G′ ) ⊆ Vect(H). Comme bien sûr

Vect(H) ⊆ V il suit que Vect(H) = V , donc H est un sous-ensemble fini de G qui


est générateur.
Il suit de la proposition précédente, qu’une partie génératrice peut contenir des
éléments qui sont redondants. Ceci nous mène à la définition suivante.
Définition 2.7. Un sous-ensemble A ⊆ V est une partie libre de V si aucun vecteur
de A n’est combili d’autres vecteurs de A. On dit alors que les vecteurs de A sont
linéairement indépendants. Sinon, on dit qu’ils sont linéairement dépendants.
Remarque 2.8. !Attention ! Parfois nous considérons la notion de l’indépendance
linéaire pas pour un sous-ensemble A ⊂ V mais pour une famille de vecteurs (⃗ai )i∈I .
La définition reste la même, donc
la famille (⃗ai )i∈I est linéairement indépendant, si aucun vecteur ⃗ai n’est
combili d’autres vecteurs de la famille.
Si (⃗ai )i∈I est une famille de vecteurs, alors A = {⃗ai | i ∈ I} est un sous-ensemble
de V . Si la famille est linéairement indépendant, alors le sous-ensemble associé l’est
aussi. Néanmoins, si A est libre, ceci n’implique pas forcément que la famille (⃗ai )i∈I est
aussi linéairement indépendant. Effectivement, la notion d’une famille permet d’avoir
plusieurs fois le même élément, donc il est possible d’avoir deux indices i, j ∈ I, tel
que ⃗ai = ⃗aj même si i ̸= j. Dans ce cas, clairement, ⃗ai est une combinaison linéaire de
⃗aj , et donc la famille (⃗ai )i∈I n’est pas linéairement indépendant, même si possiblement
le sous-ensemble A = {⃗ai | i ∈ I} ⊂ V est libre. Voici un exemple. Considérons la
famille (⃗ai )i∈N dans R2 , avec ⃗ai = (1, 0) si i est impaire, et ⃗ai = (0, 1) si i est paire.
Alors, (⃗ai )i∈N n’est pas linéairement indépendant, mais l’ensemble A = {⃗ai | i ∈ I} =
{(1, 0), (0, 1)} ⊂ R2 est bien libre.
Proposition 2.9. Une partie A de V est libre ssi pour tout choix d’un nombre na-
turel m positif, de vecteurs ⃗v1 , . . . , ⃗vm ∈ A, deux à deux distincts, et de scalaires
λ1 , . . . , λm ∈ K, on a

λ1⃗v1 + . . . + λm⃗vm = ⃗0 ⇒ λ1 = λ2 = . . . = λm = 0.
CHAPITRE 2. BASES ET DIMENSION 16

Démonstration. Nous allons démontrer l’équivalence entre les négations des deux as-
sertations. C’est-à-dire, nous alons montrer que A n’est pas libre si et seulement si
il existe des vecteurs de vecteurs ⃗v1 , . . . , ⃗vm ∈ A (deux à deux distincts) et des
scalaires λ1 , . . . , λm ∈ K, avec λi ̸= 0 pour au moins un i ∈ {1, . . . , m} tels que
λ1⃗v1 + . . . + λm⃗vm = ⃗0.
Supposons donc d’abord que A n’est pas libre. Alors il existe un vecteur ⃗v ∈ A qui
est une combili d’autres vecteurs de A:

⃗v = λ1⃗v1 + . . . + λm⃗vm

pour certains λi ∈ K et ⃗vi ∈ A (deux à deux distincts, et tous différents de ⃗v ). Par


conséquent, nous avons aussi que

−⃗v + λ1⃗v1 + . . . + λm⃗vm = ⃗0

où le coefficient de ⃗v vaut −1 ̸= 0.
Réciproquement, supposons qu’on ait une identité

λ1⃗v1 + . . . + λm⃗vm = ⃗0.

avec avec ⃗vi ∈ A (deux à deux distincts) et au moins un des coefficients différent de
zéro. Sans perte de généralité, nous pouvons supposer que λ1 ̸= 0 (sinon il suffit de
renuméroter les indices). Alors en multipliant l’identité ci-dessus par λ−1
1 , nous trouvons
que
⃗v1 = −λ−1 v2 − . . . − λ−1
1 λ2⃗ 1 λm ⃗vm ,
et donc ⃗v1 est une combili d’autres vecteurs de A.
Exemples 2.10. 1. L’ensemble vide ∅ est libre dans tout espace vectoriel V .
2. Pour tout espace vectoriel V , chaque singleton {⃗v } ⊂ V est une partie libre, à
condition que ⃗v ̸= ⃗0.
3. Les polynômes X 2 + X + 1 et X 2 − X sont linéairement indépendants dans
R[X].
4. Les fonctions cos x et sin x sont linéairement indépendantes dans RR .
5. Les vecteurs 1 et i sont linéairement indépendants dans C comme espace vec-
toriel réel, mais ils sont linéairement dépendants dans C comme espace vectoriel
complexe !
6. Un ensemble qui contient le vecteur zéro n’est jamais une partie libre.
Proposition 2.11. Soit V un espace vectoriel sur un corps K.
(i) Si A ⊆ V est un ensemble de vecteurs linéairement dépendants, alors A ∪ {⃗v }
est un ensemble de vecteurs linéairement dépendants, ∀⃗v ∈ V ;
(ii) Si A ⊆ V est une partie libre, alors A\{⃗v } est une partie libre, ∀⃗v ∈ V ;
CHAPITRE 2. BASES ET DIMENSION 17

(iii) A ⊆ V est une partie libre si et seulement si chacun des éléments de Vect(A)
s’écrit de manière unique comme combili de vecteurs de A;
(iv) Soit A ⊆ V une partie libre et ⃗v ∈ V , ⃗v ̸∈ A. Alors A ∪ {⃗v } est libre si et
seulement si ⃗v ̸∈ Vect(A).

Remarque 2.12. Dans la Proposition 2.11(iii), “tout vecteur de Vect(A) s’écrit ma-
nière unique” signifie unique à l’ordre des termes près et sans tenir compte des termes
triviaux, i.e. du type “0 · ⃗b”, ⃗b ∈ A.

Démonstration (de Proposition 2.11). Nous ne montrons que la partie (iii). Les autres
démonstrations sont laissées comme exercice.
Supposons que A est libre. Comme A est en particulier une partie génératrice pour
Vect(A) et en tenant compte de la Remarque 2.3, tout vecteur ⃗v de Vect(A) P peut
s’écrire d’au moins une manière comme combili des vecteurs de A, i.e. ⃗v = ⃗a∈A λ⃗a⃗a
où seulement un nombre fini des λ⃗a sont différents de zéro. Supposons que
X X
⃗v = λ⃗a⃗a = λ⃗a′ ⃗a.
⃗a∈A ⃗a∈A

Dès lors
⃗0 = ⃗v − ⃗v
X X
= λ⃗a⃗a − λ⃗a′ ⃗a
⃗a∈A ⃗a∈A
X
= (λ⃗a − λ⃗a′ ) ⃗a.
| {z }
⃗a∈A µ⃗a

Rappelons que dans cette somme seulement un nombre fini de λ⃗a et de λ⃗a′ sont dif-
férents de zéro, et donc aussi seulement un nombre fini des µ⃗a peuvent être différents
de zéro. Comme A est libre, les ⃗a sont linéairement indépendants, donc µ⃗a = 0, i.e.
λ⃗a − λ⃗a′ = 0 et λ⃗a = λ⃗a′ pour tout ⃗a ∈ A. Alors ⃗v s’écrit de manière unique comme
combili des vecteurs de A.
Réciproquement, supposons qu’il existe une combili

λ1⃗v1 + λ2⃗v2 + . . . + λn⃗vn = ⃗0.

Comme aussi
⃗0 = 0⃗v1 + 0⃗v2 + . . . + 0⃗vn
l’unicité d’écriture d’un élément de V comme combili des éléments de A garantit que
λ1 = λ2 = . . . = λn = 0, donc A est libre.
CHAPITRE 2. BASES ET DIMENSION 18

2.2 Bases
Définition 2.13. Une base d’un espace vectoriel V est une partie génératrice et libre
de V .
Exemples 2.14. 1. L’espace nul V = {⃗0} a l’ensemble vide comme base.
2. La partie B = {X i | i ∈ N} = {1, X, X 2 , . . . , X n , . . .} est une base de R[X].
3. Dans Rn , les vecteurs
(1, 0, 0, . . . , 0)
(0, 1, 0, . . . , 0)
..
.
(0, 0, . . . , 0, 1)
forment une base, appelée la base canonique ou base standard.
4. Une autre base de Rn est donnée par les vecteurs
(1, 0, 0, . . . , 0)
(1, 1, 0, . . . , 0)
..
.
(1, 1, . . . , 1, 1)
De la même manière, nous pouvons construire des bases pour l’espace Kn sur
un corps K arbitraire.
5. Une base pour l’espace Kn×m des matrices à n lignes et m colonnes est donnée
par les matrices Ek,ℓ = (ek,ℓ
i,j ), qui ont partout 0 comme composante sauf sur la
k-ième ligne et ℓ-ième colonne, où il y a 1. C’est-à-dire,
ek,ℓ
i,j = δi,k δj,ℓ .

Proposition 2.15. Soit V un espace vectoriel non-nul. Un sous-ensemble B de V est


une base ssi tout vecteur de V s’écrit de manière unique comme combili des vecteurs
de B.
Démonstration. Rappelons que B est génératrice si et seulement si Vect(B) = V si et
seulement si tout élément de V s’écrit comme combili des vecteurs de B. Alors par la
Proposition 2.11(iii) cette écriture est en plus unique si et seulement is B est en plus
libre et donc une base.
Définition 2.16. Soit B une base d’un espace vectoriel V et ⃗v ∈ V . Les compo-
santes de ⃗v dans la base B sont les coefficients scalaires dans la combili
⃗v = λ1⃗b1 + . . . + λm⃗bm
où m est un nombre naturel, λ1 , . . . , λm ∈ K et ⃗b1 , . . . , ⃗bm ∈ B. On les appelle les
coordonnées de ⃗v .
CHAPITRE 2. BASES ET DIMENSION 19

Lorsque la base est finie, i.e. possède un nombre fini n de vecteurs, nous écrivons
souvent
⃗v := (v1 , . . . , vn )
pour indiquer que v1 , . . . , vn sont les coordonnées du vecteur ⃗v . Nous notons ces co-
ordonnées aussi parfois dans une matrice colonne
 
v1
[⃗v ]B =  ...  .
 
vn

Donc par [⃗v ]B nous notons la matrice colonne des coordonnées d’un vecteur ⃗v dans la
base B.

Exemple 2.17. Considérons l’espace vectoriel réel V = R3 . Dans V , L = {(1, 0, 0)}


est une partie libre et G = {(1, 0, 0), (0, 1, 0), (1, 1, 0), (0, 0, 1), (1, 1, 1)} est une partie
génératrice telle que L ⊂ G. Construisons une base B de V telle que L ⊂ B ⊂ G.
Considérons les ensembles

E0 = L = {(1, 0, 0)}
E1 = {(1, 0, 0), (0, 1, 0)}
E2 = {(1, 0, 0), (0, 1, 0), (1, 1, 0)}
E3 = {(1, 0, 0), (0, 1, 0), (1, 1, 0), (0, 0, 1)}
E4 = G = {(1, 0, 0), (0, 1, 0), (1, 1, 0), (0, 0, 1), (1, 1, 1)}

Le premier élément de notre base est clairement ⃗e1 = (1, 0, 0), l’élément de L. On
observe que Vect(E0 ) ̸= Vect(E1 ), c’est à dire, (0, 1, 0) est linéairement indépendant
de (1, 0, 0), donc E1 est libre (voir Proposition 2.11). Alors ⃗e2 = (0, 1, 0) sera un
deuxième élément de notre base. On continue et on trouve que Vect(E2 ) = Vect(E1 ),
c’est à dire (1, 1, 0) est linéairement dépendant de E1 , donc (1, 1, 0) n’est pas un
élément de notre base B. On calcule de nouveau Vect(E3 ) ̸= Vect(E2 )(= Vect(E1 )),
c’est à dire (0, 0, 1) est linéairement indépendant de E2 , donc on ajoute (0, 0, 1) à
notre base B. Finalement, Vect(E4 ) = Vect(E3 ) = R3 et le dernier élément (1, 1, 1)
est à nouveau linéairement dépendant des autre éléments. On trouve alors que B =
{(1, 0, 0), (0, 1, 0), (0, 0, 1)} est une partie libre et génératrice, donc une base. Dans la
proposition suivante on formalise cette procédure.

Proposition 2.18. Soit V un espace vectoriel finidimensionnel et G une partie géné-


ratrice finie de V . Soit L une partie libre de V , contenue dans G. Il existe une base B
telle que L ⊆ B ⊆ G.

Démonstration. Nous écrivons L = {⃗v1 , . . . , ⃗vℓ } et G = {⃗v1 , . . . , ⃗vℓ , ⃗vℓ+1 , . . . , ⃗vn }


avec ℓ, n ∈ N et ℓ ≥ n. Alors Vect(G) = V , comme G est génératrice. Définissons
CHAPITRE 2. BASES ET DIMENSION 20

Ei = {⃗v1 , . . . , ⃗vℓ+i }, pour i = 0, . . . , n − ℓ. Alors E0 = L et En−ℓ = G. Définissons


B = L ∪ {⃗vℓ+i | Vect(Ei ) ̸= Vect(Ei−1 ), i = 1, . . . , n − ℓ}, alors B est une base. En
effet : comme L est libre, L ∪ {⃗vℓ+1 } est libre ssi Vect(Ei ) ̸= Vect(Ei−1 ) (appliquer
la Proposition 2.11). En appliquant ce raisonnement pour i = 1, . . . , n − ℓ on obtient
que B est libre. D’autre part, par construction, Vect(B) = Vect(G) = V , donc B est
aussi génératrice.

Corollaire 2.19. Tout espace vectoriel de dimension finie admet une base.

Démonstration. Comme V est de dimension finie, V admet une partie génératrice G


finie. Notons L = ∅ l’ensemble vide, qui est clairement libre. La Proposition 2.18
permet de construire une base B tel que L ⊂ B ⊂ G.

Corollaire 2.20. Soit V un espace vectoriel finidimensionnel sur K.


(i) Tout ensemble de vecteurs linéairement indépendants de V peut être completé
en une base;
(ii) Tout ensemble générateur contient une base;
(iii) Si #V (ou #K) est infini, alors V possède une infinité de bases.

Démonstration. (i). Soit L une partie libre de V et soit G un ensemble générateur fini
(qui existe comme V est finidimensionnel). Alors G′ = L ∪ G est aussi générateur et
L ⊆ G′ . Donc par Proposition 2.18, il existe une base B tel que L ⊆ B ⊆ G′ .
(ii). Soit G un ensemble générateur et rappelons que ∅ est libre. Alors par Proposi-
tion 2.18, il existe une base B telle que ∅ ⊆ B ⊆ G.
(iii). Pour tout vecteur ⃗v ̸= ⃗0 dans V , l’ensemble {⃗v } est une partie libre. Par la par-
tie (i), il est possible de compléter chacune de ses parties libres en une base. Comme
toutes les bases ont un nombre fini d’éléments, nous trouvons une infinité de bases
différentes.

2.3 La dimension d’un espace vectoriel


Lemme 2.21. Soient L une partie libre et G une partie génératrice d’un espace
vectoriel finidimensionnel V . Alors L contients moins d’éléments que G. En particulier,
toute partie libre d’un espace vectoriel finidimensionnel est finie.

Démonstration. Supposons d’abord que L et G sont finies. Notons L = {⃗v1 , . . . , ⃗vn }


et G = {w ⃗ m }. Comme G est génératrice, tout vecteur de L est une combili
⃗ 1, . . . , w
des vecteurs de G. Il existe donc des scalaires aij ∈ K, i = 1, . . . , n, j = 1, . . . , m tels
que
m
X
⃗vi = aij w
⃗j
j=1
CHAPITRE 2. BASES ET DIMENSION 21

pour tout i = 1, . . . , n. Soit A ∈ Kn×m la matrice avec les aij comme composantes.
Grâce à la méthode de Gauss, nous savons qu’il existe une matrice inversible E =
(eij ) ∈ Kn×n telle que la matrice A′ = EA est en forme échelonnée réduite. Supposons
par l’absurde que m < n. Alors la dernière ligne de la matrice échelonnée A′ est nulle
(il est possible qu’il y ait plusieurs lignes nulles, mais au moins les dernières n − m
lignes sont nulles). Ceci implique que
n
X
enk akj = 0
k=1

pour tout j = 1, . . . , m. Alors il suit que


n n m
!
X X X
enk⃗vk = enk akj w
⃗j
k=1 k=1 j=1
X m
n X m X
X n
= enk akj w
⃗j = enk akj w
⃗j
k=1 j=1 j=1 k=1
m n
! m
X X X
= enk akj w
⃗j = ⃗ j = ⃗0
0w
j=1 k=1 j=1

Dès lors et parce que L est libre, nous trouvons que enk = 0, pour k = 1, . . . , n. Alors
la matrice E a une ligne nulle ce qui est une contradiction avec l’inversibilité de E.
Nous pouvons conclure que n ≤ m.
Supposons maintenant que L est un ensemble libre infini et soit G un ensemble
générateur fini (qui existe comme V est finidimensionnel). Comme tout sous-sensemble
de L est de nouveau libre, il suffit de prendre un sous-ensemble de L avec plus d’élé-
ments de G pour obtenir une contradiction avec la première partie. Donc toute partie
libre est finie.
Si L est fini et G est infini, il n’y a rien à démontrer.
Théorème 2.22 (Premier théorème de la dimension). Dans un espace vectoriel fini-
dimensionnel, toutes les bases ont le même nombre d’éléments.
Démonstration. Soient B et B ′ deux bases d’un espace vectoriel finidimensionnel V .
Comme B et B ′ sont libres, il suit du Lemme 2.21 que B et B ′ sont finies. Comme B
est libre et B ′ est génératrice, il suit de Lemme 2.21 que #B ≤ #B ′ . D’autre part,
comme B est génératrice et B ′ est libre il suit aussi que #B ≥ #B ′ . Nous pouvons
donc conclure que #B = #B ′ .
Définition 2.23. Si V est un espace vectoriel de dimension finie, la dimension de V
est le nombre n de vecteurs d’une quelconque de ses bases. On écrit

dim(V ) = n.
CHAPITRE 2. BASES ET DIMENSION 22

Si V est infinidimensionnel, nous notons

dim(V ) = ∞.

Si on souhaite préciser le corps sur lequel on travaille, on écrit alors dimK (V ).

Exemples 2.24. 1. dim(Rn ) = n.


2. dimC (Cn ) = n, où Cn est considéré comme espace vectoriel complexe. dimR (Cn ) =
2n, où Cn est considéré comme espace vectoriel réel.
3. En général, nous avons dimK (Kn ) = n pour tout n ∈ N et tout corps K.
4. dimK (Kn×m ) = nm, pour tous n, m ∈ N0 et tout corps K.
5. dim(R[x]) = ∞.

Corollaire 2.25. Soit V un espace vectoriel finidimensionnel. Soit L une partie libre
de V et G une partie génératrice de V . Alors

#L ≤ dimV ≤ #G.

Proposition 2.26. Soit V un espace vectoriel finidimensionnel. Soit L une partie libre
de V et G une partie génératrice de V , alors :
(i) #L = dim(V ) ⇒ L est une base de V ;
(ii) #G = dim(V ) ⇒ G est une base de V .

Démonstration. (i). Grâce au Corollaire 2.20(i), nous savons qu’il existe une base B
de V telle que L ⊂ B. Comme #L = dim(V ) = #B, il suit que L = B et donc L est
une base.
(ii). Grâce au Corollaire 2.20(ii), nous savons qu’il existe une base B de V telle que
B ⊂ G. Comme #G = dim(V ) = #B, il suit que G = B et donc G est une base.

Proposition 2.27. Soit V un espace vectoriel et W un sous-espace vectoriel de V .


Alors dim(W ) ≤ dim(V ). De plus, W est un espace vectoriel finidimensionnel si V est
finidimensionnel.

Démonstration. Soit B une base de W . Alors B est une partie libre dans V . Grâce au
Corollaire 2.25, il suit que dimW = #B ≤ dimV .
CHAPITRE 2. BASES ET DIMENSION 23

Pourquoi des espaces de dimension arbitraire ?


Le plan réel et l’espace tridimensionnel réel donnent beaucoup de motivation pour
étudier des espaces vectoriels de dimension 1, 2 et 3. Mais pourquoi aussi considérer
des espaces avec des dimensions supérieures ? Une première motivation vient des
exemples comme Kn [X] et Kn×m , mais aussi dans beaucoup de cas “concrets” d’es-
paces vectoriels de dimensions supérieures apparaissent naturellement. Un exemple
de la physique est l’espace de phases, qu’on a déjà rencontré et qui décrit à la fois
la position et la quantité de mouvement d’un objet dans un système dynamique,
et qui est un espace réel de dimension 6. Un autre example motivé par la physique
vient de la théorie de relativité d’Einstein, où nous considérons l’espace-temps, un
espace réel 4-dimensionnel, dont il y a 3 coordonnées ‘spatiales’ et une quatrième
coordonnée pour décrire le temps. Aussi dans l’informatique, l’économie, l’ingénerie,
. . .des espaces de dimension arbitraire apparaissent naturellement et sont souvent
utilisés. En effet, tout système, qu’importe sa nature, qui a un certain nombre de
‘variables’ ou ‘libertés’ se laisse modéliser par un espace vectoriel avec comme di-
mension exactement ce nombre de variables ou libertés. Très souvent, ces espaces
vectoriels sont même infinidimensionnels, comme les espaces que nous allons étudier
plus en détail dans la Section 5.2.
Chapitre 3

Applications linéaires

Dans les chapitres précédents, nous avons introduit les espaces vectoriels. Mainte-
nant, nous allons étudier les relations entre ces espaces.

3.1 Définitions et exemples


Définitions 3.1. Soient V et V ′ deux espaces vectoriels sur le corps K. Une application
f : V → V ′ est appelée une application linéaire ou une transformation linéaire
ou un (homo)morphisme d’espaces vectoriels si et seulement si ∀λ, µ ∈ K et
∀⃗v , w
⃗ ∈ V , on a
f (λ⃗v + µw)
⃗ = λf (⃗v ) + µf (w).

Soit f : V → V ′ une application linéaire. Alors,
1. f est appelée un monomorphisme si et seulement si f est injective;
2. f est appelée un épimorphisme si et seulement si f est surjective;
3. f est appelée un isomorphisme si et seulement si f est bijective.
Si il existe une isomorphisme entre les espaces vectoriels V et V ′ , nous disons que V
et V ′ sont isomorphes et nous notons
V ∼
= V ′.
Une application linéaire de V dans V est appelée un opérateur linéaire ou un
endomorphisme. Un isomorphisme f : V → V est appelée un automorphisme.
Nous noterons par HomK (V, V ′ ) l’ensemble de toutes les applications linéaires de
V dans V ′ . L’ensemble de tous les endomorphismes de V est noté comme EndK (V )
et l’ensemble de tous les automorphismes de V est noté comme Aut K (V ).
Exemples 3.2 (Exemples dans le plan R2 ). 1. Une rotation de centre (0, 0) et d’un
angle θ est une application linéaire de R dans R2 et est un automorphisme de R2 .
2

En particulier, une symétrie (ou une réflexion) de centre (0, 0) est une application
linéaire.

24
CHAPITRE 3. APPLICATIONS LINÉAIRES 25

2. Une symétrie (ou une réflexion) d’axe L, où L est une droite qui passe par
l’origine, est une application linéaire de R2 dans R2 et est un automorphisme de
R2 .
3. Une homothétie ou dilatation homogène de centre (0, 0) et de rapport λ ∈ R est
une application linéaire de R2 dans R2 et est un automorphisme de R2 si λ ̸= 0.
4. Soit L une droite qui passe par l’origine et ⃗v un vecteur non-nul qui n’est pas un
vecteur directeur de L. La projection sur L et parallèle à ⃗v est une application
linéaire de R2 dans R2 qui n’est pas un monomorphisme, ni un épimorphisme.
5. Une translation d’un vecteur ⃗v ̸= ⃗0 n’est pas une application linéaire de R2 dans
R2 .

Exemples 3.3 (Exemples dans l’espace R3 ). 1. Les rotations (autour d’une droite
qui passe par l’origine) et les réflexions (par rapport à l’origine, par rapport à une
droite qui passe par l’origine ou par rapport à un plan qui passe par l’origine)
sont des automorphismes de R3 .
2. Une homothétie de centre (0, 0, 0) et de rapport λ ∈ R est une application
linéaire de R3 dans R3 et est un automorphisme de R3 si λ ̸= 0.
3. Les projections sur une droite qui passe par l’origine ou sur un plan qui passe
par l’origine sont des transformations linéaires de R3 qui ne sont ni injectives ni
surjectives.
4. Une translation d’un vecteur non-nul n’est pas une application linéaire de R3
dans R3 .

Exemples 3.4 (Exemples pour les matrices). 1. L’application Kn → K1×n qui en-
voie le n-tuple (x1 , . . . , xn ) sur la matrice ligne (x1 · · · xn ) est un isomorphisme.
2. La transposée (−)t : Kn×m → Km×n est une application linéaire et même un
isomorphisme.
3. La trace Tr : Kn×n → K est une application linéaire et un épimorphisme pour
tout n ≥ 1, c’est un isomorphisme si et seulement si n = 1.
4. Le déterminant (voir MathF121) det : Kn×n → K n’est pas une application
linéaire.
5. L’application Diag : Kn → Kn×n , qui envoie un élément ⃗a = (a1 , . . . , an ) ∈ Kn
sur la matrice diagonale avec les composantes de ⃗a sur la diagonale, est une
application linéaire et un monomorphisme.
 
a1 0 ··· 0
 0 a2 ··· 0 
Diag(a1 , . . . , an ) =  .. .. .. .
 
..
 . . . . 
0 0 ··· an
CHAPITRE 3. APPLICATIONS LINÉAIRES 26

6. L’application (−)|1 : Kn×m → Kn×1 , qui envoie une matrice A sur la matrice co-
lonne A|1 est une application linéaire et un épimorphisme. C’est un isomorphisme
si et seulement si m = 1.
7. Soit A ∈ Km×p alors la multiplication à droite par A est une application linéaire
de Kn×m → Kn×p .

Exemples 3.5 (Exemples pour des espaces de fonctions). 1. Notons comme pré-
cédemment l’espace vectoriel réel de toutes les fonctions continues de R dans R
par C 0 (R, R). Alors l’application

Int : C 0 (R, R) → C 0 (R, R),

définie par Z x
Int(f )(x) = f (t)dt
0

pour tous x ∈ R, est une application linéaire.


2. Notons par C 1 (R, R) l’espace vectoriel réel de toutes les fonctions continûment
dérivables de R dans R. Alors l’application

D : C 1 (R, R) → C 0 (R, R),


df
définie par Df (x) = dx
(x) pour tout x ∈ R, est une application linéaire.
3. Soit a ∈ R, alors l’application

eva : RR → R, eva (f ) = f (a)

est une application linéaire.


4. Soit ⃗a = (a1 , . . . , an ) ∈ Kn , alors l’application
n
ev⃗a : KK → K, ev⃗a (f ) = f (a1 , . . . , an )

est une application linéaire.

Exemples 3.6. 1. Pour tout espace vectoriel, l’application identité id : V → V


est une application linéaire et même un automorphisme.
2. Pour tout sous-espace W de V , l’inclusion ι : W → V est une application linéaire
et même un monomorphisme.
3. Pour toute paire d’espaces vectoriels V et V ′ , l’application 0 : V → V ′ , 0(⃗v ) = ⃗0
pour tout ⃗v ∈ V est une application linéaire.
4. Pour tout espace vectoriel V de dimension n et avec une base B = {⃗e1 , . . . , ⃗en },
l’application coordB : V → Kn , qui envoie un vecteur ⃗v = x1⃗e1 + . . . + xn⃗en ∈ V
au tuple (x1 , . . . , xn ) ∈ Kn est un isomorphisme d’espaces vectoriels.
CHAPITRE 3. APPLICATIONS LINÉAIRES 27

Lemme 3.7. Soient V et V ′ deux espaces vectoriels sur le corps K. Pour une appli-
cation f : V → V ′ les conditions suivantes sont équivalentes.
(i) f est une application linéaire;
(ii) ∀λ ∈ K et ∀⃗v , w
⃗ ∈ V , f (λ⃗v ) = λf (⃗v ) et f (⃗v + w) ⃗ = f (⃗v ) + f (w);

(iii) Pour tout nombre fini de vecteurs ⃗v1 , ⃗v2 , . . . , ⃗vr ∈ V , et de scalaires λ1 , . . . , λr ∈
K, nous avons f (λ1⃗v1 + . . . + λr⃗vr ) = λ1 f (⃗v1 ) + . . . + λr f (⃗vr ).
Démonstration. Nous laissons la démonstration comme exercice. Le raisonnement est
similaire à celui de Proposition 1.15.
Lemme 3.8. Soit f : V → V ′ une application linéaire. Alors les propriétés suivantes
sont satisfaites.
(i) f (⃗0) = ⃗0;
(ii) f (−⃗v ) = −f (⃗v );

3.2 Propriétés des applications linéaires


Rappelons de l’Exemple 1.8 que pour tout espace vectoriel V et tout ensemble A,
l’ensemble V A de toutes les applications (quelconques) de A dans V est un espace
vectoriel avec l’addition et la multiplication scalaire données par les formules
f + g : A → V, (f + g)(a) = f (a) + g(a)
λf : A → V (λf )(a) = λf (a)
pour tous f, g ∈ V A , λ ∈ K et a ∈ A.
Proposition 3.9. Soient V et V ′ des espaces vectoriels sur le corps K. L’ensemble
HomK (V, V ′ ) des applications linéaires de V dans V ′ est un sous-espace vectoriel de
V ′V , l’espace vectoriel de toutes les applications (pas nécessairement linéaires) de V
dans V ′ .
Démonstration. Il suffit de montrer qu’une combili d’applications linéaires est de nou-
veau une application linéaire. Soient donc f, g ∈ HomK (V, V ′ ) et α, β ∈ K, alors pour
⃗ ∈ V et tous λ, µ ∈ K, nous trouvons
tous ⃗v , w
(αf + βg)(λ⃗v + µw)
⃗ = αf (λ⃗v + µw)⃗ + βg(λ⃗v + µw) ⃗
= α(λf (⃗v ) + µf (w))
⃗ + β(λg(⃗v ) + µg(w))

= λ(αf (⃗v ) + βg(⃗v )) + µ(αf (w)
⃗ + βg(w))

= λ(αf + βg)(⃗v ) + µ(αf + βg)(w). ⃗
Ici, nous avons appliqué la définition de l’addition et la multiplication scalaire pour des
applications de V dans V ′ dans la première et la dernière égalité, et le fait que f et g
sont linéaires dans la deuxième égalité. Nous pouvons donc conclure que αf + βg est
une application linéaire.
CHAPITRE 3. APPLICATIONS LINÉAIRES 28

Proposition 3.10. Une application linéaire f : V → V ′ est complètement déterminée


par l’image d’une base B = {⃗ei | i ∈ I} de V . Plus précisément, il y a une bijection
entre l’ensemble Ens(B, V ′ ) des applications (ensemblistes) de B dans V ′ et l’ensemble
des application linéaires HomK (V, V ′ ). En outre, il y a un isomorphisme d’espaces
vectoriels
HomK (V, V ′ ) ∼
= V ′B .
Démonstration. Nous définissons

ϕ : HomK (V, V ′ ) → V ′B

par restriction. C’est-à-dire, pour toute application linéaire f : V → V ′ , nous pouvons


définir ϕ(f ) : B → V ′ simplement comme

ϕ(f )(⃗e) = f (⃗e)

pour tout ⃗e ∈ B ⊂ V .
Réciproquement, nous allons définir maintenant une application ψ : V ′B → HomK (V, V ′ ).
Soit g : B → V ′ une application quelconque.
P Comme B est une base pour V , pour
tout ⃗v ∈ V , nous pouvons écrire ⃗v = i∈I vi⃗ei , où presque tous les vi ∈ K sont zéro.
Alors nous pouvons poser X
ψ(g)(⃗v ) = vi g(⃗ei ).
i∈I

Nous pouvons facilement vérifier (Exercice !) que ψ(g) est une application linéaire de
V dans V ′ .
Clairement ϕ ◦ ψ(g) = g pour tout g ∈ V ′V . Montrons que aussi ψ ◦ ϕ(f ) = f
pour tout f ∈ HomK (V, V ′ ) :
X
(ψ ◦ ϕ)(f )(⃗v ) = vi ϕ(f )(⃗ei )
i∈I
X
= vi f (⃗ei )
i∈I
!
X
= f vi⃗ei = f (⃗v )
i∈I

où nous avons utilisé que f est linéaire dans la troisième égalité. Nous pouvons conclure
que ϕ est une bijection.
Finalement, il est clair que ϕ est aussi une application linéaire (Exercice !) et donc
un isomorphisme.
CHAPITRE 3. APPLICATIONS LINÉAIRES 29

Remarque 3.11. Le résultat de la Proposition 3.10 est très important. Pas seulement,
le résultat nous dit que pour connaître une application linéaire, il suffit de connaître les
images des éléments d’une base quelconque. Aussi inversement, pour tout famille d’élé-
ments (w ⃗ i )i∈I , d’une cardinalité égale à la dimension de l’espace de départ #I = dimV ,
que nous choisissons dans l’espace d’arrivé W , il existe exactement une application li-
néaire f : V → W tel que f (⃗ei ) = w ⃗ i pour une base {⃗ei , i ∈ I} de V . Cette
observation jouera une rôle primordiale dans le chapitre suivant, quand nous allons
associer les applications linéaires avec les matrices.
Proposition 3.12. Soient V , V ′ et V ′′ des espaces vectoriels sur le corps K. Soient
f : V → V ′ et g : V ′ → V ′′ des applications linéaires. Alors g ◦ f : V → V ′′ est de
nouveau une application linéaire.
⃗ ∈ V et λ, µ ∈ K. Alors nous trouvons que
Démonstration. Soient ⃗v , w

g ◦ f (λ⃗v + µw)
⃗ = g(f (λ⃗v + µw))

= g(λf (⃗v ) + µf (w))

= λg(f (⃗v )) + µg(f (w))

= λg ◦ f (⃗v ) + µg ◦ f (w)

et donc g ◦ f est une application linéaire.


Rappelons qu’une application f : X → Y (avec X et Y des ensembles) est bijective
si et seulement si, il existe une application f −1 : Y → X tel que f ◦ f −1 = idY et
f −1 ◦ f = idX .
Théorème 3.13. Soient V et V ′ des espaces vectoriels sur le corps K et soit f : V →
V ′ un isomorphisme. Alors l’application f −1 : V ′ → V est de nouveau une application
linéaire.
Démonstration. Soient ⃗v ′ , w
⃗ ′ ∈ V ′ et λ, µ ∈ K. Alors nous trouvons que

f −1 (λ⃗v ′ + µw
⃗ ′ ) = f −1 (λf ◦ f −1 (⃗v ′ ) + µf ◦ f −1 (w ⃗ ′ ))
= f −1 ◦ f (λf −1 (⃗v ′ ) + µf −1 (w
⃗ ′ ))
= λf −1 (⃗v ′ ) + µf −1 (w⃗ ′ ).

Ici nous avons utilisé que idV ′ = f ◦ f −1 dans la première égalité, que f est une
application linéaire dans la deuxième égalité et que f −1 ◦ f = idV dans la dernière
égalité.
Le prochain résultat est immédiat, mais c’est une observation très importante.
Proposition 3.14. Soit V un espace vectoriel sur le corps K et considérons l’en-
semble Aut K (V ) de tous les automorphismes de V . Alors les conditions suivantes sont
satisfaites:
CHAPITRE 3. APPLICATIONS LINÉAIRES 30

1. Pour tout f, g ∈ Aut K (V ), la composition f ◦ g ∈ Aut K (V );


2. f ◦ (g ◦ h) = (f ◦ g) ◦ h pour tous f, g, h ∈ Aut K (V );
3. idV ∈ Aut K (V ) et idV ◦ f = f = f ◦ idV pour tout f ∈ Aut K (V );
4. pour tout f ∈ Aut K (V ), f −1 ∈ Aut K (V ) et f ◦ f −1 = idV = f −1 ◦ f .
En autres mots, Aut K (V ) est un groupe.
Chapitre 4

La matrice d’une application


linéaire

4.1 Associer une matrice à une application linéaire


Soient V et V ′ deux espaces vectoriels sur un corps K, de dimensions respectives
n et m. Soient B := {⃗b1 , . . . , ⃗bn } et B ′ := {⃗b′1 , . . . , ⃗b′m } des bases pour V et V ′
respectivement. Considérons une application linéaire f : V → V ′ .
Étant donné un vecteur ⃗v ∈ V , le but est de trouver une formule pour les coordon-
nées de f (⃗v ) dans la base B ′ en fonction de ses coordonnées dans la base B.
Soient (x1 , . . . , xn ) les coordonnées de ⃗v dans la base B, c’est-à-dire, ⃗v = ni=1 xi⃗bi .
P
On peut noter les coordonées de ⃗v dans une matrice colonne, et appeler cette matrice
[⃗v ]B comme elle dépend de ⃗v et B i.e.
 
x1
 .. 
[⃗v ]B =  .  .
xn

Similairement on peut écrire


 
x′1
[f (⃗v )]B ′ =  ...  ,
 
x′m

c’est-à-dire les coordonnées de f (⃗v ) dans la base B ′ sont (x′1 , . . . , x′m ) ce qui s’écrit
aussi m
X
f (⃗v ) = x′i⃗b′i . (4.1)
i=1

31
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 32

Comme f est une application linéaire, on trouve


n
X n
X
f (⃗v ) = f ( xi⃗bi ) = xi f (⃗bi ). (4.2)
i=1 i=1

Donc pour connaître f (⃗v ), il suffit de connaître f (⃗bi ), ∀i = 1, . . . , n. Comme f (⃗vi ) ∈


V ′ , nous pouvons l’écrire d’une et une seule façon comme combili des ⃗b′j :
m
X
f (⃗bi ) = αji⃗b′j ∀i = 1, . . . , n (4.3)
j=1

Les coefficients αji sont donc complètement déterminés par la donnée de f , B et B ′ .


Ils forment une matrice m × n qu’on note [f ]B ′ ,B , i.e.
 
α11 α12 · · · α1n
 α21 α22 · · · α2n 
[f ]B ′ ,B =  .. .. .. 
 
. .
 . . . . 
αm1 αm2 . . . αmn

Si on combine (4.2) avec (4.3), on trouve


m X
X n
f (⃗v ) = αji xi⃗b′j
j=1 i=1

Et comme B ′ est une base, on obtient après comparaison avec (4.1)


n
X
x′j = αji xi , ∀j = 1, . . . , m
i=1

ou autrement dit

[f (⃗v )]B ′ = [f ]B ′ ,B [⃗v ]B (4.4)


 
 
′ α11 α12 · · · α1n  
x1  α21 α22 · · · α2n  x1
 ..   . 
 .  =  .. .. ..   ..  .

..
. . . . 
x′m

xn
αm1 αm2 . . . αmn

Définition 4.1. La matrice [f ]B ′ ,B de l’application linéaire f : V → V ′ dans les


bases B et B ′ est le tableau de nombres (αij ) avec i = 1, . . . , m et j = 1, . . . , n, où
n = dim(V ) et m = dim(V ′ ), défini par
αij est la ie composante dans la base B ′ de l’image par f du j e vecteur de B.
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 33

Dit autrement, dans les colonnes de la matrice [f ]B ′ ,B , on retrouve les coor-


donées des images des vecteurs de la base de V , calculées dans la base de
V ′.

Exemples 4.2. 1. Soit

f : R2 → R, (x, y) 7→ f (x, y) = 3x − y.

Si B = {(1, 0), (0, 1)} et B ′ = {1} (les bases canoniques), alors f (1, 0) = 3 =
3 · 1 et f (0, 1) = −1 = −1 · 1. Donc

[f ]B ′ ,B = 3 −1 .

Si B = {(3, 1), (1, 3)} et B ′ = {2}, alors f (3, 1) = 8 = 4·2 et f (1, 3) = 0 = 0·2.
Donc 
[f ]B ′ ,B = 4 0 .
2. Considérons l’espace vectoriel réel R3 [x] des polynômes de degré 3 ou inférieur,
et l’opérateur linéaire sur cet espace donné par la dérivation:

f : R3 [x] → R3 [x], a+bx+cx2 +dx3 7→ f (a+bx+cx2 +dx3 ) = b+2cx+3dx2 .

Dans la base canonique de R3 [x], B = {1, x, x2 , x3 } cet opérateur est représenté


par la matrice suivante  
0 1 0 0
0 0 2 0
 
0 0 0 3
0 0 0 0
3. L’étirement f : R2 → R2 , (x, y) →
7 f (x, y) = (x, 3y) a pour matrice dans la
base canonique  
1 0
.
0 3
Soit (1, 1) ∈ R2 et utilisons la formule (4.4):
    
1 0 1 1
= .
0 3 1 3

Alors on obtient effectivement f (1, 1) = (1, 3).


CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 34

4.2 Correspondance entre les applications linéaires


et les matrices
Proposition 4.3. Soient V et V ′ des espaces vectoriels sur le corps K de dimension
n et m respectivement. Soient B et B ′ des bases respectives de V et V ′ . Alors,
l’application
α : HomK (V, V ′ ) → Km×n , α(f ) = [f ]B ′ ,B
est un isomorphisme d’espaces vectoriels. En particulier, dim(HomK (V, V ′ )) = nm et
[λf + µg]B ′ ,B = λ[f ]B ′ B + µ[g]B ′ B
pour tous f, g ∈ HomK (V, V ′ ) et λ, µ ∈ K.
Démonstration. Soient f, g ∈ HomK (V, V ′ ), λ, µ ∈ K et notons B = {⃗b1 , . . . , ⃗bn } et
B ′ = {⃗b′1 , . . . , ⃗b′m }. Alors [f ]B ′ B = (aij ) et [g]B ′ B = (bij ) si et seulement si
m
X m
X
f (⃗bi ) = aji⃗b′j g(⃗bi ) = bji⃗b′j .
j=1 j=1

Alors nous trouvons


(λf + µg)(⃗bi ) = λf (⃗bi ) + µg(⃗bi )
m
! m
!
X X
= λ aji⃗b′j + µ bji⃗b′j
j=1 j=1
m
X
= (λaji + µbji )⃗b′j
j=1

Cequi implique que [λf + µg]B ′ ,B = (λaij + µbij ). Alors la dernière égalité de l’énoncé
est satisfaite et donc α est une application linéaire.
Vérifions que α est bijective. L’injectivité suit du fait que par construction, [f ]B ′ ,B
est uniquement déterminée par la donnée des images des vecteurs de base. La surjec-
m×n
tivité est garantie
Pn car⃗ chaque Pn A ∈ ⃗K′
Pmmatrice définit P une application linéaire par
la formule f ( i=1 xi bi ) = j=1 i=1 aji xi bj , pour tous ni=1 xi⃗bi ∈ V , où on note
comme précédemment B = {⃗b1 , . . . , ⃗bn } et B ′ = {⃗b′1 , . . . , ⃗b′m }.
Proposition 4.4. Soient U , V et W des espaces vectoriels finidimensionnels de di-
mensions respectives n, m et p. Soient BU , BV et BW des bases respectives de ces
espaces vectoriels. Soit f ∈ HomK (U, V ) et g ∈ HomK (V, W ). Alors
[g ◦ f ]BW ,BU = [g]BW ,BV [f ]BV ,BU
C’est-à-dire, la composition des applications linéaires correspond à la multiplication des
matrices.
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 35

Démonstration. Notons les composantes de [f ]BV ,BU = A avec aij , les composantes
de [g]BW ,BV = B avec bij et les composantes de [g ◦ f ]BW ,BU = C avec cij . En
outre, posons BU = {⃗b1 , . . . , ⃗bn }, BV = {⃗b′1 , . . . , ⃗b′m } et BW = {⃗b′′1 , . . . , ⃗b′′p }. Alors,
par définition on a (comparer avec (4.3))
p
X
(g ◦ f )(⃗bi ) = cki⃗b′′k , ∀i = 1, . . . , n.
k=1

D’autre part, on a pour i = 1, . . . , n


Xm
⃗ ⃗
(g ◦ f )(bi ) = g(f (bi )) = g( aji⃗b′j )
j=1
m
X
= aji g(⃗b′j )
j=1
m p
X X
= aji bkj⃗b′′k
j=1 k=1
p m
!
X X
= bkj aji ⃗b′′k
k=1 j=1
Pm
et donc cki = j=1 bkj aji pour tout i = 1, . . . n et tout k = 1, . . . , p, c’est-à-dire
[g ◦ f ]BW ,BU = [g]BW ,BV [f ]BV ,BU .
Corollaire 4.5. Soient V et V ′ des espaces vectoriels de dimension n et B =
{⃗b1 , . . . , ⃗bn } et B ′ = {⃗b′1 , . . . , ⃗b′n } une base de V , respectivement de V ′ . Soit f ∈
HomK (V, V ′ ). Alors f est un isomorphisme ssi sa matrice est inversible. De plus, dans
ce cas, la matrice inverse est la matrice de f −1 , i.e.
[f ]−1
B ′ ,B = [f
−1
]B,B ′ .
Démonstration. Remarquons d’abord que la matrice de l’application identité idV :
V → V est donnée par la matrice unité, i.e.
 
1 0 ··· 0
0 1 · · · 0
[idV ]B,B = In =  .. .. . . ..  .
 
. . . .
0 0 ··· 1

En outre, f ∈ HomK (V, V ′ ) est un isomorphisme ssi il existe un élément f −1 ∈


HomK (V ′ , V ) tel que f ◦ f −1 = idV ′ et f −1 ◦ f = idV . Si on applique l’isomor-
phisme α de la Proposition 4.3, on trouve que ces conditions sont équivalentes à
[f ]B ′ ,B [f −1 ]B,B ′ = In = [f −1 ]B,B ′ [f ]B ′ ,B . Alors f est un isomorphisme ssi [f ]B ′ ,B est
inversible avec inverse [f −1 ]B,B ′ , ceci termine la preuve.
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 36

Soit K un corps et n ∈ N0 . Rappelons que GLn (K) dénote le groupe linéaire général
de degré n sur K :

GLn (K) = {A ∈ Kn×n | A est inversible}.

Définition 4.6. Soient G et H deux groupes, alors une application ϕ : G → H est


appelée un morphisme de groupes si

ϕ(g · g ′ ) = ϕ(g) · ϕ(g ′ )

pour tous g, g ′ ∈ G. Si ϕ est en plus bijectif, nous disons que ϕ est un isomorphisme
et que G et H sont des groupes isomorphes.

Corollaire 4.7. L’application α de la Proposition 4.3 induit un isomorphisme de


groupes
Aut K (V ) ∼
= GLn (K)
pour un espace vectoriel n-dimensionel V sur K.

4.3 Changement de base et transformation des


coordonnées
Les coordonnées d’un vecteur dans une base dépendent de ce vecteur et de la base
considérée. Si on considère deux bases différentes pour le même espace vectoriel, on
aimerait avoir une relation entre les deux tuples de coordonnées.
Soit V un espace vectoriel de dimension n. Soient B = {⃗b1 , . . . , ⃗bn } et B ′ =
{⃗b′1 , . . . , ⃗b′n } deux bases de V . Soit ⃗v ∈ V et (v1 , . . . , vn ) (resp. (v1′ , . . . , vn′ )) les
coordonnées de ⃗v dans la base B (resp. B ′ ); alors ⃗v = nj=1 vj⃗bj = ni=1 vi′⃗b′i . Les
P P
vecteurs de B ′ peuvent être exprimés en fonction des vecteurs de B :
⃗b′ = γ11⃗b1 + γ21⃗b2 + . . . + γn1⃗bn
1
..
.
⃗b′ = γ1n⃗b1 + γ2n⃗b2 + . . . + γnn⃗bn .
n

En bref, ⃗b′i = ⃗
Pn
j=1 γji bj . Les coefficients γij sont complètement déterminés par la
donnée des deux bases et constituent une matrice C = (γij ) appelée matrice de
changement de base qui fait passer de la base B à la base B ′ . Ce qui précède,
nous amène à n n n X n
X X X
⃗v = ⃗
vj bj = ′⃗ ′
vi bi = vi′ γji⃗bj .
j=1 i=1 i=1 j=1
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 37

Par l’unicité des coordonnées on obtient que


n
X
vj = γji vi′ .
i=1

On obtient ainsi la formule de changement de base ou la formule de transfor-


mation des coordonnées
[⃗v ]B = C[⃗v ]B ′ .
Remarquons que dans la formule de transformation des coordonnées, C permet de
transformer les coordonées dans B ′ en coordonnées dans B. Cette formule nous per-
met d’appeler C la matrice de transformation des coordonnées de la base B ′
à la base B (Remarquons que l’ordre des bases dans la terminologie “matrice de
transformation des coordonnées” est inversée par rapport à l’ordre dans la terminologie
“matrice de changement de base”, même qu’il s’agit de la même matrice).
On peut aussi interprêter la matrice C comme la matrice d’une application linéaire.
Effectivement, considérons l’application d’identité idV : V → V . Nous savons que la
matrice de l’application identité est la matrice identité quand nous considérons deux
fois la même base pour V (voir la démonstration de Corollaire 4.5). D’autre part, si
nous considérons deux bases différentes de V , la matrice de idV n’est plus la matrice
identité. En effet, parce que idV (⃗v ) = ⃗v pour tout ⃗v ∈ V , par (4.4), la matrice [idV ]B,B ′
est exactement la matrice qui satisfait la formule

[⃗v ]B = [idV ]B,B ′ [⃗v ]B ′

donc [idV ]B,B ′ = C.


Proposition 4.8. Soit V un espace vectoriel de dimension n. Soient B et B ′ deux
bases de V . Soit C la matrice de changement de base qui fait passer de B à B ′ . Alors
C est inversible et son inverse C −1 est la matrice qui fait passer de B ′ à B.
Démonstration. Grâce aux observations ci-dessus, on sait que C = [idV ]B,B ′ . Comme
idV est un isomorphisme (avec inverse idV ), C est inversible et C −1 = [idV ]B ′ ,B
(appliquer le Corollaire 4.5).
Proposition 4.9. Soient V et W des espaces vectoriels de dimension n et m respec-
tivement. Soit f : V → W une application linéaire. Soient B et B ′ deux bases de V
et E et E ′ deux bases de W . Posons C la matrice de changement de base de B à B ′
et D la matrice de changement de base de E à E ′ Soit A (resp. A′ ) la matrice de f
dans les base B et E (resp. B ′ et E ′ ). Alors

A′ = D−1 AC.

C’est-à-dire,
[f ]E ′ B ′ = [idW ]E ′ ,E [f ]E,B [idV ]B,B ′
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 38

Démonstration. Avec la notation introduite précédemment, on a A = [f ]EB , A′ =


[f ]E ′ B ′ , C = [idV ]B,B ′ et D = [idW ]E,E ′ (donc D−1 = [idW ]E ′ ,E ). La Proposition 4.4
implique

A′ = [f ]E ′ B ′ = [idW ◦ f ◦ idV ]E ′ B ′ = [idW ]E ′ ,E [f ]E,B [idV ]B,B ′ = D−1 AC.

Remarque 4.10. Dans le cas particulier où V = V ′ , B = E et B ′ = E ′ , on obtient


la formule A′ = C −1 AC, ou C est la matrice de changement de base de B à B ′ . Ceci
nous mène à la définition suivante.
Définition 4.11. Deux matrices carrées A et B ∈ Kn×n sont semblables s’il existe
une matrice C ∈ Kn×n inversible telle que B = C −1 AC.
La relation "être semblable" est une relation d’équivalence. Le dernier résultat de
cette section est maintenant immédiat.
Proposition 4.12. Deux matrices carrées sont semblables ssi elles représentent la
même opérateur linéaire (éventuellement dans deux bases différentes).
Proposition 4.13. Deux matrices semblables ont le même déterminant.
Démonstration. Si A et B sont deux matrices semblables, alors il existe une matrice
inversible C telle que A = C −1 BC. Alors comme le déterminant d’un produit de
matrices est le produit des déterminants, nous trouvons :

det (A) = det (C −1 BC) = det (C −1 )det (B)det (C) ∈ K

et comme la multiplication dans K est commutative, nous trouvons

det (A) = det (C −1 )det (B)det (C) = det (C −1 )det (C)det (B) = det (B),

où nous avons utilisé que det (C −1 ) = det (C)−1 .


Les deux dernières propositions mènent directement à la propriété suivante.
Corollaire 4.14. Le déterminant de la matrice d’une application linéaire f : V → V ,
où V est un espace vectoriel finidimensionnel, est indépendant du choix de la base
B de V qui est utilisé pour calculer la matrice de f . Ceci nous permet de parler du
déterminant de f .
Remarque 4.15. Dans le cours MathF121, nous avons vu la méthode de Gauss pour
transformer une matrice arbitraire en forme échelonnée. Soit A ∈ Kn×m une matrice
quelconque, alors nous pouvons interpréter A comme la matrice d’une application
linéaire f : Km → Kn par rapport aux bases canoniques. Dans la méthode de Gauss,
nous appliquons des transformations élémentaires des lignes. Nous avons vu qu’une
CHAPITRE 4. LA MATRICE D’UNE APPLICATION LINÉAIRE 39

telle transformation correspond à multiplier la matrice A à gauche avec une matrice


élémentaire E ∈ Kn×n . Cette matrice élémentaire est une matrice inversible et donc
correspond avec une automorphisme ϕ : Kn → Kn . Nous pouvons interpréter cette
matrice comme une matrice de changement de base pour l’espace Kn . En effet, les
trois types de matrices élémentaires, correspondent avec trois types de “changements
élémentaires de base”:

Matrice de transposition Ti,j ↔ échanger 2 vecteurs de base


Matrice diagonale Di (λ) ↔ multiplier un vecteur de base avec un scalaire
non-nulle
Matrice de transvection Ei,j (λ) ↔ additionner un vecteur de base avec une mul-
tiple d’un autre vecteur de base

Effectuer plusieurs transformations élémentaires des lignes pendant la méthode de


Gauss revient alors à un changement de base de l’espace d’arrivé Kn . Soit A′ la forme
échelonnée de la matrice A. Alors A = [f ]E,B , où B est toujours la base canonique de
Km et E est une nouvelle base de Kn . Les premiers éléments de la base E, qui corres-
pondent avec les (premiers) lignes non-nulles dans la matrice A′ en forme échelonnée,
forment alors une base pour l’image de l’application f . Nous allons étudier l’image
d’une application linéaire plus en détail dans le Chapitre 6.
Chapitre 5

La somme directe et le produit


direct

5.1 Produit direct et somme directe


Pour des sous-espaces U, W d’un espace vectoriel V , nous définissons leurs somme
comme
U + W = {⃗u + w ⃗ | ⃗u ∈ U, w
⃗ ∈ W} ⊂ V
Lemme 5.1. Soit V un espace vectoriel et U, W des sous-espaces de V . Alors

U + W = Vect(U ∪ W )

et donc U + W est le plus petit sous-espace de V qui contient U et W .


Démonstration. Tout élément ⃗v ∈ Vect(U ∪W ) s’écrit comme une combinaison linéaire
X
⃗v = λi⃗vi
i

pour certains ⃗vi ∈ U ∪W et λi ∈ R. Comme U et W sont eux-même des sous-espaces,


une combinaison linéaire d’élements de U (resp. de W ) est de nouveau un élément de
U (resp. de W ). Nous pouvons donc regrouper les termes dans la combili afin d’écrire
⃗ pour un certain ⃗u ∈ U et un certain w
⃗v = ⃗u + w ⃗ ∈ W . Donc Vect(U ∪ W ) ⊂ V + W .
À l’inverse, soient →−
u ∈ U ⊂ Vect(U ∪ W ) et → −w ∈ W ⊂ Vect(U ∪ W ), alors

− →

u + w ∈ Vect(U ∪ W ) comme Vect(U ∪ W ) est un sous-espace de V . Donc on a
aussi V +W ⊂ Vect(U ∪W ) et nous pouvons conclure que V +W = Vect(U ∪W ).
Définition 5.2. Considérons un espace vectoriel V sur un corps K. Soient U et W
deux sous-espaces de V . Nous disons que V est la somme directe de U et W si et
seulement si les deux conditions suivantes sont satisfaites:
(1) U ∩ W = {⃗0};

40
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 41

(2) U + W = V .
Nous notons V = U ⊕ W .

Le nom ‘somme directe’ est motivé par le résultat suivant.

Proposition 5.3. V est la somme directe de U et W si et seulement si tout élément


de V s’écrit d’une manière unique comme une somme d’un élément de U et d’un
élément de W . En autres mots:

V = U ⊕ W ⇔ ∀⃗v ∈ V, ∃!⃗u ∈ U, ∃!w


⃗ ∈ W : ⃗v = ⃗u + w.

Démonstration. Supposons que V = U ⊕ W . Alors comme U + W = V , tout élément


⃗ pour certain ⃗u ∈ U et w
⃗v de V s’écrit comme ⃗v = ⃗u + w ⃗ ∈ W . Supposons maintenant
que
⃗ = ⃗u′ + w
⃗v = ⃗u + w ⃗′
pour une autre paire ⃗u′ ∈ U et w
⃗ ′ ∈ W . Alors

⃗u − ⃗u′ = w
⃗ ′ − w.

Le côté gauche de cette équation est une combili d’éléments de U et donc appartient
à U . Le côté droit est une combili d’éléments de W et donc appartient à W . Nous
pouvons conclure que ⃗u − ⃗u′ = w ⃗ ∈ U ∩ W = {⃗0} donc ⃗u − ⃗u′ = w
⃗′ − w ⃗′ − w⃗ = ⃗0 et
′ ′
donc ⃗u = ⃗u et w ⃗ =w ⃗.
Réciproquement, si tout élément de V s’écrit d’une manière unique comme une
somme d’un élément de U et d’un élément de W , nous avons directement que V =
U + W . Supposons maintenant que ⃗v ∈ U ∩ W . Alors il suit que les paires (⃗v , ⃗0) et
(⃗0, ⃗v ) appartiennent toutes les deux à U × W et satisfont ⃗v = ⃗v + ⃗0 = ⃗0 + ⃗v . Ceci
contredit l’unicité dans l’énoncé sauf si ⃗v = ⃗0. Donc U ∩ V = {⃗0}.

Exemples 5.4. 1. Tout espace V est la somme directe de ces sous-espaces triviaux

0 = {0} et V : V = V ⊕ 0.
2. Considérons l’espace R3×3 des matrices carrées réelles de taille 3×3. Considérons
le sous-espace D des matrices diagonales et le sous-espace U des matrices qui
n’ont que des zéros sur la diagonale. Alors R3×3 = D ⊕ U . Concrètement, nous
pouvons écrire tout matrice comme une somme:
     
a b c a 0 0 0 b c
 d e f  =  0 e 0  +  d 0 f .
g h i 0 0 i g h 0

3. L’espace des polynômes R[X] est la somme directe du sous-espace des polynômes
avec que des termes de degré paire et le sous-espace des polynômes avec que
des termes de degré impair.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 42

Proposition 5.5. Soient V et W deux espaces vectoriels sur un corps K. Considérons


l’ensemble V × W , qui a comme éléments tous les couples (⃗v , w),
⃗ avec ⃗v ∈ V et
w⃗ ∈ W , muni des opérations suivantes:

⃗ + (⃗v ′ , w
(⃗v , w) ⃗ ′ ) = (⃗v + ⃗v ′ , w ⃗ ′)
⃗ +w
λ(⃗v , w)⃗ = (λ⃗v , λw) ⃗

pour tous ⃗v , ⃗v ′ ∈ V , w,
⃗ w⃗ ′ ∈ W et λ ∈ K. Alors V × W est un espace vectoriel sur K.
Démonstration. Exercice.
L’espace vectoriel V × W est appelé le produit direct de V et W . Les notions de
produit direct et de somme directe sont fortement liées par le théorème suivant.
Théorème 5.6. Considérons un espace vectoriel V avec des sous-espaces U et W tel
que V = U ⊕ W . Alors l’application linéaire

f : U × W → V, f (⃗u, w)
⃗ = ⃗u + w

est une isomorphisme. Par conséquence, nous trouvons que

U ×W ∼
= U ⊕ W.

Démonstration. Nous pouvons facilement vérifier que f est linéaire. La Proposition 5.3
dit exactement que f pour tout ⃗v ∈ V , il existe un unique couple (⃗u, w)
⃗ ∈ U × W tel
que ⃗v = ⃗u + w ⃗ c’est-à-dire que f est une bijection. Alors f : U × W →
⃗ = f (⃗u, w),
V = U ⊕ W est un isomorphisme.
Soit V un espace qui est une somme directe de deux sous-espaces W1 et U1 .
Supposons que U1 est lui-même une somme directe de deux sous-espaces W2 et U2 .
De nouveau, il est possible que U2 soit une somme directe d’autres sous-espaces et
nous arrivons après un nombre fini d’étappes à la proposition et définition suivante.
Proposition 5.7. Soit V un espace vectoriel avec des sous-espaces W1 , W2 , . . . , Wn .
Alors les assertions suivantes sont équivalentes :
(i) V = Vect(∪ni=1 Wi ) et Wi ∩ Vect(∪nj̸=i Wj ) = {⃗0} pour tout i = 1, . . . , n;
(ii) ∀⃗v ∈ V , ∃!w
⃗ i ∈ Wi (pour i = 1, . . . , n) tels que ⃗v = w ⃗ n.
⃗1 + . . . w
Dans ce cas, nous disons que V est la somme directe des espaces W1 , W2 , . . . , Wn
et nous notons
V = W1 ⊕ · · · ⊕ Wn .
Démonstration. Exercice.
Il est même possible de généraliser la proposition pour le cas d’une infinité de
sous-espaces.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 43

Proposition 5.8. Soit V un espace vectoriel avec une famille sous-espaces (Wi )i∈I , où
I est un ensemble arbitraire d’indices. Alors les assertions suivantes sont équivalentes
(i) V = Vect(∪i∈I Wi ) et et Wi ∩ Vect(∪j̸=i Wj ) = {⃗0} pour tous i ∈ I.
(ii) ∀⃗v ∈ V , ∃!w⃗ i ∈ Wi (pour ⃗ i = ⃗0 pour tous i ∈ I sauf un nombre
P i ∈ I) tel que w
fini d’indices et ⃗v = i∈I w⃗ i.
Dans ce cas, nous disons que V est la somme directe des espaces (Wi )i∈I et nous
notons M
V = Wi .
i∈I
P
Remarquons que la somme i∈I ⃗ i fait du sens, comme il n’y a qu’un nombre fini
w
de termes non-nuls.

Exemple 5.9. Définissons pour tout i ∈ N le sous-espace R(i) [X] = {aX i | a ∈ R} ⊂


R[X]. Alors M
R[X] = R(i) [X].
i∈N

Il est également possible de généraliser le produit direct.

Proposition 5.10. Soient V1 , . . . , Vn des espaces vectoriels sur K. Alors l’ensemble

V1 × · · · × Vn = {(⃗v1 , . . . , ⃗vn ) | ⃗vi ∈ Vi , i = 1, . . . , n}

muni des opérations

(⃗v1 , . . . , ⃗vn ) + (⃗v1′ , . . . , ⃗vn′ ) = (⃗v1 + ⃗v1′ , . . . , ⃗vn + ⃗vn′ )


λ(⃗v1 , . . . , ⃗vn ) = (λ⃗v1 , . . . , λ⃗vn )

est un espace vectoriel sur K, appelé le produit direct des espaces V1 , . . . , Vn .

Pour un nombre infini d’espaces, le produit direct se généralise de deux manières


différentes.

Proposition 5.11. Soit (Vi )i∈I une famille d’espaces vectoriels sur K, où I est un
ensemble arbitraire d’indices. Alors l’ensemble
Y
Vi = {(⃗vi )i∈I | ⃗vi ∈ Vi , ∀i ∈ I}
i∈I

muni des opérations

(⃗vi )i∈I + (⃗vi′ )i∈I = (⃗vi + ⃗vi′ )i∈I


λ(⃗vi )i∈I = (λ⃗vi )i∈I
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 44

est un espace vectoriel sur K, appelé le produit direct des espaces (Vi )i∈I .
Le sous-ensemble
a Y
Vi = {(⃗vi )i∈I ∈ Vi | ⃗vi = ⃗0, sauf pour un nombre fini d’indices}
i∈I i∈I
Q
est un sous-espace de Vi que nous appelons le coproduit des espaces (Vi )i∈I .
i∈I
L
Remarque 5.12. Soit V = i∈I Wi . Il est possible de généraliser le Théorème 5.6
pour une nombre infini d’espaces vectoriels et donc obtenir un isomorphisme naturel

Wi ∼
a M
= Wi .
i∈I i∈I

C’est pourquoi les terminologies "somme directe" et "coproduit" sont parfois confon-
dus.

5.2 Espaces infinidimensionnels


Bien que nous alons étudier surtout des espaces vectoriels finidimensionnels dans
ce cours, les espaces vectoriels de dimension infinie jouent un rôle important dans
beaucoup de domaines des mathématiques. Nous avons déjà rencontré l’exemple R[X]
des polynômes de degrée arbitraire, qui forment un espace vectoriel infinidimensionnel.
D’autres exemples, qui sont importants pour le cours d’analyse sont l’espace C 0 (R, R)
des fonctions réelles continues et l’espace P(−π, π) des fonctions réelles périodiques
avec une période 2π.
Notre prochain but est de montrer que le résultat de Corollaire 2.19 reste valable en
dimension infinie. Pour cette démonstration, nous devons utiliser un axiome non-trivial
de la théorie des ensembles.

Axiome 5.13 (Axiome du choix). Soit (Si )i∈I une famille d’ensembles non-vide, alors
le produit cartésien de cette famille d’ensembles est de nouveau non-vide.

L’axiome de choix nous dit donc que pour chaque famille (Si )i∈I d’ensembles non-
vides, il existe une famille d’éléments (xi )i∈I tels que xi ∈ Si . Autrement dit, nous
pouvons "choisir" exactement un élément dans chacun des ensembles dans la famille
d’ensembles, même s’il s’agit d’une infinité d’ensembles. Bien que l’assertion de cet
axiome puisse paraître triviale à première vue, elle ne l’est pas du tout. En effet,
beaucoup de théorèmes importants dépendent fortement de cet axiome ou sont même
équivalents à cet axiome. Pour cette raison, même s’il est possible de développer une
théorie mathématique sans l’axiome de choix, dans la pratique ce n’est presque jamais
fait. Pour la proposition suivante, on a besoin d’une proposition qui est équivalente
avec l’axiome de choix et qui est connue comme le lemme de Zorn.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 45

Lemme 5.14 (Zorn). Soit (T, ≤) un ensemble non-vide partiellement ordonné, tel
que toute chaîne totalement ordonnée possède un majorant. Alors T possède au moins
un élément maximal.

Rappelons qu’un ensemble (T, ≤) est appelé partiellement ordonné si ≤ est une
relation réflexive (i.e. ∀x ∈ T , x ≤ x), transitive (i.e. ∀x, y, z ∈ T , si x ≤ y et y ≤ z,
alors x ≤ z) et antisymétrique (i.e. ∀x, y ∈ T , si x ≤ y et y ≤ x alors x = y) sur T .
Une chaîne totalement ordonnée est un sous-ensemble S ⊂ T tel que pour tous
x, y ∈ S soit x ≤ y, soit y ≤ x. Un majorant pour une chaîne S, est un élément
t ∈ T tel que x ≤ t pour tout x ∈ S. Un élément t ∈ T est appelé maximal si pour
tout x ∈ T , t ≤ x implique que t = x.

Théorème 5.15. Tout espace vectoriel possède une base.

Démonstration. Soit V un espace vectoriel et considérons l’ensemble T de tous les


sous-ensembles libres de V . Alors T est partiellement ordonné par l’inclusion des en-
sembles (pour deux parties libres A, B ∈ T , nous disons que A est plus petit que
B si A ⊆ B). Soit S ⊂ T une chaine totalement ordonnée de T . Alors considérons
l’ensemble A = ∪B∈S B, i.e. la réunion de tous les éléments dans S. Alors A, étant
une réunion de sous-ensembles de V est de nouveau un sous-ensemble de V . Montrons
que A est lui-même une partie libre, i.e. A ∈ T . Supposons que

λ1⃗v1 + . . . + λn⃗vn = ⃗0

pour certains ⃗vi ∈ A et λi ∈ K. Alors il existe des parties libres B1 , . . . Bn ∈ S telles que
⃗vi ∈ Bi , i = 1, . . . , n. Comme S est totalement ordonné, il existe un ensemble Bi (avec
i ∈ {1, . . . , n}) tel que Bj ⊂ Bi pour tout j ∈ {1, . . . , n}. Donc {⃗v1 , . . . , ⃗vn } ⊂ Bi et
comme Bi est libre, il suit que λ1 = . . . = λn = 0, et nous pouvons conclure que A
est libre.
Comme A est la réunion de tous les éléments de S, il suit que B ⊂ A pour tout
B ∈ S. Donc A est un majorant pour S. Nous pouvons donc appliquer le Lemme de
Zorn, et donc il existe un élément B ∈ T qui est maximal.
Nous revendiquons que B est une base pour V . Par construction, B ∈ T et donc
B est libre. Nous devons encore montrer que B est aussi génératrice. Supposons que
ce n’est pas le cas, alors il existe un élément ⃗v ∈ V tel que ⃗v ∈ / Vect(B). Alors par
la Proposition 2.11(iv) nous savons que B ∪ {⃗v } est aussi une partie libre de V . Mais
alors B ∪ {⃗v } ∈ T et B ⊊ B ∪ {⃗v }, ce qui est en contradiction avec la maximalité de
B.

Remarque 5.16. Il est possible de généraliser plusieurs autres résultats de la Sec-


tion 2.2 vers le cas des espaces de dimension arbitraire. Par exemple, nous pouvons
adapter la preuve du Théorème 5.15 pour montrer que toute partie libre est contenue
dans une base (Exercice !) et que tout partie génératrice contient une base.
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 46

Aussi le résultat du Théorème 2.22 reste valable en dimension infinie. Dans le cas
infini, le “nombre” d’éléments d’une base doit être interpreté comme le cardinal de la
base. Le résultat dit alors qu’il existe toujours une bijection entre 2 bases du même
espace vectoriel.

5.3 Coordonnées, produits et coproduits revisités


Théorème 5.17 (propriété universelle du produitQdirect). Soit (Vi )i∈I une famille
d’espaces vectoriels sur un corps K et soit V = i∈I Vi le produit direct de cette
famille. Alors pour tout j ∈ I, il y a un épimorphisme πj : V → Vj , πj ((⃗vi )i∈I ) = ⃗vj ,
appelé la projection sur le j-ième composante.
En outre, pour tout espace vectoriel T et toute famille d’applications linéaires
(τj : T → Vj )j∈I , il existe une unique application linéaire u : T → V , telle que
τj = πj ◦ u pour tout j ∈ I.

∃!u /
Q
T i∈I Vi

∀τj πj
 |
Vj

Démonstration. Nous laissons comme exercice de vérifier que les applications πj sont
K-linéaires et surjectives.
Soient (T, (τj )j∈I ) comme dans l’énoncé du théorème et soit u : T → V , telle
que τj = πj ◦ u pour tout j ∈ I. Alors pour un ⃗t ∈ T quelconque, si on dénote
u(⃗t) = (⃗vi )i∈I , alors pour tout j ∈ I, nous trouvons que

⃗vj = πj ((⃗vi )i∈I ) = πj ◦ u(⃗t) = τj (⃗t).

C’est-à-dire u : T → V est donnée par

u(⃗t) = (τi (⃗t))i∈I

pour tout ⃗t ∈ T . Réciproquement, nous pouvons vérifier que l’application u définie


précédemment est toujours une application linéaire. Ceci montre donc l’existence et
l’unicité de l’application linéaire u.

Théorème 5.18 (propriété universelle` du coproduit). Soit (Vi )i∈I une famille d’espaces
vectoriels sur un corps K et soit V = i∈I Vi le coproduit de cette famille. Alors pour
tout j ∈ I, il y a un monomorphisme ιj : Vj → V, ιj ((⃗v ) = (⃗vi )i∈I ), avec ⃗vj = ⃗v et
⃗vi = ⃗0 pour tout i ̸= j.
En outre, pour tout espace vectoriel T et tout famille d’applications linéaires (θj :
Vj → T )j∈I , il existe une unique application linéaire u : V → T , telle que θj = u ◦ ιj
CHAPITRE 5. LA SOMME DIRECTE ET LE PRODUIT DIRECT 47

pour tout j ∈ I.
Vj
∀θj ιj

Q#
To
∃!u
i∈I Vi

Démonstration. La démonstration est analogue à celle deuThéorème 5.17. Nous don-


nons la forme de l’application u est laissons tous les autres détails comme exercice.
Donnés T et θj comme dans l’énoncé, nous définissons pour tout ⃗v = (⃗vj )j∈I ∈ V ,
X
u(⃗v ) = θj (⃗vj ).
j∈I

Remarquons que par définition du coproduit, presque tout ⃗vj est nul et donc la somme
dans la formule pour u(⃗u) est toujours une somme finie.

Proposition 5.19. Soit V un espace vectoriel sur un corps K avec une base B.
Considérons pour tout ⃗b ∈ B l’espace vectoriel Vect(⃗b) ∼
= K. Alors V est isomorphe au

coproduit de la famille (Vect(b))⃗b∈B . En d’autres mots : V est isomorphe au coproduit
de |B| copies de K.
En particulier, si V est finidimensionnel avec dimV = n alors V ∼ = Kn .
Démonstration. Soit ⃗v un vecteur de V , par la Proposition 2.15, il existe une P unique
famille (λ⃗b )⃗b∈B avec λ⃗b ∈ K telle que presque tous les λ⃗b sont nuls et ⃗v = ⃗b∈B λ⃗b⃗b.
Ceci dit exactement que le morphisme
a
V → Vect(⃗b), ⃗v 7→ (λ⃗b⃗b)⃗b∈B
⃗b∈B

est bijectif.
`
Remarquons que l’isomorphisme V → B K envoie un vecteur ⃗v ∈ V sur ses
coordonnées dans le base B.
Chapitre 6

Noyau et Image

6.1 Le rang d’une matrice


Définition 6.1. Soit A ∈ Kn×m une matrice à n lignes et m colonnes sur le corps K.
1. Le rang de colonne de A, noté comme rgcol A, est la dimension du sous-espace
de Kn×1 engendré par les colonnes de A. Nous appelons cet espace l’espace
des colonnes de A
2. Le rang de ligne de A, noté comme rglig A, est la dimension du sous-espace
de K1×m engendré par les lignes de A. Nous appelons cet espace l’espace des
lignes de A.

Exemples 6.2. Soient


   
1 1 1 1 1 0 3  
1 0 0 0 0
 2 2 2 2   3 0 −1 
A= 3 3 3 3
, B=
 3
, C =  0 1 0 0 0 .
 0 4 
0 0 1 0 0
4 4 4 4 1 0 1

Alors

rgcol A = 1 = rglig A,
rgcol B = 2 = rglig B,
rgcol C = 3 = rglig C.

Nous voyons que dans tous les exemples le rang de colonne et le rang de lignes coïn-
cident. Ceci n’est pas une coïncidence, le but principal de cette section est exactement
de démontrer ce résultat.
Les résultats de Section 2.3 nous permettent de reformuler la définition du rang en
termes de vecteurs linéairement indépendants à la place de vecteurs générateurs.

48
CHAPITRE 6. NOYAU ET IMAGE 49

Lemme 6.3. Soit A ∈ Kn×m . Le rang de colonne de A est exactement le nombre


maximal de colonnes de A qui sont linéairement indépendantes. Le rang de ligne de A
est exactement le nombre maximal de lignes de A qui sont linéairement indépendantes.
Démonstration. Suit directement du fait que la dimension d’un espace vectoriel finidi-
mensionnel est le nombre maximal de vecteurs libres.
Remarquons qu’un tuple maximal de colonnes (respectivement lignes) linéairement
indépendantes d’une matrice A forme une base pour l’espace des colonnes (respecti-
vement lignes) de A.
Notation 6.4. Soit A ∈ Kn×m une matrice. Notons avec A1− , . . . , An− les matrices
lignes de A et avec A|1 , . . . , A|m les matrices colonnes de A.
Exemple 6.5. Soit  
1 2 3
 4 5 6 
A=
 7
.
8 9 
0 1 2
Alors nous notons

A1− = 1 2 3

A2− = 4 5 6

A3− = 7 8 9

A4− = 0 1 2

et      
1 2 3
 4   5   6 
A|1 =  
 7  A|2 =  
 8  A|3 = 
 9 .

0 1 2
Observation 6.6. Considérons de nouveau une matrice A ∈ Kn×m et soit B ∈ Kn×1
une matrice colonne. Supposons que la matrice colonne B est une combinaison linéaire
de certaines colonnes A|i1 , . . . , A|ik de A (avec i1 , . . . , ik ∈ {1, . . . , m}), c’est-à-dire

λi1 A|i1 + . . . + λik A|ik = B.

Considérons maintenant la matrice colonne M = (mi ) ∈ Km×1 définie par mi = λi si


i ∈ {i1 , . . . , ik } et mi = 0 autrement. Alors nous trouvons que

AM = λi1 A|i1 + . . . λik A|ik = B

Nous pouvons donc exprimer une combinaison linéaire des colonnes de la matrice A
comme le produit de la matrice A avec une matrice colonne.
CHAPITRE 6. NOYAU ET IMAGE 50

De la même façon, considérons une matrice ligne C ∈ K1×m qui est une combinai-
son linéaire des matrices lignes Aj1 − , . . . , Ajℓ − de A:

µj1 Aj1 − + . . . + µjℓ Ajℓ − = C

pour certains µj1 , . . . , µjℓ ∈ K et j1 , . . . , jℓ ∈ {1, . . . , n}. Soit N = (nj ) ∈ K1×n la


matrice ligne donnée par nj = µj si j ∈ {j1 , . . . , jℓ } et nj = 0 autrement. Alors nous
trouvons que
N A = µj1 Aj1 − + . . . + µjℓ Ajℓ − = C.
Nous pouvons donc exprimer une combinaison linéaire des lignes de la matrice A comme
le produit d’une matrice ligne avec la matrice A.
Lemme 6.7. Soient A ∈ Kn×m et B ∈ Km×p , alors
(i) rgcol (AB) ≤ rgcol (B);
(ii) rglig (AB) ≤ rglig (B);
Démonstration. (i). Soient i1 , . . . , ik ∈ {1, . . . , p} et supposons que les colonnes
(AB)|i1 , . . . , (AB)|ik de AB sont linéairement indépendantes. Nous allons montrer
que les colonnes B|i1 , . . . , B|ik de B sont aussi linéairement indépendantes. Supposons
qu’il existe une combinaison linéaire de ces colonnes de B qui vaut zéro. Alors grâce
à l’Observation 6.6 ceci veut dire qu’il existe une matrice colonne M = (mi ) ∈ Kp×1
telle que
BM = Om,1
avec mi = 0 pour tout i ∈/ {i1 , . . . , ik }. Si nous multiplions cette égalité matricielle à
gauche par la matrice A, nous trouvons

ABM = AOm,1 = On,1 .

Mais, de nouveau par l’Observation 6.6, ceci veut dire qu’une combinaison linéaire
des colonnes (AB)|i1 , . . . , (AB)|ik vaut zéro. Comme ces colonnes sont linéairement
indépendantes, il suit que tous les coéfficients doivent être zéro, donc M = Op,1 et
les colonnes B|i1 , . . . , B|ik sont aussi linéairement indépendantes. Par le Lemme 6.3, il
suit que rgcol (AB) ≤ rgcol (B).
(ii). Supposons que une matrice ligne C ∈ K1×p est une combinaison linéaire des lignes
de la matrice AB. Par l’Observation 6.6, ceci implique qu’il existe une matrice ligne
N ∈ K1×n telle que
N AB = C.
Soit N ′ = N A ∈ K1×m . Alors nous trouvons que N ′ B = C et donc de nouveau
l’Observation 6.6 implique que C est aussi une combinaison linéaire des lignes de B.
Nous trouvons donc que l’espace engendré par les lignes de la matrice AB est un
sous-espace de l’espace engendré par les lignes de B. Par conséquence, rglig (AB) ≤
rglig (B).
CHAPITRE 6. NOYAU ET IMAGE 51

Lemme 6.8. Soit A ∈ Kn×m une matrice quelconque et M ∈ Kn×n une matrice
inversible. Alors rgcol (A) = rgcol (M A) et rglig (A) = rglig (M A).

Démonstration. Soit B = M A alors M −1 B = A. Il suffit d’appliquer le Lemme 6.7


deux fois pour trouver que les rangs de A et B sont égaux.

Lemme 6.9. Soit A une matrice échelonnée réduite. Alors rgcol (A) = rglig (A).

Démonstration. Considérons une ligne non-nulle dans la matrice A. Comme A est en


forme échelonnée réduite, le premier élément non-nul de cette ligne non-nulle vaut 1,
et pour toutes les autres lignes, la composante dans la même colonne vaut 0. De cette
observation, il est clair que les lignes non-nulles de A sont linéairement indépendantes,
et donc le rang de ligne de A est égal au nombre de lignes non-nulles. Considérons pour
chaque ligne non-nulle la colonne correspondante au premier élément non-nul sur cette
ligne (remarquons que cet élément non-nul vaut 1 comme A est en forme échelonnée
réduite). Ces colonnes ne contiennent que des zéros pour les autres composantes, et
donc sont aussi linéairement indépendantes et forment une base pour les l’espace des
colonnes de A. Comme pour toute ligne non-nulle nous avons pris exactement une
colonne de A, il suit que rgcol (A) = rglig (A).

Théorème 6.10. Pour tout matrice A, le rang de colonne est égal au rang de ligne.

Démonstration. Par la méthode de Gauss, il existe une matrice inversible E = (eij ) ∈


Kn×n telle que la matrice A′ = EA est en forme échelonnée réduite. Par le Lemme 6.8,
il suit que A et EA ont les mêmes rangs de colonnes et de lignes. Du Lemme 6.9 il
suit que ces rangs sont égaux comme EA est en forme échelonnée réduite. En bref :

rgcol (A) = rgcol (EA) = rglig (EA) = rglig (A).

Définition 6.11. Grâce au Théorème 6.10, nous pouvons parler du rang d’une ma-
trice, sans spécifier si c’est le rang de colonne ou le rang de ligne. Nous notons le rang
de la matrice A simplement par rg(A).
Nous disons qu’une matrice A ∈ Kn×m est de rang maximal si et seulement si
rg(A) = min(n, m).

Remarquons que les démonstrations du Théorème 6.10 et du Lemme 6.9 nous


donnent une méthode pour calculer le rang d’une matrice. Il suffit de chercher la forme
échelonnée par la méthode de Gauss et de compter le nombre de lignes non-nulles.

Proposition 6.12. Soit A ∈ Kn×n une matrice carrée. Alors A est de rang maximal
si et seulement si A est inversible (donc si et seulement si le déterminant de A est
non-nul).
CHAPITRE 6. NOYAU ET IMAGE 52

Démonstration. Nous savons que la forme echelonnée réduite d’une matrice A est égale
à la matrice identité si et seulement si A est inversible, et que la forme échelonnée
réduite a au moins une ligne nulle si et seulement si A est non-inversible. Ceci combiné
avec les observations précédentes nous permettent de conclure directement le résultat.

La proposition précédente montre que la notion de rang est fortement liée avec
la notion du déterminant. Pour mieux comprendre ce lien, nous devons introduire la
notion suivante.

Définition 6.13. Soit A ∈ Kn×m une sous-matrice de A est une matrice obtenue
en supprimant quelques lignes et/ou colonnes de la matrice A.

Proposition 6.14. Le rang d’une matrice A ∈ Kn×m est le nombre naturel maximal
r tel que A contient une sous-matrice inversible de taille r × r.

Démonstration. À nouveau, cette observation est claire si la matrice A est en forme


échelonnée. Les résultats de cette section nous permettent de conclure la même chose
pour des matrices arbitraires.

6.2 Noyau et image


Définition 6.15. Soient V et V ′ des espaces vectoriels sur le corps K et soit f : V →
V ′ une application linéaire.
1. Le noyau de f , noté comme Ker f (noyau en Anglais est kernel), est l’ensemble
de tous les vecteurs de V qui sont envoyés sur ⃗0 par f .

Ker f = {⃗v ∈ V | f (⃗v ) = ⃗0} ⊂ V.

2. L’image de f , noté comme Im f , est l’ensemble de tous les vecteurs de V ′ qui


sont l’image un vecteur de V par f .

Im f = {f (⃗v ) | ⃗v ∈ V } ⊂ V ′ .

Proposition 6.16. Soient V et V ′ des espaces vectoriels sur le corps K et soit f :


V → V ′ une application linéaire.
(i) Pour tout sous-espace W ⊂ V , l’image directe de W , f (W ) = {f (w) ⃗ |w⃗ ∈ W },

est un sous-espace de V . En particulier, l’image de f , Im f , est un sous-espace
de V ′ .
(ii) Pour tout sous-espace W ′ ⊂ V ′ , l’image inverse de W ′ , f −1 (W ′ ) = {⃗v ∈
V | f (⃗v ) ∈ W ′ } est un sous-espace de V . En particulier, le noyau de f , Ker f ,
est un sous-espace de V .
CHAPITRE 6. NOYAU ET IMAGE 53

Démonstration. (i). Soient f (w), ⃗ f (w ⃗ ′ ) ∈ f (W ), c’est-à-dire w, ⃗ w⃗ ′ ∈ W , et λ, µ ∈ K.


Comme W est un sous-espace vectoriel, λw ⃗ + µw ⃗ ′ ∈ W et donc λf (w) ⃗ + µf (w ⃗ ′) =

f (λw⃗ + µw ⃗ ) ∈ f (W ). La deuxième partie suit en prenant W = V .
(ii). Soient ⃗v , ⃗v ′ ∈ f −1 (W ′ ), c’est-à-dire f (⃗v ), f (⃗v ′ ) ∈ W ′ , et λ, µ ∈ K. Comme W ′
est un sous-espace vectoriel, λf (⃗v ) + µf (⃗v ′ ) = f (λ⃗v + µ⃗v ′ ) ∈ W ′ et donc λ⃗v + µ⃗v ′ ∈
f −1 (W ′ ). La deuxième partie suit en prenant W ′ = {⃗0}.
Le théorème suivant est un des théorèmes les plus importants de ce cours.
Théorème 6.17. Soient V et V ′ des espaces vectoriels sur le corps K. Une application
linéaire f : V → V ′ est un monomorphisme (c’est-à-dire, f est injective) si et seulement
si
Ker f = 0,
c’est-à-dire, le noyau de f est l’espace zéro.
Démonstration. Supposons d’abord que f est injective et soit ⃗v ∈ Ker f . Alors f (⃗v ) =
⃗0 = f (⃗0). Comme f est injective, ceci implique que ⃗v = ⃗0 et donc Ker f = {⃗0}.
⃗ ∈ V tel que f (⃗v ) = f (w)
À l’inverse, supposons que Ker f = 0 et soient ⃗v , w ⃗ alors
f (⃗v − w)
⃗ = f (⃗v ) − f (w) ⃗
⃗ = 0. Donc ⃗v − w
⃗ ∈ Ker f = 0, ce qui implique ⃗v − w ⃗ = ⃗0.
Nous pouvons conclure que ⃗v = w ⃗ et donc f est injective.
Le résultat suivant est immédiat.
Lemme 6.18. Soient V et V ′ des espaces vectoriels sur le corps K et soit f : V → V ′
une application linéaire. Considérons des sous-espaces W ⊂ V ′ et W ′ ⊂ V ′ tels que
Im f ⊂ W ′ .
(i) L’application f|W : W → V ′ , définie comme f|W (w) ⃗ = f (w)⃗ pour tout w ⃗ ∈W
est de nouveau une application linéaire, appelée la restriction de f à W . Souvent
nous notons la restriction d’une application linéaire à un sous-espace de nouveau
par f .
′ ′
(ii) L’application f |W : V → W ′ définie comme f |W (⃗v ) = f (⃗v ) pour tout ⃗v ∈ V
est de nouveau une application linéaire, appelée la corestriction de f à W ′ .
Souvent nous notons la corestriction d’une application linéaire à un sous-espace
de nouveau par f .
Lemme 6.19. Soit f : V → V ′ une application linéaire et G ⊂ V une partie généra-
trice de V . Alors f (G) est une partie génératrice de Im f .

P f (⃗v ) ∈ Im f . Comme G est génératrice de V et ⃗v ∈ V , nous


Démonstration. Soit
trouvons que ⃗v = ni=1 λi⃗vi pour certains ⃗vi ∈ G et λi ∈ K, i = 1, . . . , n. Alors

f (⃗v ) = f (λ1⃗v1 + . . . λn⃗vn ) = λ1 f (⃗v1 ) + . . . + λn f (⃗vn )

et donc f (⃗v ) ∈ Vect(f (G)).


CHAPITRE 6. NOYAU ET IMAGE 54

Le Théorème 6.17 donne déjà une première caractérisation des monomorphismes.


Dans la proposition suivante nous en donnons encore plusieurs autres.
Proposition 6.20. Soient V et V ′ des espaces vectoriels sur le corps K et soit f :
V → V ′ une application linéaire. Les assertions suivantes sont équivalentes.
(i) f est un monomorphisme (c’est-à-dire, f est injectif);
(ii) le noyau de f est l’espace zéro, Ker f = 0;
(iii) dim(Ker f ) = 0;
(iv) les images des vecteurs d’une partie libre de V forment une famille linéairement
indépendant de V ′ ;
(v) les images des vecteurs d’une base de V forment une famille linéairement indé-
pendant de V ′ ;
(vi) les images des vecteurs d’une base de V forment une base de Im f ;
(vii) il existe une application linéaire f ′ : V ′ → V telle que f ′ ◦ f = idV ;
(viii) par corestriction, f mène à un isomorphisme entre V et Im f .
Démonstration. (i) ⇔ (ii). Ceci est exactement le Théorème 6.17.
(ii) ⇔ (iii). L’espace zéro est le seul espace de dimension 0.
(iii) ⇒ (iv). Soit L une partie libre de V et considérons f (L) = {f (⃗v ) | ⃗v ∈ L}.
Supposons qu’il y a une combinaison linéaire d’éléments dans f (L) qui vaut zéro. C’est
à dire, qu’il y a certains vecteurs f (⃗v1 ), . . . , f (⃗vn ) ∈ f (L) et scalaires λ1 , . . . , λn ∈ K
tels que
⃗0 = λ1 f (⃗v1 ) + . . . + λn f (⃗vn )
= f (λ1⃗v1 + . . . λn⃗vn )

où nous avons utilisé la linéarité de f dans la deuxième égalité. Alors λ1⃗v1 + . . . λn⃗vn ∈
Ker f = {⃗0} et donc
λ1⃗v1 + . . . λn⃗vn = ⃗0.
Comme ⃗v1 , . . . , ⃗vn ∈ L et L est libre, il suit que λ1 = . . . = λn = 0, et donc f (L) est
libre.
(iv) ⇒ (v). Suit du fait que une base est une partie libre.
(v) ⇒ (vi). Soit B une base de V . Par (v), f (B) est libre et par le Lemme 6.19, f (B)
est génératrice pour Im f , et donc f (B) est une base pour Im f .
(vi) ⇒ (vii). Soit B une base de V , et donc f (B) une base de Im f ⊂ V ′ . Alors f (B)
est une partie libre de V ′ et donc il existe une base B ′ pour V ′ telle que f (B) ⊂ B ′
(voir Corollaire 2.20). Grâce à la Proposition 3.10, pour définir une application linéaire
f ′ : V ′ → V il suffit de définir une application de B ′ vers V . Définissons alors

∀⃗v ′ = f (⃗v ) ∈ f (B)



′ ′ ⃗v
f (⃗v ) = ⃗
0 ∀⃗v ′ ∈ B ′ \ f (B).
CHAPITRE 6. NOYAU ET IMAGE 55

Alors par construction f ′ ◦ f (⃗v ) = ⃗v pour tout ⃗v ∈ B et donc f ′ ◦ f = idV .


(vii) ⇒ (viii). Soit f (⃗v ) ∈ Im f . Alors nous trouvons que

f ◦ f ′ (f (⃗v )) = f ◦ f ′ ◦ f (⃗v ) = f ◦ idV (⃗v ) = f (⃗v ),

et donc la corestriction f |Im f et la restriction f|Im



f sont des inverses mutuels entre V
et Im f .
(viii) ⇒ (i). Comme la corestriction f |Im f : V → Im f est un isomorphisme, c’est en
particulier injectif et donc f , étant la composition de f |Im f avec l’inclusion Im f ⊂ V ′
est aussi injective.

Proposition 6.21. Soient V et V ′ des espaces vectoriels sur le corps K et soit f :


V → V ′ une application linéaire. Les assertions suivantes sont équivalentes.
(i) f est un épimorphisme (c’est-à-dire, f est surjective);
(ii) l’image de f est tout l’espace V ′ , Im f = V ′ ;
(iii) dim(Im f ) = dimV ′ (cette assertion est valable seulement si V ′ est finidimension-
nel);
(iv) l’image d’une partie génératrice de V est une partie génératrice de V ′ ;
(v) l’image d’une base de V est une partie génératrice de V ′ ;
(vi) il existe une application linéaire f ′ : V ′ → V telle que f ◦ f ′ = idV ′ .

Démonstration. (i) ⇔ (ii). Suit directement des définitions.


(ii) ⇔ (iii). Comme Im f ⊂ V ′ , nous avons que Im f = V ′ si et seulement si
dim(Im f ) = dimV ′ (si V ′ est finidimensionnel).
(ii) ⇒ (iv). Soit G ⊂ V une partie génératrice. Par le Lemme 6.19, f (G) est
génératrice pour Im f = V ′ .
(iv) ⇒ (v). Suit du fait que tout base est une partie génératrice.
(v) ⇒ (vi). Soit B base de V , alors f (B) ⊂ V ′ est génératrice par (iv) et donc il
existe une base B ′ pour V ′ tel que B ′ ⊂ f (B). Grâce à la Proposition 3.10, pour
définir une application linéaire f ′ : V ′ → V il suffit de définir une application de B ′
dans V . Pour tout ⃗v ′ = f (⃗v ) ∈ B ′ avec ⃗v ∈ B, nous définissons f ′ (⃗v ′ ) = ⃗v . Alors
pour tout ⃗v ′ ∈ B ′ avec ⃗v ′ = f (⃗v ) et ⃗v ∈ B, nous trouvons que f ◦ f ′ (⃗v ′ ) = f (⃗v ) = ⃗v ′ .
Donc effectivement f ′ ◦ f = idV ′ .
(vi) ⇒ (ii). Soit ⃗v ′ ∈ V ′ quelconque. Alors f ′ (⃗v ′ ) ∈ V et donc ⃗v ′ = f ◦ f ′ (⃗v ′ ) =
f (f ′ (⃗v ′ )) ∈ Im f .

Proposition 6.22. Soient V et V ′ des espaces vectoriels sur le corps K et soit f :


V → V ′ une application linéaire. Les assertions suivantes sont équivalentes.
(i) f est un isomorphisme (c’est-à-dire, f est bijective);
(ii) les images des vecteurs d’une base de V forment une base de V ′ ;
CHAPITRE 6. NOYAU ET IMAGE 56

(iii) il existe une application linéaire f −1 : V ′ → V tel que f ◦ f −1 = idV ′ et


f −1 ◦ f = idV ;
(iv) Ker f = 0 et Im f = V ′ .

Démonstration. Rappelons qu’une application est bijective si et seulement si elle est en


même temps injective et surjective. L’équivalence des assertions suit alors directement
par combinaison de la Proposition 6.20 et de la Proposition 6.22.

Corollaire 6.23. Soient V et V ′ des espaces vectoriels finidimensionnels sur le corps


K. Alors V et V ′ sont isomorphes si et seulement si dimV = dimV ′ .

Démonstration. Supposons qu’il existe un isomorphisme f : V → V ′ alors par la


Proposition 6.22 il suit que l’image d’une base de V est une base de V ′ . Alors dimV =
dimV ′ .
Réciproquement, si dimV = n = dimV ′ , alors il existe une base {⃗b1 , . . . , ⃗bn } pour
V et une base {⃗b′1 , . . . , ⃗b′n } pour V ′ . L’application linéaire f : V → V ′ , f (⃗bi ) = ⃗b′i pour
i = 1, . . . , n est une isomorphisme.

Corollaire 6.24. Soient V et V ′ deux espaces vectoriels finidimensionnels, alors dim(V ×


V ′ ) = dimV + dimV ′ .

Démonstration. Soit dimV = n et dimV ′ = m alors V ∼ = Kn et V ′ ∼


= Km donc
V ×V′ ∼ = Kn × Km ∼= Kn+m .
Alternativement, soit B une base de V et B ′ une base de V ′ . Alors nous pouvons
vérifier que
{(⃗v , ⃗0) | ⃗v ∈ B} ∪ {(⃗0, ⃗v ′ ) | ⃗v ′ ∈ B ′ }
est une base de V × V ′ .

Théorème 6.25 (Deuxième théorème de la dimension). Soient V et V ′ des espaces


vectoriels finidimensionnels sur le corps K et soit f : V → V ′ une application linéaire.
Alors
dimV = dim(Ker f ) + dim(Im f ).

Démonstration. Soit dim(Ker f ) = m et prenons une base E = {⃗e1 , . . . , ⃗em } de Ker f .


Alors E est une partie libre de V et donc il existe une base

E = {⃗e1 , . . . , ⃗em , ⃗em+1 , . . . , ⃗en }

de V (avec dimV = n ≥ m = dim(Ker f )). Alors il suffit de montrer que E ′ =


{f (⃗em+1 ), .P
. . , f (⃗en )} est une base de Im f . Soit f (⃗v ) ∈ Im f (c’est-à-dire, ⃗v ∈ V ).
Alors, ⃗v = ni=1 λi⃗ei pour certains λ1 , . . . , λn ∈ K et donc

f (⃗v ) = λ1 f (⃗e1 ) + . . . + λm f (⃗em ) + λm+1 f (⃗em+1 ) + . . . + λn f (⃗en )


= λm+1 f (⃗em+1 ) + . . . + λn f (⃗en )
CHAPITRE 6. NOYAU ET IMAGE 57

comme ⃗e1 , . . . , ⃗en ∈ Ker f . Donc E ′ est génératrice pour Im f . Montrons encore que
E ′ est libre. Soient λm+1 , . . . , λn ∈ K tels que
⃗0 = λm+1 f (⃗em+1 ) + . . . + λn f (⃗en ) = f (λm+1⃗em+1 + . . . + λn⃗en )

(où nous avons utilisé que f est linéaire). Alors λm+1⃗em+1 +. . .+λn⃗en ∈ Ker f et donc
est une combili d’éléments de E. Mais comme E est une base, et donc en particulier
libre, ceci implique que λm+1 = . . . = λn = 0.

Proposition 6.26. Soit V un espace vectoriel sur un corps K et soient W et W ′ des


sous-espaces de V . Alors

dim(W + W ′ ) + dim(W ∩ W ′ ) = dimW + dimW ′ .

Démonstration. Considérons l’application

f : W × W ′ → V, f (w,
⃗ w⃗ ′) = w ⃗′
⃗ +w

pour tous w ⃗ ∈ W et w ⃗ ′ ∈ W ′ . Alors il est clair que Im f = W + W ′ . De plus


(w,
⃗ w⃗ ′ ) ∈ Ker f si et seulement si

f (w,
⃗ w⃗ ′) = w ⃗ ′ = ⃗0
⃗ +w

et donc si et seulement si
⃗ ′.
⃗ = −w
w
⃗ ∈ W et w
D’une part, comme w ⃗ ′ ∈ W ′ , nous avons que w
⃗ ∈ W ∩ W ′ . D’autre part,
pour tout w ′
⃗ ∈ W ∩ W , il suit que (w,
⃗ −w) ⃗ ∈ Ker f . Nous trouvons que Ker f ∼ =

W ∩ W . Du Théorème 6.25 nous trouvons que

dimW + dimW ′ = dim(W × W ′ ) = dim(Im f ) + dim(Ker f )


= dim(W + W ′ ) + dim(W ∩ W ′ ).

Corollaire 6.27. Si V = W ⊕ W ′ alors dimV = dimW + dimW ′ .

Démonstration. Suit de la proposition précédente et du fait que W ∩ W ′ = 0 et


W + W ′ = V dans ce cas.

Corollaire 6.28. Soient V et V ′ des espaces vectoriels finidimensionnels sur le corps


K et soit f : V → V ′ une application linéaire.
(i) Si f est un monomorphisme, alors dimV ≤ dimV ′ ;
(ii) Si f est un épimorphisme, alors dimV ≥ dimV ′ ;
(iii) Si f est un isomorphisme, alors dimV = dimV ′ .
CHAPITRE 6. NOYAU ET IMAGE 58

Démonstration. (i). Comme f est un monomorphisme, nous savons de la Proposi-


tion 6.20 que Ker f = 0. Donc dim(Ker f ) = 0 et il suit du Théorème 6.25 que
dimV = dim(Im f ). Mais Im f ⊂ V ′ et donc dim(Im f ) ≤ dimV ′ .
(ii). Comme f est un épimorphisme, nous savons de Proposition 6.21 que Im f = V ′ .
Donc par leThéorème 6.25, dimV = dim(Ker f ) + dimV ′ . Comme dim(Ker f ) ≥ 0, il
suit que dimV ≥ dimV ′ .
(iii). Suit directement des deux premières parties.
Corollaire 6.29. Soient V et V ′ des espaces vectoriels finidimensionnels sur le corps
K et soit f : V → V ′ une application linéaire. Suppose que dimV = dimV ′ = n. Alors
les assertions suivantes sont équivalentes :
(i) f est un monomorphisme (dim(Ker f ) = 0);
(ii) f est un épimorphisme (dim(Im f ) = n);
(iii) f est un isomorphisme.
Démonstration. Par Proposition 6.20, f est un monomorphisme si et seulement si
Ker f = 0. Ceci est le cas si et seulement si dim(Ker f ) = 0. Par le Théorème 6.25
ceci est de plus équivalent à dimV = dim(Im f ). Comme aussi dimV = dimV ′ , nous
pouvons conclure que f est injective si et seulement si dim(Im f ) = dimV ′ . Mais
comme Im f ⊂ V ′ ceci veut dire exactement que Im f = V ′ , c’est-à-dire que f est
surjective.
Remarque 6.30. Il est nécessaire dans le Corollaire 6.29 de savoir que la dimension de
V et V ′ est finie. En effet, considérons l’espace infini-dimensionel R[x] et l’application
qui envoie P (x) ∈ R[x] sur sa dérivée,
dP
f : R[x] → R[x], P (x) 7→ f (P (x)) = (x).
dx
Alors Im f = R[x] donc f est surjective, mais Ker f consiste en tous les polynômes
constants, donc f n’est pas injective.
La proposition suivante est un corollaire immédiat des résultats précédents de ce
chapitre.
Proposition 6.31. Soit V un espace vectoriel et soient B = {⃗bi | i ∈ I} et B ′ =
{⃗b′i | i ∈ I} deux bases de V . Alors il existe exactement un élément f dans le groupe
général linéaire de V tel que f (⃗bi ) = ⃗b′i pour tous i ∈ I. Nous disons que Aut K (V )
agit strictement transitivement sur l’ensemble des bases (ordonnées) de V .
Proposition 6.32. Soient V et V ′ des espaces vectoriels finidimensionnels sur le corps
K et soit f : V → V ′ une application linéaire. Considérons une base B pour V et une
base B ′ pour V ′
1. dim(Im f ) = rg([f ]B ′ ,B );
CHAPITRE 6. NOYAU ET IMAGE 59

2. dim(Ker f ) = n − rg([f ]B ′ ,B ) avec n = dimV .


Par conséquent, le rang de la matrice d’une application linéaire est indépendant des
choix de bases B et B ′ . Nous pouvons donc parler du rang d’une application linéaire
f , rg(f ) = rg([f ]B ′ ,B ) pour des bases B et B ′ quelconques.

Démonstration. (i) Par définition, le rang de la matrice [f ]B ′ ,B est la dimension de


l’espace des colonnes de cette matrice. D’autre part, sous l’isomorphisme

[−]B ′ : V ′ → Km×1 , ⃗v ′ 7→ [⃗v ′ ]B ′

avec m = dimV ′ , les vecteurs f (⃗ei ), ⃗ei ∈ B correspondent exactement aux colonnes
de [f ]B ′ ,B . Donc l’isomorphisme [−]B ′ , mène par restriction et corestriction, à un iso-
morphisme entre l’image de f et l’espace des colonnes de [f ]B ′ ,B .
(ii). Suit de la partie (i) et du deuxième théorème de la dimension.

Corollaire 6.33. Soient V et V ′ des espaces vectoriels finidimensionnels sur le corps


K. Soit f : V → V ′ une application linéaire. Alors:
1. f est un monomorphisme si et seulement si rg(f ) = dimV si et seulement si
dimV ≤ dimV ′ et le rang de f est maximal;
2. f est un épimorphisme si et seulement si rg(f ) = dimV ′ si et seulement si
dimV ≥ dimV ′ et le rang de f est maximal;
3. f est un isomorphisme si et seulement si rg(f ) = dimV = dimV ′ si et seulement
si dimV = dimV ′ et le rang de f est maximal;

Démonstration. Découle directement de la proposition précédente et les charactérisa-


tions de mono-, épi- et isomorphismes. Nous laissons les détails comme exercice.

Corollaire 6.34. Soit A une matrice carrée n × n. Les conditions suivantes sont
équivalentes.
(i) A est inversible;
(ii) rang(A) = n;
(iii) les n lignes de A constituent une base de K1×n ;
(iv) les n colonnes de A constituent une base de Kn×1 .
Chapitre 7

Géométrie affine

7.1 La géométrie affine d’un espace vectoriel


Si nous considérons R3 comme un espace vectoriel, alors il y a 4 types de sous-
espaces W de R3 , par rapport à la dimension :
— dimW = 0, alors W = {⃗0} ne contient que l’origine;
— dimW = 1, alors W est une droite qui passe par l’origine;
— dimW = 2, alors W est un plan qui passe par l’origine;
— dimW = 3, alors W = R3 .
En conclusion, on ne peut pas décrire les droites et les plans qui ne contiennent pas
l’origine comme des sous-espaces. Ceci nous mène à la définition suivante.

Définition 7.1. Soit V un espace vectoriel. Une variété linéaire (non-vide) L de V


est un sous-ensemble de vecteurs de V de la forme

L = ⃗a + W = {⃗a + w
⃗ |w
⃗ ∈ W}

où W est un sous-espace vectoriel de V et ⃗a est un vecteur (fixé) de V . Par définition,


l’ensemble vide est aussi une variété linéaire.

L’importance des variétés linéaires est donnée par les exemples suivants.

Exemples 7.2. 1. Soit a un vecteur dans un espace vectoriel V et notons par 0


l’espace zero. Alors la variété linéaire ⃗a + 0 est exactement le singleton {⃗a}.
2. Soient ⃗a et ⃗b deux vecteurs non nuls dans un espace vectoriel V sur le corps K.
Alors la droite qui passe par ⃗a et est parallèle à ⃗b consiste en tous les vecteurs ⃗v
du type
⃗v = ⃗a + t⃗b, avec t ∈ K.
Remarquons que les vecteurs t⃗b avec t ∈ K forment exactement la droite parallèle
à ⃗b et qui passe par l’origine. De la même façon, soit W un plan qui passe par

60
CHAPITRE 7. GÉOMÉTRIE AFFINE 61

l’origine et ⃗a ̸= 0. Alors les vecteurs du plan parallèle à W et contenant ⃗a sont


tous de la forme
⃗v = ⃗a + w,
⃗ ⃗ ∈ W.
avec w
3. Considérons l’espace réel RR . Alors l’ensemble de toutes les f ∈ RR telles que
f (0) = 1 est une variété linéaire de RR .

La proposition suivante montre que l’espace vectoriel W est uniquement déterminé


par la variété L. Pour la démonstration du lemme, on se référera aux exercices.

⃗ ∈ W.
Lemme 7.3. Soient W un sous-espace vectoriel d’un espace vectoriel V et w
Alors w
⃗ + W = W.

Proposition 7.4. Soient V un espace vectoriel, ⃗a, ⃗a′ ∈ V et W, W ′ ⊂ V des sous-


espaces vectoriels. Alors les conditions suivantes sont équivalentes
(i) ⃗a + W = ⃗a′ + W ′ ;
(ii) W = W ′ et ⃗a − ⃗a′ ∈ W .

Démonstration. (i) ⇒ (ii). Comme ⃗a = ⃗a + 0 ∈ ⃗a + W = ⃗a′ + W ′ , il existe un vecteur


⃗ ′ ∈ W ′ tel que ⃗a = ⃗a′ + w
w ⃗ ′ . Alors ⃗a − ⃗a′ = w
⃗ ′ ∈ W ′.
De la même façon, on trouve pour tout w ∈ W que ⃗a + w ⃗ ∈ ⃗a + W = ⃗a′ + W ′ . Donc
de nouveau, il existe un vecteur w ⃗ ′ ∈ W ′ tel que ⃗a + w⃗ = ⃗a′ + w
⃗ ′ et donc

w
⃗ = ⃗a
| {z ⃗ ′ ∈ W ′.
− ⃗a} + |{z}
w
∈W ′ ∈W ′

Alors W ⊂ W ′ . De manière analogue on démontre que W ′ ⊂ W et donc W = W ′ .


(ii) ⇒ (i). On a

⃗a + W = ⃗a′ + (⃗a − ⃗a′ ) + W = ⃗a′ + W = ⃗a′ + W ′ ,

où on a appliqué le Lemme 7.3 dans la deuxième égalité.

Corollaire 7.5. Soit L = ⃗a + W une variété linéaire. Alors L = ⃗a′ + W pour tout
⃗a′ ∈ L.

Démonstration. Soit ⃗a′ ∈ L, alors ⃗a′ = ⃗a + w ⃗ ∈ W . Alors grâce au


⃗ pour un certain w

Lemme 7.3 on obtient directement que ⃗a + W = ⃗a + w ⃗ + W = ⃗a + W = L.

Proposition 7.6. L’intersection d’une famille de variétés linéaires dans un espace


vectoriel V est de nouveau une variété linéaire de V .

Démonstration. Considérons une famille de variétés linéaires (Li )i∈I avecT I un en-
semble
T (non-vide) d’indices. S’il existe un i0 ∈ I tel que Li0 = ∅, alors i∈I Li = ∅,
alors i∈I Li est une variété linéaire par définition.
CHAPITRE 7. GÉOMÉTRIE AFFINE 62

Nous pouvons donc supposer qu’aucune des variétés linéairesTde la famille est vide
T pouvons écrire Li = ⃗ai + Wi , pour tout i ∈ I. Si i∈I Li = ∅, alors de
et donc nous
nouveau i∈I Li est une variété linéaire par définition. Supposons donc qu’il existe un
vecteur ⃗b ∈ i∈I Li . Alors, grâce au Corollaire 7.5, nous pouvons écrire Li = ⃗b + Wi
T
T
pour tout i ∈ I. Alors ⃗z ∈ i∈I Li , si et seulement si il existe des vecteurs w
⃗ i ∈ Wi
tels que
⃗z = ⃗b + w
⃗ i , ∀i ∈ I.
Fixons un élément i0 ∈ I arbitraire. Alors pour tout autre i ∈ I, T nous trouvons

que ⃗z = b + w ⃗ ⃗ i et donc w
⃗ i0 = b + w ⃗i = w ⃗ i0 ∈ i∈I Wi et donc
⃗ i0 . Il suit que w
⃗ T
⃗z ∈ b + i∈I Wi . Nous pouvons alors écrire
\ \
Li = ⃗b + Wi ,
i∈I i∈I
T T
et donc i∈I Li est une variété linéaire car i∈I Wi est un sous-espace vectoriel de
V.

Définition 7.7. Soient L = ⃗a + W et L′ = ⃗a′ + W ′ deux variétés linéaires. On dit


que L est parallèle à L′ (notation L//L′ ) ssi W ⊆ W ′ ou W ′ ⊆ W .

7.2 Transformations affines


Définition 7.8. Soient V et V ′ des espaces vectoriels sur un corps K. Une transfor-
mation affine de V dans V ′ est une application

T :V →V′

pour laquelle il existe une application linéaire f ∈ HomK (V, V ′ ) et un vecteur ⃗b ∈ V ′


tels que
T (⃗v ) = fT (⃗v ) + ⃗bT
pour tout ⃗v ∈ V .

Remarquons qu’une transformation affine T est une application linéaire si et seule-


ment si ⃗bT = ⃗0.

Proposition 7.9. Soit T : V → V ′ , T (⃗v ) = fT (⃗v ) + ⃗bT une transformation affine,


avec fT ∈ HomK (V, V ′ ) et ⃗bT ∈ V ′ .
(i) L’image directe d’une variété linéaire L de V par rapport à T est une variété
linéaire de V ′ ;
(ii) L’image inverse d’une variété linéaire L′ de V ′ par rapport à T est une variété
linéaire de V .
CHAPITRE 7. GÉOMÉTRIE AFFINE 63

Démonstration. (i). Si L est vide, alors T (L) est aussi vide et donc une variété linéaire.
Supposons maintenant que L est non-vide et donc de la forme L = ⃗a + W avec ⃗a ∈ V
et W un sous-espace de V . Alors par la Proposition 6.16, fT (W ) est un sous-espace
de V ′ . Alors

T (L) = fT (L) + ⃗bT = fT (⃗a) + fT (W ) + ⃗bT = fT (⃗a) + ⃗bT + fT (W ) = ⃗a′ + W ′ ,

avec ⃗a′ = fT (⃗a) + ⃗bT et W ′ = fT (W ). Nous trouvons donc que T (L) est une variété
linéaire de V ′ .
(ii). Si T −1 (L′ ) est vide, c’est une variété linéaire par définition. Supposons donc que
T −1 (L) est non-vide et soit ⃗a ∈ T −1 (L′ ), c’est-à-dire T (⃗a) ∈ L′ . Alors L′ est aussi
non-vide et nous pouvons l’écrire comme L′ = ⃗a′ + W ′ avec ⃗a′ ∈ V ′ où W ′ est un
sous-espace de V ′ . Nous trouvons alors que

T (⃗a) = fT (⃗a) + ⃗bT = ⃗a′ + w


⃗′

pour un certain w ⃗ ′ ∈ W ′ . Par la Proposition 6.16, fT−1 (W ′ ) est un sous-espace de V .


Nous allons vérifier que T −1 (L′ ) = ⃗a +fT−1 (W ′ ) et donc T −1 (L′ ) est effectivement une
⃗ ′′ ∈ W ′ tel que T (⃗v ) = fT (⃗v ) +⃗bT =
variété linéaire. Soit ⃗v ∈ T −1 (L′ ), alors il existe w
⃗a′ + w′′ . Il suit que

⃗ ′′ − ⃗bT − ⃗a′ − w
fT (⃗v − ⃗a) = fT (⃗v ) − fT (⃗a) = ⃗a′ + w ⃗ ′ + ⃗bT = w
⃗ ′′ − w
⃗ ′ ∈ W ′.

Donc ⃗v −⃗a ∈ fT−1 (W ′ ) et ⃗v = ⃗a + (⃗v −⃗a) ∈ ⃗a + f −1 (W ′ ). Réciproquement, pour tout


⃗ ∈ fT−1 (W ′ ) nous trouvons que
w

T (⃗a + w) ⃗ + ⃗bT = fT (⃗a) + ⃗bT + fT (w)


⃗ = fT (⃗a + w) ⃗ = ⃗a′ + w
⃗ ′ + fT (w).

Comme w ⃗ ′ , f (w)
⃗ ∈ W ′ , nous concluons que T (⃗a + w)
⃗ ∈ ⃗a′ + W ′ = L′ et donc
⃗ ∈ T −1 (L′ ).
⃗a + w
Corollaire 7.10. Soit f : V → V ′ une application linéaire et ⃗v ′ = f (⃗v ) ∈ Im f . Alors
l’image inverse de ⃗v ′ est une variété linéaire. Plus précisément,

f −1 (⃗v ′ ) = ⃗v + Ker f.

Démonstration. Rappelons que {⃗v ′ } = ⃗v ′ + {⃗0} est une variété linéaire. Comme toute
application linéaire est une transformation affine, l’assertion suit directement de (la
démonstration de) la proposition précédente et du fait que Ker f = f −1 ({⃗0}).

7.3 Systèmes d’équations linéaires


Nous avons vu qu’il y a un lien fort entre les systèmes d’équations linéaires et les
matrices. Comme les matrices sont aussi liées avec les applications linéaires, il n’y a pas
CHAPITRE 7. GÉOMÉTRIE AFFINE 64

de surprise que les systèmes d’équations linéaires sont aussi liés avec les applications
linéaires.
Considérons un système (S) de n équations à m inconnues, i.e.

 a11 x1 + . . . + a1m xm = b1

.. (7.1)
 .
 a x + ... + a x
n1 1 nm m = bn

Nous pouvons écrire ce système en forme matricielle comme

AX = B

avec A = (aij ) ∈ Kn×m , B = (bi ) ∈ K n×1 et X = (xi ) ∈ Km×1 . Alors nous pouvons
considérer l’application linéaire f : Km → Kn qui a A comme matrice dans les bases
standards de Km et Kn . Alors un vecteur ⃗v = (v1 , . . . , vm ) ∈ Km est une solution du
système (7.1) si et seulement si f (⃗v ) = ⃗b = (b1 , . . . , bn ). C’est-à-dire, l’ensemble des
solutions du système (7.1) est f −1 (⃗b), l’image inverse de ⃗b sous l’application linéaire
f.

Proposition 7.11. Considérons le système (S) d’équations linéaires (7.1).


(i) L’ensemble des solutions de (S) est un sous-espace vectoriel de Km si et seulement
si c’est une système homogène (c’est-à-dire ssi (b1 , . . . , bn ) = (0, . . . , 0)).
(ii) L’ensemble des solutions de (S) est une variété linéaire de Km , qui est soit vide,
soit s’écrit de la manière suivante

L = ⃗a + W

où ⃗a ∈ Km est une solution quelconque de (S) et W est l’ensemble des solutions


du système homogène AX = 0.

Démonstration. (i). Si ⃗b = ⃗0, alors il suit des observations avant la proposition que
l’ensemble des solutions du système est l’image inverse de l’espace nul, c’est-à-dire le
noyau de l’application f avec A comme matrice dans les bases canoniques, et donc
un sous-espace vectoriel de Km . Réciproquement, si l’ensemble des solutions est un
sous-espace, le vecteur zéro est une solution de (S) alors f (⃗0) = ⃗b et donc ⃗b = ⃗0
comme l’image du vecteur zéro par une application linéaire est le vecteur zéro.
(ii). Nous savons que l’ensemble des solution de (S) est l’image inverse de ⃗b par
l’application linéaire f . Par le Corollaire 7.10, nous savons que f −1 (⃗b) = ⃗a + Ker f ,
où ⃗a un vecteur quelconque tel que f (⃗a) = ⃗b. Alors ⃗a est une solution de (S) et
par la partie (i), Ker f est l’ensemble de toutes les solutions du système homogène
associé.
CHAPITRE 7. GÉOMÉTRIE AFFINE 65

Soit L = ⃗a + W la variété linéaire des solutions d’un système d’équations linéaires.


Nous disons que la dimension de L est la dimension de l’espace vectoriel W , c’est-à-
dire,
dimL = dimW.

Proposition 7.12. Soit (S) un système d’équations linéaires (7.1), avec m variables
et n équations. Notons L la variété linéaire des solutions, A la matrice du système, et
W l’ensemble des solutions du système homogène AX = 0.
1. L est non-vide si et seulement si dimL = dimW ;
2. dimL = m − rg(A) (si L est non-vide);
3. m − n ≤ dimL ≤ m (si L est non-vide).

Démonstration. (i). Suit directement de la Proposition 7.11(ii).


(ii). Soit f : Rm → Rn l’application linéaire définie par la matrice A dans les bases stan-
dards. Alors dimL = dimW = dimKer f . Par le deuxième théorème de la dimension,
nous savons que dimL = dimV −dim(Im f ) = m−rg(A), en utilisant Proposition 6.32
pour la deuxième égalité.
(iii). Suit de la partie (ii), comme 0 ≤ rg(A) = dim(Im f ) ≤ dimRn = n.

Corollaire 7.13 (Théorème de l’alternative). Soit A = (aij ) ∈ Kn×n et B = (bi ) ∈


Kn×1 . Considérons le système de n équations à n inconnues AX = B, i.e.

 a11 x1 + . . . + a1n xn = b1

.. (7.2)
 .
 a x + ... + a x = b
n1 1 nn n n

Les conditions suivantes sont équivalentes :


(i) Le système homogène AX = 0 possède uniquement la solution triviale;
(ii) Le système non homogène AX = B possède au moins une solution quel que soit
B ∈ Kn×1 ;
(iii) Le système non homogène AX = B possède exactement une solution quel que
soit B ∈ Kn×1 ;
(iv) La matrice A est inversible.

Démonstration. Soit V = Kn×1 et f : V → V l’application linéaire associée à la


matrice A dans la base canonique de V . Alors, on peut facilement observer que la
condition (i) exprime exactement que f est injective, (ii) exprime que f est surjective,
et (iii) et (iv) expriment tous les deux que f est bijective. Alors l’équivalence suit
directement du Corollaire 6.29.
Chapitre 8

Dualité

8.1 L’espace dual


Définition 8.1. Soit V un espace vectoriel sur un corps K. Une application linéaire
f : V → K est appelé une forme linéaire ou une fonctionnelle linéaire ou un co-
vecteur. Par la Proposition 3.9, l’ensemble HomK (V, K) de toutes les formes linéaires
est de nouveau un espace vectoriel sur K, qu’on appelle l’espace dual de V et dénoté
V ∗ = HomK (V, K).

Lemme 8.2. Soit V un espace vectoriel sur le corps K de dimension n. Alors V ∗ est
aussi un espace vectoriel de dimension n et donc V et V ∗ sont isomorphes.

Démonstration. Par la Proposition 4.3, nous savons que

dimV ∗ = dim(HomK (V, K)) = dimV · dimK = n · 1 = n.

Alors V et V ∗ ont la même dimension et sont donc isomorphe par le Corollaire 6.23.
Notre prochain but est d’obtenir un isomorphisme explicite entre un espace vectoriel
finidimensionnel et son dual.
Soit E une base d’un espace vectoriel quelconque V sur un corps K. Alors pour
tout vecteur ⃗v ∈ V il existe une famille de scalaires unique (v⃗e )⃗e∈E telle que
X
⃗v = v⃗e⃗e.
⃗e∈E

Pour tout ⃗e ∈ E, nous pouvons donc définir une forme linéaire par la formule

e∗ (⃗v ) = v⃗e .

C’est-à-dire, l’image d’un vecteur ⃗v par la forme e∗ est les coordonée de ⃗v par rapport
aux vecteurs ⃗e de la base E. Autrement dit, la forme linéaire e∗ sur V est définie par

66
CHAPITRE 8. DUALITÉ 67

les formules

e∗ (⃗e) = 1
e∗ (e⃗′ ) = 0

pour tout e⃗′ ∈ E \ {⃗e}. Nous écrivons aussi

e∗ (e⃗′ ) = δ⃗e,e⃗′

où δ⃗e,e⃗′ est le symbole de Kronecker qui vaut 1 si les indices coincident et qui vaut
0 si les indices sont différents. Il suit directement de la définition de e∗ que
X
⃗v = e∗ (⃗v )⃗e. (8.1)
⃗e∈E

Nous appelons E ∗ = {e∗ ∈ V ∗ | ⃗e ∈ E} la base duale de la base E. Remarquons


qu’un covecteur e∗ de la base dual ne dépend pas seulement du vecteur ⃗e mais de toute
la base E.

Exemple 8.3. Soit E = {⃗e1 = (1, 0), ⃗e2 = (0, 1)} la base standard de l’espace R2 .
Alors
e∗1 (x, y) = x, e∗2 (x, y) = y
pour tout (x, y) ∈ R2 . D’autre part, si nous considérons le base B = {⃗b1 = (1, 0), ⃗b2 =
(1, 1)}, on a pour tout (x, y) ∈ R2

(x, y) = (x − y)(1, 0) + y(1, 1).

La base duale B ∗ est donc donnée par

b∗1 (x, y) = x − y, b∗2 (x, y) = y.

Donc même si ⃗e1 = ⃗b1 , nous trouvons que e∗1 ̸= b∗1 .

Proposition 8.4. Soit V un espace vectoriel sur un corps K et soit E une base de V .
Alors la base dual E ∗ est une partie libre dans V ∗ et l’application linéaire induite par

αE : V → V ∗ , α(⃗e) = e∗

pour tout ⃗e ∈ E est un monomorphisme.


En outre, si V est finidimensionnel, E ∗ est une base de V ∗ et αE est un isomor-
phisme.

Démonstration. Soit
λ1 e∗1 + . . . + λn e∗n = 0 (8.2)
CHAPITRE 8. DUALITÉ 68

pour certains λ1 , . . . , λn ∈ K et e∗1 , . . . , e∗n ∈ E ∗ . Ici, 0 ∈ V ∗ est la forme linéaire qui


satisfait 0(⃗v ) = 0 pour tout ⃗v ∈ V . Alors si nous évaluons (8.2) en les vecteurs de
base correspondants ⃗e1 , . . . , ⃗en , nous trouvons pour tout j = 1, . . . , n
n
X
λi e∗i (⃗ej ) = λj = 0.
i=1

Alors nous pouvons conclure que λj = 0 pour j = 1, . . . , n et donc E ∗ est libre.


L’application linéaire αE est injective par la Proposition 6.20.
Si V est finidimensionnel, alors E et E ∗ sont des ensembles finis avec le même
nombre d’éléments n. Comme n = dimV = dimV ∗ par le Lemme 8.2 et E ∗ est libre
par la première partie de la démonstration, E ∗ est une base pour V ∗ (voir Proposi-
tion 2.26). Comme E ∗ est une base, il suit aussi que αE est un isomorphisme par la
Proposition 6.22.
Remarques 8.5. L’isomorphisme αE du corollaire précédent est dépendant du choix
du base E dans V .
Si V est infini-dimensionnel, et E est une base de V , l’application αE n’est pas
surjective. Effectivement considérons la forme linéaire f ∈ V ∗ définie par

f (⃗e) = 1

pour tous ⃗e ∈ E. Alors f n’est pas une combinaison linéaire des éléments de E ∗ ,
comme tout élément de Vect(E ∗ ) envoie presque tout ⃗e ∈ E à zéro (vérifiez-le !).
Soit f ∈ V ∗ une forme linéaire sur un espace vectoriel V de dimension n. Alors
pour une base E = {⃗e1 , . . . , ⃗en } et pour la base standard {1} de K, nous pouvons
représenter f par une matrice ligne

[f ]1,E = a1 · · · an

telle que
f (⃗v ) = a1 v1 + . . . + an vn
pour tout ⃗v = v1⃗e1 + . . . + vn⃗en . Nous trouvons donc que ⃗v ∈ Ker f si et seulement si
les coordonnées de ⃗v satisfont l’équation

a1 x1 + . . . + an xn = 0.

Si (a1 , . . . , an ) ̸= (0, . . . , 0), c’est-à-dire f ̸= 0 dans V ∗ , les éléments de Ker f forment


un hyperplan 1 de V , passant par l’origine comme Ker f est un sous-espace de V . Si
f ′ = λf ∈ V ∗ pour λ ̸= 0, alors Ker f = Ker f ′ et donc f et f ′ définissent le même
hyperplan. Nous pouvons donc conclure à la proposition suivante.
1. Rappelez qu’un hyperplan dans un espace vectoriel V de dimension n ∈ N est une variété
linéaire de dimension n − 1.
CHAPITRE 8. DUALITÉ 69

Proposition 8.6. Il y a une bijection entre les hyperplans (passant par l’origine) d’un
espace vectoriel finidimensionnel V et les éléments non-nuls de V ∗ , à un multiple
scalaire près.
Considérons maintenant l’application αE : V → V ∗ comme dans la Proposition 8.4.
Alors pour un vecteur ⃗a = (a1 , . . . , an ) nous notons les coordonnées de ⃗a dans la base
E habituellement comme une matrice colonne.
 
a1
 .. 
[⃗a]E =  .  .
an
Alors, la matrice de αE (⃗a), par rapport à la base E et à la base standard {1} de K est
exactement la matrice ligne donnée par la transposée de [⃗a] !
[αE (⃗a)]1,E = [⃗a]tE = a1 · · · an .


De cette manière, l’application αE peut être vue comme la transposée. D’autre part, si
nous écrivons les coordonnées de αE (⃗a) par rapport à la base E ∗ comme une matrice
colonne, cette matrice est de nouveau le même que la matrice [⃗a]E :
 
a1
 .. 
[αE (⃗a)]E ∗ = [⃗a]E =  .  .
an

8.2 Le dual d’une application linéaire


Soit ϕ : V → W une application entre deux espaces vectoriels sur le corps K. Alors
nous pouvons considérer les espaces duaux V ∗ = HomK (V, K) et W ∗ = HomK (W, K)
et l’application ϕ induit de manière naturelle une application linéaire ϕ∗ entre ces
espaces duaux de la manière suivante:
ϕ∗ : W ∗ → V ∗ , ϕ∗ (f ) = f ◦ ϕ,
pour tout f ∈ W ∗ .
ϕ f
ϕ∗ (f ) : V / W / K.
Comme ϕ et f sont des applications linéaires, la composition f ◦ ϕ est de nouveau une
application linéaire (même une forme linéaire) et donc un élément de V ∗ . Nous appelons
ϕ∗ l’application duale de ϕ. Remarquons que ϕ∗ va dans la direction “opposée” de
ϕ, ceci est exactement le raison pourquoi nous parlons d’une dualité. Prendre le dual
nous mène donc à une application
(−)∗ : HomK (V, W ) → Hom(W ∗ , V ∗ ).
Nous laissons comme exercice de vérfier que (−)∗ est elle-même une application linéaire.
CHAPITRE 8. DUALITÉ 70

Lemme 8.7. Soient U, V, W des espaces vectoriels sur le corps K et ϕ : U → V et


ψ : V → W des applications linéaires. Alors

(ψ ◦ ϕ)∗ = ϕ∗ ◦ ψ ∗ : W ∗ → U ∗ .

et (idV )∗ = idV ∗ .

Démonstration. Pour tout f ∈ W ∗ , nous trouvons

(ψ ◦ ϕ)∗ (f ) = f ◦ (ψ ◦ ϕ) = (f ◦ ψ) ◦ ϕ = ϕ∗ (f ◦ ψ) = ϕ∗ (ψ ∗ (f )).

Pour la deuxième assertion, il suffit d’observer que pour tout f ∈ V ∗ ,

(idV )∗ (f ) = f ◦ idV = f = idV ∗ (f ).

Proposition 8.8. Soient V et W des espaces vectoriels et ϕ : V → W une application


linéaire.
1. ϕ est un monomorphisme si et seulement si ϕ∗ est un épimorphisme;
2. ϕ est un épimorphisme si et seulement si ϕ∗ est un monomorphisme;
3. ϕ est un isomorphisme si et seulement si ϕ∗ est un isomorphisme.

Démonstration. (i). Si ϕ est un monomorphisme, nous savons par la Proposition 6.20


qu’il existe une application ψ : W → V tel que ψ ◦ ϕ = idV . Alors par Lemme 8.7,
nous trouvons que ϕ∗ ◦ ψ ∗ = (ψ ◦ ϕ)∗ = (idV )∗ = idV ∗ et donc ϕ∗ est surjective par
la Proposition 6.21.

Réciproquement, supposons que P ϕ est un épimorphisme et soit ⃗v ∈ Ker ϕ. Soit E
une base de V , et écrivons ⃗v = ⃗e∈E λ⃗e⃗e. Considérons la base duale E = {e∗ | ⃗e ∈

E} ⊂ V ∗ . Comme ϕ∗ est surjective, il existe pour tout e∗ ∈ E ∗ une forme linéaire


ge ∈ W ∗ telle que ϕ∗ (ge ) = e∗ . Alors nous trouvons que

λ⃗e = e∗ (⃗v ) = ϕ∗ (ge )(⃗v ) = ge (ϕ(⃗v )) = ge (⃗0) = 0.

Comme ceci est vrai pour tout ⃗e ∈ E, il suit que ⃗v = ⃗0.


(ii). Supposons que ϕ est un épimorphisme. Par la Proposition 6.21, il existe une
application ψ : W → V telle que ϕ ◦ ψ = idW . Alors par le Lemme 8.7, nous trouvons
que ψ ∗ ◦ ϕ∗ = (ϕ ◦ ψ)∗ = (idW )∗ = idW ∗ et donc ϕ∗ est un monomorphisme par la
Proposition 6.20.
Réciproquement, soit ϕ∗ un monomorphisme. Nous savons que Im ϕ est un sous-
espace de W . Soit E ′ ⊂ Im ϕ une base pour l’image. Alors ceci est une partie libre
CHAPITRE 8. DUALITÉ 71

de W et donc nous pouvons la compléter pour obtenir une base E de W (avec donc
E ′ ⊂ E). Définissons maintenant un covecteur f ∈ W ∗ de la manière suivante:

f (⃗e) = 0, ∀⃗e ∈ E ′
f (⃗e) = 1, ∀⃗e ∈ E \ E ′ .

C’est-à-dire, f est identiquement zéro sur la base E ′ de Im ϕ et donc f est identique-


ment zéro sur toute l’image de ϕ. Alors nous trouvons pour tout ⃗v ∈ V :

ϕ∗ (f )(⃗v ) = f ◦ ϕ(⃗v ) = 0

comme ϕ(⃗v ) ∈ Im ϕ et f est zéro sur l’image de ϕ. Comme ϕ∗ est un monomorphisme,


ceci implique que f = 0. Ceci est seulement possible si E \E ′ = ∅, c’est-à-dire E = E ′
et donc Im ϕ = W , donc ϕ est surjectif.
(iii). Suit directement de (i) et (ii).

Proposition 8.9. Soient V et W des espaces vectoriels finidimensionnels et ϕ : V →


W une application linéaire. Soient E une base de V et B une base de W . Alors la
matrice de ϕ∗ par rapport aux bases duales E ∗ et B ∗ est exactement la transposée de
la matrice de ϕ par rapport aux bases E et B.

[ϕ∗ ]E ∗ ,B ∗ = [ϕ]tB,E

Démonstration. Notons E = {⃗e1 , . . . , ⃗en } et B = {⃗b1 , . . . , ⃗bm }. Alors [ϕ]B,E = (aij ) ∈


Km×n si et seulement si m
X
ϕ(⃗ei ) = aji⃗bj . (8.3)
j=1

De la même manière, [ϕ∗ ]E ∗ ,B ∗ = (bij ) ∈ Kn×m si et seulement si


n
X

ϕ (b∗i ) = bji e∗i . (8.4)
j=1

Alors pour tout vecteur dual b∗j ∈ B ∗ , et tout vecteur ⃗ei ∈ E, nous trouvons en utilisant
la définition de ϕ∗ et (8.4) que

ϕ∗ (b∗j )(⃗ei ) = b∗j (ϕ(⃗ei ))


m
X
= b∗j ( aki⃗bk )
k=1
m
X
= aki b∗j (⃗bk )
k=1
= aji .
CHAPITRE 8. DUALITÉ 72

D’autre part, en utilisant (8.4), il suit que


n
X

ϕ (b∗j )(⃗ei ) = bkj e∗k (⃗ei )
k=1
= bij .

Alors nous pouvons conclure que aji = bij pour tous i = 1, . . . , n et j = 1, . . . , m.


Ceci dit exactement que [ϕ∗ ]E ∗ ,B ∗ = [ϕ]tB,E .

8.3 L’espace bidual


Définition 8.10. Pour un espace vectoriel quelconque V , l’espace dual de l’espace
dual de V est appelée l’espace bidual de V . Nous notons

V ∗∗ = (V ∗ )∗ = HomK (V ∗ , K).

Pour tout ⃗v ∈ V , nous pouvons maintenant définir

ιV (⃗v ) : V ∗ → K, ιV (⃗v )(f ) = f (⃗v )

pour tout f ∈ V ∗ . Vérifions que ιV (⃗v ) est linéaire. Pour tous λ, µ ∈ K et tous f, g ∈ V ∗
nous avons

ιV (⃗v )(λf + µg) = (λf + µg)(⃗v )


= λf (⃗v ) + µg(⃗v )
= λιV (⃗v )(f ) + µιV (⃗v )(g).

Nous pouvons donc conclure que ιV (⃗v ) ∈ V ∗∗ pour tout ⃗v ∈ V et donc nous obtenons
une application
ιV : V → V ∗∗ .

Proposition 8.11. L’application ιV : V → V ∗∗ définie ci-dessus est un monomor-


phisme canonique ou naturel. Le dernier veut dire que pour toute application linéaire
ϕ : V → W le diagramme suivante est commutatif
ϕ
V / W (8.5)
ιV ιW
 
V ∗∗ / W ∗∗ .
ϕ∗∗

C’est-à-dire ϕ∗∗ ◦ ιV = ιW ◦ ϕ.
CHAPITRE 8. DUALITÉ 73

Démonstration. La vérification du fait que ιV est une application linéaire est laissé
comme exercice. Montrons que ιV est injective. Alors supposons que ιV (⃗v ) = 0 pour
un certain ⃗v ∈ V . Alors c’est le cas si et seulement si f (⃗v ) = 0 pour tout f ∈ V ∗ .
Alors soit E une base quelconque, et E ∗ la base dual. Nous trouvons que
X X
⃗v = e∗ (⃗v )⃗e = 0⃗e = ⃗0.
⃗e∈E ⃗e∈E

Supposons maintenant que ϕ : V → W est une application linéaire. Alors nous


trouvons pour tout ⃗v ∈ V et tout f ∈ W ∗ ,

ϕ∗∗ (ιV (⃗v ))(f ) = ιV (⃗v ) ◦ ϕ∗ (f ) = ιV (⃗v )(f ◦ ϕ) = (f ◦ ϕ)(v) = ιW (ϕ(⃗v ))(f ).

Théorème 8.12. Soit V un espace vectoriel finidimensionnel. Alors V est canonique-


ment isomorphe à son bidual.

Démonstration. Nous savons que dimV ∗∗ = dimV ∗ = dimV . Alors comme ιV est
injective, elle est aussi surjective.
Le théorème précédent est un résultat très important et pas du tout trivial ! La
partie magique de ce théorème n’est pas que le fait que V et V ∗∗ sont isomorphes,
comme ceci suit directement de la comparaison des dimensions, mais le fait qu’il existe
une isomorphisme canonique. Rappelons que ceci veut dire que tous les diagrammes
de la forme (8.5) sont commutatifs. Une autre manière de le comprendre, est que nous
pouvons définir le morphisme ιV sans utiliser une base de V . Le morphisme ιV est donc
indépendant du choix d’une base, d’où le mot "naturel". Ceci contraste par exemple
avec le morphisme αE : V → V ∗ de Proposition 8.4, qui dépend fortement du choix
de la base E.
Appendices

74
L’alphabet Grec

Capitale Minuscule Prononciation


A α alpha
B β bêta
Γ γ gamma
∆ δ delta
E ϵ, ε epsilon
Z ζ zêta
H η êta
Θ θ, ϑ thêta
I ι iota
K κ kappa
Λ λ lambda
M µ mu
N ν nu
Ξ ξ xi
O o omicron
Π π, ϖ pi
P ρ, ϱ rhô
Σ σ, ς sigma
T τ tau
Y υ upsilon
Φ ϕ, φ phi
X χ chi
Ψ ψ psi
Ω ω oméga

75
Liste des notations

Dans cette liste, K dénote un corps, V, V ′ , W, W ′ sont des espaces vectoriels sur K.

Symbole Explication
N ensemble des nombres naturels
N0 ensemble des nombres naturels non nuls
Z ensemble des nombres entiers
Z0 ensemble des nombres entiers non nuls
Q ensemble des nombres rationnels
Q0 ensemble des nombres rationnels non nuls
R ensemble des nombres réels
R0 ensemble des nombres réels non nuls
C ensemble des nombres complexes
C0 ensemble des nombres complexes non nuls
|a| la valeur absolue d’un nombre réel a ∈ R
Pn
Qni=1 ai la somme des ai pour i qui varie de 1 jusqu’à n
i=1 ai le produit des ai pour i qui varie de 1 jusqu’à n

∈ est un élément de

/ n’est pas un élément de
⊂, ⊆ est un sous-ensemble de
⊊ est un sous-ensemble strict de
̸ ⊂ n’est pas un sous-ensemble de
∀ “pour tous”
∃ “il existe”
∃! “il existe un unique”
|X| ou #X la cardinalité de l’ensemble X. Si X est fini ceci est le
nombre d’éléments dans X.

HomK (V, V ′ ) ensemble des applications linéaires de V dans V ′


EndK (V ) ensemble des endomorphismes de V
Aut K (V ) ensemble des automorphismes de V
V ∼
= V′ Les espaces vectoriels V et V ′ sont isomorphes.

76
LISTE DES NOTATIONS 77

Vect(A) L’espace vectoriel engendré par un sous-ensemble A ⊂ V .


V∗ L’espace dual d’un espace vectoriel
W ⊕ W′ la somme direct de sous-espaces

Q ×W
W le produit direct d’espaces vectoriels
`i∈I Wi le produit direct d’une famille d’espaces vectoriels
i∈I Wi le coproduit d’une famille d’espaces vectoriels
[⃗v ]B La matrice colonne des coordonnées d’un vecteur ⃗v dans
une base B
[f ]B,B ′ La matrice d’une application linéaire f : V → V ′ par rap-
port aux bases B de V et B ′ de V ′ .
⟨→
−x ,→−y⟩ le produit scalaire des vecteurs →
−x et →

y


|| v || la norme d’un vecteur v →

Index

application duale (d’une application vectoriel, 6


linéaire), 69 espace vectoriel
application linéaire, 24 finidimensionnel, 15
automorphisme, 24 infinidimensionnel, 15, 44
axiome du choix, 44
forme linéaire, 66
base, 18
groupe, 2
canonique, 18
abélien, 2
base duale, 67
homomorphisme (d’espaces vecoriels),
champ, 4
24
changement de base, 37
hyperplan, 68
combinaison linéaire (combili), 10
coordonnées (d’un vecteur par rapport image (d’une application linéaire), 52
à une base), 18 indépendance linéaire, 15
coproduit, 44, 46 isomorphisme, 55
corestriction (d’une application d’espaces vectoriels, 24
linéaire), 53 de groupes, 36
corps, 4
covecteur, 66 la transposée, 69
lemme de Zorn, 45
deuxième théorème de la dimension, 56
dimension (d’un espace vectoriel), 21 matrice
dualité, 69 d’une application linéaire, 32
dépendance linéaire, 15 de rang maximal, 51
matrices
endomorphisme, 24 semblables, 38
espace monomorphisme, 24, 54
bidaul (d’un espace vectoriel), 72 morphisme
des colonnes, 48 canonique, 72
des lignes, 48 d’espaces vectoriels, 24
dual (d’un espace vectoriel), 66 de groupes, 36
nul, 7 multiplication scalaire, 6

78
INDEX 79

noyau (d’une application linéaire), 52 somme directe, 40, 42, 43


sous-espace (vectoriel), 10
partie génératrice, 13
sous-matrice, 52
partie libre, 15
symbole de Kronecker, 67
premier théorème de la dimension, 21
symétrie, 1
produit direct, 42, 44, 46
système d’équations linéaires, 64
rang
d’une matrice, 51, 58 théorème d’alternative, 65
de colonne, 48 transformation affine, 62
de ligne, 48 transformation de coordonnées, 37
restriciton (d’une application linéaire),
53 variété linéaire, 60
vecteur nul, 6
scalaire, 4
somme des espaces vectoriels, 40 épimorphisme, 24, 55

Vous aimerez peut-être aussi