Vous êtes sur la page 1sur 169

Marco Andrea Garuti

Cours d’Algèbre Linéaire et Géométrie

E DU CAMEROUN REPUBLIC OF CAMEROON


ravail – Patrie Peace – Work – Fatherland
----------- --------------
S TRAVAUX PUBLICS MINISTRY OF PUBLIC WORKS
----------- --------------
RIAT GENERAL GENERAL SECRETARIAT
-----------
10 Yaoundé NATIONAL ADVANCED SCHOOL OF PUBLIC
7) 22 23 09 44 WORKS
7) 22 22 18 16 --------------
Table des Matières

Chapitre I. Espaces vectoriels -1

§1 Définition et premières propriétés -1


§2 Exemples 1
§3 Sous-espaces d’un espace vectoriel 2
§4 Générateurs, vecteurs libres, bases et dimension 5
§5 Sommes et intersections de sous-espaces 15
§6 Une méthode de calcul : opérations élémentaires 20
§7 Exercices 26

Chapter II. Fonctions linéaires 29

§1 Définition et premières propriétés 29


§2 Fonctions linéaires et matrices 37
§3 Multiplication matricielle 41
§4 Retour aux fonctions linéaires et matrices 47
§5 Systèmes linéaires 51
§6 Exercices 56

Chapter III. Déterminants 61

§ 1 Déterminant d’une matrice 61


§ 2 Polynôme caractéristique d’une matrice 69
§ 3 Exercices 70

Chapter IV. Similitude 73

§1 Matrices semblables 73
§2 Diagonalisation 74
§3 Théorie de Jordan 83
§4 Exercices 93

Chapter V. Produits scalaires et orthogonalité 97

§ 1 Produits scalaires 97
§ 2 Approximation 105
§ 3 Isométries 108
§ 4 Matrices symétriques 111
§ 5 Formes bilinéaires et quadratiques 113
§ 6 Exercices 115

Chapter VI. Espaces affines et euclidiens 119

§1 Espaces affines 119


§2 Espaces euclidiens 126
§3 Changement de repère 132
§4 Exercices 133

Annexe I. Nombres complexes 137

Annexe II. Équations différentielles linéaires 143

§ 1 Exponentielle d’une matrice 143


§ 2 Équations différentielles linéaires à coéfficients constants du premier ordre 145
§ 3 Équations différentielles linéaires à coéfficients constants d’ordre supérieur 147

Annexe III. Google et la diagonalisation des matrices 155

Index des symboles 161

Index des termes 162


Chapitre I

Espaces vectoriels

§ 1 Définition et premières propriétés

Définition 1.1.1 Un espace vectoriel réel est un ensemble V (dont les éléments sont dits vec-
teurs) muni de deux opérations :
addition vectorielle : une loi +V : V × V → V qui a tout couple de vecteurs v1 , v2 ∈ V
associe un vecteur v1 +V v2 ∈ V ;
action scalaire : une loi ·V : R × V → V qui a tout nombre réel α ∈ R (dit scalaire) et tout
vecteur v ∈ V associe un vecteur α ·V v ∈ V ;
ces opérations étant soumises aux axiomes suivants :
1. propriété associative : (v1 +V v2 ) +V v3 = v1 +V (v2 +V v3 ) pour tous v1 , v2 , v3 ∈ V ;
2. propriété commutative : v1 +V v2 = v2 +V v1 pour tous v1 , v2 ∈ V ;
3. existence du neutre : il existe un vecteur 0V ∈ V (dit vecteur nul tel que 0V +V v =
v +V 0V = v pour tout v ∈ V ;
4. existence de l’opposé : pour tout v ∈ V il existe un vecteur vop ∈ V tel que v+V vop = 0V ;
5. α ·V (v1 +V v2 ) = α ·V v1 +V αv2 , pour tout α ∈ R et tous v1 , v2 ∈ V ;
6. (α + β) ·V v = α ·V v +V β ·V v, pour tous α, β ∈ R et tout v ∈ V ;
7. (α · β) ·V v = α ·V (β ·V v), pour tous α, β ∈ R et tout v ∈ V ;
8. 1 ·V v = v pour tout v ∈ V .

Remarque 1.1.1 Les axiomes 5, 6 et 7 expriment les propriétés distributives de l’action sca-
laire par rapport à l’addition vectorielle, la multiplication entre nombres réels et l’addition
entre nombres réels respectivement.

La proposition suivante donne les premières propriétés élémentaires que l’on déduit
immédiatement de la définition d’espace vectoriel.

Proposition 1.1.1 Soit V un espace vectoriel réel.


0 Espaces vectoriels

1. Unicité du vecteur nul : si u ∈ V est un vecteur tel que u +V v = v pour tout v ∈ V alors
u = 0V .
2. α ·V 0V = 0V pour tout α ∈ R.
3. Si α ·V v = 0V alors soit α = 0 ou bien v = 0V .
4. (−1) ·V v = vop pour tout v ∈ V .
5. Si α ·V v = β ·V v et α 6= β alors v = 0V .

Démonstration
1. En appliquant la propriété de u avec v = 0V on trouve que u +V 0V = 0V . Par
définition, le vecteur nul a la propriété que v +V 0V = v pour tout v ∈ V . En par-
ticulier, en posant v = u on trouve 0V +V u = u. Donc u = 0V +V u = 0V .
2. On a 0V +V 0V = 0V , donc α ·V 0V = α ·V (0V +V 0V ) = α ·V 0V +V α ·V 0V . En
additionnant vectoriellement le vecteur (α ·V 0V )op on trouve alors :

0V = α ·V 0V +V (α ·V 0V )op = α ·V 0V +V α ·V 0V +V (α ·V 0V )op = α ·V 0V .

3. Supposons que α·V v = 0V avec α 6= 0. Alors v = 1·V v = (α−1 α)·V v = α−1 ·V (α·V v) =
α−1 ·V 0V = 0V .
4. (−1) ·V v = (−1) ·V v +V 0V = (−1) ·V v +V (v +V vop ) = ((−1) ·V v +V v) +V vop =
0V +V vop = vop .
5. Si α ·V v = β ·V v alors 0V = α ·V v +V (β ·V v)op = α ·V v +V (−β) ·V v = (α − β) ·V v.
Puisque α − β 6= 0 par hypothèse, on déduit du no. 3 que v = 0V . 

Remarque 1.1.2 La Proposition 1.1.1, no. 4 nous permet de simplifier la notation : d’ores en
avant nous indiquerons l’opposé d’un vecteur v par −v et non plus par vop .
Quand cela ne posera pas d’ambiguı̈té, nous supprimerons également les indices dans
les symboles des opérations +V et ·V , qui deviendrons simplement + et ·.

Remarque 1.1.3 La définition d’espace vectoriel réel ne fait intérvenir que la structure algé-
brique des nombres réels. Elle ne fait nullement appel aux propriétés fines des nombres
réels, tel l’axiome du continu, ou l’existence d’extrema. Elle utilise uniquement le fait que
l’ensemble R est muni d’une opération d’addition, qui est associative, commutative, ad-
met un élément neutre (le nombre zéro) et telle que tout élément α a un opposé −α ; et
une opération de multiplication, qui est également associative, commutative, qui se distri-
bue par rapport à l’addition et qui a un élément neutre, le nombre 1. Un ensemble muni
de telles opérations est dit un anneau commutatif. L’ensemble des  nombres entiers rélatifs
Z = {0, ±1, ±2, . . . } et l’ensemble des nombres rationnels Q = m

n | m, n ∈ Z, n 6= 0 sont
d’autres exemples d’anneaux commutatifs. En examinant la preuve de la Proposition1.1.1
no. 3 on remarque qu’on a utilisé une propriété de plus : le fait que tout élément non
nul α ait un inverse par rapport à la multiplication, α−1 . Un anneau qui a cette propriété
supplémentaire est dit corps commutatif. L’anneau des entiers Z n’est pas un corps, alors
que Q l’est.
Les notions de l’algèbre linéaire n’utilisent que la structure de corps commutatif de R.
On pourrait donc aussi bien développer la théorie des espaces vectoriels sur un corps quel-
conque, par exemple les espaces vectoriels rationnels. Nous avons décidé de nous borner à la
Chapitre I 1

theorie des espaces vectoriels réels pour ne pas repousser le lecteur avec trop des générailtés
abstraites et parce que ce cas suffit pour les application à la Physique, l’Ingénierie etc. . .
Enfin, presque ! Au Chapitre V, pour étudier les matrices symétriques réelles, nous aurons
besoin d’utiliser des espaces vectoriels sur le corps C des nombres complexes.

§ 2 Exemples
Exemple 1.2.1 Soit n ≥ 1 un entier. L’espace vectoriel Rn est l’ensemble des n-uplets de
nombres réels
Rn = {(a1 , . . . , an ) | a1 , . . . , an ∈ R} .
L’addition et l’action scalaire sont définies composante par composante :
(a1 , . . . , an ) + (b1 , . . . , bn ) = (a1 + b1 , . . . , an + bn ); α · (a1 , . . . , an ) = (αa1 , . . . , αan ).
Il est aisé de montrer que ces opérations satisfont les axiomes d’espace vectoriel réel, nous
laissons au lecteur le soin de faire les vérifications nécéssaires. Remarquons en particulier
que R1 = R. Le vecteur nul de Rn est évidemment (0, . . . , 0).
Exemple 1.2.2 Nous indiquerons par 0 = {0} l’ensemble constitué d’un seul élément. Il est
évident que, en posant 0 + 0 = 0 et α · 0 = 0 pour tout α ∈ R, cela définit un espace vectoriel
dit espace nul. On peut imaginer que R0 = 0.
Remarque 1.2.1 L’espace nul est le seul espace vectoriel réel n’ayant qu’un nombre fini
d’éléments car, si V est un espace vectoriel non nul, V contient un vecteur v 6= 0V , donc
V contient tous les éléments αv, ∀α ∈ R. Ces éléments sont tous différents, par la Proposi-
tion1.1.1 no. 5. V a donc une infinité d’éléments.
Exemple 1.2.3 Soient n, m ≥ 1 deux entiers. Une matrice à m lignes et n colonnes est un
tableau de mn nombres réels disposés en m lignes et n colonnes
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
..  .
 
 .. ..
 . . . 
am1 am2 . . . amn
Les indices du coéfficient aij indiquent qu’il se trouve sur la i-ème ligne et j-ème colonne
de la matrice. Si m = n on dira que la matrice est carrée. L’entier n est alors appelé l’ordre
de la matrice. Soit M (m × n, R) l’ensemble de toutes les matrices à m lignes et n colonnes.
L’addition et l’action scalaire sont définies composante par composante :
   
a11 a12 . . . a1n b11 b12 . . . b1n
 a21 a22 . . . a2n   b21 b22 . . . b2n 
..  +  .. ..  =
   
 .. .. ..
 . . .   . . . 
am1 am2 . . . amn bm1 bm2 . . . bmn
(1.2.1)  
a11 + b11 a12 + b12 . . . a1n + b1n
 a21 + b21 a22 + b22 . . . a2n + b2n 
=
 
.. .. .. 
 . . . 
am1 + bm1 am2 + bm2 . . . amn + bmn
2 Espaces vectoriels

   
a11 a12 ... a1n αa11 αa12 ... αa1n
 a21 a22 ... a2n   αa21 αa22 ... αa2n 
(1.2.2) α· . ..  =  .. ..  .
   
.. ..
 .. . .   . . . 
am1 am2 . . . amn αam1 αam2 . . . αamn

Il est aisé de montrer que ces opérations satisfont les axiomes d’espace vectoriel réel, nous
laissons au lecteur le soin de faire les vérifications nécéssaires. Le vecteur nul de l’espace
M (m × n, R) est la matrice nulle, dont tous les coéfficients sont égaux à zéro. Remarquons
en particulier que M (1 × n, R) = Rn .

Exemple 1.2.4 Indiquons par R[X] l’ensemble de tous les polynômes à coéfficients réels.
Ce sont donc toutes les expressions du type p(X) = a0 + a1 X + a2 X 2 + · · · + an X n , avec
a0 , . . . , an ∈ R. Si an 6= 0, l’entier n est appelé le degré du polynôme p(X), noté n = deg p.
Soit q(X) = b0 + b1 X + b2 X 2 + · · · + bm X m un autre polynôme. On peut supposer que m = n
car, si m < n on peut aussi écrire q(X) = b0 + b1 X + b2 X 2 + · · · + bm X m + 0X m+1 + . . . 0X n
(soit bm+1 = · · · = bn = 0) et si n < m on écrit p(X) = a0 + a1 X + a2 X 2 + · · · + an X n +
0X n+1 + · · · + 0X m (soit am+1 = · · · = am = 0) . Si donc m = n, on pose

p(X) + q(X) = (a0 + b0 ) + (a1 + b1 )X + (a2 + b2 )X 2 + · · · + (an + bn )X n .

Pour tout α ∈ R, on définit le polynôme αp(X) = αa0 + αa1 X + αa2 X 2 + · · · + αan X n . Il


est alors facile de constater que ces opérations définissent sur l’ensemble R[X] une structure
d’espace vectoriel réel. Le vecteur nul de R[X] est le polynome constant nul.

Remarque 1.2.2 Soulignons à nouveau que les exemples 1.2.1, 1.2.3 et 1.2.4 n’utilisent que
la structure algébrique des nombres réels. De ce fait, on peut aussi envisager les espaces
rationnels Qn , M (m × n, Q) et Q[X] et les espaces complexes Cn , M (m × n, C) et C[X] dont
nous aurons besoin plus tard.

Exemple 1.2.5 Soit I ⊆ R une partie de la droite réelle. Indiquons par F (I) l’ensemble de
toutes les fonctions f : I → R de l’ensemble I à valeurs réelles. Si f et g sont deux fonctions
sur I on définit f + g comme la fonction qui en tout point x ∈ I prend la valeur f (x) + g(x).
De même, pour tout α ∈ R on définit αf comme la fonction qui en tout point x ∈ I prend
la valeur α · f (x). Muni de ces opérations, l’ensemble F (I) est un espace vectoriel réel. Le
vecteur nul de F (I) est la fonction constante nulle, qui vaut zéro en tout point de I.

§ 3 Sous-espaces d’un espace vectoriel


Un sous-espace d’un espace vectoriel V est un sous-ensemble de V qui “se comporte
bien” par rapport aux opérations de V . Plus précisement on a la

Définition 1.3.1 Soit V un espace vectoriel. Un sous-ensemble non vide S ⊆ V est un sous-espace
de V si l’addition vectorielle et l’action scalaire de V font de S un espace vectoriel. Si S est un sous-
espace de V nous écrirons S ≤ V .

Concrètement, afin que S ⊆ V soit un sous-espace il faut que


Chapitre I 3

1. S ait au moins un élément ;


2. v1 +V v2 ∈ S pour tout v1 , v2 ∈ S ;
3. α ·V v ∈ S pour tout α ∈ R et v ∈ S.

Exemple 1.3.1 Tout espace vectoriel V contient deux sous-espaces bêtes : le sous-ensemble
{0V } ⊆ V consitué du seul vecteur nul et le sous-ensemble V tout entier.

Exemple 1.3.2 Soit H = (x, y) ∈ R2 | x + y = 0 . Le sous-ensemble H ⊆ R2 n’est pas vide,




car par exemple (0, 0) ∈ H. Si (x1 , y1 ) et (x2 , y2 ) sont deux vecteurs de H (ce qui veut dire que
x1 + y1 = 0 et x2 + y2 = 0) alors leur somme (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) appartient
aussi à H car x1 +x2 +y1 +y2 = (x1 +y1 )+(x2 +y2 ) = 0+0 = 0. De plus, pour tout α ∈ R, on
a α(x1 , y1 ) = (αx1 , αy1 ), qui est un vecteur de H puisque αx1 + αy1 = α(x1 + y1 ) = α0 = 0.
Donc H est un sous-espace de R2 .

Exemple 1.3.3 Soit I ⊆ R une partie de la droite réelle et C(I) l’ensemble des fonctions
continues en tous les points de I. Il n’est pas vide, car il contient la fonction nulle. Les
théorèmes sur les fonctions continues montrent bien que C(I) est un sous-espace de l’es-
pace F (I) de l’Exemple 1.2.5

Remarque 1.3.1 Tout sous-espace S d’un espace vectoriel V doit contenir le vecteur nul
0V . En effet, S doit contenir au moins un élement, soit v ∈ S, et doit aussi contenir tout
multiple de v, en particulier il doit contenir 0 ·V v = 0V . On peut alors rendre plus explicite
la condition 1 de la Définition 1.3.1 : pour établir si un sous-ensemble est un sous-espace, on
peut commencer par vérifier s’il contient le vecteur nul.

Exemple 1.3.4 Soit L = (x, y) ∈ R2 | x + y = 1 . Le sous-ensemble L ⊆ R2 n’est pas vide,




car par exemple (1, 0) ∈ H. Mais L ne saurait être un sous-espace, car (0, 0) ∈ / L.

Exemple 1.3.5 Soit D = (x, y) ∈ R2 | x + y ≥ 0 . Le sous-ensemble D ⊆ R2 n’est pas vide,




car par exemple (1, 0) ∈ D. Si (x1 , y1 ) et (x2 , y2 ) sont deux vecteurs de D (ce qui veut dire que
x1 + y1 ≥ 0 et x2 + y2 ≥ 0) alors leur somme (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) appartient
aussi à D car x1 + x2 + y1 + y2 = (x1 + y1 ) + (x2 + y2 ) ≥ 0 + 0 = 0. Si α ∈ R, on a α(x1 , y1 ) =
(αx1 , αy1 ) : pour vérifier si c’est un vecteur de D on calcule αx1 + αy1 = α(x1 + y1 ). Cette
quantité sera non négative si aussi α ≥ 0, mais sera negative si α < 1 et x1 + y1 > 0. Par
exemple (1, 0) ∈ D mais (−1)(1, 0) = (−1, 0) ∈ / D. Donc D n’est un sous-espace de R2 .

Remarque 1.3.2 Pour établir qu’un sous-ensemble S est un sous-espace, il faut vérifier que
les trois conditions de la Définition 1.3.1 sont satisfaites pour tous les éléments de S. Mais
pour établir que S n’est pas un sous-espace, il suffit de montrer que une au moins des condi-
tions n’est pas satisfaite, et cela même pour un seul choix d’élément de S.

Définition 1.3.2 La transposée d’une matrice A ∈ M (m×n, R) est la matrice t A ∈ M (n×n, R)


obtenue de A en échangeant les lignes et les colonnes de A :
   
a11 a12 . . . a1n a11 a21 . . . am1
 a21 a22 . . . a2n   a12 a22 . . . am2 
A= . =⇒ t A =  . ..  .
   
. .
. .
.  . ..
 . . .   . . . 
am1 am2 . . . amn a1n a2n . . . anm
4 Espaces vectoriels

Remarquonsqu’en echangeant deux fois les lignes et les colonnes on retrouve la matrice de
départ : t t A = A. Puisque l’addition matricielle et l’action scalaire sont définies coéfficient
par coéfficient, on vérifie immédiatement que la trasposition commute à ces opèrations :
t
(1.3.1) (A + B) = t A + t B; t
(αA) = α t A.

Exemple 1.3.6 Une matrice carrée A ∈ M (n × n, R) est dite symétrique si elle est égale à sa
transposée : A = t A. Autrement dit, les coéfficients symétriques par rapport à la diagonale
sont égaux :  
a11 a12 . . . a1n
 a12 a22 . . . a2n 
A= . ..  .
 
..
 .. . . 
a1n a2n . . . ann
En formules : aij = aji pour tout i, j ∈ {1, . . . , n}. Indiquons par S(n, R) ⊆ M (n × n, R)
le sous-ensemble de toutes les matrices symétriques d’ordre n. La matrice carrée nulle est
symétrique, donc S(n, R) n’est pas vide. Les formules (1.3.1) montrent bien que si A et B
sont deux matrices symétriques, la matrice A + B est symétrique et que, pour tout scalaire
α ∈ R, la matrice αA est symétrique. Donc S(n, R) est un sous-espace de M (n × n, R).

Exemple 1.3.7 Soit d ≥ 0 un entier et R[X]≤d = {p(X) ∈ R[X] | deg p ≤ d} l’ensemble de


tous les polynômes de degré inférieur ou égal à d. Si p1 (X) et p2 (X) sont deux polynômes,
on vérifie facilement que deg(p1 + p2 ) ≤ max(deg p1 , deg p2 ), donc p1 (X) + p2 (X) ∈ R[X]≤d
si p1 (X), p2 (X) ∈ R[X]≤d . Pour tout α ∈ R et tout p(X) ∈ R[X] on a que deg(αp) = deg p
si α 6= 0 et 0 · p = 0, donc tout multiple d’un polynôme de degré borné par d est encore de
degré inférieur ou égal à d. En conclusion, R[X]≤d est un sous-espace vectoriel de R[X].

Exemple 1.3.8 Soit d ≥ 1 un entier et R[X]d = {p(X) ∈ R[X] | deg p = d} l’ensemble de tous
les polynômes de degré égal à d. Ce sous-ensemble de R[X] n’est pas un sous-espace, car il
ne contient pas le polynôme constant nul (voir remarque 1.3.1). Soit alors P = R[X]d ∪ {0}.
Par ce qu’on a vu à l’exemple 1.3.7, tout multiple d’un polynôme de P est encore dans P .
Par contre, la somme de deux polynômes de degé d ou nuls peut être non nulle et de degré
strictement inférieur à d, par exemple en prenant p1 = 1 + X d et p2 = 1 − X d . Donc P n’est
pas un sous-espace de R[X].

Remarque 1.3.3 Les conditions de la Définition 1.3.1 sont indépendantes. L’exemple 1.3.5
montre que l’addition vectorielle de deux élements du sous-ensemble D ⊆ R2 est encore
dans D, mais pas tous les multiples de (1, 0) ∈ D sont dans D. Au contraire, dans l’exemple
1.3.8, l’ensemble P contient tous les multiples de ses éléments mais ne contient pas certaines
additions.

Exemple 1.3.9 Considérons le sous-ensemble U de M (2×2, R) avec les opérations indiquées :


            
1 x 1 x 1 y 1 x+y 1 x 1 αx
U= |x ∈ R ; +U = ; α ·U = .
0 1 0 1 0 1 0 1 0 1 0 1
Nous laissons au lecteur le soin de vérifierque Uavec ces opérations est un espace vectoriel
1 0
dans lequel le vecteur nul est la matrice . Toutefois U n’est pas un sous-espace de
0 1
Chapitre I 5

M (2×2, R), car U ne contient pas la matrice nulle, qui est le vecteur nul dans M (2×2, R) (voir
remarque 1.3.1). Le fait est que opérations +U et ·U ne sont pas les opérations de M (2×2, R) :
         
1 x 1 y 2 x+y 1 x α αx
+M (2×2,R) = ∈/ U ; α ·M (2×2,R) = .
0 1 0 1 0 2 0 1 0 α

§ 4 Générateurs, vecteurs libres, bases et dimension


Les deux opérations définies dans un espace vectoriel V , l’addition vectorielle et l’action
scalaire, peuvent être combinées et iterées, en prenant un un nombre fini de vecteurs, les
multipliant par des coéfficients et les additionnant. C’est la notion très utile de combinaison
linéaire.

Définition 1.4.1 Soient v1 , v2 , . . . , vn des vecteurs d’un espace vectoriel V et λ1 , λ2 , . . . , λn des


nombres réels. La combinaison linéaire de v1 , . . . , vn à coéfficients λ1 , . . . , λn est le vecteur

λ1 v1 + λ2 v2 + · · · + λn vn ∈ V.

Exemple 1.4.1 La combinaison linéaire des vecteurs (1, 2, 3), (4, 5, 6), (7, 8, 9) ∈ R3 à coéffi-
cients 2, −5, 3 est le vecteur

2(1, 2, 3) − 5(4, 5, 6) + 3(7, 8, 9) = (2, 4, 6) + (−20, −25, −30) + (21, 24, 27) = (3, 3, 3).

Exemple 1.4.2 La combinaison linéaire des polynômes 1 + 2X, 1 − X 2 , X + X 3 ∈ R[X] à


coéfficients 0, −1, 4 est le polynôme

0(1 + X) − (1 − X 2 ) + 4(X + X 3 ) = −1 + 4X + X 2 + 4X 3 .

Proposition 1.4.1 Un sous-ensemble non-vide S ⊆ V d’un espace vectoriel V est un sous-espace


de V si et seulement si S contient toutes les combinaisons linéaires de ses vecteurs.

Démonstration Supposons que S soit un sous-espace de V . Soient v1 , v2 , . . . , vn ∈ S et


considérons une combinaison λ1 v1 + λ2 v2 + · · · + λn vn . Alors, pour tout i = 1, . . . , n, on
a λi vi ∈ S, puisque vi ∈ S et, S étant un sous-espace, il contient tous les multiples de ses
vecteurs. S doit aussi contenir toutes les sommes de deux de ses vecteurs, donc λ1 v1 +λ2 v2 ∈
S, puisque λ1 v1 ∈ S et λ2 v2 ∈ S. Si n > 2, on peut répéter : (λ1 v1 +λ2 v2 )+λ3 v3 ∈ S, car c’est
l’addition des vecteurs λ1 v1 + λ2 v2 et λ3 v3 qui sont dans S. En continuant ce raisonnement,
on trouve bien que λ1 v1 + λ2 v2 + · · · + λn vn ∈ S.
Réciproquement, supposons que S contienne toutes les combinaisons linéaires de ses vec-
teurs. En particulier, si v1 , v2 ∈ S alors v1 + v2 ∈ S (combinaison à coéfficients λ1 = λ2 = 1)
et αv1 ∈ S pour tout α ∈ R (combinaison à coéfficients λ1 = α, λ2 = 0). Donc S est un
sous-espace de V . 

Définition 1.4.2 Soit S ⊆ V un sous-ensemble d’un espace vectoriel V . Le sous-espace engendré


par S est le plus petit sous-espace de V contenant S. Nous l’indiquerons par hSi. Les éléments de S
sont dits générateurs du sous-espace hSi.
6 Espaces vectoriels

On peut préciser : dire que hSi est le plus petit sous-espace de V contenant S signifie que
1. hSi est un sous-espace de V ;
2. hSi contient S
3. Si W ≤ V est un autre sous-espace contenant S, alors hSi ⊆ W .

Remarque 1.4.1 Si S = ∅ ⊆ V est l’ensemble vide, h∅i est le sous-espace nul. Il faut en effet
que h∅i soit un sous-espace, donc 0V ∈ h∅i par la remarque 1.3.1. Le sous-espace nul est
donc un sous-espace contenant ∅ et il est bien entendu contenu dans tout sous-espace de V .

Proposition 1.4.2 Soit S ⊆ V un sous-ensemble d’un espace vectoriel V . Le sous-espace engendré


par S est égal à l’ensemble de toutes les combinaisons linéaires des vecteurs de S.

Démonstration Le cas S = ∅ a été traité dans la remarque 1.4.1. Suposons donc S non-
vide et soit L(S) l’ensemble de toutes les combinaisons linéaires des éléments de S. On veut
montrer que L(S) = hSi.
On commence par montrer que L(S) est un sous-espace de V : si λ1 v1 + · · · + λn vn et
µ1 w1 +· · ·+µm wm sont deux éléments de L(S), c’est à dire deux combinaisons d’élements de
S, leur somme λ1 v1 +· · ·+λn vn +µ1 w1 +· · ·+µm wm est encore une combinaison d’élements
de S, donc appartient à L(S). De même pour tout α ∈ R on a que α(λ1 v1 + · · · + λn vn ) =
αλ1 v1 +· · ·+αλn vn est aussi une combinaison d’élements de S, donc appartient à L(S). Donc
L(S) est non-vide, puisqu’il contient S, et contient toutes les sommes et tous les multiples
de ses vecteurs : c’est bien un sous-espace.
L(S) contient S par définition et on vient de voir que c’est un sous-espace. Si W ≤ V
est un autre sous-espace contenant S, il suit de la proposition 1.4.1 que W contient toutes
les combinaisons linéaires de ses éléments et en particulier de ceux de S, puisque S ⊆ W .
Donc L(S) ⊆ W . Les trois conditions qui caractérisent hSi sont alors remplies par L(S),
donc L(S) = hSi. 

Exemple 1.4.3 Soient e1 = (1, 0, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0),. . ., en = (0, 0, 0, . . . , 1) les


vecteurs de Rn dont tous les coéfficients sont nuls sauf un, égal à 1. Tout vecteur de Rn
s’écrit comme combinaison linéaire de e1 , e2 , . . . , en :

(a1 , a2 . . . . , an ) = a1 (1, 0, . . . , 0) + a2 (0, 1, . . . , 0) + an (0, 0, . . . , 1) = a1 e1 + a2 e2 + · · · + an en .

Donc he1 , e2 , . . . , en i = Rn .

Remarque 1.4.2 Insistons sur l’importance des symboles dans la notation : {e1 , e2 , . . . , en }
est l’ensemble contenant uniquement les vecteurs e1 , e2 , . . . , en . C’est donc un ensemble fini.
L’ensemble he1 , e2 , . . . , en i est le sous-espace engendré par e1 , e2 , . . . , en : par la Proposi-
tion 1.4.2 il content non seulement ces vecteurs mais aussi toutes leurs combinaisons linéai-
res. En tout cas, en tant qu’espace vectoriel non nul, c’est un ensemble infini (voir remarque
1.2.1).

Exemple 1.4.4 Dans l’espace M (m × n, R), soit Eij la matrice dont tous les coéfficients sont
nuls sauf celui qui se trouve sur la i-ème ligne, j-ème colonne, égal à 1. Par exemple pour
Chapitre I 7

m = 2 et n = 3 on a :
     
1 0 0 0 1 0 0 0 1
E11 = , E12 = , E13 = ,
0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
E21 = , E22 = , E23 = .
1 0 0 0 1 0 0 0 1

Tout élément de M (2 × 3, R) s’écrit comme combinaison linéaire de ces matrices


       
a11 a12 a13 1 0 0 0 1 0 0 0 1
= a11 + a12 + a13
a21 a22 a23 0 0 0 0 0 0 0 0 0
     
0 0 0 0 0 0 0 0 0
+a21 + a22 + a23 .
1 0 0 0 1 0 0 0 1

On peut donc conclure que M (2 × 3, R) = hE11 , E12 , E13 , E21 , E22 , E23 i. Plus
P généralement,
toute matrice A ∈ M (m × n, R) s’écrit comme combinaison linéaire A = m
Pn
i=1 j=1 aij Eij .
Donc M (m × n, R) = hEij | i = 1, . . . , m; j = 1, . . . , ni.

Exemple 1.4.5 Par définition même, tout polynôme est combinaison linéaire des monômes
1, X, X 2 , . . . Pour d ≥ 0, le sous-espace h1, X, X 2 , . . . , X d i de l’espace vectoriel R[X] est
alors égal à R[X]≤d . Sans borner le degré, on a que h1, X, X 2 , . . . , X n , . . . i = R[X].

Remarque 1.4.3 L’exemple 1.4.5 permet de souligner un point subtil dans la définition 1.4.2
et la Proposition 1.4.2 : si S est un ensemble avec un nombre infini d’éléments, hSi est l’en-
semble de toutes les combinaisons linéaires d’un nombre fini d’éléments de S. Donc dire,
comme on l’a fait, que R[X] = h1, X, X 2 , . . . , X n , . . . i signifie que tout polynôme s’écrit
comme combinaison d’un nombre fini de monômes. Toutes les puissances de X sont nécés-
saires, car il existe des polynômes de degré arbitraire, mais chaque polynôme ne fait intérve-
nir qu’un nombre fini de générateurs.

Définition 1.4.3 On dira qu’un espace vectoriel V est de type fini si il existe un sous-ensemble
fini S ⊆ V tel que V = hSi.

Les exemples 1.4.3, 1.4.4 et 1.4.5 montrent que les espaces Rn , M (m × n, R) et R[X]≤d
sont de type fini. L’exemple 1.4.5 suggère aussi que R[X] ne devrait pas être de type fini.
C’est éffectivement le cas :

Exemple 1.4.6 R[X] n’est pas de type fini. Si, par absurde, il l’etait, on pourrait trouver un
nombre fini de polynômes p1 , p2 , . . . , pn ∈ R[X] tels que R[X] = hp1 , p2 , . . . , pn i. Autrement
dit, tout polynôme p devrait s’écrire comme combinaison linéaire de p1 , p2 , . . . , pn . Or soit
d = max{deg p1 , deg p2 , . . . , deg pn } et considérons p = X d+1 : ce polynôme ne peut pas
s’ecrire comme combinaison de p1 , p2 , . . . , pn car tout monôme dans une telle combinaison
est de degré strictement plus petit que d + 1. On a donc trouvé une contradiction.

Exemple 1.4.7 En identifiant un polynôme p(X) ∈ R[X] avec la fonction p : R → R, on


peut montrer que, pour toute partie I ⊆ R contenante un nombre infini d’éléments, l’espace
8 Espaces vectoriels

F (I) des fonctions sur I n’est pas de type fini. Pour ce faire, il faudrait vérifier que cette
identification fait de R[X] un sous-espace de F (I), c’est à dire que les opérations de R[X]
(définies à l’Exemple 1.2.4) coı̈ncident avec les opérations de F (I) déinies par ”évaluation
pontuelle” à l’Exemple 1.2.5. Le lecteur qu n’aimerait pas ce genre de subtilité trouvera une
démonstration directe du fait que F (I) n’est pas de type fini au Corollaire 2.5.2.

Exemple 1.4.8 Soit S = (x, y, z) ∈ R3 | x + y + z = 0 . Cet ensemble contient les vecteurs




(1, −1, 0), (0, 1, −1) et (1, −2, 1). Montrons que tout vecteur de S peut être écrit comme com-
binaison linéaire de ces trois vecteurs. On peut reformuler la condition x + y + z = 0 par
z = −x−y, donc tout vecteur de S est de la forme (x, y, −x−y). On cherche λ1 , λ2 , λ3 tels que
(x, y, −x − y) = λ1 (1, −1, 0) + λ2 (0, 1, −1) + λ3 (1, −2, 1) = (λ1 + λ3 , −λ1 + λ2 − 2λ3 , −λ2 + λ3 ).
On doit donc résoudre un système linéaire en les variables λ1 , λ2 , λ3 :

 λ1 + λ3 = x
(1.4.1) −λ1 + λ2 − 2λ3 = y .
−λ2 + λ3 = −x − y

Ce n’est pas un hasard : tous les problèmes d’algèbre linéaire se traduisent en systèmes
d’équations linéaires. Nous verrons bientot des techniques de solutions pour ces systèmes
d’équations. Contentons-nous pour l’instant de remarquer que la première et troisième équa-
tion permettent d’exprimer λ1 et λ2 en fonction de λ3 et de x et y :

λ1 = x − λ3
.
λ2 = x + y + λ3

En remplaçant ces valeurs de λ1 et λ2 dans la deuxième équation du système (1.4.1), nous


trouvons que telle équation est satisfaite pour toute valeur de λ3 . Le système (1.4.1) admet
donc des solutions, en fait une infinité de solutions, une pour chaque valeur de λ3 :

(1.4.2) (x, y, −x − y) = (x − λ3 )(1, −1, 0) + (x + y + λ3 )(0, 1, −1) + λ3 (1, −2, 1)

Donc tout élément de S est bien une combinaison linéaire de (1, −1, 0), (0, 1, −1) et (1, −2, 1).
Si on savait que S est un sous-espace, nous pourrions dire que ces vecteurs engendrent
S, donc S = h(1, −1, 0), (0, 1, −1), (1, −2, 1)i. Pour vérifier que S est un sous-espace, nous
pouvons soit vérifier qu’il contient toutes les sommes et tous les multiples de ses vecteurs,
comme dans l’exemple 1.3.2, soit utiliser l’expression générale que nous avons trouvé pour
les vecteurs de S :
S = (x, y, −x − y) ∈ R3 | ∀x, y ∈ R


= x(1, 0, −1) + y(0, 1, −1) ∈ R3 | ∀x, y ∈ R


= h(1, 0, −1), (0, 1, −1)i.

Remarquons que, ayant décrit S comme l’ensemble de toutes les combinaisons linéaires de
(1, 0, −1) et (0, 1, −1), nous avons automatiquement établit que S est un sous-espace de R3 ,
sans besoin d’autres vérifications.

L’exemple 1.4.8 montre que un sous-espace peut avoir plusieurs ensembles de géné-
rateurs, même avec un nombre différent d’éléments : S = h(1, −1, 0), (0, 1, −1), (1, −2, 1)i
mais aussi S = h(1, 0, −1), (0, 1, −1)i. Pour économiser les calculs, nous sommes bien sûr
Chapitre I 9

intéressés à des familles de générateurs avec un nombre minimum d’éléments. Il est évident
que les trois vecteurs (1, −1, 0), (0, 1, −1) et (1, −2, 1) sont surabondants pour engendrer le
sous-espace S : en posant λ3 = 0 dans la formule (1.4.2), on voit bien que tour vecteur de
S s’écrit comme combinaison linéaire des seuls (1, −1, 0) et (0, 1, −1), qui engendent donc
aussi le sous-espace S. Pour dégager la bonne notion, utilisons encore (1.4.2) pour écrire le
vecteur nul (0, 0, 0) comme combinaison des générateurs :

(1.4.3) (0, 0, 0) = −λ3 (1, −1, 0) + λ3 (0, 1, −1) + λ3 (1, −2, 1).

On a donc plusieures façons d’écrire le vecteur nul comme combinaison linéaire de (1, −1, 0),
(0, 1, −1) et (1, −2, 1) (une pour chaque valeur de λ3 ) mais une seule de l’écrire comme
combinaison de (1, −1, 0) et (0, 1, −1), car il faut alors que λ3 = 0.

Définition 1.4.4 Des vecteurs v1 , . . . , vk d’un espace vectoriel V sont dits libres si la seule combi-
naison linéaire λ1 v1 + · · · + λk vk qui est égale au vecteur nul est la combinaison à coéfficients nuls
λ1 = λ2 = · · · = λk = 0. Si v1 , . . . , vk ne sont pas libres nous dirons qu’ils sont liés.

Par exemple, les deux vecteurs (1, −1, 0) et (0, 1, −1) sont libres, alors que les trois vec-
teurs (1, −1, 0), (0, 1, −1) et (1, −2, 1) sont liés, car on peut écrire (0, 0, 0) = −(1, −1, 0) +
(0, 1, −1) + (1, −2, 1).

Exemple 1.4.9 Pour établir si les vecteurs (1, 0), (1, 1) et (2, 2) de R2 sont libres ou pas, es-
sayons d’écrire le vecteur nul comme combinaison de ces vecteurs :

α + β + 2γ = 0
(0, 0) = α(1, 0) + β(1, 1) + γ(2, 2) = (α + β + 2γ, β + 2γ) ⇐⇒ .
β + 2γ = 0

En faisant la différence entre la première et la deuxième équation du système, on trouve


α = 0. La deuxième équation donne alors β = −2γ, donc le système a des solutions et les
vecteurs sont donc liés. Par exemple :

(1.4.4) (0, 0) = 0(1, 0) − 2(1, 1) + (2, 2).

Remarque 1.4.4 L’exemple 1.4.9 met en évidence que afin que des vecteurs v1 , . . . , vk soient
liés il faut qu’il existe une combinaison λ1 v1 + · · · + λk vk = 0 avec au moins un coéfficient
non nul, ce qui n’empêche nullement que certains des coéfficients puissent être nuls.

Remarque 1.4.5 Un seul vecteur v ∈ V est lié si et seulement si v = 0. Dire que v est lié
veut dire qu’il existe une combinaison linéaire λv = 0 avec λ 6= 0. La Proposition 1.1.1 no.5
(avec α = λ et β = 0) implique alors que v = 0.

Remarque 1.4.6 Deux vecteurs v1 , v2 ∈ V sont liés si et seulement si ils sont proportionnels,
c’est à dire que l’un est multiple de l’autre. Dire que v1 , v2 sont liés signifie qu’il existe
λ1 , λ2 ∈ R, avec au moins un des deux non nuls, tels que λ1 v1 + λ2 v2 = 0. Si λ1 6= 0, on
peut écrire v1 = − λλ12 v2 . Si λ1 = 0, il faut que λ2 6= 0 et on a λ2 v2 = 0 donc v2 = 0. Alors
v2 = 0v1 .
10 Espaces vectoriels

Remarque 1.4.7 On ne peut pas généraliser l’exemple 1.4.6 au cas de trois vecteurs. Il n’est
pas vrai que si v1 , v2 , v3 sont deux à deux non proportionnels (c’est à dire que v1 n’est pas
proportionnel ni à v2 ni à v3 et que v2 et v3 ne sont pas proportionnels entre eux) alors v1 , v2 ,
v3 sont libres. Les vecteurs (1, −1, 0), (0, 1, −1) et (1, −2, 1) de R3 ne sont pas proportionnels
deux à deux, mais l’exemple 1.4.8 monte bien qu’il sont liés.

Proposition 1.4.3 Les vecteurs v1 , . . . , vk sont libres si et seulement si tout v ∈ hv1 , . . . , vk i


s’écrit de façon unique comme combinaison linéaire de v1 , . . . , vk .

Démonstration Supposons que v1 , . . . , vk sont libres et soit v ∈ hv1 , . . . , vk i. Soient v =


α1 v1 + · · · + αk vk et v = β1 v1 + · · · + βk vk deux expressions de v comme combinaison
linéaire de v1 , . . . , vk . Nous devons montrer que α1 = β1 ,. . ., αk = βk . Il suffit pour cela de
remarquer que :

0 = v − v = (α1 v1 + · · · + αk vk ) − (β1 v1 + · · · + βk vk ) = (α1 − β1 )v1 + · · · + (αk − βk )vk ,

ce qui fournit une écriture du vecteur nul comme combinaison de v1 , . . . , vk . Puisque on


suppose que ces vecteurs sont libres, nécéssairement les coéfficients de cette combinaison
sont nuls : α1 − β1 = 0,. . ., αk − βk = 0, donc α1 = β1 ,. . ., αk = βk .
Réciproquement, si tout vecteur de hv1 , . . . , vk i s’écrit de façon unique, ça doit être le cas
pour 0 ∈ hv1 , . . . , vk i. Mais puisque 0 = 0v1 + · · · + 0vk , celle-ci doit être la seule écriture
possible. Donc v1 , . . . , vk sont libres. 

Définition 1.4.5 Soit V un espace vectoriel de type fini. Des vecteurs v1 , . . . , vn ∈ V sont une
base si ils sont à la fois
1. générateurs de V ;
2. libres.
Autrement dit, tout vecteur v ∈ V s’écrit de façon unique comme combinaison linéaire v = λ1 v1 +
· · · + λn vn . Les coéfficients λ1 , . . . , λn sont dits les coordonnées de v dans la base v1 , . . . , vn .

Exemple 1.4.10 En reprenant l’exemple 1.4.3, on voit bien que les vecteurs e1 , e2 , . . . , en for-
ment une base de Rn , dite base canonique. De la même manière, l’exemple 1.4.4 montre que
les matrices {Eij | i = 1, . . . , m; j = 1, . . . , n} forment une base pour l’espace M (m × n, R),
qu’on appellera parfois aussi base canonique.

Remarque 1.4.8 Une base est un ensemble ordonné de vecteurs, c’est à dire que l’ordre dans
lequel nous écrivons les vecteurs d’une base est important : les bases {v1 , v2 , v3 , . . . , vn }
et {v2 , v1 , v3 , . . . , vn } ne sont pas la même base, bien que composées des même vecteurs.
L’intérêt de les distinguer est plus évident si on pense à ce que les coordonnées expriment. Le
vecteur de coordonnées (1, 2, 0, . . . , 0) dans la base {v1 , v2 , v3 , . . . , vn } est le vecteur v1 +2v2
alors que le vecteur de coordonnées (1, 2, 0, . . . , 0) dans la base {v2 , v1 , v3 , . . . , vn } est le
vecteur 2v1 + v2 .

Exemple 1.4.11 On a vu à l’exemple 1.4.5 que R[X]≤d est engendré par les monômes 1,
X, . . ., X d . Ces vecteurs sont aussi libres, comme on le voit par exemple en appliquant la
Proposition 1.4.3 ; ils forment donc une base de R[X]≤d .
Chapitre I 11

Remarque 1.4.9 On a vu à l’exemple 1.4.6 que R[X] n’est pas de type fini. Cet espace a
toutefois une famille naturelle de générateurs : R[X] = h1, X, X 2 , . . . , X n , . . . i. En prenant
en compte la remarque 1.4.3, il devient naturel d’étendre la définition 1.4.4 au cas d’un en-
semble infini S de vecteurs, qui seront dits libres si la seule façon d’écrire le vecteur nul
comme combinaison d’un nombre fini de vecteurs de S est la combinaison à coéfficients tous
nuls. La définition 1.4.5 garde alors un sens même pour un ensemble infini de vecteurs, et
permet par exemple de dire que les monômes 1, X, X 2 , . . . , X n , . . . forment une base pour
R[X].

Le résultat suivant nous dit que si on dispose d’un ensemble de générateurs qui ne sont
pas libres, on peut en éliminer un. La démonstration est aussi utile, car elle indique comment
choisir le générateur à éliminer.

Proposition 1.4.4 Soient u1 , . . . , up des générateurs pour un espace vectoriel V . Si les vecteurs
u1 ,. . ., up sont liés, il existe un indice 1 ≤ i ≤ p tel que les vecteurs u1 , . . . , ui−1 , ui+1 , . . . , up sont
encore des générateurs pour V .

Démonstration Dire que u1 , . . . , up sont liés signifie qu’il existe une combinaison linéaire
λ1 u1 + · · · + λp up = 0 avec un au moins des coéfficients non nuls. Soit λi 6= 0 : on peut alors
écrire
−λi ui = λ1 u1 + · · · + λi−1 ui−1 + λi+1 ui+1 + · · · + λp up
donc
λ1 λi−1 λi+1 λp
(1.4.5) ui = − u1 · · · − ui−1 − ui+1 − · · · − up .
λi λi λi λi
Les u1 , . . . , up étant des générateurs, tout v ∈ V s’exprime comme leur combinaison linéaire :
v = α1 u1 + · · · + αp up . En utilisant (1.4.5), on peut remplacer le vecteur ui :

v = α1 u1 + · · · + αi−1 ui−1 + αi ui + αi+1 ui+1 + αp up 


λi−1 λi+1 λp
= α1 u1 + · · · + αi−1 ui−1 + αi − λλ1i u1 · · · − λi ui−1 − λi ui+1 − ··· − λi u p

 i+1 ui+1 +
+α  α p up  
= α1 − αi λi u1 + · · · + αi−1 − αi λλi−1
λ1
i
ui−1
   
λi+1 λ
+ αi+1 − αi λi ui+1 + · · · + αp − αi λpi up

ce qui met en évidence que les vecteurs u1 , . . . , ui−1 , ui+1 , . . . , up sont encore des générateurs
pour V . 

Exemple 1.4.12 Revenons sur l’exemple 1.4.8 : les vecteurs (1, −1, 0), (0, 1, −1) et (1, −2, 1)
engendrent le sous-espace S. Ils sont liés, comme on le voit en posant λ3 = 1 dans la formule
(1.4.3). Le coéfficient de chacun de ces vecteurs est non nul, donc nous pouvons éliminer
n’importe lequel. Par exemple, on peut écrire (1, −1, 0) = (0, 1, −1) + (1, −2, 1) et conclure
par la Proposition 1.4.4 que S est engendré par (0, 1, −1) et (1, −2, 1). Ces deux vecteurs ne
sont pas proportionnels, donc par la remarque 1.4.6 ils sont libres, donc {(0, 1, −1), (1, −2, 1)}
est une base pour S. Mais nous pourrions aussi éliminer (0, 1, −1) par la relation (0, 1, −1) =
(1, −1, 0) − (1, −2, 1) et conclure que {(1, −1, 0), (1, −2, 1)} est une base pour S. Ou encore
éliminer (1, −2, 1) et conclure que {(1, −1, 0), (0, 1, −1)} est une base pour S.
12 Espaces vectoriels

Exemple 1.4.13 Revenons aussi sur l’exemple 1.4.9 : nous laissons au lecteur le soin de
vérifier que les vecteurs (1, 0), (1, 1) et (2, 2) engendrent R2 . La formule (1.4.4) nous montre
qu’ils ne sont pas libres. Le procédé de la Proposition 1.4.4 nous dit que nous pouvons
éliminer soit (1, 1), soit (2, 2) mais pas (1, 0), car son coéfficient dans (1.4.4) est nul. On peut
donc conclure que R2 est engendré soit par {(1, 0), (1, 1)}, soit par {(1, 0), (2, 2)}. Dans les
deux cas, il s’agit de bases, car les vecteurs ne sont pas proportionnels. D’ailleurs, si nous
éliminions (1, 0), nous resterions avec les vecteurs (1, 1) et (2, 2) qui eux sont proportionnels
et n’engendrent pas R2 .

La Proposition 1.4.4 fournit donc une première strategie pour déterminer une base pour
un espace vectoriel : commencer par trouver des générateurs et puis, si ils ont liés, en
éliminer quelques un.

Théorème 1.4.1 Tout espace vectoriel de type fini admet une base.

Démonstration Puisque l’espace est de type fini, il est engendré par un nombre fini, disons p,
de vecteurs. Si ces vecteurs ne sont pas libres, la Proposition 1.4.4 garantit que nous pouvons
en éliminer un. Nous restons donc avec p − 1 générateurs : s’ils sont libres, on a trouvé
une base (comme dans les exemples 1.4.12 et 1.4.13) ; autrement, nous pouvons à nouveaux
appliquer la Proposition 1.4.4 pour rester avec p − 2 générateurs. S’ils sont libres, on a trouvé
une base, autrement on continue à éliminer. Mais nous ne pouvons pas continuer à éliminer
à l’infini, puisque on est en train d’éliminer des vecteurs dans une liste finie : le procédé
s’arrête au pire après p éliminations, car on reste alors sans aucun vecteur à éliminer. 

La proposition suivante nous propose la deuxième méthode pour construire des bases,
en quelque sorte opposée à celle de la Proposition 1.4.4 : à partir d’un ensemble de vecteurs
libres et en rajouter des nouveaux.

Proposition 1.4.5 Dans un espace vectoriel V , soient w1 , . . . , wk des vecteurs libres et soit v ∈ V .
Les vecteurs w1 , . . . , wk , v sont liés si et seulement si v ∈ hw1 , . . . , wk i.

Démonstration Supposons que w1 , . . . , wk , v sont liés : on peut donc trouver λ1 , . . . , λk , λ ∈


R, non tous nuls, tels que λ1 w1 +· · ·+λk wk +λv = 0. Si λ = 0, on aurait λ1 w1 +· · ·+λk wk = 0
avec au moins un des λi non nuls, ce qui contredit l’hypothèse que les w1 , . . . , wk sont libres.
Il faut donc que λ 6= 0, et on peut alors écrire

λ1 λk
−λv = λ1 w1 + · · · + λk wk ⇐⇒ v=− w1 + · · · + wk ∈ hw1 , . . . , wk i.
λ λ
Inversement, si v ∈ hw1 , . . . , wk i, on peut écrire v comme combinaison linéaire de w1 ,. . .,wk ,
soit v = α1 w1 + · · · + αk wk , donc on a 0 = α1 w1 + · · · + αk wk − v : c’est une combinaison
non nulle, puisque le coéfficient de v est −1 6= 0, donc ces vecteurs sont liés. 

Remarque 1.4.10 S’agissant d’une condition nécessaire et suffisante, nous pouvons aussi
reformuler la Proposition 1.4.5 par sa négation : les vecteurs w1 , . . . , wk , v sont libres si et
seulement si v ∈
/ hw1 , . . . , wk i.
Chapitre I 13

Exemple 1.4.14 Soit L = (x, y, z) ∈ R3 | 3x + 2y + z = 0 . Nous laissons au lecteur le soin




de vérifier que L est un sous-espace. Le vecteur (1, −1, −1) ∈ L. Il est non nul, donc libre
(voir remarque 1.4.5). Le vecteur (0, 1, −2) ∈ L et n’est pas proportionnel à (1, −1, −1),
donc (1, −1, −1), (0, 1, −2) sont libres (voir remarque 1.4.6). Pour établir si ces deux vec-
teurs forment une base de L, il faut vérifier qu’ils sont des générateurs. Tout vecteur de L
est du type (x, y, −3x − 2y), on cherche donc à savoir si pour tout x, y ∈ R on peut trouver
λ, µ ∈ R tels que

λ=x
(x, y, −3x − 2y) = λ(1, −1, −1) + µ(0, 1, −2) = (λ, −λ + µ, −λ − 2µ) ⇐⇒
µ=x+y

donc tout vecteur de L s’écrit comme combinaison de (1, −1, −1), (0, 1, −2), qui en sont alors
des générateurs. Puisque ils sont libres, c’est bien une base de L.

Proposition 1.4.6 Soit V un espace vectoriel, u1 , . . . , up des générateurs de V et w1 , . . . , wk des


vecteurs libres dans V . Alors k ≤ p.

Démonstration La démonstration se base sur le principe des tiroirs : nous allons montrer
qu’on peut remplacer chacun des vecteurs ui par un des wj . On trouve que nécéssairement
dans le tiroir contenant les ui il y a au moins autant d’éléments que dans celui qui contient
les wj .
Puisque u1 , . . . , up engendrent V , le vecteur w1 s’écrit comme combinaison de ces géné-
rateurs : w1 = α1 u1 + · · · + αp up . Au moins un des coéfficients αi n’est pas nul, autrement
on aurait w1 = 0, ce qui contredit que w1 , . . . , wk sont libres. Quitte à renuméroter les
générateurs, on peut supposer que α1 6= 0. On trouve alors

1 α2 αp
(1.4.6) α1 u1 = w1 − α2 u2 − · · · − αp up ⇐⇒ u1 = w1 − u2 − · · · − up .
α1 α1 α1
On peut utiliser cette relation pour montrer que les vecteurs w1 , u2 , . . . , up engendrent V :
tout vecteur v ∈ V s’exprime comme leur combinaison linéaire : v = λ1 u1 +λ2 u2 +· · ·+λp up .
En substituant (1.4.6), on trouve
 
α
v = λ1 α11 w1 − αα21 u2 − · · · − αp1 up + λ2 u2 + · · · + λp up
  
α
 .
= αλ11 w1 + λ2 − λ1 αα21 u2 + · · · + λp − λ1 αp1 up

Donc w1 , u2 , . . . , up engendrent bien V .


On peut répéter ce procédé : puisque w1 , u2 , . . . , up engendrent V , le vecteur w2 s’écrit
comme combinaison : w2 = β1 w1 + β2 u2 · · · + βp up . Comme avant, on peut dire que au
moins un des coéfficients βi n’est pas nul, mais on peut dire même plus : au moins un entre
β2 , . . . , βp n’est pas nul. Autrement on aurait w2 = β1 w1 , ce qui contredit que w1 , . . . , wk
sont libres. Quitte à rénumeroter les générateurs, on peut supposer que β2 6= 0. On peut
alors procéder comme avant et remplacer u2 par w2 pour trouver que w1 , w2 , u3 , . . . , up
sont des générateurs pour V .
En continuant le raisonnement, on peut alors ajouter tous les wj aux générateurs, en
éliminant à chaque pas un des ui . On parvient à la conclusion que w1 , . . . , wk , up−k , . . . , up
sont des générateurs pour V et que k ≤ p. 
14 Espaces vectoriels

Corollaire 1.4.1 Si V est un espace vectoriel de type fini, tout ensemble de vecteurs libres
se prolonge en une base. Concrètement, soient v1 , . . . , vk des vecteurs libres de V . On peut
alors trouver des vecteurs vk+1 , . . . , vk+n ∈ V tels que {v1 , . . . , vk , vk+1 , . . . , vk+n } soit une
base de V .

Démonstration Le procédé est constructif : si {v1 , . . . , vk } n’est pas une base de V , il existe
vk+1 ∈ V avec vk+1 ∈ / hv1 , . . . , vk i. La remarque 1.4.10 dit alors que {v1 , . . . , vk , vk+1 } sont
libres. S’ils forment une base de V on s’arrête. Autrement, on choisit vk+2 ∈ / hv1 , . . . , vk+1 i
et on trouve un ensemble de k + 2 vecteurs libres. On continue de cette façon. L’espace V
étant de type fini, il est engendré par un ensemble fini, disons à p éléments, de vecteurs. Le
procédé doit s’arréter après avoir rajouté au plus p − k vecteurs à l’ensemble {v1 , . . . , vk } de
départ, autrement on aurait une contradiction avec l’inégalité de la Proposition 1.4.6. 

Corollaire 1.4.2 Soient u1 , . . . , up et w1 , . . . , wk deux bases d’un espace vectoriel V . Alors k = p.

Démonstration En effet u1 , . . . , up et w1 , . . . , wk sont à la fois générateurs et libres. En


considérant u1 , . . . , up comme générateurs et w1 , . . . , wk comme vecteurs libres, la Proposi-
tion 1.4.6 donne que k ≤ p. Mais on peut aussi considérer les w1 , . . . , wk comme générateurs
et u1 , . . . , up comme vecteurs libres, et alors la Proposition 1.4.6 donne que p ≤ k. 

Toutes les bases d’un même espace vectoriel de type fini ont donc le même nombre
d’élements, ce qui justifie la définition suivante :

Définition 1.4.6 Soit V un espace vectoriel de type fini. La dimension de V , notée dim V , est le
nombre d’éléments d’une quelconque base de V .

Exemple 1.4.15 L’exemple 1.4.10 nous dit que dim Rn = n et que dim M (m × n, R) = mn.
L’exemple 1.4.11 montre que dim R[X]≤d = d + 1.

Remarque 1.4.11 La Proposition 1.4.6 permet de caractériser la dimension d’un espace V


comme le nombre minimum de générateurs de V et aussi comme le nombre maximum de vecteurs
libres dans V . En effet, soit d = dim V et v1 , . . . , vd une base de V . Si u1 , . . . , up est un en-
semble quelconque de générateurs de V , puisque les vecteurs de la base sont libres, il faut
que d ≤ p : il y a au moins d éléments dans tout ensemble de générateurs de V . D’autre part,
soient w1 , . . . , wk des vecteurs libres dans V . Les vecteurs de la base engendrent V , donc
k ≤ d : il y a au plus d éléments dans tout ensemble de vecteurs libres dans V .

La dimension est la quantité la plus utile associée à un espace vectoriel, en fait on verra
plus tard (Corollaire 2.2.1) que tous les espaces de dimension donnée n sont essentiellement
la “même chose que Rn ”, dans un sens que nous préciserons. On peut déja commencer à
apprecier l’utilité de la dimension en remarquant le résultat suivant, qu’on utilisera à plu-
sieures reprises.

Proposition 1.4.7 Soient V un espace vectoriel et S ≤ V un sous-espace. Alors dim S ≤ dim V et


dim S = dim V si et seulement si S = V .
Chapitre I 15

Démonstration L’inégalité dim S ≤ dim V est une conséquence immédiate de la Proposi-


tion 1.4.6. Soient s1 , . . . , sk une base de S et v1 , . . . , vp une base de V : les vecteurs s1 , . . . , sk
sont donc libres, et les v1 , . . . , vp sont des générateurs de V . Alors dim S = k ≤ p = dim V .
Il est évident que si S = V alors dim S = dim V . Réciproquement, supposons que
dim S = dim V . Soit v ∈ V . Les vecteurs s1 , . . . , sk sont libres et les vecteurs s1 , . . . , sk , v
doivent être liés, car, par la remarque 1.4.11, il ne peut pas y avoir plus que k = dim S =
dim V vecteurs libres dans V . La Proposition 1.4.5 nous dit alors que v ∈ S. Puisque tout
vecteur de V est dans S, on a bien S = V . 

Exemple 1.4.16 À l’exemple 1.3.8, nous avons vu que R[X]d = {p(X) ∈ R[X] | deg p = d},
l’ensemble de tous les polynômes de degré égal à d, n’est pas un sous-espace de R[X].
Déterminons le sous-espace engendré par ce sous-ensemble. Puisque toute combinaison
linéaire de polynômes de degré d est un polynôme de degré inférieur ou égal à d, on peut
déja dire que hR[X]d i ⊆ R[X]≤d . L’ensemble R[X]d contient les polynômes 1+X d , X +X d ,. . .,
X d−1 + X d , X d qui forment un ensemble libre, car le polynôme

p(X) = α0 1 + X d + α1 X + X d + · · · + αd−1 X d−1 + X d + αd X d


  

= α0 + α1 X + · · · + αd−1 X d−1 + (α0 + · · · + αd )X d

est égal au polynôme constant nul si et seulement si tous les coéfficients de toutes les puis-
sances de X sont nuls, ce qui veut dire α0 = α1 = · · · = αd−1 = 0 et α0 + · · · + αd = 0, donc
aussi αd = 0. On a donc trouvé d + 1 vecteurs libres dans R[X]d ⊂ hR[X]d i. Donc, par la
remarque 1.4.11, dimhR[X]d i ≥ d + 1 = dim R[X]≤d . On déduit alors de la Proposition 1.4.7
que hR[X]d i = R[X]≤d .

§ 5 Sommes et intersections de sous-espaces


On a introduit les sous-espaces d’un espace vectoriel V comme étant les sous-ensembles
de V qui sont stables sous les opérations de V . On peut dès lors demander comment ces
sous-ensembles se comportes vis-à-vis des opérations de la théorie des emsembles, c’est à
dire l’intersection et la réunion.

Proposition 1.5.1 Si U et W sont deux sous-espaces d’un espace vectoriel V , l’intersection U ∩ W


est aussi un sous-espace de V .

Démonstration Soient v1 , v2 ∈ U ∩ W . Cela veut dire que v1 , v2 appartiennent à U et aussi


à W . Puisque U est un sous-espace et v1 , v2 ∈ U , il suit que v1 + v2 ∈ U . De même, puisque
W est un sous-espace et v1 , v2 ∈ W , il suit que v1 + v2 ∈ W . Donc v1 + v2 est un vecteur qui
appartient à la fois à U et à W : il est donc dans U ∩ W . Pour tout α ∈ R, on peut dire que
αv1 ∈ U (puisque v1 ∈ U et U est un sous-espace) et aussi que αv1 ∈ W (puisque v1 ∈ W et
W est un sous-espace). Donc αv1 ∈ U ∩ W . 

Exemple 1.5.1 Soient S = (x, y, z) ∈ R3 | x + y + z = 0 le sous-espace de R3 traité dans




l’exemple 1.4.8 et L = (x, y, z) ∈ R3 | 3x + 2y + z = 0 celui de l’exemple 1.4.14. Chaque


vecteur de L s’écrit de façon unique comme combinaison des vecteurs de la base (1, −1, −1),
16 Espaces vectoriels

(0, 1, −2) : c’est donc un vecteur du type (λ, −λ + µ, −λ − 2µ), pour λ, µ ∈ R. Un tel vecteur
appartient à S si et seulement si ses coordonnées satisfont l’équation qui défint S :

(λ) + (−λ + µ) + (−λ − 2µ) = 0 ⇐⇒ λ = −µ.

Donc L ∩ S = {(−µ, 2µ, −µ) | ∀µ ∈ R} = h(1, −2, 1)i.

Proposition 1.5.2 Soient U et W deux sous-espaces d’un espace vectoriel V . Leur réunion U ∪ W
est un sous-espace de V si et seulement si l’un des sous-espaces est contenu dans l’autre.

Démonstration Bien sûr, si U ⊆ W on a U ∪ W = W , qui est donc un sous-espace, et de


même si W ⊆ U , auquel cas U ∪ W = U .
Réciproquement, supposons que aucun des deux sous-espaces soit contenu dans l’autre.
Il existe donc un élément u ∈ U tel que u ∈ / W et un élément w ∈ W tel que w ∈ / U . Si
U ∪ W était un sous-espace, il devrait contenir la somme des vecteurs u ∈ U ⊆ U ∪ W et
w ∈ W ⊆ U ∪ W . Soit v = u + w. Si v ∈ U , on aurait que w = v − u, en tant que différence
de vecteurs de l’espace U , serait dans U , contrairement à l’hypothèse w ∈
/ U . D’autre part, si
v ∈ W par le même raisonnement on aurait u = v − w ∈ W , ce qui contredit u ∈ / W . Donc
u + w n’est pas contenu dans U ∪ W , qui n’est donc pas un sous-espace. 

La Proposition 1.5.2 est un résultat décevant et nous pousse à remplacer la réunion par
une nouvelle opération.

Définition 1.5.1 Soient U et W deux sous-espaces d’un espace vectoriel V . La somme de U et W ,


notée U + W , est l’ensemble de tous les vecteurs de V qui s’écrivent comme somme d’un vecteur de
U et d’un vecteur de W .

Proposition 1.5.3 Soient U et W deux sous-espaces d’un espace vectoriel V . Leur somme U + W
est un sous-espace. C’est le plus petit sous-espace de V contenant U et W .

Démonstration L’ensemble U + W n’est pas vide, puisque 0 = 0 + 0 est une somme de


vecteurs des deux sous-espaces. Soient v1 = u1 + w1 et v2 = u2 + w2 deux vecteurs de
U + W , écrits sous la forme d’une somme de vecteurs u1 , u2 ∈ U et w1 , w2 ∈ W . Alors
v1 + v2 = (u1 + w1 ) + (u2 + w2 ) = (u1 + u2 ) + (w1 + w2 ) est aussi somme d’un vecteur
de U et d’un de W , donc v1 + v2 ∈ U + W . Pour tout α ∈ R, on a également que αv1 =
αu1 + αw1 ∈ U + W . Donc U + W est un sous-espace.
Soit S ⊆ V un sous-espace tel que U ⊆ S et W ⊆ S. Pour montrer que U + W est plus
petit sous-espace de V contenant U et W , il faut voir que U + W ⊆ S. Mais si S est un sous-
espace, il contient toutes les sommes de deux de ses éléments : il doit en particulier contenir
toutes les sommes d’un vecteur u ∈ U ⊆ S et w ∈ W ⊆ S. Donc U + W ⊆ S. 

Remarque 1.5.1 De la Proposition 1.5.1 et la définition 1.4.2, on déduit une nouvelle in-
terprétation de la somme : U + W = hU ∪ W i. En particulier, si u1 , . . . , up engendrent U et
w1 , . . . , wq engendrent W , alors U + W est engendré par u1 , . . . , up , w1 , . . . , wq . Soulignons
toutefois que même si u1 , . . . , up et w1 , . . . , wq sont des bases pour U et W réspectivement,
en général les vecteurs u1 , . . . , up , w1 , . . . , wq ne seront pas libres, donc pas une base de
U + W.
Chapitre I 17

Exemple 1.5.2 Soient S et L les sous-espaces de R3 traités aux exemples 1.4.8 et 1.4.14 res-
pectivement. Le vecteur (1, −1, 0) ∈ S n’appartient pas à L, car ses coordonnées ne satisfont
pas l’équation 3x + 2y + z = 0 qui définit L. La Proposition 1.4.5 (ou plutôt sa variante à
la remarque 1.4.10), implique que les vecteurs (1, −1, 0), (1, −1, −1), (0, 1, −2) sont libres, les
deux derniers étant une base de L. Ces trois vecteurs engendrent donc un sous-espace de
dimension 3 dans R3 : ce sous-espace doit étre égal à R3 , par la Proposition 1.4.7. On a alors

R3 = h(1, −1, 0), (1, −1, −1), (0, 1, −2)i ⊆ L + S ⊆ R3

donc L + S = R3 . La mise en garde à la fin de la remarque 1.5.1 s’applique au cas en ques-


tion. On a vu à l’exemple 1.4.8 que {(1, −1, 0), (0, 1, −1)} est une base de S : on ajoutant
ces vecteurs à la base {(1, −1, −1), (0, 1, −2)} de L on a bien un ensemble de générateurs
{(1, −1, 0), (0, 1, −1), (1, −1, −1), (0, 1, −2)} de R3 , mais, comme le signale la remarque 1.4.11,
quatre vecteurs dans R3 ne peuvent certainement pas être libres.

Exemple 1.5.3 Soit encore S = (x, y, z) ∈ R3 | x + y + z = 0 le sous-espace de R3 traité à




l’exemple 1.4.8 et T = h(3, 2, 1)i. Le générateur de T n’appartient pas à S car ses coordonnées
ne satisfont pas l’équation qui définit S. Par le même raisonnement qu’à l’exemple 1.5.2, on
a que S + T = R3 . Toutefois dans ce cas la réunion {(1, −1, 0), (0, 1, −1), (3, 2, 1)} des bases
de S et de T nous donne trois vecteurs qui engendrent R3 est sont donc libres. Dans ce cas
donc, la possible situation désagréable signalée à la fin de la remarque 1.5.1 ne se présente
pas.

Revenons à la situation de la remarque 1.5.1 : soient U et W deux sous-espaces d’un es-


pace vectoriel V et soient {u1 , . . . , up } une base de U et {w1 , . . . , wq } une base de W . Com-
ment savoir si les vecteurs {u1 , . . . , up , w1 , . . . , wq } sont libres, donc base de U + W , comme
à l’exemple 1.5.3, ou liés, comme à l’exemple 1.5.2 ? Remarquons que dans le deuxième
cas les deux espaces ont une intersection non-nulle : l’exemple 1.5.1 nous dit en effet que
L ∩ S = h(1, −2, 1)i. Au contraire, dans le premier cas on a T ∩ S = {0} car tout vecteur de
T ∩ S doit étre dans T , donc multiple de (3, 2, 1) et le seul multiple de ce vecteur qui satisfait
l’équation de S est le vecteur nul.

Définition 1.5.2 Deux sous-espaces U et W sont en somme directe si U ∩ W = {0}. Dans ce


cas, le sous-espace somme se notera U ⊕ W .
Par récurrence, on dira que des sous-espaces U1 , U2 , . . ., Uk de V sont en somme directe, et on
écrira U1 ⊕ U2 ⊕ · · · ⊕ Uk , si Uk est en somme directe avec le sous-espace U1 ⊕ U2 ⊕ · · · ⊕ Uk−1 .

Proposition 1.5.4 Soient U et W deux sous-espaces d’un espace vectoriel V .


1. La somme de U et W est directe si et seulement si tout vecteur de U +W s’écrit de façon unique
comme somme d’un vecteur de U et d’un de W .
2. Supposons que U et W sont de type fini et soient {u1 , . . . , up } une base de U et {w1 , . . . , wq }
une base de W . La somme de U et W est directe si et seulement si {u1 , . . . , up , w1 , . . . , wq }
sont libres, donc une base de U + W .

Démonstration 1) Supposons que la somme de U et W est directe, et soit v ∈ U ⊕ W . Soient


u1 , u2 ∈ U et w1 , w2 ∈ W tels que v = u1 + w1 = u2 + w2 . Alors

0 = v − v = (u1 + w1 ) − (u2 + w2 ) = (u1 − u2 ) + (w1 − w2 ) ⇐⇒ u1 − u2 = w2 − w1 .


18 Espaces vectoriels

Le vecteur u1 − u2 de U est donc égal au vecteur w2 − w1 de W : puisque par hypothèse


U ∩ W = {0}, on a u1 − u2 = 0 (donc u1 = u2 ) et w2 − w1 = 0 (donc w2 = w1 ). L’écriture
de v est donc unique. Réciproquement, supposons que l’écriture de tout vecteur de U + W
est unique et soit v ∈ U ∩ W . On peut bien sûr écrire v ∈ U + W sous la forme v = v + 0
(avec v ∈ U ∩ W ⊆ U et 0 ∈ W ) et aussi v = 0 + v (avec 0 ∈ U et v ∈ U ∩ W ⊆ W ). Ces
deux écritures doivent être une seule et même, donc v = 0.
2) Supposons que la somme est directe et soit α1 u1 + · · · + αp up + β1 w1 + · · · + βq wq = 0.
Alors α1 u1 + · · · + αp up = −β1 w1 − · · · − βq wq est un vecteur à la fois dans U (en tant que
combinaison de vecteurs de U ) et dans W (en tant que combinaison de vecteurs de W ). Il
est donc dans U ∩ W = {0}, donc α1 u1 + · · · + αp up = 0 et β1 w1 + · · · + βq wq = 0. Puisque
les vecteurs d’une base sont libres, on a que α1 = · · · = αp = 0 et β1 = · · · = βq = 0.
Réciproquement, supposons que {u1 , . . . , up , w1 , . . . , wq } soient libres. Soit v ∈ U ∩ W :
puisque v ∈ U ∩ W ⊆ U , on peut l’écrire v = λ1 u1 + · · · + λp up ; mais aussi v ∈ U ∩ W ⊆ W ,
donc on peut l’écrire v = µ1 w1 + · · · + µq wq . Alors :
0 = v − v = λ1 u1 + · · · + λp up − µ1 w1 − · · · − µq wq .
Les vecteurs étant libres, on a bien λ1 = · · · = λp = µ1 = · · · = µq = 0, donc v = 0 est le seul
vecteur dans U ∩ W . 
Corollaire 1.5.1 Soient U1 , U2 , . . ., Uk des sous-espaces d’un espace vectoriel V .
1. La somme de U1 , U2 , . . ., Uk est directe si et seulement si tout vecteur de U1 + U2 + · · · + Uk
s’écrit de façon unique comme somme de k vecteurs, chacun appartenant à l’un des Ui .
2. Supposons que U1 , U2 , . . ., Uk soient de type fini et soient {u1 , . . . , up1 } une base de U1 ,
{up1 +1 , . . . , up1 +p2 } une base de U2 , . . ., {up1 +···+pk−1 +1 , . . . , up1 +···+pk−1 +pk } une base de
Uk . La somme de U1 , U2 , . . ., Uk est directe si et seulement si les vecteurs
u1 , . . . , up1 , . . . , up1 +···+pk−1 +1 , . . . , up1 +···+pk−1 +pk
sont libres, et forment donc une base de U1 + U2 + · · · + Uk .
Démonstration Par récurrence à partir de la Proposition 1.5.4. 
Remarque 1.5.2 Soulignons que, étant donnés 3 ou plus sous-espaces, il ne suffit pas de
vérifier que leurs intersection deux à deux soient nulles pour conclure que la somme est
directe. Par exemple, soient U1 = h(1, 0)i, U2 = h(0, 1)i, U3 = h(1, 1)i. On a bien U1 ∩ U2 =
U1 ∩ U3 = U2 ∩ U3 = {0}, donc les sommes U1 + U2 , U1 + U3 et U2 + U3 sont directes, mais
trois vecteurs de R2 ne peuvent pas être libres, donc la somme U1 + U2 + U3 ne peut pas être
directe.
Corollaire 1.5.2 Soit V un espace vectoriel de type fini et U ≤ V un sous-espace. Il existe au moins
un sous-espace U 0 ≤ V tel que U ⊕ U 0 = V . Un tel sous-espace est dit complémentaire de U dans
V . Si U 6= V , il admet une infinité de complémentaires.
Démonstration Si U = V , le seul complémentaire possible est U 0 = {0}. Autrement, soit
{u1 , . . . , up } une base de U . Le Corollaire 1.4.1 dit qu’on peut trouver w1 , . . . , wq ∈ V tels
que {u1 , . . . , up , w1 , . . . , wq } soit une base de V . On peut alors prendre U 0 = hw1 , . . . , wq i.
La somme U + U 0 est directe grâce à la deuxième partie de la Proposition 1.5.4. Le choix des
vecteurs w1 , . . . , wq est arbitraire, le complémentaire n’est donc pas unique. On peut choisir
comme w1 n’importe quel vecteur en déhors de U : il y a donc une infinité de choix. 
Chapitre I 19

Exemple 1.5.4 Soit encore S = (x, y, z) ∈ R3 | x + y + z = 0 le sous-espace de R3 traité




dans l’exemple 1.4.8. On a vu à l’exemple 1.5.3 que, S ⊕ T = R3 , avec si T = h(3, 2, 1)i. Donc
T est un complémentaire de S dans R3 . Mais T 0 = h(4, 5, 6)i est aussi un complémentaire de
S dans R3 , puisque le générateur de T 0 n’appartient pas à S (car ses coordonnées ne satisfont
pas l’équation qui définit S). En fait, n’importe quel vecteur (a, b, c) tel que a + b + c 6= 0
engendre un complémentaire de S dans R3 .

Si U et W sont deux sous-espaces de type fini d’un espace vectoriel V , la remarque 1.5.1
peut se reformuler par dim(U + W ) ≤ dim U + dim W . On peut également reformuler la
deuxième partie de la Proposition 1.5.4 : dire que la somme est directe revient à dire que
dim(U +W ) = dim U +dim W . C’est le cas des espaces S et T dans l’exemple 1.5.3. Par contre,
pour les espaces L et S de l’exemple 1.5.2 on a que dim L = dim S = 2 et dim(L + S) = 3.
Mais dans ce cas on sait que la somme n’est pas directe, puisque dim(L ∩ S) = 1. Donc
dim(L ∩ S) “compense” la diffèrence entre dim(L ∩ S) et la somme des dimensions. C’est un
fait général.

Théorème 1.5.1 (Formule de Grassmann) Soient U et W deux sous-espaces de type fini d’un
espace vectoriel V . Alors dim(U + W ) + dim(U ∩ W ) = dim U + dim W .

Démonstration La strategie de la démonstation est assez simple : construire une base de


U + V à partir d’une base de U ∩ W en la prolongeant, par le biais au Corollaire 1.4.1, en
une base de U et en une base de W . Soit donc {v1 , . . . , vk } une base de U ∩ W . Puisque
U ∩ W est un sous-espace de U , le Corollaire 1.4.1 permet de trouver u1 , . . . , up ∈ U tels
que {v1 , . . . , vk , u1 , . . . , up } soit une base de U . En fait, la démonstration du Corollaire 1.5.2
nous dit même que, en posant U 0 = hu1 , . . . , up i, on a U = (U ∩ W ) ⊕ U 0 . En répétant ce
raisonnement, on peut choisir w1 , . . . , wq ∈ W tels que {v1 , . . . , vk , w1 , . . . , wq } soit une
base de W et de plus, en posant W 0 = hw1 , . . . , wq i, on a W = (U ∩ W ) ⊕ W 0 . On va
montrer que {v1 , . . . , vk , u1 , . . . , up , w1 , . . . , wq } est une base de U + W , autrement dit que
U + W = (U ∩ W ) ⊕ U 0 ⊕ W 0 . On en déduit la formule attendue :

dim(U + W ) = k + p + q = (k + p) + (k + q) − k = dim U + dim W − dim(U ∩ W ).

Puisque les vecteurs v1 , . . . , vk , u1 , . . . , up engendrent U et v1 , . . . , vk , w1 , . . . , wq engendrent


W , la remarque 1.5.1 nous dit bien que v1 , . . . , vk , u1 , . . . , up , w1 , . . . , wq engendrent U + W .
Pour conclure que c’est une base, il faut donc montrer qu’ils sont libres. Écrivons donc le
vecteur nul comme combinaison linéaire de ces générateurs :

α1 v1 + · · · + αk vk + β1 u1 + · · · + βp up + γ1 w1 + · · · + γq wq = 0.

On en déduit que le vecteur

(1.5.1) γ1 w1 + · · · + γq wq = − (α1 v1 + · · · + αk vk + β1 u1 + · · · + βp up )

appartient à U ∩ W . En effet, le membre de gauche de (1.5.1) est un vecteur de W , alors que


le membre de droite de (1.5.1) est un vecteur de U . En fait on a mieux : le membre de gauche
de (1.5.1) est un vecteur de W 0 . Donc le vecteur de (1.5.1) appartient à W 0 ∩ (U ∩ W ). Mais
ce sous-espace est nul, puisque W = (U ∩ W ) ⊕ W 0 . Donc on a

γ1 w1 + · · · + γq wq = 0; α1 v1 + · · · + αk vk + β1 u1 + · · · + βp up = 0.
20 Espaces vectoriels

Puisque {w1 , . . . , wq } est une base de W 0 , ces vecteurs sont libres, donc γ1 = · · · = γq = 0.
De même, les vecteurs {v1 , . . . , vk , u1 , . . . , up } sont aussi libres, puisque ils forment une base
de U , donc α1 = · · · = αk = β1 = · · · = βp = 0. 

La formule de Grassmann est très utile dans la pratique, car elle permet de calculer
dim(U + W ) en connaissant les dimensions de U , W et U ∩ W , ou encore de calculer la
dimension de U ∩ W si on connait les dimensions de U , W et U + W . Cela permet souvent
de ne faire “que la moitié des calculs”.

Exemple 1.5.5 Soient encore une fois S et L les sous-espaces de R3 traités dans les ex-
emples 1.4.8 et 1.4.14. Dans l’exemple 1.5.1, on a vu que L∩S est de dimension 1. La formule
de Grassmann nous donne alors :

dim(L + S) = dim L + dim S − dim(L ∩ S) = 2 + 2 − 1 = 3.

Puisque L+S ⊆ R3 , de la Proposition 1.4.7 on peut conclure immédiatement que L+S = R3 .


Nous aurions donc pu éviter les calculs fait à l’éxemple 1.5.2. A l’opposé, si nous avions fait
d’abord les calculs à l’éxemple 1.5.2, et donc si nous avions su que dim(L + S) = 3, nous
aurions pu conclure que dim(U ∩W ) = 1. Soulignons toutefois que la formule de Grassmann
ne donne qu’un résultat quantitatif, les dimensions des espaces : même en en connaissant la
dimension, pour trouver une base de L ∩ S, nous aurions quand même du faire les calculs
de l’exemple 1.5.1.

§ 6 Une méthode de calcul : opérations élémentaires


Dans cette section, nous voulons introduire la technique de calcul la plus utile en algèbre
linéaire. Commençons par un résultat élémentaire.

Lemme 1.6.1 Soient {v1 , v2 , . . . , vk } des générateurs pour un sous-espace S d’un espace vectoriel
V.
1. S est engendré par les vecteurs {v2 , v1 , . . . , vk } ;
2. S est engendré par les vecteurs {v1 + v2 , v2 , . . . , vk } ;
3. pour tout α ∈ R, α 6= 0, S est engendré par les vecteurs {αv1 , v2 . . . , vk }.

Démonstration Dire que {v1 , v2 , . . . , vk } sont des générateurs pour S signifie que tout v ∈ S
s’écrit sous la forme v = λ1 v1 + λ2 v2 + · · · + λk vk . Mais on peut alors récrire v comme :

v = λ2 v2 + λ1 v1 + · · · + λk vk
(1.6.1) v = λ1 (v1 + v2 ) + (λ2 − λ1 )v2 + · · · + λk vk
v = λα1 (αv1 ) + λ2 v2 + · · · + λk vk .

Les équations (1.6.1) expriment donc v comme combinaison linéaire des vecteurs des trois
ensembles proposés. Ces ensembles sont donc génerateurs. 

Définition 1.6.1 Soit E un ensemble de vecteurs d’un espace vectoriel V . Les opérations élémen-
taires sur les vecteurs de E sont :
Chapitre I 21

1. échanger deux vecteurs de E ;


2. remplacer v ∈ E par v + w, avec w ∈ E ;
3. remplacer un vecteur de E par un multiple non nul du même vecteur.
On dit que un ensemble E 0 de vecteurs de V est obtenu à partir de E par opérations élementaires
si on peut transformer l’ensemble E en l’ensemble E 0 par une suite d’opérations élémentaires.
Remarque 1.6.1 Les opérations élémentaires sont réversibles : si on a échangé deux vecteurs
v1 et v2 on retrouve le couple {v1 , v2 } à partir du couple {v2 , v2 } en les échangeant à nou-
veau. De même on retrouve le vecteur v à partir du couple {v + w, w} en faisant une nou-
velle addition : v = (v + w) + (−w). Enfin on retrouve v à partir de αv par une nouvelle
multiplication : v = α1 (αv). C’est en fait pour garantir la réversibilité qu’on impose pour les
opérations de type 3 que α 6= 0.
Bien qu’apparemment anodynes, les opérations élémentaires nous permettrons de re-
soudre tous les problèmes de calcul de dépendance linéaire, donc au bout du compte presque
tous les problèmes d’algèbre linéaire. Commençons par un exemple avant d’indiquer la
façon de procéder.
Exemple 1.6.1 Cherchons une base pour S = h(1, 2, 2), (1, 2, −2), (3, 5, 0), (5, 3, 2)i ⊆ R3 . Ces
vecteurs sont des générateurs et, étant quatre vecteurs dans R3 , ils sont certainement liés. Au
lieu de manipuler directement les vecteurs, on va les disposer sur les lignes d’une matrice :
 
1 2 3
1 2 −2
M0 = 3 5 0  .

5 3 2
Nous allons procéder par opérations élémentaires sur les lignes de la matrice : il nous est
donc permi d’échagner des lignes, de multiplier des lignes par des coéfficients non nuls et
d’ajouter à une ligne un multiple d’une autre ligne. Nous indiquerons synthétiquement ces
opérations comme ci dessous. Le première étape consiste à annuler les coéfficients de M0 qui
se trouvent sur la première colonne à partir de la deuxième ligne. Nous allons donc sous-
traire de la deuxième (resp. troisième, resp. quatrième) ligne de M0 la première multipliée
par 1 (resp. par 3, resp. par 5) :
   
1 2 3 1 2 3
1 2 −2 L2 − L1 0 0 −5 
 
3 5 0  L3 − 3L1 M1 =  0 −1 −3  .

5 3 2 L4 − 5L1 0 −7 −13
Puisque S est e sous-espace engendré par les lignes de M0 , en appliquant le lemme 1.6.1
on peut conclure que S nest aussi engendré par les lignes de M1 . Nous attaquons à présent
la deuxième colonne : puisque le coéfficient sur la deuxième ligne est nul mais il y a des
coéfficients non nuls sur les lignes suivantes, nous allons modifier M1 en échangeant la
deuxième et troisième ligne :
   
1 2 3 1 2 3
0 0 −5  L2 ↔ L3
0 −1 −3 

0 −1 −3  L3 ↔ L2 M2 =  .
0 0 −5 
0 −7 −13 0 −7 −13
22 Espaces vectoriels

On peut alors annuler le dernier coéfficent non nul sur la deuxième colonne :
   
1 2 3 1 2 3
0 −1 −3  0 −1 −3
  M 3 = 0 0 −5 .
 
0 0 −5 
0 −7 −13 L4 − 7L2 0 0 8

La dernière étape consiste à éliminer le dernier coéfficient non nul sur la dernière ligne :
   
1 2 3 1 2 3
0 −1 −3 0 −1 −3
(1.6.2) 
0 0 −5
 M4 =  0 0 −5 .

0 0 8 L4 + 58 L2 0 0 0

Puisque S est e sous-espace engendré par les lignes de M0 , en appliquant le lemme 1.6.1
on peut conclure que S nest aussi engendré par les lignes de M1 . En repetant ce raison-
nement, on a aussi que S est engendré par les lignes de M2 , de M3 et de M4 , c’est à dire
S = h(1, 2, 3), (0, −1, −3), (0, 0, −5)i On a déja obtenu un premier bénefice : puisque la
dernière ligne de M4 est nulle, on peut réduire le nombre de générateurs de S. Mais on a
en fait beaucoup plus : il est facile de voir que les lignes non nulles de M4 sont des vecteurs
libres :

 α + 2β + 2γ = 0
(1.6.3) α(1, 2, 3) + β(0, −1, −3) + γ(0, 0, −5) = (0, 0, 0) ⇔ −β − 3γ = 0
−5γ = 0

La dernière équation force γ = 0 ; en substituant dans la deuxième on a β = 0 et en substi-


tuant encore dans la première on trouve α = 0. Les lignes non nulles de M4 sont donc une
base S.

L’exemple precédent est tout à fait indicatif de la façon dont nous allons procéder :
écriture des coéfficients du problème en matrice et transformation, par opération élementai-
res sur les lignes, de cette matrice en une matrice qui a une forme particulière :

Définition 1.6.2 Le premier coéfficient non nul sur une ligne d’une matrice est dit le pivot de la
ligne.
Une matrice est dite en forme échelonnée si
1. les lignes nulles sont les dernières ;
2. chaque pivot se trouve à droite du pivot des lignes en dessus.
Une matrice est dite en forme échelonnée simplifiée si elle est en forme échélonnée et de plus
3. tous les pivots sont égaux à 1 ;
4. tous les coéfficients au dessus de ses pivots sont nuls.

La matrice M4 de la formule (1.6.2) est en forme échelonnée : ses pivots sont le coéfficient
sur la première ligne, première colonne, celui sur la deuxième ligne deuxième colonne (donc
à droite du précédent) et enfin celui sur la troisième ligne troisième colonne (donc à droite
des deux précédents). La matrice a une ligne nulle, qui se trouve au fond comme il se doit.
Chapitre I 23

Exemple 1.6.2 Les matrices suivantes, ou nous avons mis en évidence les pivots, sont en
forme échelonnée
     
1 2 3 4 1 2 3 4 1 2 3 4
 0 0 5 6 , 0 0 5

6 ,

0

5 6 7 .

0 0 0 0 0 0 0 7 0 0 8 9
Les matrices suivantes sont en forme échelonnée simplifiée
     
1 2 0 4 1 2 0 0 1 0 0 4
 0 0 1 6 , 0 0 1 0 , 0 1 0 7 .
     
0 0 0 0 0 0 0 1 0 0 1 9
Par contre les matrices suivantes ne sont pas en forme échelonnée
     
1 2 3 4 1 2 3 4 1 2 3 4
 0 0 0 0 , 0

0 5 6

, 5 6 7

0 .

0 0 5 6 0 7 0 0 0 0 8 9

Proposition 1.6.1 Soit M ∈ M (m × n, R) une matrice. Si M est en forme échelonnée, ses lignes
non nulles sont des vecteurs libres de Rn .

Démonstration En cherchant à détérminer les coéfficients d’une combinaison linéaire des


lignes de la matrice qui donne le vecteur nul, on trouve un système d’équations linéaires
triangulaire, comme à l’exemple 1.6.1, formule (1.6.3). La dernière équation ne faisant inter-
venir que la dernière variable multipliée par le dernier pivot de la matrice, la seule solution
possible est lorsque la dernière variable prend la valeur nulle. En substituant à rebours dans
le système on trouve, comme à la fin de l’exemple 1.6.1, que la seule solution possible est la
solution nulle. 

Théorème 1.6.1 Toute matrice peut être transformée en une matrice en forme échélonnée, et même
en forme échélonnée simplifiée, par opérations élémentaires.

Nous omettons de donner une démonstration formelle du Théorème 1.6.1, qui serait tout
à fait élémentaire mais plûtot pénible. Contentons-nous de décrire le procédé et de le mettre
en pratique dans les exemples qui suivent.
Si le coéfficient a11 sur la première ligne, première colonne est non nul, pour tout i = 2, . . . , m
on peut rendre nul le coéfficient sur la premiére colonne, i-ème ligne par l’opération Li 7→
Li − aa11
1i
L1 . Si a11 = 0 mais il y a un coéfficient non nul sur la première colonne, on échange la
ligne contenant ce coéfficient avec la première ligne, en se ramenant au cas precédent. Enfin,
si tous les coéfficients sur la première colonne sont nuls, on passe à la deuxième colonne.
On repète ce procéde pour avoir un pivot sur la deuxième colonne, deuxième ligne (pourvu
que la deuxième colonne ait un coéfficient non nul en dessous de la deuxième ligne, le cas
échéant on passera à la troisième colonne). On continue de la même façon jusqu’à la dernière
colonne, comme à l’exemple 1.6.1, pour trouver une matrice en forme échélonnée.
Si on veut une forme échelonnée simplifiée, à partir de la forme échélonnée obtenue comme
précédemment, on pourra commencer par rendre tout pivot égal à 1 en multipliant la ligne
corréspondante par l’inverse du pivot. On peut ensuite rendre nul tout coéfficient ai,j situé
au dessus d’un pivot ai+k,j = 1 en remplaçant la i-ème ligne Li par Li − ai,j Li+k .
24 Espaces vectoriels

Exemple 1.6.3 Calculons la forme échélonnée simplifiée de la matrice M0 de l’exemple 1.6.1.


On part de la forme échélonnée M4 :
     
1 2 3 1 2 3 L1 − 3L3 1 2 0 L1 − 2L2
0 −1 −3 (−1)L2
 L2 − 3L3
0 1 3 0 1 0
    
0 0 −5 (− 1 )L3 0 0 1 0 0 1
5
0 0 0 0 0 0 0 0 0
 
1 0 0
0 1 0
M8 = 
0

0 1
0 0 0

Remarque 1.6.2 Le Théorème 1.6.1 nous dit que toute matrice peut être transformée en
une matrice en forme échélonnée mais on prendra garde cette forme n’est pas unique, par
exemple les quatre matrices de l’exemple 1.6.3 sont aussi des formes échélonnées de la ma-
trice M0 à l’exemple 1.6.1. La forme échélonnée dépend entre autre de l’ordre dans lequel
nous avons fait les opérations élémentaires.

Définition 1.6.3 Le rang par lignes d’une matrice A ∈ M (m × n; R) est la dimension rg` (A) du
sous-espace de Rn engendré par les lignes de la matrice.

Proposition 1.6.2 Soit M une matrice et N une matrice obtenue à partir de M par opérations élé-
mentaires. Alors M et N ont même rang par lignes.

Démonstration Il suit du Lemme 1.6.1 que le sous-espace de Rn engendré par les lignes de
M ∈ M (m × n, R) est égal au sous-espace engendré par les lignes de N . 

Corollaire 1.6.1 Le rang par lignes d’une matrice M est égal au nombre de lignes non nulles d’une
quelconque forme échélonnée de M ou encore au nombre de pivots d’une telle forme échélonnée.

Démonstration Suit en joignant la Proposition 1.6.2 et la Proposition 1.6.1. 

Exemple 1.6.4 On veut établir pour quelles valeurs de k ∈ R le vecteur (1, 2, k) appartient
au sous-espace S = h(1, 1, 1), (1, −1, 1)i. Puisque les générateurs de S ne sont pas propor-
tionnels, on a que dim S = 2. Il suit alors de la Proposition 1.4.5 que (1, 2, k) ∈ S si et
seulement si dimh(1, 1, 1), (1, 3, 1), (1, 2, k)i = 2, donc si et seulement si le rang par lignes de
la matrice M ci dessous est égal à 2 :
     
1 1 1 1 1 1 1 1 1
M = 1 3 1 L2 − L1 0 2 0  0 2 0 .
1 2 k L3 − L1 0 1 k − 1 L3 − 12 L1 0 0 k−1

Le rang par lignes de cette dernière matrice est égal à 2 si et seulement si la dernière ligne
est nulle, donc si et seulement si k = 1.

Signalons l’application suivante, très utile.


Chapitre I 25

Proposition 1.6.3 Tout sous-espace de Rn est l’ensemble des solutions d’un système homogène
d’équations linéaires en n indéterminées.

Démonstration Puisque Rn est de type fini, tout sous-espace est de type fini. Choisissons un
ensemble de générateurs {(a1,1 , . . . , a1,n ), . . . , (am,1 , . . . , am,n )} et formons deux matrices
 
  a1,1 . . . a1,n
a1,1 . . . a1,n  .. .. 
 .. .
.  . . 
A= . . ; B= .

am,1 . . . am,n 
am,1 . . . am,n
x1 . . . x n

Afin qu’un vecteur (x1 , . . . , xn ) ∈ Rn appartienne au sous-espace en question, il faut qu’il


soit combinaison linéaire des génerateurs. Il faut donc que le rang par lignes de la matrice A
soit égal au rang par lignes de la matrice B. Les coéfficients de la dernière ligne d’une forme
échelonnée de la matrice B sont des expressions linéaires en x1 , . . . , xn : il faut qu’il soient
nuls afin que les matrices A et B aient le même rang. 

Exemple 1.6.5 Soit T = h(1, −2, 3, −4), (1, 0, 1, −1), (3, 2, 1, 0)i. On en cherche les équations
par la méthode esquissée à la Proposition 1.6.3
   
1 −2 3 −4 1 −2 3 −4
1
 0 1 −1  L2 − L1
0
 2 −2 3 

3 2 1 0  L3 − 3L1 0 8 −8 −12  L3 − 4L2
x1 x2 x3 x4 L4 − x1 L1 0 x2 + 2x1 x3 − 3x1 x4 + 4x1 L4 − x2 +2x
2
1
L1
 
1 −2 3 −4 
0 2 −2 3  −x1 + x2 − x3 = 0
  =⇒ .
0 0 0 0  x1 − 32 x2 + x4 = 0
0 0 −x1 + x2 + x3 x1 − 23 x2 + x4
le système d’équations ci-dessus caractérise les vecteurs (x1 , x2 , x3 , x4 ) qui appartiennent à
T : ce sont des équations pour ce sous-espace.

Exemple 1.6.6 Soient U = h(1, 1, 1, 1), (2, 3, 3, 2)i et W = h(1, 1, 1, 0), (0, 1, 1, 1)i On veut cal-
culer une base de U ∩ W et déterminer un sous-espace T tel que U ⊕ T = W ⊕ T = U + W .
Les vecteurs de l’intersection sont les vecteurs de W qui appartiennent à U . Tout vecteur
de W s’écrit sous la forme α(1, 1, 1, 0) + β(0, 1, 1, 1) = (α, α + β, α + β, β). Il s’agit donc
d’établir pour quelles valeurs de α, β ∈ R ce vecteur appartient à U . On est ainsi ramenés
à un problème du type traité à l’exemple 1.6.4. Ici aussi visiblement dim U = 2 donc les
vecteurs de U ∩ W correspondent aux valeurs de α et β telles que le rang par lignes de la
matrice N ci dessous soit égal à 2 :
   
1 1 1 1 1 1 1 1
N = 2 3 3 2  L2 − 2L1 0 2 2 0 
α α+β α+β β L3 − αL1 0 β β β−α L3 − β2 L1
 
1 1 1 1
0 2 2 0 .
0 0 0 β−α
26 Espaces vectoriels

Le rang par lignes de cette dernière matrice est égal à 2 si et seulement si la dernière ligne
est nulle, donc si et seulement si α = β. Donc U ∩ W = h(1, 2, 2, 1)i. Pour construire T
on suit la démarche employée dans la démonstration de la Formule de Grassmann : on
peut écrire deux nouvelles bases pour U et W contenantes chacune une base de U ∩ W ,
par exemple U = h(1, 2, 2, 1), (1, 1, 1, 1)i et W = h(1, 2, 2, 1), (1, 1, 1, 0)i. On sait alors que
U + W = h(1, 2, 2, 1), (1, 1, 1, 1), (1, 1, 1, 0)i et on peut prendre T = h(1, 1, 1, 1), (1, 1, 1, 0)i.

Le procédé consistant à ramener toute question de dépendance linéaire à un calcul de


rang par lignes ne s’applique pas uniquement aux espaces Rn . Soit en effet V un espace
vectoriel de type fini et soit {v1 , . . . , vn } une base de V . Rappelons que, au sens de la
définition 1.4.5, tout vecteur v ∈ V s’écrit de façon unique comme combinaison linéaire
v = λ1 v1 + · · · + λn vn de sorte que v est détérminé par ses coordonnées λ1 , . . . , λn . On
peut interpréter ces coordonnées comme un vecteur (λ1 , . . . , λn ) ∈ Rn . Dire que les vecteurs
w1 , . . . , wk de V sont libres ou liés revient à dire que leurs coordonnées par rapport à la
base {v1 , . . . , vn } de V sont libres ou liées en tant que vecteurs de Rn . On peut donc appli-
quer la technique précédente non pas aux vecteurs directement mais à leurs coordonnées
par rapport à une base fixiée.

Exemple 1.6.7 Cherchons une base pour le sous-espace

P = h1 − X + X 2 − X 3 , 1 + X + X 2 + X 3 , 1 + X 2 i

de l’espace R[X]≤3 des polynômes de degré inférieur ou égal à 3. Les coordonnées des
générateurs de P par rapport à la base {1, X, X 2 , X 3 } de R[X]≤3 sont (1, −1, 1, −1), (1, 1, 1, 1)
et (1, 0, 1, 0) réspéctivement. On écrit ces coordonnées sur les lignes d’une matrice dont on
calcule une forme échelonnée
     
1 −1 1 −1 1 −1 1 −1 1 −1 1 −1
1 1 1 1  L2 − L1 0 2 0 2  0 2 0 2  .
1
1 0 1 0 L3 − L1 0 1 0 1 L3 − 2 L1 0 0 0 0

On en déduit que les vecteurs de coordonnées (1, −1, 1, −1) et (0, 2, 0, 2) forment une base
de P , soit P = h1 − X + X 2 − X 3 , 2X + 2X 3 i.

§ 7 Exercices

Exercice 1.1 Établir lesquels parmi les ensembles suivants sont des sous-espaces
a) {(x, y, z) ∈ R3 | x2 − y 2 + z 2 = 0}.
b) {(x, y, z) ∈ R3 | x − 2y + 3z = 0}.
c) {(x, y, z) ∈ R3 | x − 2y + 3z = 1}.
d) {A ∈ M (3 × 3, R) | t A + A = 0}.
e) {p(X) ∈ R[X] | p(1) = 0}.
f) {p(X) ∈ R[X] | p(1) = 1}.
Chapitre I 27

g) {f ∈ F ([0, 1] | f (1) = 0}.


h) {f ∈ F ([0, 1] | f (0) = 1}.

Exercice 1.2 Soient S ⊆ R[X] le sous-ensemble des polynômes de degré pair. Est-ce un sous-
espace ? Autrement, déterminer le sous-espace engendré par S.

Exercice 1.3 Déterminer une base du sous-espace U =< (1, 1, 1), (0, 1, 2), (2, 1, 0) > de R3 .
a) Établir si le sous-ensemble W = {(x, y, z) ∈ R3 | x + y + z = 3} est un sous-espace de
R3 .
b) Déterminer U ∩ W .

Exercice 1.4 Soient U = h(1, 2, 3, 4), (3, 1, 2, 0), (1, −1, 3, 2)i et V = h(0, 3, 1, 2), (0, 0, 1, 0)i.
Déterminer une base pour U ∩ V et U + V .

Exercice 1.5 Soient S = h(1, 2, 3, 4), (2, 2, 2, 6), (0, 2, 4, 4)i et T = h(1, 0, −1, 2), (2, 3, 0, 1)i.
Déterminer une base pour S ∩ T et S + T

Exercice 1.6 Soient U et V les sous-espaces l’Exercice 1.4. Déterminer, si possible, un sous-
espace U 0 ⊆ V tel que U ⊕ U 0 = R4 . Déterminer, si possible, un sous-espace U 00 tel que
U ⊕ U 00 = R4 et V ∩ U 00 = {0}.

Exercice 1.7 Soient S et T les sous-espaces l’Exercice 1.5. Déterminer, si possible, un sous-
espace S 0 ⊆ T tel que S ⊕ S 0 = R4 . Déterminer, si possible, un sous-espace S 00 tel que
S ⊕ S 00 = R4 et T ∩ S 00 = {0}.

Exercice 1.8 Considérons le sous-espace W = h(1, 1, 1, 1), (1, 1, 0, 0)i de R4 et les vecteurs
v1 = (2, 2, 3, 3), v2 = (0, 1, 1, 0), v3 = (1, −1, 0, 1).
a) Dire quels parmi les vecteurs vi satisfont dim(W + hvi i) = 2.
b) Dire quels parmi les vecteurs vi satisfont W ⊕ hvj i.
c) Déterminer une base et la dimension de (W + hv1 i) ∩ (W + hv2 i).
d) Déterminer une base et la dimension de (W + hv2 i) + (W + hv3 i).

Exercice 1.9 Considérons les sous-espaces suivants de R5 :

V1 = h(1, 0, 1, 1, 0), (−1, 1, 0, 0, 1), (0, 0, 0, 1, −1)i


V2 = h(0, 1, 1, 1, 1), (1, 1, 2, 2, 1), (1, 0, 1, 1, 1)i

a) Déterminer une base B1 de V1 et une base B2 de V2 . Calculer dim(V1 ) et dim(V2 ).


b) Déterminer une base de V1 ∩ V2 et une de V1 + V2 . Calculer dim(V1 ∩ V2 ) et dim(V1 + V2 ).
Est-ce-que les sous-espaces V1 e V2 sont en somme directe ?
c) Écrire si possible le vecteur v = (1, 0, 1, 1, 0) comme somme v = v1 + v2 avec v1 ∈ V1 ,
v2 ∈ V2 et v1 6= (0, 0, 0, 0, 0) et v2 6= (0, 0, 0, 0, 0). Cette écriture est unique ?
d) Déterminer, s’il en existe, un sous-espace T ≤ R5 tel que (T ∩V1 )⊕V2 = (T ∩V2 )⊕V1 =
V1 + V2 .
e) Déterminer S ≤ R5 tel que S ⊕ (V1 ∩ V2 ) = V1 + V2 . Est-il unique ?
28 Espaces vectoriels

f) Pour tout possible choix de S ≤ R5 tel que S ⊕ (V1 ∩ V2 ) = V1 + V2 , déterminer


dim(S ∩ V1 ) et dim(S ∩ V2 ).

Exercice 1.10 Soit Sk le sous-espace de R3 engendré par v1 = (1, 1, 1), v2 = (2, 0, 1) et v3 =


(−1 + k, −3 + k, 0), avec k ∈ R.
a) Calculer la dimension de Sk en fonction de k.
b) Soit T = {(x, y, z) ∈ R3 | x − y − 2z = 0}. Déterminer Sk ∩ T et Sk + T en fonction de
k.
c) Pour k = 2, déterminer, si possible, un sous-espace W de R3 tel que S2 ⊕W = T ⊕W =
R3 .

Exercice 1.11 Pour chacun des sous-espaces U et V de l’Exercice 1.4 ainsi que pour S et
T de l’Exercice 1.5, déterminer un système homogène d’équations dont le sous-espace en
question soit l’ensemble des solutions.
 
1 1 1
Exercice 1.12 Soit M = . Calculer deux formes échélonnées simplifiées différentes
1 2 3
de M . En déduire que la forme échélonnée simplifiée d’une matrice n’est pas unique (voir
Remarque 1.6.2).

Exercice 1.13 Dans l’espace vectoriel R≤3 [X] = {p(X) = a0 + a1 X + a2 X 2 + a3 X 3 | ai ∈ R}


des polynômes de degré inférieur où égal à 3, considérons les sous-ensembles

U = {p(X) ∈ R≤3 [X]| p(0) = 0}; Wk = {p(X) ∈ R≤3 [X]| p(−1) = k}.

a) Déterminer les valeurs de k ∈ R telles que Wk soit un sous-espace de R≤3 [X].


b) Pour les valeurs de k ∈ R trouvées en a), écrire une base de U ∩ Wk .
c) Pour les valeurs de k ∈ R trouvées en a), déterminer U + Wk . Est-ce une somme
directe ?
d) Pour les valeurs de k ∈ R trouvées en a), écrire, si possible, le polynôme 1 − X de deux
façons différentes comme somme d’un élément de U et d’un de Wk .
e) Calculer dimhWk i pour tout k ∈ R.

Exercice 1.14 Soient U et W deux sous-espaces d’un espace vectoriel V et soient v1 , v2 ∈ V .


Démontrer que (v1 + U ) ∩ (v2 + W ) n’est pas vide si et seulement si v1 − v2 ∈ U + W .

Exercice 1.15 Montrer que R est un espace vectoriel sur le corps Q des nombres rationnels.
√ √ √
a) Soit Q( 2) = {a + b 2, a, b ∈ Q}. Montrer que Q( 2) est un sous-espace de R pour
sa structure d’espace vectoriel sur Q et en déterminer une base.
√ √ √
b) Soit Q( 3) = {a + b 3, a, b ∈ Q}. Montrer que Q( 3) est un sous-espace de R pour
sa structure d’espace vectoriel sur Q et en déterminer une base.
√ √
c) Déterminer le sous-espace Q( 2) ∩ Q( 3).
Chapitre II

Fonctions linéaires

§ 1 Définition et premières propriétés


Les fonctions linéaires sont les fonctions entre espaces vectoriels qui ”conservent les
opérations”. Pour donner une définition exacte, reprenons les notations formelles de la
définition 1.1.1.

Définition 2.1.1 Soient V et W deux espaces vectoriels réels. Une fonction f : V → W est dite
linéaire si :
1. f (v1 +V v2 ) = f (v1 ) +W f (v2 ) pour tous v1 , v2 ∈ V ;
2. f (α ·V v) = α ·W f (v) pour tout α ∈ R et tout v ∈ V .

Définition 2.1.2 Soit V et W deux espaces vectoriels. On vérifie immédiatement que la fonction
identité idV : V → V , définie par idV (v) = v est linéaire. On vérifie aussi immédiatement que la
fonction nulle 0 : V → W définie par 0(v) = 0 pour tout v ∈ V est linéaire.

Exemple 2.1.1 Toute fonction linéaire de R dans R est du type f (x) = ax, avec a = f (1) ∈ R.
En effet, si f : R → R est linéaire, pour tout x ∈ R il faut que f (x) = f (x · 1) = xf (1). De
même, toute fonction f : R → Rn est du type f (x) = (a1 x, . . . , an x) avec (a1 , . . . , an ) =
f (1) ∈ Rn .

Exemple 2.1.2 La fonction g : R2 → R3 donnée par g(x, y) = (x + y, x − y, 2x + 3y) est


linéaire. En effet :

g ((x1 , y1 ) + (x2 , y2 )) = g(x1 + x2 , y1 + y2 )


= (x1 + x2 + y1 + y2 , x1 + x2 − y1 − y2 , 2x1 + 2x2 + 3y1 + 3y2 )
= (x1 + y1 , x1 − y1 , 2x1 + 3y1 ) + (x2 + y2 , x2 − y2 , 2x2 + 3y2 )
= g(x1 , y1 ) + g(x2 , y2 )

et aussi

g (α(x, y)) = g(αx, αy) = (αx + αy, αx − αy, 2αx + 3αy) = α(x + y, x − y, 2x + 3y) = αg(x, y).
30 Fonctions linéaires

Exemple 2.1.3 La fonction h : R2 → R2 donnée par h(x, y) = (x + 1, x + y) n’est pas linéaire,


car

h (2(x, y)) = h(2x, 2y) = (2x + 1, 2x + 2y) 6= (2x + 2, 2x + 2y) = 2(x + 1, x + y) = 2h(x, y).

On aurait aussi pu observer que h(0, 0) = (1, 0) et appliquer la remarque suivante.

Remarque 2.1.1 L’image du vecteur nul par une fonction linéaire est le vecteur nul, car
f (0) = f (00) = 0f (0) = 0.

Soulignons qu’il ne suffit pas qu’une fonction envoie le vecteur nul sur le vecteur nul afin
qu’elle soit linéaire, comme le montre l’exemple suivant.

Exemple 2.1.4 La fonction ϕ : R2 → R2 donnée par ϕ(x, y) = (x2 , x + y) n’est pas linéaire, car

ϕ (2(x, y)) = ϕ(2x, 2y) = (4x2 , 2x + 2y) 6= (2x2 , 2x + 2y) = 2(x2 , x + y) = 2ϕ(x, y).
d
Exemple 2.1.5 La fonction dX : R[X] → R[X] qui à tout polynôme associe sa dérivée,

d
(2.1.1) (a0 + a1 X + · · · + an X n ) = a1 + 2a2 X + · · · + nan X n−1
dX
est linéaire, car :
d
dX [(a0 + a1 X + · · · + an X n ) + (b0 + b1 X + · · · + bn X n )]
d
= dX [(a0 + b0 ) + (a1 + b1 )X + · · · + (an + bn )X n ]
= (a1 + b1 ) + 2(a2 + b2 )X + · · ·+ n(an + bn )X n−1
= a1 + 2a2 X + · · · + nan X n−1 + b1 + 2b2 X + · · · + nbn X n−1

d d
= dX (a0 + a1 X + · · · + an X n ) + dX (b0 + b1 X + · · · + bn X n )

et aussi
d d
dX [α (a0 + a1 X + · · · + an X n )] = dX (αa0 + αa1 X + · · · + αan X n )
= αa1 + 2αa2 X + · · · + nαan X n−1
= α  a1 + 2a2 X + · · · + nan X n−1 

d
= α dX (a0 + a1 X + · · · + an X n ) .
d
En bornant le degré, les mêmes formules montrent que dX : R[X]≤n →: R[X]≤n−1 est une
fonction linéaire.

Définition 2.1.3 Soit V = U ⊕ W un espace vectoriel décomposé en somme directe de deux sous-
espaces. D’après la Proposition 1.5.4, tout vecteur v ∈ V s’écrit de façon unique comme somme d’un
vecteur pU (v) ∈ U et d’un de pW (v) ∈ W :

v = pU (v) + pW (v).

Nous appellerons pU (v) la projection de v sur le sous-espace U et pW (v) la projection de v sur W .

Remarque 2.1.2 Avec les notations de la Définition 2.1.3, on peut caractériser pU (v) comme
étant l’unique vecteur de U tel que v − pU (v) ∈ W .
Chapitre II 31

Exemple 2.1.6 Soit V = U ⊕ W . Les projections pU : V → V et pW : V → V sont des


fonctions linéaires. En effet, soient v1 , v2 ∈ V et soient v1 = pU (v1 ) + pW (v1 ) et v2 =
pU (v2 ) + pW (v2 ) leur décomposition. On peut alors écrire
v1 +v2 = (pU (v1 ) + pW (v1 ))+(pU (v2 ) + pW (v2 )) = (pU (v1 ) + pU (v2 ))+(pW (v1 ) + pW (v2 )) .
Le membre de droite est un écriture de v1 + v2 comme somme d’un vecteur de U et d’un
de W . Or il y a une unique façon de décomposer un vecteur en somme d’un vecteur de U et
d’un de W . Il suit que
pU (v1 + v2 ) = pU (v1 ) + pU (v2 ); pW (v1 + v2 ) = pW (v1 ) + pW (v2 ).
De même, αv1 = α (pU (v1 ) + pW (v2 )) = αpU (v1 ) + αpW (v2 ) donne une décomposition de
αv1 , et par unicité de la décomposition on déduit que pU (αv1 ) = αpU (v1 ) et pW (αv1 ) =
αpW (v1 ).
Proposition 2.1.1 Soient f : V → W et g : V → W deux fonctions linéaires.
1. La fonction f + g : V → W , définie par (f + g)(v) = f (v) + g(v), est linéaire.
2. Pour tout λ ∈ R, la fonction λf : V → W , définie par (λf )(v) = λf (v), est linéaire.
Démonstration Soient v1 , v2 ∈ V et α ∈ R. Alors :
(f + g)(v1 + v2 ) = f (v1 + v2 ) + g(v1 + v2 ) (f + g)(αv1 ) = f (αv1 ) + g(αv1 )
= f (v1 ) + f (v2 ) + g(v1 ) + g(v2 ) ; = αf (v1 ) + αg(v1 ) .
= (f + g)(v1 ) + (f + g)(v2 ) = α(f + g)(v1 )
De même :
(λf )(v1 + v2 ) = λf (v1 + v2 ) (λf )(αv1 ) = λf (αv1 )
= λf (v1 ) + λf (v2 ) ; = λαf (v1 ) .
= (λf )(v1 ) + (λf )(v2 ) = α(λf )(v1 )

Définition 2.1.4 Soient V et W deux espaces vectoriels. Notons Hom(V, W ) l’ensemble de toutes
les fonctions linéaires de V à W . D’après la Proposition 2.1.1, Hom(V, W ) est un espace vectoriel
dont le vecteur nul est la fonction nulle 0 : V → W .
Définition 2.1.5 Soit V = U ⊕ W un espace vectoriel décomposé en somme directe de deux sous-
espaces. La fonction σU : V → V définie par σU (v) = pU (v) − pW (v) est appellée la symétrie
d’axe U . Il suit de la Proposition 2.1.1 que σU = pU − pW est linéaire.
Proposition 2.1.2 Soient f : V → W et g : W → U deux fonctions linéaires. Alors la fonction
composée g ◦ f : V → U est une fonction linéaire.
Démonstration Soient v1 , v2 ∈ V . Alors
(g ◦ f )(v1 + v2 ) = g (f (v1 + v2 )) = g (f (v1 ) + f (v2 ))
= g(f (v1 )) + g(f (v2 )) = (g ◦ f )(v1 ) + (g ◦ f )(v2 ).
De même, pour tout α ∈ R,
(g ◦ f )(αv1 ) = g (f (αv1 )) = g((αf (v1 )) = αg(f (v1 )) = α(g ◦ f )(v1 ).

32 Fonctions linéaires

Proposition 2.1.3 Soit f : V → W une fonction linéaire bijective entre espaces vectoriels. La
fonction inverse f −1 : W → V qui envoit tout vecteur w ∈ W sur l’unique vecteur v ∈ V tel
que f (v) = w, est linéaire. Elle satisfait f −1 ◦ f = idV et f ◦ f −1 = idW .

Démonstration Les formules pour les compositions sont évidentes à partir des définitions. Il
faut uniquement vérifier que f −1 est linéaire. Soient w1 , w2 ∈ W et soient v1 , v2 ∈ V définis
par f (vi ) = wi (donc f −1 (wi ) = vi ). Puisque f est linéaire, f (v1 + v2 ) = f (v1 ) + f (v2 ) =
w1 +w2 , donc le vecteur v1 +v2 = f −1 (w1 )+f −1 (w2 ) a pour image par f le vecteur w1 +w2 .
On en déduit que f −1 (w1 + w2 ) = f −1 (w1 ) + f −1 (w2 ). De même, la linéairité de f entraı̂ne
que f (αv1 ) = αf (v1 ) = αw1 , donc αv1 = αf −1 (w1 ) a pour image par f le vecteur αw1 , ce
qui revient à dire que f −1 (αw1 ) = αf −1 (w1 ). 

Exemple 2.1.7 Soit V = U ⊕ W et σU : V → V la symétrie. Pour tout vecteur v ∈ V écrivons


v = pU (v) + pW (v). Puisque la symétrie ne fait que changer le signe de la composante en W ,

(σU ◦ σU )(v) = σU (pU (v) − pW (v)) = pU (v) + pW (v) = v.

Donc σU ◦ σU = idV . Par suite σU−1 = σU . En particulier, la symétrie est une fonction bijective,
comme on aurait facilement pu le vérifier sur la définition.

Puisque les fonctions linéaires conservent les opérations, on est en droit d’attendre qu’elles
conservent les sous-espaces.

Proposition 2.1.4 Soit f : V → W une fonction linéaire.


1. Pour tout sous-espace S ≤ V , le sous-ensemble f (S) = {f (v) | v ∈ V } ⊆ W est un sous-
espace ;
2. Pour tout sous-espace T ≤ W , le sous-ensemble f −1 (T ) = {v ∈ V | f (v) ∈ T } ⊆ V est un
sous-espace.

Démonstration Soient w1 = f (v1 ) et w2 = f (v2 ) deux vecteurs de f (S), c’est à dire que
v1 , v2 ∈ S. Puisque S est un sous-espace, v1 + v2 ∈ S. Alors, par linéarité de f :

w1 + w2 = f (v1 ) + f (v2 ) = f (v1 + v2 ) ∈ f (S).

De même, pour tout α ∈ R, on a que αv1 ∈ S puisque S est un sous-espace. Alors

αw1 = αf (v1 ) = f (αv1 ) ∈ f (S).

Donc f (S) est un sous-espace.


Soient u1 , u2 ∈ V tels que f (u1 ) ∈ T et f (u2 ) ∈ T . Puisque T est un sous-espace, f (u1 +u2 ) =
f (u1 ) + f (u2 ) ∈ T , donc u1 + u2 ∈ f −1 (T ). De même, f (αu1 ) = αf (u1 ) ∈ T pour tout α ∈ R,
donc αu1 ∈ f −1 (T ). Ainsi f −1 (T ) est un sous-espace. 
On appliquant la Proposition 2.1.4 aux sous-espaces bêtes de l’exemple 1.3.1, à toute
fonction linéaire on peut associer les deux sous-espaces naturels suivants.

Définition 2.1.6 Soit f : V → W une fonction linéaire. L’image de f est le sous-espace Im(f ) =
f (V ) ≤ W . Le noyau de f est le sous-espace Ker(f ) = f −1 (0) ≤ V .
Chapitre II 33

Exemple 2.1.8 Soit V = U ⊕ W et pU : V → V la projection. Il suit immédiatement de la


définition que Ker(pU ) = W et Im(pU ) = U .

Remarque 2.1.3 Si f : V → W est une fonction linéaire et S = hv1 , . . . , vk i, alors f (S) =


hf (v1 ), . . . , f (vk )i : puisque tout v ∈ S est combinaison linéaire de v1 , . . . , vk , son image est
combinaison linéaire de f (v1 ), . . . , f (vk ).

Exemple 2.1.9 Soit g : R2 → R3 la fonction de l’exemple 2.1.2, g(x, y) = (x+y, x−y, 2x+3y).
Calculons-en le noyau et l’image. Ker(g) = {(0, 0)} car x = y = 0 est la seule solution du
système 
 x+y =0
g(x, y) = (0, 0) ⇐⇒ x−y =0
2x + 3y = 0

La remarque 2.1.3 permet de dire que

Im(g) = hg(1, 0), g(0, 1)i = h(1, 0, 2), (1, 0, 3)i.

Ces vecteurs sont libres et ils forment donc une base de Im(g).
d
Exemple 2.1.10 Pour la fonction dX : R[X] → R[X] de l’exemple 2.1.5 on a

d
(a0 + a1 X + · · · + an X n ) = a1 + 2a2 X + · · · + nan X n−1 ⇐⇒ a1 = · · · = an = 0
dX
d
donc Ker( dX ) est le sous-espace des polynômes constants. Tout polynôme peut être intégré

d
a0 + a1 X + · · · + an X n = a0 X + a1 X 2 + · · · + an X n+1

dX
d d d
donc Im( dX ) = R[X]. En particulier, dX est surjective. Pour dX : R[X]≤n →: R[X]≤n−1 , les
d d
mêmes calculs montrent que Ker( dX ) = h1i et Im( dX ) = R[X]≤n−1 .

Rappelons que par définition une fonction f : V → W est surjective si f (V ) = W . Le


noyau permet de caractériser les fonctions linéaires injectives.

Proposition 2.1.5 Une fonction linéaire f : V → W est injective si et seulement si Ker(f ) = {0}.

Démonstration Rappelons la définition : f est injective si elle envoit des éléments distincts
de la source sur des éléments distincts du but. En formules : f (v1 ) = (v2 ) ⇒ v1 = v2 .
Dire que v ∈ Ker(f ) signifie que f (v) = 0 = f (0) (pour la dernière égalité on a utilisé la
remarque 2.1.1). Alors, si f est injective, il faut que v = 0, donc Ker(f ) = {0}.
Réciproquement, supposons que Ker(f ) = {0} et soient v1 , v2 tels que f (v1 ) = (v2 ). Alors
f (v1 − v2 ) = f (v1 ) − (v2 ) = 0, donc v1 − v2 ∈ Ker(f ). Mais, par hypothèse, le noyau ne
contient que le vecteur nul, donc v1 − v2 = 0, soit v1 = v2 . 

Remarque 2.1.4 Cette proprieté ne vaut pas pour les fonctions non linéaires. Par exemple
pour f : R → R, f (x) = x2 , il est bien vrai que f −1 (0) = {0}, mais f (1) = f (−1), donc f
n’est pas injective.
34 Fonctions linéaires

On peut aussi donner une autre caractérisation des fonctions linéaires injectives. Puisque
une fonction linéaire conserve les opérations, elle conserve aussi les rélations de dépendance
linéaire : si v1 , . . . , vn sont liés par la rélation λ1 v1 + · · · + λn vn = 0, alors f (v1 ), . . . , f (vn )
sont liés par la même rélation : λ1 f (v1 ) + · · · + λn f (vn ) = f (λ1 v1 + · · · + λn vn ) = 0. On en
déduit que, si f (v1 ), . . . , f (vn ) sont libres, nécéssairement v1 , . . . , vn doivent être libres.
Par contre, si v1 , . . . , vn sont libres, il se peut fort bien que f (v1 ), . . . , f (vn ) soient liés.
C’est le cas notamment si la fonction n’est pas injective, car alors il existe v 6= 0 (donc v
libre, par la remarque 1.4.5) tel que f (v) = 0, donc lié.

Proposition 2.1.6 Soit f : V → W une fonction linéaire injective et v1 , . . . , vn ∈ V des vecteurs


libres. Alors f (v1 ), . . . , f (vn ) sont libres.

Démonstration Soit λ1 f (v1 ) + · · · + λn f (vn ) = 0. Alors 0 = λ1 f (v1 ) + · · · + λn f (vn ) =


f (λ1 v1 + · · · + λn vn ), donc λ1 v1 + · · · + λn vn ∈ Ker(f ) = {0}, donc λ1 v1 + · · · + λn vn = 0.
Puisque v1 , . . . , vn sont libres par hypothèse, on en déduit que λ1 = · · · = λn = 0. 

Remarque 2.1.5 On a constaté à la remarque 2.1.3 que l’image par une fonction linéaire d’un
sous-espace de type fini est engendrée par les images des générateurs. On vient de voir que
si {v1 , . . . , vk } est une base de S, on est en mesure d’assurer que {f (v1 ), . . . , f (vk )} est une
base de f (S) uniquement au cas où f est injective. C’est le cas de la fonction g : R2 → R3 à
l’exemple 2.1.9.

Théorème 2.1.1 (Formule des dimensions) Soit f : V → W une fonction linéaire. Si V est de
type fini alors dim V = dim Im(f ) + dim Ker(f ).

Démonstration La formule a bien un sens car le noyau (en tant que sous-espace d’un espace
de type fini) et l’image (par la remarque 2.1.3) sont de type fini : on peut donc parler de leur
dimensions.
Soient {u1 , . . . , up } et {w1 , . . . , wq } des bases pour Ker(f ) et Im(f ) réspectivement. Choi-
sissons v1 , . . . , vq ∈ V tels que f (v1 ) = w1 , . . ., f (vq ) = wq . Il suffit de montrer que
{u1 , . . . , up , v1 , . . . , vq } est une base de V , car la dimension est le nombre de vecteurs dans
une quelconque base.
Ces vecteurs sont libres, car si λ1 u1 + · · · + λp up + µ1 v1 + · · · + µq vq = 0, alors

0 = f (0) = f (λ1 u1 + · · · + λp up + µ1 v1 + · · · + µq vq )
(2.1.2) = λ1 f (u1 ) + · · · + λp f (up ) + µ1 f (v1 ) + · · · + µq f (vq )
= µ1 w1 + · · · + µq wq

car les images des ui sont nulles. Puisque par hypothèse w1 , . . . , wq sont libres, on déduit
de (2.1.2) que µ1 = · · · = µq = 0. En substituant dans la formule de départ, on trouve que
λ1 u1 + · · · + λp up = 0. Mais u1 , . . . , up sont libres par hypothèse, donc λ1 = · · · = λp = 0.
Les vecteurs u1 , . . . , up , v1 , . . . , vq engendrent V . Soit v ∈ V . Alors, puisque w1 , . . . , wq en-
gendrent Im(f ), on peut écrire f (v) = β1 w1 + · · · + βq wq . Donc

0 = f (v) − β1 w1 − · · · − βq wq
= f (v) − β1 f (v1 ) − · · · − βq f (vq )
= f (v − β1 v1 − · · · − βq vq ).
Chapitre II 35

On a donc que v − β1 v1 − · · · − βq vq ∈ Ker(f ). Ce dernier sous-espace est engendré par


u1 , . . . , up , donc on peut écrire v − β1 v1 − · · · − βq vq = α1 u1 + · · · + αp up , ce qui revient à
dire que v = α1 u1 + · · · + αp up + β1 v1 + · · · + βq vq . 

La formule des dimensions est très utile dans la pratique et permet de nombreuses sim-
plifications de calcul. Par exemple, si g : R2 → R3 est encore la fonction de l’exemple 2.1.2,
le fait de savoir que Ker(g) = {0} nous permet de déduire que Im(g) est de dimension 2
et réciproquement, connaitre dim Im(g) nous aurait permi de conclure que Ker(f ) est nul.
Il faut bien entendu faire attention au fait que la formule n’a pas de sens si l’espace source
d
n’est pas de type fini : par exemple, pour dX : R[X] → R[X] elle donne ∞ = ∞ + 1.

Corollaire 2.1.1 Soit f : V → W une fonction linéaire entre espaces de type fini. Supposons que
dim V = dim W . Les conditions suivantes sont équivalentes :
1. f est injective ;
2. f est surjective ;
3. f est bijective.

Démonstration Si f est injective, la Proposition 2.1.5 dit que Ker(f ) = {0}, la formule des
dimensions donne alors dim Im(f ) = dim V = dim W . La Proposition 1.4.7 assure alors
que Im(f ) = W , donc f est surjective. En inversant ce raisonnement, on voit que si f est
surjective, elle est nécessairement injective (bien sûr, sous l’hypothèse dim V = dim W ). 

Définition 2.1.7 Une fonction linéaire et bijective est appelée un isomorphisme.

Remarque 2.1.6 Soit f : V → W un isomorphisme et U ≤ V un sous-espace de type fini.


Alors dim U = dim f (U ). En effet, la Proposition 2.1.6 nous dit que si {u1 , . . . , uk } est une
base de U alors f (u1 ), . . . , f (uk ) est une base de f (U ).

Exemple 2.1.11 Soit V = U ⊕ W . La symètrie σU : V → V est un isomorphisme. Cela se


voit soit par calcul direct, soit en utilisant que σU ◦ σU = idV (Exemple 2.1.7). En effet, si
v ∈ Ker(σU ), on a σU (v) = 0 donc v = σU (σU (v)) = σU (0) = 0. Donc σU est injective. Si V
est de type fini, on peut déduire du Corollaire 2.1.1 que σU est aussi surjective. Mais, par le
même argument, on peut vérifier directement que σU est surjective sans aucune hypothèse
de finitude, car la formule v = σU (σU (v)), valable pour tout v ∈ V , nous dit bien que tout
vecteur v est l’image par σU du vecteur σU (v).
 
a b
Exemple 2.1.12 Soit p : M (2 × 2, R) → R[X]≤2 la fonction p = a + (b + c)X + dX 2 .
c d
Cette fonction est linéaire car :
  0 0 
a + a0 b + b0
  
a b a b
p + 0 =p
c d c d0 c + c0 d + d0
= (a + a0 ) + (b + b0 + c + c0 )X + (d + d0 )X 2
+ dX 2 + a0 + (b0 + c0 )X + d0 X 2

= a+ (b +  c)X 
a b a0 b0
=p +p 0
c d c d0
36 Fonctions linéaires

et     
a b αa αb
p α =p = αa + (αb + αc)X + αdX 2
c d αc αd  
2
 a b
= α a + (b + c)X + dX = αp .
c d
Le noyau de p est
       
a b 0 b 0 1
∈ M (2 × 2, R) | a = b + c = d = 0 = | ∀b ∈ R = h i.
c d −b 0 −1 0

De la formule des dimensions on tire que dim Im(p) = 4 − 1 = 3 = dim R[X]≤2 , donc p
est surjective : tout élément de R[X]≤2 est l’image d’au moins une matrice de M (2 × 2, R).
Calculons l’image réciproque du polynôme 1 + X + X 2 :
  
   a=1    
−1 2 a b 1 b
p (1 + X + X ) = ∈ M (2 × 2, R) | b+c=1 = | ∀b ∈ R .
 c d 1−b 1
d=1
 

Ce sous-esnsemble n’est bien sûr pas un sous-espace (il ne contient pas le vecteur nul, qui
est dans l’image réciproque du polyn̂ome constant nul). Toutefois, si on choisit un élément
dans l’image réciproque de 1 + X + X 2 , par exemple celle correspondante à b = 0, on trouve
que tout élément de p−1 (1 + X + X 2 ) s’écrit sous la forme
     
1 b 1 0 0 b
= + , b ∈ R.
1−b 1 1 1 −b 0

Tout élément de p−1 (1 + X + X 2 ) s’écrit donc comme somme d’un choix particulier et d’un
élément du noyau ou, autrement dit, la différence entre deux élements de p−1 (1 + X + X 2 )
est un élément de Ker(p). Les sous-ensemble de ce type sont très frequents et meritent une

Définition 2.1.8 Soit V un espace vectoriel, S ≤ V un sous-espace et v ∈ V un vecteur de V . La


variété linéaire contenante v et parallèle à S est le sous-ensemble de V , noté v + S consistant de
tous les vecteurs qui sont somme de v et d’un vecteur de S :

v + S = {v + s | ∀ s ∈ S} .

Proposition 2.1.7 Soit f : V → W une fonction linéaire et w0 ∈ W . L’image réciproque f −1 (w0 )


est soit l’ensemble vide (si w0 ∈
/ Im(f )) soit une variété linéaire parallèle à Ker(f ).

Démonstration Si w0 ∈ Im(f ), soit v0 ∈ V tel que f (v0 ) = w0 . Si v1 ∈ V est un autre vecteur


tel que f (v1 ) = w0 , alors

f (v1 − v0 ) = f (v1 ) − f (v0 ) = w0 − w0 = 0

et par suite v1 − v0 ∈ Ker(f ). Le vecteur v1 appartient donc à la varietè linéaire v0 + Ker(f ).


Réciproquement, soit v ∈ v0 + Ker(f ) : il existe donc un u ∈ Ker(f ) tel que v = v0 + u. Alors
f (v) = f (v0 + u) = f (v0 ) + f (u) = w0 + 0 = w0 . Donc tout v ∈ v0 + Ker(f ) appartient à
l’image réciproque de w0 . 
Chapitre II 37

§ 2 Fonctions linéaires et matrices


Un problème qui se pose souvent dans les applications est l’interpolation des données :
reconstruire une fonction en connaissant un certain nombre de ses valeurs. Ce problème
admet une solution complète dans le cas des fonctions linéaires.
Soient v1 , . . . , vk des vecteurs d’un espace vectoriel V et w1 , . . . , wk des vecteurs d’un
espace vectoriel W . La question est de savoir si il existe une fonction linéaire f : V → W telle
que f (v1 ) = w1 , . . ., f (vk ) = wk et si cette fonction est bien déterminée par ces conditions.

Proposition 2.2.1 Soient V et W des espaces vectoriels réels, v1 , . . . , vk ∈ V et w1 , . . . , wk ∈ W .


Supposons que V soit de type fini.
1. Si {v1 , . . . , vk } est une base de V , il existe une unique fonction linéaire f : V → W telle que
f (v1 ) = w1 , . . ., f (vk ) = wk .
2. Si v1 , . . . , vk sont des vecturs libres, il existe au moins une fonction linéaire f : V → W telle
que f (v1 ) = w1 , . . ., f (vk ) = wk .
3. Si v1 , . . . , vk engendrent V et si il existe une fonction linéaire f : V → W telle que f (v1 ) =
w1 , . . ., f (vk ) = wk , alors cette fonction est unique.

Démonstration Si v = λ1 v1 + · · · + λk vk est combinaison linéaire des vecteurs donnés, toute


fonction linéaire satisfait :

(2.2.1) f (v) = λ1 f (v1 ) + · · · + λk f (vk ) = λ1 w1 + · · · + λk wk

Si {v1 , . . . , vk } est une base, tout vecteur v ∈ V s’écrit de façon unique comme combinaison
de v1 , . . . , vk : la formule (2.2.1) définit donc bien une fonction qui à tout vecteur de V associe
un vecteur de W et il est immédiat de vérifier que cette fonction est linéaire.
Si v1 , . . . , vk sont libres, le Corollaire 1.4.1 permet de trouver des vecteurs vk+1 , . . .,
vk+n ∈ V tels que {v1 , . . . , vk , vk+1 , . . . , vk+n } soit une base de V . Choisissons arbitraire-
ment n vecteurs wk+1 , . . . , wk+n ∈ W . De la première partie de la proposition, on déduit
qu’il existe une unique fonction linéaire f : V → W satisfaisant les conditions voulues
f (v1 ) = w1 , . . ., f (vk ) = wk et aussi les conditions supplémentaires f (vk+1 ) = wk+1 , . . .,
f (vk+n ) = wk+n .
Remarquons toutefois que si on choisit wk+n 0 ∈ W avec wk+n 0 6= wk+n , on peut pour les
mêmes raisons trouver une fonction f : V → W telle que f 0 (vi ) = wi , pour i = 1, . . . , k +
0

n − 1, et f 0 (vk+n ) = wk+n 0 . En particulier, f 0 satisfait les conditions voulues mais f 6= f 0


puisque les deux fonctions ne prennent pas la même valeur en vk+n . Il existe donc plusieures
fonctions linéaires prenant les valeurs donées en v1 , . . . , vk .
Supposons maintenant que v1 , . . . , vk soient des générateurs pour V . En appliquant la
Proposition 1.4.4, on peut dire que l’ensemble {v1 , . . . , vk } contient une base de V . Quitte
à renuméroter les vecteurs, on peut supposer que v1 , . . . , vd est une base de V (avec d =
dim V ). On déduit le la première partie qu’il existe une unique fonction f : V → W telle
que f (v1 ) = w1 , . . ., f (vd ) = wd . Puisque {v1 , . . . , vd } est une base, les vecteurs vd+1 , . . . , vk
s’ecrivent de façon unique comme combinaisons linéaires :

vd+i = α1,i v1 + · · · + αd,i vd =⇒ f (vd+i ) = α1,i w1 + · · · + αd,i wd .


38 Fonctions linéaires

Afin que f satisfasse toutes les conditions voulues, c’est à dire que f (vd+i ) = wd+i aussi
pour i = 1, . . . , k − d il faut donc que

wd+i = α1,i w1 + · · · + αd,i wd , i = 1, . . . , k − d.

Autrement dit, il faut que les images voulues wd+1 , . . . , wk satisfassent les mêmes relations
que vd+1 , . . . , vk . 

Corollaire 2.2.1 Tout espace vectoriel de type fini V est isomorphe à Rdim V .

Démonstration Soit B = {v1 , . . . , vn } un base de V . La Proposition 2.2.1 garantit qu’il existe


une unique fonction linéaire ϕ : V → Rn telle que ϕ(vi ) = ei . Remarquons que, pour tout
v ∈ V , ϕ(v) est le vecteur de Rn des coordonnées du vecteur v dans la base B. En utilisant la
Remarque 2.1.3, on voit que ϕ est surjective, car Im(ϕ) = hϕ(v1 ), . . . , ϕ(vn )i = he1 , . . . , en i =
Rn . Le Corollaire 2.1.1 nous dit alors que ϕ est un isomorphisme. Remarquons au passage
que ϕ−1 : Rn → V est l’unique fonction linéaire telle que ϕ−1 (ei ) = vi . 

Exemple 2.2.1 On cherche à établir pour quelles valeurs de k ∈ R il existe une fonction
linéaire f : R3 → R2 telle que

f (1, 1, 1) = (1, 1); f (1, −1, 1) = (1, −1); f (0, 1, k) = (0, k+1); f (1, 0, 1) = (k 2 −k+1, 0).

On commence par étudier les vecteurs donnés dans R3 : s’agissant de quatre vecteurs dans
un espace de dimension 3, ils ne peuvent pas être libres. Pour savoir si ce sont des généra-
teurs, on calcule la forme échelonnée :
     
1 1 1 1 1 1 1 1 1
1 −1 1 L2 − L1 0 −2 0 0 −2 0
0 0 k  .
    1
 
0 1 k  0 1 k  L3 + L2
2
1 0 1 L4 − L1 0 −1 0 L4 + 12 L2 0 0 0

Le rang de cette matrice est 3 si et seulement si k 6= 0, et dans ce cas les vecteurs engendrent
R3 . Les opérations que nous avons fait pour rendre nulle la quatrième ligne ne font pas
intervenir la troisième : cela veut dire que le quatrième vecteur est une combinaison linéaire
des deux premiers, ce qui se vérifie aussi directement : (1, 0, 1) = 21 (1, 1, 1) + 12 (1, −1, 1).
Toute fonction satisfaisante aux conditions données doit donc vérifier
1 1 1 1
(2.2.2) f (1, 0, 1) = f (1, 1, 1) + f (1, −1, 1) = (1, 1) + (1, −1) = (1, 0).
2 2 2 2
Il faut donc que (k 2 − k + 1, 0) = (1, 0), donc k 2 − k = 0, ce qui impose k = 0 ou bien
k = 1. Pour k 6= 0 on a vu que (1, 1, 1), (1, −1, 1) et (0, 1, k) forment une base de R3 : de la
Proposition 2.2.1 il suit donc qu’il existe une unique fonction satisfaisante les trois premières
conditions voulues et on vient de voir que la quatrième est aussi satisfaite lorsque k = 1.
Donc pour k = 1 il existe une unique fonction satisfaisante nos conditions.
Pour k = 0 les vecteurs sont liés : on a (0, 1, 0) = 12 (1, 1, 1) − 12 (1, −1, 1) et il faut donc que

1 1 1 1
f (0, 1, 0) = f (1, 1, 1) − f (1, −1, 1) = (1, 1) − (1, −1) = (0, 1)
2 2 2 2
Chapitre II 39

ce qui, pour k = 0, est bien la condition voulue. Puisque la relation sur l’image de (1, 0, 1) est
aussi satisfaite, grâce à la (2.2.2), les conditions voulues sont conséquences des deux seules
conditions f (1, 1, 1) = (1, 1) et f (1, −1, 1) = (1, −1). Puisque les vecteurs (1, 1, 1) et (1, −1, 1)
sont libres, la Proposition 2.2.1 nous dit qu’il existe au moins une fonction f satisfaisante ces
conditions. Cette fonction n’est pas unique, car les vecteurs (1, 1, 1) et (1, −1, 1) ne forment
pas une base. Par exemple, les fonctions f (x, y, z) = (x, y) et f 0 (x, y, z) = (z, y) satisfont ces
conditions.

Définition 2.2.1 Soient V et W deux espaces vectoriels de type fini, B = {v1 , . . . , vn } un base de
V et C = {w1 , . . . , wm } une base de W . Soit f : V → W fonction linéaire et soient
 
a1,1 a1,2 . . . a1,n
f (v1 ) = a1,1 w1 + · · · + am,1 wm  a2,1 a2,2 . . . a2,n 
.. .. M B, C
; (f ; ) = ..  .
 
. .  .. ..
 . . . 
f (vn ) = a1,n w1 + · · · + am,n wm
am,1 am,2 . . . am,n
La matrice M (f ; B, C ) est appleée la matrice de f dans les bases B et C .

La première (respectivement deuxième, troisième etc.) colonne de la matrice M (f ; B, C )


est donc donnée par les coordonnées dans la base C du vecteur f (v1 ) (respectivement f (v2 ),
f (v3 ) etc.).

Exemple 2.2.2 La matrice de la fonction g : R2 → R3 de l’exemple 2.1.2 dans les bases


canoniques est
 
1 1
g(1, 0) = (1, 1, 2)
=⇒ M (g; E2 , E3 ) = 1 −1 .
g(0, 1) = (1, −1, 3)
2 3

Exemple 2.2.3 Soient V et W deux espaces de type fini. La matrice de la fonction nulle 0 :
V → W dans n’importe quel choix de bases B de V et C de W est la matrice nulle. La matrice
de la fonction identité idV : V → V par rapport à une quelconque base B = {v1 , . . . , vn } de
V est
 
1 0 ... 0
idV (v1 ) = v1 = v1 + 0v2 + · · · + 0vn 0 1 . . . 0
.. .. M B, B)
; (id ; =  .. .. . . ..  .
 
. . V
. . . .
idV (vn ) = vn = 0v1 + 0v2 + · · · + vn
0 0 ... 1
Cette matrice est appelée matrice identité et notée In .
d
Exemple 2.2.4 La formule dX (X m ) = mX m−1 permet d’écrire la matrice de la derivation
dX : R[X]≤n → R[X]≤n−1 (voir Exemple 2.1.5) dans les bases Pn = {1, X, . . . , X } et
d n

Pn−1 = {1, X, . . . , X n−1 } :


 
0 1 0 ... 0
d 0 0 2 . . . 0 
M( ; Pn , Pn−1 ) =  . . . . ..  ∈ M ((n − 1) × n, R) .
 
dX . .
. . . . . . .
0 0 0 ... n
40 Fonctions linéaires

Exemple 2.2.5 Soit V = U ⊕ W , supposons que V soit de type fini et soient {u1 , . . . , up } et
{w1 , . . . , wq } des bases pour U et W . Puisque pU (u) = u pour tout u ∈ U et pU (w) = 0 pour
tout w ∈ W , on écrit facilement la matrice de la projection et celle de la symètrie par rapport
à la base B = {u1 , . . . , up , w1 , . . . , wq } de V :
   
1 ... 0 0 ... 0 1 ... 0 0 ... 0
 .. . . .. .. ..   .. . . .. .. .. 
 . . . . .   . . . . . 
   
 0 ... 1 0 ... 0   0 ... 1 0 ... 0 
M (pU ; B, B) =  
 ; M (σU ; B, B) =  0 . . . 0 −1 . . . 0  .
  
 0 . . . 0 0 . . . 0   
 .. .. .. ..   .. .. .. .. .. 
 . . . .   . . . . . 
0 ... 0 0 ... 0 0 ... 0 0 . . . −1

Exemple 2.2.6 La matrice de la fonction f : R3 → R2 de l’exemple 2.2.1 (pour k = 1)


par rapport à la base B = {(1, 1, 1), (1, −1, 1), (0, 1, 1)} de R3 et à la base canonique E2 =
{(1, 0), (0, 1)} de R2 est  
1 1 0
M (f ; B, E2 ) = .
1 −1 2

Remarque 2.2.1 Soient V et W deux espaces vectoriels de type fini, B = {v1 , . . . , vn } une
base de V et C = {w1 , . . . , wm } une base de W . Soit Hom(V, W ) l’espace des fonctions
linéaires de V à W (voir Définition 2.1.4). Soit enfin
Φ : Hom(V, W ) −→ M (m × n; R)
f 7−→ M (f ; B, C )
l’application qui à toute fonction linéaire associe sa matrice dans les bases données. La fonc-
tion Φ est linéaire car, pour toute f : V → W et g : V → W linéaires et tout α ∈ R :
f (v1 ) = a1,1 w1 + · · · + am,1 wm g(v1 ) = b1,1 w1 + · · · + bm,1 wm
.. .. ; .. .. =⇒
. . . .
f (vn ) = a1,n w1 + · · · + am,n wm g(vn ) = b1,n w1 + · · · + bm,n wm

(f + g)(v1 ) = (a1,1 + b1,1 )w1 + · · · + (am,1 + bm,1 )wm


.. .. ;
. .
(f + g)(vn ) = (a1,n + b1,n )w1 + · · · + (am,n + bm,n )wm
(αf )(v1 ) = αa1,1 w1 + · · · + αam,1 wm
.. ..
. .
(αf )(vn ) = αa1,n w1 + · · · + αam,n wm
et donc Φ(f + g) = M (f + g; B, C ) = M (f ; B, C ) + M (g; B, C ) = Φ(f ) + Φ(g) et Φ(αf ) =
M (αf ; B, C ) = αM (f ; B, C ) = αΦ(f ). La fonction Φ est injective car, si la matrice de f
est nulle, f prend la valeur nulle en tous les vecteurs de la base B et donc coı̈ncide avec
la fonction nulle grâce à la Proposition 2.2.1. Soit A ∈ M (m × n; R) : la Proposition 2.2.1
implique qu’il existe une unique fonction f : V → W telle que f (v1 ) = a1,1 w1 +· · ·+am,1 wm ,
. . ., f (vn ) = a1,n w1 + · · · + am,n wm . Donc Φ(f ) = M et par suite la fonction Φ est aussi
surjective. On en déduit que Φ : Hom(V, W ) → M (m × n; R) est un isomorphisme. Comme
conséquence Hom(V, W ) est de type fini, ce qui n’est pas évident à priori.
Chapitre II 41

La Proposition 2.2.1 nous dit que la fonction f est complètement déterminée une fois
qu’on connait les images f (v1 ), . . . , f (vn ) des vecteurs de la base B. D’autre part ces vec-
teurs sont complètement déterminés par leurs coordonnées par rapport à la base C . Donc la
fonction f est complètement déterminée par la matrice M (f ; B, C ).
Concrètement, pour tout v = α1 v1 + · · · + αn vn ∈ V , si f (v) = β1 w1 + · · · + βm wm , on doit
en principe être capables de déterminer les coordonnées β1 , . . . , βm à partir de la matrice
M (f ; B, C ) et des coordonnées α1 , . . . , αn . En effet :
f (v) = α1 f (v1 ) + · · · + αn f (vn )
= α1 (a1,1 w1 + · · · + am,1 wm ) + · · · + αn (a1,n w1 + · · · + am,n wm )
= (α1 a1,1 + · · · + αn a1,n ) w1 + · · · + (α1 am,1 + · · · + αn am,n ) wm
donc β1 = α1 a1,1 + · · · + αn a1,n , . . ., βm = α1 am,1 + · · · + αn am,n . Cest relations se visualisent
mieux en écrivant les coordonnées comme des matrices colonnes :
       
β1 α1 a1,1 + · · · + αn a1,n a1,1 a1,n
 ..   ..  .   . 
(2.2.3)  . =  = α1  ..  + · · · + αn  ..  .

.
βm α1 am,1 + · · · + αn am,n am,1 am,n
Les coordonnées de f (v) par rapport à la base C se calculent donc en prenant la combinaison
linéaire des colonnes de la matrice M (f ; B, C ) à coéfficients les coordonées de v par rapport
à la base B. Les formules (2.2.3) justifient l’introduction d’une nouvelle opération sur les
matrices.

§ 3 Multiplication matricielle

Définition 2.3.1 1. Le produit d’une matrice de M (1 × n, R) (matrice ligne) par une matrice de
M (n × 1, R) (matrice colonne) est :
 
b1
 .. 
(2.3.1) (a1 . . . an )  .  = a1 b1 + a2 b2 + · · · + an bn ∈ R = M (1 × 1, R).
bn

2. Le produit d’une matrice A ∈ M (m × n, R) par une matrice colonne est :


    
a1,1 a1,2 . . . a1,n b1 a1,1 b1 + · · · + a1,n bn
 a2,1 a2,2 . . . a2,n   b2   a2,1 b1 + · · · + a2,n bn 
(2.3.2) ..   ..  =  .
    
 .. .. ..
 . . .  .   . 
am,1 am,2 . . . am,n bn am,1 b1 + · · · + am,n bn

3. Le produit d’une matrice A ∈ M (m × n, R) par une matrice B ∈ M (n × p, R) est la matrice


de M (m × p, R) dont l’élément sur la i-ème ligne, j-ème colonne est le produit de la i-ème
ligne de A par la j-ème colonne de B :
    
a1,1 a1,2 . . . a1,n b1,1 b1,2 . . . b1,p x1,1 x1,2 . . . x1,p
 a2,1 a2,2 . . . a2,n   b2,1 b2,2 . . . b2,p   x2,1 x2,2 . . . x2,c 
..  =  ..
    
 .. .. ..   .. .. .. .. 
 . . .   . . .   . . . 
am,1 am,2 . . . am,n bn,1 bn,2 . . . bn,p xm,1 xm,2 . . . xm,p
42 Fonctions linéaires

avec
n
X
(2.3.3) xi,j = ai,1 b1,j + ai,2 b2,j + · · · + ai,n bn,j = ai,k bk,j
k=1

Remarque 2.3.1 En comparant les formules (2.2.3) et (2.3.2) on voit que les coordonnées
dans une base C de l’image f (v) d’un vecteur v par une application linéaire f se trouvent
en multipliant la matrice M (f ; B, C ) par la colonne des coordonnées de v dans la base B.

Remarque 2.3.2 La formule (2.3.2) montre que le produit d’une matrice A ∈ M (m × n, R)


par le j-eme vecteur ej de la base canonique de Rn (pensé comme une matrice colonne) est
égal à la j-ème colonne de A. De même, si ei est le i-ème vecteur de la base canonique de
Rm , le produit t ei Aej est égal à l’élément ai,j sur la i-ème ligne, j-ème colonne de A.

Remarque 2.3.3 Soulignons qu’il est possible de multiplier une matrice A par une matrice B
uniquement si le nombre de colonnes de A est égal au nombre de lignes de B. En particulier,
si A ∈ M (m × n, R) par une matrice B ∈ M (n × p, R) le produit AB est défini mais, si m 6= p,
le produit BA n’existe pas.

Remarque 2.3.4 Soit α ∈ R. Pour toute matrice A ∈ M (m × n, R) on a :


    
α 0 ... 0 a1,1 a1,2 . . . a1,n αa1,1 αa1,2 ... αa1,n
 0 α . . . 0   a2,1 a2,2 . . . a2,n   αa2,1 αa2,2 ... αa2,n 
(αIn )A =  . . . ..  =  .. ..  = αA;
    
 .. .. . . ...   .
  ..
..
. .   .
..
. . 
0 0 ... α am,1 am,2 . . . am,n αam,1 αam,2 . . . αam,n
    
a1,1 a1,2 ... a1,n α 0 ... 0 αa1,1 αa1,2 . . . αa1,n
 a2,1 a2,2 ... a2,n 
  0 α . . . 0   αa2,1 αa2,2 . . . αa2,n 
   
A(αIm ) =  . ..  =  .. ..  = αA.

.. ..   .. .. . . ..
 .. . . . . . .  . . . 
am,1 am,2 . . . am,n 0 0 ... α αam,1 αam,2 . . . αam,n
On peut donc interpréter l’action scalaire sur les matrices comme une multiplication matri-
cielle.

Proposition 2.3.1 Soient A, A0 ∈ M (m × n, R), B, B 0 ∈ M (n × p, R) et C ∈ M (p × q). La


multiplication matricielle satisfait les propriétés suivantes :
1. existence du neutre à droite et à gauche : In A = AIm = A ;
2. associative : (AB)C = A(BC) ;
3. distributive par rapport à l’addition : (A+A0 )B = AB+A0 B et A(B+B 0 ) = AB+AB 0 ;
4. distributive par rapport à l’action scalaire : (αA)B = A(αB) = α(AB) ;
5. t (AB) = (t B)(t A).

Démonstration L’existence du neutre suit des calculs faits à la Remarque 2.3.4 (pour α = 1).
Notons ai,j (respectivement bi,j , respectivement ci,j ) les coéfficients de la matrice A (respecti-
vement B et C). Pour vérifier la propriété associative, notons xi,j les coéfficients de la matrice
Chapitre II 43

AB et yi,j ceux de la matrice BC. Alors en appliquant la formule (2.3.3), le coéfficient sur la
i-ème ligne et j-ème colonne de la matrice (AB)C est
n n p p
n X
!
X X X X
xi,k ck,j = ai,l bl,k ck,j = ai,l bl,k ck,j
k=1 k=1 l=1 k=1 l=1

alors que le coéfficient sur la i-ème ligne et j-ème colonne de la matrice A(BC) est
p p n n Xp
!
X X X X
ai,l yl,j = ai,l bl,k ck,j = ai,l blk ck,j
l=1 l=1 k=1 k=1 l=1

donc (AB)C = A(BC).


Pour vérifier la propriété distributive par rapport à l’addition, notons a0i,j les coéfficients
de la matrice A0 . En appliquant la formule (2.3.3), le coéfficient sur la i-ème ligne et j-ème
colonne de la matrice (A + A0 )B est
n
X n
X n
X
(ai,k + a0i,k )bk,j = ai,k bk,j + a0i,k bk,j
k=1 k=1 k=1

qui est bien la somme des coéfficients sur la i-ème ligne et j-ème colonne des matrices AB
et A0 B. La distribution de la l’addition vis à vis de la multiplication à gauche se montre de
la même façon.
La propriété distributive par rapport à l’action scalaire suit de la propriété associative et de
l’interprétation de l’action comme multiplication matricielle (Remarque 2.3.4).
Par définition de transposition, le coéfficient sur la i-ème ligne et j-ème colonne de la matrice
t (AB) est le coéfficient sur la j-ème ligne et i-ème colonne de la matrice AB, donc

n
X
aj,k bk,i .
k=1

Par ailleurs, le coéfficient sur la i-ème ligne et j-ème colonne de la matrice (t B)(t A) est égal
à la multiplication de la i-ème ligne de t B par la j-ème colonne de t A :
 
aj,1 n
. . . bn,i )  ...  = b1,i aj,1 + b2,i aj,2 + · · · + bn,i aj,n =
X
(b1,i aj,k bk,i .
 

aj,n k=1

Remarque 2.3.5 Si A et B sont deux matrices carrées n × n, les produits AB et BA sont bien
définis. La Proposition 2.3.1 dit donc que M (n × n, R) est un anneau (voir Remarque 1.1.3).
Soulignons toutefois qu’il s’agit d’un anneau non-commutatif car en général AB 6= BA, par
exemple
         
1 1 1 2 4 6 3 3 1 2 1 1
= 6= = .
1 1 3 4 4 6 7 7 3 4 1 1
44 Fonctions linéaires

Corollaire 2.3.1 Soit A ∈ M (m × n; R). Écrivons les vecteurs de Rn et Rm comme des colonnes.
La fonction fA : Rn −→ Rm donnée par
     
x1 x1 a1,1 x1 + · · · + a1,n xn
fA  ...  = A  ...  =  ..
     
. 
xn xn am,1 x1 + · · · + am,n xn

est linéaire. La matrice de fA dans les bases canoniques est M (fA ; En , Em ) = A.


L’image de fA est le sous-espace Im(A) ⊆ Rm engendré par les colonnes de A. Le noyau de fA est
Ker(A) = {x ∈ Rn | Ax = 0}. Autrement dit, le noyau est l’ensemble des solutions du système
linéaire homogène : 
 a1,1 x1 + · · · + a1,n xn = 0

.. .. .
 . .
am,1 x1 + · · · + am,n xn = 0

Démonstration fA est linéaire grâce aux proprietés distributives. Remarquons que A → fA


est la fonction inverse de l’isomorphisme Φ : Hom(Rn , Rm ) → M (m × n; R) donné par
Φ(f ) = M (f ; En , Em ) (voir Remarque 2.2.1). Puisque les colonnes de A sont les images fA (ej )
des vecteurs de la base canonique de Rn , le fait que Im(fA ) soit engendré par les colonnes
de A est conséquence de la Remarque 2.1.3. 

Définition 2.3.2 Le rang par colonnes d’une matrice A ∈ M (m × n; R) est la dimension rgc (A)
du sous-espace Im(A) ⊆ Rm engendré par les colonnes de la matrice.

Remarque 2.3.6 On a donc rgc (A) = dim Im fA . Pour cette raison, dans certains textes la
formule des dimensions (Théorème 2.1.1) est appellée théorème du rang.

Corollaire 2.3.2 Soit A une matrice m × n. L’ensemble des solutions du système linéaire homogène
Ax = 0 est un sous-espace de Rn de dimension n − rgc (A).

Démonstration Ker(A) est un sous-espace puisque c’est le noyau de la fonction linéaire fA .


Sa dimension se calcule par la formule des dimensions (Théorème 2.1.1). 

Exemple 2.3.1
    
1 0 0 a11 a12 . . . a1n a11 a12 . . . a1n
(2.3.4) 0 0 1 a21 a22 . . . a2n  = a31 a32 . . . a3n  ;
0 1 0 a31 a32 . . . a3n a21 a22 . . . a2n

    
2 0 0 a11 a12 . . . a1n 2a11 2a12 . . . 2a1n
(2.3.5) 0 1 0 a21 a22 . . . a2n  =  a21 a22 . . . a2n  ;
0 0 1 a31 a32 . . . a3n a31 a32 . . . a3n

    
1 0 0 a11 a12 . . . a1n a11 a12 ... a1n
(2.3.6) 0 1 0 a21 a22 . . . a2n  =  a21 a22 ... a2n .
5 0 1 a31 a32 . . . a3n a31 + 5a11 a32 + 5a12 . . . a3n + 5a13
Chapitre II 45

La première matrice de (2.3.4) est la matrice obtenue en échangeant la deuxième et troisième


ligne de la matrice identité I3 . Le résultat de la multiplication à gauche par cette matrice est
l’opération élémentaire qui consiste à échanger la deuxème troisième ligne d’une matrice de
type 3 × n.
La première matrice de (2.3.5) est la matrice obtenue en multipliant par 2 la première ligne
de la matrice identité I3 . Le résultat de la multiplication à gauche par cette matrice est
l’opération élémentaire qui consiste à multiplier par 2 la première ligne d’une matrice de
type 3 × n.
La première matrice de (2.3.6) est la matrice obtenue en sommant à la troisième ligne de la
matrice identité I3 la deuxième multipliée par 5. Le résultat de la multiplication à gauche
par cette matrice est l’opération élémentaire qui consiste à sommer à la troisième ligne d’une
matrice de type 3 × n sa deuxième ligne multipliée par 5.

L’Exemple 2.3.1 se généralise aux matrices de n’importe quel ordre.

Définition 2.3.3 Notons Si,j ∈ M (n × n; R) la matrice obtenue en échangeant la i-ème j-ème ligne
de la matrice identité In . Notons Hi (α) ∈ M (n × n; R) la matrice obtenue en multipliant par α la
i-ème ligne de la matrice identité In . Notons enfin Hi,j (α) ∈ M (n × n; R) la matrice obtenue en
sommant à la j-ème ligne de la matrice identité In la i-ème multipliée par α. Ces matrices sont dites
matrices élémentaires de type n × n.

Proposition 2.3.2 Toute opération élémentaire sur les lignes d’une matrice de type m×n est donnée
par multiplication à gauche par une matrice élémentaire de type m × m.

Démonstration Suit des définitions et de la formule (2.3.3). 

Corollaire 2.3.3 Pour toute matrice A ∈ M (m × n; R) il existe une matrice H ∈ M (m × m; R),


produit de matrices élémentaires, telle que HA soit une matrice échélonnée. De plus, il existe aussi
une matrice H 0 ∈ M (m × m; R), produit de matrices élémentaires, telle que H 0 A soit une matrice
échélonnée simplifiée.

Démonstration Suit de la Proposition 2.3.2 et du Théorème 1.6.1. 

Définition 2.3.4 Une matrice carrée A ∈ M (n × n; R) est dite inversible si il existe une matrice
B ∈ M (n × n; R) telle que AB = BA = In .

Proposition 2.3.3 Si A ∈ M (n×n; R) est inversible, il existe une unique matrice B ∈ M (n×n; R)
telle que AB = BA = In . Cette matrice est notée A−1 .

Démonstration Soit C ∈ M (n × n; R) une autre matrice telle que AC = CA = In . Alors

B = BIn = B(AC) = (BA)C = In C = C.

Corollaire 2.3.4 Si A1 , A2 ∈ M (n × n; R) sont inversibles, alors le produit A1 A2 est inversible et


(A1 A2 )−1 = A−1 −1
2 A1 .
46 Fonctions linéaires

−1 −1 −1 −1
A2 = A−1
 
Démonstration Il suffit de calculer A 2 A1 A 1 A2 = A 2 A 1 A 1 2 A2 = In et
−1 −1 −1 −1 −1

A1 A2 A2 A1 = A1 A2 A2 A1 = A1 A1 = In . 

Proposition 2.3.4 Soit A ∈ M (n × n; R). Les conditions suivantes sont équivalentes :


1. A est inversible ;
2. Il existe une matrice B ∈ M (n × n; R) telle que BA = In .

Démonstration Évidemment la première condition entraı̂ne la deuxième. Il s’agit de mon-


trer que si BA = In alors aussi AB = In . La rélation BA = In nous dit que la j-ème colonne
du produit BA est égale à la j-ème colonne de In , c’est à dire au j-ème vecteur ej de la base
canonique de Rn . Indiquons par v1 , . . . , vn les colonnes de la matrice A : la Définition 2.3.1
nous dit que la j-ème colonne du produit BA est le produit Bvj . Donc Bvj = ej pour
j = 1, . . . , n.
Considérons alors la fonction linéaire fB : Rn → Rn du Corollaire 2.3.1. On a donc fB (vj ) =
Bvj = ej . Les vecteurs de la base canonique de Rn appartiennent donc au sous-espace
Im(fB ) ⊆ Rn . Par suite Im(fB ) = Rn , donc fB est surjective. Le Corollaire 2.1.1 implique
alors que fB est aussi injective, ce qui, par la Proposition 2.1.5, se traduit par Ker(fB ) = {0}.
En multipliant à droite par B l’identité BA = In on trouve BAB = In B = B. Autrement dit
BAB − B = 0. Par associativité du produit de matrices on a donc :

(2.3.7) B(AB − In ) = 0.

Indiquons par w1 , . . . , wn les colonnes de la matrice AB − In . Pour tout j = 1, . . . , n, la


formule (2.3.7) nous dit que Bwj est nul, car égal à la j-ème colonne de la matrice nulle.
Donc fB (wj ) = Bwj = 0. Autrement dit, wj ∈ Ker(fB ) = {0}. Donc toutes les colonnes de
la matrice AB − In sont nulles : AB − In = 0. Par suite AB = In . 

Exemple 2.3.2 La matrice identité In est inversible. Toute matrice élémentaire est inversible,
son inverse étant la matrice élémentaire correspondante à l’opération élémentaire inverse
(voir Remarque 1.6.1) :
1
−1
Sij = Sij ; (Hi (α))−1 = Hi ( ); (Hi,j (α))−1 = Hi,j (−α).
α
De l’Exemple 2.3.2 et du Corollaire 2.3.4 on déduit que tout produit de matrices élémen-
taires est une matrice inversible. En fait, comme conséquence du procédé suivant pour le
calcul de la matrice inverse, on peut conclure qu’une matrice est inversible si et seulement
si elle est produit de matrices élémentaires.

Proposition 2.3.5 Soit A ∈ M (n × n; R) et soit (A|In ) ∈ M (n × 2n; R) la matrice dont les


premières n colonnes sont les colonnes de A et les dernières colonnes sont celles de In . Alors A est
inversible si et seulement si la forme échelonnée simplifiée de (A|In ) est une matrice (In |B) dont les
premières n colonnes sont les colonnes de In . Dans ce cas, si B ∈ M (n × n; R) est la matrice formée
par les dernières colonnes de cette matrice échélonnée, B = A−1 .

Démonstration Appliquons le Corollaire 2.3.3 : il existe une matrice H, produit de matrices


élémentaires, telle que H(A|In ) = (In |B). Le produit HA donne les n premières colonnes de
H(A|In ), donc HA = In ; la Proposition 2.3.4 nous dit alors que H = A−1 . D’autre part le
produit HIn = H donne les n dernières colonnes de H(A|In ), donc H = B. 
Chapitre II 47

 
1 1 −1
Exemple 2.3.3 Calculons l’inverse de A = 3 1 4  :
0 1 −4
   
1 1 −1 1 0 0 1 1 −1 1 0 0
H1,2 (−3) H23
 3 1 4 0 1 0   0 −2 7 −3 1 0 
0 1 −4 0 0 1 0 1 −4 0 0 1
   
1 1 −1 1 0 0 1 1 −1 1 0 0
 0 1 −4 0 0 1  H23 (2)  0 1 −4 0 0 1 
H3 (−1)

0 −2 7 −3 1 0 0 0 −1 −3 1 2
   
1 1 −1 1 0 0 1 1 0 4 −1 −2
H3,1 (1)H3,2 (4) H2,1 (−1)
 0 1 −4 0 0 1   0 1 0 12 −4 −7 
0 0 1 3 −1 −2 0 0 1 3 −1 −2
   
1 0 0 −8 3 5 −8 3 5
 0 1 0 12 −4 −7  =⇒ A−1 =  12 −4 −7
0 0 1 3 −1 −2 3 −1 −2
où nous avons indiqué la matrice élémentaire par laquelle il faut multiplier (à gauche) au
lieu de l’opération élémentaire corréspondante. Nous pouvons alors écriere A−1 comme
produit de matrices élémentaires (attention à l’ordre !) :

A−1 = H2,1 (−1)H3,1 (1)H3,2 (4)H3 (−1)H2,3 (2)H2,3 H1,2 (−3).

§ 4 Retour aux fonctions linéaires et matrices


Soient V et W deux espaces vectoriels de type fini, B = {v1 , . . . , vn } un base de V et
C = {w1 , . . . , wm } une base de W . À la Définition 2.2.1 nous avons vu comment associer à
toute fonction linéaire f : V → W la matrice M (f ; B, C ) ∈ M (m × n; R) de f dans les bases
B et C : c’est la matrice dont les colonnes sont les coéfficients dans la base C des vecteurs
f (vj ). De la formule (2.2.3) il suit que

Ker(f ) = {v = α1 v1 + · · · + αn vn ∈ V | (α1 , . . . , αn ) ∈ Ker (M (f ; B, C ))} .

Lorsque f est la fonction fA : Rn → Rm , le Corollaire 2.3.1 nous donne aussi l’image de fA en


termes de la matrice A = M (fA ; En , Em ) : c’est le sous-espace engendré par les colonnes de
A. Grâce au Corollaire 2.2.1, ceci n’est pas un cas trop particulier. Soit en effet ψ : W → Rm
l’isomorphisme défini par ψ(wj ) = ej et considérons la fonction linéaire composée ψ ◦ f :
V → W → Rm . La Remarque 2.1.3 nous dit que Im(ψ ◦ f ) = hψ(f (v1 ), . . . , ψ(f (vn )i ⊆
Rm . Or, la fonction ψ associe à tout vecteur de W ses coordonnées dans la base C et, par
la définition de la matrice associée à une fonction linéaire, les coordonnées dans la base
C du vecteur f (vj ) sont données par la j-ème colonne de M (f ; B, C ). Donc Im(ψ ◦ f ) =
Im (M (f ; B, C )) et

Im(f ) = {w = β1 w1 + · · · + βm ww ∈ W | (β1 , . . . , βm ) ∈ Im (M (f ; B, C ))} .


48 Fonctions linéaires

Proposition 2.4.1 Soit f : V → W une fonction linéaire entre espaces de type fini, B et C des
bases de V et W . Alors

dim Ker(f ) = dim Ker (M (f ; B, C )) ; dim Im(f )) = dim Im (M (f ; B, C )) .

Démonstration En reprenant les notations ci-dessus, la deuxième formule est une consé-
quence de la Remarque 2.1.6, car Im(ψ ◦ f ) = ψ (Im(f )). La première formule se montre
par un argument semblable : si ϕ : V → Rn est l’isomorphisme défini par ϕ(vi ) = ei alors
ϕ−1 (Ker(f )) = Ker (M (f ; B, C )). 
La résultat suivant complète le dictionnaire entre fonctions linéaires et matrices en mon-
trant que l’opération de composition de fonctions linéaires corréspond à l’operation de mul-
tiplication matricielle.

Proposition 2.4.2 Soient V , W et Z des espaces vectoriels de type fini, B un base de V , C une base
de W et D une base de Z. Si f : V → W et g : W → Z sont des fonctions linéaires, alors

M (g ◦ f ; B, D) = M (g; C , D)M (f ; B, C ).

Démonstration Soient B = {v1 , . . . , vn }, C = {w1 , . . . , wm } et D = {z1 , . . . , zp }. Soient


 
f (v1 ) = a1,1 w1 + · · · + am,1 wm a1,1 a1,2 ... a1,n
f (v2 ) = a1,2 w1 + · · · + am,2 wm  a2,1 a2,2 ... a2,n 
; M (f ; B, C ) =  . ..  .
 
.. .. ..
. .  .. . . 
f (vn ) = a1,n w1 + · · · + am,n wm am,1 am,2 . . . am,n

On connait les coordonnées dans la base C de f (vj ), ce sont les coéfficients sur la j-ème
colonne de M (f ; B, C ). La Remarque 2.3.1 nous dit alors que les coordonnées de g(f (vj ))
dans la base D sont données par la formule
 
a1,j
M (g; C , D)  ... 
 

am,j

c’est à dire par la j-ème colonne du produit M (g; C , D)M (f ; B, C ). Or, par définition, la
j-ème colonne de M (g ◦ f ; B, D) est donnée par les coéfficients du vecteur g(f (vj )) dans la
base D, d’où la thèse. 

Corollaire 2.4.1 Soit f : V → W un isomorphisme entre espaces vectoriels de type fini, B un base
de V , C une base de W . Alors M (f −1 ; C , B) = (M (f ; B, C ))−1 .

Démonstration En effet f −1 ◦ f = idV donc M (f −1 ; C , B)M (f ; B, C ) = M (idV ; B, B) = In


(pour la dernière égalité, voir Exemple 2.2.3). 

Exemple 2.4.1 Soient f : R3 → R2 la fonction de l’exemple 2.2.1 (pour k = 1) et g : R2 → R3


celle de l’exemple 2.1.2. La matrice de f dans la base B = {(1, 1, 1), (1, −1, 1), (0, 1, 1)} de
Chapitre II 49

R3 et dans la base canonique de R2 a été calculée à l’Exemple 2.2.6, celle de g dans les bases
canoniques à Exemple 2.2.2. Las matrice de g ◦ f : R3 → R3 est alors :
   
1 1   2 0 2
1 1 0
M (g ◦ f ; B, E3 ) = 1 −1 = 0 2 −2 .
1 −1 2
2 3 5 −1 6

Par contre, nous ne pouvons pas calculer la matrice de f ◦ g : R2 → R2 par le même procédé,
car les matrices dont nous disposons sont rélatives à deux bases différentes de l’espace ”de
passage” R3 .

Définition 2.4.1 Soit V un espace vectoriel de type fini, B et B 0 deux bases de V . La matrice du
changement de base de B à B 0 est la matrice M (idV ; B, B 0 ). Remarquons que M (idV ; B 0 , B) =
(M (idV ; B, B 0 ))−1 .

La matrice du changement de base M (idV ; B, B 0 ) a donc sur les colonnes les coor-
données des vecteurs de B dans la base B 0 . La Remarque 2.3.1 nous dit donc que les co-
ordonnées d’un vecteur v ∈ V dans la base B 0 se calculent en multipliant la matrice du
changement de base par la colonne des coordonnées de v dans B.

Corollaire 2.4.2 Soit f : V → W une fonction linéaire entre espaces de type fini, B, B 0 deux bases
de V et C , C 0 deux bases de W . Alors la matrice de f dans les bases B et C et celle dans les bases
B 0 et C 0 sont liées par la rélation

(2.4.1) M (f ; B 0 , C 0 ) = M (idW ; C , C 0 )M (f ; B, C )M (idV ; B 0 , B).

Remarque 2.4.1 Il peut être utile de visualiser la formule (2.4.1) à travers le diagramme
f
(V, B) −−−−→ (W, C )
x 
(2.4.2) 
idV 
id
y W
f
(V, B 0 ) −−−−→ (W, C 0 )

qu’on peut parcourir de deux façons pour aller de V avec la base B 0 à W avec la base C 0 : soit
par la flèche du bas, qui corréspond à la matrice M (f ; B 0 , C 0 ) ; soit en montant à V avec la
base B, puis en prenant f vers W avec la base C et en redéscendant enfin par le changement
de base de C à C 0 . Cette triple composition corréspond à la triple multiplication au membre
de droite de (2.4.1).

Exemple 2.4.2 La matrice du changement d’une quelconque base B à la base canonique


est simple à écrire, puisque les coordonnées d’un vecteur par rapport à la base canonique
sont les composantes du vecteur. Donc M (idRn ; B, En ) est la matrice dont les colonnes
sont les vecteurs de B. Par exemple, si B = {(1, 1, 1), (1, −1, 1), (0, 1, 1)} est la base de
l’Exemple 2.4.1, la matrice du changement de B à la base canonique de R3 est :
1
− 12
   
1 1 0 1 2
M (idR3 ; B, E3 ) = 1 −1 1 =⇒ M (idR3 ; E3 , B) = M (idR3 ; B, E3 )−1 =  0 − 21 1 
2
1 1 1 −1 0 1
50 Fonctions linéaires

(nous laissons au lecteur le soin de vérifier la dernière formule, en calculant l’inverse de la


matrice M (idR3 ; B, E3 ) par le procédé de la Proposition 2.3.5).
Nous pouvons alors écrire la matrice de la fonction f : R3 → R2 de l’exemple 2.4.1 par
rapport aux bases canoniques : M (f ; E3 , E2 ) = M (f ; B, E2 )M (idR3 ; E3 , B), donc
1
− 12
 
  1  
1 1 0  2 1 0 0
M (f ; E3 , E2 ) = 0 −2 1 1 
2 = .
1 −1 2 −1 1 1
−1 0 1

Nous pouvons enfin calculer la matrice de f ◦ g : R2 → R2 :


 
  1 1  
1 0 0  1 1
M (f ◦ g; E2 , E2 ) = 1 −1 =
 .
−1 1 1 2 1
2 3

Exemple 2.4.3 La matrice de dX d


: R[X]≤3 → R[X]≤2 dans les bases P3 = {1, X, X 2 , X 3 } et
P2 = {1, X, X 2 } a été calculée à l’Exemple 2.2.4. Pour écrire la matrice de dX
d
dans les bases
B = {1 + X, 1 − X, X + X , X − X } et C = {1 + 3X, 1 + X + X , −1 + 4X + 4X 2 } on
2 3 2 3 2

calcule :  
1 1 0 0
1 −1 0 0 
M (idR[X]≤3 ; B, P3 ) =  0 0 1 1  ;

0 0 1 −1
 −1  
 −1 1 1 −1 −8 3 5
M (idR[X]≤2 ; P2 , C ) = M (idR[X]≤2 ; C , P2 ) = 3 1 4  =  12 −4 −7
0 1 −4 3 −1 −2
(le dernier calcul a été fait à l’Exemple 2.3.3). Donc :
 
   1 1 0 0
−8 3 5 0 1 0 0 
1 −1 0 0 
d
M ( dX , B, C ) =  12 −4 −7 0 0 2 0 
0 0 1 1 

3 −1 −2 0 0 0 3
  0 0 1 −1
−8 8 21 −9
=  12 −12 −29 13  .
3 −3 −8 4

Exemple 2.4.4 La matrice du changement de la base B = {(1, 1, 1), (1, −1, 1), (0, 1, 1)} de
R3 l̀a base B 0 = {(1, 3, 0), (1, 1, 1), (−1, 4, −4)} peut être déterminée de deux façons : soit en
calculant directement les coordonnées des vecteurs de B dans la base B 0 , ce qui est pénible ;
soit indirectement, en considérant le changement de base comme une composition de deux
changements de bases via la base canonique et en appliquant la Proposition 2.4.1 :
M (idR3 ; B, B 0 ) = M (idR3 , E3 , B 0 )M (idR3 ; B, E3 ).
On a (en recyclant encore une fois le calcul de l’Exemple 2.3.3)
 −1  
1 1 −1 −8 3 5
−1
M (idR3 , E3 , B 0 ) = M (idR3 , B 0 , E3 )

= 3 1 4  =  12 −4 −7
0 1 −4 3 −1 −2
Chapitre II 51

et M (idR3 ; B, E3 ) est la matrice dont les colonnes sont les vecteurs de B. Finalement :
    
−8 3 5 1 1 0 0 −6 8
M (idR3 ; B, B 0 ) =  12 −4 −7 1 −1 1 = 1 9 −11 .
3 −1 −2 1 1 1 0 2 −3
Remarque 2.4.2 Soit B = {v1 , v2 , . . . , vn } une base d’un espace vectoriel V . Considérons
les bases C = {v2 , v1 , . . . , vk }, C 0 = {v1 + v2 , v2 , . . . , vk } et C 00 = {αv1 , v2 . . . , vk }, où on
suppose que α 6= 0,. Les matrices des changements de base de C , C 0 et C 00 à la base B sont
respectivement :
     
0 1 0 ... 0 1 0 0 ... 0 α 0 0 ... 0
1 0 0 . . . 0 1 1 0 . . . 0  0 1 0 . . . 0
     
0 0 1 . . . 0 0 0 1 . . . 0  0 0 1 . . . 0
 ;  ;  .
 .. .. .. . . ..   .. .. .. . . ..   .. .. .. . . .. 
. . . . .   . . . . .   . . . . .
0 0 0 ... 1 0 0 0 ... 1 0 0 0 ... 1
Autrement dit, ce sont les matrices élémentaires S1,2 , H1,2 (1) et H1 (α) corréspondantes aux
opérations élémentaires qui permettent de passer de B aux bases C , C 0 et C 00 (voir Défini-
tion 2.3.3).
Nous avons ainsi une nouvelle intérpretation des opérations élémentaires sur les lignes
d’une matrice. En effet, la Proposition 2.3.2 nous dit que faire des opérations élémentaires
sur les lignes d’une matrice A équivaut à multiplier A à gauche par des matrices élémentaires ;
en appliquant la Proposition 2.4.2 nous pouvons aussi dire que cela équivaut à un faire un
changement de base au but de la fonction linéaire fA : Rn → Rm définie par A (Corol-
laire 2.3.1).
Proposition 2.4.3 Le rang par lignes de toute matrice est égal à son rang par colonnes. D’ores en
avant, nous appellerons ce nombre le rang de la matrice, noté rg(A) pour la matrice A.
Démonstration Soit A ∈ M (m × n, R). Le Théorème 1.6.1 nous dit que, par opérations
élémentaires, on peut transformer A en une matrice A0 en forme échelonnée simplifiée. La
Proposition 1.6.2 nous dit que A et A0 ont même rang par lignes : rg` (A) = rg` (A0 ).
D’autre part, soit fA : Rn → Rm la fonction linéaire définie par A, qui est donc la matrice
de fA dans les bases canoniques. La Remarque 2.4.2 noust dit qu’il existe une base C de Rm
telle que A0 est la matrice de fA dans les bases canonique En de Rn et C de Rm . En appliquant
la Proposition 2.4.1 on déduit alors que rgc (A) = dim Im(A) = dim Im(fA ) = dim Im(A0 ) =
rgc (A0 ).
La matrice A0 est en forme échelonnée simplifiée : toute ligne ou colonne de A0 a au plus un
coéfficient non nul (pivot). Le rang par lignes et le rang par colonnes de A0 coı̈ncident, égaux
au nombre de lignes et de colonnes non nulles. Donc
rg` (A) = rg` (A0 ) = rgc (A0 ) = rgc (A).


§ 5 Systèmes linéaires
La théorie des matrices et des fonctions linéaires permet de traiter de façon uniforme et
efficace les systèmes d’equations linéaires.
52 Fonctions linéaires

Définition 2.5.1 A tout système linéaire en les variables x1 , . . ., xn




 a1,1 x1 + · · · + a1,n xn = b1
 a2,1 x1 + · · · + a2,n xn = b2

(2.5.1) .. ..


 . .
am,1 x1 + · · · + am,n xn = bm

nous associons les matrices


   
a1,1 a1,2 . . . a1,n a1,1 a1,2 ... a1,n b1
 a2,1 a2,2 . . . a2,n   a2,1 a2,2 ... a2,n b2 
A= . ..  ; (A|b) =  .
   
.. .. .. .. ..
 .. . .   . . . . 
am,1 am,2 . . . am,n am,1 am,2 . . . am,n bm

La matrice A est dite la matrice du système, la matrice (A|b) est appelée la matrice augmentée.
Le système Ax = 0 est dit le système homogène associé au système Ax = b.

Soit fA : Rn → Rm la fonction associée à la matrice A (voir Corollaire 2.3.1). Dire qu’un


vecteur x = (x1 , . . . , xn ) ∈ Rn est solution du système (2.5.1) revient à dire que fA (x) = b =
(b1 , . . . , bm ).
L’image de fA est le sous-espace Im(A) ≤ Rm engendré par les colonnes de A. Le noyau de
fA est Ker(A) = {x ∈ Rn | Ax = 0}. Autrement dit, le noyau est l’ensemble des solutions du
système linéaire homogène

 a1,1 x1 + · · · + a1,n xn = 0

.. .. .
 . .
am,1 x1 + · · · + am,n xn = 0

Nous pouvons enfin énoncer le théorème fondamental de la théorie des systèmes linéaires.

Théorème 2.5.1 Un système linéaire est résoluble si et seulement si le rang de matrice du système
est égal au rang de la matrice augmentée.
Si A ∈ M (m × n, R) et b ∈ Rm , l’ensemble des solutions du système Ax = b est soit vide, soit
une variété linéaire parallèle à ker A, donc de dimension n − rg A.

Démonstration Le système Ax = b admet une solution si et seulement si b ∈ Im fA = Im A,


ce qui revient à dire que la colonne b de la matrice augmentée (A|b) est combinaison linéaire
des colonnes de A, ou encore que rg(A) = rg(A|b).
La deuxième partie de l’enoncé suit de la Proposition 2.1.7. 

Remarque 2.5.1 Réciproquement, toute variété linéaire de Rn de dimension d est l’ensemble


des solutions d’un système linéaire de rang n−d. On peut pour cela repéter la démonstration
de la Proposition 1.6.3 : si la variété est

(b1 , . . . , bn ) + h((a1,1 , . . . , a1,n ), . . . , (ad,1 , . . . , ad,n )i


Chapitre II 53

on trouve des équations en imposant que le rang de la matrice


 
a1,1 ... a1,n
 .. .. 
 . . .


 am,1 ... am,n 
x1 − b1 . . . xn − bn

soit d : les équations se trouvent en réduisant cette matrice à la forme échélonnée, comme à
l’Exemple 1.6.5.

Corollaire 2.5.1 Soit A ∈ M (n × n, R) une matrice inversible. Pour tout b ∈ Rn le système


Ax = b admet l’unique solution x = A−1 b.

Exemple 2.5.1 Considèrons le système suivant et sa matrice


  
 x+y−z =1 1 1 −1
3x + y + 4z = 2 A = 3 1 4  .
y − 4z = 3 0 1 −4

La matrice A est inversible et son inverse a été calculée à l’Exemple 2.3.3. La solution du
système est alors le vecteur :
    
−8 3 5 1 13
 12 −4 −7 2 = −17
3 −1 −2 3 −5

L’interprétation matricielle des systèmes d’équations linéaires permet non seulement


d’établir si un système est résoluble ou pas, mais fournit également la méthode plus effi-
cace pour trouver les solutions. La techinque utilise encore une fois la réduction en forme
échélonnée. Pour résoudre le système Ax = b on réduit, par opérations élémentaires, la ma-
trice augmentée (A|b) à une forme échélonnée (A0 |b0 ). On remarque alors que les systèmes
Ax = b et A0 x = b0 ont les mêmes solutions. Soit en effet H une matrice inversible telle que
(A0 |b0 ) = H(A|b) (voir Corollaire 2.3.3). Puisque H est inversible, pour tout v1 , v2 ∈ Rn on
a que Hv1 = Hv2 si et seulement si v1 = v2 . Alors

Ax = b ⇐⇒ A0 x = HAx = Hb = b0 .

Si le rang de la matrice (A0 |b0 ) est égal au rang de la matrice A0 , on peut facilement résoudre
le système A0 x = b0 par substitutions à rebours : à partir de la dernière ligne, on exprime les
variables corréspondantes aux colonnes contentantes les pivots de A0 en fonction des coor-
données de b et des variables restantes, qui tiennent lieu de paramètres pour les solutions.

Exemple 2.5.2 Pour résoudre le système



 x + 2y − z − t = 1
x + 3y = 1
2y − 2z + 3t = 1

54 Fonctions linéaires

on calcule la forme échelonnée de la matrice augmentée :


   
1 2 1 −1 1 1 2 1 −1 1
 1 3 0 0 1  L2 − L1  0 1 −1 1 0 
0 2 −2 3 1 0 2 −2 3 1 L3 − 2L2
  
1 2 1 −1 1  x + 2y − z − t = 1
 0 1 −1 1 0  ⇐⇒ y−z+t=0 .
0 0 0 1 1 t=1

La dernière équation donne alors t = 1, l’avant dernière donne y = z − t = z − 1 et la


première donne x = −2y + z + t + 1 = −z + 4. Les solutions du système sont donc données
par les vecteurs de R4 du type (−z + 4, z − 1, z, 1) pour toute valeur de z ∈ R. En séparant le
terme constant du terme en z on peut exprimer les solutions sous forme de variété linéaire

(−z + 4, z − 1, z, 1) = (4, −1, 0, 1) + z(−1, 1, 1, 0) ∈ (4, −1, 0, 1) + h(−1, 1, 1, 0)i.

Noter que z est la variable corréspondante à la troisième colonne de la matrice, qui ne


contient pas de pivots dans sa forme échélonnée.

Exemple 2.5.3 Étant donné le système linéaire en les variables x, y, z et dépendant des pa-
ramètres a, b 
 x + (2 + a)y = b
(2 + 2a)x + 3y − (b + 1)z = 1 + b
bx + by − (b + 4)z = b2 + 3b.

on demande à savoir pour quelles valeurs de a, b ∈ R le système homogène associé admet


la solution (a, −a, 0). Pour telles valeurs de a, b on veut savoir si le système est résoluble et
en déterminer les solutions.
En substituant (x, y, z) = (a, −a, 0) dans le système homogène :

 a − a2 − 2a = −a(a + 1) = 0

2a + 2a2 − 3a = a(2a − 1) = 0
ba − ba = 0

on trouve la condition a = 0. Quand a = 0, la matrice augmentée du système est :


   
1 2 0 b 1 2 0 b
 2 3 −b − 1 b + 1  L2 − 2L1  0 −1 −b − 1 1 − b  (−1)L2
b b −b − 4 b + 3b2 L3 − bL1 0 −b −b − 4 3b L3 − bL2
  
1 2 0 b  x + 2y = b
 0 1 b+1 b−1  ⇐⇒ y + (b + 1)z = b − 1
0 0 (b + 2)(b − 2) b(b + 2) (b + 2)(b − 2)z = b(b + 2).

Si b 6= ±2, le rang de la matrice du système et celui de la matrice augmentée sont tous les
deux égaux à 3 : le système est donc résoluble et admet une unique solution. Ayant supposé
b 6= ±2, on a le droit de diviser la dernière équation par b + 2, qui est non nul. En substituant
à rebours à partir de la troisième équation on trouve la solution
b −4b + 2 b2 + 6b − 4
z= ; y = b − 1 − (b + 1)z = ; x = b − 2y = .
b−2 b−2 b−2
Chapitre II 55

Si b = −2 le rang de la matrice du système et celui de la matrice augmentée sont tous les


deux égaux à 2 : le système est donc résoluble et l’ensemble des solutions est une variété
linéaire de dimension 3 − 2 = 1. Le système est équivalent au suivant
 
x + 2y = −2 y =z−3
=⇒
y − z = −3. x = −2y − 2 = −2z + 4

Les solutions sont donc tous les vecteurs du type (4 − 2z, z − 3, z) pour tout z ∈ R, soit tous
les vecteurs de la variété linéaire (4, −3, 0) + h(−2, 1, 1)i.
Enfin si b = 2 le rang de la matrice du système est égal à 2 alors que celui de la matrice
augmentée est 3 : le système n’est donc pas résoluble.

Donnons pour terminer une dernière consequence du Théorème 2.5.1 :

Corollaire 2.5.2 Soit I une partie de R ayant un nombre infini d’éléments (par exemple un intrer-
valle). L’espace vectoriel F (I) des fonctions sur I n’est pas de type fini.

Démonstration Supposons que un nombre fini de fonctions f1 , . . . , fn engendrent F (I) et


choisissons n + 1 points a1 < · · · < an+1 ∈ I et un vecteur b ∈ Rn+1 tel que
     
b1 f1 (a1 ) fn (a1 )
 b2   f1 (a2 )
  fn (a2 )

b= ∈/ h ,..., i
     
.. .. ..
 .   .   .
bn+1 f1 (an+1 ) fn (an+1 )

(un tel vecteur existe, puisque n vecteurs engendrent un sous-espace de Rn+1 de dimension
au plus n). Posons ai,j = fj (ai ) : le Théorème 2.5.1 nous dit alors que le système linéaire


 a1,1 x1 + · · · + a1,n xn = b1
a2,1 x1 + · · · + a2,n xn = b2


(2.5.2) . ..

 .. .

an+1,1 x1 + · · · + an+1,n xn = bn+1

n’a pas de solution. D’autre part, on peut certainement construire une fonction g ∈ F (I)
telle que g(ai ) = bi pour i = 1, . . . , n, par exemple la fonction linéaire par morceaux obtenue
en joignant les points (ai , bi ) et (ai+1 , ai+1 ) par des droites :


 b1 x ∈ (−∞, a1 ]
b2 −b1 a2 b1 −a1 b2
x x ∈ [a1 , a2 ]



 a2 −a1 + a2 −a1
.. ..

g(x) = . .
bn+1 −bn an+1 bn −an bn+1

 an+1 −an x + x ∈ [a1 , a2 ]



 an+1 −an
 bn+1 x ∈ [an+1 , +∞)

qui est même une fonction continue. Mais si g = λ1 f1 + · · · + λn+1 fn+1 , en évaluant cette
expression en a1 , . . . , an+1 on trouverait que (λ1 , . . . , λn+1 ) serait solution du système (2.5.2),
ce qui est une contraddiction. 
56 Fonctions linéaires

Remarque 2.5.2 La fonction g construite dans la démonstration du Corollaire 2.5.2 est conti-
nue, donc le même argument montre que le sous-espace C(I) des fonctions continues n’est
pas de type fini. Avec un peu plus d’éffort (en joignant les points (ai , bi ) et (ai+1 , ai+1 ) par
des coubes polynomiales de degré suffisamment grand) on pourrait en fait construire une
fonction g dérivable un nombre arbitraire de fois : cela démontrerait que le sous-espace de
F (I) des fonctions dérivables k fois en tout point de I n’est pas de type fini.

§ 6 Exercices

Exercice 2.1 Vérifier que ϕ(x1 , x2 , x3 , x4 ) = (x1 − x2 + x3 , x2 − x4 , x1 + x2 + x3 − 2x4 ) définit


une fonction linéaire ϕ : R4 → R3 . Déterminer une base du noyau et de l’image de ϕ.

Exercice 2.2 Parmi les fonctions ϕ : R[X] → R[X] suivantes, quelles sont linéaires ?
a) multiplication par X ;
b) multiplication par X 2 ;
c) translation P (X) 7→ P (X + 1).

Exercice 2.3 Soit σ : R3 → R3 la symétrie d’axe S = h(1, 2, 3), (4, −5, 6)i par rapport à
T = h1, 0, 2)i. Écrire la matrice de σ dans les bases canoniques.

Exercice 2.4 Soit V = U ⊕ W un espace vectoriel décomposé en somme directe de deux


sous-espaces et λ ∈ R. Montrer que la formule δλ (v) = pU (v) + λpW (v) définit une fonction
linéaire δλ : V → V , dite dilatation de coéfficient λ d’axe U dans la direction de W .
Soient S et T les sous-espaces de l’exercice 2.3. Écrire la matrice dans les bases cano-
niques de la dilatation d’axe S dans la direction de T de coéfficient 5.

Exercice 2.5 Dans R3 considérons les sous-espaces S1 = h(1, 1, 1), (0, 2, 1)i, T1 = h(1, −1, 1)i,
S2 = h(1, 1, 2)i et T2 = h(1, 1, 3), (0, 2, −1)i. Pour i = 1, 2, soit σi la symètrie d’axe Si par
rapport à Ti . Calculer (σ1 ◦ σ2 )(3, 3, 7).

Exercice 2.6 Dire pour quelles valeurs de a ∈ R il existe une fonction linéaire f : R3 → R2
satisfaisante les conditions suivantes :

f (1, 2, 1) = (1, a); f (1, 3, 0) = (1, a2 ); f (1, 2, 2) = (1, a3 ); f (0, 0, 1) = (0, 0).

Exercice 2.7 Dire pour quelles valeurs de t ∈ R il existe une fonction linéaire L : R3 → R3
telle que :

L(1, 2, 1) = (2, 1, 2); L(1, −1, 0) = (−1, 1, 0); L(1, 1, 1) = (t, 0, 1); L(1, −1, 1) = (t, −2, −1).

Exercice 2.8 Soient f : R3 → R2 et g : R2 → R3 les fonctions linéaires définies par

f (x1 , x2 , x3 ) = (2x2 + x3 , 2x1 + x2 ); g(y1 , y2 ) = (y1 − y2 , y1 + y2 , y1 − y2 ).

Écrire les matrices de f , g, g ◦ f et f ◦ g par rapport aux bases canoniques.


Chapitre II 57

Exercice 2.9 Calculer l’inverse des matrices suivantes :


 
    2 2 2 1
1 2 1 3 2 1 2 1 1 2
A = 1 3 0  ; B = 3 1 1  ; C=
1
.
1 1 0
1 2 2 4 −5 1
1 1 0 1

Exercice 2.10 Soit ϕ : M (2 × 2, R) → M (2 × 2, R) la fonction


     
x y 1 1 x y
ϕ = · .
z t 1 1 z t

a) Vérifier que ϕ est linéaire et en déterminer le noyau et l’image.


b) Soit S(2, R) l’espace des matrices symétriques ; écrire une base de S(2, R) ∩ Im(ϕ). Est-
ce que la somme S(2, R) + Im(ϕ) directe ?
c) Déterminer, si possible, un sous-espace T ≤ M (2×2, R) tel que (S(2, R) + Im(ϕ))⊕T =
M (2 × 2, R).

Exercice 2.11 Soient f : R2 → R2 et g : R2 → R3 les fonctions f (x1 , x2 ) = (x1 + 2x2 , x2 ) et


g(x1 , x2 ) = (2x1 + x2 , x1 , x1 + x2 ). Écrire la matrice de g ◦ f −1 dans les bases canoniques.

Exercice 2.12 Soit M ∈ M (n × n, R). Montrer que M est la matrice nulle si et seulement si il
existe une base {v1 , . . . , vn } de Rn telle que M vi = 0 pour i = 1, . . . , n.

Exercice 2.13 Soient


 
1 λ 0  
1 x 0 0
0 λ 0
A=
1
, B =  0 y 0 0 .
0 1
−1 z 1 0
0 0 0

Pour quelles valeurs de λ il existe x, y, z ∈ R tels que BA = I ?

Exercice 2.14 Étant donnée la base B = {(5, 18, 22), (−1, −8, −1), (1, −1, 12)}, déterminer
tous les vecteurs de R3 qui ont les mêmes coordonnées dans B et dans la base canonique.

Exercice 2.15 Soit ψ : V → V une fonction linéaire telle que Im ψ = ker ψ. Montrer que
ψ ◦ ψ = 0. Donner un exemple d’une telle fonction avec ψ 6= 0. Peut-on trouver une telle
fonction ψ : R3 → R3 ?

Exercice 2.16 Soit L : R5 → R3 une fonction linéaire surjective. Montrer qu’il existe F1 , F2 :
R3 → R5 linéaires, F1 6= F2 avec L ◦ F1 = L ◦ F2 = identité de R3 .

Exercice 2.17 Soit ϕ : R3 → R3 la fonction linéaire telle que ϕ(1, 0, 2) = (2, 0, 1), ϕ(0, 1, −1) =
(1, −1, 2) et Ker(ϕ) = h(0, 0, 1)i. Pour quelle valeur de t ∈ R est-ce que (t, 2, −1) ∈ Im(ϕ) ?

Exercice 2.18 Pour tout α ∈ R, soit fα : R3 → R3 la fonction linéaire définie par

fα (x, y, z) = (−x + (2 − α)y + z, x − y + z, x − y + (4 − α)z).


58 Fonctions linéaires

a) Écrire la matrice de fα dans les bases canoniques.


b) Déterminer les valeurs de α telles que fα soit injective.
c) Déterminer les valeurs de α telles que(1, 1, 1) appartienne à Im(fα ).
d) Pour α = 1, déterminer le noyau de f1 .
e) Construire, si possible, une fonction linéaire g : R2 −→ R3 telle que Im g = Im f0 .
f) Construire, si possible, une fonction linéaire surjective h : R3 −→ R2 telle que Ker(h) =
Ker(f1 ).

Exercice 2.19 Soit ϕ une fonction linéaire d’un espace vectoriel V non nul dans lui-même
telle que ϕ2 = 0. Dire quelles parmi les affirmations suivantes sont vraies :
a) Im(ϕ) ⊂ Ker(ϕ) ;
b) Im(ϕ) ∩ Ker(ϕ) = {0} ;
c) Ker(ϕ) ⊂ Im(ϕ) ;
d) Ker(ϕ) = {0}.

Exercice 2.20 Vérifier que B = {(1, 5, −3), (7, 1, −4), (2, 11, 9)} est une base de R3 . Soient f
et g les fonctions linéaires de R3 dans R3 dont les matrices dans les bases indiquées sont :
   
0 2 1 1 0 1
M (f ; B, E3 ) =  3 1 1  et M (g; E3 , B) =  0 2 −1  .
1 2 −1 4 1 −5

Écrire la matrice de f ◦ g dans la base canonique de R3 .

Exercice 2.21 Dire si les vecteurs (1, 1, 1, 1), (1, 2, 1, 2), (1, 1, 2, 2) peuvent être solutions d’un
système lináire
a) homogène de rang 2 ;
b) homogène de rang 3 ;
c) non homogène de rang 2 ;
d) non homogène de rang 3.

Exercice 2.22 Étudier, en fonction de a ∈ R, les solutions du système suivant



x1 + (a − 1)x2 + (2 − a)x3 = a + 5

x1 + ax2 + 2x3 = 4

x1 + (a − 2)x2 + (2 − 2a2 )x3 = 6.

Exercice 2.23 Étudier, en fonction de a ∈ R, les solutions du système suivant




 2x + y − z = 1
−2x + 3z + t = 1


 2x + 3y + (a2 + 2a + 3)z + (a2 − 2)t = a + 6
y + 2(a2 + 2a + 1)z + (3a2 − 2a − 7)t = 3a + 4.

Chapitre II 59

Exercice 2.24 Dire pour quelles valeurs des paramètres λ, µ 6= 0 le système suivant admet
une et une seule solution : 
λx − µy − µz = µ

µx − λy = λ

x−y−z =0

60 Fonctions linéaires
Chapitre III

Déterminants

Dans ce chapitre nous introduisons un outil combinatoire très utile en algèbre linéaire.

§ 1 Déterminant d’une matrice


Pour un entier n donné, le déterminant est une fonction det : M (n × n, R) → R sur
l’espace des matrices carrées n × n qui permet de départager les matrices inversibles (qui
ont un déterminant non nul) des matrices de rang plus petit que n (dont le déterminant est
nul).
Pour n = 1 une matrice (a) ∈ M (1 × 1, R) = R est inversible si et seulement si a 6= 0. On
pose donc det(a) = a.  
a b
Pour n = 2, le rang d’une matrice A = est strictement plus petit que 2 si et
c d
seulement si les colonnes de A sont liées. Or, si il existe un λ ∈ R tel que :
      
a b λb a = λb
=λ = ⇐⇒ ⇐⇒ ad = (λb)d = b(λd) = bc.
c d λd c = λd

On a donc que A est inversible si et seulement si ad − bc 6= 0. On pose alors


 
a b
(3.1.1) det = ad − bc
c d

Proposition 3.1.1 Le déterminant d’une matrice 2 × 2 satisfait les propriétés suivantes :


a + a0 b
     0 
a b a b
1. det = det + det 0 ;
c + c0 d c d c d
   
λa b a b
2. det = λ det ;
λc d c d
   
b a a b
3. det = − det
d c c d

Démonstration Calcul direct à partir de la formule (3.1.1). 


62 Déterminants

Remarque 3.1.1 La définition du déterminant pour les matrices 2 × 2 met en évidence le fait
que la fonction det : M (n × n, R) → R n’est pas linéaire (sauf dans le cas trivial n = 1). Par
exemple    
1 0 0 0
det = 1 · 0 − 0 · 0 = 0; det =0·0−0·1=0
0 0 0 1
         
1 0 0 0 1 0 1 0 0 0
det + = det = 1 · 1 − 0 · 0 = 1 6= 0 = det + det .
0 0 0 1 0 1 0 0 0 1
Le déterminant se comporte mieux par rapport à l’action scalaire :
      
a b λa λb a b
det λ = det = λaλd − λbλc = λ2 (ad − bc) = λ2 det
c d λc λd c d

et on verra plus loin que pour toute matrice A ∈ M (n × n, R) on a det(λA) = λn det(A).

Dans le cas général, le déterminant est caractérisé par des propriétés algébriques qui
généralisent celles que nons avons établi pour les matrices 2×2. Nous allons d’abord énoncer
ces propriétés et montrer (Théorème 3.1.1) qu’il existe une fonction M (n × n, R) → R
ayant les propriétes requises. Nous donnerons plusieures formules récursives explicites
définissant une telle fonction. Ensuite, nous démontrerons qu’il existe une seule fonction
ayant les propriétes requises (Théorème 3.1.2) : c’est cette fonction que nous appellerons le
déterminant. Comme conséquence de l’unicité, toutes les expressions que nous avons trouvé
pour le déterminant doivent coı̈ncider, et fournissent donc différentes façons de calculer le
déterminant.
Introduisons les notations suivantes. Pour toute matrice A ∈ M (n × n, R) indiquons par
A1 , . . ., An ∈ Rn ses colonnes, soit A = (A1 , . . . , An ).
Nous noterons Ai,j la matrice (n − 1) × (n − 1) obtenue à partir de A en éffaçant la i-ème
ligne et la j-ème colonne de A :
 
a1,1 . . . a1,j−1 a1,j+1 . . . a1,n
 .. .. .. .. 
 . . . . 
 
ai−1,1 . . . ai−1,j−1 ai−1,j+1 . . . ai−1,n 
(3.1.2) ai+1,1 . . . ai+1,j−1 ai+1,j+1 . . . ai+1,n  .
Ai,j =  
 
 .. .. .. .. 
 . . . . 
am,1 ... am,j−1 am,j+1 ... am,n

Théorème 3.1.1 Pour tout entier n, il existe une fonction ∆ : M (n × n, R) → R satisfaisante les
propriétés suivantes :
1. ∆(A1 , . . . , Aj + A0j , . . . , An ) = ∆(A1 , . . . , Aj , . . . , An ) + ∆(A1 , . . . , A0j , . . . , An ) ;
2. ∆(A1 , . . . , λAj , . . . , An ) = λ∆(A1 , . . . , Aj , . . . , An ) ;
3. si Aj = Aj+1 alors ∆(A) = 0 ;
4. ∆(In ) = 1.

Démonstration La démonstration du théorème se fait par récurrence, le cas n = 2 ayant


été établi par la Proposition 3.1.1 et les commentaires qui la précèdent. Nous supposons
Chapitre III 63

donc qu’il existe une fonction det : M ((n − 1) × (n − 1), R) → R satisfaisante les propriétés
énoncées et nous allons montrer qu’il existe une fonction ∆ : M (n × n, R) → R. Cette
fonction est en fait donnée par une formule explicite, dite développement de Laplace. Le
développement de Laplace de det(A) selon la i-ème ligne est
n
X
(3.1.3) det(A) = (−1)i+j ai,j det(Ai,j )
j=1

où les Ai,j ∈ M ((n − 1) × (n − 1), R) sont définies par la formule (3.1.2). Fixons donc un
indice de ligne i, disons i = 1, et montrons que la fonction ∆ : M (n × n, R) → R définie par
la formule
n
X
(3.1.4) ∆(A) = (−1)k+1 a1,k det(A1,k )
k=1

satisfait les quatres propriétés. On voit tout de suite que det(In ) = 1 car d’une part a1,1 = 1
et a1,j = 0 pour j = 2, . . . , n et de l’autre A1,1 = In−1 donc det(A1,1 ) = 1.
Notons Âk ∈ Rn−1 le vecteur obtenu en supprimant la première coordonnée de Ak ∈ Rn .
Alors si k 6= j, la j-ième colonne de (A1 , . . . , Aj + A0j , . . . , An )1,k est égale à Âj + Â0j , donc :

det(A1 , . . . , Aj + A0j , . . . , An )1,k ) = det(Â1 , . . . , Âj + Â0j , . . . , Ân )


= det(Â1 , . . . , Âj , . . . , Ân ) + det(Â1 , . . . , Â0j , . . . , Ân )

par hypothèse de récurrence. Par ailleurs, pour k = j, le coéfficient sur la première ligne,
j-ème colonne de (A1 , . . . , Aj + A0j , . . . , An )1,j est a1,j + a01,j . En substituant dans la formule
(3.1.4) on trouve que la valeur de ∆ en A = (A1 , . . . , Aj + A0j , . . . , An ) est égale à
X
(−1)k+1 a1,k det((A1 , . . . , Aj + A0j , . . . , An )1,k ) + (−1)j+1 (a1,j + a01,j ) det(A1,j )
k6=j

X
= (−1)k+1 a1,k det((A1 , . . . , Aj , . . . , An )1,k ) + (−1)j+1 a1,j det(A1,j )
k6=j
X
+ (−1)k+1 a1,k det((A1 , . . . , A0j , . . . , An )1,k ) + (−1)j+1 a01,j det(A1,j )
k6=j

= ∆(A1 , . . . , Aj , . . . , An ) + ∆(A1 , . . . , A0j , . . . , An ).


La deuxı̀eme condition suit aussi de l’hypothèse de récurrence et d’un simple calcul :

∆(A1 , . . . , λAj , . . . , An ) = a1,1 det(Â2 , . . . , λÂj , . . . , Ân ) + . . .


+(−1)j+1 λa1,j det(Â1 , . . . , Âj−1 , Âj+1 , . . . , Ân ) + . . .
+(−1)n+1 a1,n (Â1 , . . . , λÂj , . . . , Ân−1 )
= λa1,1 det(Â2 , . . . , Âj , . . . , Ân ) + . . .
+λ(−1)j+1 a1,j det(Â1 , . . . , Âj−1 , Âj+1 , . . . , Ân ) + . . .
+λ(−1)n+1 a1,n (Â1 , . . . , Âj , . . . , Ân−1 )
= λ∆(A1 , . . . , Aj , . . . , An ).
64 Déterminants

Supposons enfin que Aj = Aj+1 . Si k 6= j, la matrice A1,k ∈ M ((n − 1) × (n − 1), R) a


deux colonnes égales et son déterminant est nul par hypothèse de récurrence. Par ailleurs
A1,j = A1,j+1 et a1,j = a1,j+1 . Donc :

∆(A) = a1,1 det(A1,1 ) + · · · + (−1)j+1 a1,j det(A1,j ) + (−1)j+2 a1,j+1 det(A1,j+1 )


+ · · · + (−1)n+1 a1,n det(A1,n )
= a1,1 · 0 + · · · + (−1)j+1 [a1,j det(A1,j ) − a1,j det(A1,j )] + · · · + (−1)n+1 a1,n · 0 = 0.


Nous allons à présent montrer qu’il existe une une seule fonction ∆ : M (n × n, R) → R
satisfaisante les conditions du Théorème 3.1.1. Pour commencer, montrons que toute fonc-
tion de ce type vérifie certaines relations algébriques.

Lemme 3.1.1 Soit ∆ : M (n×n, R) → R une fonction satisfaisante les propriétés du Théorème 3.1.1.
Alors
1. ∆(A1 , . . . , Aj , Aj+1 , . . . , An ) = −∆(A1 , . . . , Aj+1 , Aj , . . . , An )
2. ∆(A1 , . . . , Aj , . . . , Ak , . . . , An ) = −∆(A1 , . . . , Ak , . . . , Aj , . . . , An ) ;
3. si Aj = Ak alors ∆(A) = 0 ;
4. si Aj = αAh + βAk , avec j 6= h, k, alors ∆(A) = 0 ;
5. ∆(A1 , . . . , Aj + λAk , . . . , An ) = ∆(A1 , . . . , Aj , . . . , An ).

Démonstration Si ∆ satisfait les proprétés du Théorème 3.1.1, on a que

0 = ∆(A1 , . . . , Aj + Aj+1 , Aj + Aj+1 , . . . , An )


= ∆(A1 , . . . , Aj , Aj + Aj+1 , . . . , An ) + ∆(A1 , . . . , Aj+1 , Aj + Aj+1 , . . . , An )
= ∆(A1 , . . . , Aj , Aj , . . . , An ) + ∆(A1 , . . . , Aj , Aj+1 , . . . , An )
+ ∆(A1 , . . . , Aj+1 , Aj , . . . , An ) + ∆(A1 , . . . , Aj+1 , Aj+1 , . . . , An )
= ∆(A1 , . . . , Aj , Aj+1 , . . . , An ) + ∆(A1 , . . . , Aj+1 , Aj , . . . , An )

donc ∆(A1 , . . . , Aj , Aj+1 , . . . , An ) = −∆(A1 , . . . , Aj+1 , Aj , . . . , An ).


La deuxième propriété du Lemme 3.1.1 s’obtient par itération de la première. En effet, pour
échanger la j-ème et k-ième nous pouvons d’abord porter Aj à la k-ième colonne en faisant
k − j étapes (échanger chaque fois Aj avec la colonne suivante), puis porter Ak , qui main-
tenant occupe la (k − 1)-ème position, à la j-ème en k − j − 1 étapes (échanger chaque fois
Ak avec la colonne précédente). On a donc fait 2(k − j) − 1 échanges. Puisque échanger la
position de deux colonnes voisines change le signe ∆, en faire 2(k − j) − 1 multiplie ∆ par
(−1)2(k−j)−1 = −1.
La troisième propriété suit aussi par le même procédé : échanger Ak avec Aj+1 (ce qui multi-
plie ∆ par (−1)k−j−1 et puis utiliser le fait que ∆ = 0 pour une matrice ayant deux colonnes
voisines égales.
Pour la quatrième propriété on développe ∆(A1 , . . . , αAh + βAk , . . . , Ah , . . . , Ak , . . . , An ) =

= ∆(A1 , . . . , αAh , . . . , Ah , . . . , Ak , . . . , An ) + ∆(A1 , . . . , βAk , . . . , Ah , . . . , Ak , . . . , An )


= α∆(A1 , . . . , Ah , . . . , Ah , . . . , Ak , . . . , An ) + β∆(A1 , . . . , Ak , . . . , Ah , . . . , Ak , . . . , An )
=α·0+β·0=0
Chapitre III 65

où les deux annulations utilisent la troisième propriété. Enfin


∆(A1 , . . . , Aj + λAk , . . . , An ) = ∆(A1 , . . . , Aj , . . . , An ) + ∆(A1 , . . . , λAk , . . . , Ak , . . . , An )
= ∆(A1 , . . . , Aj , . . . , An ) + λ∆(A1 , . . . , Ak , . . . , Ak , . . . , An )
= ∆(A1 , . . . , Aj , . . . , An ) + λ · 0.

La démonstration du Lemme 3.1.1 met en évidence l’importance, dans la théorie des
déterminants, de l’opération d’échange de deux colonnes. Introduisons une terminologie
commode.

Définition 3.1.1 Une fonction bijective σ : {1, . . . , n} → {1, . . . , n} est appelée permutation à n
termes. L’ensemble de toutes les permutations à n termes est noté Sn . Une transposition est une
permutation qui fixe tous les éléments de {1, . . . , n}, sauf deux qui sont échangés. Toute permutation
est obtenue en composant un nombre fini de permutations et le signe d’une permutation est positif
ou négatif selon que le nombre 1 de ces transpositions soit pair ou impair. Nous notons (−1)σ le signe
de la permutation σ.

La deuxième propriété au Lemme 3.1.1 entraı̂ne donc :

Corollaire 3.1.1 Soit ∆ : M (n × n, R) → R une fonction satisfaisante les propriétés énoncées au


Théorème 3.1.1. Alors pour toute matrice A = (A1 , . . . , An ) et toute permutation σ
∆(Aσ(1) , . . . , Aσ(n) ) = (−1)σ ∆(A1 , . . . , An ).

Théorème 3.1.2 Il existe une unique fonction satisfaisante les propriétés du Théorème 3.1.1.

Démonstration Si A ∈ M (n × n, R), la j-ème colonne Aj ∈ Rn de A s’écrit comme combinai-


son linéaire des vecteurs de la base canonique de Rn , que nous pensons comme les colonnes
de la matrice In :
Aj = a1,j e1 + a2,j e2 + · · · + an,j en .
Soit ∆ : M (n × n, R) → R une fonction satisfaisante les propriétés du Théorème 3.1.1. On a
donc
∆(A) = ∆(A1 , . . . , An ) = ∆(a1,1 e1 + · · · + an,1 en , . . . , a1,n e1 + · · · + an,n en ).
En utilisant les deux premières propriétés au Théorème 3.1.1, on peut alors développer ∆(A)
en combinaison linéaire, à coéfficients les ai,j d’expressions de type ∆(ej1 , . . . , ejn ). De la
troisième propriété au Lemme 3.1.1, il suit qu’on peut se borner aux termes sans répétition
des colonnes ej , donc ceux donnés par des permutatitions des ej :
P
∆(A) = σ∈Sn aσ(1),1 · · · aσ(n),n ∆(eσ(1) , . . . , eσ(n) )
= σ∈Sn (−1)σ aσ(1),1 · · · aσ(n),n ∆(e1 , . . . , en )
P
(3.1.5)
= σ∈Sn (−1)σ aσ(1),1 · · · aσ(n),n
P

où pour la deuxième égalité nous avons utilisé le Corollaire 3.1.1. La valeur de la fonction ∆
est donc complètement détérminée par les propriétés algébriques du Théorème 3.1.1 et du
Lemme 3.1.1. Elle est donc unique. 
1. Une permutation peut s’écrire de différentes façons comme composée de transpositions, mais il n’est pas
difficile de montrer que le signe de la permutation ne dépend pas de l’écriture choisie.
66 Déterminants

Définition 3.1.2 On appelle déterminant l’unique fonction det : M (n × n, R) → R dont au


Théorème 3.1.2.

Remarque 3.1.2 La première partie de la démonstration du Théorème 3.1.1 peut se repéter


telle quelle pour voir que le développement de Laplace selon une quelconque ligne satisfait
les quatre conditions. De même, on peut définir le développement de Laplace selon la j-ème
colonne par la formule
Xn
det(A) = (−1)i+j ai,j det(Ai,j )
i=1

et on constate par le même procédé que cette fonction satisfait également les quatres pro-
priétés du Théorème 3.1.1. Il suit alors de l’unicité de la fonction déterminant que le dévelop-
pement du déterminant selon n’importe quelle ligne ou colonne donne toujours le même
résultat. Dans la pratique il convient toujours de développer selon la ligne ou la colonne
contenant le plus grand nombre de coéfficients nuls, pour minimiser les calculs.
 
1 2 3
Exemple 3.1.1 Le développement selon la première ligne de la matrice A = 4 5 6 :
7 8 9
     
5 6 4 6 4 5
det(A) = 1 det − 2 det + 3 det
8 9 7 9 7 8

= (45 − 48) − 2(36 − 42) + 3(32 − 35) = −3 + 12 − 9 = 0.

Le développement selon la deuxième colonne :


     
4 6 1 3 1 3
det(A) = −2 det + 5 det − 8 det
7 9 7 9 4 6

= −2(36 − 42) + 5(9 − 21) − 8(6 − 12) = 12 − 60 + 48 = 0.

Remarque 3.1.3 Le déterminant d’une matrice est égal au déterminant de sa matrice trans-
posée : det(A) = det(t A). Cela se voit facilement avec le développement de Laplace, car le
développement de det(A) selon la i-ème ligne est égal terme à terme au développement de
det(t A) selon la i-ème colonne.

Comme on l’a constaté à la Remarque 3.1.1, le déterminant n’est pas linéaire par rapport
à l’addition matricielle (mais il est linéaire comme fonction de chaque colonne, comme le
montrent les deux premières propriétés du Théorème 3.1.1). Par contre c’est une fonction
multiplicative.

Théorème 3.1.3 (Binet) Soient A, B ∈ M (n × n, R). Alors det(BA) = det(B) det(A).

Démonstration On écrit

BA = (B1 , . . . , Bn )(A1 , . . . , An ) = (a1,1 B1 + · · · + an,1 Bn , . . . , a1,n B1 + · · · + an,n Bn )


Chapitre III 67

et on procède comme dans la démonstration du Théorème 3.1.2 :

P 1,1 B1 + · · · + an,1 Bn , . . . , a1,n B1 + · · · + an,n Bn )


det(BA) = det(a
= σ∈Sn aσ(1),1 · · · aσ(n),n det(Bσ(1) , . . . , Bσ(n) )
=  σ∈Sn (−1)σ aσ(1),1 · · · aσ(n),n det(B
P
1 , . . . , Bn )
σ
P 
= σ∈Sn (−1) aσ(1),1 · · · aσ(n),n det(B)
= det(A) det(B)

où, pour la dernière égalité, nous avons utilisé la formule (3.1.5). 

Corollaire 3.1.2 Le déterminant d’une matrice A est non nul si et seulement si A est une matrice
inversible. Dans ce cas
det(A−1 ) = (det(A))−1 .

Démonstration Si A est inversible, il existe une matrice A−1 telle que AA−1 = In donc
det(A) det(A−1 ) = det(In ) = 1. En particulier det(A) 6= 0.
Si A n’est pas inversible, une de ses colonnes s’écrit comme combinaison linéaire des autres ;
il suit alors de la quatrième propriété du Lemme 3.1.1 que det(A) = 0. 

Remarque 3.1.4 Si A est une matrice triangulaire superieure, c’est à dire que ai,j = 0 pour
tout j i) alors det(A) est égal au produit des éléments sur la diagonale de A :
 
a1,1 . . . . . . a1,n
 .. .. 
 0 . . 
A= . ..  =⇒ det(A) = a1,1 a2,2 · · · an,n .
 
. . . . .
 . . . . 
0 . . . 0 an,n

Cela se voit facilement en développant selon la première ligne : det(A) = a1,1 det(A1,1 ). La
matrice A1,1 étant aussi triangulaire, on peut repéter le raisonnement pour montrer la for-
mule voulue. Le même raisonnement s’applique au cas d’une matrice triangulaire inférieure-
ment (c’est à dire ai,j = 0 pour j i). En fait, cette remarque est à la base du procédé de
calcul du déterminant adopté par les ordinateurs. En utilisant les opérations élémentaires,
on peut en effet montrer que toute matrice s’écrit comme produit d’une matrice triangulaire
inférieurement et d’une triangulaire supérieurment (décomposition LU). On utilise alors le
fait que le déterminant est multiplicatif.

Voyons pour conclure quelques applications du déterminant.

Exemple 3.1.2 Un système linéaire homogène de deux équations en trois indéterminées



ax + by + cz = 0
a0 x + b0 y + c0 z = 0

admet toujours la solution


      
b c a c a b
(3.1.6) det 0 0 , − det 0 0 , det 0 0 .
b c a c a b
68 Déterminants

Que ce vecteur soit solution de la première équation du système se voit en développant le


déterminant de la matrice
 
a b c      
b c a c a b
det  a b c  = a det 0 0 − b det 0 0 + c det 0 0
b c a c a b
a0 b0 c0

et en remaquant que ce déterminant doit être nul puisque la matrice a deux lignes égales.
On démontre de la même manière que le vecteur de (3.1.6) est solution de a0 x + b0 y + c0 z = 0.
Remarquons que si la matrice du système est de rang 2, le vecteur de (3.1.6) est une base
de l’espace des solutions du système. En effet, puisque les vecteurs (a, b, c) et (a0 , b0 , c0 ) de
R3 sont libres, ils ne sont pas nuls, donc au moins une des coordonnées de (a0 , b0 , c0 ) est
non nulle, disons a0 6= 0 pour fixer les idèes. Alors soit les vecteurs (a, b) et (a0 , b0 ) de R2 sont
libres, soit les vecteurs (a, c) et (a0 , c0 ) sont libres : autrement on pourrait trouver λ, µ ∈ R tels
que (a, b) = λ(a0 , b0 ) et (a, c) = µ(a0 , c0 ), donc λ = aa0 = µ, et par suite (a, b, c) = λ(a0 , b0 , c0 ), ce
qui est une contradiction. On en déduit que soit la troisième coordonnée du vecteur (3.1.6)
est non nulle (car les lignes de la matrice 2 × 2 dont on calcule le déterminant sont libres),
soit la deuxième est non nulle. Donc le vecteur (3.1.6) est non nul et par conséquent est une
base de l’espace de dimension 1 des solutions du système.

Remarque 3.1.5 Le raisonnement à la fin de l’Exemple 3.1.2 se généralise de la façon sui-


vante : le rang d’une matrice A ∈ M (m × n, R) est égal au plus grand entier r tel qu’il existe
une sous-matrice r × r de A (obtenue en éffaçant m − r lignes et n − r colonnes de A) de
déterminant non nul.

Le déterminant permet aussi de donner des formules explicites pour la solution d’un
système carré de rang maximum et pour l’inverse d’une matrice. Introduisons la notation
suivante : étant donné un système linéaire Ax = b avec A ∈ M (n × n, R), indiquons par Bj
la matrice obtenue de A en remplaçant la j-ème colonne par le vecteur b :

Bj = (A1 , . . . , Aj−1 , b, Aj+1 , . . . , An ) ∈ M (n × n, R).

Proposition 3.1.2 Soit A ∈ M (n × n, R) une matrice de rang n.


1. (Formule de Cramer) L’unique solution du système Ax = b est donnée par le vecteur
 
det(B1 ) det(B2 ) det(Bn )
x= , ,..., .
det(A) det(A) det(A)

2. A−1 = det(A)
1
A∗ , où A∗ ∈ M (n × n, R) est la matrice dont le coéfficient sur la i-ème ligne,
j-ème colonne est (−1)i+j det(Aj,i ) (dite matrice adjointe de A).

Démonstration Si x = (x1 , . . . , xn , la formule (2.5.1) dit que b = x1 A1 + · · · + xn An . Alors,


en utilisant les deux premières proprietés propriétés du Théorème 3.1.1 et la troisième du
Lemme 3.1.1 on a
(A1 , . . . , Aj−1 x1 A1 + · · · + xn An , Aj+1 , . . . , An )
det(A1 , . . . , Aj−1 , b, Aj+1 , . . . , An ) = P
= ni=1 xi det(A1 , . . . , Aj−1 , Ai , Aj+1 , . . . , An )
= xj det(A1 , . . . , Aj−1 , Aj , Aj+1 , . . . , An ) = xj det(A).
Chapitre III 69

La formule pour la matrice inverse suit de la formule de Cramer en intérpretant les colonnes
de A−1 comme les solutions des systèmes linéaires Ax = ej (les ej étant les vecteurs de la
base canonique de Rn ). 

§ 2 Polynôme caractéristique d’une matrice


Le déterminant permet d’introduire un outil qui va jouer un rôle capital au chapı̂tre
suivant.

Définition 3.2.1 Le polynôme caractéristique d’une matrice A ∈ M (n × n, R) est

pA (t) = det(A − tIn ) ∈ R[t].

Exemple 3.2.1 Le polynôme caractéristique d’une matrice 2 × 2 est


 
a−t b
det = (a − t)(d − t) − bc = t2 − t(a + d) + (ad − bc).
c d−t

Exemple 3.2.2 Le polynôme caractéristique de la matrice de l’Exemple 3.1.1 est (en dévelop-
pant selon la première ligne)
 
1−t 2 3    
5−t 6 4 6
det  4 5−t 6  = (1 − t) det − 2 det
8 9−t 7 9−t
7 8 9−t  
4 5−t
+3 det
7 8

= (1 − t)(t2 − 14t − 3) − 2(−4t − 6) + 3(7t − 3)


= −t3 + 15t2 + 18t.

Proposition 3.2.1 Le polynôme caractéristique d’une matrice n×n est de degré n. Le terme constant
est égal à det(A). Le coéfficient de tn est (−1)n . Le coéfficient de tn−1 est (−1)n−1 tr(A) où

tr(A) = a1,1 + a2,2 + · · · + an,n

(somme des coéfficients diagonaux) est la trace de la matrice A.

Démonstration Il suit de la définition même que le terme constant est pA (0) = det(A). Le
reste de de la démonstration se fait par récurrence, le cas n = 1 étant trivial et n = 2 résultant
de l’Exemple 3.2.1. En développant le déterminant selon la première ligne :

pA (t) = det(A − tIn ) = (a1,1 − t) det ((A − tIn )1,1 ) − a1,2 det ((A − tIn )1,2 ) + . . .
+(−1)n+1 a1,n det ((A − tIn )1,n ) .

Or det ((A − tIn )1,1 ) n’est autre que le polynôme caractéristique de la matrice A1,1 , donc par
récurrence

det(A − tIn )1,1 = (−1)n−1 tn−1 + (−1)n−2 (a2,2 + a3,3 + · · · + an,n )tn−2 + q1 (t)
70 Déterminants

q1 (t) étant un polynôme de degré inférieur ou égal à n − 3. D’autre part, pour j = 2, . . . , n


les matrices (A − tIn )1,j sont obtenues de A − tIn en éffaçant la première ligne et la j-ème
colonne. Dans cette matrice (n − 1) × (n − 1), la variable t apparait sut toutes les colonnes
sauf la première, soit n − 2 fois au total. On a donc que deg det ((A − tIn )1,j ) ≤ n − 2. En
posant
q2 (t) = −a1,2 det ((A − tIn )1,2 ) + · · · + (−1)n+1 a1,n det ((A − tIn )1,n )
qui est donc un polynôme de degré au plus n−2, en recueillant les puissances de t on trouve
n−1 tn−1 + (−1)n−2 (a n−2 + q (t) + q (t)
 
pA (t) = (a1,1 − t) (−1) 2,2 + a3,3 + · · · + an,n )t 1 2
= (−1)n tn + a1,1 (−1)n−1 − (−1)n−2 (a2,2 + a3,3 + · · · + an,n ) tn−1 + q(t)


= (−1)n tn + (−1)n−1 tr(A)tn−1 + q(t)

où
q(t) = (−1)n−2 a1,1 (a2,2 + a3,3 + · · · + an,n )tn−2 + (a1,1 − t)q1 (t) + q2 (t)
est un polynôme de degré inférieur ou égal à n − 2. 

Corollaire 3.2.1 Le polynôme caractéristique d’une matrice A admet la racine t = 0 si et seulement


si A n’est pas inversible, ou encore Ker(A) 6= {0}.

Démonstration Suit du Corollaire 3.1.2 et du fait que pA (0) = det(A). 

§ 3 Exercices

Exercice 3.1 Dans R4 soient W = h(1, 1, 1, 1), (1, 2, 1, 2), (0, 1, 0, 0)i et
   

 x y z t 


4
 1 0 0 1  
U = (x, y, z, t) ∈ R , det   1 1 1 3 
=0 .

 

0 1 0 1
 

a) Vérifier que U est un sous-espace deR4 .


b) Déterminer une base de U ∩ W .
c) Calculer la dimension de U + W . La somme U + W est-elle directe ?
d) Si possible, exprimer (1, 1, 1, 1) de deux façons différentes comme somme d’un vecteur
de U et d’un de W.

Exercice 3.2 Calculer le déterminant de la matrice


2 3 4 −1 2
 
2 3 4 −1 1 
 
.
2 3 4 1 1

2 3 1 1 1
2 2 −1 2 −1

Exercice 3.3 Calculer les matrices inverses des matrices de l’exercice 2.9 par la méthode de
la Proposition 3.1.2.
Chapitre III 71

Exercice 3.4 Résoudre le système linéaire



 x + y + 2z + 2t
 =2
x + y + 3z + 3t =2


 x−y+z−t =2
x + 2y + 3z + 5t =2

a) En réduisant la matrice augmentée à la forme échélonnée.


b) En calculant l’inverse de la matrice du système.
c) En utilisant la formule de Cramer.
 
2 1 0 ... 0
1 2
 1 ... 0
Exercice 3.5 Soit An = 0 . . . . . . .
. . . Montrer par récurrence que det(An ) = n + 1.
 
 0
0 . . . 1 2 1
0 ... 0 1 2

Exercice 3.6 Étant donnés x1 , . . . , xn ∈ R, posons

x21 . . . xn−1
 
1 x1 1
1 x2 x22 . . . xn−1
2

V (x1 , . . . , xn ) = det  . . ..  ,
 
..
 .. .. . . 
1 xn x2n . . . xn−1 n
Q
dit déterminant de Vandermonde. Montrer que V (x1 , . . . , xn ) = i<j (xj − xi ).

Exercice 3.7 Soit A une matrice carrée d’orde n et posons B(t) = A − tIn , une matrice à
coéfficients des polynômes en la variable t.
a) Soit B ∗ (t) la matrice adjointe de B(t). Démontrer que B ∗ (t)B(t) = pA (t)In . [Sugges-
tion : il suffit de vérifier cette identité pour une infinité de valeurs de t ∈ R.]
b) Notons pA (t) = a0 + a1 t + · · · + (−1)n tn . Démontrer le théorème de Cayley-Hamilton :
dans l’espace M (n × n, R) on a l’identité

a0 + a1 A + a2 A2 + · · · + (−1)n An = 0.

[Suggestion : utiliser l’Exercice 2.12.]


72 Déterminants
Chapitre IV

Similitude

Au Chapitre II, nous avons vu comment, moyennant le choix de bases, associer une ma-
trice à toute fonction linéaire entre espaces de type fini. Nous avons également vu comment
ces matrices changent lorsque on change les bases. Ce chapitre est dédié au problème sui-
vant : étant donnée une fonction linéaire f : V → V d’un espace de type fini dans soi même,
trouver une base B de V telle que M (f ; B, B) soit “plus simple possible”.

§ 1 Matrices semblables

Définition 4.1.1 Une fonction linéaire f : V → V est dite un endomorphisme de V . Si V est de


type fini et B en est une base, nous écrirons M (f ; B) au lieu de M (f ; B, B), en sous-entendant
que la base B est la même à la source et au but.

Soit f : V → V un endomorphisme, B et C deux bases de V et soit H = M (idV ; B, C )


la matrice du changement de base. La théorie du changement de base nous dit alors que les
matrices de f dans les bases B et C sont liées par la relation M (f ; B) = H −1 M (f ; C )H.
Cela motive la définition suivante :

Définition 4.1.2 Deux matrices carrées A et B sont dites semblables si il existe une matrice in-
versible H telle que A = H −1 BH. La relation induite sur l’espace des matrices est dite similitude.

Remarque 4.1.1 Toute matrice A ∈ M (n × n, R) peut être vue comme la matrice de l’en-
domorphisme fA : Rn → Rn par rapport à la base canonique (voir Corollaire 2.3.1). Si
A = H −1 BH alors B est la matrice de fA par rapport à la base de Rn donnée par les co-
lonnes de H. On peut donc dire que deux matrices sont semblables si ce sont les matrices
d’un même endomorphisme par rapport à deux bases différentes.

Proposition 4.1.1 La similitude est une relation d’équivalence sur M (n × n, R), c’est à dire qu’elle
a les propriétés suivantes :
1. Réflexive A est semblable à A ;
2. Symétrique Si A est semblable à B, alors B est semblable à A ;
3. Transitive Si A est semblable à B et B est semblable à C, alors A est semblable à C.
74 Similitude

Démonstration A est semblable à soi-même en prenant H = In . Si A = H −1 BH alors


−1
B = HAH −1 (on a bien que H = H −1 ). Si A = H −1 BH et B = K −1 CK alors A =
H −1 K −1 CKH, et on a bien que H −1 K −1 = (KH)−1 (Corollaire 2.3.4). 

Étant données deux matrices, il n’est pas raisonnable d’essayer d’établir si elles sont
semblables “par brute force”, c’est à dire en cherchant une matrice d’indeterminées X ∈
M (n × n, R) telle que A = X −1 BX, ou même en cherchant à résoudre le système en n2
équations et n2 indéterminées XA = BX (ce qui impose ensuite de vérifier que la solution
éventuelle X est inversible). Dans ce chapitre, nous donnerons des techniques plus rapides,
mais plus sophistiquées, pour résoudre ce problème. Commençons par quelques conditions
nécessaires.

Proposition 4.1.2 Deux matrices semblables on même rang.

Démonstration Évident, suite à la Remarque 4.1.1, puisque le rang d’un endomorphisme ne


dépend pas des choix de bases. 

Proposition 4.1.3 Si A et B sont deux matrices semblables, alors elles ont même polynôme ca-
ractéristique. En particulier elles ont le même déterminant et la même trace.

Démonstration C’est une conséquence du Théorème de Binet (Théorème 3.1.3), car si A =


H −1 BH alors
pA (t) = det(A − tIn ) = det(H −1 BH − tH −1 H)
= det(H −1 (B − tIn )H) = det(H)−1 det(B − tIn ) det(H) = pB (t).

Remarque 4.1.2 La Proposition 4.1.3 perment de définir le polynôme caractéristique d’un


endomorphisme f : V → V d’un espace de type fini comme le polynôme caractéristique de
la matrice de f dans n’importe quelle base de V : un autre choix de base donne en effet une
matrice semblable.

Exemple 4.1.1 Les conditions nécéssaires pour la similitude de la Proposition 4.1.3 ne sont
pas suffisantes, par exemple les matrices
   
1 0 1 1
I2 = et J=
0 1 0 1

ont rang 2 et même polynôme caractéristique p(t) = (1 − t)2 . Mais si J était semblable à I2
on aurait J = H −1 I2 H = H −1 H = I2 , ce qui est faux.

§ 2 Diagonalisation
Nous avons ouvert ce chapitre sur une question concernant les endomorphismes, et cela
nous a amenés a en poser une autre sur les matrices. Nous allons étudier simultanement ces
deux questions :
Chapitre IV 75

• Si f est un endomorphisme, trouver une base dans laquelle la matrice de f soit “plus
simple possible”.
• Si A et B sont deux matrices, décider si elles sont semblables.

La première question a encore une formulation vague, alors que la seconde est précise
mais intraitable avec les techniques développées jusqu’ici. Le lien entre ces questions passe
à travers la Remarque 4.1.1 et à travers la propriété transitive de la similitude (Proposi-
tion 4.1.1) : étant donnée une matrice A nous cherchons une matrice “en forme plus simple
possible” qui soit semblable à A. Pour établir si deux matrices A et B sont semblables, il
suffira alors de comparer leurs “formes simples”.
Le lien entre les deux questions est à présent clair, mais il faut maintenant préciser le
problème. Il faut donc proposer un choix pour la “forme plus simple possible” d’une ma-
trice. La forme que nous proposons dans cette section est la forme diagonale, c’est à dire
une matrice dont tous les coéfficients en déhors de la diagonale sont nuls. Elle ne sera pas
suffisante pour traiter le cas général, mais c’est la situation la plus utile dans la pratique.

Définition 4.2.1 Une matrice A ∈ M (n × n, R) est dite diagonalisable si elle est semblable à une
matrice diagonale.
Un endomorphisme f : V → V est dit diagonalisable si V admet une base B telle que
M (f ; B) soit une matrice diagonale.

Bien entendu, une matrice diagonale est diagonalisable. Pour établir si une matrice est
diagonalisable ou pas, il convient d’approcher le problème du point de vue des endomor-
phismes. Dire que la matrice de f : V → V dans une base B = {v1 , . . . , vn } est la matrice
diagonale
 
λ1 0 . . . . . . 0
 0 λ2 0 . . . 0  f (v1 ) = λ1 v1 + 0v2 + · · · + 0vn = λ 1 v1
f (v2 ) = 0v1 + λ2 v2 + · · · + 0vn = λ 2 v2
 
 .. . . . . .
.
M (f ; B) = 

. 0 . . .  ⇐⇒ .. .. ..
. . .

 .. .. . . . . 
. . . . 0 f (vn ) = 0v1 + 0v2 + · · · + λn vn = λn vn .
0 0 . . . 0 λn

Donc f est diagonalisable si et seulement si il existe une base formée de vecteurs ayant la
propriété que f multiplie ces vecteurs par un coéfficient scalaire.

Définition 4.2.2 Soit f : V → V un endomorphisme. Un vecteur non nul v ∈ V est un vecteur


propre pour f si il existe un λ ∈ R (dit valeur propre de v) tel que

f (v) = λv.

Nous pouvons donc reformuler ce début de discussion par la

Proposition 4.2.1 Un endomorphisme f : V → V est diagonalisable si et seulement si V admet


une base de vecteurs propres pour f . La matrice de f dans une base de vecteurs propres est alors la
matrice diagonale dont les coéfficients sur la diagonale sont les valeurs propres.
76 Similitude

Exemple 4.2.1 Soit V = U ⊕W un espace vectoriel de type fini décomposé en somme directe
de deux sous-espaces et σU : V → V la symètrie par rapport à U (voir Définition 2.1.5).
Soient {u1 , . . . , up } une base de U et {w1 , . . . , wq } une base de W . Par définition, on a que
σU (u) = u pour tout vecteur de U , et donc en particulier les ui sont des vecteurs propres
de valeur propre 1. De même, σU (w) = −w pour tout w ∈ W , donc les wj sont de vecteurs
propres de valeur propre −1. Puisque {u1 , . . . , up , w1 , . . . , wq } est une base de V = U ⊕ W ,
on peut bien dire que σU est diagonalisable.

Exemple 4.2.2 Soit V = U ⊕ W un espace vectoriel de type fini décomposé en somme


directe de deux sous-espaces et pU : V → V la projection sur U par rapport à W (voir
Définition 2.1.3). Soient {u1 , . . . , up } une base de U et {w1 , . . . , wq } une base de W . Par
définition, on a que pU (u) = u pour tout vecteur de U , et donc en particulier les ui sont des
vecteurs propres de valeur propre 1. De même, pU (w) = 0 = 0 · w pour tout w ∈ W , donc
les wj sont de vecteurs propres de valeur propre 0. On conclut comme à l’Exemple 4.2.1 que
pU est diagonalisable.

Définition 4.2.3 Si λ ∈ R est une valeur propre pour un endomorphisme f : V → V (donc si il


existe v0 6= 0 tel que f (v0 ) = λv0 ), l’ensemble

V (λ) = {v ∈ V | f (v) = λv}

est dit espace propre de valeur propre λ.

Soulignons que par définition même, un espace propre contient au moins un vecteur non nul.

Remarque 4.2.1 Si λ est une valeur propre d’un endomorphisme f , alors λ2 est valeur
propre de f 2 . En effet, si f (v) = λv alors f 2 (v) = f (f (v)) = f (λv) = λf (v) = λ2 v. On
démontre de la même manière que λn est valeur propre de f n pour tout entier n ≥ 0.
De plus, si f est inversible, alors λ−1 est valeur propre de f −1 , car si f (v) = λv alors
v = f −1 (f (v)) = f −1 (λv) = λf −1 (v). Puisque λ 6= 0 (autrement il existerait un vecteur
v0 6= 0 tel que f (v0 ) = 0v0 = 0, ce qui est impossible par la Proposition 2.1.5), on déduit
que f −1 (v) = λ−1 v. On peut donc dire que si f est inversible, λn est valeur propre de f n
pour tout entier rélatif n ∈ Z.

Proposition 4.2.2 Soit V (λ) l’espace propre de valeur propre λ pour l’endomorphisme f : V → V .
Alors V (λ) est un sous-espace de V de dimension positive.

Démonstration Soient v1 et v2 deux vecteurs propres de valeur propre λ, donc f (vi ) = λvi .
Puisque f est linéaire, f (v1 + v2 ) = f (v1 ) + f (v2 ) = λv1 + λv2 = λ(v1 + v2 ), donc v1 + v2
appartient aussi à V (λ). De même, pour tout α ∈ R, on a f (αv1 ) = αf (v1 ) = αλv1 = λ(αv1 ),
donc tout multiple d’un vecteur propre est un vecteur propre. V (λ) est donc un sous-espace
de V , de dimension positive puisqu’il contient un vecteur non nul. 

Exemple 4.2.3 Soit V = U ⊕W un espace vectoriel de type fini décomposé en somme directe
de deux sous-espaces. Les espaces propres pour la symètrie σU sont V (1) = U et V (−1) =
W . Inversement, si f : V → V est un endomorphisme tel que V (1) ⊕ V (−1) = V , alors f
est la symètrie corréspondante à cette décomposition, car tout v ∈ V s’ecrit de façon unique
Chapitre IV 77

comme somme d’un vecteur de V (1) et d’un de V (−1) et f fixe la première composante et
change le signe de la deuxième.
De même, les espaces propres pour la projection pU sont V (1) = U et V (0) = W et tout
endomorphisme f : V → V tel que V (1) ⊕ V (0) = V est la projection corréspondante.

Dans l’exemple précédent, les espaces propres sont en somme directe. C’est le cas en
général.

Proposition 4.2.3 Soit f : V → V un endomorphisme, λ1 , λ2 , . . . , λk des valeurs propres différen-


tes. Alors les espaces propres V (λ1 ), V (λ2 ), . . ., V (λk ) sont en somme directe.

Démonstration Traitons d’abord le cas k = 2, plus parlant. Soit v ∈ V (λ1 ) ∩ V (λ2 ) : cela veut
dire d’une part que f (v) = λ1 v (puisque v ∈ V (λ1 )∩V (λ2 ) ⊆ V (λ1 )), mais aussi f (v) = λ2 v
(car v ∈ V (λ1 ) ∩ V (λ2 ) ⊆ V (λ2 )). Donc λ1 v = f (v) = λ2 v, par suite λ1 v = λ2 v. Autrement
dit, (λ1 − λ2 )v = λ1 v − λ2 v = 0. Or, par hypothèse λ1 − λ2 6= 0, et donc v = 0. Cela vaut
pour tous les vecteurs de V (λ1 ) ∩ V (λ2 ), qui est donc l’espace nul.
Dans le cas général, par récurrence supposons que les espaces propres V (λ1 ), V (λ2 ), . . .,
V (λk−1 ) sont en somme directe. Soit v ∈ V (λk ) ∩ [V (λ1 ) ⊕ · · · ⊕ V (λk−1 )]. D’une part, cela
veut dire que f (v) = λk v. De l’autre v, en tant que vecteur de V (λ1 ) ⊕ · · · ⊕ V (λk−1 ), s’écrit
de façon unique comme somme de vecteurs vi ∈ V (λi ) :

v = v1 + · · · + vk−1 .

Ces vecteurs se transforment par la règle f (vi ) = λi vi . Donc on a :

λk (v1 + · · · + vk−1 ) = λk v = f (v) = f (v1 + · · · + vk−1 ) = λ1 v1 + · · · + λk−1 vk−1 .

On en déduit que

λk (v1 + · · · + vk−1 ) − (λ1 v1 + · · · + λk−1 vk−1 ) = (λk − λ1 )v1 + · · · + (λk − λk−1 )vk−1 = 0.

Puisque λk est différent des λ1 , . . . , λk−1 , cette dernière expression est une combinaison
linéaire à coéfficients tous non nuls de vecteurs de la somme directe V (λ1 ) ⊕ · · · ⊕ V (λk−1 ).
Cela est possible uniquement si v1 = · · · = vk−1 = 0, donc v = 0. 

Corollaire 4.2.1 Soit V un espace vectoriel de dimension n. Un endomorphisme f : V → V qui a


n valeurs propres distinctes est diagonalisable.

Démonstration Si λ1 , . . . , λn sont les valeurs propres, le sous-espace V (λ1 )⊕· · ·⊕V (λn ) ≤ V
est de dimension au moins égale à n, car chacun des V (λi ) est de dimension au moins un et
la somme est directe. Mais puisque dim V = n, cette inclusion est une égalité. 

La Proposition 4.2.1 met en évidence le rôle capital que les valeurs propres jouent en
théorie de la diagonalisation. Il nous faudrait donc un moyen, étant donné un endomor-
phisme d’un espace vectoriel V , de calculer ses valeurs propres et ses espaces propres. Cela
fait, il suffit de vérifier si la somme des espaces propres est égale à tout V ou pas. Ou encore
plus facilement, si la somme des dimensions des espaces propres est égale à la dimension
de V .
78 Similitude

Le problème est donc d’établir quels nombres λ ∈ R sont valeurs propres d’un endomor-
phisme f : V → V . La clef pour la solution est donnée en étudiant le cas λ = 0. En effet, dire
que 0 est valeur propre de f signifie qu’il existe un vecteur v 6= 0 tel que f (v) = 0 · v = 0.
Autrement dit, 0 est valeur propre de f si et seulement si f n’est pas injective, et de plus

V (0) = Ker(f ).

Pour traiter le cas d’un λ ∈ R quelconque, il faut se souvenir du fait que les fonctions
linéaires entre espaces donnés, donc en particulier les endomorphismes de V , forment un
espace vectoriel (Proposition 2.1.1). Dire que f (v) = λv équivaut à dire que f (v) − λv = 0,
mais f (v) − λv est la valeur en v de l’endomorphisme f − λ · idV . Donc λ ∈ R est valeur
propre pour f si et seulement si f − λidV n’est pas injective, et de plus

(4.2.1) V (λ) = Ker (f − λidV ) .

Il est maintenant temps de changer de point de vue et revenir aux matrices. Supposons
que V soit de type fini, disons n = dim V , choisissons une base de V et écrivons la matrice
A ∈ M (n × n, R) de f . La matrice de idV dans n’importe quelle base étant In , nous pouvons
reformuler nos raisonnements en disant que λ ∈ R est valeur propre de f si et seulement si
A − λIn ∈ M (n × n, R) admet un noyau non nul. Le Corollaire 3.1.2 permet alors de dire que
λ ∈ R est valeur propre de f si et seulement si det (A − λIn ) = 0. Voici donc la solution du
problème de la recherche des valeurs propres.

Proposition 4.2.4 Les valeurs propres d’un endomorphisme sont les racines du polynôme caractéri-
stique.

Démonstration Suit du raisonnement précédent et de la Remarque 4.1.2. 


 
1 2 3
Exemple 4.2.4 Soit A = 4 5 6 et fA l’endomorphisme de R3 dont la matrice dans les
7 8 9
bases canoniques est A. Son polynôme caractéristique est pA (t) = −t3 + 15t2 + 18t (voir
Exemple 3.2.2). Puisque det A = pA (0) = 0, on a que λ1 = 0 est valeur propre. Puisque
pA (t) = −t(t2 − 15t − 18), les autres valeurs propres se trouvent en résolvant l’equation

de second degré t2 − 15t − 18 = 0. Les autres valeurs propres sont donc λ2 = 15+32 33 et

λ3 = 15−32 33
. On déduit du Corollaire 4.2.1 que A est diagonalisable. Elle est semblable à la
matrice  
0 0√ 0
0 15+32 33 0√  .
 
15−3 33
0 0 2
 
0 −1
Exemple 4.2.5 Le polynôme caractéristique de la matrice H = est
1 0
 
−t −1
pH (t) = det = t2 + 1.
1 −t
Il l’a pas de racines réelles, donc H n’a pas de valeurs propres λ ∈ R et par suite n’est pas
diagonalisable.
Chapitre IV 79

 4.2.6 On a vu à l’Exemple 4.1.1 que la seule valeur propre de la matrice J =


Exemple

1 1
est λ = 1. L’espace propre est
0 1
 
0 1
= (x, y) ∈ R2 | y = 0 = h(1, 0)i.

V (1) = Ker(J − I2 ) = Ker
0 0

On déduit de la Proposition 4.2.1 que J n’est pas diagonalisable. C’est une raison de plus
pour conclure qu’elle n’est pas semblable à la matrice I2 , comme on l’a vu à l’Exemple 4.1.1.

Remarque 4.2.2 Les Exemples 4.2.5 et 4.2.6 mettent en évidence le fait que pas toutes les
matrices sont diagonalisables. La matrice de l’Exemple 4.2.5 est en fait diagonalisable en
tant que matrice à coéfficients dans le corps complexe, car sur C le polynôme caractéristique a
deux racines (±i) et on conclut comme au Corollaire 4.2.1 que V (i) ⊕ V (−i) = C2 . Quant
à la matrice de l’Exemple 4.2.6, il n’y a rien à faire : rg(J − I2 ) = 1, que l’on pense cette
matrice comme réelle ou complexe. La théorie de la diagonalisation n’offre donc pas une
réponse complète au problème initial, la recherche de la “forme plus simple possible” dans
la classe de similitude matrice. Il faudra pour cela utiliser la théorie de Jordan, développée
au numéro suivant.

Le Corollaire 4.2.1 nous dit qu’une matrice, ou un endomorphisme, dont toutes les va-
leurs propres dont distinctes est diagonalisable. Autrement dit, il suffit que le polynôme ca-
ractéristique ait des racines simples. S’il n’en est pas ainsi, dans certains cas la matrice sera
quand même diagonalisable, par exemple si on a à faire à une symètrie ou une projection.
Dans d’autres cas, comme à l’Exemple 4.2.6, la matrice ne sera pas diagonalisable si elle
n’a “pas assez” de vecteur propres. Précisons cette remarque aprés avoir rappelé quelque
définitions sur les polynômes.

Définition 4.2.4 Soit p(t) un polynôme. On dit qu’une racine λ de p(t) est de multiplicité m si
on peut factoriser p(t) = (t − λ)m q(t) avec q(λ) 6= 0.
On dit que p(t) est complètement réductible si p(t) se factorise en produit de binômes : p(t) =
c(t − λ1 )m1 · · · (t − λk )mk (avec c une constante).

Définition 4.2.5 Soit λ une valeur propre pour une matrice ou un endomorphisme.
1. La multiplicité algébrique ma (λ) est la multiplicité de λ en tant que racine du polynôme
caratctéristique.
2. La multiplicité géométrique mg (λ) est la dimension de l’espace propre V (λ).

Proposition 4.2.5 Soit λ une valeur propre pour une matrice ou un endomorphisme. Alors

(4.2.2) 1 ≤ mg (λ) ≤ ma (λ).

Démonstration L’inégalité mg (λ) ≥ 1 suit de la Proposiion 4.2.2. Soit {v1 , . . . , vmg (λ) } une
base de V (λ), que nous prolongeons en une base B de V (voir Corollaire 1.4.1). La matrice
80 Similitude

de l’endomorphisme f dans la base B est :


 
λ
 ..
.


 B 
 B ∈ M (mg (λ) × (n − mg (λ)), R)
λ
M (f ; B) = 
 
,
 0 ... 0 
 
 .. ..  C ∈ M ((n − mg (λ)) × (n − mg (λ)), R) .
 . . C 
0 ... 0

Le polynôme caractéristique est alors pf (t) = pM (t) = (t − λ)mg (λ) pC (t). Donc λ est racine
de pf (t) de multiplicité au moins mg (λ). L’inégalité sera stricte si λ est racine de pC (t). 
Remarque 4.2.3 L’Exemple 4.1.1 peut se généraliser de la façon suivante : une matrice A ∈
M (n × n, R) non diagonale qui admet une unique valeur propre λ de multiplicité algébrique
n n’est pas diagonalisable, car autrement A serait semblable à λIn et alors A = H −1 (λIn )H =
λ(H −1 H) = λIn .
Théorème 4.2.1 Un endomorphisme est diagonalisable si et seulement si les deux conditions sui-
vantes sont satisfaites
1. Le polynôme caractéristique est complètement réductible ;
2. La multiplicité géométrique de toute valeur propre coı̈ncide avce sa multiplicité algébrique.
Démonstration Soit f : V → V un endomorphisme et considérons les inégalités :
dim V ≥ ma (λ1 ) + . . .+ ma (λk ) ≥ mg (λ1 ) + · · · + mg (λk ) = dim (V (λ1 ) ⊕ · · · ⊕ V (λk )) .
La première (respéctivement la deuxième) inégalité équivaut à la première (deuxième) con-
dition du théorème et l’endomorphisme est diagonalisable si et seulement si toutes les
inégalités sont des égalités. 
Exemple 4.2.7 On veut étudier pour quelles valeurs de α ∈ R la matrice
 
α 0 0 α+1
0 α2 0 0 
Aα = 0 α + 1 α 2

0 
0 0 0 α
est diagonalisable. Son polynôme caractéristique est :
 
α 0 0 α+1
0 α2 0 0   = (α − t)2 (α2 − t)2 .
pα (t) = det 
 0 α + 1 α2 0 
0 0 0 α
Si α 6= α2 , c’est à dire si α 6= 0, 1, nous avons deux valeurs propres distinctes de multiplicité
algébrique 2. Pour ces valeurs de α les multiplicités géométriques sont
 
0 0 0 α+1
0 α 2 − α

0 0  1 α 6= −1
mg (α) = 4 − rg  
2
 = ;
0 α+1 α −α 0  2 α = −1
0 0 0 0
Chapitre IV 81

α − α2
 
0 0 α+1 
mg (α2 ) = 4 − rg 
0 0 0 0   = 1 α 6= −1 .

 0 α+1 0 0  2 α = −1
0 0 0 α − α2
Par ailleurs, si α = 0 (respectivement α = 1) la matrice admet la seule valeur propre 0 (resp.
1), de multiplicité algébrique 4, on conclut par la Remarque 4.2.3 que la matrice n’est pas
diagonalisable. En conclusion, Aα est diagonalisable seulement pour α = −1. En fait, A−1
est déja diagonale, et une base de vecteurs propres est donnée en redistribuant les vecteurs
de la base canonique : V (−1) =< e1 , e4 > e V (1) =< e2 , e3 >.

Exemple 4.2.8 On veut étudier pour quelles valeurs de β ∈ R la matrice


 
1 0 0 0
−3 β 2β + 1 3 
Bβ =  .
1 1 −β −1
0 0 0 1

est diagonalisable. Son polynôme caractéristique est


 
1−t 0 0 0
 −3 β − t 2β + 1 3 
pβ (t) =   = (t−1)2 [t2 −(β +1)2 ] = (t−1)2 (t−β −1)(t+β +1).
 1 1 −β − t −1 
0 0 0 1−t

La valeur propre 1 est de multiplicité algebrique au moins 2 et multiplicité géométrique :


 
0 0 0 0 
−3 β − 1 2β + 1 3  2 β 6= −2
mg (1) = 4 − rg 
  = .
1 1 −β − 1 −1  3 β = −2
0 0 0 0

On aura aussi d’autres valeurs propres de multiplicité algebrique au moins 2 dans les cas
suivants :
β + 1 = −β − 1 ⇐⇒ β = −1 valeur propre : 0
β+1=1 ⇐⇒ β = 0 valeur propre : 1
−β − 1 = 1 ⇐⇒ β = −2 valeur propre : 1.
On peut donc conclure que Bβ est diagonalisable pour tout β ∈ / {−2, −1, 0}, puisque elle
admet la valeur propre 1 de multiplicité algebrique et géométrique 2 et deux autres valeurs
propres distinctes (β + 1 e −β − 1) de multiplicité algebrique et géométrique 1.
Si β = −2, on a ma (1) = mg (1) = 3, donc B−2 est diagonalisabile. Si β = −1 la multiplicité
algébrique de la valeur propre 0 est 2 alors que sa multiplicité géométrique est
 
1 0 0 0
−3 −1 −1 3 
mg (0) = 4 − rg  =4−3=1
1 1 1 −1
0 0 0 1

donc B−1 n’est pas diagonalisable.


82 Similitude

Si β = 0, on a ma (1) = 3 et et on a vu que mg (1) = 2, donc B0 n’est pas diagonalisable.


Dans le cas β = −2, calculons les espaces propres et la matrice H telle que H −1 B−2 H est
diagonale. On a
 
0 0 0 0
−3 −3 −3 3 
V (1) = Ker   = h(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)i;
1 1 1 −1
0 0 0 0
   
2 0 0 0 1 0 0 0
−3 −1 −3 3 
 = h(0, 3, −1, 0)i =⇒ H = 0 1 0 3  .
 
V (−1) = Ker 1 1 3 −1 0 0 1 −1
0 0 0 2 1 1 1 0

Comme nous l’avons souligné à la Remarque 4.2.2, lorsque le polynôme caratctéristique


d’une matrice n’est pas complètement réductible, on peut avoir intérêt à étudier la diagona-
lisation d’une matrice réele en tant que matrice à coéfficients complexes.
 
0 0 1
Exemple 4.2.9 Le polynôme caractéristique de la matrice de permutation P = 1 0 0
0 1 0
est
√ √
 
−t 0 1
3 2 −1 + i 3 −1 − i 3
p(t) = det  1 −t 0  = −t +1 = (1−t)(t +t+1) = (1−t)(t− )(t− ).
2 2
0 1 −t
On a donc un espace propre réel
 
−1 0 1
V (1) = Ker  1 −1 0  = h(1, 1, 1)i
0 1 −1
et deux espaces propres complexes
 √ 
√ 1−i 3
0√ 1 √ √
−1 + i 3  2 1−i 3
−1 − i 3 −1 + i 3
V( ) = Ker  1 0√  = h( ), ), 1)i

2 2 2 2
1−i 3
0 1 2
 √ 
√ 1+i 3
0√ 1 √ √
−1 − i 3  2 1+i 3
−1 + i 3 −1 − i 3
V( ) = Ker  1 0√  = h( ), ), 1)i.

2 2 2 2
1+i 3
0 1 2

Terminons par une application simple et utile de la diagonalisation : le calcul des puis-
sances d’une matrice.

Proposition 4.2.6 Soit A une matrice diagonalisable, D une matrice diagonale semblable à A et H
la matrice des vecteurs propres de A. Alors pour tout entier n (et même pour tout n ∈ Z si A est
inversible)
Ak = HDk H −1 .
Chapitre IV 83

Démonstration C’est un simple calcul : puisque A = HDH −1 on a

Ak = (HDH −1 )(HDH −1 ) . . . (HDH −1 ) = HDk H −1 .


Remarquons que la matrice Dk se calcule facilement : c’est la matrice diagonale dont
les coéfficients sur la diagonale sont les puissances k-ième de valeurs propres de A (voir
Remarque 4.2.1).

Exemple 4.2.10 Considérons la matrice B−2 de l’Exemple 4.2.8 :


   
1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 3 0 1 0 0 − 3 − 12 − 32 3 
B−2 =   2 2  .
0 0 1 −1 0 0 1 0   12 1
2
3
2 − 12 
1 1 1
1 1 1 0 0 0 0 −1 2 2 2 − 12

Pour k impair Dk = D et donc B−2


k = B k k
−2 alors que pour k pair D = I4 et donc B−2 =
HI4 H −1 = I4 .

§ 3 Théorie de Jordan
Comme nous l’avons signalé à la Remarque 4.2.2, la diagonalisation ne fournit pas une
réponse génerale au problème principal de ce Chapitre, la recherche de la forme plus simple
possible dans la classe di similitude d’une matrice. Si le polynôme caractéristique a des
racines non-réelles, on peut se contenter d’une forme diagonale à coéfficients complexes
(dans les applications, on peut souvent revenir au monde réel). Mais si la matrice n’a “pas
assez” de vecteurs propres, il faudra adopter une “forme plus simple possible” qui soit
legèrement plus compliquée que la forme diagonale.

Définition 4.3.1 On appelle bloc de Jordan de dimension n et valeur propre λ la matrice Jn,λ de
type n × n définie par les proprietés suivantes :
1. Les coéfficients sur la diagonale sont tous égaux à λ ;
2. Les coéfficients de place (i, i + 1) sont tous égaux à 1, pour i = 1, . . . , n − 1 ;
3. Tous les autres coéfficients sont nuls, et en particulier Jn,λ est triangulaire supérieure.

Comme exemples, nous avons les blocs suivants de dimension 1, 2, 3 :


 
  λ 1 0
λ 1
J1,λ = (λ); J2,λ = ; J3,λ =  0 λ 1 .
0 λ
0 0 λ

Remarquons tout d’abord que le polynôme caractéristique est pJn,λ (t) = (λ − t)n . De plus,
le rang de (Jn,λ − λIn ) = Jn,0 est n − 1 donc l’espace propre V (λ) pour la matrice Jn,λ est de
dimension 1.
84 Similitude

Si f est un endomorphisme de Rn , dire que la matrice de f dans une base {v1 , v2 , . . . , vn }


est Jn,λ équivaut à dire que :
(4.3.1) f (v1 ) = λv1 , f (v2 ) = v1 + λv2 , ... f (vn ) = vn−1 + λvn .
Donc seul v1 est un vecteur propre pour f , associé à la valeur propre λ, alors que v2 satisfait
la rélation f (v2 ) − λv2 = v1 et puis v3 satisfait la rélation f (v3 ) − λv3 = v2 et ainsi de
suite. Les vecteurs v2 ,v3 , . . .ne sont pas des vecteurs propres : ils sont dits vecteurs propres
généralisés.
Soit A la matrice de f par rapport à la base canonique de Rn : comme on l’a vu, les
composantes du vecteur v1 seront solutions du système linéaire homogène :
(A − λIn )x = 0.
Indiquons ces composantes par x1 : les composantes du vecteur v2 sont alors solutions du
système linéaire non homogène :
(A − λIn )x = x1
Supposons de les avoir calculées et d’avoir choisi la solution x2 : les composantes du vecteur
v3 sont alors solutions du système linéaire non homogène :
(A − λIn )x = x2
et ainsi de suite. . .
Définition 4.3.2 Une matrice de Jordan est une matrice carrée partagée en sous-matrices telle
que :
1. les blocs diagonaux sont des blocs de Jordan ;
2. les blocs extérieurs à la diagonale sont des matrices nulles.
Une matrice de Jordan est donc triangulaire supérieure et ses seuls coéfficients non nuls
se trouvent soit sur la diagonale, soit immédiatement au dessus de la diagonale. En d’autres
termes, si ai,j 6= 0 alors soit j = i, soit j = i + 1 (et dans ce deuxième cas ai,i+1 = 1).
Bien entendu, un bloc de Jordan est une matrice de Jordan, avec un seul bloc diagonal de
type n × n. A l’autre extrème, une matrice diagonale est aussi une matrice de Jordan, avec
n blocs diagonaux de type 1 × 1. Voici des exemples de matrices de Jordan avec deux blocs
diagonaux :
   
  λ 1 0 0   λ 1 0 0
λ 0 0 λ 0 0
 0 λ 1 ;  0 λ 0 0 ;  0 µ 1 ;  0 λ 0 0 
   
 0 0 λ 1   0 0 µ 1 
0 0 λ 0 0 µ
0 0 0 λ 0 0 0 µ
et encore des exemples de matrices de Jordan avec trois blocs diagonaux :
λ 1 0 0 0 λ
   
1 0 0 0
λ
   
λ 0 0 0 1 0 0  0 λ 0 0 0   0 λ 1 0 0 
;  0 λ 0 0 ;  0 0 µ 1 0 ;  0
 0 λ 0 0       

 0 0 λ 1   0 0 µ 0     0 λ 0 0 

 0 0 0 µ 0   0 0 0 µ 0 
0 0 0 λ 0 0 0 ν
0 0 0 0 ν 0 0 0 0 ν

Voici finalement la solution au problème initial.


Chapitre IV 85

Théorème 4.3.1 Soit A une matrice de type n×n dont le polynôme caractéristique est complètement
réductible. Alors A est semblable à une matrice de Jordan. De plus, si J est une matrice de Jordan
semblable à A et λ est une valeur propre de A, alors pour les blocs de Jordan de valeur propre λ dans
J nous avons que :
1. le nombre de ces blocs est égal à la multiplicité géométrique mg (λ) ;
2. la somme des dimensions de ces blocs est égale à la multiplicité algébrique de ma (λ).

La démonstration du théorème 4.3.1 est assez laborieuse et nécéssite des considérations


qui peuvent paraitre peux naturelles à un premier abord. Nous la renvoyons donc à plus
tard, en la préparant par quelques exemples qui nous indiquerons la démarche à suivre.

Remarque 4.3.1 Si, pour une valeur propre donnée λ, la multiplicité algébrique de λ est
égale à la multiplicité géométrique, le nombre de blocs de valeur propre λ dans J est égal
à la somme des dimensions de tous ces blocs, qui sont donc nécéssairement de dimension
1. Si c’est le cas pour toutes les valeurs propres de A, la matrice J, n’ayant que des blocs
de dimension 1, est diagonale. Le Théorème 4.3.1 est donc une généralisation du critère de
diagonalisation.

Pour les matrices dont les valeurs propres ont une multiplicité petite, la recherche d’une
forme de Jordan ne présente pas plus de difficulté par rapport au procédé de diagonalisa-
tion.
 
1 0 1
Exemple 4.3.1 Considérons la matrice A =  0 0 0 . Son polynôme caractéristique est
0 1 0
p(t) = t2 (1 − t), donc λ1 = 1 est une valeur propre de multiplicité 1, qui coı̈ncide avec
dim V (1). Aussi λ2 = 0 est une valeur propre, de multiplicité 2 alors que dim V (0) = 3 −
rg A = 1. La forme de Jordan de A a donc un bloc de valeur propre 1 et un bloc de valeur
propre 0 et la dimension de ces blocs (égale à la somme des dimensions, puisque il y en a un
seul pour chaquevaleur propre) est 1 et 2 respectivement. A est donc semblable à la matrice
1 0 0
J=  0 0 1 . La première et deuxième colonne d’une matrice H telle que H −1 AH = J
0 0 0
sont données par des générateurs pour les espaces propres de A :

V (1) = Ker(A − I) = h(1, 0, 0)i; V (0) = Ker A = h(1, 0, −1)i.

La dernière colonne de H est donnée par une solution du système non-homogène dont le
terme constant est le génerateur choisi pour V (0) :
      
1 0 1 x 1  1 1 1
x+z =1
 0 0 0   y  =  0  =⇒ =⇒ H =  0 0 −1 
y = −1
0 1 0 z −1 0 −1 0

En général, ayant fixé une valeur propre λ de multiplicité algébrique strictement plus
grande que sa multiplicité géométrique, on se trouve face à deux problèmes :
86 Similitude

1) Déterminer le nombre et la dimension des blocs de Jordan de valeur propre λ.

Par exemple, si ma (λ) = 4 et mg (λ) = 2, le Théorème 4.3.1 nous dit qu’on aura deux blocs
de valeur propre λ et que la somme des dimensions de ces blocs est 4, mais cela ne suffit pas
pour établir si on aura un bloc de dimension 1 et un de dimension 3, ou bien deux blocs de
dimension 2.

2) Déterminer pour quels v ∈ V (λ) le système (A − λI)x = v admet une solution.

Ce deuxième problème se pose lorsque on veut calculer ces colonnes de la matrice H qui ne
sont pas des vecteurs propres mais seulement des vecteurs propres généralisés.
 
1 1 1
Exemple 4.3.2 Soit A =  0 0 0 . Son polynôme caractéristique est p(t) = −t3 ,
−1 −1 −1
donc λ1 = 0 est la seule valeur propre, de multiplicité algébrique 3 et dim V (0) = rg A = 2.
 
0 1 0
Selon le Théorème 4.3.1, A est semblable à J =  0 0 0 . On a que V (0) = Ker A =
0 0 0
h(1, −1, 0), (0, 1, −1)i. Malheureusement, aucun des deux systèmes
         
1 1 1 x 1 1 1 1 x 0
 0 0 0   y  =  −1  ;  0 0 0  y  =  1 
−1 −1 −1 z 0 −1 −1 −1 z −1

n’est résoluble (la deuxième équation de chacun de ces systèmes étant 0 = ±1). Il n’y a donc
aucune matrice du type
   
1 ∗ 0 0 ∗ 1
H =  −1 ∗ 1  ou H =  1 ∗ −1 
0 ∗ −1 −1 ∗ 0

telle que H −1 AH = J !

Pour résoudre ce problème, remarquons que si v1 est un vecteur propre de valeur propre
λ et si v2 est une solution de (A−λI)v2 = v1 alors (A−λI)2 v2 = (A−λI)v1 = 0. Autrement
dit, v2 6∈ Ker(A − λI) mais v2 ∈ Ker(A − λI)2 (remarquons que, banalement, Ker(A − λI) ⊆
Ker(A − λI)2 ). Si alors v1 corréspond à un bloc de Jordan de dimension n, c’est à dire s’il
existe des vecteurs v2 , . . . , vn satisfaisants les relations (4.3.1), alors

(A − λI)n−1 vn = (A − λI)n−2 vn−1 = · · · = (A − λI)v2 = v1

donc vn 6∈ Ker(A − λI)n−1 mais vn ∈ Ker(A − λI)n .

Exemple 4.3.2 (suite et fin) On a que A2 est la matrice nulle, donc si v est n’importe quel
vecteur de R3 = Ker A2 , on aura que Av ∈ Ker A. Si on choisit v 6∈ Ker A, on aura donc
que Av donne lieu à un bloc de Jordan de dimension 2. On peut alors prendre Av, v comme
Chapitre IV 87

première et deuxième (attention à l’ordre !) colonne de H : pour la troisième, il suffit de choi-


sir n’importe quel vecteur propre qui ne soit pas multiple de Av. Par exemple, en choisissant
v = (1, 0, 0) on trouve
      
1 1 1 1 1 1 1 1
 0 0 0   0  =  0  =⇒ H =  0 0 −1  .
−1 −1 −1 0 −1 −1 0 0

Nous pouvons maintenant introduire les concepts à la base de la démonstration du


Théorème 4.3.1. Il convient de revenir au point de vue des endomorphismes.

Définition 4.3.3 Un endomorphisme f : V → V (respectivement une matrice A) est dit nilpotent


si il existe un entier n ≥ 0 tel que f n = 0 (resp. An = 0).

Bien entendu, la matrice d’un endomorphisme nilpotent dans une base quelconque est
nilpotente.

Remarque 4.3.2 Si f est un endomorphisme nilpotent et λ est une valeur propre de f , alors
λ = 0. Il suit en effet de la Remarque 4.2.1 que λn est valeur propre de f n , qui est nul pour n
suffisament grand. Donc λn = 0 et par suite λ = 0.

Exemple 4.3.3 Les blocs de Jordan Jn,0 sont des matrices nilpotentes. Si e1 , . . . , en est la
base canonique de Rn , on a par définition :

Jn,0 ei = ei+1 pour i = 1, . . . , n − 1.


2 e =J
Par suite, Jn,0 i n,0 ei+1 = ei+2 pour i = 1, . . . , n − 2 et, en général

k
Jm,0 ei = ei+k pour i = 1, . . . , n − k.

On a donc que :
k
(4.3.2) dim Ker Jn,0 =k pour k = 1, . . . , n
k = Rn pour k ≥ n.
et que Ker Jn,0

Proposition 4.3.1 (Décomposition de Fitting) Soit f : V → V un endomorphisme d’un espace


vectoriel de type fini. On peut alors trouver deux sous-espaces U, W ≤ V tels que
1. V = U ⊕ W ;
2. f (U ) = U et la restriction de f à U est un isomorphisme ;
3. f (W ) ⊆ W et la restriction de f à W est nilpotent.

Démonstration Posons Ui = Im f i et Wj = Ker f j pour i, j ≥ 0. Évidemment Ui ⊇ Ui+i


(car si u = f i+1 (v) alors u = f i (f (v))) et Wj ⊆ Wj+1 (car si f j (w) = 0 alors f j+1 (w) =
f (f j (w)) = f (0) = 0). Puisque dim V est finie, on doit avoir que Un = Un+1 = . . . et
Wn = Wn+1 = . . . pour n suffisament grand. Appelons U et W ces sous-espaces. On a

f (U ) = f (Un ) = f (f n (V )) = f n+1 (V ) = Un+1 = U


88 Similitude

et donc f est un isomorphisme sur U . On a aussi, pour tout i, j ≥ 0 que f j (Ker f i+j ) ⊆
Ker(f i ) donc f (W ) ⊆ W (pour i = n et j = 1) et aussi, pour i = 0 et j = n, que f n (W ) = 0,
donc f est nilpotent sur W .
Il reste à montrer que V = U ⊕ W . On utilise le fait que U = f n (V ) et W = Ker f n = Ker f 2n .
Alors pour tout v ∈ V on a f n (v) ∈ U et donc il existe x ∈ V tel que f n (v) = f n (f n (x)).
Posons u = f n (x) ∈ U . On a bien que f n (v − u) = f n (v − f n (x)) = 0, donc v − u ∈ W .
On en déduit que V = U + W . De plus U ∩ W = {0}, puisque si v ∈ U ∩ W on a à la fois
f n (v) = 0 et il existe x ∈ V tel que v = f n (x), mais alors f 2n (x) = f n (v) = 0, par suite
x ∈ W et donc v = f n (x) = 0. 

Lemme 4.3.1 Soit W un espace vectoriel de type fini et ϕ : W → W un endomorphisme nilpotent.


Il existe une base de W dans laquelle la matrice de ϕ est une matrice de Jordan.

Démonstration Soit n le plus petit entier tel que ϕn+1 = 0 mais ϕn 6= 0. Pour tout i =
0, . . . , n, posons Wi = Ker ϕi . Le Corollaire 1.5.2 permet de trouver un sous-espace Sn tel
(n) (n)
que W = Sn ⊕ Wn . Choisissons une base {v1 , . . . , vkn } de Sn et, pour i = 0, . . . , n − 1 et
(i) (n) (i)
j = 1, . . . , kn posons vj = ϕn−i (vj ). Remarquons que, par hypothèse, vj ∈ Wi+1 mais
(i) (i) (n)
vj ∈ / Wi : autrement ϕi (vj ) = ϕi (ϕn−i (vj )) = ϕn (vjn ) = 0, contredisant l’hypothèse que
n
vj ∈/ Wn .
En appliquant encore le Corollaire 1.5.2, choisisssons un sous-espace Sn−1 tel que Wn =
(n−1) (n−1)
Sn−1 ⊕ ϕ(Sn ) ⊕ Wn−1 et une base {vkn +1 , . . . , vkn−1 } de Sn−1 .
On peut repéter ce procédé : pour tout i = 0, . . . , n on choisit une décomposition Wi+1 =
(i) (i)
Si ⊕ ϕn−i (Sn ) ⊕ ϕn−i+1 (Sn−1 ) ⊕ · · · ⊕ ϕ(Si+1 ) ⊕ Wi et une base {vki+1 +1 , . . . , vki } de Si . Nous
avons donc une une décomposition de
n M
M n
W = Sn ⊕ Wn = Sn ⊕ Sn−1 ⊕ ϕ(Sn ) ⊕ Wn−1 = · · · = ϕj (Si ).
j=0 i=j

Par construction, nous avons donc que les vecteurs de l’ensemble


nh i h i h i h i h io
(0) (1) (n) (0) (n) (0) (n−1) (0) (0)
B = v1 , v1 , . . . , v1 , v2 , . . . , v2 , . . . , vkn +1 , . . . , vkn +1 , . . . , vk1 +1 , . . . , vk0

engendrent W . Pour montrer qu’ils sont libres, soit


(0) (0) (n) (n) (0) (0) (n−1) (n−1)
λ1 v1 + · · · + λ1 v1 + · · · + λkn +1 vkn +1 + · · · + λkn +1 vkn +1 + · · · +
(4.3.3) (0) (0) (0) (0)
+ · · · + λk1 +1 vk1 +1 + · · · + λk0 vk0 = 0.

(i)
Calculons l’image par ϕn de (4.3.3) : puisque vj ∈ Wi+1 = Ker ϕi+1 , on reste avec
 
(n) (n) (n) (n)
ϕn λ1 v1 + · · · + λkn vkn = 0

(n) (n) (n) (n) (n) (n)


ce qui implique que λ1 v1 + · · · + λkn vkn ∈ Ker ϕn = Wn . Par construction, v1 , . . . , vkn
(n)
appartiennent à Sn qui est en somme directe avec Wn , donc ce vecteur est nul et, les vj
(n) (n)
étant libres, on déduit que λ1 = · · · = λkn = 0.
Chapitre IV 89

En répétant ce procédé (prenant les images de (4.3.3) par ϕn−1 , ϕn−2 , . . . ) on montre de la
même façon que tous les coéfficients de (4.3.3) sont nuls.
(i) (n)
B est donc une base de W . Puisque vj = ϕn−i (vj ), il est évident que la matrice de ϕ
dans la base B est une matrice de Jordan. Vu les choix qu’on a fait, les premiers kn = dim Sn
blocs sont des matrices Jn+1,0 et ainsi de suite. Dans l’écriture de B nous avons groupé les
éléments de la base donnant lieu à un bloc. 
Démonstration du Théorème 4.3.1 Se fait par récurrence sur la dimension de V . Si dim V =
1 il n’y a rien à montrer. Fixons une valeur propre λ et remarquons qu’il revient au même
de montrer qu’il existe une base de V telle que la matrice de f ou celle de f − λidV soit une
matrice de Jordan.
Utilisons la décomposition de Fitting (Proposition 4.3.1) pour l’endomorphisme f − λidV :
on a donc V = U (λ) ⊕ W (λ), les deux espaces étant stables par f − λidV , qui est un iso-
morphisme sur U (λ) et nilpotent sur W (λ). Remarquons que, puisque λ est valeur propre,
0 6= V (λ) ⊆ W (λ), donc dim U (λ) dim V . Par hypothèse de récurrence, il existe une base
B1 de U (λ) telle que la matrice de la restriction de f − λidV soit une matrice de Jordan.
D’autre part, il suit du Lemme 4.3.1 qu’il existe une base B2 de W (λ) telle que la matrice de
la restriction de f − λidV soit une matrice de Jordan. Puisque la somme est directe, B1 ∪ B2
est une base de V par la Proposition 1.5.4. Par construction, la matrice de f − λidV dans cette
base est une matrice de Jordan. 

De la démonstration du Lemme 4.3.1 nous pouvons à présent tirer un complément au


Théorème 4.3.1 qui permet de connaitre les dimensions des blocs. Pour tout entier i, posons
Wi (λ) = Ker(A − λI)i . On a donc que W0 (λ) = Ker(A − λI)0 = Ker I = {0} et W1 (λ) = V (λ)
est l’espace propre de λ. De plus

(4.3.4) {0} = W0 (λ) ( W1 (λ) ⊆ · · · ⊆ Wi (λ) ⊆ Wi+1 (λ) ⊆ . . .

Proposition 4.3.2 Le nombre de blocs de dimension d et valeur propre λ est égal à

(4.3.5) − dim Wd+1 (λ) + 2 dim Wd (λ) − dim Wd−1 (λ).

Démonstration Commençons par le cas où A = Jm,λ est un bloc de Jordan de dimension
m et valeur propre λ. Alors A − λI = Jm,0 est le bloc de Jordan de dimension m et valeur
d . On peut alors calculer la somme (4.3.5) à
propre 0. Pour A = Jm,λ on a Wd (λ) = Ker Jm,0
l’aide de la formule (4.3.2) :

−(d + 1) +2d −(d − 1) = 0 pour d < m


−(m) +2m −(m − 1) = 1 pour d = m
−(m) +2m −(m) = 0 pour d > m.

La proposition est donc bien verifiée dans ce cas, puisque A = Jm,λ a un seul bloc de dimen-
sion m.
Considérons maintenant le cas général. Soit f = fA l’endomorphisme de Rn donné par
f (x) = Ax. Pour tout nombre λ, le sous-espace Wi (λ) = Ker(f − λ · id)i dépend seulement
de l’endomorphisme f et non pas de la matrice A : on peut remplacer A par n’importe quelle
matrice semblable à A. Grace au théorème 4.3.1, on peut donc remplacer A par une matrice
90 Similitude

de Jordan. Soient λ1 ,. . ., λk toutes les valeurs propres de A. Si A est une matrice de Jordan,
A − λI est aussi une matrice de Jordan : si Jm,λj est un bloc de A, alors Jm,λj −λ est un
bloc de A − λI (c’est à dire que la matrice A − λI a les mêmes blocs que A, mais pour les
valeurs propres λj − λ). Si λj 6= λ alors Jm,λj −λ est inversible (car triangulaire supérieure
i
à coéfficients non nuls sur la diagonale), ainsi que ses puissances Jm,λ = (Jm,λj − λI)i :
j −λ
les blocs Jm,λj de valeurs propres λj 6= λ ne contribuent donc pas à la dimension des sous-
espaces Wi (λ). On est ainsi ramenés au cas des blocs de type Jm,λj précedemment étudié :
la formule (4.3.5) est donc bien vérifiée. 

Remarque 4.3.3 Wi (λ) ⊆ Rn donc dim Wi (λ) ≤ n : la dimension des sous-espaces Wi (λ) ne
peut pas dépasser n. D’autre part on a la suite (4.3.4) de sous-espaces emboités, qui donne
une suite d’inégalitées

· · · ≤ dim Wi−1 (λ) ≤ dim Wi (λ) ≤ dim Wi+1 (λ) ≤ . . .

Il existe donc un entier positif nλ ≤ n tel que, pour i ≥ nλ on a

dim Wi (λ) = dim Wi+1 (λ) = dim Wi+2 (λ) = . . . =⇒ Wi (λ) = Wi (λ) = Wi+1 (λ) = . . .

De la formule (4.3.5) on déduit alors qu’il n’y a pas de blocs de dimension i > nλ de valeur
propre λ. Autrement dit, nλ est la dimension du bloc di Jordan plus grand de valeur propre
λ.

Exemple 4.3.4 Soit


 
3 0 0 0 2

 0 2 1 0 0 

A=
 0 0 2 0 0 

 0 1 0 2 0 
−1 0 0 0 0
On a pA (t) = (2 − t)4 (1 − t). Les valeurs propres de A sont alors λ1 = 1 de multiplicité 1
(donc forcément dim S(1) = 1), et λ2 = 2, qui est de multiplicité 4. Puisque
 
1 0 0 0 2

 0 0 1 0 0 

V (2) = W1 (2) = Ker(A − 2I) = Ker 
 0 0 0 0 0  = h(2, 0, 0, 0, −1), (0, 0, 0, 1, 0)i,

 0 1 0 0 0 
−1 0 0 0 −2

le Théorème 4.3.1 dit que la forme de Jordan de A a deux blocs de valeur propre 2. Pour
trouver les dimensions de ces blocs on calcule :

−1 0 0 0 −2
 
 0 0 0 0 0 
2
 
W2 (2) = Ker(A − 2I) = Ker   0 0 0 0 0 

 0 0 1 0 0 
1 0 0 0 2
= h(2, 0, 0, 0, −1), (0, 1, 0, 0, 0), (0, 0, 0, 1, 0)i.
Chapitre IV 91

De la formule (4.3.5) (pour d = 1) on déduit alors qu’il y a −3+4−0 = 1 blocs dimension 1 et


valeur propre λ2 = 2. Puisque la somme des dimensions des blocs est égale à la multiplicité
de λ2 , le deuxième bloc doit être de dimension 3. A est donc semblable à la matrice
 
2 1 0 0 0
 0 2 1 0 0 
 
J = 0 0 2 0 0 .

 0 0 0 2 0 
0 0 0 0 1
On cherche maintenant une matrice inversible H telle que H −1 AH = J. Si v1 , v2 , v3 , v4 , v5
sont les colonnes de H, alors v1 = (A − 2I)2 v3 et v2 = (A − 2I)v3 , où v3 est un vecteur de
Ker(A − 2I)3 qui n’appartient pas à Ker(A − 2I)2 . De plus v4 est un vecteur propre de valeur
propre 2 qui n’est pas un multiple de v1 et enfin v5 est vecteur propre de valeur propre 1.
Le problème est donc de determiner v3 . On calcule
 
1 0 0 0 2
 0 0 0 0 0 
3
 
W3 (2) = Ker(A − 2I) = Ker   0 0 0 0 0 

 0 0 0 0 0 
−1 0 0 0 −2
= h(2, 0, 0, 0, −1), (0, 1, 0, 0, 0), (0, 0, 1, 0, 0), (0, 0, 0, 1, 0)i.
En comparant avec la base qu’on a trouvé pour W2 (2), on voit que le troisième vecteur e3 de
la base canonique satisfait e3 ∈ W3 (2) et e3 ∈
/ W2 (2). On peut donc choisir v3 = e3 et alors
v2 = (A − 2I)v3 = e2 et v1 = (A − 2I)v2 = e4 .
Pour compléter la matrice H, il ne reste plus qu’à trouver un générateur v5 de
 
2 0 0 0 2
 0 1 1 0 0 
 
S(1) = Ker(A − I) = Ker   0 0 1 0 0  = h(1, 0, 0, 0, −1)i.

 0 1 0 1 0 
−1 0 0 0 −1
Donc finalement  
0 0 0 2 1

 0 1 0 0 0 

H=
 0 0 1 0 0 .

 1 0 0 0 0 
0 0 0 −1 −1
Exemple 4.3.5 Reprenons la matrice Aα de l’Exemple 4.2.7, pour étudier les cas où elle au
une seule valeur propre, ce qui arrive si α2 = α, donc soit α = 0 soit α = 1.
Pour α = 0, on calcule l’espace propre :
 
0 0 0 1
 0 0 0 0 
 0 1 0 0  = h(1, 0, 0, 0), (0, 0, 1, 0)i.
V0 (0) = Ker  

0 0 0 0
92 Similitude

On a donc deux blocs de valeur propre zéro. De plus le carré de la matrice A0 − 0I4 = A0 est
A20 = 0 donc le nombre de blocs de dimension 1 est

− dim Ker I4 + 2 dim Ker A0 − dim Ker 0 = −0 + 4 − 4 = 0

donc la forme de Jordan de A0 a deux blocs de dimension 2.


La seconde et quatrième colonne de la matrice H telle que H −1 A0 H soit de Jordan sont des
vecteurs libres de R4 qui n’appartiennent pas à Ker A0 , par exemple e2 et e4 . La première et
troisième colonne de H seront alors respectivement A0 e2 = e3 et A0 e4 = e1 donc
   
0 1 0 0 0 0 1 0
 0 0 0 0   0 1 0 0 
J = ; H=
 1
.
 0 0 0 1  0 0 0 
0 0 0 0 0 0 0 1

Le cas α = 1 se traite de la même manière. Les résultats sont : V1 (1) = h(1, 0, 0, 0), (0, 0, 1, 0)i,
   
1 1 0 0 0 0 2 0
 0 1 0 0   0 1 0 0 
J = ; H=
 2
.
 0 0 1 1  0 0 0 
0 0 0 1 0 0 0 1

Exemple 4.3.6 Reprenons ici la matrice Bβ de l’Exemple 4.2.8. On a vu qu’elle est diagona-
lisable sauf pour β = 0 et β = −1. La matrice B0 est semblable à
 
1 1 0 0
 0 1 0 0 
J0 = 
 0

0 1 0 
0 0 0 −1

Les espaces propres sont


 
0 0 0 0
−3 −1 1 3
V (1) = Ker   = h(1, 0, 0, 1), (0, 1, 1, 0)i;
1 1 −1 −1
0 0 0 0
 
2 1 1 0
−3 1 1 3
V (−1) = Ker   = h(0, 1, −1, 0)i.
1 1 3 −1
0 0 0 2
Calculons aussi
 
0 0 0 0
4 2 −2 −4
W2 (1) = Ker(B0 − I4 )2 = Ker 
−4 −2 2
 = h(1, 0, 0, 1), (0, 1, 1, 0), (1, 0, 2, 0)i.
4
0 0 0 0
Chapitre IV 93

De plus
      
0 0 0 0 1 0 0 1 1 0
−3 −1 1 3  0 −1 −1 0 0 1
   =   =⇒ H= .
1 1 −1 −1 2 −1 −1 2 0 −1
0 0 0 0 0 0 0 0 1 0

Le cas β = −1 est plus simple : B−1 sera semblable à la matrice


 
0 1 0 0
 0 0 0 0 
J−1 =
 0
.
0 1 0 
0 0 0 1

La première colonne de H est un générateur de Ker B−1 = h(0, 1, −1, 0)i, la troisième et
quatrième sont une base pour
 
0 0 0 0
 −3 −2 −1 3 
Ker(B−1 − I4 ) = Ker   = h(1, 0, 0, 1), (1, −1. − 1, 0)i.
 1 1 0 −1 
0 0 0 0

Enfin la deuxième colonne est une solution de


      
1 0 0 0 x 0 0 0 1 1
 −3 −1 −1 3  y   1   1 −1 0 1 
   =   =⇒ H=
−1 0 0 −1 .

 1 1 1 −1   z  −1
0 0 0 1 t 0 0 0 1 0

§ 4 Exercices

Exercice 4.1 Pour quelles valeurs de a la matrice


 
−a + 2 2a − 1 7a − 5
A = −a + 1 2a 3a − 3
0 0 2a

a-t-elle un espace propre de dimension 2 ?

Exercice 4.2 Existe-t-il


√ un endomorphisme L de R3 tel que (1, 1, 0) soit vecteur propre de
valeur propre 7 et L−1 (1, 2, 1) = (0, 1, 2) + h(1, −1, 1)i ? Est-il unique ? Est-il inversible ?

Exercice 4.3 Déterminer tous les vecteurs de R3 qui ont les mêmes coordonnées parrapport
à la base canonique et à la base B = {(5, 18, 22), (−1, −8, −1), (1, −1, 12)}.
94 Similitude

Exercice 4.4 Pour chacune des matrices suivantes, déterminer une forme diagonale ou une
forme de Jordan, en calculant la matrice du changement de base.

0 0 −1
 
    1 1
 2 1
 0 0 2 0 1 0
2 1 0  0 1
 0 −1 −1 1 1 
0 0   0 2 0 1   
A =  0 1 1 ; B = 
 0 0
; C =  ; D =  1 1 0 0 −1 
1 1   0 0 2 0   
0 0 2  1 0 −1 0 0 
0 0 0 2 0 0 0 2
0 0 0 1 0

Exercice 4.5 Pour chacune des matrices suivantes, déterminer une matrice H telle que H −1 M H
soit diagonale ou de Jordan :
   
  2 0 1 0 1 0 −1 1
0 3 2 0 2 0 1 2 1 2 −4
M1 = 0 −1 1 M2 =   M3 =  .
0 0 2 0 2 0 2 −3
0 −1 1
0 0 0 2 2 0 1 −2

Exercice 4.6 Considérons les matrices matrices suivantes


       
1 1 0 1 0 0 1 1 0 1 0 0
A = 1 1 1 , B = 0 1 1 , C = 1 2 1 , D = 1 2 0 .
1 −1 2 0 0 2 1 −1 2 1 0 2

a) Déterminer les espaces propres de la matrice A.


b) Quelles parmi les matrices données sont diagonalisables sur R ?
c) Pour celles qui ne sont pas diagonalisables, déterminer une forme de Jordan.
d) Parmi les matrices A, B, C, D y en a-t-il deux semblabes ?

Exercice 4.7 Considérons, en fonction de α ∈ R, la matrice :


 
0 1 α
Aα =  1 0 2 .
2 2 α+1

a) Dire si le sous-espace h(1, 0, 0), (0, 1, 0)i contient des vecteurs propres pour Aα .
b) Déterminer les espaces propres de Aα .
c) Établir pour quels α ∈ R la matrice est diagonalisable.
d) Pour α = 0, déteminer une matrice H telle que H −1 AH soit triangulaire supérieure.
 
0 1 0
Exercice 4.8 Soit A =  0 0 1 .
−1 −1 −1
a) Établir si A est diagonalisable sur R, et dans ce cas trouver une matrice H ∈ M3×3 (R)
telle que H −1 AH soit diagonale.
b) Établir si A est diagonalisable sur C, et dans ce cas trouver une matrice H ∈ M3×3 (C)
telle que H −1 AH soit diagonale.
Chapitre IV 95

Exercice 4.9 Considérons les matrices Aα , en fonction de α ∈ R :


 
−α −1 −1 − 2α
α + 1 1 − α α 
0 1 1+α

a) Déterminer les valeurs de α ∈ R telles que Aα soit diagonalisable sur R et la matrice


H ∈ M (3 × 3, R) des vecteurs propres.
b) Déterminer les valeurs de α ∈ R telles que Aα soit diagonalisable sur C et la matrice
H ∈ M (3 × 3, C) des vecteurs propres.
c) Pour les α ∈ R tels que Aα n’est pas diagonalisable, en déterminer une forme de Jordan
Jα et une matrice H ∈ M3×3 (R) telle que H −1 Aα H = Jα .
 
5−a 3−a
Exercice 4.10 Pour quelle valeur de a ∈ R la matrice A = est-elle diagonali-
a−3 a−1
sable ? Pour ces valeurs, déterminer H telle que H −1 AH soit diagonale.
 
−1 −2
Exercice 4.11 Soit B = . Calculer B 100 .
0 1

Exercice 4.12 Étant données les matrices réelles


   
0 0 −1 1 0 0 −1 −1
 0 0 0 −1   0 0 0 −1 
E=  1 1 0
; F = 
0   1 1 0 0 
0 1 0 0 0 1 0 0

a) Déterminer, s’il en existe, des matrices G, H ∈ M (4 × 4, R), avec G diagonale ou une


matrice de Jordan et H inversible, telles que E = HGH −1 .
b) Déterminer, s’il en existe, des matrices G, H ∈ M (4 × 4, C), avec G diagonale ou une
matrice de Jordan et H inversible, telles que E = HGH −1 .
c) Déterminer, s’il en existe, des matrices J, K ∈ M (4 × 4, R), avec J diagonale ou une
matrice de Jordan et K inversible, telles que F = KJK −1 .
d) Déterminer, s’il en existe, des matrices J, K ∈ M (4 × 4, C), avec J diagonale ou une
matrice de Jordan et K inversible, telles que F = KJK −1 .
e) Établir si E et F sont semblables, en tant que matrices réelles ou complexes.

Exercice 4.13 Considérons le sous-espace


     
2 0 0 2 1 0 2 1 0
W = h 0 2 0  ,  0 2 0  ,  0 2 1 i ⊂ M (3 × 3, R).
0 0 2 0 0 2 0 0 2

a) Déterminer le sous-ensemble S des matrices de W qui admettent 2 comme valeur


propre. S est un sous-espace ? Est-ce une varieté linéaire ?
b) Déterminer quelles parmi les matrices de S sont diagonalisables.
96 Similitude

c) Déterminer quelles parmi les matrices de S sont semblables à une matrice de Jordan
avec un seul bloc.
d) Déterminer quelles parmi les matrices de S sont semblables à une matrice de Jordan
avec deux blocs.

Exercice 4.14 Soit f : V → V un endomorphisme d’un espace de type fini. Supposons


que le polynôme caractéristique p(t) de f soit complètement réductible. Soient λ1 , . . . , λk les
valeurs propres de f et nλi la dimension du plus grand bloc de Jordan de valeur propre λi
(voir Remarque 4.3.3). Le polynôme

q(t) = (t − λ1 )nλ1 · · · (t − λk )nλk

est dit polynôme minimum de f .


a) Montrer que f est diagonalisable si et seulement si nλi = 1 pour tout i.
b) Montrer que q(t) divise p(t).
c) Si φ(t) = a0 + a1 t + · · · + an tn ∈ R[t], posons

φ(f ) = a0 idV + a1 f + · · · + an f n ∈ Hom(V, V ).

Montrer que q(f ) = 0.


d) En déduir une nouvelle démonstration du Théorème de Cayley-Hamilton.
Chapitre V

Produits scalaires et orthogonalité

Dans e chapitre, nous étudions les espaces vectoriels réels 1 munis d’une structure sup-
plémentaire, dite produit scalaire. Cette notion algébrique traduit les notions géométriques
de distance et d’angle.

§ 1 Produits scalaires

Définition 5.1.1 Soit V un espace vectoriel réel. Un produit scalaire est une opération
• : V × V −→ R
(v1 , v2 ) 7−→ v1 • v2
satisfaisante les propriétés suivantes
1. v1 • v2 = v2 • v1 , pour tout v1 , v2 ∈ V ;
2. (v1 +V v2 ) • v3 = v1 • v3 +V v2 • v3 , pour tout v1 , v2 , v3 ∈ V ;
3. (α ·V v1 ) • v2 = α ·V (v1 • v2 ), pour tout v1 , v2 ∈ V ;
4. v • v ≥ 0 pout tout v ∈ V et v • v = 0 ⇐⇒ v = 0.
Exemple 5.1.1 Dans l’espace vectoriel Rn , soient x = (x1 , x2 , . . . , xn ) et y = (y1 , y2 , . . . , yn ).
La formule
 
x1
 x2 
(5.1.1) x • y =  .  (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + · · · + xn yn
 
 .. 
xn
définit bien un produit scalaire, dit produit scalaire standard. La commutativité suit de la
définition même. La distributivité par rapport à l’addition vectorielle et à l’action scalaire
suit de l’interprétation comme multiplication matricielle et de la Proposition 2.3.1. Quant à
la positivité, on a par définition
x • x = x21 + x22 + · · · + x2n
et une somme de carrés est non-négative et nulle si et seulement si tous les termes sont nuls.
1. Une notion analogue, le produit hermitien, peut etre développée dans les espaces vectoriels complexes.
98 Produits scalaires et orthogonalité

Exemple 5.1.2 Le même raisonnement montre que la formule


 
x1
x • y = x2  (y1 , y2 , y3 ) = 3x1 y1 + 2x2 y2 + 4x3 y3

x3

définit aussi un produit scalaire ans l’espace vectoriel R3 .

Exemple 5.1.3 Soient a, b ∈ R et I = [a, b] ⊆ R et C(I) l’espace des fonctions continues en


tout point de l’intervalle [a, b] (Exemple 1.3.3). La formule
Z b
f •g = f (t)g(t) dt
a

définit un produit scalaire sur C(I). La commutativité est évidente, la distributivité par rap-
port à l’addition et à l’action scalaire suit de théorèmes sur les fonctions intégrables et la
positivité suit du fait que l’intégrale d’une fonction non-négative (telle que f (t)2 ) est nul si
st seulement si la fonction est nulle en tout point de l’intervalle.

Pour faire le lien entre la notion de produit scalaire et celle de distance, on introduit la
définition suivante.

Définition 5.1.2 Soit V un espace vectoriel muni d’un produit scalaire. La norme d’un vecteur
v ∈ V est √
kvk = v • v

Remarque 5.1.1 De la quatrième propriété du produit scalaire, il suit que kvk = 0 si et


seulement si v = 0. Remarquons aussi que, pour tout λ ∈ R, on a
p p
kλvk = (λv) • (λv) = λ2 (v • v) = |λ|kvk.

Exemple 5.1.4 Si dans l’espace vetoriel√R on considère le produit scalaire standard, la norme
coı̈ncide avec la valeur absolue : |x| = x2 .

Exemple 5.1.5 La norme du vecteur (1, 2, 3) ∈ R3 par rapport au produit scalaire standard
est √ √
k(1, 2, 3)k = 1 + 4 + 9 = 14.
La norme du même vecteur par rapport au produit scalaire de l’Exemple 5.1.2 est
√ √
k(1, 2, 3)k0 = 3 + 8 + 36 = 47.

Exemple 5.1.6 La norme du vecteur cos(x) ∈ C([0, 2π]) par rapport au produit scalaire de
l’Exemple 5.1.3 est
s s 2π
Z 2π
1 x √
k cos(x)k = cos2 (x) dx = sin(x) cos(x) + = π.
0 2 2 0

Proposition 5.1.1 (Inégalité de Cauchy-Schwarz) Soit V un espace vectoriel avec produit sca-
laire. Pour tout u, v ∈ V on a |u • v| ≤ kuk · kvk.
Chapitre V 99

Démonstration Pour tout t ∈ R, on considère le vecteur u + tv ∈ V . Des propriétés du


produit scalaire on déduit que

0 ≤ (u + tv) • (u + tv) = u • u + 2tu • v + t2 v • v.

On a donc une expression de deuxième dégré en la variable t qui est non-négative pour
toute valeur de t. On en déduit que le discriminant de cette expression doit être non positif :

= (u • v)2 − (u • u)(v • v) ≤ 0.
4
Donc (u•v)2 ≤ (u•u)(v •v). En prenant la racine carrée des deux cotés on trouve l’inégalité
de Cauchy-Schwarz. 

Proposition 5.1.2 (Inégalité tringulaire) Soit V un espace vectoriel avec produit scalaire. Pour
tout u, v ∈ V on a ku + vk ≤ kuk + kvk.

Démonstration Calculons, en utilisant l’inégalité de Cauchy-Schwarz :

(u + v) • (u + v) = kuk2 + 2u • v + kvk2 ≤ kuk2 + 2kuk · kvk + kvk2 = (kuk + kvk)2

En prenant la racine carrée des deux cotés on trouve l’inégalité tringulaire. 

Remarque 5.1.2 Dans l’espace vectoriel R2 muni du produit scalaire standard, étant donnés
deux vecteurs u, v ∈ R2 nous pouvons considérer l’angle entre eux (ou, plus corectement,
les deux angles ϑ et 2π − ϑ, car il nous faut une notion d’orientation pour en choisir un). On
a alors l’intérpretation suivante du produit scalaire :

(5.1.2) u • v = kukkvk cos ϑ.

Soient en effet a = kuk, b = kvk et c = ku − vk. Découpons le triangle de cotés u, v, u − v

b u v
h c

# d
u
a

en deux triangles rectangles, de hauteur h = b sin ϑ et bases de longueur respectivement


b cos ϑ et d = a − b cos ϑ. On calcule alors c2 = ku − vk2 de deux façons : par le théorème de
Pythagore et par produit scalaire. On trouve d’une part

ku − vk2 = c2 = h2 + d2 = b2 sin2 ϑ + (a − b cos ϑ)2


= b2 sin2 ϑ + b2 cos2 ϑ + a2 − 2ab cos ϑ = b2 + a2 − 2ab cos ϑ
100 Produits scalaires et orthogonalité

et de l’autre
ku − vk2 = (u − v) • (u − v) = kuk2 + kvk2 − 2u • v.
En identifiant les deux expression et en simplifiant, on trouve bien l’égalité (5.1.2).

La Remarque précédente justifie la

Définition 5.1.3 Soit V un espace vectoriel avec produit scalaire, u, v ∈ V deux vecteurs non nuls.
On appelle (cosinus de) l’angle entre u et v le nombre ϑ défini par la formule
u•v
cos ϑ = .
kukkvk
u•v
Remarquons que, par l’Inégalité de Cauchy-Schwarz, le nombre kukkvk est en valeur
absolue inférieur ou égal à 1 : il est donc égal au cosinus d’un angle ϑ ∈ [0, 2π].

En particulier, si le cosinus de l’angle entre deux vecteurs est nul, on a envie de dire qu’il
sont othogonaux.

Définition 5.1.4 Soit V un espace vectoriel avec produit scalaire. Deux vecteurs u, v ∈ V sont dits
orthogonaux si u • v = 0.

Exemple 5.1.7 Dans C([0, 2π]) avec le produit scalaire de l’Exemple 5.1.3, les fonctions sin(x)
et cos(x) sont orthogonales, car
Z 2π  2π
1 2
sin(x) cos(x) dx = sin (x) = 0 − 0 = 0.
0 2 0

Exemple 5.1.8 Dans R3 avec le produit scalaire standard, cherchons les vecteurs du sous-
espace U = h(1, 2, 3), (3, 2, 1)i qui sont orthogonaux au vecteur v = (1, −1, 1). Les vecteurs
de U sont du type (α + 3β, 2α + 2β, 3α + β) ; ils sont orthogonaux à v si

(α + 3β, 2α + 2β, 3α + β) • (1, −1, 1) = α + 3β − 2α − 2β + 3α + β = 2α + 2β = 0.

Il faut donc que α = −β ; les vecteurs cherchés sont alors ceux du type (2β, 0, −2β), donc les
vecteurs du sous-espace h(1, 0, −1)i.

Définition 5.1.5 Soit V un espace vectoriel avec produit scalaire et S ⊆ V un sous-ensemble. On


appelle orthogonal de S l’ensemble des vecteurs orthogonaux à tout élément de S :

S ⊥ = {v ∈ V | v • s = 0} .

Proposition 5.1.3 L’orthogonal d’un sous-ensemble est un sous-espace.

Démonstration Soient v1 , v2 ∈ S ⊥ , donc v1 • s = v2 • s = 0 pour tout s ∈ S. Alors

(v1 + v2 ) • s = v1 • s + v2 • s = 0 + 0 = 0.

pour tour s ∈ S, donc v1 + v2 ∈ S ⊥ . De plus, pour tout α ∈ R

(αv1 ) • s = α(v1 • s) = α0 = 0

pour tour s ∈ S, donc αv1 ∈ S ⊥ . 


Chapitre V 101

Exemple 5.1.9 Dans R3 avec le produit scalaire standard, cherchons l’orthogonal du sous-
ensemble S = {(1, −1, 1)}, consistant en un seul vecteur. On a que (x, y, z) ∈ S ⊥ si et seule-
ment si
(x, y, z) • (1, −1, 1) = x − y + z = 0.
S ⊥ ets alors le sous-espace défini par cette équation ou encore, en choisisssant deux so-
lutions indépendantes, S ⊥ = h(1, 1, 0), (1, −1, −2)i. Remarquons que l’ensemble trouvé à
l’Exemple 5.1.8 n’est autre que U ∩ S ⊥ .

Remarque 5.1.3 Si S ⊆ T sont deux sous-ensembles, on a T ⊥ ⊆ S ⊥ (cau un vecteur de V


qui est orthogonal à tout vecteur de T est en particulier orthogonal à tout vecteur de S. En
particulier, hSi⊥ ⊆ S ⊥ : c’est en fait une égalité, car un vecteur othogonal à tous les vecteurs
de S est aussi orthogonal à une leur combinaison linéaire.

Remarque 5.1.4 On en déduit de la Remarque 5.1.3 que si V est un espace de type fini et
S ⊆ V est un sous-espace, alors

(5.1.3) dim S ⊥ = dim V − dim S.

Pour montrer cette formule, on peut choisir une base et identifier V = Rn (Corollaire 2.2.1).
En choisissant une base pour S = h(a1,1 , . . . , a1,n ), . . . , (ar,1 , . . . , ar,n )i on trouve que S ⊥ est
constitué des (x1 , . . . , xn ) ∈ Rn tels que

(x1 , . . . , xn ) • (a1,1 , . . . , a1,n ) = 0  a1,1 x1 + · · · + a1,n xn = 0

.. ⇐⇒ .. ..
.  . .
(x1 , . . . , xn ) • (ar,1 , . . . , ar,n ) = 0 ar,1 x1 + · · · + ar,n xn = 0

S ⊥ est donc donné par les solutions du système linéaire homogène de rang r = dim S et
donc dim S ⊥ = n − r (Théorème 2.5.1).

Proposition 5.1.4 Soit V un espace vectoriel de type fini avec produit scalaire et S ⊆ V un sous-
espace. Alors V = S ⊕ S ⊥ .

Démonstration Soit v ∈ S ∩ S ⊥ . Puisque v ∈ S ⊥ il est orthogonal à tout vecteur de S et en


particulier à soi-même, car v ∈ S. Mais v • v = 0 implique v = 0 par la quatrième propriété
de la Définition 5.1.1. Donc la somme S + S ⊥ est directe. De plus S ⊕ S ⊥ ⊆ V et les deux
espaces ont même dimension, par la (5.1.3). Ils sont donc égaux par la Proposition 1.4.7. 

Définition 5.1.6 Soit V un espace vectoriel de type fini avec produit scalaire et S ⊆ V un sous-
espace. On appelle projection orthogonale (sur S ou sur S ⊥ ) les projections associées à la décompo-
sition V = S ⊕ S ⊥ .

Le calcul des projections orthogonales est particulièrement facile lorsque l’on dispose de
bases bien adaptées au produit scalaire.

Définition 5.1.7 Soit V un espace vectoriel avec produit scalaire. Une base {v1 , v2 , . . . , vn , . . .} est
dite orthonormale si 
0 i 6= j
vi • vj = .
1 i=j
102 Produits scalaires et orthogonalité

Par exemple, dans Rn avec le produit scalaire standard, la base canonique est orthornormale.
En fait, Rn avec son produit scalaire standard est le prototype de tout espace vectoriel de
type fini avec produit scalaire.

Remarque 5.1.5 Soit V un espace vectoriel avec produit scalaire et {v1 , v2 , . . . , vn , . . .} une
base orthonormale. Si v = α1 v1 + · · · + αn vn et w = β1 v1 + · · · + βn vn alors v • w =
α1 β1 + · · · + αn βn . C’est un simple calcul :
n X
X n n
X
v • w = (α1 v1 + · · · + αn vn ) • (β1 v1 + · · · + βn vn ) = αi βj vi • vj = αi βi .
i=1 j=1 i=1

Proposition 5.1.5 Soit V un espace vectoriel de type fini avec produit scalaire, {v1 , v2 , . . . , vn } une
base orthonormale. Les coordonnées de tout vecteur v ∈ V dans cette base sont données par produit
scalaire avec les vecteurs de la base :

(5.1.4) v = (v • v1 )v1 + (v • v2 )v2 + · · · + (v • vn )vn .

Démonstration Soit v = α1 v1 + · · · + αn vn l’ecriture de v dans la base. On calcule

v • vi = (α1 v1 + · · · + αn vn ) • vi = α1 v1 • vi + · · · + αn vn • vi = αi

puisque vj • vi = 0 si i 6= j. 

Exemple 5.1.10 Dans R3 avec le produit scalaire standard calculons les projections orthogo-
nales de (1, 1, 1) sur hSi = h(1, −1, 1)i et S ⊥ = h(1, 1, 0), (1, −1, −2)i (voir Exemple 5.1.9). Les
vecteurs {(1, −1, 1), (1, 1, 0), (1, −1, −2)} forment une base de R3 et un simple calcul montre
que les vecteurs de cette base sont orthogonaux entre eux. Pour obtenir une base orthornor-
male il suffit donc de diviser chaque vecteur de la base par sa norme. On a donc la base
orthonormale { √13 (1, −1, 1), √12 (1, 1, 0), √16 (1, −1, −2)} et on calcule alors

1 1 1 2 1 −2
(1, 1, 1) • √ (1, −1, 1) = √ ; (1, 1, 1) • √ (1, 1, 0) = √ ; (1, 1, 1) • √ (1, −1, −2) = √ .
3 3 2 2 6 6

Donc phSi (1, 1, 1) = 13 (1, −1, 1) et pS ⊥ (1, 1, 1) = (1, 1, 0) − 31 (1, −1, −2) = ( 32 , 43 , 23 ).

La Proposition 5.1.5 nous dit que les calculs dans les espaces avec produits scalaire sont
particulièrement simples si on dispose d’une base orthonormale. Il est donc bon se savoir
que de telles bases existent toujours et comment les construire.
Soit V un espace vectoriel de type fini et {v1 , . . . , vn } des générateurs de V . Nous allons
construire une base orthonormale {w1 , . . . , wm } de V par le procédé de Gram-Schmidt :
v1
Étape 1 Si v1 = 0, on l’élimine de la liste. Autrement, on pose w1 = kv1 k .
Étape 2 On pose w20 = v2 − (v2 • w1 )w1 . Si w20 = 0, on l’élimine de la liste. Autrement, on
w0
pose w2 = kw20 k .
2
Étape 3 On pose w30 = v3 − (v3 • w1 )w1 − (v3 • w2 )w2 . Si w30 = 0, on l’élimine de la liste.
w0
Autrement, on pose w3 = kw30 k .
3
Chapitre V 103

..
.
Étape k On pose wk0 = vk − (vk • w1 )w1 − · · · − (vk • wk−1 )wk−1 . Si wk0 = 0, on l’élimine de
wk0
la liste. Autrement, on pose wk = kwk0 k
.
..
.
Proposition 5.1.6 Soit V un espace vectoriel avec produit scalaire et {v1 , . . . , vn } des générateurs.
Les vecteurs {w1 , . . . , wm } contruits par le procédé de Gram-Schmidt sont une base orthonormale
de V .
w0
Démonstration Puisque par définition wi = kwi0 k , tous les vecteurs sont de norme 1. Le
i
reste de la démonstration se fait par récurrence. Soit V = hv1 , . . . , vn , vn+1 i et supposons
d’avoir construit, par le procédé de Gram-Schmidt une base orthonormale {w1 , . . . , wm } du
0
sous-espace hv1 , . . . , vn i. Posons wm+1 = vn+1 − (vn+1 • w1 )w1 − · · · − (vn+1 • wm )wm . Si
0
wm+1 = 0, le vecteur vn+1 est combinaison linéaire de w1 , . . . , wm et ces vecteurs forment
bien une base orthonormale pour V . Autrement, on calcule
0
wm+1 • wi = [vn+1 − (vn+1 • w1 )w1 − · · · − (vn+1 • wi )wi − · · · − (vn+1 • wm )wm ] • wi
= vn+1 • wi − (vn+1 • w1 )(w1 • wi ) − · · · − (vn+1 • wi )(wi • wi ) − . . .
· · · − (vn+1 • wm )(wm • wi )
= vn+1 • wi − vn+1 • wi = 0
0
wm+1
puisque wj • wi = 0 pour i 6= j et wi • wi = 1. Donc wm+1 = 0
kwm+1 k
est orthogonal à tous
les wi , pour 1 ≤ i ≤ m et donc {w1 , . . . , wm , wm+1 } est une base orthonormale de V . 
Corollaire 5.1.1 Tout espace vectoriel de type fini muni de produit scalaire admet une base orthor-
normale.
Démonstration Joindre le Théorème 1.4.1 avec la Proposition 5.1.6.
Exemple 5.1.11 Savoir que tout espace admet une base orthonormale aurait permi d’econo-
miser sur les calculs à l’Exemple 5.1.10. Il suffit en effet de calculer une base orthonormale
pour hSi = h(1, −1, 1)i, invoquer le Corollaire 5.1.1 pour dire que R3 admet une base or-
thonormale du type { √13 (1, −1, 1), w2 , w3 } (sans calculer w2 , w3 , qui par définition même
forment une base orthonormale de S ⊥ ) puis invoquer la Proposition 5.1.5 pour conclure que
1
(1, 1, 1) = (1, 1, 1) • √ (1, −1, 1) + (1, 1, 1) • w2 + (1, 1, 1) • w3 .
3
On en déduit que phSi (1, 1, 1) = 13 (1, −1, 1) et on calcule la projection sur S ⊥ par différence :
pS ⊥ (1, 1, 1) = (1, 1, 1) − phSi (1, 1, 1) = ( 32 , 43 , 23 ).
Exemple 5.1.12 Dans R4 avec le produit scalaire standard, déterminons une base ortho-
normale du sous-espace W = h(1, 2, 1, 2), (0, 1, 0, 1), (1, 1, 1, 0), (0, 0, 0, 1)i par le procédé de
Gram-Schmidt :
w1 = √110 (1, 2, 1, 2)
w20 = (0, 1, 0, 1) − 10
4
(1, 2, 1, 2) = (− 25 , 15 , − 25 , 15 ) ⇒ w2 = √110 (−2, 1, −2, 1)
w30 = (1, 1, 1, 0) − 10
4
(1, 2, 1, 2) − −3 5
10 (−2, 1, −2, 1) = (0, 10 , 0, − 10 )
5

1
w3 = √2 (0, 1, 0, −1)
w40 = (0, 0, 0, 1) − 10
2 1
(1, 2, 1, 2) − 10 (−2, 1, −2, 1) − −1 2 (0, 1, 0, −1) = (0, 0, 0, 0).
104 Produits scalaires et orthogonalité

On a donc que { √110 (1, 2, 1, 2), √110 (−2, 1, −2, 1), √12 (0, 1, 0, −1)} est une base orthonormale
pour W . Soulignons qu’il n’a pas été nécessaire de vérifier préalablement l’indépendance
des générateurs de départ : le procédé de Gram-Schmidt élimine automatiquement les vec-
teurs liés.

Remarque 5.1.6 Le procédé de Gram-Schmidt permet de construire des bases orthonor-


males même pour des espaces qui ne sont pas de type fini mais de dimension dénombrable,
tel l’espace des polynômes R[t] (voir Remarque 1.4.9), avec des applications très utiles en
Calcul Numérique (polynômes orthogonaux). Ce fait est aussi à la base de la théorie des
Séries de Fourier, très utile en acoustique, optique, théorie des signaux etc : on construit une
base orthonormale (infinie), formée par des fonctions trigonometriques, d’un certain sous-
espace de l’espace des fonctions continues C(I) muni du produit scalaire de l’Exemple 5.1.3
(l’orthogonalité entre les vecteurs de cette base étant donnée par des du même type que
ceux de l’Exemple 5.1.7). Dans les applications, les fonctions utiles peuvent être approximées
aussi bien que l’on veut par des combinaisons linéaires de ces fonctions trigonometriques.

Terminons cette section en introduisant une notion souvent utilisé en Physique et en


Mécanique.

Définition 5.1.8 Soient u = (a, b, c) et v = (a0 , b0 , c0 ) deux vecteurs de R3 . Le produit vectoriel


de u et v est le vecteur
      
b c a c a b
u ∧ v = det 0 0 , − det 0 0 , det 0 0 .
b c a c a b

Remarque 5.1.7 Bien que la formule suivante n’ait pas vraiment de sens, il est pratique de
visualiser le produit vectoriel comme un déterminant formel
 
e1 e2 e3      
b c a c a b
u ∧ v = det  a b c  = det 0 0 e1 − det 0 0 e2 + det 0 0 e3
b c a c a b
a0 b0 c0

d’une matrice dont la première ligne est formée des vecteurs de la base canonique de R3 (les
textes de Physique et Mécanique utilisent le plus souvent la notation i = e1 , j = e2 , k = e3 ).

Proposition 5.1.7 Le produit vectoriel

∧ : R3 × R3 −→ R3
(u, v) 7−→ u ∧ v

satisfait les propriétés suivantes :


1. u ∧ v est orthogonal à u et v ;
2. u ∧ v = 0 ⇐⇒ dimhu, vi ≤ 1 ;
3. v ∧ u = −u ∧ v pour tout u, v ∈ R3 ;
4. (u1 + u2 ) ∧ w1 = u1 ∧ w1 + u2 ∧ w1 et u1 ∧ (w1 + w2 ) = u1 ∧ w1 + u1 ∧ w2 pour tout
u1 , u2 , v1 , v2 ∈ R3 ;
5. (λu) ∧ v = λ(u ∧ v) = u ∧ (λv) pour tout u, v ∈ R3 et tout λ ∈ R ;
Chapitre V 105

6. ku ∧ vk = kuk kvk | sin ϑ| pour tout u, v ∈ R3 , où ϑ ets l’angle entre les vecteurs u et v.

Démonstration Sauf la dernière, toutes les propriétés de l’énoncé suivent des propriétés des
déterminants. Précisement, la première propriété suit de l’Exemple 3.1.2 ; la deuxième suit
du Corollaire 3.1.2 ; la toisième suit du Lemme 3.1.1, énoncé 1 ; la quatrième et cinquième
suivent des deux premiers énoncés du Théorème 3.1.1. La dernière propriété suit de la for-
mule (5.1.2) et d’un un calcul explicite :

ku ∧ vk2 = (bc0 − cb0 )2 + (ac0 − ca0 )2 + (ab0 − ba0 )2


= (a2 + b2 + c2 )(a0 2 + b0 2 + c0 2 ) − (aa0 + bb0 + cc0 )2
= kuk2 kvk2 − (u • v)2
= kuk2 kvk2 − kuk2 kvk2 cos2 ϑ
= kuk2 kvk2 sin2 ϑ.


Remarque 5.1.8 La formule ku ∧ vk = kuk kvk | sin ϑ| permet d’interpréter la norme du pro-
duit vectoriel u ∧ v comme l’aire du parallélogramme de cotés u et v. Comme conséquence,
si w est un troisième vecteur, on peut considérer le produit scalaire w • (u ∧ v) (dit produit
mixte). La valeur absolue de ce nombre réel est alors égale au volume du parallélépipède de
cotés u, v et w.

§ 2 Approximation
On a vu qu’un produit scalaire permet d’introduire une notion de distance dans les es-
paces vectoriels. Cela permet de dire que deux vecteurs sont proches ou moins et est donc à
la base de la téorie de l’approximation. Le resultat théorique utilisé par toutes les techniques
de calcul est le suivant.

Théorème 5.2.1 Soit V un espace de type fini muni d’un produit scalaire, W ⊆ V un sous-espace
et v0 ∈ V . La fonction norme sur la variété linéaire v0 + W

k k : v0 + W −→ R
v 7−→ kvk

admet un minimum unique en pW ⊥ (v0 ).

Démonstration Remarquons pour commencer que pW ⊥ (v0 ) = v0 − pW (v0 ) ∈ v0 + W , donc


l’énoncé a bien un sens. Soit v = v0 + w, avec w ∈ W , un quelconque vecteur de la variété
linéaire. On a
kvk2 = kv0 + wk2 = kpW ⊥ (v0 ) + pW (v0 ) + wk2
= (pW ⊥ (v0 ) + pW (v0 ) + w) • (pW ⊥ (v0 ) + pW (v0 ) + w)
= kpW ⊥ (v0 )k2 + 2pW ⊥ (v0 ) • (pW (v0 ) + w) + kpW (v0 ) + wk2
= kpW ⊥ (v0 )k2 + kpW (v0 ) + wk2

où à la dernière ligne nous avons utilisé le fait que pW ⊥ (v0 ) ∈ W ⊥ est orthogonal aux
vecteurs de W . Puisque kpW (v0 ) + wk2 est non négatif, et nul si et seulement si pW (v0 ) +
106 Produits scalaires et orthogonalité

w = 0, on bien que kvk ≥ kpW ⊥ (v0 )k2 , avec égalité si et seulement si w = −pW (v0 ), soit
v = pW ⊥ (v0 ). 

Remarquons que si v0 ∈ W on a que v0 + W = W est un sous-espace, et le minimum est


bien sûr atteint en 0 = pW ⊥ (v0 ).

Corollaire 5.2.1 Soit V un espace de type fini muni d’un produit scalaire, W ≤ V un sous-espace
et v0 ∈ V . La fonction
k k : W −→ R
w 7−→ kw − v0 k
admet un minimum unique en pW (v0 ).

Soient A ∈ M (m × n, R) et b ∈ Rm . Le Théorème 2.5.1 donne un critère simple pour


établir si le système linéaire Ax = b admet des solutions ou pas : le système est résoluble
si et seulement si le vecteur b appartient au sous-espace vectoriel C ≤ Rm engendré par les
colonnes de la matrice A.
Dans les applications, on rencontre souvent des systèmes non résolubles. Nous nous
proposons ici de discuter ce que l’on peut dire dans ce cas.
Si il n’existe aucun vecteur v ∈ Rn tel que Av = b, le mieux qu’on puisse espérer est une
solution approximée : un vecteur v ∈ Rn tel que Av soit ”le plus proche possible” de b. Une
réponse précise à cette question est fournie par le Corollaire 5.2.1 : la meilleure approxima-
tion de b par un vecteur de C est donnée par la projection orthogonale pC (b) de b sur C.
Par définition, le vecteur pC (b) appartient au sous-espace C : il suit donc du théorème 2.5.1
que le système Ax = pC (b) est résoluble. On a donc démontré la

Proposition 5.2.1 Les solutions approximées du système linéaire Ax = b sont les solutions du
système linéaire résoluble Ax = pC (b), où C est le sous-espace vectoriel engendré par les colonnes
de la matrice A.

Bien que théoriquement satisfaisante, cette solution n’est pas très pratique : pour trouver
les solutions approximées du système nous devrions d’abord calculer la projection orthogo-
nale de b sur C, ce qui demande de calculer une base orthonormale pour C par le procédé
de Gram-Schmidt, et en suite résoudre le système. En fait, il y a une méthode bien plus
simple, en se souvenant que C est égal à l’image de la fonction fA associée à la matrice A
(voir Corollaire 2.3.1). Autrement dit, le sous-espace vectoriel C engendré par les colonnes
de la matrice A est égal à l’ensemble de tous les vecteurs de Rm de la forme Aw, pour tout
w ∈ Rn .
Revenant au problème du calcul des solutions approximées, on a donc que v ∈ Rn est
une solution approximée du système Ax = b si Av = pC (b) ; cela peut s’exprimer aussi en
disant que
Av − b ∈ C ⊥ .
Il faut donc que Av − b soit orthogonal à tous les vecteurs de C. Vu que C = Im fA , cela se
traduit par

(5.2.1) Aw • (Av − b) = 0 ∀ w ∈ Rn .
Chapitre V 107

Rappelons que le produit scalaire standard s’exprime comme une multiplication matri-
cielle (formule (5.1.1)). La condition (5.2.1) se traduit alors par :

Aw • (Av − b) = t (Aw) (Av − b) = t w t A (Av − b) = w • t



(5.2.2) A (Av − b) = 0

pour tout w ∈ Rn .
Autrement dit, le vecteur t A (Av − b) = t AAv − t Ab est orthogonal a tous les vecteurs de
Rn . Mais le seul vecteur de Rn orthogonal a tous les vecteurs de Rn est le vecteur nul. Donc
la condition (5.2.2) veut simplement dire que t AAv − t Ab = 0 ou encore
t
(5.2.3) AAv = t Ab.

On a donc finalement démontré le

Théorème 5.2.2 Les solutions approximées du système linéaire Ax = b sont les solutions du
système linéaire résoluble t AAx = t Ab.

Exemple 5.2.1 Calculons les solutions approximées du système linéaire :



 x+y =1
x + 2y = 0 .
x + 3y = 2

La matrice et la matrice augmentée du systeme sont réspéctivement


   
1 1 1 1 1
A = 1 2  ; (A|b) =  1 2 0 
1 3 1 3 2

Puisque det(A|b) = 3 6= 0, la matrice augmentée est de rang 3 alors que A, n’ayant que deux
colonnes, est de rang au plus 2, donc le système n’est pas résoluble. On calcule alors
 
    1 1  
t 1 1 1 t 1 1 1  3 6
A= ; AA = 1 2 = .
1 2 3 1 2 3 6 14
1 3

On doit donc résoudre le système


 
     1  
3 6 x 1 1 1   3
= 0 = .
6 14 y 1 2 3 7
2

La forme échélonnée de la matrice augmentée de ce nouveau système est


1
      
3 6 3 3 L1 1 2 1 1 2 1

x + 2y = 1
.
6 14 7 6 14 7 L2 − 6L1 0 2 1 2y = 1

Il y a donc une unique solution approximée : x = 0, y = 12 .


108 Produits scalaires et orthogonalité

§ 3 Isométries

Définition 5.3.1 Soient V et W deux espaces vectoriels, chacun muni d’un produit scalaire. Une
isométrie de V est une fonction linéaire f : V → W qui conserve le produit scalaire :

f (v1 ) •W f (v2 ) = v1 •V v2 ∀ v1 , v2 ∈ V.

Remarque 5.3.1 Si f : V → W est une isométrie, pour tout v ∈ V on a


p √
kf (v)k = f (v) •W f (v) = v •V v = kvk.

Cela justifie la terminologie : une isométrie conserve les longueurs. En particulier f (v) = 0
implique v = 0 donc une isométrie est injective (et même bijective si dim V = dim W , par le
Corollaire 2.1.1).

Remarque 5.3.2 Si f : V → W et g : W → U sont des isométries, g ◦ f : V → U est une


isométrie, car
(g(f (v1 )) •U (g(f ((v2 )) = f (v1 ) •W f (v2 ) = v1 •V v2 .

Remarque 5.3.3 Si f : V → W est une isométrie inversible, son inverse f −1 est aussi une
isométrie car, f étant une isométrie,

f −1 (w1 ) •V f −1 (w2 ) = f f −1 (w1 ) •W f f −1 (w2 ) = w1 •W w2


 

pour tout w1 , w2 ∈ W .

La notion d’isométrie permet de préciser le Corollaire 2.2.1 dans le cas des espaces avec
produit scalaire.

Proposition 5.3.1 Tout espace vectoriel de type fini V muni de produit scalaire admet une isométrie
ϕ : V → Rdim V .

Démonstration Soit B = {v1 , . . . , vn } un base orthonormale de V , dont l’existence est ga-


rantie par le Corollaire 5.1.1, et ϕ : V → Rn l’unique fonction linéaire définie par ϕ(vi ) = ei
(voir Proposition 2.2.1). Puisque l’image d’un vecteur de V est donné par le n-plet de ses
coordonnées dans la base B, la Remarque 5.1.5 nous dit que ϕ est une isométrie. Souli-
gnons que ϕ est un isomorphisme, comme on l’a vu au cours de la démonstration du Corol-
laire 2.2.1 ; c’est aussi une conséquence de la Remarque 5.3.1. 

Considérons l’espace Rn avec le produit scalaire standard. Soit f : Rn → Rn un en-


domorphisme et A = M (f ; En ) sa matrice dans la base canonique. En se souvenant que
le produit scalaire standard s’exprime par multiplication matricielle des vecteurs colonne
des coordonnées (formule (5.1.1)) et que les coordonnées de f (x) sont données par Ax (Re-
marque 2.3.1), on trouve que f est une isométrie si et seulement si
t
xy = x • y = f (x) • f (y) = t (Ax) Ay = t x t AA y ∀ x, y ∈ Rn .

(5.3.1)

Proposition 5.3.2 Un endomorphisme f : Rn → Rn est une isométrie si et seulement si sa matrice


dans la base canonique A = M (f ; En ) satisfait la relation t AA = In .
Chapitre V 109

Démonstration Il suit de la formule (5.3.1) et de la Remarque 2.3.2 (en prenant x = ei et


y = ej ) que l’élément sur la i-eme ligne j-ème colonne de t AA est égal à ei • ej , donc
t AA = I . 
n

Définition 5.3.2 Une matrice A ∈ M (n × n, R) telle que t AA = In est dite orthogonale.

Remarque 5.3.4 Puisque la multiplication matricielle se fait ligne par colonne et puisque les
lignes de t A sont les transposées des colonnes de A, la relation t AA = In dit que le produit
scalaire standard entre la i-eme et la j-ème colonne de A est nul si i 6= j et égal à 1 si i = j. Il
est donc équivalent de dire que A est orthogonale ou bien que ses colonnes forment une base
orthonormale de Rn . En particulier, A est de rang n, donc inversible, et la relation t AA = In
peut aussi s’écrire A−1 = t A.

Proposition 5.3.3 Soient A, B ∈ M (n × n, R) matrices orthogonales.


1. La matrice AB est orthogonale ;
2. det(A) = ±1 ;
3. si λ ∈ R est valeur propre de A, alors λ = ±1.

Démonstration On calcule t (AB)AB = t B t AAB = t BIn B = t BB = In . De plus

1 = det(In ) = det(t AA) = det(t A) det(A) = det(A)2 =⇒ det(A) = ±1.

Enfin si λ ∈ R est valeur propre, il existe v 6= 0 tel que Av = λv. Alors


kvk
kvk = kAvk = kλvk = |λ|kvk =⇒ |λ| = = 1.
kvk
Remarquons qu’il est fort possible qu’une matrice orthogonale ait des valeurs propres λ ∈ C
avec λ ∈
/ R. C’est le cas par exemple des rotations (voir Exemple 5.3.1 ci-dessous). 

Corollaire 5.3.1 Soit f : V → W une isométrie entre espaces vectoriels munis de produits scalaires.
Si dim V = dim W , la matrice de f dans des bases orthonormales est une matrice orthogonale.

Démonstration Soient B et C des bases orthonormales pour V et W respéctivement et


soient ϕ : Rn → V et ψ : Rn → W les isométries envoyant la base canonique de Rn
respéctivement sur B et C (voir Proposition 5.3.1). Les Remarques 5.3.2 et 5.3.3 nous disent
que χ = ψ −1 ◦ f ◦ ϕ : Rn → Rn est une isométrie. Puisque, par construction, M (ϕ; En , B) =
M (ψ; En , C ) = In la Proposition 2.4.2 entraı̂ne que A = M (f ; B, C ) = M (χ; En ) et cette
dernière est orthogonale par la Proposition 5.3.2, χ étant une isométrie de Rn . 

Donnons en conclusion la classification complète des isométries du plan et de l’espace


tridimensionnel.
 
a b
Exemple 5.3.1 Soit A = une matrice orthogonale. Alors
c d
 2
    2 2
    a + c2 = 1
a c a b a + c ab + cd 1 0
= = =⇒ ab + cd = 0
b d c d ab + cd b2 + d2 0 1  2
b + c2 = 1.
110 Produits scalaires et orthogonalité

De la première équation, on déduit qu’in existe un unique ϑ ∈ [0, 2π) tel que a = cos ϑ et c =
sin ϑ. L’ensemble des solutions de la deuxième équation est le sous-espace h(sin ϑ, − cos ϑ)i.
En tenant compte de la troisième équation, on a deux possibilités
 
b = sin ϑ b = − sin ϑ
ou bien
d = − cos ϑ d = cos ϑ.

Les deux cas se distinguent


 parle signe de det(A).
cos ϑ sin ϑ
Si A = , son polynôme caractéristique est p(t) = t2 − 1. Ayant deux valeurs
sin ϑ − cos ϑ
propres distinctes, elle est diagonalisable (Corollaire 4.2.1). Pour calculer les espaces propres,
il convient d’étudier comment A transforme les vecteurs du type (cos ϕ, sin ϕ) :
      
cos ϑ sin ϑ cos ϕ cos ϑ cos ϕ + sin ϑ sin ϕ cos(ϑ − ϕ)
= = .
sin ϑ − cos ϑ sin ϕ sin ϑ cos ϕ − cos ϑ sin ϕ sin(ϑ − ϕ)

Un vecteur propre de valeur propre 1 du type (cos ϕ, sin ϕ) doit donc satisfaire

cos ϕ = cos(ϑ − ϕ) ϑ
⇐⇒ ϕ = ϑ − ϕ ⇐⇒ ϕ = .
sin ϕ = sin(ϑ − ϕ) 2

De même, un vecteur propre de valeur propre −1 du type (cos ϕ, sin ϕ) doit satisfaire

cos ϕ = − cos(ϑ − ϕ) ϑ+π
⇐⇒ ϕ = ϑ − ϕ + π ⇐⇒ ϕ = .
sin ϕ = − sin(ϑ − ϕ) 2

Donc V (1) = h(cos ϑ2 , sin ϑ2 )i et V (−1) = h(cos ϑ+π ϑ+π


2 , sin 2 )i et l’exemple 4.2.3 nous dit que
notre isométrie
 est la symètrie
 d’axe V (1).
cos ϑ − sin ϑ
Si A = , son polynôme caractéristique est p(t) = t2 − (2 cos ϑ)t + 1. Puisque
sin ϑ cos ϑ
∆ = 4(cos2 ϑ − 1) = −4 sin2 ϑ ≤ 0, la matrice n’a pas de valeurs propres réelles sauf si
sin ϑ = 0, soit quand ϑ = 0 (et alors A = In ) ou bien ϑ = π (et alors A = −In ). On a
      
cos ϑ − sin ϑ cos ϕ cos ϑ cos ϕ − sin ϑ sin ϕ cos(ϑ + ϕ)
= = .
sin ϑ cos ϑ sin ϕ sin ϑ cos ϕ + cos ϑ sin ϕ sin(ϑ + ϕ)

A est donc la matrice d’une rotation d’angle ϑ.

Remarque 5.3.5 Dans le cas de la symétrie, on a V (−1) = V (1)⊥ : il s’agit d’une symètrie
orthogonale. Remarquons que ce cas se distingue de l’autre aussi par le fait que la matrice A
est dans ce cas symètrique. Nous verrons au numéro suivant que toute matrice symètrique
est diagonalisable et que ses espaces propres sont orthogonaux entre eux.

Exemple 5.3.2 Soit A ∈ M (3 × 3, R) une matrice orthogonale. Le polynôme caractéristique


de A est de dégré 3 et admet donc une racine réelle (voir Corollaire A.3), qui doit être 1 ou
−1 par la Proposition 5.3.3. Fixons un vecteur propre v1 pour cette valeur propre ; quitte
à le diviser par sa norme, nous pouvons supposer que kv1 k = 1. Soit encore {v2 , v3 } une
base orthonormale pour hv1 i⊥ , de sorte que B = {v1 , v2 , v3 } est une base orthonormale de
Chapitre V 111

R3 . Ces vecteurs sont les colonnes de matrice H = M (idR3 ; B, E3 ), qui est donc orthogo-
nale (Remarque 5.3.4). La Proposition 5.3.3 implique alors que la matrice B = H −1 AH est
orthogonale. C’est la matrice de l’isométrie fA dans la base B, par suite elle est de la forme
 
±1 0 0  
a b
B=  0 a b  avec ∈ M (2 × 2, R) orthogonale.
c d
0 c d

La classification des isométries en dimension 3 est donc ramenée à celle en dimension 2 : on


a quatre types possibles
   
1 0 0 1 0 0
B1 = 0 cos ϑ sin ϑ  ; B2 = 0 cos ϑ − sin ϑ ;
0 sin ϑ − cos ϑ 0 sin ϑ cos ϑ
   
−1 0 0 −1 0 0
B3 =  0 cos ϑ sin ϑ  ; B4 =  0 cos ϑ − sin ϑ .
0 sin ϑ − cos ϑ 0 sin ϑ cos ϑ
De la classification en dimension 2 on tire que B1 est une symètrie d’axe le plan V (1) =
h(1, 0, 0), (0, cos ϑ2 , sin ϑ2 )i, B2 est une rotation d’angle ϑ autour de l’axe V (1) = h(1, 0, 0)i, B3
est une symètrie d’axe la droite V (1) = h(0, cos ϑ2 , sin ϑ2 )i et B4 est une rotation d’angle ϑ
autour de l’axe V (1) = h(1, 0, 0)i composée avec la symètrie d’axe le plan h(0, 1, 0), (0, 0, 1)i,
car
     
−1 0 0 1 0 0 1 0 0 −1 0 0
B4 =  0 1 0 0 cos ϑ − sin ϑ = 0 cos ϑ − sin ϑ  0 1 0 .
0 0 1 0 sin ϑ cos ϑ 0 sin ϑ cos ϑ 0 0 1

§ 4 Matrices symétriques

Définition 5.4.1 Une matrice A ∈ M (n × n, R) est dite orthogonalement diagonalisable si il


existe une matrice diagonale D et une matrice orthogonale H telles que H −1 AH = t HAH = D.

Suite à la Proposition 4.2.1, il revient au même de dire que A admet une base orthonor-
male de vecteurs propres. Pour vérifier si une matrice est orthogonalement diagonalisable,
il suffit de vérifier qu’elle est diagonalisable et que les espaces propres sont orthogonaux
entre eux car, par le procédé de Gram-Schmidt, on peut construire une base orthonormale
pour chaque espace propre et, si ces espaces sont orthogonaux entre eux, la réunion de ces
bases est encore une base orthonormale de Rn .
Remarquons que si A est orthogonalement diagonalisable, alors A est une matrice symé-
trique car

A = HD t H t
A = t HD t H = H t D t H = HD t H = A.

=⇒

En fait, la réciproque est aussi vraie :


112 Produits scalaires et orthogonalité

Théorème 5.4.1 Toute matrice symètrique est orthogonalement diagonalisable.

Démonstration Soit A ∈ M (n × n, R) une matrice symètrique. La démonstration se fait en


trois étapes
a) Le polynôme caractéristique pA (t) de A est complètement réductible.
b) Les espaces propres de A sont orthogonaux entre eux.
c) A est diagonalisable.
(a) Soit λ ∈ C une racine de pA (t), donc λ est valeur propre de la matrice A ∈ M (n × n, R) ⊂
M (n × n, C) : il existe donc un vecteur non nul z = (z1 , . . . , zn ) ∈ Cn tel que Az = λz. Pour
toute matrice M = (mi,j ) ∈ M (p × q, C) à coèfficients complexes, posons M = (mi,j ), la
matrice obtenue à partir de M en prenant le conjugué de tous les coéfficients. En particulier,
en prenant z = (z 1 , . . . , z n ), nous avons que le produit
 
z1
t  .. 
zz = (z1 , . . . , zn )  .  = z1 z 1 + · · · + zn z n = |z1 |2 + · · · + |zn |2
zn

est un nombre réel positif car, z étant vecteur propre, au moins un des zi est non nul. Posons
c = t zz. Alors, puisque t A = A (car A est symètrique) et A = A (car les coéfficients de A sont
réels) nous avons

λc = t (λz)z = t (Az)z = t zAz = t zAz = t zλz = λt zz = λc.

Donc c(λ − λ) = 0 et, puisque c 6= 0, il faut λ = λ, c’est à dire λ ∈ R (voir Proposition A.1).
Le polynôme caractéristique de A est complètement réductible sur C (Théorème fondamen-
tal de l’Algèbre) et nous venons de voir que toutes ses racines sont réelles : pA (t) est donc
complètement réductible sur R.
(b) Soient λ 6= µ deux valeurs propres de A et soient x = (x1 , . . . , xn ) et y = (y1 , . . . , yn )
vecteurs propres de valeurs propres respéctivement λ et µ, donc Ax = λx et Ay = µy. Alors

λ x • y = t (λx)y = t (Ax)y = t xAy = t (µy) = µ x • y.

Donc (λ − µ)x • y = 0 et, puisque λ 6= µ, il suit que x • y = 0. Vecteurs propres de valeurs


propres différentes sont donc orthogonaux. Par suite les espaces propres de A sont deux à
deux othogonaux.
(c) Montrons que A est diagonalisable par récurrence sur n. Si n = 1 il n’y a rien à montrer.
Supposons donc que toute matrice symètrique (n − 1) × (n − 1) soit diagonalisable. Soit v
un vecteur propre de A de valeur propre λ et soit W = hvi⊥ . C’est donc un sous-espace de
dimension n − 1 et on a la décomposition

Rn = hvi ⊕ W.

Soit fA l’endomorphisme de Rn de matrice A dans la base canonique (Corollaire 2.3.1). Re-


marquons que l’image par fA d’un vecteur de W appartient encore à W , c’est à dire qu’elle
est orthogonale à v. En effet, si v = (x1 , . . . , xn ) et w = (y1 , . . . , yn ) alors

v • fA (w) = t v(Aw) = t (Av)w = λt v • w = 0.


Chapitre V 113

Donc l’endomorphisme fA transorme le sous-espace W = hvi⊥ en soi-même. Choisissons


maintenant une base orthonormale v1 = kvv11 k de hvi et une base orthonormale {w2 , . . . , wn }
de W (une telle base existe grâce au Corollaire 5.1.1). En les joignant, on trouve une base
orthonormale de Rn . Donc la matrice H du changement de la base {v1 , w2 , . . . , wn } à la
base canonique est une matrice orthogonale (Corollaire 5.3.1 pour f = idRn ). La matrice
t HAH, qui est encore symètrique, est la matrice de f dans la base {v , w , . . . , w }.
A 1 2 n
Puisque fA (v1 ) = λv1 et fA transforme W en soi-même, cette matrice est de la forme
 
λ 0 ··· 0  
 0 b2,2 . . . b2,n  b2,2 . . . b2,n
t
HAH =  . . . Posons B =  ... ..
.
   
.. .
 .. .. . 
bn,2 · · · bn,n
0 bn,2 · · · bn,n

Puisque t HAH est symètrique, B l’est aussi. Par hypothèse de récurrence, toute matrice
symètrique (n − 1) × (n − 1) est diagonalisable. Donc B est diagonalisable : il existe une
matrice orthogonale K ∈ M ((n − 1) × (n − 1), R) telle que t KBK est diagonale. On a alors
que la matrice
   
1 0 ... 0 λ 0 ··· 0 1 0 ... 0
 0   0 b2,2 . . . b2,n   0 
   
 .. . . . .
  .. .. ..   ..
tK
    
 . K 
0 0 bn,2 · · · bn,n 0

est diagonale. Donc A est semblable à une matrice diagonalisable et est par suite diagonali-
sable. 

§ 5 Formes bilinéaires et quadratiques


Terminons ce chapı̂tre par quelques notions sur la théorie des formes bilinéaires et qua-
dratiques. Ces outils jouent un rôle éssentiel dans l’étude des points stationnaires des fonc-
tions de plusieurs variables (maximum et minimum locaux et globaux, points de selle etc.).

Définition 5.5.1 Soit A ∈ M (n × n, R) une matrice symétrique. La forme bilinéaire définie par
A est l’opération
bA : Rn × Rn −→ R
(v1 , v2 ) 7−→t (Av1 ) v2 .

Autrement dit bA (v1 , v2 ) = (Av1 ) • v2 . Il suit immédiatement des propriétés de la mul-


tiplication matricielle qu’une forme bilinéaire satisfait les trois premières propriétés de la
Définition 5.1.1. C’est afin d’assurer la commutativité que nous avons besoin de l’hypothèse
de symétrie sur A :

bA (v1 , v2 ) =t (Av1 ) v2 = t v1 Av2 = t t v1 Av2 = t v2 Av1 =t (Av2 ) v1 = bA (v2 , v1 ).




Exemple 5.5.1 Le produit scalaire standard est la forme bilinéaire associée à la matrice iden-
tité. Le produit de l’Exemple 5.1.2 est la forme bilinéaire associée à la matrice diagonale de
valeurs propres 3, 2, 4.
114 Produits scalaires et orthogonalité

Définition 5.5.2 Soit A ∈ M (n × n, R) une matrice symètrique. La forme quadratique associée


à A est l’expression
qA (x1 , . . . , xn ) = bA (x1 , . . . , xn , x1 , . . . , xn ).

Par exemple la forme quadratique associée à un produit scalaire est le carré de la norme :
qIn (x1 , . . . , xn ) = x21 + · · · + x2n ou encore, pour le produit de l’Exemple 5.1.2, q(x1 , x2 , x3 ) =
3x21 + 2x22 + 4x23 . En fait, au vu de la dernière propriété de la Définition 5.1.1, on peut dire
qu’une forme bilinéaire est un produit scalaire si et seulement si

bA (x, x) = qA (x) > 0 ∀ x ∈ Rn , x 6= 0.

Définition 5.5.3 Soit A ∈ M (n×n, R) une matrice symétrique. Nous dirons que la forme bilinéaire
bA est
1. définie positive si qA (x) > 0 ∀ x ∈ Rn , x 6= 0.
2. définie non négative si qA (x) ≥ 0 ∀ x ∈ Rn .
3. définie non positive si qA (x) ≤ 0 ∀ x ∈ Rn .
4. définie négative si qA (x) < 0 ∀ x ∈ Rn , x 6= 0.
5. indéfinie si il existe x, y ∈ Rn tels que qA (x) > 0 et qA (y) < 0.

Afin d’étudier ces proprétés pour une forme bilinéaire bA , rappelons que A, étant une
matrice symètrique, est orthogonalement diagonalisable (Théorème 5.4.1).

Proposition 5.5.1 Soit A ∈ M (n × n, R) une matrice symétrique, λ1 , . . . , λn ses valeurs propres.


Alors
1. bA est définie positive si et seulement si λ1 > 0, . . . , λn > 0.
2. bA est définie non négative si et seulement si λ1 ≥ 0, . . . , λn ≥ 0.
3. bA est définie non positive si et seulement si λ1 ≤ 0, . . . , λn ≤ 0.
4. bA est définie négative si et seulement si λ1 < 0, . . . , λn < 0.
5. bA est indéfinie si et seulement si il existe une valeur propre λi > 0 et une valeur propre λj < 0.

Démonstration Soit v1 , . . . , vn une base orthonormale de vecteurs propres pour A. Les


conditons nécéssaires, et l’équivalence dans le cinquième énoncé, sont évidentes, car qA (vi ) =
(Avi )•vi = λi vi •vi = λi . Pour les réciproques remarquons que, puisque tout vecteur x ∈ Rn
s’écrit sous la forme x = y1 v1 + · · · + yn vn , nous avons

qA (x) = (Ax) • x = (A(y1 v1 + · · · + yn vn )) • (y1 v1 + · · · + yn vn )


= (y1 Av1 + · · · + yn Avn ) • (y1 v1 + · · · + yn vn )
= (y1 λ1 v1 + · · · + yn λn vn ) • (y1 v1 + · · · + yn vn )
= λ1 y1 v1 • (y1 v1 + · · · + yn vn ) + · · · + λn yn v1 • (y1 v1 + · · · + yn vn )
= λ1 y12 + · · · + λn yn2

puisque vi • vj = 0 si i 6= j et vi • vi = 1. Le signe des nombres qA (x) ets donc complètement


déterminé par celui des valeurs propres. 

Dans la pratique, il est utile d’avoir un critère qui permette d’établir si une forme bi-
linéaire est définie positive, non négative etc. sans en calculer les vecteurs propres.
Chapitre V 115

Proposition 5.5.2 Soit A ∈ M (n × n, R) une matrice symétrique. Pour i = 1, . . . , n, notons


Bi ∈ M (i × i, R) la matrice obtenue en éffaçant les dernières n − i lignes et colonnes de A et posons
mi = det(Bi ).
1. bA est définie positive si et seulement si m1 > 0, . . . , mn > 0.
2. bA est définie non négative si et seulement si m1 ≥ 0, . . . , mn ≥ 0.
3. bA est définie non positive si et seulement si mi ≤ 0 pour tout i impair et mi ≥ 0 pour tout i
pair.
4. bA est définie négative si et seulement si mi < 0 pour tout i impair et mi > 0 pour tout i pair.

Démonstration Les énoncés sont évidents si A est une matrice diagonale, car alors mi =
λ1 · · · λi est le produit des i premières valeurs propres, et on applique alors la Proposi-
tion 5.5.1. Pour reconduire le cas général au cas d’une matrice diagonale, appelons Ti ∈
M (n × n, R) la matrice dont les i premières colonnes sont les i premiers vecteurs de la base
canonique de Rn et les dernière n − i colonnes sont nulles :
 
Ii 0
Ti = .
0 0

Ti est donc une matrice symétrique. A partir de la définition de multiplication matricielle,


on vérifie aisémment que pour toute matrice M ∈ M (n × n, R), le produit Ti M est la matrice
obtenue de M en remplaçant les n − i dernières colonnes par des colonnes nulles ; de même,
le produit M Ti est la matrice obtenue de M en remplaçant les n − i dernières lignes par des
lignes nulles. Par suite, la matrice Ti M Ti est la matrice obtenue en remplaçant par des zéros
tous les coéfficients sur les dernières m − i lignes et colonnes de M . Par exemple, pour n = 3
     
1 0 0 a1,1 a1,2 a1,3 1 0 0 a1,1 a1,2 0
T2 M T2 = 0 1 0 a2,1 a2,2 a2,3  0 1 0 = a2,1 a2,2 0 .
0 0 0 a3,1 a3,2 a3,3 0 0 0 0 0 0

Le Théorème 5.4.1nous dit qu’il existe une matrice orthogonale H telle que t HAH = D, où
D est la matrice diagonale ayant sur la diagonale les valeurs propres λ1 , . . . , λn . Alors, pour
tout i = 1, . . . , n,

Ti DTi = Ti t HAHTi = t Ti t HAHTi = t (HTi )A(HTi )

ce qui exprime la similitude entre Bi et la matrice diagonale qui a sur la diagonale les valeurs
propres λ1 , . . . , λi . Donc
mi = det(Bi ) = λ1 · · · λi .
On peut alors appliquer la la Proposition 5.5.1 pour en déduire les équivalents énoncés. 

§ 6 Exercices

Exercice 5.1 Soient S = h(1, 2, 3), (4, −5, 6)i et pS la projection orthogonale sur S. Soit T =
{(x, y, z) ∈ R3 | x − 4y + 5z = 0}. Calculer une base pour le sous-espace Im(pS ) ∩ T .
116 Produits scalaires et orthogonalité

Exercice 5.2 Soit W = h(1, −1, 1), (1, 2, −2), (5, 4, −4)i.
a) Déterminer W ⊥ . Déterminer, si possible, un vecteur v ∈ R3 tel que sa projection or-
thogonale sur W soit (1, −1, 1) et sa projection ortogonale sur W ⊥ soit (0, 2, 2).
b) Déterminer, si possible, un vecteur w ∈ R3 tel que sa projection orthogonale sur W
soit (2, 1, −1) et sa projection orthogonale sur U soit (−1, 0, 2).

Exercice 5.3 Calculer le vecteur de norme minimum dans (2, 2, 0) + h(1, −1, 1), (1, 0, −1)i.

Exercice 5.4 Dans R4 soit W = h(−1, 0, 0, 1), (3, 1, 1, −3)i.


a) Déterminer la projection orthogonale du vecteur (1, 2, 0, 1) sur W .

b) Déterminer les vecteurs v ∈ (1, 2, 0, 1)+ < (−1, 0, 0, 1) > tels que kvk = 2 2.
c) Existent-il des vecteurs u ∈ (1, 2, 0, 1) + W tels que kuk kvk ?

Exercice 5.5 Étant donné le sous-espace U = h(1, 0, 1), (1, 1, 1)i, déteminer les vecteurs w ∈
(0, 31 , 2) + h(3, 1, −3)i dont la projection orthogonale est pU (w) = (1, 1, 1).

Exercice 5.6 Déterminer tous les sous-espaces S de R3 tels que la projection orthogonale de
(1, 2, 0) sur S soit (1, 1, 1).

Exercice 5.7 Considérons les sous-espaces S = h(1, −1, 0)i et T = h(0, 1, −1)i de R3 .
a) Calculer la projection orthogonale du sous-espace S ⊥ ∩ T ⊥ sur (S + T )⊥ .
b) Déterminer tous les vecteurs v ∈ R3 tels que pS (v) = pT (v).

Exercice 5.8 Soient U = h(1, 0, 2), (1, 2, 0)i et W = h(1, −1, 1), (0, 1, 0)i.
a) Déterminer, s’il existe, un vecteur w0 ∈ W dont la projection orthogonale sur U soit
pU (w0 ) = (1, 0, 2).
b) Déterminer un sous-espace S ≤ R3 de dimension 1 tel que si pS est la projection
orthohogane sur S, on ait pS (U ) ⊆ W et pS (W ) ⊆ U .
c) il y a combien de sous-espaces S ayant cette propriété ?

Exercice 5.9 Soit pU : R3 → U la projection orthogonale sur le sous-espace

U = {(x, y, z) ∈ R3 : x − y − z = 0}.

a) Déterminare les images pU (T1 ) et pU (T2 ) ddes variétés linéaires suivantes


  
3 x+y+z =0
T1 = (x, y, z) ∈ R : , T2 = (0, 2, −1) + h(−1, 1, 1)i.
x−y+z−2=0

b) Considérons les variétés linéaires


  
x−y−z =0
S = (x, y, z) ∈ R : 3
, U 0 = {(x, y, z) ∈ R3 : x − y − z = 3}.
x−1=0

Déterminer une variété linéaire S 0 ⊆ U 0 dont la projection orthogonale sur U soit S,


c’est à dire pU (S 0 ) = S.
Chapitre V 117

Exercice 5.10 Déterminer une base orthonormale de vecteurs propres pour la matrice
 
2 3 5
M =  3 −6 −3  .
5 −3 2

Exercice 5.11 Soit U = {x+y = 0; z+t = 0} di R4 . Déterminer, en en écrivant la matrice dans


une base, un endomorphisme φ de R4 tel que φ soit l’indentité sur U et de plus Ker(φ) ( U ⊥
et Ker(φ2 ) = U ⊥ .

Exercice 5.12 Soit V = h(1, 1, 2), (1, 0, 1)i.


a) Déterminer V ⊥ .
b) Déterminer, si possible, une matrice symétrique A non inversible qui ait V comme
espace propre de valeur propre −1.
c) Déterminer une base orthonormale de vecteurs propres de A.
d) Dire s’il existent des valeurs de k ∈ R telles que A soit semblable à la matrice
 
−1 k 1
Bk =  0 −1 1  .
0 0 0

π
Exercice 5.13 Écrire la matrice de la rotation de R3 d’angle 4 autour de l’axe h(1, 0, 1)i.

Exercice 5.14 Soit U = {x + y = 0; z + t = 0} ⊆ R4 . Déterminer, en en écrivant la matrice


dans une base convenable, un endomorphisme φ de R4 tel que φ soit l’identité sur U et de
plus Ker(φ) ( U ⊥ et ker(φ2 ) = U ⊥ .
   
6 1 3 9 −2 5
Exercice 5.15 Considérons les matrices A =  1 6 −3  et B =  4 3 −1 .
3 −3 −2 3 −3 −2
a) Est-ce que le sous-espace z = 0 contient des vecteurs propres pour la matrice A ? Pour
quelles valeurs propres ?
b) Déterminer tous les espaces propres de A.
c) Écrire, si elle existe, une matrice orthogonale H telle que H −1 AH soit diagonale.
d) Est-ce que la matrice B a des vecteurs propres en commun avec A ? Est-ce que les
deux matrices sont semblables ?
e) Écrire, si elle existe, une matrice K telle que K −1 BK soit une matrice de Jordan. Peut-
on trouver une matrice K orthogonale ?

Exercice 5.16 Établir si la matrice suivante est la matrice d’une isométrie et dire de quel type
 √ √ 
1 + 2 −1 1 − 2
1
√  2√ 2 2 .
2 2 1 − 2 −1 1 + √2

Exercice 5.17 Écrire, si elle existe, une matrice symétrique 2 × 2 ayant les espaces propres
suivants : V (1) =< (1, 1) > et V (2) =< (1, 2) >
118 Produits scalaires et orthogonalité

Exercice 5.18 Soit H une matrice orthogonale n×n et γ : M (n×n, R) → M (n×n, R) définie
par γ(A) = H −1 AH.
a) γ est-elle linéaire ? Est-elle injective ? Surjective ?
b) Soit S(n, R) ⊆ M (n × n, R) le sous-espace des matrices symétriques : déterminer
γ(S(n, R)).
c) Montrer que 1 est valeur propre de l’endomorphisme γ.

Exercice 5.19 Soit u = (1, −1, 2) et soit T : R3 → R3 la fonction linéaire

T (v) = u ∧ v.

a) Écrire la matrice de T dans les bases canoniques de R3 .


b) Déterminer noyau et image de T .
c) Construire un endomorphisme h de R3 tel que ker T soit l’espace propre de h de valeur
propre 2 et Ker(h) = Im(T ). Un tel h est-il unique ? Est-il diagonalisable ? Dans ce cas,
en donner la forme diagonale.
Chapitre VI

Espaces affines et euclidiens

Dans ce chapitre, nous donnons les applications géométriques de la théorie des espaces
vectoriels.

§ 1 Espaces affines

Définition 6.1.1 L’espace affine (réel) de dimension n est un ensemble An , dont les éléments sont
dits points, muni d’une action de l’espace vectoriel Rn

An × Rn −→ An
(P, v) 7−→ P +An v

telle que
1. Pour tout P ∈ An , P +An 0 = P ;
2. Étant donné un point P ∈ An , pour tout Q ∈ An il existe un unique v ∈ Rn tel que Q =
P +An v ;
3. Pour tout P ∈ An et tous v1 , v2 ∈ Rn on a P +An (v1 +Rn v2 ) = (P +An v1 ) +An v2 .

En vue de la distributivité de l’action par rapport à l’addition vectorielle, pour alléger


les notations nous supprimerons les indices ed indiquerons l’action par (P, v) 7→ P + v. En
vue de l’unicité, nous noterons aussi v = Q − P si Q = P + v.

Remarque 6.1.1 Il suit de l’unicité que P + v = P + w implique v = w.

Remarque 6.1.2 Si nous fixons un point origine O ∈ An , l’action donne une bijection

An ←→ Rn
P 7−→ P − O
O + v ←−[ v

qui permet donc d’identifier An à Rn , ce qu’il est parfois commode de faire. On peut donc
imaginer que An “devient” Rn une fois qu’on choisit un point origine.
120 Espaces affines et euclidiens

Puisque tout vecteur de Rn est connu une fois connues ses coordonnées par rapport à
une base donnée de Rn , la bijection de la Remarque 6.1.2 nous dit que tout point P ∈ An est
connu une fois qu’on choisit l’origine O et on connait les coordonnées de P − O par rapport
à la base de Rn

Définition 6.1.2 Un repère affine est la donnée R = (O, B) d’une origine O ∈ An et d’une base
B de Rn . De façon équivalente, un repère de An est la donnée R = (O, P1 , . . . , Pn ) de n + 1 points
de An tels que les vecteurs {P1 − O, . . . , Pn − O} forment une base de Rn .
Les coordonnées d’un point P ∈ An dans un repère R = (O, B) sont les coordonnées du vecteur
P − O par rapport à la base B.

Définition 6.1.3 Soit U ⊆ Rn un sous-espace et P0 ∈ An un point. Le sous-ensemble


L = {P ∈ An | ∃u ∈ U : P = P0 + u}
est dit variété linéaire affine. Le sous-espace U est appelé l’espace des directions de L. La di-
mension de L est dim U .
En particulier, nous appellerons droite (respectivement plan, respectivement hyperplan) dans An
une variété linéaire de dimension 1 (résp. 2, résp. n − 1).

On a donc qu’une droite dans An est déterminée par un point et une direction, un plan
par un point et deux directions indépendantes etc.
Soit L = P0 + U une variété linéaire et soit {u1 , . . . , uk } une base de U . Tout point P ∈ L
s’écrit donc de façon unique sous la forme P = P0 + t1 u1 + · · · + tk uk . Fixons un repère
(j) (j)
R = (O, B) dans An . Soient (a1 , . . . , an ) les coordonnées de P0 dans R et (b1 , . . . , bn ) les
coordonnées de uj dans la base B. On a donc que les coordonnées (x1 , . . . , xn ) de P dans le
repère R sont
 1 k
 x1 = a1 + t1 b1 + · · · + tk b1

(6.1.1) .
.. .
..

xn = an + t1 b1n + · · · + tk bkn .

Définition 6.1.4 Les formules (6.1.1) sont dites les équations paramétriques de L dans le repère
R. La Remarque 2.5.1 dit que toute variété linéaire de Rn est l’ensemble des solutions d’un système
linéaire. Un tel système est dit équation cartésienne de la variété.

Exemple 6.1.1 Soit r la droite dans A3 passant par les points de coordonnées (1, 2, 3) et
(4, 5, 6). Si u est une direction de r, il existe un α ∈ R tel que (4, 5, 6) = (1, 2, 3) + αu, ou
encore αu = (4, 5, 6) − (1, 2, 3) = (3, 3, 3). On peut donc prendre u = (1, 1, 1) comme direc-
tion de r. Les équations paramétriques de r sont alors données par

 x =1+t
(6.1.2) y =2+t
z = 3 + t.

Pour trouver des équations cartésiennes pour r on peut suivre la méthode indiquée à la
Remarque 2.5.1, c’est à dire en imposer que le rang de la matrice suivante soit 1
    
1 1 1 1 1 1 x−y+1 =0
=⇒
x−1 y−2 z−3 0 y−x−1 z−x−2 x − z + 2 = 0.
Chapitre VI 121

En alternative, on peut trouver des équations cartésiennes à partir des équations paramétri-
ques (6.1.2) en éliminant le paramètre t : la première équation donne t = x − 1 et en substi-
tuant dans les deux autres on trouve y = 1 + x et z = 2 + x ce qui donne bien les équations
cartésiennes précédentes.

Remarque 6.1.3 Puisque un hyperplan est une variété linéaire de dimension n − 1, il peut
être décrit par une seule équation. Nous pouvons interpréter géométriquement les équations
cartesiennes d’une variété linéaire arbitraire en pensant la variété comme intersection d’hy-
perplans : une variété de dimension d sera donc donnée par l’intersection de n−d hyperplans
dans An .
Bien entendu, des équations cartésiennes différentes mais équivalentes décrivent la même
variété linéaire. Dans l’Exemple 6.1.1, nous aurions pu éliminer le paràmetre en utilisant la
dernière équation de (6.1.2), ce qui aurait donné t = z − 3 et par suite les équations suivantes
pour r 
x−z+2 =0
y − z + 1 = 0.

Remarque 6.1.4 L’Exemple 3.1.2 nous dit comment calculer la direction d’une droite donnée
en équation cartésienne. Par exemple, de l’équation de la droite de l’Exemple 6.1.1 on re-
trouve
      
x−y+1 =0 −1 0 1 0 1 −1
r: =⇒ (det , − det , det ) = (1, 1, 1).
x − z + 2 = 0. 0 −1 1 −1 1 0

Exemple 6.1.2 Soit π le plan dans A3 passant par les points de coordonnées (1, 2, 3), (4, 5, 6)
et (3, 2, 1). Comme à l’Exemple 6.1.1, on a que les vecteurs (4, 5, 6) − (1, 2, 3) = (3, 3, 3) et
(3, 2, 1) − (1, 2, 3) = (2, 0, −2) sont dans l’espace des directions de π. En prenant les vecteurs
{(1, 1, 1), (1, 0, −1)} comme base de cet espace on trouve des équations paramétriques de π

 x =1+t+s
y =2+t
z = 3 + t − s.

Ici aussi on dispose de deux façons de déterminer une équation cartésienne de π ; en suivant
la méthode de la Remarque 2.5.1, s’agissant d’une matrice carrée, nous pouvons imposer
que son rang est 2 en en annulant le déterminant :
 
1 1 1
det  1 0 −1  = −x + 2y − z = 0.
x−1 y−2 z−3

On peut aussi trouver une équation cartésienne à partir des équations paramétriques en
éliminant le paramètres t et s : la deuxième équation donne t = y − 2, en substituant dans
la première on trouve s = x − t − 1 = x − y + 1 et en substituant dans la dernière on trouve
z = 1 + (y − 2) − (x − y + 1) = −x + 2y, ce qui donne bien l’équation cartésienne précédente.

Définition 6.1.5 Soient L = P0 + U et L0 = Q0 + U 0 deux variétés linéaires dans An . Nous dirons


que L et L0 sont parallèles si U ⊆ U 0 ou U 0 ⊆ U .
122 Espaces affines et euclidiens

Par exemple la droite r de l’Exemple 6.1.1 est parallèle au plan π de l’Exemple 6.1.2.

Les équations cartésiennes sont particulièrement utiles pour étudier la position relative
entre deux variétés linéaires par voie algèbrique : les coordonnés d’un point de l’intersection
des deux variétés sont éffet solutions du système linéaire obtenu en joignant les équations
des deux variétés. On peut alors appliquer le Théorème 2.5.1. Nous détaillons dans la suite
le cas des variétés de dimension positive dans A2 et A3 .

Position de deux droites dans A2 Soient

r : ax + by + c = 0; r0 : a0 x + b0 y + c0 = 0

deux droites. Considérons la matrice et la matrice augmentée du système des deux équati-
ons :    
a b a b c
A= ; (A|c) = .
a0 b0 a0 b0 c0
Le tableau suivant résume al situation

rg(A) 2 1 1
rg(A|c) 2 2 1
position sécantes parallèles coı̈ncidentes

En effet, le Théorème 2.5.1 nous dit que si les deux rangs sont égux à 2, le système admet
une unique solution, donc les droites s’intersectent en un point ; si le rang de A est égal à
1, le système homogène a une solution non nulle, donc les deux droites ont une direction
en commun, donc la même direction. Si elles ont un point en commun, elles doivent donc
coı̈ncider.

Exemple 6.1.3 Pour tout α ∈ R, considérons la droite rα : (α + 1)x + 2(α2 + 1)y = 2α + 1 et


soit r0 : x + 2y = 1. La position rélative entre rα et r0 se trouve en calculant

α + 1 2α2 + 2 −2α − 1
   
1 2 −1
rg = rg .
1 2 −1 0 2(α2 − α) −α

Les droites sont donc sécantes si α 6= 0, 1 (les deux matrices ont rang 2), elles coı̈ncident
pour α = 0 (les deux matrices ont rang 2) et sont parallèles sans points en commun pour
α = 1 (matrice de rang 1 et matrice augmentée de rang 2).

Position de deux plans dans A3 Soient

π : ax + by + cz + d = 0; π 0 : a0 x + b0 y + c0 z + d0 = 0

deux plans. Considérons la matrice et la matrice augmentée du système des deux équations :
   
a b c a b c d
A= ; (A|d) = .
a0 b0 c0 a0 b0 c0 d0

Le tableau suivant résume al situation


Chapitre VI 123

rg(A) 2 1 1
rg(A|d) 2 2 1
position sécants parallels coı̈ncidents

En effet, le Théorème 2.5.1 nous dit que si les deux rangs sont égux à 2, les solutions du
système forment une variété linéaire de dimension 1, donc les plans s’intersectent en une
droite ; si le rang de A est égal à 1, les solutions du système homogène forment un espace
vectoriel de dimension 2, donc les deux plans ont le même espace des directions. Si ils ont
un point en commun, ils doivent coı̈ncider.

Exemple 6.1.4 Pour tout β ∈ R, considérons le plan πβ : x + (2 − β)y + (1 + β − β 2 )z = β + 2


et soit π 0 : x + 2y + z = 2. La position rélative entre πβ et π 0 se trouve en calculant

1 2 − β 1 + β − β 2 −β − 2
   
1 2 1 −2
rg = rg .
1 2 1 −2 0 β β2 − β β

Les plans sont donc sécants si β 6= 0, 1 (les deux matrices ont rang 2), ils coı̈ncident pour
β = 0 (les deux matrices ont rang 1) et sont parallèls sans points en commun pour β = 1
(matrice de rang 1 et matrice augmentée de rang 2).

Position d’un plan et une droite dans A3 Soient


 0
a x + b0 y + c0 z + d0 = 0
π : ax + by + cz + d = 0; r:
a00 x + b00 y + c00 z + d00 = 0

Considérons la matrice et la matrice augmentée du système :


   
a b c a b c d
A =  a0 b0 c0  ; (A|d) =  a0 b0 c0 d0  .
00
a b c 00 00 a00 b00 c00 d00

Le tableau suivant résume al situation


rg(A) 3 2 2
rg(A|d) 3 3 2
position sécants parallels r⊂π

En effet, le Théorème 2.5.1 nous dit que si les deux rangs sont égux à 3, le système admet
une unique solution, donc la droite et le plan s’intersectent en un point ; si le rang de A est
égal à 2, les solutions du système homogène forment un espace vectoriel de dimension 1,
donc l’espace des directions du plan contient la direction de la droite. S’ils ont un point en
commun, la droite doit être contenue dans le plan.

Exemple 6.1.5 Pour tout β ∈ R, considérons


 le plan πβ : x + (2 − β)y + (1 + β − β 2 )z = β + 2
x+y =0
de l’Exemple 6.1.4 et la droite r : . La position relative entre πβ et π 0 se trouve
z =0
en calculant
1 2 − β 1 + β − β 2 −β − 2
   
1 1 0 0
rg  1 1 0 0  = rg  0 1 − β 1 + β − β 2 −β − 2  .
0 0 1 0 0 0 1 0
124 Espaces affines et euclidiens

Les plan et la droite sont donc secants pour tout β 6= 1 (la matrice du système est de rang 3)
et parallels sans points en commun si β = 1 (dans ces cas la matrice du système est de rang
2 et la matrice augmentée de rang 3).

Position de deux droites dans A3 Soient


a00 x + b00 y + c00 z + d00 = 0
 
ax + by + cz + d = 0 0
r: ; r :
a0 x + b0 y + c0 z + d0 = 0 a000 x + b000 y + c000 z + d000 = 0

Considérons la matrice et la matrice augmentée du système :


   
a b c a b c d
 a0 b0 c0   a0 b0 c0 d0 
A=  a00 b00 c00  ;
 (A|d) =   a00 b00 c00 d00
.

a000 b000 c000 a000 b000 c000 d000

Le tableau suivant résume al situation

rg(A) 3 3 2 2
rg(A|d) 4 3 3 2
position gauches incidentes parallèles coı̈ncidentes

En effet, le Théorème 2.5.1 nous dit que si les deux rangs sont égaux à 3, le système admet
une unique solution, donc les droites s’intersectent en un point ; si le rang de A est égal à
2, le système homogène a une solution non nulle, donc les droites on la même direction,
et on distingue selon qu’elles aient ou pas un point en commun. Enfin, si les rang de la
matrice augmentée est 4, les droites n’ont en commun ni de points (car le système n’a pas
de solutions) ni de direction (car le système homogène est de rang 3 et admet donc la seule
solution nulle).

Définition 6.1.6 Deux droites dans l’espace affine A3 sont dites gauches si il n’existe aucun plan
contenant les deux droites. Autrement dit, les deux droites ne sont ni parallèles ni incidentes.

Exemple 6.1.6 Pour tout γ ∈ R, considérons les droites

x + 4y + (γ 2 − γ)z = −γ
 
0 x + 2y + 2z = −1
rγ : ; r :
x + 4z = −γ 2 y−z =0

La position rélative entre ces droites se trouve en calculant

1 4 γ2 − γ γ
   
1 2 2 1
 1 0 4 2
γ    0 1 −1 0 
rg  = rg  .
 1 2 2 1   0 0 γ2 − γ γ−1 
0 1 −1 0 0 0 0 γ2 − 1

Les droites sont donc gauches pour tout γ 6= 0, ±1. Pour γ = 0, 1 elles sont parallèles (la
matrice du système étant de rang 2), et même coı̈ncidentes pour γ = 1, car en plus elles ont
des points en commun (le système est résoluble). Enfin, pour γ = −1 le système admet une
unique solution, donc les droites sont incidentes.
Chapitre VI 125

Terminons cette section en introduisant une technique utile dans les applications. On
considère deux hyperplans π et π 0 dans l’espace affine An donnés par des équations cartésien-
nes
π : a0 + a1 x1 + · · · + an xn = 0; π 0 : b0 + b1 x1 + · · · + bn xn = 0.

Définition 6.1.7 Le pinceau d’hyperplans engendré par π et π 0 est la famille de tous les hyper-
plans dont l’équation cartésienne est une combination des équations de π et π 0 :
(6.1.3) λ (a0 + a1 x1 + · · · + an xn ) + µ (b0 + b1 x1 + · · · + bn xn ) = 0.

On parle ainsi d’un pinceau de droites dans le plan affine A2 , d’un pinceau de plans dans
l’espace A3 etc.
Tout hyperplan πλ,µ membre du pinceau est représenté par un couple (λ, µ) ∈ R2 de
valeurs pour les paramètres, pourvu que (λ, µ) 6= (0, 0) (qui donnerait l’équation 0 = 0,
qui n’est pas un hyperplan) ; un deuxième couple (λ0 , µ0 ) représente le même hyperplan si
et seulement si ces couples sont proportionnels car, si il existe un nombre α 6= 0 tel que
λ0 = αλ et µ0 = αµ alors l’équation qui définit πλ0 ,µ0
λ0 (a0 + a1 x1 + · · · + an xn ) + µ0 (b0 + b1 x1 + · · · + bn xn ) = 0
est multiple par le facteur α de l’équation qui définit πλ,µ : ces deux sont donc un seul
et même hyperplan. Remarquer que les hyperplans de départ π et π 0 correspondent aux
couples (1, 0) et (0, 1) respectivement.

Il y a deux types de pinceaux d’hyperplans, selon la position relative de π et π 0 . Suppo-


sons d’abord que π et π 0 sont parallels : alors tous les hyperplans du pinceau sont parallels.
En effet, pour toute direction v = α1 e1 +. . . αn en parallèle à π et π 0 , les coéfficients α1 , . . . , αn
sont solutions des équations homogènes : a1 α1 + · · · + an αn = 0 et b1 α1 + · · · + bn αn = 0
et par conséquent α1 , . . . , αn est solution de l’équation homogène λ (a1 x1 + · · · + an xn ) +
µ (b1 x1 + · · · + bn xn ) = 0 pout toute valeur de λ et µ.
D’ailleurs dans le cas d’hyperplans parallels on peut simplifier l’équation générale (6.1.3)
en remarquant que, puisque les équations homogènes de π et π 0 on mêmes solutions, elles
sont proportionnelles : quitte à multiplier l’équation de π par un facteur non nul, on peut
supposer que b1 = a1 , . . ., bn = an et alors tout hyperplan du pinceau aura une équation de
la forme :
(6.1.4) a1 x1 + · · · + an xn = k.
Dans ce cas donc, tout hyperplan élément du pinceau est individué par la valeur du terme
constant k ∈ R sans ambiguı̈té.
Dans le cas général, les hyperplans π et π 0 auront une intérsection non vide, qui constitue
un sous-espace affine de dimension n − 2. Ce sous-espace affine est contenu dans tous les
hyperplans membres du pinceau, car les coordonnées de tout point P ∈ π ∩π 0 sont solutions
soit de l’équation de π que de celle de π 0 : elles sont donc solution de l’équation de tout
membre du pinceau. Le sous-espace affine π ∩π 0 est dit centre ou axe du pinceau. Le pinceau
est donc constitué de tous les hyperplans contentants π1 ∩ π2 .

Les pinceaux sont très utiles dans la solution pratique de problèmes de géométrie affine.
126 Espaces affines et euclidiens

Exemple 6.1.7 On veut écrire les équations cartésiennes de la droite de A3 passante par le
point P0 (2, −3, 1) et parallèle aux plans π1 : x + y − 2z = 0 et π2 : y + 3z = 0.
La droite cherchée est l’intérsection du plan σ1 passant par P0 parallèle a π1 avec le plan σ2
passant par P0 parallèle a π2 .
Les plans du pinceau de plans parallels à π1 ont une équation de la forme x + y − 2z = k et
σ1 correspond à la valeur de k que l’on trouve en imposant le passage par P0 : en substituant
x = 2, y = −3, z = 1 on trouve k = 2 − 3 − 2 = −3. Donc l’equation de σ1 est x + y − 2z = −3.
De même les plans parallels à π2 ont équation de la forme y + 3z = k 0 et on trouve la valeur
de k 0 en imposant le passage par P0 : k 0 = −3 + 3 = 0. Donc σ2 = π2 et les équations
cartésiennes de la droite cherchée sont :

x + y − 2z = −3
.
y + 3z = 0

Exemple 6.1.8 On veut écrire les équations cartésiennes de la droite de A3 passante par le
point P0 (2, −3, 1) et ayant une intérsection non vide avec les droites :
 
x+y+z−1=0 x + 2y + 2z = 0
d1 : ; d2 : .
y − 2z = 0 2x + z = 0

Ce problème est difficile, car on ne sait pas en quels points la droite cherchée va rencontrer
d1 et d2 . Toutefois on peut remarquer que, puisque elles se rencontrent, la droite cherchée et
d1 doivent être contenues dans un même plan τ1 . Puisque il contient d1 , le plan τ1 appartient
au pinceau de plans contenant d1 : l’équation cartésienne de τ1 est donc du type

λ(x + y + z − 1) + µ(y − 2z) = 0.

Les valeurs de λ et µ se trouvent (à un facteur de proportionnalité près) en imposant que ce


plan contienne le point P0 , puisque τ1 contient la droite cherchée tout entière. D’où :

λ(2 − 3 + 1 − 1) + µ(−3 − 2) = −λ − 5µ = 0 ⇒ λ = −5µ.

On peut choisir le couple λ = 5 et µ = −1, donc τ1 : 5x + 4y + 7z − 5 = 0.


Le même raisonnement montre que la droite cherchée et d2 doivent être contenues dans
un même plan τ2 , dont l’équation est du type λ0 (x + 2y + 2z) + µ0 (2x + z) = 0. On trouve λ0
et µ0 en imposant le passage du plan par P0 :

λ0 (2 − 6 + 2) + µ0 (4 + 1) = −2λ0 + 5µ0 = 0 ⇒ 2λ0 = 5µ0 .

On peut choisir le couple λ0 = 5 et µ0 = 2, d’où τ2 : 9x + 10y + 12z = 0. Donc finalement la


droite cherchée est 
5x + 4y + 7z − 5 = 0
τ1 ∩ τ2 : .
9x + 10y + 12z = 0

§ 2 Espaces euclidiens
Chapitre VI 127

Définition 6.2.1 L’espace affine réel An est appelé espace euclidien de dimension n lorsque on
considère l’espace Rn , agissant sur An au sens de la Définition 6.1.1, comme muni du produit scalaire
standard. Un repère dans l’espace euclidien est un repère R = (O, B) de An tel que la base B est
une base orthonormale.

L’introduction de la notion de produit scalaire sur les vecteurs permet de parler de lon-
gueurs et d’orthogonalité dans l’espace euclidien.

Définition 6.2.2 Dans l’espace euclidien An


1. étant donnée une varieté linéaire L = P0 + U , on appelle directions orthogonales à L les
vecteurs de U ⊥ ;
2. deux droites sont dites orthogonales si leurs directions sont orthogonales ;
3. une droite et un hyperplan sont dits othogonaux si la direction de la droite est orthogonale aux
directions de l’hyperplan ;
4. deux hyperplans H et H 0 sont dits orthogonaux si la direction orthogonale à H est orthogonale
à la direction orthogonale à H 0 .

Remarquons que dans le plan euclidien A2 , où une droite est un hyperplan, les définitions
précédentes coı̈ncident.

Exemple 6.2.1 Les directions orthogonales à un hyperplan d’équation a1 x1 + · · · + an xn +


a0 = 0 dans An sont les multiples du vecteur (a1 , . . . , an ) ∈ Rn . En effet, tout vecteur parallel
à l’hyperplan est solution de l’équation homogène a1 x1 + · · · + an xn = 0 : c’est donc un
vecteur dont le produit scalaire avec (a1 , . . . , an ) est nul.

Exemple 6.2.2 Dans l’espace euclidien A3 , soient



x+y =1
π : x − 2y + z = 4; r: .
z=0

On cherche un plan π 0 qui soit orthogonal à π et qui contienne la doite r. Le plan π 0 appartient
au pinceau d’axe r :
λ(x + y − 1) + µz = 0.
L’Exemple 6.2.1 nous dit que la direction orthogonale à π est (1, −2, 1) et que la direction
orthogonale à π 0 est (λ, λ, µ) ; afin qu’elles soient orthogonales il faut

(λ, λ, µ) • (1, −2, 1) = λ − 2λ + µ = −λ + µ = 0 =⇒ λ = µ.

On a donc π 0 : x + y + z = 1.

Proposition 6.2.1 Soient ` et `0 deux droites gauches dans l’espace euclidien A3 . Il existe une unique
droite r qui est orthogonale et incidente aux deux droites.

Démonstration Soient u et u0 les directions des deux droites. Puisque elles ne sont pas pa-
rallèles, u et u0 sont libres et l’espace hu, u0 i⊥ des directions orthogonales aux deux droites
est engendré par le vecteur v = u ∧ u0 (ce vecteur est non nul par la deuxième proprété
de la Proposition 5.1.7). Considèrons le plan π contenant ` et parallel à v (unique plan du
128 Espaces affines et euclidiens

pinceau d’axe ` parallel à v) et le plan π 0 contenant `0 et parallel à v (unique plan du pinceau


d’axe `0 parallel à v). La direction de π est hu, vi et celle de π 0 est hu0 , vi. Puisque {u, u0 , v}
est une base de R3 , les plans ne sont pas parallels. L’intersection r = π ∩ π 0 est donc une
droite. La direction de cette droite est v (direction commune aux deux plans). De plus r et `
sont incidentes, car elles appartiennent au plan π et ne sont pas parallèles et, pour la même
raison, r et `0 sont incidentes.
Réciproquement, toute droite incidente ` appartient à un plan du pinceau d’axe ` ; si elle est
orthogonale à ` et `0 sa direction est v, donc une telle droite est contenue dans π. Par le même
raisonnement on voit qu’une telle droite est aussi contenue dans π 0 et par suite r = π ∩ π 0
est la seule solution possible. 

Définition 6.2.3 La distance entre deux points P, Q dans l’espace euclidien An est la norme du
vecteur joignant les deux points : d(P, Q) = kQ − P k.
Si S1 , S2 ⊆ An sont deux sous-ensembles, on définit leur distance comme

d(S1 , S2 ) = inf d(P, Q).


P ∈S1 ,Q∈S2

Bien entendu, si S1 ∩ S2 6= ∅, on a d(S1 , S2 ) = 0. La réciproque n’est pas vraie en général,


comme le montre l’exemple suivant.

Exemple 6.2.3 Dans A2 , soit S1 la droite y = 0 et considérons la branche d’hyperbole S2 =


{(x, x1 ) | x ∈ R, x 6= 0}. On a bien S1 ∩ S2 = ∅ car aucun point de S2 ne peut avoir la
deuxième coordonnée nulle. Toutefois d(S1 , S2 ) = 0. En effet, pour tout ε > 0, les points
Pε = ( 2ε , 0) ∈ S1 et Qε = ( 2ε , 2ε ) ∈ S2 ont distance égale à
ε ε
d(Pε , Qε ) = kQε − Pε k = k(0, )k = < ε
2 2
donc d(S1 , S2 ) < ε pour tout ε > 0, ce que implique bien d(S1 , S2 ) = 0.

Néanmoins, le Théorème 5.2.1 implique que la distance entre varietés linéaires est bien
un minimum.

Proposition 6.2.2 Si S1 et S2 sont deux variétés linéaires dans l’espace euclidien, il existe au moins
un point P1 ∈ S1 et un point P2 ∈ S2 tels que d(S1 , S2 ) = d(P1 , P2 ).

Démonstration Si S1 = Q1 + U1 et S2 = Q2 + U2 , pour tout point Q01 ∈ S1 et Q02 ∈ S2 on a


d(Q01 , Q02 ) = kQ02 − Q01 k. Or Q0i = Qi + vi , avec vi = Q0i − Qi ∈ Ui . Donc

Q02 − Q01 = Q2 − Q1 + v2 − v1 ∈ Q2 − Q1 + (U1 + U2 ).

Le Théorème 5.2.1 nous dit la fonction norme sur la variété linéaire Q2 − Q1 + (U1 + U2 ) de
Rn a un minimum en p(U1 +U2 )⊥ (Q2 − Q1 ). 

Corollaire 6.2.1 Soit P0 ∈ An un point de coordonnés (α1 , . . . , αn ) et H ⊂ An un hyperplan,


d’équation cartésienne a1 x1 + · · · + an xn + a0 = 0. Alors

|a1 α1 + · · · + an αn + a0 |
d(P0 , H) = p .
a21 + · · · + a2n
Chapitre VI 129

Démonstration Soit Q0 = (β1 , . . . , βn ) un point de H. La Proposition 6.2.2 nous dit que la


distance entre P0 et H est la norme de la projection de Q0 − P0 sur la direction orhogonale
à H. Puisque les directions de H sont les solutions de a1 x1 + · · · + an xn = 0, la direction
orthogonale à H est donnée par le vecteur v = (a1 , . . . , an ). Donc
d(P0 , H) = kp
hhvi (Q0 − P0 )k i
(a1 ,...,an )
= (β1 − α1 , . . . , βn − αn ) • (a1 , . . . , an ) k(a

2
1 ,...,an )k

|a1 β1 +···+an βn −a1 α1 −···−an αn |
= k(a1 ,...,an )k
|−a0 −a1 α1 −···−an αn |
= √ 2 ,
a1 +···+a2n

la dernière égalité utilisant le fait que Q0 ∈ H, donc a1 β1 + · · · + an βn + a0 = 0. 


Remarque 6.2.1 Soulignons au passage que si P0 ∈ H, ses coordonnées satisfont l’équation
de H et la formule du Corollaire 6.2.1 donne bien que la distance d(P0 , H) est nulle.
Détaillons le procédé de calcul des distances entre variétés linéaires de dimension posi-
tive dans A2 et A3 .

Distance entre deux droites dans A2 Si le droites ont des points en commun, donc si elles
sont secantes ou coı̈ncidentes, leur distance est nulle. Si elles sont parallèles, la distance entre
les deux droites est égale à la distance entre un point quelconque de la première droite et la
deuxième droite. Puisque une droite est un hyperplan dans A2 , la distance se calcule par la
formule du Corollaire 6.2.1.
Exemple 6.2.4 Reprénons les droites rα : (α + 1)x + 2(α2 + 1)y = 2α + 1 et r0 : x + 2y = 1
del’Exemple 6.1.3. Les droites on des points en commun sauf si α = 1. Pour cette valeur,
| 3 −1|
choisissons un point sur r1 , par exemple P = ( 23 , 0). Alors d(r1 , r0 ) = √2
1+4
= 1

2 5
.

Distance entre deux plans dans A3 Si les plans ont des points en commun, donc si ils sont
secants ou coı̈ncidents, leur distance est nulle. Si ils sont parallèls, la distance entre les deux
plans est égale à la distance entre un point quelconque du premier plan et le deuxième
plan. Puisque un plan est un hyperplan dans A3 , la distance se calcule par la formule du
Corollaire 6.2.1.
Exemple 6.2.5 Considérons les plans πβ : x+(2−β)y+(1+β−β 2 )z = β+2 et π 0 : x+2y+z =
2 de l’Exemple 6.1.4. Les plans on des points en commun sauf si β = 1. Pour cette valeur,
choisissons un point sur π1 , par exemple P = (3, 0, 0). Alors d(π1 , π 0 ) = √|3−2|
1+4+1
= √16 .

Distance entre un plan et une droite dans A3 Si le plan et la droite ont des points en com-
mun, donc si ils sont secants ou si la droite est contenue dans le plan, leur distance est nulle.
Si la droite est parallèle au plan, leur distance est égale à la distance entre un point quel-
conque de la droite et le plan, qui se calcule encore par la formule du Corollaire 6.2.1.
Exemple
 6.2.6 Considérons le plan πβ : x + (2 − β)y + (1 + β − β 2 )z = β + 2 et la droite
x+y =0
r: de l’Exemple 6.1.5. Le plan et la droite on des points en commun sauf si
z =0
β = 1. Dans ce cas, choisissons un point sur r, par exemple O = (0, 0, 0). Alors d(π1 , π 0 ) =
|3| √

1+1+1
= 3.
130 Espaces affines et euclidiens

Distance entre deux droites dans A3 Si le droites ont des points en commun, donc si elles
sont secantes ou coı̈ncidentes, leur distance est nulle. Si elles sont parallèles, la distance entre
les deux droites se calcule comme la distance entre les points intérsection de chaque droite
avec un quelconque plan orthogonal aux droites.
Si les droites sont gauches, la distance entre les droites est égale à la distance entre la première
droite et le plan contenant la deuxième droite et parallel à la première.

Exemple 6.2.7 Considérons les droites del’Exemple 6.1.6

x + 4y + (γ 2 − γ)z = −γ
 
0 x + 2y + 2z = −1
rγ : 2 ; r :
x + 4z = −γ y − z = 0.

Si γ = −1, elles sont incidentes et ont distance nulle. Si γ = 0 elles sont parallèles, de
direction      
2 2 1 2 1 2
(det , − det , det ) = (−4, 1, 1).
1 −1 0 −1 0 1
(calculée par le procédé dont à la Remarque 6.1.4). Tout plan orthogonal à cette direction est
du type −4x + y + z + d = 0. Si on choisit celui qui contient le point P 0 = (−1, 0, 0) ∈ r0 , son
équation est −4x + y + z − 4 = 0. Ce plan intersecte r1 en le point

x + 4y = 0
 8 2 2
x + 4z = 0 =⇒ P = (− , , ).
9 9 9
−4x + y + z = 4


donc d(r, r0 ) = d(P, P 0 ) = k((− 89 , 29 , 29 ) − (−1, 0, 0)k = k( 19 , 29 , 29 )k = 1+4+4
9 = 31 .
Les droites sont gauches pour tout γ 6= 0, ±1. Calculons-en la distance pour γ = 2. On
détermine un plan π contenant r2 et parallel à la direction (−4, 1, 1) de de r0 par la méthode
du pinceau : au plan du pinceau d’axe r2 on impose d’admettre (−4, 1, 1) come direction :

λ(x + 4y + 2z + 2) + µ(x + 4z + 4) = 0; λ(−4 + 4 + 2) + µ(−4 + 4) = 0 =⇒ λ = 0.

Donc π : x + 4z + 4 = 0 et par suite

| − 1 + 4| 3
d(r2 , r0 ) = d(π, P 0 ) = √ =√ .
1 + 16 17
Remarque 6.2.2 La proposition 6.2.2 nous dit que étant données deux variétés linéaires S1
et S2 dans An , il existe au moins un point P1 ∈ S1 et un point P2 ∈ S2 tels que d(S1 , S2 ) =
d(P1 , P2 ). Ce couple (P1 , P2 ) de points qui réalisent le minimum est parfois unique et parfois
pas. En outre que dans le cas où une des deux varietés est contenue dans l’autre, il n’est
pas unique pour deux droites ou plans parallèls ou pour pour une droite parallèle à un
plan. Il est bien sur unique lorsque les deux variétés se rencontrent en un seul point (droites
incidentes, plan et droites incidents) mais aussi dans le cas de droites gauches. On peut
trouver ce couple de points (Pmin , Qmin ) en remarquant que ces points sont caractérisés par
la propriété suivante : c’est le seul couple (P, Q) de points des deux droites tels que le vecteur
Q−P soit orthogonal aux deux droites. Comme conséquence, la droite joignante Pmin et Qmin
est la droite de la Proposition 6.2.1 : l’unique droite qui est orthogonale et incidente les deux
droites de départ.
Chapitre VI 131

Exemple 6.2.8 Considérons les droites


 
2x − y = 2 0 x−y =0
`: ; ` :
x+y−z =1 x + y − z = 4.
Pour déterminer les points qui réalisent le minimum, il convient d’écrire ces droites en
équations paramétriques. On calcule les directions
     
−1 0 2 0 2 −1
direction de ` : (det , − det , det ) = (1, 2, 3).
1 −1 1 −1 1 1
     
−1 0 1 0 1 −1
direction de `0 : (det , − det , det ) = (1, 1, 2).
1 −1 1 −1 1 1
En choisissant les point (1, 0, 0) ∈ ` et (0, 0, −4) ∈ `0 on peut donc écrire
 
 x =1+t  x =s
0
`: y = 2t ; ` : y =s
z = 3t z = −4 + 2s.
 

On détermine alors les points de minimum en cherchant les valeurs de t, s ∈ R tels que le
vecteur joignant le point Pt = (1 + t, 2t, 3t) ∈ ` au point Ps0 = (s, s, −4 + 2s) ∈ `0

(1 + t, 2t, 3t) − (s, s, −4 + 2s) = (t − s + 1, 2t − s, 3t − 2s + 4)

soit orthogonal aux deux droites. Donc


 
(t − s + 1, 2t − s, 3t − 2s + 4) • (1, 2, 3) = 14t − 9s + 13 = 0 t=1
⇐⇒
(t − s + 1, 2t − s, 3t − 2s + 4) • (1, 1, 2) = 9t − 6s + 9 = 0 s = 3.
0
On a ainsi Pmin = (2, 2, 3) ∈ ` et Pmin = (3, 3, 2) ∈ `0 .
Remarquons que la droite joignant Pmin et Pmin 0 est orthogonale à ` et `0 et les intersecte en ces
deux points : c’est donc l’unique droite orthogonale et incidente les deux droites données
dont à la Proposition 6.2.1, qui peut se déterminer sans calculer Pmin et Pmin 0 de la façon
indiquée à la preuve de la Proposition 6.2.1.
La direction orthogonale aux deux droites est donnée par le produit vectoriel des directions
de ` et `0 :
     
2 3 1 3 1 2
v = (1, 2, 3) ∧ (1, 1, 2) = (det , − det , det ) = (1, 1, −1).
1 2 1 2 1 1
Le plan du pinceau d’axe ` parallel à v est :

λ(2x − y − 2) + µ(x + y − z − 1) = 0; λ(2 − 1) + µ(1 + 1 + 1) = λ + 3µ ⇒ λ = 3, µ = −1.

Le plan en question est donc 5x − 4y + z − 5 = 0. Le plan du pinceau d’axe ` parallel à v est :

λ0 (x − y) + µ0 (x + y − z − 4) = 0; λ0 (1 − 1) + µ0 (1 + 1 + 1) = 3µ ⇒ λ0 = 1, µ0 = 0.

le plan en question est donc x − y = 0. Alors



5x − 4y + z − 5 = 0
rmin :
x − y = 0.
132 Espaces affines et euclidiens

§ 3 Changement de repère
Dans les sections précédentes, nous avons étudié les espaces affines et euclidiens en sous-
intendant d’avoir fixé un repère. Nous voulons ici indiquer comment les équations d’une
variété linéaire changent lorsque on change de repère. Pour ne pas trop alourdir les nota-
tions, nous travaillerons dans l’espace A3 qui est le plus utile dans les applications. Le cas
du plan A2 se traite en supprimant la dernière variable.
Soit donc P = (P0 , P1 , P2 , P3 ) un repère affine, déterminé par quatre points Pi ∈ A3 tels
que {P1 − P0 , P2 − P0 , P3 − P0 } soit une base de R3 (et même une base orthonormale si on
travaille dans l’espace euclidien). Le point P0 est l’origine du repère P et nous indiquerons
par (x, y, z) les coordonnées d’un point P ∈ A3 dans le repère P, donc
P = P0 + x(P1 − P0 ) + y(P2 − P0 ) + z(P3 − P0 ).
Considérons un deuxième repère Q = (Q0 , Q1 , Q2 , Q3 ) et indiquons par (X, Y, Z) les coor-
données du point P dans le repère Q :
(6.3.1) P = Q0 + X(Q1 − Q0 ) + Y (Q2 − Q0 ) + Z(Q3 − Q0 ).
Pour écrire les formules de passage d’un repère à l’autre, il nous faut connaitre les coor-
données (xi , yi , zi ) des points Qi dans le repère P. Autrement dit
Qi = P0 + xi (P1 − P0 ) + yi (P2 − P0 ) + zi (P3 − P0 ).
On peut alors obtenir les formules reliant les coordonnées (x, y, z) de P dans P à ses coor-
données (X, Y, Z) dans Q par substitution :
P = Q0 + X(Q1 − Q0 ) + Y (Q2 − Q0 ) + Z(Q3 − Q0 )
= P0 + (Q0 − P0 ) + X [(Q1 − P0 ) − (Q0 − P0 )] + Y [(Q2 − P0 ) − (Q0 − P0 )]
+Z [(Q3 − P0 ) − (Q0 − P0 )]
= P0 + x0 (P1 − P0 ) + y0 (P2 − P0 ) + z0 (P3 − P0 )
+X [(x1 − x0 )(P1 − P0 ) + (y1 − y0 )(P2 − P0 ) + (z1 − z0 )(P3 − P0 )]
+Y [(x2 − x0 )(P1 − P0 ) + (y2 − y0 )(P2 − P0 ) + (z2 − z0 )(P3 − P0 )]
+Z [(x3 − x0 )(P1 − P0 ) + (y3 − y0 )(P2 − P0 ) + (z3 − z0 )(P3 − P0 )] .
Cette denière expression donne les coordonnées du vecteur P − P0 par rapport à la base
{P1 − P0 , P2 − P0 , P3 − P0 } de R3 ; ces coordonnées doivent coı̈ncider avec celle données par
la formule (6.3.1). En comparant ces coéfficients on trouve :
      
x x0 x1 − x0 x2 − x0 x3 − x0 X
(6.3.2) y  =  y0  +  y1 − y0 y2 − y0 y3 − y0   Y  .
z z0 z1 − z0 z2 − z0 z 3 − z0 Z
Les formules (6.3.2) sont donc les formules de changement de repère de Q à P. Les formules
de changement de repère de P à Q sont alors données par
   −1  
X x1 − x0 x2 − x0 x3 − x0 x − x0
(6.3.3)  Y  =  y1 − y0 y2 − y0 y3 − y0   y − y0  .
Z z1 − z0 z2 − z0 z3 − z0 z − z0
Remarquons que si les repères sont orthonormaux, la matrice carrée qui apparait dans la
formule (6.3.2) est orthogonale et par suite son inverse est égale à sa transposée.
Chapitre VI 133

Exemple 6.3.1 On suppose fixé un repère P. Soit Q = (Q0 , Q1 , Q2 , Q3 ) le repère don les
points ont coordonnées Q0 = (1, 1, 1), Q1 = (1, 2, 3), Q2 = (3, 1, 2) et Q3 = (2, 3, 1) dans P.
Alors les équations du changement de repère de Q à P sont :
       
x 1 0 2 1 X  x = 1 + 2Y + Z
y  = 1 + 1 0 2  Y  ⇐⇒ y = 1 + X + 2Z
z 1 2 1 0 Z z = 1 + 2X + Y.

Les équations cartesiennes dans le repère Q d’une droite ou d’un plan dont on connait les
équations dans P se trouvent par substitution. Par exemple
 
x−y+1 =0 1 + 2Y + Z − (1 + X + 2Z) + 1 = −X + 2Y − Z + 1 = 0
⇐⇒
x − z + 2 = 0. 1 + 2Y + Z − (1 + 2X + Y ) + 2 = −2X + Y + Z + 2 = 0.

Dela même manière, les équations cartesiennes dans le repère P d’une droite ou d’un plan
dont on connait les équations dans Q se trouvent par substitution à partir des formules
inverses
   2 1 2
 X = − 13 − 23 x + 13 y + 23 z
  
X −3 3 3 x−1
Y  =  1 − 1 1 
y − 1 ⇐⇒ Y = − 13 + 13 x − 16 y + 16 z
3 6 6
1 1 1
Z −3 z−1 Z = − 13 + 31 x + 13 y − 31 z.

3 3

Terminons par une remarque sur les changements de repères dans l’espace euclidien.
La matrice carrée qui apparait dans les formules (6.3.2) est alors orthogonale. On a vu à la
Proposition 5.3.3, énoncé 2 que le déterminant d’une telle matrice est égal à 1 ou à −1.

Définition 6.3.1 Nous dirons que l’orientation des repères P et Q est la même ou est opposée
selon que le signe du déterminant de la matrice de changement de base soit positif ou negatif.

Tous les repères de l’espace euclidien sont donc repartis en deux classes d’orientation.

Remarque 6.3.1 Signalons que la notion mathématique d’orientation est une notion rélative :
on peut seulement dire si deux repères ont même orientation ou bien orientation opposée, il
n’y a pas de raison de privilegier une classe ou l’autre. En Physique on convient de choisir
comme orientation positive de l’espace A3 en suivant la règle de la main droite.

§ 4 Exercices
Exercice 6.1 Écrire les équations paramétriques et cartésiennes de la droite passante par le
point P (1, 1, 1), parallèle aux plans d’équations x + 2y − z = 0 et 2x + z = 0.

Exercice 6.2 Déterminer la projection du point Q(1, 2, 0) sur le plan d’équation x + y + z = 1


parallèlement à la droite passant par R(2, 1, 0) et S(1, 0, 3).

Exercice 6.3 Écrire les équations paramétriques et cartésiennes de la droite intersection du


plan π passant par A(1, 2, 0), B(1, −1, 1) et C(0, 0, 1) avec le plan σ d’équation x + y + 2z = 3.
134 Espaces affines et euclidiens

Exercice 6.4 Pour toute valeur de α ∈ R, dire quelle est la position relative entre les droites
 
x−y+z =0 2x + z = 2α + 12
, .
2x + 4y − z = 6 2y − αz = 2

Exercice 6.5 Pour toute valeur de b ∈ R, dire quelle est la position relative entre les droites

 x = 1 + 2bt0
 
 x = 1 + b + 2t
rb : y = −1 − 3bt e sb : y = −1 − b − 3t0
z = 1 + b + 6t z = 1 + 6bt0 .
 

Exercice 6.6 Calculer la distance dans l’espace euclidien A3 , entre le point P (2, 0, −1) et la
droite 
x1 − x3 = 2
.
x2 = 2

Exercice 6.7 Soient S et S 0 les variétés linéaires introduites à l’Exercice 5.9, interprétées
comme varietés linéaires dans l’espace euclidien. Calculer la distance entre S et S 0 .

Exercice 6.8 Dans l’espace A3 , donnons les points P (−1, 0, −1) et Q(2, 0, −3) et la droite

2x + 3y + 3z + 1 = 0
s: .
4x + 7y + 6z + 2 = 0

a) Écrire les équations paramétriques et cartésiennes de la droite r passante par P et Q.


b) Déterminer la position relative entre r et s.
c) Déterminer tous les plans passants par P et Q ed ayant distance 1 de s.
d) Déterminer tous les plans passants par P et Q ed ayant la moindre distance possible
de s.
e) Déterminer tous les plans passants par P et Q ed ayant distance maximum possible
s.

Exercice 6.9 Dans l’espace euclidien :


a) Déterminer un plan π  passant parles points P = (1, 1, 1) et Q = (0, 1, 0), parallel à la
x−y =0
droite t d’équations t :
x + 2y = 1.
b) Déterminer une droite r orthogonale au plan π et passante par P .
c) Déterminer, si possible, une droite s parallèle à r et ayant distance 1 de r. Il y a com-
bien de droites ayant ces propriétés ?
d) Déterminer, si possible, deux droites satisfaisantes les propriétés au point c) et ayant
distance égale à 2.

Exercice 6.10 Dans l’espace euclidien A3 , considérons les droites r1 , r2 , r3 :


  
x + 2y − 2 = 0 x−y+1=0 y−2=0
r1 : r2 : r3 :
x + 2z = 0 x+z+1=0 x − 3z − 1 = 0

a) Choisir deux droites parmi r1 , r2 , r3 et montrer qu’elles sont gauches.


Chapitre VI 135

b) Déterminare la distance entre les droites choisies en a).


c) Dire s’il existe une droite sur le plan z = 5 qui intersecte les trois droites r1 , r2 , r3 .
d) Établir s’il existe des droites parallèles au plan z = 5 qui intersectent les trois droites
r1 , r2 , r3 .

Exercice 6.11 Dans A3 considérons les droites



  x=t+2
x + y − (k + 1)z + 1 = 0
rk : ; s: y =3−t
x+z =0
z = −t − 2.

a) Déterminer, s’il y en a, les valeurs de k telles que la droite rk soit orthogonale à la droite
s.
b) Pour toutes les droites rk trouvées en a), établir s’il existe un plan contenant cette droite
et la droite s et dans ce cas écrire les équations de ce plan.
c) Déterminer, s’il y en a, les valeurs de k telles que la droite rk soit parallèle à la droite s.
d) Pour toutes les droites trouvées au point c), calculer la distance entre rk et s.

Exercice 6.12 a) Ecrire l’équation cartesienne du plan π orthogonal à σ : x − y + 2z = 0


et contenant la droite 
x + 2y = 3
r:
x − z = 1.

b) Déterminer les points de r ayant distance 6 de la droite s = π ∩ σ.
c) Écrire les équations de π dans le repère donné par les points Q0 (1, 1, 0), Q1 (2, 0, 2),
Q2 (1, 3, 1), Q3 (6, 2, −2).

Exercice 6.13 Dans l’espace euclidien, considérons les droites :


 
x+y =0 x − 4y + 4 = 0
r: ; s: .
y+z+3=0 y−z =0

a) Déterminer la droite ` passante par P (1, 0, 1), incidente r et orthogonale à s.


b) Les droites ` et s sont-elles contenues dans un même plan ?
c) Calculer la distance entre ` et s.
d) Soit s0 la droite passante par P parallèle à s. Déterminer les équations de s dans le
repère où l’axe X est la droite ` et l’axe Y est la droite s0 .

Exercice 6.14 Dans l’espace euclidien muni d’un repère R, considérons la droite

2x + z = 2
r: .
3y − z = 3

a) Écrire les équations cartésiennes de toutes les droites de l’espace passantes par P =
(7, 4, 2) et orthogonales à r.
b) Déterminer la position relative entre ces droites et la droite r.
136 Espaces affines et euclidiens

c) Écrire les équations de la droite r0 passante par P et parallèle à r.


d) Déterminer les plans contenants r0 ayant distance √7
2
de r.
e) Soit R 0 le repère orthonormal ayant orientation opposée à R dont l’origine est le point
Q0 (1, 1, 0), l’axe X est la droite r, orientée suivant les x croissantes et tel que les coor-
données du point P dans R 0 soient (0, 0, 7). Écrire les équations de changement entre
les deux repères.
f) Choisir un des plans trouvés en d) et en écrire les équations dans R 0 .

Exercice 6.15 Dans l’espace euclidien muni d’un repère R, considérons les droites
 
x−y+z =0 2x + z = 2β + 12
r: sβ : .
2x + 4y − z = 6 2y − βz = 2

a) Calculer la distance entre la droite r et le point P = (0, 1, 1).


b) Établir pour quelles valeurs de β ∈ R les droites r et sβ sont gauches.
c) Pour β = 0, déterminer, s’il en existe, une droite orthogonale et sécante les droites r et
s0 .
d) Déterminer les valeurs β̄ ∈ R telles que r et sβ̄ soient orthogonales.
e) Soit R 0 un repère dans lequel l’axe X est la droite r, l’axe Y estla droite sβ̄ , avec β̄ une
des valeurs trouvées en d). Écrire les équations de l’axe Z dans le repère R.
Annexe I

Nombres complexes

Dans cet appendice nous rappelons brièvement quelques notions sur le corps des nombres
complexes.

Définition A.1 Le corps des nombres complexes, noté C, est l’ensemble R2 muni de l’addition
vectorielle usuelle et d’une opération de multiplication

· : C × C −→ C
((a, b), (c, d)) 7−→ (ac − bd, ad + bc)

Nous laissons au lecteur le soin, bien ennuyeux, de vérifier que la multiplication définie
ci-dessus est associative, commutative et se distribue par rapport à l’addition. Remarquons
que le vecteur nul (0, 0) vérifie (a, b) · (0, 0) = (0, 0) et que le vecteur (1, 0) est un élément
neutre pour cette multiplication :

(a, b) · (1, 0) = (a, b).

Toutes ces propriétés nous disent donc que C est un anneau commutatif (voir Remarque
1.1.3). De plus, si (a, b) 6= (0, 0), on a que
  2
−b a + b2 −ab + ab
 
a
(a, b) · , = , = (1, 0)
a2 + b2 a2 + b2 a2 + b2 a2 + b2

donc tout élément non nul est inversible. C est donc bien un corps commutatif.
Le vecteur (0, 1) a aussi une propriété remarquable : son carré est l’opposé de l’identité (1, 0)

(0, 1) · (0, 1) = (−1, 0) = −(0, 1).

On va donc simplifer la notation et écrire 1 = (1, 0) et i = (0, 1) (ce dernier élément satisfait
donc la propriété i2 = −1 et est appelé unité imaginaire). Par suite tout nombre complexe
s’écrit sous la forme
(a, b) = a(1, 0) + b(0, 1) = a + ib
dite forme algébrique du nombre complexe. Les coéfficients a et b s’appellent alors la partie
réelle et la partie imaginaire du nombre complexe a + ib.
138 Nombres complexes

Remarque A.1 Si on oublie la multiplication, le corps C coı̈ncide par définition avec l’espace
vectoriel R2 . La fonction
R −→ C
a 7−→ a
est bien évidémment linéaire et injective et on vérifie tout de suite qu’elle respecte la multi-
plication. R est donc un sous-corps (et pas seulement un sous-espace) de C, tout comme le
corps Q des nombres rationnels est un sous-corps de R.

Définition A.2 Soit z = a + ib un nombre complexe. Le nombre complexe z̄ = a − ib est appelé le


conjugué de z. La fonction qui à tout z ∈ C associe z̄ ∈ C est dite conjuguaison complexe.

Proposition A.1 La conjuguaison complexe est un isomorphisme de l’espace vectoriel réel C dans
soi-même. De plus
1. z̄¯ = z pour tout z ∈ C ;
2. un nombre z ∈ C est réel si et seulement si z = z̄.

Démonstration On vérifie par un simple calcul que la conjuguaison est linéaire. Son image
contient les vecteurs 1 = 1̄ et −i = ī, donc contient une base et est par suite surjective, donc
bijective car source et but ont même dimension. Puisque la conjuguaison ne fait que changer
le signe de la partie imaginaire, il est clair que en repétant deux fois cette opération on trouve
la fonction identité. Enfin

a + ib = a − ib ⇐⇒ ib = 0 ⇐⇒ b=0

cette dernière équivalence suivant de b = −i(ib). 


Remarquons que le produit z z̄ = (a + ib)(a − ib) = a2 + b2 est un nombre réel non negatif,
et nul si et seulement si z = 0. En particulier on a pour tout z 6= 0

z −1 = .
z z̄
2+3i
Exemple A.1 La forme algébrique du nombre complexe 1+i est

2 + 3i 2 + 3i 1 − i 5+i 5 1
= = = + i.
1+i 1+i 1−i 1+1 2 2

Définition
√ A.3 La valeur absolue du nombre complexe z est le nombre réel non-negatif |z| =
z z̄.

Remarquons que pour a ∈ R la valeur absolue usuelle sur R vérifie bien |a| = a2 , donc
la valeur absolue complexe coı̈ncide avec la valeur absoule réele sur le sous-corps R ⊂ C.

Proposition A.2 Pour tous z, w ∈ C


1. |zw| = |a| · |w ;
2. (inégalité triangulaire) |z + w| ≤ |z| + |w| ;
3. |z| = 0 ⇐⇒ z = 0.
Annexe I 139

Démonstration Les deux dernières propriétés suivent de la Remarque 5.1.1 et de la Propo-


sition 5.1.2 en remarquant que que la valeur absolue sur C coı̈ncide avec la norme sur R2
associée au produit scalaire standard. Quant à la multiplicativité, si z = a + ib et w = c + id
alors
|zw|2 = (ac − bd)2 + (ad + bc)2
= a2 c2 + b2 d2 − 2abcd + a2 d2 + b2 c2 + 2abcd
= (a2 + b2 )(c2 + d2 )
= |z|2 |w|2 .

 2  2
a b a b |z|2
Si z = a + ib 6= 0 on peut écrire z = |z|( |z| + i |z| ). Puisque |z| + |z| = |z|2
= 1, il
a b
existe un unique ϑ ∈ [0, 2π) tel que |z| = cos ϑ et |z| = sin ϑ, soit

z = |z|(cos ϑ + i sin ϑ)

qui est appelée la forme trigonométrique du nombre complexe. L’angle ϑ est appelé l’argu-
ment de z. Si a 6= 0, on peut calculer l’argument comme ϑ = arctan ab .

Exemple A.2 La forme trigonométrique du nombre z = 3 + i est

√ 3 1  π   π 
| 3 + i|2 = 3 + 1 = 4 =⇒ z = 2( + i) = 2 cos + i sin .
2 2 6 6

Les calculs avec la forme trigonométrique des nombres complexes se simplifient remar-
quablement en faisant intervenir la fonction exponentielle. Rappelons que la foncion expo-
nentielle usuelle admet le dévéloppement en série :

X xn
ex = exp(x) =
n!
n=0

qui converge absolument en tout R et uniformement en tout intervalle fermé et borné. On


peut en fait utiliser la série ci-dessus comme définition de la fonction exponentielle, ce qui
permet de généraliser à d’autres situations.
La série exponentielle définit une fonction exp(z) pour tout z ∈ C. En utilisant la valeur
absolue complexe et l’inégalité triangulaire, l’étude de la convergence de la série exponen-
|z|n
tielle se ramène à la convergence de la série ∞
P
n=0 n! : la fonction exponentielle converge
donc absolument en C. Pour tout z0 ∈ C et tout r ≥ 0, la série converge uniformement dans
le sous-ensemble {z ∈ C : |z − z0 | ≤ r}.

Proposition A.3 exp(a + b) = exp(a) exp(b).

Démonstration Cette identité est conséquence de la convergence de la série exponentielle


en utilisant la formule du binôme de Newton
n    
n
X n k n−k n n!
(a + b) = a b , où =
k k k!(n − k)!
k=0
140 Nombres complexes

car Pm ak Pm bh ak bh
= 2m
P P
( k=0 k! )( h=0 h! ) P2m Ph+k=n
n=0 k! h!
k bn−k
= n=0 nk=0 ak! (n−k)!
= 2m 1 Pn n k n−k
P 
n=0 n! k=0 k a b
(a+b)n
= 2m
P
n=0 n!
d’où l’on tire :
∞ ∞ ∞
X ak X ah X (a + b)n
exp(a) exp(b) = ( )( )= = exp(a + b).
k! h! n!
k=0 h=0 n=0


Théorème A.1 (Formule d’Euler) Pour tour nombre complexe z = x + iy

ex+iy = ex (cos(y) + i sin(y)).

Démonstration Il suit de la Proposition A.3 que ex+iy = ex eiy . Il suffit donc de montrer
que exp(iy) = cos(y) + i sin(y). Rappelons les développements en série des fonctions trigo-
nométriques
∞ ∞
y2 y4 X (−1)k y3 y5 X (−1)k
cos(y) = 1 − + + · · · = y 2k , sin(y) = y − + + · · · = y 2k+1 .
2! 4! (2k)! 3! 5! (2k + 1)!
k=0 k=0

Les puissances entières de l’unité imaginaire se calculent facilement à partir de l’identité


i2 = −1 : on trouve que i2k = (−1)k et i2k+1 = (i2k )i = (−1)k i. En séparant les termes de
degré pair de ceux de degré impair on trouve donc
∞ ∞ ∞ ∞ ∞
X (iy)n X (iy)2k X (iy)2k+1 X (−1)k 2k X (−1)k 2k+1
exp(iy) = = + = y +i y
n! (2k)! (2k + 1)! (2k)! (2k + 1)!
n=0 k=0 k=1 k=0 k=0

c’est à dire exp(iy) = cos(y) + i sin(y). 

Corollaire A.1 Tout nombre complexe s’écrit de façon unique sous la forme exponentielle

z = |z|eiϑ .
√ π
Exemple A.3 La forme exponentielle du nombre z = 3+i (voir Exemple A.2) est z = 2ei 6 .

Alors que la forme algébrique permet de calculer simplement des additions de nombres
complexes, la forme exponentielle est bien adaptée pour les multiplications et divisions : si
z = |z|eiϑ et w = |w|eiϕ il suit des Proposition A.2 et Proposition A.3 que zw = |z||w|eiϑ eiϕ =
|zw|ei(ϑ+ϕ) . Le produit se calcule donc en multipliant les valeurs absolues et en additionnant
les arguments. En particulier, si z 6= 0 pour tout nombre entier n ∈ Z on a

z n = |z|n einϑ .

On peut aussi renverser cette formule :


Annexe I 141

1
Proposition A.4 Soit n un entier. Si α ∈ R, α ≥ 0, notons α n l’unique racine n-ième non-négative
de α. Tout nombre complexe z = |z|eiϑ 6= 0 admet n racines n-ièmes distinctes
1 ϑ 2kπ
wk = |z| n ei n + n , k = 0, 1, . . . , n − 1.

Démonstration Il est clair que wkn = |z|eiϑ+2kπ = |z|eiϑ = z. D’autre part on a n angles
distincts nϑ + 2kπ
n ∈ [0, 2π[, donc ces racines sont distinctes. 

Exemple A.4 Les racines cubiques de 8 = 8ei0 sont


2π √ 4π √
w0 = 2; w1 = 2ei 3 = −1 + i 3; w2 = 2ei 3 = −1 − i 3.

Exemple A.5 Les racines du polynôme X 2 + 2X + 2 − i se trouvent à l’aide de √ la formule



classique pour les équations de degré 2 : on calcule ∆ = 4 − 4 + 4i = 4i, donc ∆ = 4i =
p π π √ √
2 ei 2 = 2ei 4 = 2 + i 2. Les racines sont donc
√ √ √ √ √ √ √ √
−2 + 2 + i 2 2 2 −2 − 2 − i 2 2 2
w1 = = −1 + +i ; w2 = = −1 − −i .
2 2 2 2 2 2

On peut reformuler la Proposition A.4 en disant que, quelque soit z ∈ C, le polynôme


X n − z ∈ C[X] admet exactement n racines dans le corps C. En fait, le corps complexe jouit
d’une proprieté beaucoup plus forte, qui en a motivé l’introduction :

Théorème A.2 (Théorème Fondamental de l’Algèbre) Tout polynôme à coéfficients complexes


est complètement réductible. On exprime cette propriété en disant que le corps C est algébrique-
ment clos.

Toutes les démonstrations connues de ce théorème utilisent des thechniques (analytiques,


topologiques etc.) qui dépassent les bornes de ce cours. Pour une démonstration utilisant des
notions simples de calcul différentiel voir par exemple Serge Lang, Linear Algebra, Springer
1987, Appendice.

Corollaire A.2 Soit p(X) ∈ R[X] ⊂ C[X] un polynôme à coéfficients réels. Si z ∈ C est racine de
p(X) alors z̄ l’est aussi.

Démonstration Soit p(X) = an X n + an−1 X n−1 + · · · + a1 X + a0 , avec aj ∈ R, donc aj = āj


(voir Proposition A.1). Puisque z est une racine, on a an z n + an−1 z n−1 + · · · + a1 z + a0 = 0.
Alors

0 = 0̄ = an z n + an−1 z n−1 + · · · + a1 z + a0 = an z̄ n + an−1 z̄ n−1 + · · · + a1 z̄ + a0 .

Donc z̄ est aussi racine de p(X). 

Corollaire A.3 Tout polynôme p(X) ∈ R[X] de degré impair admet au moins une racine réelle.

Démonstration Il suit du Théorème Fondamental de l’Algèbre que p(x) a d = deg(p) racines


dans le corps C et il suit du Corollaire A.2 que ces racines sont réparties en couples de
racines complexes conjugées. Donc si d est impair, une au moins des racines est conjuguée à
soi-même. La Proposition A.1 nous dit alors qu’une telle racine est réelle. 
142 Nombres complexes

Exemple A.6 L’Exemple A.4 montre que le polynôme X 3 −8 ∈ R[X] √ admet une racine
√ réelle,
à savoir w0 = 2, et un couple de racines conjuguées w1 = −1 + i 3 et w2 = −1 − i 3 = w̄3 .

Exercices

2+ia
Exercice A.1 Dire pour quelles valeurs de a ∈ R le nombre 2+3i ∈ C est un nombre réel.

1+ib
Exercice A.2 Dire pour quelles valeurs de b ∈ R le nombre complexe est de valeur
√ 2+3i
absolue 5.

Exercice A.3 Soit z = √1+i √3 . Calculer z 10000 .
2+i 2

Exercice A.4 Déterminer les solutions de z 4 − i 3z 2 − 1 = 0.

Exercice A.5 Dire quelle parmi les suivantes est une application linéaire F : C4 → C3 telle
que Ker(F ) = h(1 + 2i, −1, 3 + i, 1 − i)i
a) F1 (z1 , z2 , z3 , z4 ) = (z1 + 3z2 + 2z4 , z1 − z2 − z3 + z4 , 4z2 + z3 + z4 ) ;
b) F2 (z1 , z2 , z3 , z4 ) = (z1 + 3z2 + 2z4 , z1 − z2 − z3 + z4 , z1 + 3iz2 − z4 ) ;
c) F3 (z1 , z2 , z3 , z4 ) = (z1 + 3z2 + 2z4 , (i − 1)z1 + (1 + 2i)z4 , z1 + 3iz2 + z4 ) ;
d) F4 (z1 , z2 , z3 , z4 ) = (z1 + 3z2 + 2z4 , z1 − z2 − z3 + z4 , z1 + z3 − 2z4 − i).

(1+ 3i)7
Exercice A.6 Écrire le nombre complexe z = 2(1+i)12
en forme algébrique.
a) Écrire une équation x2 + ax + b = 0, avec a, b ∈ R, satisfaite par z.
b) Écrire, si elle existe, une matrice symétrique A ∈ M (2 × 2, R) qui ait z comme valeur
propre.
c) A est-elle la matrice d’une isométrie ?
Annexe II

Équations différentielles linéaires

Dans cet appendice nous traitons les applications de l’agèbre linéaire aux équations diffé-
rentielles ordinaires.

§ 1 Exponentielle d’une matrice

Définition B.1.1 Soit A une matrice carrée à coéfficients réels ou complexes. On définit

X Ak
(B.1.1) exp(A) =
k!
k=0

Pour justifier le fait que exp(A) soit une matrice, nous devrions introduire une notion de
distance dans l’espace des matrices, c’est à dire une norme, afin de donner un sens à la
Ak
convergence de la suite des sommes partielles m
P
k=0 k! . Il est facile de se convaincre qu’une
telle norme existe, puisque le Corollaire 2.2.1 nous dit dit que l’espace des matrices n × n est
2
isomorphe à Rn . Nous négligerons ces questions de convergence et admettrons que la série
(B.1.1) définit bien une matrice.
   k 
d1 d1
Exemple B.1.1 Si D = 
 ..  k
 est une matrice diagonale, D = 
 ..  donc

. .
dn dkn

dk1 dk1
  P 
∞  d 
∞ e1
X  k!
..   k=0 k!
..   ..
exp(D) = = = .


 .   .  .
k=0 dkn P∞ dkn edn
k! k=0 k!

Proposition B.1.1 Si A et B sont semblables, A = HBH −1 , alors exp(A) = H exp(B)H −1 .


144 Équations différentielles linéaires

Démonstration C’est un simple calcul :


∞ ∞ ∞ ∞
!
X Ak X (HBH −1 )k X HB k H −1 X Bk
exp(A) = = = =H H −1 = H exp(B)H −1 .
k! k! k! k!
k=0 k=0 k=0 k=0


En particulier, si A est diagonalisable, le calcul de exp(A) se ramène au cas traité à
l’Exemple B.1.1.

Exemple B.1.2 Si N est une matrice nilpotente (voir Définition 4.3.3), n un entier tel que
N n = 0. Alors N k = N n N k−n = 0 pour k ≥ n. La série exponentielle se réduit alors à une
somme finie
N2 Nn
exp(N ) = In + N + + ··· + .
2 n!
Un cas particulier interessant est celui d’un bloc de Jordan de valeur propre nulle Jn,0 . Par
exemple        
0 1 1 0 0 1 1 1
exp = + = .
0 0 0 1 0 0 0 1
ou encore
1 1 21
         
0 1 0 1 0 0 0 1 0 0 0 1
1
exp 0 0 1 = 0 1 0 + 0 0 1 + 0 0 0 = 0 1 1 
2
0 0 0 0 0 1 0 0 0 0 0 0 0 0 1

1 1 12 1 1
   
0 1 0 ... ... 0 6 . . . n!
..  .. 
 0 1 ...  1 1 ...
 
. .
.
   
 . . . . . . .   . . . . . . 1

exp 
 . . . .  = exp  . . . 6 .
  
. . . . 1
. 1 0 . 1
   
  
   2
 0 1  1 1
0 1

Exemple B.1.3 En général, il n’est pas vrai que exp(A + B) = exp(A) exp(B). Par exemple
     
0 1 0 0 0 1
+ =
0 0 1 0 1 0
       
0 1 1 1 0 0 1 0
L’Exemple B.1.2 nous dit que exp = et de même exp = . La
0 0 0 1 1 0 1 1
 
0 1
matrice est symétrique, donc orthogonalement diagonalisable :
1 0
! !
√1 − √12
 √1 √1 1 e + 1e e − 1e
    
0 1 2 1 0 2 2
exp = √1 √1
exp = .
1 0 2 2
0 −1 − √12 √12 2 e − 1e e + 1e

qui n’est égale ni à


        
0 1 0 0 1 1 1 0 2 1
exp exp = =
0 0 1 0 0 1 1 1 1 1
Annexe II 145

ni à         
0 0 0 1 1 0 1 1 1 1
exp exp = = .
1 0 0 0 1 1 0 1 1 2
Mieux, le fait même que le produit de ces matrices ne commute pas nous fait comprendre
qu’il n’est pas raisonnable d’attendre qu’en général l’exponentielle transforme l’operation
de somme de matrices (qui est commutative) en une multiplication de matrices (qui n’est
pas commutative).

Proposition B.1.2 Si les matrices A et B commutent (c’est à dire si AB = BA) alors exp(A+B) =
exp(A) exp(B).

Démonstration Identique à celle de la Proposition A.3, car la formule du binôme de Newton


peut être utilisée pour calculer les puissances de n’importe quel binôme dont les termes
commutent. 

Corollaire B.1.1 La matrice exp(A) est inversible.

Démonstration Immédiate : A et −A commutent, donc exp(A) exp(−A) = exp(0) = In . 


On peut appliquer la proposition B.1.2 au cas d’un bloc de Jordan Jn,λ = λIn + Jn,0 , car
la matrice scalaire λIn commute avec n’importe quelle matrice.
Plus généralement, si J est une matrice de Jordan, notons D la matrice diagonale qui a
sur la diagonale les mêmes coéfficients que J. Alors N = J − D est une matrice nilpotente :
si les blocs de Jordan de J sont Jn1 ,λ1 , . . .Jnk ,λk les blocs de N sont Jn1 ,0 , . . ., Jnk ,0 . On a
donc que J = D + N et on vérifie immédiatement que D et N commutent. Donc exp(J) =
exp(D) exp(N ) et ces deux facteurs se calculent comme indiqué aux Exemples B.1.1 et B.1.2.
Enfin la Proposition B.1.1 permet de calculer l’exponentielle d’une matrice dont le po-
linôme caractéristique est complètement réductible (et en particulier, toute matrice à coéffi-
cients complexes), grâce au Théorème 4.3.1 qui nous dit qu’une telle matrice est semblable
à une matrice de Jordan.

§ 2 Équations différentielles linéaires à coéfficients constants du


premier ordre
En Analyse, la propriété caractérisante de la fonction exponentielle est d’être égale à sa
propre fonction dérivée. Cette propriété analytique peut aussi se déduire du développement
en série (Proposition B.2.2 ci-dessous).
Soit I un intervalle de la droite réelle et F (I) l’espace vectoriel des fonctions à valeurs
réelles sur I (Exemple 1.2.5). Des propriétés de la dérivation, on déduit facilement que le
sous-ensemble D(I) ⊆ F (I) des fonctions dérivables en tout point de I est un sous-espace.
Comme d’habitude, nous notons f 0 la dérivée de la fonction f .
Fixons a ∈ R et considérons la fonction

L : D(I) −→ F (I), L(f ) = f 0 − a f.

Puisque la dérivation est linéaire, L est une fonction linéaire. La Proposition 2.1.7 entraı̂ne
alors le resultat suivant :
146 Équations différentielles linéaires

Proposition B.2.1 L’ensemble Ker(L) des solutions de l’équation différentielle homogène y 0 = ay


est un sous-espace vectoriel de D(I).
Pour toute fonction f ∈ F (I) fixée, l’ensemble L−1 (f ) des solutions de l’équation différentielle
y 0 − ay = f est vide ou bien une variété linéaire : toute solution s’obtient en sommant à une solution
particulière y0 une solution de l’équation homogène associée y 0 = ay.

Les espaces F (I) et D(I) étant de dimension infinie (Corollaire 2.5.2 et Remarque 2.5.2),
nous ne sommes pas en mésure de dire quelle est la dimension de Ker(L).

Proposition B.2.2 La fonction exp(at) est solution de l’équation différentielle y 0 = ay.

Démonstration Puisque la série exponentielle converge absolument et uniformement, on


peut la dériver terme à terme :

X d (at)n X an tn−1 ∞ X (at)m ∞
d
exp(at) = = =a = a exp(at)
dt dt n! (n − 1)! m!
n=0 n=1 m=0

(avec la substitution m = n − 1). 


On a donc que hexp(at)i ⊆ Ker(L). En fait, on peut montrer qu’il s’agit d’une égalité.
Remarquons pour cela que si g ∈ Ker(L), alors g est deux fois dérivable en tout point de I :
0
g 00 = g 0 = (ag)0 = ag 0 = a2 g.

On peut bien sûr répéter ce raisonnement : g est dérivable n fois en tout point de I et sa
dérivée n-ième satisfait g (n) = an g et cela pour tout n ∈ N. Donc g est développable en série
de Taylor en tout point de I. Supposons, pour simplifier les notations, que 0 ∈ I. Alors,
puisque g (n) (0) = g(0)an :
00 g (n) (0) n
g = g(0) + g 0 (0)t + g 2(0) + · · · + n! t + . . .
= g(0)(1 + at + 12 (at)2 + · · · + 1 n
n! (at) + . . . ) = g(0) exp(at)

et donc Ker(L) = hexp(at)i ; la solution générale de l’équation y 0 = ay est c0 eat , où c0 est une
constante.
Une solution particulière de l’équation non homogène y 0 − ay = f se trouve par la
méthode de variation de la constante : on cherche une solution de la forme c(t)eat , où c(t)
est une fonction qu’on détermine en dérivant :

(c(t)eat )0 − ac(t)eat = (c0 (t)eat + ac(t)eat ) − ac(t)eat = c0 (t)eat = f =⇒ c0 (t) = e−at f

donc c(t) est une primitive de e−at f . Par la Proposition B.2.1, la solution générale de l’équa-
tion y 0 − ay = f est alors la fonction c(t)eat + c0 eat = (c(t) + c0 )eat , avec c0 constante.

On peut répéter le même raisonnement pour résoudre un système d’équations différentielles


linéaires homogène à coéfficients constants
 0  0   
 y1 = a1,1 y1 + · · · + a1,n yn
 y1 a1,1 . . . a1,n y1
.. .. ⇐⇒
 ..   .. .
..   ... 
 . = .
 
. . 
 0
 0
yn = an,1 y1 + · · · + an,n yn yn an,1 . . . an,n yn
Annexe II 147

que nous écrirons aussi Y 0 = AY . Un tel système peut être interpreté comme la recherche
du noyau d’une fonction linéaire
   0  
f1 f1 f1
n n  ..   ..   .. 
L : D(I) −→ F (I) , L  .  =  .  − A  . 
fn fn fn

où F (I)n est l’espace vectoriel réel des n-uplets de fonctions sur l’intervalle I et D(I)n le
sous-espace des n-uplets de fonctions dérivables en tout point de I. Encore une fois, la Pro-
position 2.1.7 entraı̂ne :

Proposition B.2.3 Les solutions de l’équation differentielle homogène Y 0 = AY forment un sous-


espace Ker(L) de D(I)n .
Pour tout f = (f1 , . . . , fn ) ∈ F (I)n fixé, l’ensemble L−1 (f ) des solutions de l’équation différen-
tielle Y 0 − AY = f est vide ou bien une variété linéaire : toute solution s’obtient en sommant à une
solution particulière y0 une solution de l’équation homogène associée Y 0 = AY .
d
Proposition B.2.4 La matrice exp(At) satisfait la rélation dt exp(At) = A exp(At). Les colonnes
de la matrice exp(At) sont une base de l’espace vectoriel Ker(L) des solutions de l’équation différentielle
Y 0 = AY .
d
Démonstration La vérification que dt exp(At) = A exp(At) est identique à celle de la Propo-
sition B.2.2 :

X d (At)n X An tn−1 ∞
X (At)m ∞
d
exp(At) = = =A = A exp (At).
dt dt n! (n − 1)! m!
n=0 n=1 m=0

La deuxième vérification est aussi semblable à celle qu’on a déjà vu : si G = t (g1 , . . . , gn )


est solution de G0 = AG, alors G00 = (AG)0 = A2 G, et de même G(n) = An G : les fonctions
gi sont dérivables un nombre arbitraire de fois et on peut développer G en série de Taylor.
Puisque G(n) (0) = An G(0),
00 (n)
G = G(0) + G0 (0)t + G 2(0) t2 + · · · + G n!(0) tn + . . .
= 1 + At + 12 (At)2 + · · · + n!
1
(At)n + . . . G(0) = exp(At)G(0)

Donc G s’obtient en multipliant la matrice exp(At) par le vecteur constant G(0) ∈ Rn , donc
G est combinaison linéaire des colonnes de exp(At). Cette matrice étant inversibe (corol-
laire B.1.1), ses colonnes sont libres et forment donc une base de Ker(L). 
Dans ce cas encore, on peut trouver une solution particulière de Y 0 − AY = f par la
méthode de variation de la constante.

§ 3 Équations différentielles linéaires à coéfficients constants d’ordre


supérieur
Reprenons les notations de la section B.2 et en particulier notons f (k) la dérivée k-ième
de la fonction f . Indiquons par D(n) (I) ⊂ F (I) le sous-espace des fonctions dérivables n
fois en tout point de I. Considérons une fonction
148 Équations différentielles linéaires

L : D(n) −→ F (I), L(f ) = f (n) + an−1 f (n−1) + · · · + a1 f 0 + a0 f


où les coéfficents a0 , . . . , an−1 sont constants. Puisque la dérivation est linéaire, L est une
fonction linéaire. La Proposition 2.1.7 entraı̂ne alors le resultat suivant :

Proposition B.3.1 L’ensemble Ker(L) des solutions de l’équation differentielle homogène

(B.3.1) y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = 0

est un sous-espace vectoriel de D(n) .


Si f ∈ F (I), l’ensemble L−1 (f ) des solutions de l’équation

(B.3.2) y (n) + an−1 y (n−1) + · · · + a1 y 0 + a0 y = f

est vide ou bien une variété lineaire : toute solution s’obtient en sommant une solution particulière
y0 et une solution de l’équation differentielle homogène associée (B.3.1).

Les espaces Dn (I) et F (I) n’étant pas de type fini (Corollaire 2.5.2 et Remarque 2.5.2) il
est remarquable que l’espace Ker(L) soit de type fini. L’outil essentiel pour tester l’indépen-
dance linéaires de fonctions est encore une fois un déterminant.

Définition B.3.1 Soient y1 , . . . , yn ∈ Dn (I). La matrice

y1 y2 ... yn
 
 y10 y20 ... yn0 
W (y1 , . . . , yn ) =  .. .. ..
 

 . . . 
(n−1) (n−1) (n−1)
y1 y2 . . . yn

est dite matrice wrońskienne et w(y1 , . . . , yn ) = det W (y1 , . . . , yn ) est appelé déterminant
wrońskien.

Proposition B.3.2 Les fonctions y1 , . . . , yn ∈ Dn (I) sont linéairement indépendantes si et seule-


ment si la fonction w(y1 , . . . , yn ) ne s’annule en aucun point de I.

Démonstration Supposons que les fonctions y1 , . . . , yn soient liées et considérons une com-
binaison linéaire à coéfficients c1 , . . . , cn ∈ R non tous nuls :

(B.3.3) c1 y1 + · · · + cn yn = 0.
(k) (k)
En dérivant k fois l’équation (B.3.3), nous déduisons les rélations c1 y1 + · · · + cn yn = 0
pour k = 0, 1, . . . , n − 1. Le systéme linéaire homogène W (y1 , . . . , yn )x = 0 admet donc
la solution non nulle (c1 , . . . , cn ) ∈ Rn . Le Corollaire 3.1.2 nous dit alors que la fonction
w(y1 , . . . , wn ) est nulle en tout point de I.
Nous omettons la démonstration de la réciproque, qui est élémentaire mais demande de
faire de l’algèbre linéaire sur l’anneau commutatif Dn (I). 

Corollaire B.3.1 L’ensemble des solutions d’une équation différentielle linéaire homogène d’ordre n
est un espace vectoriel de dimension inférieure ou égale à n.
Annexe II 149

Démonstration Si y1 , . . . , yn , yn+1 sont solutions de l’équation (B.3.1),


(n) (n−1)
yi = −an−1 yi − · · · − a1 yi0 − a0 yi pour i = 1, . . . , n + 1.

La dernı̀ere ligne de la matrice wrońskienne


 
y1 y2 ... yn yn+1
 . .. .. .. 
 .. . . . 
W (y1 , . . . , yn , yn+1 ) =  (n−1) (n−1)

(n−1)

(n−1) 
y
 1 y2 . . . y n yn+1 
(n) (n) (n) (n)
y1 y2 . . . yn yn+1

est donc combinaison linéaire des premières n lignes, donc w(y1 , . . . , yn , yn+1 ) = 0. La Pro-
position B.3.2 nous dit alors que ces fonctions sont liées par une rélation linéaire à coéfficients
constants. 

La recherche des solutions de l’équation d’ordre n se ramène à celle d’un système d’équa-
tions d’ordre 1. En effet, si y est solution de

(B.3.4) y 00 + a1 y 0 + a0 y = 0

en posant z = y 0 on a que z 0 = y 00 , donc t (y, z) est solution du système


 0  0   
y =z y 0 1 y
⇔ = .
z 0 = −a0 y − a1 z z0 −a0 −a1 z

De même, en posant y1 = y, y2 = y 0 , . . ., yn = y (n−1) , la recherche des solutions de


l’équation (B.3.1) se ramène à celle d’un d’un système d’équation différentielles linéaires
homogène d’ordre 1
 0
 y1 = y2
0

y = y3


 2

.. .. ⇐⇒ Y 0 = CY
. .
0

 yn−1 = yn



 0
yn = −a0 y1 − a1 y2 − · · · − an−1 yn

où la matrice C, dite matrice compagnon de l’équation (B.3.1) , est


 
0 1 0 ... 0
 .. .. 
 0 0 1 . . 
. ..
 
(B.3.5) C=  .. .. .. 
. . . 0 
 
 0 0 ... 0 1 
−a0 −a1 . . . −an−2 −an−1

Par la Proposition B.2.4, une base de solutions de l’équation Y 0 = CY est donnée par
les colonnes de la matrice exp(Ct). L’espace vectoriel Ker(L) des des solutions de l’équation
(B.3.1) est donc engendré par les coéfficients de la matrice exp(Ct).
150 Équations différentielles linéaires

Comme on l’a vu à la fin de la section B.1, si J est une forme de Jordan (ou diagonale) de
C et H la matrice des vecteurs propres généralisés, alors exp(Ct) = H exp(Jt)H −1 . En par-
ticulier, les coéfficients de exp(Ct) sont combinaisons linéaires des coéfficients de exp(Jt),
plus faciles à calculer.
Quant au calcul des valeurs propres de C, et donc de la forme J, remarquons que le
polynôme caractéristique de C est
pC (x) = det(C − xIn ) = (−1)n (xn + an−1 xn−1 + · · · + a1 x + a0 )
et l’equation xn + an−1 xn−1 + · · · + a1 x + a0 = 0 est appelée, pour des raisons évidentes,
équation caractéristique de l’équation différentielle (B.3.1).
Fort heureusement, la forme de la matrice C comporte que le calcul de sa forme de Jordan
est particulièrement simple et ne présente aucune des subtilités que nous avons recontré
dans le cas général : toute valeur propre corréspond à exactement un bloc de Jordan, grâce
au Théorème 4.3.1 et au

Lemme B.3.1 Si λ 6= 0 est une valeur propre (réelle ou complexe) de a matrice compagnon C alors
la multiplicité géométrique de λ est égale à 1.

Démonstration En éffet le déterminant de la sous-matrice d’ordre n − 1 obtenue en éffaçant


la dernière ligne et colonne de
 
−λ 1 0 ... 0
 .. .. 
 0 −λ 1 . . 
. .
 
C − λIn =  . . . . . .
. .
 
 . . 0 

 0 0 ... −λ 1 
−a0 −a1 . . . −an−2 −an−1 − λ

vaut (−1)n−1 λn−1 6= 0. Les n − 1 premières lignes de C − λIn sont donc libres, par suite
rg(C − λIn ) ≥ n − 1, donc mg (λ) = n − rg(C − λIn ) ≤ 1. La Proposition 4.2.5 permet alors
de conclure. 
Remarquons que si λ = 0 est valeur propre de la matrice C, alors a0 = (−1)n det(C) = 0
et par suite l’équation (B.3.1)
 0
y (n) + an−1 y (n−1) + · · · + a1 y 0 = y (n−1) + an−1 y (n−2) + · · · + a1 y = 0

se réduit à l’équation (non homogène) y (n−1) + an−1 y (n−2) + · · · + a1 y = c d’ordre n − 1.

Voyons en détail le cas de l’équation (B.3.4) d’ordre 2. Soient λ et µ les racines (dans R
ou C) du polynôme caractéristique
 
−x 1
p(x) = det = x2 + a1 x + a0 = (x − λ)(x − µ).
−a0 −a1 − x
Cas λ 6= µ. Dans ces cas la matrice est diagonalisable (sur R ou C) : l’espace Ker(L) des
solutions de (B.3.4) est engendré par les coéfficients de la matrice
   λt 
λt 0 e 0
exp =
0 µt 0 eµt
Annexe II 151

et donc l’espace des solutions de l’équation (B.3.4) admet la base {eλt , eµt }.
Remarquons que si λ et µ ne sont pas réels, ils sont conjugués (Corollaire A.2) et en
posant λ = α + iβ (et donc µ = λ = α − iβ), de la formule d’Euler (Théorème A.1) on
déduit :

eλt = eαt+iβt = eαt (cos(βt) + i sin(βt)); eµt = eαt−iβt = eαt (− cos(βt) + i sin(βt))

et donc les fonctions de variables réelles


1 1 λt
eαt cos(βt) = (eλt − eµt ), eαt sin(βt) = (e + eµt )
2 2i
forment aussi une base pour l’espaces des solutions de l’équation (B.3.4).

Cas λ = µ. Dans ce cas la matrice n’est pas diagonalisable (Remarque 4.2.3) et sa fome de
   2  
λ 1 0 t 0 0
Jordan est J = . Puisque = , on a
0 λ 0 0 0 0
       
0 t 1 0 0 t 1 t
exp = + =
0 0 0 1 0 0 0 1

et donc
  λt   λt
teλt
      
λt t λt 0 0 t e 0 1 t e
exp = exp exp = .
0 λt 0 λt 0 0 0 eλt 0 1 0 eλt

On en déduit donc que les fonctions {eλt , teλt } forment une base de l’espace vectoriel des
solutions de l’équation (B.3.4).

Nous pouvons à présent préciser le Corollaire B.3.1.

Corollaire B.3.2 L’espace vectoriel des solutions d’une équation différentielle linéaire homogène
d’ordre n est de dimension n.

Démonstration Il faut exhiber n solutions linéairement indépendantes. Nous savons que


l’espace des solutions est engendré par les coéfficients de la matrice exp(Jt), où J est une
forme de Jordan de la matrice compagnon de l’équation. Il suffit de traiter le cas d’une
matrice J qui est un bloc de Jordan, car
   
A 0 exp(A) 0
exp = .
0 B 0 exp(B)

Si J = J0,m est le bloc de Jordan m × m de valeur propre zéro, il suit de l’Exemple B.1.2 que
1 2 1 m−1 
1 t 2t ... (m−1) t

1 m−2 
 1
 t ... (m−2) t 
 .. .. 
 . . 
.
exp(J0,m ) = 
 .. .. 

 . . 

 t 
1
152 Équations différentielles linéaires

L’espace vectoriel engendré par les coéfficients de exp(J0,m ) est donc l’espace R[t]≤m−1 des
polynômes de degré inférieur ou égal à m − 1, qui est bien de dimension m (Exemple 1.4.15).
Si J = Jλ,m alors Jλ,m = λIm + J0,m , donc exp(Jλ,m ) = eλt exp(J0,m ). Par suite, l’espace
engendré par les coéfficients de exp(Jλ,m ) est l’espace engendré par les fonctions

{eλt , teλt , . . . , tm−1 eλt }.

Puisque W (eλt , teλt , . . . , tm−1 eλt ) = emλt W (1, t, . . . , tm−1 ), la Proposition B.3.2 permet de
conclure que ces fonctions sont linéairement indépendantes (sur R si λ ∈ R, sur C si λ ∈ C).
Encore une fois, si λ = α + iβ ∈ C nous pouvons trouver une base de fonctions réelles

eαt cos(βt), teαt cos(βt), . . . , tm−1 eαt cos(βt), eαt sin(βt), teαt sin(βt), . . . , tm−1 eαt sin(βt). 

Exemple B.3.1 Considérons l’équation y 000 − y = 0. La matrice compagnon et le polynôme


caractéristique sont :

√ √
 
0 1 0
3 −1 + i 3 −1 − i 3
C = 0 0 1  ; pC (x) = −(x − 1) = −(x − 1)(x − )(x − ).
2 2
1 0 1

Donc C a des valeurs propres distinctes et est diagonalisable sur C. La matrice exp(Ct) est
semblable à
   t 
t 0√ 0 e √
0 √
0
t
exp 0 −1+i 3
t 0√  =  0 e− 2 (cos( 23 t) + i sin( 23 t)) 0
   
2 √ √ 
−1−i 3 − 2t 3 3
0 0 2 t 0 0 e (cos( 2 t) − i sin( 2 t))
t
√ t

donc les fonctions {et , e− 2 cos( 23 t), e− 2 sin( 3
2 t)} forment une base de l’espace vectoriel
des solutions de l’équation y 000 − y = 0.

Exemple B.3.2 Considérons l’équation y 000 − 3y 00 + 3y 0 − y = 0. L’équation caractéristique est


donc pC (x) = −(x3 − 3x2 + 3x − 1) = −(x − 1)3 = 0. La matrice compagnon, la multiplicité
géométrique de la valeur propre 1 et la forme de Jordan de C sont alors :
     
0 1 0 −1 1 0 1 1 0
C = 0 0 1  ; mg (1) = 3 − rg  0 −1 1 = 3 − 2 = 1; J = 0 1 1 
1 −3 3 1 −3 2 0 0 1

La matrice exp(Ct) est donc semblable à

t2 t2 t
   t    
t t 0 e 0 0 1 t 2 et tet 2e
exp(Jt) = exp 0 t t  =  0 et 0  0 1 t = 0 et
  tet  .
0 0 t 0 0 et 0 0 1 0 0 et

L’espace vectoriel des solutions de l’équation y 000 − 3y 00 + 3y 0 − y = 0 est engendré par les
coéfficients de cette matrice : la solution générale de l’équation est donc (c0 + c1 t + c2 t2 )et ,
où c0 , c1 et c2 sont des constantes.
Annexe II 153

Une solution particulière de l’équation générale (B.3.2) se cherche par la méthode de va-
riation de la constante, qui se présente ici sous une forme assez avantageuse. Soit {y1 , . . . , yn }
une base de solutions de l’équation homogène (B.3.1) et y = c1 (t)y1 +· · ·+cn (t)yn . On calcule

y 0 = c1 (t)y10 + · · · + cn (t)yn0 + c01 (t)y1 + · · · + c0n (t)yn .

Si on impose de plus aux coéfficients ci de satisfaire c01 (t)y1 + · · · + c0n (t)yn = 0, alors

y 00 = c1 (t)y100 + · · · + cn (t)yn00 + c01 (t)y10 + · · · + c0n (t)yn0 .

(k) (k)
On répéte : si, pour 0 ≤ k ≤ n − 2, on impose que c01 (t)y1 + · · · + c0n (t)yn = 0, alors

(k+1)
y (k+1) = c1 (t)y1 + · · · + cn (t)yn(k+1) 0≤k ≤n−2

(n) (n−1)
y (n) = c1 (t)y1 + · · · + cn (t)yn(n) + c01 (t)y1 + · · · + c0n (t)yn(n−1)
En remplaçant dans (B.3.2) on trouve donc
 
(n) (n−1)
c1 (t) y1 + an−1 y1 + · · · + a1 y10 + a0 y1 + · · · +
 
(n) (n−1) (n−1) (n−1)
+cn (t) yn + an−1 yn + · · · + a1 yn0 + a0 yn + c01 (t)y1 + · · · + c0n (t)yn = f.

(n−1) (n−1)
Les yi étant solutions de (B.3.1), on trouve donc c01 (t)y1 + · · · + c0n (t)yn = f . Joignant
cette équation aux conditions imposées pour 0 ≤ k ≤ n − 2 on a alors que (c1 (t), . . . , c0n (t))
0

est solution du système linéaire




 c01 (t)y1 + · · · + c0n (t)yn =0


 0 0
c1 (t)y1 + · · · + cn (t)yn =0

 .. ..
. .
 0 (n−2) 0 (n−2)
c1 (t)y1 + · · · + cn (t)yn =0




 0
 (n−1) 0 (n−1)
c1 (t)y1 + · · · + cn (t)yn = f.

La matrice du système est donc la matrice wrońskienne de la base {y1 , . . . , yn }, donc inver-
sible par la proposition B.3.2. On peut alors calculer les c0j (t) par la formule de Cramer :
 
y1 . . . yj−1 0 yj+1 . . . yn
 .. .. .. .. .. 
0 1  . . . . . 
cj (t) = det  (n−1)

(n−1) (n−1)

(n−1) 
w(y1 , . . . , yn ) y1 . . . yj−1 0 yj+1 . . . yn 
(n) (n) (n) (n)
y1 . . . yj−1 f yj+1 . . . yn

y1 . . . yj−1 yj+1 . . . yn
 
(−1)n+j f  . .. .. .. 
= det  .. . . . 
w(y1 , . . . , yn ) (n−1) (n−1) (n−1) (n−1)
y1 . . . yj−1 yj+1 . . . yn

et on trouve finalement cj (t) en calculant une primitive.


154 Équations différentielles linéaires

t
Exemple B.3.3 √
Considérons√l’équation y 000 − y = 3 e− 2 . À l’exemple B.3.1on a trouvé la base
t t
{et , e− 2 cos( 23 t), e− 2 sin( 23 t)} pour l’espace des solutions de l’équation homogène. On
écrit la matrice wrońskienne
√ √
− 2t − 2t
 
3 3
et e cos( 2√ t) e cos( 2√ t)
 t −1 − t  √ √   √ √ 
3 3 −1 − 2t 3 3
W = e 2 e 2 cos( 2 t) + 3 sin( 2 t) e sin( t) − 3 cos( t)
 2 2 2


t
 √ √ √ t
 √ √ √ 
et −1 2 e
−2
cos( 23 t) − 3 sin( 23 t) −1 − 2
2 e sin( 23 t) + 3 cos( 23 t)

3 3
de déterminant det W = 2 . Ensuite on calcule
t
√ √
− 2t
 
−2 3 3
0  e √ cos( 2√t) √   e √ cos( 2√t) √ 
−1 − 2t 3 3 −1 − 2t
c01 (t) = 2
2 e cos( 2 t) + 3 sin( 2 t) 2 e sin( 23 t) − 3 cos( 23 t) 
 
√ det  0
3 3   √ √ √   √ √ √  
t
−1 − 2t −1 − 2t
3e− 2 2 e cos( 23 t) − 3 sin( 23 t) 2 e sin( 23 t) + 3 cos( 23 t)
3t
= e− 2

− 2t
 
3
et 0 e cos( 2√ t) √ √
√ √ √
2 3 3
 
 t −1 − 2t 3 3
c02 (t) = √ det  e 0 2 e sin( 2 t) − 3 cos( 2 t)  = − cos( t)+ 3 sin( t)
3 3 
t
 √ √ √   2 2
−1 − 2t
et 3e− 2 2 e
3
sin( 2 t) + 3 cos( 2 t) 3


− 2t
 
3
et e cos( 2√ t) 0 √ √
√ √ √
2 3 3
 
− 2t
c03 (t) = √ det  et −1
2 e
3
cos( 2 t) + 3 sin( 2 t) 3
 
0  = − 3 cos( t)−sin( t).
3 3   √ √ √   2 2
− 2t t
et −1
2 e cos( 23 t) − 3 sin( 23 t) 3e− 2
3t
Donc c1 (t) = e− 2 ,
√ √ ! √ √ !
2 3 3 t 3 2 3 t
c2 (t) = − √ sin( t) − 2 cos( t) e− 2 , c3 (t) = − 2 sin( t) + √ cos( t) e− 2
3 2 2 2 3 2

t
√ √
− 2t 8 − 2t
d’où la solution particulière y = c1 (t)et + c2 (t)e− 2 cos( 2
3
t) + c3 (t)e sin( 3
2 t) = − 3 e . La
t
√ √
− 2t 8 − 2t
solution générale est alors γ1 et + γ2 e− 2 3 3
cos( 2 t) + γ3 e sin( 2 t) − 3 e avec γ1 , γ2 , γ3 ∈ R.

Exercices

Exercice B.1 Soient E et F les matrices de l’Exercice 4.12. Calculer exp(tE) et exp(tF ).

Exercice B.2 Déterminer toutes les solutions de l’équation différentielle homogène

y 000 − 4y 00 + y 0 + 6y = 0.
Annexe III

Google et la diagonalisation des


matrices

Dans cet appendice nous expliquons le rôle fondamental que joue la théorie de la diagona-
lisation dans l’algorithme Pagerank, coeur du moteur de recherche actuellement dominant.

Les pages web présentes dans la base de données du moteur de recherche Google sont
classées en ordre d’importance. Quand un utilisateur compose les mots clés d’une recherche,
Google sélectionne dans sa base de donnée les pages pertinentes 1 et les présente à l’utilisa-
teur en ordre d’importance. Avoir à disposition un ”classement” indépendant de l’objet de
la recherche permet à Google de repondre de façon presque instantanée à l’interrrogation :
la rapidité dans la réponse est un des avantages sur la concurrence qui a permi à Google de
s’affirmer comme le moteur de recherche le plus utilisé.
Le classement par importance des pages web est éffectué par l’algorithme PageRank,
introduit par les fondateurs de Google Sergey Brin et Larry Page en 1998. 2 Cet algorithme
est basé en bonne partie sur la théorie de la diagonalistation des matrices.
Les principes sur lesquels se fonde Pagerank sont les suivants :
• Une page importante reçoit des liens d’autres pages importantes.
• Une page importante envoit peu de liens vers d’autres pages.
Ces principes peuvent se résumer par la formule suivante : indiquant par r(p) le rang de
la page p (c’est à dire son importance rélative) et par |p| le nombre de liens de p à d’autres
pages, alors
X r(q)
r(p) = .
q→p
|q|

Dans cette formule, la somme est sur toutes les pages q qui ont un lien vers p. La contribution
de la page q est donc directement proportionnelle à l’importance (rang) de q et inversement
proportionnelle au nombre de liens de q vers d’autres pages.
Il s’agit donc d’une définition récursive : pour calculer le rang de p il faut connaı̂tre le
rang de toutes les pages qui ont un lien vers p ; pour calculer le rang de ces pages il faut
1. C’est à dire les pages qui contiennent un ou plusieurs mots clés.
2. S.BRIN, L. PAGE, R. MOTWAMI, T. WINOGRAD, The PageRank citation ranking : bringing order to the Web,
Technical Report 1999-0120, Computer Science Department, Stanford University, Stanford, CA, 1999.
156 Google et la diagonalisation des matrices

connaı̂tre celui de toutes les pages qui ont un lien vers elles, et ainsi de suite à l’infini. . .
Sans compter qu’il se peut que q ait un lien vers p et q un lien vers p : dan ce cas on ne peut
pas calculer r(p) sans connaı̂tre r(q) ni r(q) sans connaı̂tre r(p).
On peut reformuler le problème en termes de matrices. Soient {p1 , . . . , pn } toutes les
pages de la Toile et considérons la matrice A ∈ M (n × n, R) dont le coéfficient de position
(i, j) est (
1
|pj | si il existe un lien de pj à pi
ai,j =
0 autrement
(la matrice A peut être interpretée en termes de probabilité : ai,j est la probabilité que un
internaute qui visite la page pj suive le lien vers pi ).

Exemple C.1 Considérons un mini-web de 5 seules pages :

p1 o / p2 o
O
/ p3
O

~ / p 4
p5 o

Dans ce diagramme, une flèche pi → pj indique que la page pi a un lien vers la page pj (une
double flèche pi ↔ pj signifie que pj a aussi un lien vers pi ). La matrice A associée à notre
mini-web est alors
0 21 0 0 0
 
1 0 1 0 1 
3 2
1 1

A= 0 2 01 2 01  .

0 0
3 0 2

1 1
0 0 3 2 0
La première colonne nous dit donc que p1 a un seul lien (donc |p1 | = 1) vers p2 (le seul
coéfficient non nul est sur la deuxième ligne) ; la troisième colonne nous dit que p3 a trois
liens (donc |p3 | = 3) vers p2 , p4 et p5 (les coéfficients non nuls sont sur la deuxième, qua-
trième et cinquième ligne).

Revenant à la discussion générale, en indiquant par ri = r(pi ) le rang de la page pi , le


vecteur PageRank est le vecteur colonne
 
r1
 .. 
r =  . .
rn

Le produit lignes par colonnes Ar est le vecteur colonne donr le i-ème coéfficient est
n
X X rj
ai,j rj = = ri ,
p →p
|pj |
j=1 j i

la dernière égalité étant donnée par la formule de définition de r(p). Autrement dit,

r = Ar

d’où l’on déduit :


Annexe III 157

Proposition C.1 Le vecteur PageRank est un vecteur propre de valeur propre 1 pour la matrice A.

Donc, pour que l’algorithme PageRank marche, il faut que la matrice A admette la va-
leur propre 1. Si telle valeur propre est de multiplicité algébrique 1, le vecteur propre r
Pn déterminé à un facteur scalaire près. Habituellement, on normalise r par la condition
est
i=1 ri = 1.

Remarque C.1 Utilisant le fait que A est une matrice de probabilités, il est possible de
démontrer que si λ est une valeur propre de A, alors |λ| ≤ 1. Le théorème de Perron-
Frobenius 3 donne une condition nécesaire et suffisante afin qu’une matrice de ce type ad-
mette la valeur propre 1 avec multiplicité algébrique 1.
La matrice A ne satisfait certainement pas les hypothéses de ce théorème : une des condi-
tions requises est en éffet que la somme des coéfficients sur chaque colonne soit égale à 1 4 .
Ceci est bien vrai pour les colonnes corréspondantes à des pages qui on au moins un lien
vers une autre page, mais on estime que environ 25% de toutes les pages présentes sur le
web n’a aucun lien. La solution adoptée par Google pour contourner cette difficulté est de
perturber la matrice A de façon à ce qu’elle satisfasse aux hypothéses du théorème de Perron-
Frobenius. Cette ”astuce” introduit bien entendu un élément arbitraire dans le procédé.

Dans ces notes, nous ignorerons les problèmes soulevés par la Remarque C.1, dont la
solution dépasse les objectifs de ce cours. Pour simplifier, nous supposerons donc que :
1. La matrice A est diagonalisable.
2. A admet la valeur propre 1 avec multiplicité algébrique 1.
3. Si λ 6= 1 est valeur propre de A, alors |λ| < 1.
Pour calculer le vecteur PageRank ”il suffit” donc de déterminer l’espace propre de A
pour la valeur propre 1. Dans l’Exemple C.1, le polynôme caractéristique de la matrice A est
√ √
5 13 3 1 2 5 1 1 1 3− 2 3+ 2
t − t − t + t+ = (t − 1)(t − )(t + )(t + )(t + ).
12 6 24 24 2 2 6 6
La matrice satisfait donc nos hypothèses et en calculant un vecteur propre de valeur propre
1 on trouve la solution v1 = (2, 4, 3, 2, 2). Donc r est un multiple de v1 normalisé par la
condition que la somme de ses coordonnées soit 1, c’est à dire

2 4 3 2 2
r=( , , , , ).
13 13 13 13 13
On constate alors que la page plus importante de notre mini-web est p2 (qui est celle qui
reçoit le plus grand nombre de liens), la deuxième au classement est p3 (qui reçoit deux
liens, tout comme p3 et p5 , dont un en provenance de la page plus importante p2 ). Dernières
ex-aequo sont p4 , p5 et p1 (qui compense l’handicap de ne recevoir qu’un lien par le fait qu’il
provient de p2 ).
Dans le cas de Google, A ∈ M (n × n, R) où n = nombre de toutes les pages web de
l’univers est un nombre monstueux ! Les logiciels de calcul actuels ne permettent même pas
3. Voir par exemple O. AXELSSON, Iterative solution methods, Cambridge University Press, 1994.
4. Cette condition s’exprime en disant que A est une matrice stochastique.
158 Google et la diagonalisation des matrices

de calculer un vecteur propre de la matrice A. Le vecteur PageRank est alors calculé par un
méthode dynamique. On considère le vecteur initial
   
(0) 1
r1
 .   n. 
r(0)  ..  =  .. 
= 
(0) 1
rn n

dans lequel toutes les pages web ont la même importance (rang). On écrit alors un premier
classement  
(1)
r1
 . 
r(1) = 
 .. 

(1)
rn
(0)
en tenant compte des liens entre les différentes pages, du rang initial ri de chaque page et
du nombre de liens |pi | selon les principes énoncés :

(1)
X rj(0) n
X (0)
ri = = ai,j rj .
pj →pi
|pj |
j=1

En termes de matrices, r(1) = Ar(0) . On répète alors le procédé, en écrivant à chaque fois un
nouveau classement  
(k+1)
r1
 . 
r(k+1) =  .. 

(k+1)
rn

qui tient compte du classement précédent r(k) et du nombre de liens de chaque page selon
les principes énoncés :
(k+1)
X rj(k) X n
(k)
ri = = ai,j rj ,
p →p
|p j |
j i j=1

c’est à dire
r(k+1) = Ar(k) .
(k)
Le rang ri de la page pi dans le classement partiel r(k) tient donc compte uniquement des
pages à partir desquelles on peut réjoindre pi en au plus k clicks. Puisque on s’attend à ce
que les pages très distantes de pi aient une moindre contribution à l’importance de pi , il est
raisonnable d’envisager que

Proposition C.2 Pour k suffisamment grand, le classement partiel r(k) est proche au classement
réel r.

Démonstration Remarquons pour commencer que à partir des équations

r(k+1) = Ar(k) , r(k) = Ar(k−1) , . . . , r(1) = Ar(0)


Annexe III 159

on trouve, par substitutions successives,

r(k+1) = Ar(k) = A2 r(k−1) = · · · = Ak+1 r(0) .

On a supposé que A est diagonalisable : soit {v1 , . . . , vn } une base de vecteurs propres de
A de valeurs propres λ1 , . . . , λn (repétées avec multiplicité si nécéssaire). Soit maintenant
 
λ1
D=
 .. 
. 
λn

la matrice diagonale et H la matrice des vecteurs propres (les colonnes de H sont alors les
vecteurs v1 , . . . , vn ). On a donc que A = HDH −1 et la Proposition 4.2.6 nous dit que
Ak = HDk H −1 . Alors
r(k) = Ak r(0) = HDk H −1 r(0) .

En posant
 
b1
 .. 
H −1 r(0) =.
bn
on trouve que pour tout entier k

r(k) = HDk H −1 r(0)


λk1
 
b1
= (v1 . . . . vn ) 
 . .  |
 
.
k bn
  λn
b1
k k  .. 
= (λ1 v1 . . . λn vn )  . 
bn
= b1 λk1 v1 + · · · + bn λkn vn .

Selon nos hypothèses, une seule des valeurs propres λi est égale à 1 et toutes les autres sont
en valeur absolue plus petites que 1. Quitte à les permuter, on peut supposer λ1 = 1 et
|λi | < 1 pour i = 2, . . . , n. Rappelons que, par la Proposition C.1, le vecteur de PageRank
est un multiple de v1 : choisissons r = v1 . En fait, si A est une matrice stochastique, il n’est
pas difficile de montrer que b1 = 1 (voir Lemme C.1 ci dessous). On en déduit alors que

r(k) = r + b2 λk2 v2 + · · · + bn λkn vn .

Pour i = 2, . . . , n, puisque |λi | < 1, pour k suffisamment grand λki est proche de 0. Donc
r(k) ≈ r pour k suffisamment grand. 

Lemme C.1 Avec les notations de la Proposition C.2 et sa démonstration, si A est une matrice
stochastique, alors b1 = 1.
160 Google et la diagonalisation des matrices

Démonstration Par définition, b1 est le produit de la première ligne de H −1 par le vecteur


initial r(0) = ( n1 , . . . , n1 ). En transposant le produit A = HDH −1 on trouve t A = t H −1 D(t H).
Donc t H −1 est une matrice de vecteurs propres pour t A et en particulier la première colonne
w1 de t H −1 , donc la première ligne de H −1 , est un vecteur propre de t A de valeur propre 1.
Rappelons que dire que A est stochastique signifie que la somme des coéfficients sur chaque
colonne est égale à 1, c’est à dire (1, . . . , 1)A = (1, . . . , 1). En trasposant cette expression on a
donc que (1, . . . , 1) est vecteur propre de valeur propre 1 pour t A. Donc w = α(1, . . . , 1), où
le facteur de proportionnalité α est déterminé par la condition que le produit de la première
ligne w1 de H −1 par la première colonne r de H doit être égal à 1. Mais on a normalisé r en
imposant que la somme de ses coordonnées soit égale à 1. Donc α = 1. On en déduit que
1
n
b1 = (1, . . . , 1)  ...  = 1.
 
1
n

Remarque C.2 Dans la pratique, le classement des pages web utilisé par Google est donné
par r(k) pour un certain entier k, et non pas par r. le calcul éffectif de r(k) présente en
tous cas de grandes difficultées opérationnelles. Un choix judicieux de la perturbation de
A (voir Remarque C.1) permet à Google de déterminer un classement utile après un nombre
d’itérations (environ k ≈ 100) assez petit pour calculer Ak par multiplication directe (comme
nous l’avons signalé, aucun ordinateur est à présent capable de déterminer les matrices D et
H). Même avec ces simplifications, les ordinateurs de Google emploient quelques semaines
pour compléter ce calcul.
161

Index des symboles

⊕, somme directe 17 M (m × n, R), espace des matrices 1


A∗ , adjointe de la matrice A 68 ma (λ), multiplicité algébrique de λ 79
t A, transposée de la matrice A 3
mg (λ), multiplicité géométrique de λ 79
A−1 , inverse de la matrice A 45 pA (t), polynôme caractéristique de A 69
An , espace affine 119 pU , projection sur le sous-espace U 30
d(P, Q), distance entre points 128 Q, corps des nombres rationnels 0
deg, degré d’un polynôme 2 Rn , espace vectoriel 1
det, déterminant d’une matrice 66 rg(A), rang d’une matrice 51
dim, dimension d’un espace vectoriel 14 R[X], espace des polynômes 2
e1 , . . . , en , base canonique de Rn 6
R[X]≤d , polynômes de degré borné 4
Eij , base canonique de M (m × n, R) 6
σU , symétrie d’axe U 31
exp(A), exponentielle de la matrice A 143
S ⊥ , othogonal de S 100
F (I), espace des fonctions sur I 2
Hom(V, W ), fonctions linéaires V → W 31 Sn , permutations à n termes 65
In , matrice identité 39 S(n, R), espace des matrices symétriques 4
idV , fonction identité 29 tr(A), trace d’une matrice 69
Im(A), image d’une matrice 44 V (λ), espace propre de valeur propre λ 76
Im(f ), image d’une fonction linéaire 32 kvk, norme du vecteur v 98
Jn,λ , bloc de Jordan 83 u ∧ w, produit vectoriel de u et v 104
Ker(A), noyau d’une matrice 44 W (y1 , . . . , yn ) matrice wrońskienne 148
Ker(f ), noyau d’une fonction linéaire 32 w(y1 , . . . , yn ) déterminant wrońskien 148
M (f ; B, C ), matrice de f dans B et C 39 Z, anneau des nombres entiers rélatifs 0
162

Index des termes

Angle entre deux vecteurs 100 – , des polynômes 2


Anneau commutatif 0 – , nul 1
Argument d’un nombre complexe 139 – , Rn 1
Base d’un espace vectoriel 10 Exponentielle d’une matrice 143
– , orthonormale 101 Fonction linéaire 29
Bloc de Jordan 83 – , identité 29
Combinaison linéaire de vecteurs 5 – , inverse 32
Coordonnées d’un vecteur 10 – , nulle 29
– , d’un point 120 Forme bilinéaire 113
Corps commutatif 0 – , défine non négative 114
Décomposition de Fitting 87 – , défine non positive 114
Degré d’un polynôme 2 – , défine négative 114
Déterminant d’une matrice 66 – , défine positive 114
– , développement de Laplace 63 – , indéfine 114
– , de Vandermonde 71 Forme quadratique 114
– , wrońskien 148 Formule de Cramer 68
Dilatation 56 Formule d’Euler 140
Dimension d’un espace vectoriel 14 Formule de Grassmann 19
– , d’une variété linéaire affine 120 Formule des dimensions 34
Distance entre deux points 128 Hyperplan 120
Droite 120 Image d’une fonction linéaire 32
–s, gauches 124 Inégalité de Cauchy-Schwarz 98
Endomorphisme 73 Inégalité triangulaire 99
– , diagonalisable 75 Isométrie 108
– , nilpotent 87 Isomorphisme 35
Équations cartésiennes 120 Générateurs d’un sous-espace 5
Équation caractéristique 150 Matrice 1
– , paramétriques 120 – , adjointe 68
Espace affine 119 – , augmentée 52
Espace euclidien 127 – , carrée 1
Espace des directions 120 – , compagnon 149
Espace propre 76 – , de Jordan 84
Espace vectoriel -1 – , diagonalisable 75
– , de type fini 7 – , du changement de base 49
– , des fonctions 2 – , d’un système linéaire 52
– , des matrices 1 – , d’une fonction linéaire 39
163

– , élémentaire 45 – , standard sur Rn 97


– , en forme échelonnée 22 Produit vectoriel 104
– , simplifiée 22 Projection 30
– , identité 39 – , orthogonale 101
– , inversible 45 Rang d’une matrice 51
– , nilpotente 87 – , par colonnes 44
– , orthogonale 109 – , par lignes 24
– , orhogonalement diagonalisable 111 Repère affine 120
– , nilpotente 87 Scalaire -1
– , symétrique 4 Similitude (de matrices) 73
– , transposée 3 Somme de sous-espaces 16
– , wrońskienne 148 – , directe 17
Matrices semblables 73 Sous-espace d’un espace vectoriel 2
Multiplicité algébrique 79 – , complémentaire 18
Multiplicité géométrique 79 – , engendré par un sous-ensemble 5
Nombres complexes 137
– , othogonal 100
– , conjugué 138
Symétrie 31
– , forme algébrique 137
Système linéaire homogène 44
– , forme exponentielle 140
– , associé 52
– , forme trigonométrique 139
Scalaire -1
– , partie imaginaire 137
Signe, d’une permutation 65
– , partie réelle 137
Théorème de Binet 66
Norme 98
Noyau d’une fonction linéaire 32 Théorème de Cayley-Hamilton 71
Opérations élémentaires sur un ensemble Trace d’une matrice 69
de vecteurs 20 Transposition 65
Ordre d’une matrice carrée 1 Unité imaginaire 137
Orientation 133 Valeur absolue d’un nombre complexe 138
Parallélisme 121 Valeur propre 75
Permutation 65 Variété linéaire 36
Pinceau d’hyperplans 125 – , affine 120
Pivot 22 Vecteur -1
Plan 120 – , nul -1
Polynôme caractéristique 69 – , propre 75
– , minimum 96 – généralisé 84
Procédé de Gram-Schmidt 102 Vecteurs libres 9, 11
Produit mixte 105 – , liés 9
Produit scalaire 97 – , orthogonaux 100