Académique Documents
Professionnel Documents
Culture Documents
Algebre Lineaire 1
Algebre Lineaire 1
FDRALE DE LAUSANNE
Algbre Linaire
Bachelor 1re anne
2008 - 2009
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
10
12
13
16
17
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
19
19
20
21
21
22
23
24
24
25
27
29
30
31
32
32
3 Le dterminant
3.1 Permutations et dterminants . . . . . . . . . . . . . . . . . . . . . . . . .
3.1.1 Mthode pour calculer des dterminants de matrices de taille 2 2
3.2 Dterminants et oprations lmentaires . . . . . . . . . . . . . . . . . . .
3.3 Les cofacteurs et la rgle de Cramer . . . . . . . . . . . . . . . . . . . . .
3.3.1 Calcul du dterminant par la mthode des cofacteurs . . . . . . . .
3.3.2 Calcul de linverse par la mthode des cofacteurs . . . . . . . . . .
3.3.3 Systmes linaires : rgle de Cramer . . . . . . . . . . . . . . . . .
. . . . .
et 3 3
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
33
33
36
37
42
43
45
47
.
.
.
.
.
.
.
.
.
n
.
.
.
.
.
.
.
.
.
.
49
49
50
52
52
54
55
58
59
61
61
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
vecteur normal
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
6 Espaces vectoriels
6.1 Dfinition et premires proprits . . . . . . . . . . . . . . . . . . . . . . .
6.2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2.1 Espace des solutions dun systme dquations linaires homognes
6.3 Combinaison linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4 Indpendance linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.4.1 Interprtation gomtrique de la dpendance linaire . . . . . . . .
6.5 Bases et dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6 Espace des lignes et colonnes dune matrice . . . . . . . . . . . . . . . . .
6.7 Changements de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.7.1 Changement de bases en 2 dimensions . . . . . . . . . . . . . . . .
6.7.2 Dimension quelconque . . . . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
81
. 81
. 83
. 84
. 85
. 87
. 88
. 89
. 94
. 99
. 99
. 100
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
103
103
106
107
110
114
114
115
115
117
117
. . .
. . .
dans
. . .
. . .
. . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
65
65
65
66
67
68
69
70
71
71
72
72
75
76
77
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
62
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
121
121
123
125
127
128
. . . . . .
. . . . . .
une base
. . . . . .
. . . . . .
. . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
131
131
134
134
136
138
140
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
143
143
143
143
145
146
146
147
147
148
148
148
148
149
149
149
150
150
151
151
153
153
153
154
154
154
154
155
155
156
158
160
Chapitre 1
1.1
Q
Q
Q
Q
Q
Q
Q
Q
1
Q
Q
Q
Q
Q
Q
Q
Q
Q x
1
2
Exemple 1.2. Les quations suivantes ne sont pas des quations linaires :
2x + y 2 = 1
y = sin(x)
x= y
7
Dfinition 1.3. De manire gnrale, on appelle quation linaire dans les variables x1 , ...., xn toute
relation de la forme
a1 x1 + + an xn = b
(1.1)
o a1 , . . . , an et b sont des nombres rels.
Il importe dinsister ici que ces quations linaires sont implicites, cest--dire quelles dcrivent
des relations entre les variables, mais ne donnent pas directement les valeurs que peuvent prendre
les variables.
Rsoudre une quation signifie donc la rendre explicite, cest--dire rendre plus apparentes les
valeurs que les variables peuvent prendre.
Une solution de lquation linaire (1.1) est un n-uple s1 , . . . , sn de valeurs des variables x1 , . . . , xn
qui satisfont lquation (1.1). Autrement dit
a1 s1 + + an sn = b.
Par la suite, nous tudierons lensemble des solutions dune quation linaire.
Exemple 1.4. Trouvons lensemble des solutions de lquation
x1 4x2 + 13x3 = 5.
Nous donnons des valeurs arbitraires s et t x2 et x3 respectivement et rsolvons lquation par
rapport x1 :
x2 = s,
x3 = t
et
x1 = 4s 13t + 5.
Lensemble des solutions est alors
x1 = 4s 13t + 5,
x2 = s,
x3 = t
x1
2x1
3x2
+ 4x2
+ x3
3x3
= 1
= 9
x2 = 6 ,
x3 = 1 .
Par contre
x1 = 7
x2 = 2
x3 = 0
ne satisfait que la premire quation. Ce nest donc pas une solution du systme.
Dfinition 1.7. Un systme dquations est dit incompatible ou inconsistant sil nadmet pas de
solutions.
Exemple 1.8. Le systme linaire
x1 + x2
2x1 + 2x2
= 1
= 1
Considrons le systme
a11 x1 + a12 x2
a21 x1 + a22 x2
=
=
b1
b2
(1.2)
x2
l
l
d2
l
l
l
l
l
l
l d
l 1
l
l
l
l
l
x1
x2
l
l
l
l
l
l
l
l
l
l d2
l
l
l
d1ll
l
l
l
l
l
l
l
l
l
l
l
l
Fig. 1.2 Droites parallles
x1
10
x2
l
l
l
l
l
l
l d1 = d2
l
l
l
l
l
l
l
l
x1
1.1.1
.
.
(1.3)
o le nombre rel aij est le coefficient de la j-me inconnue dans la i-me quation.
Dfinition 1.9 (Matrice augmente). Nous obtenons la matrice augmente associe au systme en
oubliant les variables xi et les signes + et =. La matrice augmente aasocie au systme (1.3)
est alors
..
..
..
..
.
.
.
. .
.
.
am1
am2
amn
x1 + x2 + 7x3
2x1 x2 + 5x3
x1 3x2 9x3
bm
= 1
= 5
= 5.
1
2
1
1
7 1
1
5 5 .
3 9 5
La mthode de base pour rsoudre un systme dquations linaires est de remplacer le systme
par un autre, plus simple, ayant le mme ensemble de solutions. Ceci se fait par une succession
doprations, appeles oprations lmentaires :
(1) multiplier une quation par une constante non nulle ;
(2) permuter deux quations ;
(3) ajouter un multiple dune quation une autre quation.
Les oprations (1), (2) et (3) ne changent pas lensemble des solutions. Elles correspondent des
oprations lmentaires sur les lignes de la matrice augmente. Ces oprations sont les suivantes :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ;
(3) ajouter un multiple dune ligne une autre ligne.
()
11
Exemple 1.11. Utilisons ces oprations lmentaires pour rsoudre le systme suivant.
x + y + 7z = 1
2x y + 5z = 5
x 3y 9z = 5
Nous calculons la matrice augmente associe au systme :
1
1
7 1
2 1
5 5
1 3 9 5
puis faisons les oprations lmentaires ncessaires sur le systme et sur la matrice augmente.
(3) `2 `2 2`1
= 1
= 3
= 5
x + y + 7z
3y 9z
x 3y 9z
(3) `2 `2 2`1
1
0
1
1
3
3
7
9
9
1
3
5
Nous remarquons que les oprations lmentaires peuvent tre faites uniquement sur la matrice
augmente pour revenir la fin au systme dquations. Cest ce que nous faisons dans la suite.
(3) `3 `3 + `1
1
0
0
1
3
2
7 1
9 3
2 6
7 1
(1) `2 31 `2
1
2
3
1
2 6
(3) `3 `3 + 2`2
7 1
4 4
(1) `3 41 `3
0
(3) `1 `1 7`3
12
1
0
0
1
1
0
0
6
0
4
1 1
0
1
0
0
2
0
4
1 1
(3) `2 `2 3`3
(3) `1 `1 `2
1
0
0
=
2
x
y
=
4
z = 1.
On obtient ainsi lunique solution su systme : x = 2, y = 4 et z = 1.
Cet exemple est gnralis dans le paragraphe suivant.
1.2
Elimination Gaussienne
Il sagit dune mthode qui permet de trouver lensemble des solutions de nimporte quel systme
dquations linaires. La mthode consiste mettre la matrice augmente du systme sous une forme
simple, dite forme chelonne (rduite) par une srie doprations lmentaires (1), (2), (3) de ().
Commenons par poser la dfinition suivante :
Dfinition 1.12 (matrice chelonne). Une matrice est appele matrice chelonne si elle a les
proprits suivantes :
(i) Dans toute ligne non nulle, le premier lment non nul vaut 1. Il est appel le 1 directeur.
(ii) Les lignes dont tous les lments sont nuls sont regroupes en bas de la matrice.
(iii) Dans deux lignes successives (contigus) ayant des lments non nuls, le 1 directeur de la ligne
infrieure se trouve droite du 1 directeur de la ligne suprieure.
Exemple 1.13. La matrice
0 1
1 3
0 0
3
1
1
6 0
0 2
1 7
satisfait la proprit (i) mais pas la proprit (iii), alors que la matrice suivante
0 3 1
1 1 0
ne satisfait pas la proprit (i). En revanche,
0 1
0 0
0 0
la matrice
7 6
0 1
0 0
13
0 1 1 1
1 0 0
3
0 0 0
0
1
0
0
est chelonne rduite, alors que la matrice
1
0
0
0
0
0
0
0
0
0
1
0
1
1
0
3
1
0
2
1
0
1.2.1
Cet algorithme permet de transformer nimporte quelle matrice sous sa forme chelonne rduite
laide des oprations lmentaires (1)-(3) de (). Voici la marche suivre illustre par un exemple.
(1) Identifier la colonne se trouvant le plus gauche contenant au moins un lment non nul.
Exemple :
0 0 1 3
0 3 0 1
0 3 1 2
2`eme colonne
(2) Permuter, sil le faut, la premire ligne avec une autre, pour que llment en haut de la colonne
identifie en (1) devienne non nul.
Exemple (suite) :
0 0 1 3 0
3 0 1 .
0 3 1 2
`1 `2
0 3 0 1
0
0 1 3
0 3 1 2
0
0
0
3
0
3
0
1
1
1
3
2
1
a
14
0
0
0
1
0
3
0
1
1
1
3
3
2
(4) Ajouter des multiples adquats de la premire ligne aux lignes en-dessous pour annuler les
lments en dessous du 1 directeur.
Exemple (suite) :
0 1 0 13
0
0 1 3
0 3 1 2
`3 `3 3`1
0 1 0 13
0
0 1 3
0 0 1 1
(5) Couvrir la premire ligne de la matrice, et aller (1)
Exemple (suite) :
0 0 1 3
0 0 1 1
(4) `2 `2 `1
0
0
0
0
1
0
3
2
(3) `2 21 `2
0
0
0
0
0
0
0
1
0
3
1
ligne en place
1 0 31
0 1 3
0 0 1
(7) Pour la mettre sous la forme chelonne rduite, il faut ajouter une ligne des multiples
adquats des lignes situes au-dessous delle en allant du bas vers le haut.
Exemple (suite) :
0 1 0 13
0 0 1 3
0 0 0 1
`2 `2 3`3
1
3
0
0
0
1
0
0
0
1
0
0
1
1
0
0
0
1
0
0
0
1
`1 `1 13 `3
0
0
0
15
Les deux exemples ci-dessous illustrent encore lalgorithme. Lexemple 1.16 illustre le point (7)
partir dune matrice qui est dj sous forme chelonne mais pas rduite. Dans lexemple 1.17, on
effectue lalgorithme dans son entier.
0 1
1 4
0
1 2 1
0 0
1 3
Exemple 1.16.
`2 `2 2`3
1 4
0 1
0 1 0 7
0 0
1 3
1 4 0 1
0 1 0 7
0 0 1 3
`1 `1 4`2
1 0 0 29
0
1 0
7
0 0 1 3
Exemple 1.17.
0
0
1
1
1
3
5 1
0 3
0 1
1`ere colonne
(1)
1
2
2
0 1
0 3
5 1
1
0
0
3
1
1
1
1
2
1
2`eme colonne
1
0
2
1
2
2
1
(2) `1 `3
0
0
0
5
3
1
(4) `2 `2 `1
0
0
0 3
5 4
1 3 2 0 1
0 1 2 0 3 .
0 0
1 5 4
La matrice est maintenant sous forme chelonne. Il
rduite.
(7) `2 `2 + 2`3
1 3 2 0
0 1 0 10
0 0 1 5
(7) `1 `1 2`3
1
5
4
16
1
0
0
0 10 7
0 10 5
1
5
4
3
1
0
(7) `1 `1 + 3`2
8
5
4
1 0 0 20
0 1 0 10
0 0 1 5
La matrice est sous forme chelonne rduite. Un systme dont la matrice augmente est sous
forme chelonne rduite est trs simple rsoudre comme nous allons le voir ci-aprs.
1.2.2
Aprs avoir mis la matrice augmente du systme sous forme chelonne rduite, on procde
selon les deux tapes suivantes.
(1) Donner une valeur arbitraire chaque variable dont la colonne ne contient pas de 1 directeur.
Ces variables sont les variables libres.
(2) Rsoudre chaque quation en exprimant la variable correspondant au 1 directeur, appele
variable directrice, en fonction des autres variables.
Exemple 1.18. La matrice
1
0
0
0
1
0
0
0
1
2
4
1
= 2
= 4
= 1.
y = 4,
z = 1.
0
0
0
1
0
0
3
0
0
0
1
0
1
5
0
= 1
= 5.
x4 = 5
x2 = 1 3t,
x3 = t,
x4 = 5,
pour tout t, s R.
1.3
17
Tout systme homogne dquations linaires est consistant, car il a au moins la solution dite
triviale x1 = x2 = = xn = 0. Un systme homogne dquations linaires a ou bien une seule
solution (la solution triviale), ou bien une infinit de solutions. En effet, supposons que le systme
admette la solution
x1 = t1 , . . . , xn = tn
avec au moins lun des ti 6= 0. Alors, pour un nombre rel k quelconque,
x1 = kt1 , . . . , xn = ktn
est aussi solution du systme.
Thorme 1.20. Tout systme homogne dquations linaires dont le nombre dinconnues est plus
grand que le nombre dquations a une infinit de solutions.
Dmonstration. Soit m le nombre de colonnes et n le nombre dquations. La matrice augmente du
systme a alors m + 1 colonnes et n lignes. Il sensuit que sa forme chelonne rduite doit comporter
au moins une colonne sans 1 directeur. Supposons que ce soit la j-me avec 1 j m. Cette colonne
correspond une variable libre xj = s et il y a donc une infinit de solutions puisque le systme est
compatible.
Exemple 1.21. Considrons
3x1
x1
2x1
le systme homogne
+ 3x2
x2
+ 2x2
2x3
+ x3
x3
x3
+ 3x4
+ 2x4
+ 8x4
x5
+ x5
+ 2x5
+ 4x5
= 0
= 0
= 0
= 0
3
1
2
0
et la forme chelonne rduite est
1
0
0
0
3 2 0 1 0
1
1 3
1 0
2 1 2
2 0
0
1 8
4 0
1
0
0
0
0
1
0
0
x1 + x2
x3
0 13
0 20
1 2
0 0
x4
0
0
0
0
+ 13x5
+ 20x5
2x5
= 0
= 0
= 0
Les variables directrices sont x1 , x3 et x4 alors que les variables libres sont x2 et x5 . Posons alors
x2
x5
t.
18
x1
= s 13t
x3
= 20t
x4
2t .
x2 = s,
x3 = 20t,
x4 = 2t ,
x5 = t,
Chapitre 2
Dfinition 2.1 (Matrice). Une matrice (relle) A est un tableau rectangulaire de nombres (rels).
Elle est dite de taille m n si le tableau possde m lignes et n colonnes. Les nombres du tableau
sont appels les lments de A. Llment situ la i-me ligne et la j-me colonne est not aij .
La matrice A est galement note
A = (aij ) 1in
1jm
ou plus simplement
A = (aij )ij
si le nombre de lignes et de colonnes est connu par ailleurs.
Exemple 2.2.
A=
1
0
2
3
5
7
a11
a21
..
.
a12
a22
..
.
...
...
..
.
a1n
a2n
..
.
an1
an2
...
ann
matrice carre n n
Dans le cas dune matrice carre, les lments a11 , a22 , . . . ann sont appels les lments diagonaux.
a11
a21 . . . a1n
a22 . . . a2n
a21
..
..
..
..
.
.
.
.
a
nn
an1 an2 . . .
Deux matrices sont gales lorsquelles ont la mme taille et que les lments correspondants sont
gaux.
Dfinition 2.3 (Somme de deux matrices). On peut dfinir la somme de deux matrices si elles sont
de mme taille. Soient A etB deux matrices de taille m n. On dfinit leur somme C = A + B, de
taille m n, par
cij = aij + bij .
En dautres termes, on somme composante par composante.
19
20
Exemple 2.4.
A=
A=
3
1
2
7
4
3
1
2
,
B=
B=
0
2
5
1
2
8
,
A+B =
3
3
3
6
La matrice (de taille m n) dont tous les lments sont des zros est appele la matrice nulle et
note 0nm ou plus simplement 0. Cest llment neutre pour laddition, cest--dire que A + 0 = A.
Dfinition 2.5 (Produit dune matrice par un scalaire). Le produit dune matrice A par un scalaire
k est form en multipliant chaque lment de A par k. Il est not kA.
Exemple 2.6. Soient
A=
3
0
2
6
9
0
kA =
Alors
k = 3.
et
6
18
.
2
4
1
7
4
5
3
3
5 2
0 1
A=
B=
AB =
2.2
1 0
5 2
2
3
Le produit matriciel
n
X
aik bkj.
k=1
AB = C :
a11
a21
..
.
...
a22
...
...
a1m
a2m
..
.
an1
...
...
anm
b11 . . .
b
21
.
..
bm1 . . .
c11
...
c21
..
.
cn1 . . .
b1r
..
.
..
.
bmr
c1r
..
.
..
.
cnr
21
Exemple 2.9.
(2
4
1) 2
3
13
(8 6 3) = (1)
31
11
Exemple 2.10.
3
2
1
31
2.2.1
3
2
1
6
9 0
4 6 0
2
3 0
14
34
Matrice identit
1 0
0 1
.. ..
. .
0 0
In =
...
...
..
.
0
0
..
.
...
sappelle la matrice identit. Ses lments diagonaux sont gaux 1 et tous ses autres lments
sont gaux 0.
Dans le calcul matriciel, la matrice identit joue un rle analogue celui du nombre 1 dans
larithmtique des scalaires. Cest llment neutre pour la multiplication. En dautres termes, si A
une matrice m n, alors
Im A = A
2.3
AIn = A.
et
Sous l hypothse que les tailles des matrices soient compatibles avec les oprations indiques, on
a les rgles suivantes :
Commutativit de la somme : A + B = B + A
Associativit de la somme : A + (B + C) = (A + B) + C.
Associativit du produit : A(BC) = (AB)C
Distributivit du produit par rapport la somme : A(B + C) = AB + AC
(B + C)A = BA + CA
(e) A + 0 = A
(f) AI = IA = A
(g) A 0 = 0 A = 0
(a)
(b)
(c)
(d)
ATTENTION !
Le produit des matrices nest pas ncessairement commutatif. On peut avoir
AB 6= BA.
Exemple 2.12.
A
AB
1
2
0
5
2 1
11
2
BA
2
3
1
0
4
3
5
0
.
22
ATTENTION ! Il peut arriver que le produit de deux matrices non nulles soit nul. En dautres
termes, on peut avoir A, B 6= 0 et AB = 0.
Exemple 2.13.
A=
1
5
0
0
,
B=
3
0
2
0
AB =
et
0
0
0
0
.
1
3
0
0
,
B=
1
4
4
5
AB = AC =
2.4
,
C=
4
.
12
5
15
2
5
5
4
Le systme linaire
a11 . . .
a21 . . .
..
.
am1
|
...
{z
A
a1n
a2n
..
.
amn
} |
x1
x2
..
.
xn
{z }
x
= bm
= b1
= b2
b1
b2
..
.
bm
{z
B
On appelle A la matrice des coefficients du systme. Le vecteur x est une solution du systme si
et seulement si
Ax = B.
Thorme 2.15. Un systme dquations linaires na soit aucune solution, soit une seule solution,
soit une infinit de solutions.
Dmonstration. Soit Ax = B la reprsentation matricielle du systme. On est ncessairement dans
lun des cas ci-dessous :
(a) le systme est incompatible (aucune solution) ;
(b) le systme a une seule solution ;
(c) le systme a plusieurs solutions.
Pour dmontrer le thorme , il suffit alors de montrer que dans le cas (c) il y a une infinit de
solutions.
Soient x1 et x2 des solutions distinctes du systme. Alors Ax1 = B et Ax2 = B. Donc Ax1 Ax2 =
0 et A(x1 x2 ) = 0.
Posons
x0 = x1 x2 .
On a x0 6= 0, car x1 6= x2 et lexpression
x1 + kx0
est une solution du systme pour tout nombre rel k. En effet, A(x1 +kx0 ) = Ax1 +kAx0 = B+0.
23
= c1
= c2
= cm
Bx = y.
2.5
Dfinition 2.17 (Matrice inverse). Soit A une matrice carre de taille n n. Sil existe une matrice
carre B de taille n n telle que
AB = I
BA = I,
et
2
5
3
5
1
3
.
24
En effet, on a
2 1
3
5 3
5
1
2
=
1
0
0
1
et
1
2
3
5
2
5
1
3
=
1
0
3
5
0
0
b11
b21
b12
b22
0
0
=
0
0
2.5.1
A1 A = I.
et
Matrices 2 2
b
d
et
B=
d b
c
a
On vrifie que
AB = BA = (ad bc)
1
0
0
1
.
2.5.2
m
1
= |A1 A1
{z A }
m facteurs
.
0
1
.
25
1
= |A1 A1
{z A }
m facteurs
(A1 )m = Am ;
Exemple 2.23.
A
=
1
3
9
2
2
5
1
2
AB =
1
2
5
A
4
1
1
3
B
3
5
1
2
1
2
4
9
9 4
16 7
=
2
1
39 17
4
3 1
17 7
=
9
5
2
39 16
On a alors bien
(AB)(B 1 A1 ) =
2.6
16
7
39 17
17 7
39 16
=
272 + 273
0
0
273 272
=
1
0
0
1
.
Dfinition 2.24 (Matrice lmentaire). On dit quune matrice E est lmentaire si elle peut tre
obtenue par une seule opration lmentaire sur les lignes de la matrice identit (voir 1.1.1 () pour
la dfinition des oprations lmentaires).
Il existe donc trois types de matrices lmentaires correspondant aux trois oprations lmentaires.
(1) La matrice Ei (c) est la matrice lmentaire obtenue
c est un nombre rel non nul.
Exemple 2.25.
1 0
0 5
E2 (5) =
0 0
0 0
0
0
1
0
0
0
0
1
26
(2) La matrice Eij est la matrice lmentaire obtenue en permutant les i-me et j-me lignes de In .
Exemple 2.26.
1 0 0 0
0 0 0 1
E24 = E42 =
0 0 1 0
0 1 0 0
(3) La matrice Eij (c) est la matrice lmentaire obtenue en ajoutant c fois la j-me ligne de In la
i-me ligne.
Exemple 2.27.
1 0 0 0
5 1 0 0
E21 (5) =
0 0 1 0
0 0 0 1
Lopration lmentaire permuter les lignes i et j correspond multiplier une matrice sur la
gauche par la matrice lmentaire Eij ; et de mme pour toutes autres oprations lmentaires. Cest
ce quindique le thorme suivant :
Thorme 2.28. Si la matrice lmentaire E est le rsultat dune opration lmentaire effectue
sur Im , alors pour toute matrice A de taille m n le produit matriciel EA est gal la matrice
obtenue en effectuant la mme opration lmentaire sur A.
Ainsi, multiplier une matrice A sur la gauche par Eij revient changer les lignes i et j de A ;
multiplier A sur la gauche par Ei (c) revient multiplier la ligne i de A par c ; et multiplier A sur la
gauche par Eij (c) revient ajouter c fois la ime ligne la jme.
Exemples :
(1)
2 0
a11 a12 a13
2a11 2a12 2a13
E1 (2) A =
=
0 1
a21 a22 a23
a21
a22
a23
(2)
1
E23 A = 0
0
0
0
1
a11
0
1 a21
0
a31
a12
a11
a22 = a31
a32
a21
a12
a32 .
a22
(3)
1
E21 (9) A = 9
0
a11
a11
0
0 a21 = 9a11 + a21 .
1
a31
a31
0
1
0
Les oprations lmentaires sur les lignes sont rversibles. Ceci entrane linversibilit des matrices
lmentaires.
Thorme 2.29. Toute matrice lmentaire est inversible. En particulier, on a :
[Eij (c)]1
= Eij (c)
1
Eij
= Eij
1
= Ei
.
c
[Ei (c)]
Exemple 2.30. On a
E21 (4) =
et
1
4
0
1
1
4
1
4
0
1
0
1
=
E21 (4) =
et
1
0
0
1
=
1
4
0
1
1
4
0
1
1
4
0
1
27
Dfinition 2.31. On dit que deux matrices sont quivalentes par lignes si lune peut tre obtenue
partir de lautre par une suite doprations lmentaires sur les lignes.
Thorme 2.32. Pour toute matrice A de taille nn, les affirmations suivantes sont quivalentes :
(a) A est inversible.
(b) Le systme AX = B a une et une seule solution pour toute matrice B de taille n 1. Cette
solution est donne par X = A1 B.
(c) AX = 0 na que la solution triviale X = 0.
(d) A est quivalente par lignes In .
(e) A est un produit de matrices lmentaires.
Dmonstration. (a) (b) Si A est inversible, on a les quivalences suivantes :
AX = B
A1 AX = A1 B
X = A1 B
X1
= 0
X2
= 0
.
..
..
.
.
Xn = 0
La matrice associe ce dernier systme est la matrice identit. La matrice A est donc quivalente
par lignes In et ceci prouve le point (d).
(d) (e) On sait, par hypothse, quune succession doprations lmentaires sur A conduit la
matrice In . Par le thorme 2.28, ceci signifie quil existe des matrices lmentaires E1 , . . . Er telles
que
Er Er1 E1 A = In .
Comme une matrice lmentaire est inversible, ceci implique que
A = E11 E21 Er1 .
Mais linverse dune matrice lmentaire est encore une matrice lmentaire et lon a le rsultat
cherch.
(e) (a) Ceci dcoule du fait que toute matrice lmentaire est inversible et que le produit de
matrices inversibles est encore inversible.
2.7
Le thorme prcdent donne une mthode pour dterminer linverse dune matrice inversible. La
mthode consiste faire les oprations lmentaires mettant la matrice A sous la forme chelonne
rduite, qui est In . On fait ensuite les mmes oprations lmentaires sur la matrice In . On aboutit
alors A1 . En pratique, on fait les deux oprations en mme temps selon la procdure suivante :
Former la matrice (A : I) et effectuer sur cette matrice augmente les oprations lmentaires
mettant A sous la forme chelonne rduite. On obtient alors la matrice (I : A1 ).
Exemple 2.33. Calculons linverse de
1
A= 4
1
2 1
0 1 .
2 2
28
(A
1
I) = 4
1
2 1 : 1 0 0
0 1 : 0 1 0
2 2 : 0 0 1
`2 := `2 4`1
1
0
1
2
8
2
1 :
1 0 0
5 : 4 1 0
2 :
0 0 1
`3 := `3 + `1
1
0
0
2
1 :
1 0 0
8 5 : 4 1 0
4
3 :
1 0 1
1
`2 := `2
8
1 2
1 :
1
0 0
0 1 5/8 : 1/2 1/8 0
0 4
3 :
1
0 1
`3 := `3 4`2
1 2
1 :
1
0 0
0 1 5/8 : 1/2 1/8 0
0 0 1/2 : 1
1/2 1
`3 := 2`3
1 2
1 :
1
0 0
0 1 5/8 : 1/2 1/8 0
0 0
1 : 2
1 2
5
`2 := `2 `3
8
1 2 1 :
1
7
0 1 0 :
4
0 0 1 : 2
0
43
1
54
2
`1 := `1 2`2 `3
1 0 0 : 21
7
0 1 0 :
4
0 0 1 : 2
A1
2
1
7
=
4
8
1
2
34
1
2
54
2
2
3 5
4
8
2.8
29
Matrices triangulaires
Dfinition 2.34. Soit A une matrice de taille n n. On dit que A est triangulaire infrieure si ses
lments au dessus de la diagonale sont nuls, autrement dit si
i < j = aij = 0.
Une matrice triangulaire infrieure a donc la forme suivante :
a11
0
0
..
a21 a22 . . .
.
..
..
..
..
..
.
.
.
.
.
.
.
..
..
..
0
an1 an2 ann
On dit que A est triangulaire suprieure si ses lments en dessous de la diagonale sont nuls,
autrement dit si
i > j = aij = 0.
Une matrice triangulaire suprieure
a11
0
..
.
..
.
.
..
0
...
...
..
.
...
...
..
..
...
.
...
4
0 0
0 1 0
3 2 0
Exemple 2.36. Matrices triangulaires suprieures :
1 1 1
0 1 1
0 0 1
..
.
0
a1n
a2n
..
.
..
.
..
.
..
...
...
...
ann
5
1
0
2
1
0
3
6
Dfinition 2.37. Une matrice qui est triangulaire infrieure et triangulaire suprieure est dite
diagonale.
Exemple 2.38. Exemples de matrices diagonales :
1 0 0
0 6 0
et
0 0 0
2
0
0
3
Thorme 2.39. Une matrice A de taille n n, triangulaire, est inversible si et seulement si ses
lments diagonaux sont tous non nuls.
Dmonstration. Supposons que A est triangulaire suprieure.
Si les lments de la diagonale sont tous non nuls, alors, en multipliant chaque ligne i par
linverse de llment diagonal aii , on obtient la forme chelonne de A. Elle ne contient que des 1
sur la diagonale. De ce fait, la forme chelonne rduite de A sera la matrice identit. Le thorme
2.32 permet de conclure que A est inversible.
30
Inversement, supposons quau moins lun des lments diagonaux soit nul et notons amm le
premier lment nul de la diagonale. En multipliant les lignes 1 m 1 par linverse de leur lment
diagonal, on obtient une matrice de la forme
0 ...
0 0
1
0
0
0
0
0
0
all
.
..
..
..
..
..
.
.
.
0
.
0
ann
o l = m + 1.
Il est alors clair que la colonne m de la forme chelonne ne contiendra pas de 1 directeur. La
forme chelonne rduite de A ne peut donc pas tre In et par le thorme 2.32, A nest pas inversible.
Dans le cas dune matrice triangulaire infrieure, on utilise la transposition qui fait lobjet de la
section suivante et on obtient une matrice triangulaire suprieure. On applique alors la dmonstration
ci-dessus.
2.9
La transposition
A=
a11
a21
..
.
a12
a22
..
.
...
...
a1n
a2n
..
.
am1
am2
...
amn
AT = .
.
..
..
..
.
.
a1n
a2n
...
amn
(1
5)T
T
0
3
1 5
1
2
T
1 0
0 2
1
= 2
5
(4)T
0
3
1
0
=
=
1 1
5
2
0
2
.
(4) .
2.10. LA TRACE
2.10
31
La trace
Soit A la matrice n n
a11
..
A= .
an1
...
...
a1n
..
.
ann
Dfinition 2.43. On appelle trace de A,et on note trace(A), le nombre obtenu en additionnant les
lments diagonaux de A. Autrement dit,
trace(A) = a11 + + ann .
Exemple 2.44. Soient
A=
2
0
1
5
et
1
B= 5
11
2
8
10
1
2
0
=
+
A11 B11
A21 B12
..
.
+A12 B21
+A22 B22
+...
+...
+A1n Bn1
+A2n Bn2
+ An1 B1n
+An2 B2n
+...
+Ann Bnn
+A21 B12
+A22 B22
+...
+...
+An1 B1n
+An2 B2n
+ A1n Bn1
+A2n Bn2
+...
+Ann Bnn
32
2.11
Matrices symtriques
Dfinition 2.46. Une matrice A de taille n n est dite symtrique si elle est gale sa transpose,
cest--dire si
A = AT
ou encore si aij = aji pour tout i, j = 1, . . . , n.
Exemple 2.47. Les matrices
1 0
0
2
5 1
5
1 ,
0
0
2
2
4
,
In
et
0n,n
sont symtriques.
Thorme 2.48. Pour une matrice B quelconque, les matrices BB T et B T B sont symtriques.
Dmonstration. Par le thorme 2.42, on a
(BB T )T
(B T B)T
2.12
= (B T )T B T
= B T (B T )T
= BB T
= B T B.
Matrices antisymtriques
0
1
1
0
,
0
0
0
0
,
0
4
2
4
0
5
2
5 .
0
Remarquons que les lments diagonaux dune matrice antisymtrique sont toujours tous nuls.
Thorme 2.51. Toute matrice A de taille n n est la somme dune matrice symtrique B et
dune matrice antisymtrique C.
Dmonstration. Posons B = (A + AT )/2 et C = (A AT )/2. On a alors A = B + C ; et B est
symtrique, car B T = (AT + (AT )T )/2 = B ; et C est antisymtrique, car C T = (AT (AT )T )/2 =
C.
Exemple 2.52. Soit
2 10
A=
8 3
2 9
0 1
A=
+
.
9 3
1 0
|
{z
} |
{z
}
symtrique
antisymtrique
Chapitre 3
Le dterminant
3.1
Permutations et dterminants
Nous allons construire dans ce chapitre une fonction appele le dterminant qui associe
un nombre rel chaque matrice carre et qui permettra de caractriser facilement les matrices
inversibles puisque ce sont celles dont le dterminant est non nul.
Exemple 3.1. Soit
A=
a
c
b
d
.
et
2 = (2, 1)
(1, 3, 2)
(2, 1, 3)
(3, 2, 1)
(2, 3, 1)
(3, 1, 2).
34
CHAPITRE 3. LE DTERMINANT
Dfinition 3.5. Dans une permutation on a une inversion si un nombre plus grand prcde un
nombre plus petit.
De manire plus prcise, le nombre dinversions dune permutation
(j1 , j2 , . . . , jn )
est la somme du
nombre de successeurs de j1 plus petits que j1 , plus
le nombre de successeurs de j2 plus petits que j2 , plus
...
le nombre de successeurs de jn1 plus petits que jn1 .
Exemple 3.6. La permutation
(4, 2, 5, 3, 1)
contient 7 inversions.
En effet,il y a 3 successeurs plus petits que 4, 1 successeur plus petit que 2, 2 successeurs plus petits
que 5, 1 successeur plus petit que 3 et pas de successeur plus petit que 1. En additionnant ces
nombres, on obtient bien 7.
Exemple 3.7. La permutation
(6, 1, 3, 4, 5, 2)
contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Dfinition 3.8. Une permutation ayant un nombre pair dinversions est appele permutation paire,
sinon elle est appele permutation impaire. On dfinit la signature de la permutation comme suit :
1 si est paire
sign() =
1 si est impaire.
Nbre dinversions
(1, 2, 3)
(1, 3, 2)
(2, 1, 3)
(2, 3, 1)
(3, 1, 2)
(3, 2, 1)
0
1
1
2
2
3
Parit
paire
impaire
impaire
paire
paire
impaire
et
0 = (1, 3, 5, 7, 6, 2, 4, 8).
Pour calculer leur signature, il faut calculer le nombre dinversions de et de 0 . On voit que 1, 4
et 8 ont le mme nombre de successeurs plus petits dans et 0 .
Pour passer de 0 , on permute 2 et 3. Dans , 3 nest pas un successeur de 2 plus petit, alors
que dans 0 , 2 est un successeur de 3 plus petit.
Dans , 5 nest pas un successeur de 2 plus petit, mais 3 est un successeur de 5 plus petit,alors
que dans 0 , 5 nest pas un successeur de 3 plus petit, mais 2 est un successeur de 5 plus petit. En
rptant le mme raisonnement avec 7 et 6, on remarque que le nombre de successeurs de 5, 7 et 6
plus petits est le mme que cela soit dans ou dans 0 . Globalement, on voit donc que 0 a une et
une seule inversion de plus que . Ainsi, leurs signatures sont opposes.
35
a11
..
A= .
an1
a1n
..
.
ann
...
...
a11 a12
A = a21 a22
a31 a32
a13
a23
a33
sont :
a11 a22 a33
Plus gnralement, partir dune matrice de taille nn, on peut former n ! produits lmentaires.
En effet, on constate quun produit lmentaire de A nest rien dautre quun produit a1j1 a2j2 . . . anjn
o (j1 , j2 , . . . , jn ) est un lment de Sn .
Dfinition 3.13. Un produit lmentaire sign dune matrice A est un produit
sign() a1j1 a2j2 . . . anjn
o = (j1 , j2 , . . . , jn ) est une permutation n lments.
Exemple 3.14. Les produits lmentaires signs de
a11
a12
a21
a22
sont a11 a22 (la permutation (1, 2) est paire) et a21 a12 (la permutation (2,1) est impaire).
Les produits lmentaires signs de
a11
a21
a31
a12
a22
a32
a13
a23
a33
sont a11 a22 a33 , a11 a23 a32 , a12 a21 a33 , a12 a23 a31 , a13 a21 a32 et a13 a22 a31 .
Dfinition 3.15. Le dterminant dune matrice A est le nombre obtenu en effectuant la somme de
tous les produits lmentaires signs de A. Il est not det(A). Autrement dit,
X
det(A) =
sign() a1i1 . . . anin ,
Sn
(i1 , . . . , in ).
Exemple 3.16.
A=
a11
a21
a12
a22
36
CHAPITRE 3. LE DTERMINANT
Exemple 3.17.
a11
A = a21
a31
det(A)
a13
a23
a33
a12
a22
a32
sign((1, 2, 3))a11 a22 a33 + sign((2, 3, 1))a12 a23 a31 + sign((3, 1, 2))a13 a21 a32
sign((3, 2, 1))a13 a22 a31 + sign((2, 1, 3))a12 a21 a33 + sign((1, 3, 2))a11 a23 a32
= a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a13 a22 a31 a12 a21 a33 a11 a23 a32
Thorme 3.18. Si A est une matrice ayant une ligne forme de zros, alors det(A) = 0.
Dmonstration. Par dfinition, le dterminant est la somme des produits lmentaires signs de A.
Mais chacun de ces produits lmentaires contient un lment nul provenant de la ligne de zros de
A. Donc det(A) = 0.
Thorme 3.19. Le dterminant dune matrice A triangulaire (infrieure ou suprieure) est gal
au produit a11 a22 a33 . . . ann des lments diagonaux.
Dmonstration. Le seul produit lmentaire sign non nul est a11 a22 . . . ann . La permutation correspondante est (1, 2, . . . , n) qui contient 0 inversions et qui est donc une permutation paire. On a donc
bien
det(A) = a11 a22 a33 . . . ann .
a
A= a
d
b
b
e
c
c ,
f
on a
det(A) = abf abf + ace ace + bcd bcd = 0
et lon remarque que tous les produits lmentaires apparaissent deux fois avec des signes opposs
(cf. lemme 3.10).
Ceci nous amne au thorme suivant :
Thorme 3.21. Soit A une matrice avec deux lignes gales. Alors
det(A) = 0.
Dmonstration. Dans le dterminant dune telle matrice, tous les produits lmentaires apparaissent
deux fois, avec des signes opposs. Donc det(A) = 0.
3.1.1
QQ
a22
Q
a21
Q +
s
Q
37
Matrice 3 3
On recopie les colonnes 1 et 2 la suite de la colonne 3 et on calcule comme suit :
Q
Q
3
Q
3
3
a11 Q a12 Qa13 Q a11 a12
Q a a
Q
a21 Q
a
a
22
22
23
Q
Q
Q21
Q
a31Q a32
a33Q
a31 a32 Q
Q
Q
s +Q
Q
s+ Q
s+
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a31 a22 a13 a32 a23 a11 a33 a21 a12 .
Exemple 3.22. Calculer
2
det 1
0
0
1 .
1
1
0
0
0
3
3
Q Q Q3
2Q 1Q0Q 2 1
Q
Q
1 Q
1 0
1Q
Q
0Q
Q
Q 0 Q 0
1
0
0
QQ
s Q
s Q
Q
s
Q
0
donc det = 1.
ATTENTION : Cette mthode ne sapplique pas pour les matrices de dimensions suprieures
3.
3.2
Nous allons voir que la rduction dune matrice la forme chelonne nous fournit une mthode
efficace pour calculer son dterminant.
Thorme 3.23. Soit A une matrice de taille n n, et soit E une matrice lmentaire (E =
Ei (k), Eij ou Eij (k)). Alors
(1) det(Ei (k)) = k
(2) det(Eij ) = 1
(3) det(Eij (k)) = 1
(4) det(EA) = det(E) det(A)
Dmonstration. (1) Soit k R, k 6= 0. Rappelons que
Ei (k) =
0
..
.
..
.
..
.
..
.
0
det(Ei (k))
0
..
.
...
...
...
1
k
1
..
...
...
X
...
...
.
0
0
..
.
..
.
..
.
..
.
0
1
Sn
...
(j1 , . . . , jn ).
38
CHAPITRE 3. LE DTERMINANT
Comme il ny a quun seul lment non nul dans chaque ligne et dans chaque colonne, le seul
produit lmentaire non nul est
1 1 k 1 1 = k.
De plus, la permutation (1, 2, . . . , n) na pas dinversion. Sa signature est donc 1. Ainsi
det(Ei (k)) = k.
Eij =
..
.
0
1
1
..
.
1
0
1
..
.
1
Comme avant, il y a un seul produit produit lmentaire non nul, qui vaut 1. Le dterminant
sera donc 1. Il reste dterminer la signature de la permutation
(1, 2, . . . , (i 1), j, (i + 1), (i + 2), . . . , (j 1), i, (j + 1), . . . , n).
j a (j 1) successeurs plus petits. Les nombres compris entre (i + 1) et (j 1) ont chacun un
succeseur plus petit. Or, il y a (j 1) 1 nombres entre i et j. Ainsi, le nombre dinversions de
la permutation est
(j i) + (j i) 1 = 2j 2i 1.
Cest un nombre impair. La signature est donc 1 et le dterminant de Eij est 1.
(3) En crivant la matrice Eij (k), on voit que le seul produit lmentaire non nul est 1 et que la
signature de la permutation tudier est celle de (1, 2, . . . , n). Cest une permutation paire, ce
qui implique que det(Eij (k)) = 1.
(4) Pour montrer que det(EA) = det(A) det(E), nous allons considrer trois cas, E = Ei (k), E = Eij
et E = Eij (k).
Premier cas E = Ei (k), k 6= 0 et A = (aij ).
a11
a21
..
.
EA =
kai1
.
..
an1
a12
a22
..
.
...
...
a1n
a2n
..
.
kai2
..
.
...
kain
..
.
an2
...
ann
Le dterminant est la somme des produits lmentaires signs. Chaque produit lmentaire
a exactement un lment de chaque ligne,en particulier un lment de la i-me ligne. Ainsi,
dans chaque terme de la somme, on peut mettre k en vidence. Finalement,
det(EA)
= k
sign()a1(1) . . . an(n)
Sn
det(E) det(A).
..
..
Eij A = ...
.
.
.
..
..
..
.
.
an1
an2
...
39
B = Eij A. On a
ann
Les produits lmentaires de B et de A sont les mmes. Comme det(Eij ) = 1, pour montrer
que det(Eij A) = det(Eij ) det(A) il faut montrer que les produits lmentaires signs de A et
de B sont opposs. Par dfinition du dterminant,
X
det(B) =
sign() b1(1) . . . bi(i) . . . bj(j) . . . bn(n)
Sn
Sn
La deuxime galit vient du fait que la i-me ligne de B est la j-me ligne de A (et rciproquement). Posons
0 = ((1), . . . , (i 1), (j), (i + 1), . . . , (j 1), (i), (j + 1), . . . , (n)).
0 est la composition de avec la permutation qui change i et j. Par le lemme 3.10,
sign( 0 ) = sign(). Ainsi
X
det(B) =
(sign( 0 )) a10 (1) . . . an0 (n)
0 Sn
0 Sn
= det(A).
Troisime cas E = Eij (k). On peut supposer
a11
..
ai1 + kaj1
..
C=
.
aj1
..
.
an1
...
a1n
..
. . . ain + kajn
..
.
.
...
ajn
..
.
...
ann
Alors,
det(C)
Sn
Sn
Sn
+ k
Sn
|
=
det(A) + k
{z
40
CHAPITRE 3. LE DTERMINANT
Comme det(Eij (k)) = 1, pour montrer que det(C) = det(A) det(Eij (k)), il suffit de montrer
que = 0. Mais,
a11
...
a1n
..
..
.
.
a(i1)1 . . . a(i1)n
...
ajn
= det
aj1
a(i+1)1 . . . a(i+1)n
..
..
.
.
an1
...
ann
et la i-me ligne de cette matrice est aj1 . . . ajn . Elle a donc deux lignes identiques (la i-me
et la j-me), ce qui implique que = 0.
Ce thorme nous permet de calculer le dterminant dune matrice de faon relativement simple,
en utilisant lalgorithme de Gauss pour rduire la matrice la forme chelonne (qui est triangulaire)
et en utilisant les thormes 3.23 et 3.19. En effet, si
A = E1 . . . Er D
o D = (dij ) est une matrice chelonne (triangulaire). Alors
det(A) = det(E1 ) . . . det(Er ) det(D) = det(E1 ) . . . det(Er )d11 d22 . . . dnn .
Exemple 3.24. Calculer det(A), o
0
1 5
A = 3 6 9
2
6 1
0
1
det(A) = det 3 6
2
6
3
= (1) det 0
2
1
= (3) det 0
2
1
= (3) det 0
0
1
= (3) det 0
0
=
5
9
1
6 9
1 5
6 1
2 3
1 5
6 1
2
3
1
5
10 5
2
3
1
5
0 55
1 2 3
1 5
(3)(55) det 0
0
0 1
(3)(55) = 165.
1
2
A=
3
1
3
6
9
1
2 4
4 8
1 5
4 8
41
1 3 2 4
0 0
0 0
det(A) = det
3 9
1 5
1 1
4 8
= 0.
Notation : Pour toute matrice carre A, on note
|A| = det(A).
Thorme 3.26. Soit A une matrice carre. Alors A est inversible si et seulement si det(A) 6= 0.
On a, dans ce cas,
1
det(A1 ) :=
.
det(A)
Dmonstration. Supposons dabord que A est inversible. On peut alors crire A comme produit de
matrices lmentaires, A = E1 Er . En appliquant successivement le thorme 3.23, on a
det(A) = det(E1 Er ) = det(E1 ) det(E2 Er ) = = det(E1 ) det(Er ).
Comme le dterminant dune matrice lmentaire nest jamais nul, on en dduit que le dterminant
de A nest pas nul.
Ensuite, A1 = Er1 E11 , et on vrifie aisment que det(E 1 ) = det(E)1 pour toute matrice
lmentaire E. On a donc
det(A1 ) = det(Er )1 det(E1 )1 ,
et donc det(A1 ) = det(A)1 .
Rciproquement, supposons que det(A) 6= 0. Nous montrerons qualors A est quivalente par
lignes I, ce qui implique, par le thorme 2.32, que A est inversible.
Soit R la forme chelonne rduite de A. On peut donc trouver des matrices lmentaires
E1 , , Ek telles que
Ek E1 A
A
= R,
=
E11
ou encore
Ek1 R .
On en dduit que
|A| = |E11 | |Ek1 | |R| .
Mais par hypothse |A| =
6 0. Donc |R| =
6 0.
On en dduit que chaque ligne de R contient un 1 directeur. Donc R = I.
Le thorme suivant est essentiel et nous affirme que le dterminant est multiplicatif :
Thorme 3.27. Soient A et B deux matrices de taille n n. Alors
det(AB) = det(A) det(B) .
Dmonstration. Si A et B sont les deux inversibles, on les crit comme produit de matrices lmentaires : A = E1 . . . Er et B = F1 . . . Fs . On a alors
det(AB) = det(E1 Er F1 Fs ) = det(E1 ) det(E2 Er F1 . . . Fs )
= = det(E1 ) det(Er ) det(F1 Fs )
= det(E1 Er ) det(F1 Fs ) = det(A) det(B).
Si A ou B nest pas inversible, alors AB nest pas inversible non plus ; et det(AB) = 0.
Le dterminant est invariant par transposition :
42
CHAPITRE 3. LE DTERMINANT
a11
0
a11
..
..
A=
ou
.
.
ann
0
ann
det(A) = a11 ann .
det(AB) = det(A) det(B)
det(AT ) = det(A)
A est inversible si et seulement si
det(A) 6= 0 .
Si A est inversible, alors
det(A) =
1
det(A1 )
Matrices lmentaires :
det(Ei (k)) = k
det(Eij ) = 1
det(Eij (k)) = 1.
3.3
Dfinition 3.30 (Mineur et cofacteur). Soit A = (aij ) une matrice de taille n n. On appelle
mineur de llment aij le dterminant de la sous-matrice obtenue en liminant la i-me ligne et la
j-me colonne de la matrice A. On le note Mij . On appelle cofacteur de aij la quantit
Cij = (1)i+j Mij .
43
A=
a11
a21
..
.
a12
a22
..
.
...
...
aij
a2j
..
.
...
...
a1n
a2n
..
.
ai1
..
.
aij
..
.
...
...
an1
an2
...
aij
..
.
anj
ain
..
.
ann
a11
..
ai11
Mij = det
ai+11
..
.
an1
...
...
a1,j1
..
.
a1,j+1
..
.
...
a1n
..
.
...
...
ai1,j1
ai+1,j1
..
.
ai1,j+1
ai+1,j+1
...
...
ai1,n
ai+1,n
..
.
...
an,j1
an,j+1
...
an,n
1
A= 4
0
3
1
1
2
2
1
M11
1 2 3
= 4 2 1
0 1 1
C11
2
1
1
=1
1
(1)1+1 M11 = 1 .
M32
1 2 3
= 4 2 1
0 1 1
C32
1
4
3
= 11
1
(1)3+2 (11) = 11 .
Pour dterminer si Cij = Mij ou Cij = Mij , on peut utiliser le schma suivant :
A=
C11 = M11 ,
3.3.1
+
+
+
..
..
.
.
+ ...
+ ...
+ ...
..
..
.
.
C12 = M12 ,
44
CHAPITRE 3. LE DTERMINANT
a11
A = a21
a31
a12
a22
a32
a13
a23
a33
Les termes entre parenthses sont les cofacteurs des lments a11 , a12 , a13 .
Donc
det(A) = a11 C11 + a12 C12 + a13 C13 .
Exemple 3.32.
1
A= 4
0
det(A)
2
2
1
3
1
1
4
1
+ 3
0
1
2
1
5.
Nous avons vu que les proprits du dterminant relatives aux lignes conduisent des proprits
analogues relatives aux colonnes. On a donc aussi :
det(A)
3.3.2
45
si
k 6= i
0
C32
= C32 ,
0
et C33
= C33 .
On a donc
det(A0 ) = a11 C31 + a12 C32 + a13 C33 = 0.
En rsum, on a
ak1 Ci1 + ak2 Ci2 + + akn Cin =
Considrons maintenant la matrice des cofacteurs
C11 C12 . . .
C21 C22 . . .
C= .
..
..
.
Cn1
et calculons
a11
a21
..
.
T
AC =
ai1
.
..
an1
a12
a22
..
.
...
...
ai2
..
.
...
an2
...
Cn2
a1n
a2n
..
.
ain
..
.
ann
...
det(A) si
0
si
C1n
C2n
..
.
i=k
i 6= k .
Cnn
C11
C12
..
.
C21
C22
..
.
...
...
Cn1
Cn2
..
.
C1n
C2n
...
Cnn
46
CHAPITRE 3. LE DTERMINANT
Dans le produit AC T , llment de la i-me ligne et de la j-me colonne est
ai1 Cj1 + ai2 Cj2 + + ain Cjn .
det(A)
0
..
.
det(A)
...
AC =
...
..
.
0
0
..
.
0
det(A)
= det(A) I.
A1 =
A1 =
1
adj(A).
det(A)
Exemple 3.36.
1
A= 0
1
0
1 .
1
1
1
0
On a det(A) = 2 .
La matrice forme des Mij est
1 1
1 1 .
1
1
+
+ .
+
1
M = 1
1
La matrice des signes est
+
A=
+
La matrice des cofacteurs est
1
C = 1
1
On a donc
1 1
1
1 .
1
1
1
adj(A) = C T = 1
1
Donc
A1
1
=
2
1
1
1
1
1
1 1 .
1
1
1
1
1 1 .
1
1
3.3.3
47
=
=
b1
b2
bn
b1
x1
a11 a12 . . . a1n
b2
x2
a21 a22 . . . a2n
et
B
=
,
X
=
A= .
.. .
..
..
..
..
.
.
.
.
an1
an2
...
bn
xn
ann
La matrice A est appele la matrice des coefficients du systme et la matrice B est appele le second
membre.
Dfinissons Aj par
Aj =
a11
a21
..
.
...
...
..
.
a1,j1
a2,j1
b1
b2
a1,j+1
a2,j+1
..
.
...
...
a1n
a2n
..
.
an1
...
an,j1
bn
an,j+1
...
ann
jme colonne
Autrement dit, Aj est la matrice obtenue en remplaccant la j-me colonne de A par le second
membre B. La rgle de Cramer va nous permettre de calculer la solution du systme dans le cas o
det(A) 6= 0 en fonction des dterminants des matrices A et Aj .
Thorme 3.37 (Rgle de Cramer). Soit
AX = B
un systme de n quations n inconnues. Supposons que det(A) 6= 0. Alors lunique solution du
systme est donne par
x1 =
det(A1 )
det(A2 )
det(An )
, x2 =
, . . . , xn =
.
det(A)
det(A)
det(A)
1
adj(A) .
det(A)
Donc
X=
1
adj(A)B.
det(A)
48
CHAPITRE 3. LE DTERMINANT
Autrement dit,
x1
b1
C11 . . . Cn1
1 .
.. ..
X = ... =
..
. .
det(A)
xn
bn
C1n . . . Cnn
..
=
,
.
det(A)
C1n b1 + C2n b2 + + Cnn bn
cest- -dire
x1
xi
xn
C11 b1 + + Cn1 bn
det(A)
C1i b1 + + Cni bn
det(A)
...
C1n b1 + + Cnn bn
.
det(A)
Mais
b1 C1i + + bn Cni
est le dveloppement en cofacteurs de det(Ai ) par rapport sa i-me colonne. Donc
xi =
det(Ai )
.
det(A)
+
x1
3x1 + 4x2
x1 2x2
2x3
+ 6x3
+ 3x3
= 6
= 30
= 8.
On a
1
0 2
4 6
A = 3
1 2 3
1 6 2
A2 = 3 30 6
1 8 3
6
0 2
4 6
A1 = 30
8 2 3
1
0 6
4 30 .
A3 = 3
1 2 8
et
det(A) = 44
det(A1 ) = 40
det(A2 ) = 72
det(A3 ) = 152.
det(A1 )
det(A)
40
44
10
11
x2
det(A2 )
det(A)
72
44
18
11
x3
det(A3 )
det(A)
152
44
38
11 .
Chapitre 4
v = AB
v
A
On appelle module du vecteur la longueur du segment AB. Le support du vecteur v est par
dfinition la droite passant par A et B.
Deux vecteurs ont la mme direction si leurs supports sont parallles. Deux vecteurs ayant la
mme direction ont le mme sens sils sont orients de la mme faon :
Deux vecteurs sont dits quivalents si lon peut les superposer par une translation. Par la suite, deux
vecteurs quivalents seront considrs comme gaux. Un vecteur est ainsi dtermin par son module,
sa direction et son sens.
Dans le calcul vectoriel, on pourra donc faire des translations sans changer le vecteur. On dfinit
la somme de deux vecteurs v et w par la rgle du parallelogramme :
!!
!
!!
!! %ll v
!
!
!
%
!
l
!!
%
l
!
!
% v+w !!!
l
% !!
!
%
l ll
!! w
l l%
!
v ll
w!!!
49
50
On place lorigine de w sur lextrmit de v. Le vecteur v + w est alors le segment orient joignant
lorigine de v lextrmit de w. Remarquons que v + w = w + v.
Le produit dun vecteur v par un scalaire k est le vecteur kv dfini par les proprits suivantes :
son module est gal |k| fois le module de v
sa direction est celle de v
son sens est celui de v si k > 0 et le sens oppos si k < 0.
Exemple 4.1.
3v
2v
Loppos du vecteur v est le vecteur v et la diffrence de deux vecteurs v et w est dfinie par
v w = v + (w).
4.1.1
Systmes de coordonnes
Si lon choisit un systme de coordonnes pour le plan (resp. pour lespace), un vecteur peut
alors scrire en composantes :
v1
v1
v=
,
respectivement v = v2 .
v2
v3
y
v2
v
v1
O
Figure 6.2
Dans cette reprsentation, lorigine du vecteur est toujours le point O = ( 00 ), intersection des
axes de coordonnes x et y.
Dans le cas de lespace 3 dimensions, on choisit toujours un systme daxes orient positivement
comme le montre la figure ci-dessous :
La somme de deux vecteurs et le produit dun vecteur par un scalaire se calculent comme suit
(nous donnons
des vecteurs de lespace, le cas du plan tant similaire) :
v1 les formules
w1 pour
2
Si v = vv2 et w = w
alors
w3
3
v1 + w1
v + w = v2 + w2 ,
v3 + w3
kv1
kv = kv2
kv3
51
v3
v
v1
v2
x
v1
Figure 6.4 : v = v2 .
v3
x
Figure 6.5 : y a lorientation positive.
z
52
et
v1
v = v2 .
v3
4.1.2
4.2
Le produit scalaire
On va dfinir le produit scalaire de deux vecteurs u et v dans le plan ou dans lespace de dimension
3. Le produit scalaire de deux vecteurs est un scalaire. Soient u = ( uu12 ) et v = ( vv12 ) deux vecteurs
dans le plan. On dfinit le produit scalaire par
u v = u1 v1 + u2 v2 .
Soient u =
scalaire par
u1
u2
u3
u v = u1 v1 + u2 v2 + u3 v3
Le produit scalaire a les proprits suivantes :
Thorme 4.3. (1) u v = v u
(2) u v = (u v)
(3) (u + v) w = u w + v w
(4) u u 0
(5) u u = 0 si et seulement si u = 0.
(6) u u =k u k2
Dmonstration. Ces proprits sont des consquences immdiates de la dfinition. Par exemple, si
u = ( uu12 ) alors
u u = u21 + u22 .
Mais
k u k=
q
u21 + u22
et donc
u u =k u k2 ,
ce qui dmontre (6).
53
On a alors
Thorme 4.4 (Thorme du cosinus). Soient a, b, c les cts dun triangle et , , ses angles
comme dans la figure ci-dessus. Alors
a2 = b2 + c2 2 b c cos().
Dmonstration. Soit H le pied de la hauteur issue du sommet C.
A
H ZZ
b
b Z
c
b
bZ
bZ
bZ
bZ
hh
h
h
bb
Z
hhhhh
B
hhb
Z
h
Thorme 4.5. Soient u et v deux vecteurs non nuls, et soit langle quils forment. Alors
u v =k u k k v k cos()
Dmonstration. On a
k v u k2
(v u) (v u)
v v + u u 2u v
k v k2 + k u k2 2u v .
54
#A
# A
A vu
u ##
A
#
A
#
A
#
#
A
Figure 6.8
Thorme 4.6. Soient u et v deux vecteurs non nuls. Alors u et v sont orthogonaux si et seulement
si
u v = 0.
Dmonstration. Comme
u v =k u k k v k cos() .
on a u v = 0 si et seulement si cos() = 0 et donc si et seulement si =
si u et v sont orthogonaux.
et donc si et seulement
Remarque 4.7. On convient en gnral que le vecteur nul est orthogonal tous les vecteurs. Ainsi,
lnonc du thorme 4.6 reste vrai, mme si lun des deux vecteurs est nul, bien que langle entre
u et v ne soit pas dfini.
4.2.1
Projection orthogonale
u
Figure 6.9
uv
v
k v k2
u
w2
P
P
55
B
w1
Figure 6.10
Dmonstration.
Calculons le produit scalaire avec v. On a :
uv
(w1 + w2 ) v =
= w1 v + w2 v .
Mais w2 v = 0, car w2 et v sont orthogonaux. Il reste alors
uv
w1 v = (`v) v =
` v v = ` k v k2
do
`=
uv
.
k v k2
On a donc
projv u =
uv
v.
k v k2
k projv u k =
4.3
56
uv
Posons
1
i = 0 ,
0
u2 v3 u3 v2
u3 v1 u1 v3
u1 v2 u2 v1
u2 v2
u3 v3
u 1 v1
u 3 v3 .
u1 v1
u2 v2
0
j = 1 ,
0
Alors
i
u v = j
k
0
k = 0 .
1
et
u1
u2
u3
v1
v2
v3
u v est orthogonal u
(b) v (u v) = 0
2
u v est orthogonal v
2
(c) k u v k =k u k k v k2 (u v)2
identit de Lagrange.
u (u v)
u1
u2 v3 u3 v2
= u2 u3 v1 u1 v3 =
u3
u1 v2 u2 v1
= u1 (u2 v3 u3 v2 ) + u2 (u3 v1 u1 v3 ) + u3 (u1 v2 u2 v1 ) =
=
u1 u2 u3 u1 u3 v2 + u2 u3 v1 u1 u2 v3 + u1 u3 v2 u2 u3 v1 = 0 .
(a) u v = (v u)
(b) u (v + w) = (u v) + (u w)
(c) (u + v) w = (u w) + (v w)
(d) k(u v) = (ku) v = u (kv)
(e) u 0 = 0 u = 0
57
(f ) u u = 0 .
La notion de produit vectoriel est lie celle de colinarit par le thorme suivant :
Thorme 4.13. Soient u et v deux vecteurs non nuls de lespace de dimension 3. Les affirmations
(1) et (2) sont quivalentes :
(1) u et v sont colinaires (cest--dire u = `v)
(2) u v = 0.
Dmonstration. (1) = (2) : Supposons que u = `v. Alors
u v = (`v) v = `(v v) = 0.
ce qui dmontre (2).
v1
u1
Montrons maintenant limplication inverse (2) = (1) : Soient u = uu2 et v = vv2 et
3
3
u2 v3 u3 v2
u
v
u
v
uv =
. Supposons que u v = 0. On a donc
3 1
1 3
u1 v2 u2 v1
u2 v3 u3 v2
u3 v1 u1 v3
u1 v2 u2 v1
0.
u1 v3
u1 v2
0.
u1
v1
u1
v3 = `v3 .
v1
En conclusion, on a
u=`v
ce qui dmontre (2).
58
4.3.1
= k u k2 k v k2 k u k2 k v k2 cos2
= k u k2 k v k2 (1 cos2 )
= k u k2 k v k2 sin2 .
On obtient donc
Thorme 4.14.
k u v k=k u k k v k sin()
Dmonstration. Comme
0
on a
sin() 0 .
et donc lgalit cherche.
Considrons maintenant un paralllogramme dont les cts sont les vecteurs u et v :
h
u
Figure 6.12 : h =k v k sin()
59
uv
v
h
hhhhhh
u
Figure 6.13
4.4
[u, v, w] = u (v w)
v w2
i
= u 2
v3 w 3
v w2
u1 v1
= 2
v3
v3 w 3
u1 v1 w1
= u2 v2 w2 .
u3 v3 w3
v1 w1
w1
j
+
v2 w2 k
w3
v1 w1
w1
u
u
+
w3 2 v2 w2 3
v1
v3
et
= ,
et
[u, v, w]
(v + w) (v w)
v (v w) + w (v w)
| {z }
|
{z
}
0.
60
cest--dire que u v est orthogonal w. Mais u v est aussi orthogonal u et v. Ceci entrane
que u, v et w sont coplanaires et donc que lon peut crire
w = u + v
ce qui termine la dmonstration.
Le produit mixte peut galement tre interprt gomtriquement ce qui est lobjet du thorme
suivant.
Thorme 4.18.
dterminant
Alors
i
u v = j
k
u1
u2
0
v1
v2
0
u1
=
u2
u et v est
v1
k
v2
v1
k k k=
v2
v1
k.
v2
det u1
u2
v1
v2
.
(2) Prenons le paralllogramme dtermin par v et w comme base du paralllpipde dtermin par
u, v et w. Laire de la base est donc
kvw k
et la hauteur du paralllpipde est la projection orthogonale de u sur v w .
On a
|u (v w)|
h =k projvw u k=
kvw k
et le volume V du paralllpipde est alors
V = (aire de la base) (hauteur)
|u (v w)|
kvw k
= |u (v w)|
=k v w k
61
4.5
4.5.1
Soit P0 =
x0
y0
z0
n1
n2
n3
un vecteur.
Figure 6.15
Le plan passant par P0 et ayant n comme vecteur normal est form des points P tels que le
P0 P n = 0 .
Si P =
X
Y
Z
alors P0 P =
Xx0
Y y0
Zz0
et la condition P0 P n = 0 scrit
Xx0
Y y0
Zz0
n1
nn2 = 0
3
ou encore
n1 (X x0 ) + n2 (Y y0 ) + n3 (Z z0 ) = 0 .
2
Exemple 4.19. Lquation du plan passant par le point P0 = 5 et perpendiculaire au vecteur
6
1
3
n=
est
2
(X 2) + 3(Y + 5) 2(Z 6) = 0
ou encore
X + 3Y 2Z + 25 = 0.
Thorme 4.20. Soient a, b, c, d des scalaires tels que (a, b, c) 6= (0, 0, 0). Alors lquation
aX + bY + cZ + d = 0
62
4.5.2
Soit L la droite passant par le point P0 = (x0 , y0 , z0 ) et parallle au vecteur v = (a, b, c). Alors L
est constitue des points P = (X, Y, Z) tels que le vecteur P0 P est parallle au vecteur v. Autrement
dit :
P0 P = v
pour un scalaire . On a donc
X x0
a
Y y0 = b
Z z0
c
ou, de manire quivalente,
X x 0
Y y0
Z z0
= a
= b
= c.
aX + bY + cZ + d = 0
est donne par
D=
.
a2 + b2 + c2
Figure 6.16
Dmonstration.
63
x1
au plan est gale la norme de la projection orthogonale du vecteur QP0 sur le vecteur n :
Donc
|QP0 n|
D =k projn QP0 k=
.
knk
x0 x1
On a QP0 = y0 y1 et ainsi
Soit Q =
y1
z1
z0 z1
x0 x1
a
a2 + b2 + c2 ,
.
a2 + b2 + c2
x1
Or Q = yz1 est un point du plan, ce qui entrane que ax1 + by1 + cz1 + d = 0 et donc que
1
d = ax1 by1 cz1 . On obtient finalement
D=
a2 + b2 + c2
64
Chapitre 5
Espaces de dimension n
Dfinitions et notations
Lensemble des nombres rels est not R. Lensemble des nombres rels R est souvent reprsent
par une droite. Cest un espace de dimension 1. Le plan est form des couples ( aa12 ) de
rels.
nombres
Il est not R2 . Lespace de dimension 3 est constitu des triplets de nombres rels
a1
R3 . Le symbole aa2 a deux interprtations gomtriques :
3
1. Un point
a1
a2
a3
Figure 7.1
2. Un vecteur
a1
d a2
a3
Figure 7.2
65
a1
a2
a3
. Il est not
66
..
de nombres rels.
.
an
!
a1
..
dnote aussi bien le
.
an
..
.
v1
!
et v =
un
..
.
!
deux vecteurs de Rn .
vn
u1 + v1
..
u+v =
.
.
un + vn
u1
..
.
!
un vecteur et un scalaire.
un
Alors
u1
u = ... .
un )
0
un
(a)
(b)
(c)
(d)
(e)
(f )
(g)
(h)
wn
u+v =v+u
u + (v + w) = (u + v) + w
u+0=0+u=u
u + (u) = 0
(u) = ()u
(u + v) = u + v
( + )u = u + u
1u=u
5.1.2
Produit scalaire
u1
Soient u =
..
.
un
v1
!
et v =
..
.
!
deux vecteurs de Rn . On dfinit leur produit scalaire par
vn
u v = u1 v1 + u2 v2 + + un vn .
Cest un scalaire. Remarquons que cette dfinition gnralise la notion de produit scalaire dans le
plan R2 et dans lespace R3 .
Thorme 5.4. Soient u, v et w des vecteurs de Rn et soit un scalaire. Alors on a :
(a) u v = v u
(b) (u + v) w = u w + v w
(c) (u) v = (u v)
(d) v v 0.
(e) v v = 0 si et seulement si v = 0.
5.1.3
67
..
.
Soit u =
un
k u k=
u1
Soient u =
v1
..
.
et v =
uu=
u21 + + u2n .
..
.
un
vn
d(u, v)
=
=
4 + 1 + 36 + 25 = 66.
si et seulement si u = 0
(c) k u k= || k u k
(d) k u + v k k u k + k v k
(Ingalit du triangle)
Dmonstration. (a) et (b) dcoulent des points (d) et (e) du thorme 5.4.
!
!
u1
u1
.
.
et donc
(c) Soit u =
.. . On a u =
..
un
un
k u k
(u1 )2 + + (un )2
q
2 u21 + + 2 u2n = 2 u21 + + u2n
=
q
= || u21 + + u2n = || k u k .
(d) Soient u =
u1
dotsun
et v = ( vvn1 ). On a
k u + v k2 = (u + v) (u + v)
= u u + v v + 2u v
=k u k2 + k v k2 +2u v.
68
!
u+!
v !!
!
v
!!
Figure 7.3
(a) d(u, v) 0
(b) d(u, v) = 0 si et seulement si u = v.
(c) d(u, v) = d(v, u)
(d) d(u, v) d(u, w) + d(w, v)
(Ingalit du triangle)
1
1
k u + v k2 k u v k2 .
4
4
Dmonstration.
k u + v k2 = (u + v) (u + v) =k u k2 + k v k2 +2u v
k u v k2 = (u v) (u v) =k u k2 + k v k2 2u v
Donc
k u + v k2 k u v k2 = 4u v
do
uv =
1
1
k u + v k2 k u v k2 .
4
4
Dmonstration.
k u + v k2 = (u + v) (u + v)
= k u k2 + k v k2 +2u v
= k u k2 + k v k2
5.1.4
car u v = 0.
Soit u =
..
.
!
un vecteur de Rn . On lappelle vecteur colonne, et on le considre naturelle-
un
ment u comme une matrice de taille n 1. Parfois, on rencontre aussi des vecteurs ligne : on peut
voir u comme une matrice 1 n, de la forme u = (u1 , . . . , un ). En fait, le vecteur ligne correspondant
u est le transpos uT du vecteur colonne u.
69
Les oprations de somme et de produit par un scalaire dfinies ci-dessus se transposent parfaitement lcriture matricielle et lon retrouve ainsi les oprations dfinies sur les matrices introduites
au chapitre 2 :
u1 + v1
v1
u1
..
u + v = ... + ... =
.
et
u n + vn
vn
un
u1
u1
u = ... = ... .
un
un
5.1.5
Soient
u1
u = ...
un
v1
v = ...
vn
et
deux vecteurs. On a
vT =
et ainsi
v1
v2
...
vn
u1
v T u = (v1 . . . vn ) ... = u1 v1 + + un vn = u v.
un
On a donc
u v = vT u .
Exemple 5.12.
2
3
v=
5
0
1
3
T
u v = v u = (2 3 5 0)
6 = (41) = 41.
4
1
3
u=
6 ,
4
Soit A une matrice de taille n n et u un vecteur colonne (i.e. une matrice n 1). Le produit
matriciel Au est une matrice n 1, donc un vecteur colonne. On peut alors considrer le produit
scalaire de Au avec un autre vecteur v,
(Au) v
On a ainsi
(Au) v = v T (Au)
= (v T A)u = (AT v)T u =
= u (AT v).
70
1
A= 2
1
Alors
2 3
4 1
0 1
1
u= 2
4
2
et v = 0 .
5
2 3
1
7
4 1 2 = 10
0 1
4
5
2
4
1
1
Au = 2
1
et
1
AT v = 2
3
1
2
7
0 0 = 4 .
1
5
1
On obtient ainsi
(Au) v = (v T )(Au) =
7
10 = 14 + 0 + 25 = 11
5
et
5.1.6
1
2 = 7 + 8 4 = 11.
4
Soient A = (aij ) une matrice de taille m r, et B = (bij ) une matrice de taille r n. Nous avons
vu que lon peut former le produit matriciel AB. On obtient une matrice de taille m n. Llment
dindice ij de la matrice AB est
ai1 b1j + ai2 b2j + + air brj .
Remarquons que ceci est aussi le produit
ai1
ai2
...
air
b1j
b2j
..
.
brj
Autrement dit, cest le produit scalaire du i-me vecteur ligne de A avec le j-me vecteur colonne
de B. Notons l1 , . . . , lm les vecteurs ligne de A, et c1 , . . . , cn les vecteurs colonne de B. On a alors
`1 c1 `1 c2 . . . `1 cn
`2 c1 `2 c2 . . . `2 cn
AB =
..
..
..
.
.
.
`m c1 `m c2 . . . `m cn
En particulier, un systme dquations linaires peut tre exprim grce au produit scalaire comme
suit : soit Ax = b un systme linaire o A est la matrice des coefficients du systme de taille m n,
b1
b = ...
bm
est le second membre et
x1
x = ...
xn
71
`1 x
`2 x
..
.
=b=
`m x
5.2
b1
.. .
.
bm
Applications linaires
5.2.1
72
5.2.2
Applications linaires
Dfinition 5.15. Une application f : Rn Rm dfinie par f (x1 , . . . , xn ) = (w1 , . . . , wm ) est dite
linaire si
w1 = a11 x1 + a12 x2 + . . . + a1n xn
w2 = a21 x1 + a22 x2 + . . . + a2n xn
..
..
..
..
.
.
.
.
wm
am1 x1
En notation matricielle, on a
w1
x1
x2 w2
f . = .
.. ..
wm
xn
+ am2 x2
...
+ amn xn .
a11
a21
..
.
a12
a22
..
.
...
...
a1n
a2n
..
.
am1
am2
...
amn
x1
x2
..
.
xn
ou encore
f (x) = w = Ax
A = (aij ).
avec
w2
w3
w1
2
w2 = 4
w3
7
5
2 7
2 3
3
3
9
0
x1
x2
x3 .
x4
Notation :
Soit f : Rn Rm une application linaire. On note [f ] la matrice de f (appele aussi matrice
standard de f ). Soit A une matrice m n. On note fA : Rn Rm lapplication linaire
fA (x) = Ax
pour tout x Rn .
5.2.3
x
y
73
`
(x, y) `
H
(x, y)
HH
HH
HH
Figure 7.6
1
0
0
1
x
y
=
x
y
.
0
1
1
0
.
1
0
0
0
0
1
0 .
0 1
De mme, la rflection par rapport au plan Oxz est donne par la matrice
1
0 0
0 1 0
0
0 1
74
(y, x)
(x, y)
Figure 7.7
1 0 0
0 1 0 .
0 0 1
Projections orthogonales
y
(x, y)
(x, 0)
Figure 7.8
Lapplication
f : R2 R2
( xy ) 7 ( x0 )
est la projection orthogonale sur laxe Ox. Cest une application linaire donne par la matrice
1 0
.
0 0
Lapplication linaire
f : R3 R3
x
x
y
7 y
z
75
1
0
0
sa matrice est
0 0
1 0 .
0 0
1
0
0
0 0
0 0 ,
0 1
0 0
0 1
0 0
5.2.4
0
0 .
1
Rotations
(w1, w2)
(x, y)
x
x =
r cos
r sin
r cos( + ),
w2
r sin( + ) .
w2
cest--dire
w1
x cos y sin
w2
x sin + y cos .
76
5.2.5
Soient
fA : Rm Rr
et
fB : Rr Rn
deux applications linaires induites respectivement par les matrices A et B. Considrons leur composition
fB fA : Rm Rn
dfinie par (fB fA )(x) = fB (fA (x)).
Cest une application linaire et on a
(fB fA )(x)
fB (fA (x)) =
= B(Ax) = (BA)x
ce qui implique que
fB fA = fBA .
Autrement dit, la matrice associe la composition de deux applications linaires est gale au produit
de leurs matrices standard.
Exemple 5.18. Soit
f : R2 R2
la rflection par rapport la droite y = x, et soit
g : R2 R2
la projection orthogonale sur laxe des y.
f (v)
g(f (v))
x=y
B
(
(
!
!!
!
v
!!
!!!
!
0
1
1
0
0
0
0
1
[f ] =
et la matrice standard de g est
[g] =
g(v)
77
x=y
(
(
!
!! v
!
!
!!
!
!!
f (g(v))
Figure 7.11 : Composition de g puis de f
On a alors
[f g] = [f ][g] =
et
[g f ] = [g][f ] =
0
1
1
0
0
0
0
1
0
0
0
1
0
1
1
0
0
0
1
0
0
1
0
0
Remarquons que
0 0
0 1
[g f ] =
6=
= [f g]
1 0
0 0
ce qui montre que la composition dapplications linaires nest pas commutative en gnral.
5.3
1
0
0
0
1
..
Ax1 = 0 , Ax2 = 0 , . . . , Axn = 0 .
..
..
.
.
0
0
0
1
78
Ainsi,
A (x1 x2 . . . xn ) = In
|
{z
}
=C
et det(AC) = det(A) det(C) = 1. Le dterminant de A est donc non nul, ce qui est quivalent dire
que A est inversible. Do le thorme suivant :
Thorme 5.20. Soit A une matrice n n. Les proprits suivantes sont quivalentes :
(1) A est inversible
(2) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
a une solution
(3) Pour toute matrice colonne w de taille n 1, le systme
Ax = w
a exactement une solution.
Soit fA : Rn Rn lapplication linaire de matrice standard A. Remarquons que la proprit
(2) ci-dessus est quivalente
(2) fA est surjective
et que (3) quivalent
(3) fA est bijective.
On a donc le thorme suivant :
Thorme 5.21. Soit A une matrice de taille n n, et soit fA : Rn Rn lapplication linaire
associe. Les proprits suivantes sont quivalentes :
(1) fA est injective
(2) fA est surjective
(3) fA est bijective
(4) A est inversible.
Dmonstration. Lquivalence des points (2), (3) et (4) dcoule du thorme prcdent.
Il suffit donc de montrer que (1) est quivalent (4) par exemple.
Supposons fA injective. Soit x Rn tel que fA (x) = 0. Alors Ax = 0. Or, on a aussi A0 = 0. Comme
fA est injective, on a ncessairement x = 0. Autrement dit, le systme Ax = 0 a une unique solution.
Le thorme 2.32 permet de conclure que la matrice A est inversible.
Rciproquement, supposons A inversible. Soient x1 , x2 Rn tels que fA (x1 ) = fA (x2 ), cest--dire
tels que Ax1 = Ax2 . On a alors A(x1 x2 ) = 0. A nouveau par le thorme 2.32, on en dduit que
x1 = x2 . Lapplication fA est donc injective.
Exemple 5.22. Soit
f : R2 R2
la projection sur laxe des x. Alors f nest pas injective. En effet,
f ( xy ) = ( x0 )
pour tout y R2
1
0
0
0
.
Elle nest pas inversible, car det([f ]) = 0. Lapplication f nest donc pas surjective : ceci se vrifie
aisment car aucun point en-dehors de laxe des x nest dans limage de f .
79
Soit
fA : Rn Rn
une application linaire associe une matrice A inversible. Alors
fA1 : Rn Rn
est aussi une application linaire et on a
fA (fA1 (x)) = AA1 x = Ix = x
fA1 (fA (x)) = A1 Ax = Ix = x
pour tout x dans Rn . Lapplication fA1 est appele lapplication inverse de fA .
On dit quune application linaire f : Rn Rn est inversible si f = fA , o A est une matrice
inversible. Si f : Rn Rn est inversible, on note
f 1 : Rn Rn
son inverse. Par le thorme 5.21, une application linaire est inversible si et seulement si elle est
bijective.
Exemple 5.23. Soit f : Rn R2 la rotation dangle . Alors f 1 : R2 R2 est la rotation
dangle .
On a
cos
sin
[f ] =
sin
cos
1
cos
sin
f
=
sin
cos
cos ()
sin ()
=
.
sin ()
cos()
Thorme 5.24. Une application
f : Rn Rm
est linaire si et seulement si pour tous les vecteurs u, v de Rn et pour tout scalaire , on a
(1) f (u + v) = f (u) + f (v)
(2) f (u) = f (u) .
Dmonstration. Supposons f : Rn Rm linaire, et soit A sa matrice standard. On a
f (u + v) = A(u + v) = Au + Av = f (u) + f (v)
et
f (u) = A(u) = Au = f (u) .
Rciproquement, supposons (1) et (2). Notons dabord que (1) implique que
f (v1 + v2 + + vr ) = f (v1 ) + f (v2 ) + + f (vr ).
Posons
e1 =
1
0
..
.
0
e2 =
0
1
0
..
.
, . . . , en =
0
..
.
.
0
1
80
et
x=
x1
x2
..
.
xn
Alors
x = x1 e1 + x2 e2 + + xn en
et donc
Ax
= A(x1 e1 + x2 e2 + + xn en )
= x1 Ae1 + x2 Ae2 + + xn Aen
= x1 f (e1 ) + x2 f (e2 ) + + xn f (en )
= f (x1 e1 ) + f (x2 e2 ) + + f (xn en )
= f (x1 e1 + x2 e2 + + xn en ) = f (x).
e1 =
1
0
..
.
0
, e2 =
0
1
0
..
.
0
..
, . . . , en = .
Chapitre 6
Espaces vectoriels
6.1
Rappels et notations
1. Soit E un ensemble. La notation x E signifie x est un lment de E ou x appartient
E. Par exemple, R signifie est un nombre rel.
2. Soient E et E 0 deux ensembles. La notation E E 0 signifie E est contenu dans E 0 ou E
est un sous-ensemble de E 0 .
3. Soient E, E 0 deux ensembles. Alors lensemble des couples
E E 0 = {(e, e0 ) | e E, e0 E 0 }
sappelle le produit cartsien de E et E 0 .
Dfinition 6.1 (Espace vectoriel). Soit V un ensemble muni de deux oprations : une addition
V V
(u, v) 7
V
u+v
(, u) 7
V
u.
On dit que V , muni de ces deux oprations, est un espace vectoriel si pour tout u, v, w V et tout
, R, on a les proprits suivantes :
(1) u + v = v + u
(2) u + (v + w) = (u + v) + w
(3) Il existe 0 V tel que 0 + u = u + 0 = u pour tout u V .
(4) Pour tout u V , il existe u V tel que u + (u) = 0
(5) (u + v) = u + v
(6) ( + )u = u + u
(7) (u) = ()u
(8) 1 u = u
Exemple 6.2. Lensemble V = Rn muni des oprations habituelles daddition de vecteurs et de
produit dun vecteur par un scalaire est un espace vectoriel.
Exemple 6.3. Soit V lensemble des matrices de taille n m, muni de laddition des matrices et
de la multiplication dune matrice par un scalaire. Alors V est un espace vectoriel.
81
82
(f )(x) = f (x)
Ceci en fait un espace vectoriel. Les proprits sont faciles vrifier. Par exemple, on dfinit la
fonction nulle
0 : R R
par
0(x) = 0
pour tout x R.
Alors f + 0 = f pour toute fonction f , et on est donc lgitim crire 0 pour la fonction 0. Si
f : R R est une fonction, on dfinit
f : R R
par
(f )(x) = f (x)
Les autres proprits se vrifient facilement.
Exemple 6.5. Tout plan passant par lorigine est un espace vectoriel (par rapport aux oprations
habituelles sur les vecteurs). Le plan est donn par une quation de la forme
ax + by + cz = 0
o a, b et c sont des scalaires non tous nuls.
x0 x1
Notons V ce plan. Soient yz0 et yz1 deux lments de V . Autrement dit,
0
Alors
x0 +x1
y0 +y1
z0 +z1
0.
6.2
83
Sous-espaces vectoriels
a0 + a1 x + + an xn
q(x)
b0 + b1 x + + bn xn
Alors
(p + q)(x) = p(x) + q(x) = (a0 + b0 ) + (a1 + b1 )x + + (an + bn )xn .
Donc p + q Pn ;
(2) soit p(x) = a0 + a1 x + + an xn Pn et R. Alors
(p)(x) = p(x) = a0 + a1 x + + an xn .
Donc p Pn .
Exemple 6.13. Notons C(R) lensemble des fonctions continues f : R R. Alors C(R) est un
espace vectoriel. Cest un sous-espace vectoriel de lespace vectoriel de toutes les fonctions f : R
R . Il suffit de vrifier que la somme de deux fonctions continues est continue et que si f C(R)
alors f est continue pour tout R.
84
Notons C 1 (R) lensemble des fonctions f : R R qui sont drivables et de premire drive
continue. Alors C 1 (R) est un sous-espace vectoriel de C(R). Notons C i (R) lensemble des fonctions
f : R R qui sont drivables i fois et dont la i-me drive est continue. On a les inclusions
C i (R) C i1 (R) C(R).
C i (R) est un sous-espace vectoriel de C(R) (et aussi de C i1 (R)).
Notons C (R) lensemble des fonctions f : R R qui sont indfiniment drivables et dont
toutes les drives sont continues. Alors C (R) est un sous-espace vectoriel de C(R). On a les
inclusions despaces vectoriels
Pn C (R) C(R).
Remarque 6.14. Soit {e1 , e2 } la base standard de R2 . Soit d1 (respectivement d2 ) la droite passant
par lorigine et de vecteur directeur e1 (respectivement e2 ). La runion de d1 et de d2 nest pas un
sous-espace vectoriel de R2 . En effet, le vecteur
1
0
1
e1 + e2 =
+
=
0
1
1
nappartient ni d1 , ni d2 .
6.2.1
Un autre exemple despace vectoriel est donn par lensemble des solutions dun systme linaire
homogne. Soit Ax = 0 un systme de m quations n inconnues :
a11 . . . a1n
x1
0
..
.. ..
..
.
. = .
.
am1
...
amn
xn
On a alors
Thorme 6.15. Soit Ax = 0 un systme dquations linaires homognes n variables. Alors
lensemble des vecteurs solution est un sous-espace vectoriel de Rn .
Dmonstration. Soit W lensemble des vecteurs solution. Le vecteur 0 est un lment de W . Vrifions
que W est ferm par rapport laddition et par rapport la multiplication par un scalaire.
Si x et x0 sont des vecteurs-solution, alors Ax = 0 et Ax0 = 0 et donc A(x + x0 ) = Ax + Ax0 = 0
ce qui montre que W est ferm par rapport laddition. On a aussi A(x) = Ax = 0 = 0 ce qui
prouve que W est aussi ferm par rapport la multiplication par un scalaire.
Exemple 6.16. Considrons le systme
1 2
2 4
3 6
3
x
0
6 y = 0 .
9
z
0
= s
= t
ce qui donne
x = 2y 3z
do
x 2y + 3z = 0.
Lensemble des solutions est donc un plan passant par lorigine. Nous avons vu que ceci est un espace
vectoriel.
6.3
85
Combinaison linaire
1
e1 = 0
0
0
e2 = 1
0
0
e3 = 0
1
x1
x = x2
x3
un vecteur quelconque de R3 . On a
x1
0
0
1
0
0
x = 0 + x2 + 0 = x1 0 + x2 1 + x3 0
0
0
x3
0
0
1
ce qui montre que x est une combinaison linaire de e1 , e2 et e3 . Ainsi, tout vecteur de R3 est
combinaison linaire de e1 , e2 et e3 .
9
6
1
Exemple 6.19. Soient u = 2 et v = 4 deux vecteurs de R3 . Montrons que w = 2 est
1
7
2
combinaison linaire de u et v. On cherche donc et tels que
9
1
6
2
= 2 + 4
1
7
2
6
2
=
+ 4
2
+6
2+4
=
.
+2
On a donc
9
2
= + 6
= 2 + 4
= + 2.
= 2,
4
1
8
Or ce systme na aucune solution.
= + 6
= 2 + 4
= + 2.
86
Thorme 6.21. Soient v1 , . . . , vr des vecteurs dun espace vectoriel V . Alors lensemble W des
combinaisons linaires de v1 , . . . , vr est un sous-espace vectoriel de V .
Dmonstration. Le vecteur 0 est dans W car 0 = 0 v1 + + 0 vr . Vrifions que W est ferm pour
laddition et pour la multiplication par un scalaire. Soient u, v W. Alors, par dfinition de W ,
u = 1 v1 + 2 v2 + + r vr
v
= 1 v1 + 2 v2 + + r vr ,
Thorme 6.23. Soit V un espace vectoriel, et soient v1 , . . . , vr V . Soit W le sous-espace vectoriel de V engendr par v1 , . . . , vr . Alors W est le plus petit sous-espace vectoriel de V contenant
v1 , . . . , v r .
Dmonstration. On a clairement que v1 W, v2 W, . . . , vr W . Soit W 0 un autre sous-espace
vectoriel de V qui contient v1 , . . . , vr . Comme W 0 est un sous-espace vectoriel de V , il est ferm par
addition et par multiplication par un scalaire. Donc W 0 contient toutes les combinaisons linaires
de v1 , . . . , vr ce qui implique que W W 0 .
Exemple 6.24. Soient v1 et v2 deux vecteurs non colinaires de R3 . Alors lespace vectoriel W
engendr par v1 et v2 est un plan.
Exemple 6.25. Soient v1 et v2 deux vecteurs colinaires de R3 . Alors v2 = v1 . Lespace vectoriel
engendr par v1 et v2 est une droite.
Exemple 6.26. Soit Pn lespace vectoriel des fonctions polynomiales de degr n . Alors les
polynmes 1, x, . . . , xn engendrent Pn .
Thorme 6.27. Soit V un espace vectoriel, et soient S = {v1 , v2 , . . . , vr } et S 0 = {v10 , v20 , . . . , vs0 }
deux ensembles de vecteurs de V . On a
L(v1 , v2 , . . . , vr ) = L(v10 , v20 , . . . , vs0 )
si et seulement si tout vecteur de S est une combinaison linaire de vecteurs de S 0 et tout vecteur
de S 0 est une combinaison linaire de vecteurs de S.
Dmonstration. Cest une consquence immdiate de la dfinition de L(S) et de L(S 0 ).
6.4
87
Indpendance linaire
Dfinition 6.28. Soit S = {v1 , . . . , vr } un ensemble non vide de vecteurs dun espace vectoriel.
Lquation
1 v1 + + r vr = 0
a au moins une solution, notamment la solution triviale 1 = 2 = = r = 0. Si cette solution
est unique, on dira que S est un ensemble linairement indpendant, ou que les vecteurs v1 , . . . vr
sont linairement indpendants.
Sinon, on dira que S est un ensemble linairement dpendant, ou que les vecteurs v1 , . . . , vr sont
linairement dpendants.
Remarque 6.29. Tout vecteur non nul est linairement indpendant. En effet, v = 0 implique
= 0 ou v = 0.
Le vecteur nul est linairement dpendant car 0 = 0 pour tout R. Plus gnralement,
tout ensemble contenant le vecteur nul est linairement dpendant. En effet, soient v1 , . . . , vr1 des
vecteurs quelconques et vr = 0. Alors
0 v1 + + 0 vr1 + 0 = 0
pour tout R.
Exemple 6.30. Soient v1 =
est linairement dpendant, car
2
1
0
3
, v2 =
1
2
5
1
et v3 =
7
1
5
8
. Alors lensemble S = {v1 , v2 , v3 }
3v1 + v2 v3 = 0.
Exemple 6.31. Les polynmes p1 (x) = 1 x, p2 (x) = 5 + 3x 2x2 et p3 (x) = 1 + 3x x2 forment
un ensemble linairement dpendant, car
3p1 p2 + 2p3 = 0.
Exemple 6.32. Soient
1
e1 = 0 ,
0
0
e2 = 1 ,
0
0
e3 = 0
1
les vecteurs de la base standard de R3 . Alors lensemble {e1 , e2 , e3 } est linairement indpendant.
En effet, supposons que 1 e1 + 2 e2 + 3 e3 = 0. Alors
0
0
1
0
1 0 + 2 1 + 3 0 = 0 ,
0
1
0
0
ce qui donne
1
0
0
1
0
0 + 2 + 0 = 2 = 0 ,
0
0
3
3
0
et donc
1 = 0 ,
2 = 0 ,
3 = 0.
88
Thorme 6.34. Un ensemble S est linairement dpendant si et seulement si au moins lun des
vecteurs de S est une combinaison linaire des autres vecteurs de S.
Dmonstration. Soit S = {v1 , v2 , . . . , vr } un ensemble linairement dpendant. Alors il existe 1 , . . . , r
R non tous nuls tels que
1 v1 + 2 v2 + + r vr = 0.
Comme les 1 , . . . , r ne sont pas tous nuls, il en existe au moins un qui est non nul. Supposons
i 6= 0, avec 1 i r. On a
i vi = 1 v1 i1 vi1 i+1 vi+1 r vr .
Comme i 6= 0, ceci implique
vi =
i1
i+1
r
v1 + +
vi1 +
vi+1 + +
vr
i
i
i
6.4.1
Dans R2 ou R3 , deux vecteurs sont linairement dpendants si et seulement sils sont colinaires.
Dans R3 , trois vecteurs sont linairement dpendants si et seulement sils sont sur le mme
plan (coplanaires).
Thorme 6.35. Soit S = {v1 , v2 , . . . , vr } un sous-ensemble de Rn . Si S contient plus de n lments, alors S est linairement dpendant.
Dmonstration. Supposons que
v11
v12
v1 = . ,
..
v1n
v21
v22
v2 = . ,
..
,...,
vr1
vr2
vr = . .
..
v2n
vrn
Lquation
x 1 v1 + x 2 v 2 + + x r vr = 0
donne alors le systme suivant
v11 x1 + v21 x2 + + vr1 xr
...........................
v1n x1 + v2n x2 + + vrn xr
Cest un systme homogne de n quations r inconnues. Lorsque r > n, ce systme a des solutions
non triviales ce qui montre que la famille S est linairement dpendante.
6.5
89
Bases et dimension
Dfinition 6.36 (Base dun espace vectoriel). Soit V un espace vectoriel, et S = {v1 , v2 , . . . , vn }
un sous-ensemble de V . Alors S est une base de V si et seulement si les deux conditions suivantes
sont vrifies :
(1) lensemble S est linairement indpendant ;
(2) lensemble S engendre V , cest--dire V = L(S).
Thorme 6.37. Si S = {v1 , v2 , . . . , vn } est une base de lespace vectoriel V , alors tout vecteur
v V sexprime de faon unique comme combinaison linaire dlments de S :
v = 1 v1 + 2 v2 + + n vn
avec 1 , . . . , n R dtermins de faon unique.
Dmonstration. Par dfinition, S engendre V , donc pour tout v V il existe 1 , . . . , n R tels
que
v = 1 v1 + 2 v2 + + n vn .
Il reste montrer lunicit des 1 , 2 , . . . , n . Soient 1 , 2 , . . . , n R tels que
v = 1 v1 + 2 v2 + + n vn .
Alors on a
(1 1 )v1 + (2 2 )v2 + + (n n )vn = 0.
Comme S = {v1 , . . . , vn } est linairement indpendant, ceci implique
1 1 = 0,
2 2 = 0,
...,
n n = 0
et donc
1 = 1 ,
2 = 2 ,
. . . , n = n .
Dfinition 6.38 (Coordonnes par rapport une base). Les 1 , . . . , n du thorme prcdent sont
appels les coordonnes de v dans la base S.
Exemple 6.39. Les vecteurs v1 et v2 de la figure ci-dessous forment une base du plan car on a
v = av1 + bv2 pour tout vecteur v du plan o a et b sont des nombres rels uniquement dtermins.
Figure 8.4
1
0
0
, e2 =
0
1
0
, e3 =
0
0
1
Alors S = {e1 , e2 , e3 } est une base de R3 car S est linairement indpendant et engendre R3 .
90
0
..
en = .
0
1
...,
1 + 22 + 33
= 21 + 92 + 33 .
1 + 43
Ceci conduit au systme suivant :
1
21
+
+
22
92
+
+
+
33
33
43
= a1
= a2
= a3 .
Il reste montrer que ce systme a une solution 1 , 2 , 3 . Pour montrer que S est linairement
indpendant, il faut montrer que lunique solution de
1 v1 + 2 v2 + 3 v3 = 0
est
1 = 2 = 3 = 0 .
Ceci conduit montrer que le systme
1
21
+
+
22
92
+
+
+
33
33
43
=
=
=
0
0
0
1 2 3
A= 2 9 3
1 0 4
et son dterminant vaut det(A) = 1. Donc S est une base de R3 .
Remarque 6.43. Lexemple prcdent se gnralise de la faon suivante : pour montrer que n
vecteurs de Rn forment une base de Rn , il suffit de montrer la chose suivante : la matrice A constitue
des composantes de ces vecteurs (chaque vecteur formant une colonne de A) est de dterminant non
nul.
91
Exemple 6.44. Base standard de Pn : la famille S = {1, x, . . . , xn } est une base de Pn , appele base
standard de Pn . En effet, nous avons dj vu que L(S) = Pn et que S est linairement indpendant.
Exemple 6.45. Base standard de M22 . On note M22 lensemble des matrices 2 2. Nous avons vu
que M22 est un espace vectoriel. Soient
1 0
0 1
M1 =
M2 =
0 0
0 0
M3
0
1
0
0
M4
0
0
0
1
.
Lensemble S = {M1 , M2 , M3 , M4 } est une base de lespace vectoriel M22 , appele base standard de
M22 .
a b
Montrons dabord que L(S) = M22 . Soit
un lment quelconque de M22 . On a
c d
a
c
b
d
a 0
0
=
+
0 0
0
1 0
=a
+b
0 0
b
0
0
0
1
0
+
0
c
0
0
+c
0
1
+
0
0
0
0
0
d
+d
0
0
0
1
w2
wm
92
Pour montrer que S 0 est linairement dpendant, on doit trouver des scalaires 1 , 2 , . . . , m non
tous nuls tels que 1 w1 + 2 w2 + + m wm = 0. On peut recrire cette quation comme suit
(1 a11 + 2 a12 + + m a1m )v1 +
+
.................................
M1 =
0
..
.
...
...
...
0
..
Mn = .
0
...
...
...
0
..
.
..
.
0
M2 =
0
..
.
1
..
.
0
Mn+1
Mmn
0
..
.
..
.
0
...
...
0
..
.
0
1
...
0 ... ...
0 ... 0
..
1
.
..
= 0
.
.
..
..
.
0
...
...
0
..
.
..
.
0
93
Exemple 6.52. On a vu la base standard {1, x, . . . , xn } des polynmes de degr au plus n. Voici
une autre base, souvent commode pour les calculs : on fixe des nombres 0 , 1 , . . . , n distincts, et
on considre la base
{(x 0 )(x 1 ) . . . (x n1 ),
(x 0 )(x 1 ) . . . (x n2 )(x n ), . . . ,
(x 0 ) . . . (x i ) . . . (x i+2 ) . . . (x n ), . . . ,
(x 1 )(x 2 ) . . . (x n )}
o chaque fois on prend tous les facteurs (x i ) sauf un.
Cette base est trs utile parce que le i-ime vecteur sannulle en tous les j pour j 6= i.
Exemple 6.53. Nous avons vu que lensemble des solutions dun systme dquations linaires
homogne est un espace vectoriel.
On considre le systme
2x1
x1
x1
x3
+ 2x3
2x3
x3
+ 2x2
x2
+ x2
3x4
+
x4
+
+
x5
x5
x5
x5
=
=
=
=
0
0
0
0.
x2 = s
x1
s t
x2
s
x3 = t =
x4
0
t
x5
x3 = t
la forme
s
0 +
0
0
t
0
t
0
t
x4 = 0 x5 = t .
= s
1
1
0
0
0
+ t
1
0
1
0
1
v1 =
1
1
0
0
0
et v2 =
1
0
1
0
1
engendrent lespace des solutions du systme. Dautre part, on vrifie que v1 et v2 sont linairement
indpendants. Donc {v1 , v2 } est une base de lespace des solutions du systme. Ceci montre que cet
espace vectoriel est de dimension 2.
Thorme 6.54. Soit V un espace vectoriel et S un sous-ensemble fini et non vide de V . Alors
(a) si S est linairement indpendant et si v 6 L(S), alors S {v} est encore linairement indpendant ;
(b) si v S est une combinaison linaire dautres vecteurs de S, alors
L(S\{v}) = L(S)
o S\{v} dsigne lensemble obtenu en retirant v de S.
Thorme 6.55. Soit V un espace vectoriel de dimension n. Soit S un sous-ensemble de V contenant exactement n vecteurs. Alors les affirmations suivantes sont quivalentes :
(1) S est une base de V ;
(2) S engendre V ;
94
6.6
A=
Les vecteurs de R
a11
a21
..
.
a12
a22
..
.
...
...
a1n
a2n
..
.
am1
am2
...
amn
a11
a12
...
a1n
a2n
`1 =
`2 =
a21
a22
...
...........................
`m =
am1
am2
...
amn
a12
a11
a22
a21
c1 = . , c2 = .
..
..
am1
Rm
95
... ,
cn =
am2
a1n
a2n
..
.
amn
96
Thorme 6.63. Les oprations lmentaires sur les lignes ne changent pas lespace des lignes de
la matrice.
Dmonstration. Soit A une matrice, et soient `1 , . . . , `m ses vecteurs ligne. Soit B une matrice
obtenue partir de A par une opration lmentaire sur les lignes. Si lopration consiste permuter
deux lignes de A, alors B a les mmes lignes que A, donc lespace des lignes est le mme. Si lopration
consiste multiplier une ligne de A par un scalaire non nul, ou ajouter un multiple dune ligne
une autre, alors les lignes de B sont des combinaisons linaires de `1 , . . . , `m . Donc lespace des lignes
de B est contenu dans lespace des lignes de A. Comme les oprations lmentaires sont rversibles,
on voit que lespace des lignes de A est contenu dans lespace des lignes de B. Donc ces deux espaces
vectoriels sont gaux.
Thorme 6.64. Soit A une matrice. Alors les lignes non nulles de la matrice chelonne rduite
forment une base de lespace des lignes de A.
Dmonstration. La matrice chelonne rduite a autant de 1 directeurs que de lignes non nulles.
Les 1 directeurs sont dans des colonnes diffrentes. Donc les vecteurs ligne non nuls de la matrice
chelonne rduite sont linairement indpendants. Comme ils engendrent galement lespace des
lignes, ils forment une base de cet espace.
Exemple 6.65.
1
0
A=
0
0
1
0
0
0
0
1
0
0
0
0
1
0
1
1
0
0
0
0
0
0
est une matrice chelonne rduite. Les lignes non nulles de A sont
`1 = (1 1 0 0 1 0),
`2 = (0 0 1 0 1 0) et `3 = (0 0 0 1 0 0).
2
1
1
3
10
11
x=
8 , y = 21 , z = 23 .
19
69
76
Nous voulons extraire une base de cette famille de vecteurs. Nous crivons ces trois vecteurs en ligne
dans une matrice 3 4. On obtient
2
3
8
19
A = 1 10 21 69 .
1
11
23
76
Par le thorme 6.64, les lignes non nulles de la matrice chelonne rduite forment une base de
lespace des lignes de la matrice A. Il suffit donc dechelonner A et de la rduire pour trouver une
base.
2
3
8
19
1 10 21 69
1
11
23
76
`2 2`2 + `1
2
0
1
3
8
19
17 34 119
11
23
76
2
0
0
3
8
19
17 34 119
19
38
133
3
8
19
17 34 119
0
0
0
97
`3 2`3 `1
`3 17`3 + 19`2
2
0
0
1
`2
`2 17
2
0
0
3
1
0
8
2
0
19
7
0
0
1
0
2
2
0
2
7
0
`1 `1 3`2
2
0
0
`1 12 `1
1 0 1 1
0 1 2 7
0 0 0 0
Une base de lespace engendr par les vecteurs
0 ,
x, y et z est
0
1
.
2
En fait, on peut galement prendre comme vecteurs de base les lignes non nulles de la matrice
chelonne (non ncessairement rduite).
Thorme 6.66. Soit A une matrice de taille m n. Alors la dimension de lespace des lignes de
A est gale la dimension de lespace des colonnes de A. Cette dimension est appele le rang de la
matrice A et est note rg(A).
Dmonstration. Soit
a11
..
A= .
am1
...
...
a1n
..
.
.
amn
= 11 b1 + + 1k bk
.....................
`m
= m1 b1 + + mk bk .
98
a2j
11 b1j + + 1k bkj
21 b2j + + 2k bkj
.....................
amj
m1 b1j + + mk bkj
avec
bj = (bj1 . . . bjn ) .
On a donc
cj = b1j
11
21
..
.
+ + bkj
1k
2l
..
.
mk
m1
Ainsi lespace des colonnes de A est engendr par k vecteurs. La dimension de cet espace est donc
au plus gale k. Ce raisonnement est valable pour nimporte quelle matrice et en particulier pour
la transpose de A. Or, les colonnes de AT sont les lignes de A, et les lignes de AT sont les colonnes
de A. Grce au raisonnement prcdent applique AT , on voit que la dimension de lespace des
lignes de A est au plus gale la dimension de lespace des colonnes de A. Ces deux dimensions sont
donc gales.
Dfinition 6.67. Soit A une matrice. La nullit de A est par dfinition la dimension du noyau de
A, et est not null(A).
Thorme 6.68 (Thorme du rang). Soit A une matrice n colonnes. Alors
rg(A) + null(A) = n.
Dmonstration. Le systme linaire homogne
Ax = 0
a n variables. Donc la somme du nombre des variables directrices et du nombre des variables libres est
n. Or, le nombre de variables directrices est gal au nombre de 1 directeurs dans la forme chelonne
rduite de A. Ce nombre est gal au rang de (A). Dautre part, le nombre de variables libres est
gal au nombre de paramtres de la solution gnrale du systme, ce qui est gal la dimension de
lespace des solutions du systme, qui est par dfinition gal la nullit de A. On a donc bien
rg(A) + null(A) = n.
Thorme 6.69. Soit A une matrice de taille nn. Alors les affirmations suivantes sont quivalentes :
(1) A est inversible
(2) rg(A) = n
(3) null(A) = 0.
Dmonstration. Nous avons vu que A est inversible si et seulement si sa forme chelonne rduite
est la matrice identit In . Ceci se passe si et seulement si toutes les variables sont directrices. Mais le
nombre de variables directrices est gal au rang de A. On a donc (1) (2). Lquivalence (2) (3)
rsulte du thorme prcdent.
6.7
99
Changements de bases
1
2
(v)B = . .
..
n
6.7.1
Soient
B = {u1 , u2 }
B 0 = {u01 , u02 }
et
c
d
= au1 + bu2
u02
= cu1 + du2 .
1
2
,
cest--dire que
v = 1 u01 + 2 u02 .
Nous aimerions trouver les coordonnes de v par rapport la base B. On a
v
(1 a + 2 c)u1 + (1 b + 2 d)u2
On a donc
(v)B =
1 a + 2 c
1 b + 2 d
.
a
b
c
d
a
b
c
d
a
b
c
d
=
=
La matrice
PB,B 0 =
1
2
(v)B 0 .
100
6.7.2
Dimension quelconque
B 0 = {u01 , . . . , u0n }
et
= ( 10 ) ,
= ( 11 ) ,
u2
u02
( 01 ) ;
( 21 ) .
=
=
On a
Donc
(u01 )B =
u01
u1 + u2
u02
2u1 + u2 .
1
1
, (u02 )B =
2
1
.
PB,B 0 PB 0 ,B =
c11
c21
..
.
c12
c22
..
.
...
...
cn1
cn2
...
c1n
c2n
cnn
Nous avons
(x)B = PB,B 0 (x)B 0
et
(x)B 0 = PB 0 ,B (x)B
pour tout x V . On a donc
(x)B = PB,B 0 PB 0 ,B (x)B .
Pour x = u1 , on obtient
1
0
..
.
0
c11
c21
..
.
c12
c22
..
.
...
...
c1n
c2n
..
.
cn1
cn2
...
cnn
1
0
..
.
0
101
1
0
..
.
c11
c21
..
.
cn1
0
Le mme raisonnement avec x = u2 , . . . , un
0
c12
c22 1
.. = ..
. .
nous donne
c1n
c2n
, . . . , ..
.
cnn
cn2
0
0
..
.
(PB,C ) PC,B 0
|
{z
}
!
.
PB,B 0
La matrice C dsigne souvent la matrice canonique. Dans ce cas, si on connat les coordonnes de
B et B 0 dans la base canonique, on calcule directement la matrice de passage de B 0 B.
Exemple 6.73. Soit V = R3 et C sa base canonique. Dfinissons
0
3
1
B = 1 , 1 , 2
0
0
1
et
1
0
0
B 0 = 1 , 1 , 0 .
0
0
1
102
On a alors
PC,B
1
= 1
0
0
1
0
3
2
1
et PC,B 0
1
= 1
0
0 0
1 0 .
0 1
1
1
On applique maintenant la mthode de Gauss pour calculer PC,B
et donc PB,B 0 = PC,B
PC,B 0 :
1
1
0
0
1
0
3
2
1
: 1 0 0
: 1 1 0
: 0 0 1
0
1
0
3
1
1
: 1 0 0
: 2 1 0
: 0 0 1
`2 `2 `1
1
0
0
`1 `1 + 3`3
`2 `2 + `3
`3 `3
1 0 0 : 1
0 1 0 : 2
0 0 1 : 0
Do :
PB,B 0
1
= 2
0
0
1
0
0
1
0
3
1
1
3
1 .
1
Chapitre 7
Dfinition 7.1. Soit V un espace vectoriel. Alors un produit scalaire gnralis sur V est par
dfinition une application
<, >: V V R
(u, v) 7< u, v >
ayant les proprits
(1)
(2)
(3)
(4)
(5)
symtrie
additivit
homognt
positivit
pour tout u, v, w V et R.
Exemple 7.2. Produit scalaire euclidien sur Rn . Dans cet exemple, on a
V = Rn
et
< u, v >= u v
le produit scalaire euclidien (produit scalaire habituel) de Rn . Nous avons dj vu que les proprits
(1) - (5) sont vrifies dans cet exemple.
Exemple 7.3. Soient u = ( uu12 ) et v = ( vv12 ) deux vecteurs de R2 . Posons
< u, v > = 3u1 v1 + 2u2 v2 .
Alors <, > est un produit scalaire gnralis sur R2 . Vrifions les proprits (1) - (5) :
(1) On a
< u, v > =
3u1 v1 + 2u2 v2
3v1 u1 + 2v2 u2
= < v, u > .
1
(2) Soit w = ( w
w2 ). Alors
< u + v, w >
104
(3)
< u, v >
(3u1 v1 + 2u2 v2 )
< u, v > .
(4)
< v, v > =
3v1 v1 + 2v2 v2
3v12 + 2v22 0.
3v12 + 2v22 = 0
v1 = 0 v2 = 0
v = 0.
(5)
< v, v >
Dfinition 7.4. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
dfinit la norme (ou longueur) dun vecteur v V par la formule
k v k= < v, v >
La distance entre u, v V est mme par dfinition
d(u, v) =k u v k .
Exemple 7.5. Norme et distance dans Rn . Lorsque V = Rn et <, > est le produit scalaire habituel
< u, v >= u v, on retrouve les notions habituelles de norme et de distance dans Rn .
Exemple 7.6. Soit V = R2 . On obtient des notions de norme et de distance diffrentes selon le
produit scalaire gnralis choisi. Soient u = ( 10 ) et v = ( 01 ). Si lon choisit le produit scalaire
habituel sur R2 , on a
q
k u k= u21 + u22 = 1 + 0 = 1
et
1
d(u, v) =k u v k=k 1
k
p
= 12 + (1)2 = 2.
Si lon choisit le produit scalaire gnralis < u, v >= 3u1 v1 + 2u2 v2 on obtient
k u k = < u, u >
q
= 3u21 + 2u22
= 3 + 0 = 3.
et
d(u, v) =k u v k=
<
1
1
1
1
>=
3+2=
5.
Dfinition 7.7 (Cercle unit (ou sphre unit)). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Alors le cercle unit, ou sphre unit de V est par dfinition lensemble des
u V tels que
k u k= 1 .
Ce sont les lments de V dont la distance lorigine est gale 1.
105
Exemple 7.8. Soit V = R2 et <, > le produit scalaire habituel. Soit u = ( xy ). Alors
p
k u k= x2 + y 2
p
et lquation du cercle unit est alors x2 + y 2 = 1 ou
x2 + y 2 = 1.
Exemple 7.9. Soit V = R2 muni du produit scalaire gnralis
< u, v >= 3u1 v1 + 2u2 v2 .
Soit w = (x, y). Alors
k w k=
ce qui donne
3x2 + 2y 2
3x2 + 2y 2 = 1 ou
3x2 + 2y 2 = 1
A=
3
0
0
2
.
0
2
u1
u2
106
7.2
Angles et orthogonalit
Thorme 7.13 (Ingalit de Cauchy-Schwarz). Soit V un espace vectoriel muni dun produit
scalaire gnralis <, >. Soient u, v V . Alors on a
| < u, v > | k u k k v k .
Dmonstration. Si u = 0 , alors on a
< u, v >=k u k= 0 ,
donc laffirmation est vraie. Supposons que u 6= 0, et posons
a =
< u, u >
b =
2 < u, v >
c =
< v, v > .
On a, pour tout t R,
0 < tu + v, tu + v > = < u, u > t2 + 2 < u, v > t+ < v, v > = at2 + bt + c.
Donc
at2 + bt + c 0
pour tout t R . Ceci implique que le polynme quadratique
aX 2 + bX + c
a soit une racine double, soit aucune racine relle.
Son discriminant est donc ngatif ou nul : b2 4ac 0. Remplaant a par < u, u >, b par
2 < u, v > et c par < v, v >, on obtient
4 < u, v >2 4 < u, u >< v, v > 0
ce qui implique
< u, v >2 < u, u > < v, v >
donc
| < u, v > |
Thorme 7.14. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Alors on
a, pour tout u, v V et pour tout R
(a) k u k 0
(b) k u k = 0
u=0
(c) k u k = || k u k
(d) k u + v k k u k + k v k
ingalit du triangle
Dmonstration. La dmonstration est la mme que dans le cas du produit scalaire habituel.
Corollaire 7.15. Soit V un espace vectoriel muni dun produit scalaire gnralis. Alors, pour tout
u, v, w V et tout R, on a
(a) d(u, v) 0
(b) d(u, v) = 0
u=v
ingalit du triangle
Dmonstration. Ceci est une consquence immdiate des dfinitions et du thorme prcdent.
7.2.1
107
Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient u, v V . Alors par
lingalit de Cauchy-Schwarz, on a si u 6= 0 et v 6= 0
2
< u, v >
1
kukkvk
donc
< u, v >
1.
kukkvk
Il existe donc un unique angle , avec 0 , tel que
1
cos =
< u, v >
.
kukkvk
On appelle langle form par les vecteurs u et v. Remarquons que dans le cas du produit scalaire
habituel de Rn , on retrouve la notion habituelle dangle entre deux vecteurs.
Dfinition 7.16. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soient
u, v V . On dit que u et v sont orthogonaux si et seulement si
polynme < u, v >= 0 .
Exemple 7.17. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2. On dfinit
un produit scalaire gnralis sur P2 en posant
Z 1
< p, q >=
p(x)q(x)dx
1
pour tout p, q P2 . Les axiomes de produit scalaire gnralis sont faciles vrifier. On a par
exemple la positivit : pour tout p P2 , on a
Z 1
< p, p >=
p2 (x)dx 0 .
1
Soient
p(x) = x
et
q(x) = x2
alors p et q sont orthogonaux. En effet
Z
< p, q >
x x2 dx =
x3 dx
0.
Thorme 7.18 (Thorme de Pythagore gnralis). Soit V un espace vectoriel muni dun produit
scalaire gnralis. Soient u, v V , et supposons que u et v soient orthogonaux. Alors
k u + v k2 =k u k2 + k v k2 .
Dmonstration. Comme u et v sont orthogonaux, on a
< u, v >= 0 .
Donc
k u + v k2
= < u + v, u + v >
= k u k2 + k v k2 +2 < u, v >
= k u k2 + k v k2 .
108
Exemple 7.19. Soit P2 lespace vectoriel des fonctions polynomiales de degr au plus 2, muni du
produit scalaire gnralis dfini dans lexemple 7.17.
Soient p(x) = x et q(x) = x2 . Nous avons vu que p et q sont orthogonaux. Calculons k p k2 , k
2
q k , et k p + q k2 :
Z 1
Z 1
2
2
2
2
2
k p k =< p, p >=
x dx =
k q k =< q, q >=
x4 dx =
3
5
1
1
Z 1
Z 1
16
k p + q k2 =< p + q, p + q >=
(x + x2 )(x + x2 )dx =
(x4 + 2x3 + x2 )dx =
15
1
1
On a bien
k p k2 + k q k2 =k p + q k2
Dfinition 7.20. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . On dit que u V est orthogonal W si u est orthogonal tout lment
de W . Lensemble des u V qui sont orthogonaux W est appel le complment orthogonal de W .
Il est not W .
Thorme 7.21. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace vectoriel de V . Alors on a
(a) W est un sous-espace vectoriel de V .
(b) W W = {0} .
Figure 9.1 : V = R2
< u, v >= u v
Dmonstration. (a) On a < 0, w >= 0 pour tout w W , donc 0 W . Montrons que W est
ferm par addition et par multiplication par les scalaires. Soient
u, v W .
Alors
< u, w >=< v, w >= 0
pour tout w W . On a donc
< u + v, w >=< u, w > + < v, w >= 0 + 0 = 0
109
`1
`2
`m
..
.
x
=
x
0
0
..
.
(1 `1 + 2 `2 + + m `m ) v
110
7.3
Dfinition 7.23. Soit V un espace vectoriel muni dun produit scalaire gnralis . Soit
S = {v1 , . . . , vn }
un sous-ensemble de V . On dit que S est un ensemble orthogonal si vi est orthogonal vj pour tout
i 6= j. On dit que S est un ensemble orthonorm si S est orthogonal et si
k vi k= 1
pour tout i = 1, . . . , n . Un ensemble orthogonal qui est une base est appel une base orthogonale ;
un ensemble orthonorm qui est une base est appel une base orthonorme.
Thorme 7.24. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >, et soit
S = {v1 , . . . , vn } une base orthonorme de V . Soit u V . Alors
u = < u, v1 > v1 + + < u, vn > vn .
Dmonstration. Comme S est une base, il existe 1 , . . . , n R tels que
u = 1 v1 + + n vn .
On a
< u, vi >=< 1 v1 + + n vn , vi >= 1 < v1 , vi > + + n < vn , vi > .
Or, comme < vj , vi >= 0 si i 6= j et < vi , vi >=k vi k2 = 1, on a
< u, vi >= i
et par consquent
u =< u, v1 > v1 + < u, v2 > v2 + + < u, vn > vn .
< u, v1 >
< u, v2 >
< u, vn >
v1 +
v2 + +
vn .
k v1 k2
k v2 k 2
k vn k 2
Dmonstration. La base
S0 =
v1
,
k v1 k
v2
vn
,...,
k v2 k
k vn k
< u, v1 >
< u, vn >
v1 + +
vn .
k v1 k2
k vn k 2
Thorme 7.26. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit S =
{v1 , . . . , vn } un sous-ensemble orthogonal de V , avec vi 6= 0 pour tout i = 1, . . . , n. Alors S est une
famille linairement indpendante.
111
,
,
,
u,
,
w2
,
,
,
,
,
w1
,
Figure 9.2 : u = w1 + w2
112
pour tout i = 1, . . . , n ce qui montre que w2 est orthogonal S = {v1 , v2 , . . . , vn }. Comme S engendre
W , on a que w2 est orthogonal W . Donc
w2 W .
Corollaire 7.28. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit W un
sous-espace vectoriel de dimension finie de V . Alors tout u V scrit de manire unique comme
u = w1 + w2
avec w1 W et w2 W . De plus, w1 = projW (u).
Exemple 7.29. Soit V = R3 , <, > le produit scalaire habituel, et soit W le sous-espace engendr
par
0
4/5
v1 = 1
et
v2 = 0 .
0
3/5
On vrifie que k v1 k=k
2 k= 1, et que < v1 , v2 >= v1 v2 = 0. Donc S = {v1 , v2 } est un ensemble
1v
orthonorm. Soit u = 1 . Alors
1
4/25
1
projW (u) = v1 v2 = 1 .
5
3/25
La dcomposition orthogonale de u par rapport W est donc
4/25
21/25
1
1 = 1 + 0 .
3/25
28/25
1
On vrifie que
21/25
0
28/25
Thorme 7.30. Soit V un espace vectoriel de dimension finie muni dun produit scalaire gnralis
<, >. Alors V a une base orthonorme.
Dmonstration. On va dmontrer le thorme en construisant une base orthonorme. La mthode de
construction utilise ici sappelle mthode de Gram-Schmidt ou procd de Gram-Schmidt.
Soit S = {u1 , . . . , un } une base quelconque de V . On construit une base orthonorme en n tapes.
1re tape : On pose
v1 =
u1
k u1 k
113
= u2 projW1 (u2 ) =
< u2 , w1 >
= u2
w1
k w1 k2
1
2/3
0
2
w2 = 1 1 = 1/3 .
3
1
1
1/3
3me tape : soit
W2 = L(w1 , w2 ) = L(u1 , u2 ).
Posons
0
< u3 , w1 >
< u3 , w2 >
w3 = u3 projW2 (u3 ) = u3
w1
w2 = 1/2 .
k w1 k2
k w2 k2
1/2
114
On a donc
1
w1 = 1 ,
1
2/3
w2 = 1/3 ,
1/3
0
w3 = 1/2 .
1/2
Alors {w1 , w2 , w3 } est une base orthogonale de R3 . On obtient une base orthonorme en posant
v1 =
Ceci nous donne
w1
,
k w1 k
1/3
v1 = 1/3 ,
1/ 3
7.4
7.4.1
v2 =
w2
k w2 k
v3 =
et
2/ 6
v2 = 1/6 ,
1/ 6
w3
.
k w3 k
0
v3 = 1/ 2 .
1/ 2
Matrices orthogonales
Dfinition et Proprits
Dfinition 7.32. Soit A une matrice carre. On dit que A est une matrice orthogonale si
A1 = AT
Remarque : A est une matrice orthogonale si et seulement si
AT A = AAT = I .
Exemple 7.33. Les matrices de rotation sont orthogonales. Soit un angle. Alors la matrice de la
rotation dangle de R2 est
cos sin
A=
.
sin
cos
Cette matrice est orthogonale. En effet, lidentit
sin2 + cos2 = 1
montre que lon a
AT A = I.
Thorme 7.34. Soit A une matrice n n. Les trois proprits suivantes sont quivalentes :
(a) A est orthogonale.
(b) Pour tout x Rn , on a k Ax k=k x k.
(c) Pour tout x, y Rn , on a Ax Ay = x y.
En dautres termes, une matrice orthogonale conserve les normes et les angles.
Dmonstration. (a) = (b) Supposons A orthogonale. On a
k Ax k2 = Ax Ax = x (AT A)x = x x =k x k2 .
(b) = (c) Supposons que
k Ax k=k x k
pout tout x Rn . On a
Ax Ay
1
1
k Ax + Ay k2 k Ax Ay k2 =
4
4
1
1
2
=
k A(x + y) k k A(x y) k2 =
4
4
1
1
2
=
k x + y k k x y k2
4
4
= xy.
115
(c) = (a) On considre (c) avec x = ei et y = ej des vecteurs de la base standard. Alors x y
est soit 0 (si i 6= j) soit 1 (si i = j), et est le coefficient Iij de la matrice identit. Dautre part,
Ax Ay = eTj AT Aei
est le coefficient (i, j) de la matrice AT A. Il suit que AT A = I, et donc que A est orthogonale.
Remarque 7.35. Linverse dune matrice orthogonale est orthogonale. En effet on a
A orthogonale A1 = AT
(A1 )1 = (AT )1
(A1 )1 = (A1 )T
A1 est orthogonale.
7.4.2
Thorme 7.36. Soit V un espace vectoriel de dimension finie muni dun produit scalaire gnralis.
Soit P la matrice de changement de base dune base orthonorme vers une autre base orthonorme.
Alors P est une matrice orthogonale.
Dmonstration. Soient B = {e1 , . . . , en } et B 0 = {e01 , . . . , e0n } deux bases orthonormes de V et soit
PB,B 0 la matrice de changement de base de B 0 B. On a
u=
n
X
ui ei =
i=1
n
X
u0i e0i .
i=1
n
X
u2i =
i=1
n
X
ui2 .
i=1
De plus, on a
0
u1
u1
..
..
(u)B = . = PB,B 0 . = PB,B 0 (u)B 0 ,
un
u0n
n
X
et
i=1
n
X
i=1
7.4.3
Soit A une matrice n n ayant ses colonnes linairement indpendantes. Alors il existe une
matrice orthogonale Q (par rapport au produit scalaire standard sur Rn ) et une matrice triangulaire
suprieure R, telles que :
A = QR.
Plus prcisment, Q est la matrice dont les colonnes sont les vecteurs obtenus en appliquant le
procd de Gram-Schmidt aux vecteurs colonne de A.
On procde comme suit :
Soit
.. .
A = ...
.
an1
an2
...
ann
116
On appelle ci la i-me colonne de A. Soit {c01 , . . . , c0n } la base obtenue en appliquant Gram-Schmidt
{c1 , . . . , cn } et Q la matrice dont les colonnes sont c01 , . . . , c0n .
q11 . . . q1n
..
Q = ...
.
qn1
...
qnn
cn
cest--dire
c1
q11
q1n
..
.
cn
q11
q1n
q11
A = ...
qn1
...
...
q1n
< c1 , c01 >
..
..
.
.
qnn
< c1 , c0n >
|
...
...
=R
..
.
< cn , c0n >
}
La matrice R est triangulaire. En effet, par Gram-Schmidt, pour tout k > 1, c0k est orthogonal
lespace engendr par c1 , . . . , ck1 . Ainsi, Rij =< cj , c0i >= 0 pour tout i > j, et R est bien
triangulaire suprieure.
La dcomposition dune matrice en un produit dune matrice orthogonale et dune matrice triangulaire sappelle la dcomposition QR.
Exemple 7.37. Calculons la dcomposition QR de la matrice
2 3
A=
.
1 0
En appliquant le procd de Gram-Schmidt aux vecteurs colonne de A, on obtient
!
!
c01 =
2 5
5
5
5
et c02 =
5
5
2 5
5
De plus,
< c1 , c01 > =
6 5
< c2 , c01 > =
5
< c1 , c02 > = 0
3 5
0
< c2 , c2 > =
5
Ainsi,
Q=
2 5
5
5
5
5
5
2 5
5
!
et R =
5
0
6 5
5
3 5
5
!
.
7.5
117
Thorme 7.38. Soit V un espace vectoriel muni dun produit scalaire gnralis, et soit W un
sous-espace de V . Soit u V . Alors
k u projW (u) k < k u w k
pour tout w W , w 6= projW (u). On dit que projW (u) est la meilleure approximation de u par des
vecteurs de W .
Dmonstration. Pour tout w W , on a
u w = (u projW (u)) + (projW (u) w) .
On a
projW (u) w W
et
u projW (u) W
donc ces deux termes sont orthogonaux lun lautre. Par le thorme de Pythagore gnralis, on
a
k u w k2 = k u projW (u) k2 + k projW (u) w k2 .
Si w 6= projW (u), alors
k projW (u) w k2 > 0
, do
k u w k2 > k u projw (u) k2
et donc
k u w k > k u projw (u) k .
7.5.1
Soit Ax = b un systme dquations linaires qui est incompatible, cest--dire qui na pas de
solution. Nous allons voir une mthode pour donner une solution approximative de ce systme. Cette
mthode sappelle la mthode des moindres carrs (least squares). Le principe de la mthode est le
suivant : tant donn un systme Ax = b de m quations et n inconnues, on se propose de trouver
un vecteur x tel que la norme
k Ax b k
soit minimale. Un tel vecteur x est appel une solution au sens des moindres carrs. Cette terminologie vient du fait que lon minimise la norme euclidienne de lerreur commise. En effet, posons
e = Ax b. Si le systme admettait une solution, on aurait e = 0. Ce terme mesure donc lerreur
commise par lapproximation faite. Si e = (e1 , . . . , em ), alors
k e k2 = e21 + e22 + + e2m .
On dsire que ces carrs soient aussi petits que possible.
Soit Ax = b un systme de m quations linaires n inconnues. Alors A est de taille m n. Soit
W lespace des colonnes de A. Cest un sous-espace vectoriel de Rm . Nous avons vu que le systme
a une solution si et seulement si b W . Lorsque b 6 W , le mieux que lon puisse faire est de trouver
une approximation de b par un vecteur de W . Or, nous avons vu que la meilleure approximation de
b par un vecteur de W est
projW (b) .
On doit donc rsoudre le systme
Ax = projW (b).
118
On pourrait donc calculer projW (b), et rsoudre le systme Ax = projW (b), mais il y a une meilleure
mthode. En effet, si x est tel que Ax = projW (b), alors le vecteur
b Ax = b projW (b)
est orthogonal W . Mais W est lespace des colonnes de A et W est donc le nilespace de AT . On
doit donc avoir
AT (b Ax) = 0
autrement dit
AT Ax = AT b.
Dfinition 7.39. Le systme
AT Ax = AT b
est appel le systme normal associ au systme Ax = b. Les solutions du systme normal sont les
solutions au sens des moindres carrs (solutions approximatives) du systme de dpart Ax = b.
Thorme 7.40. Pour tout systme dquations linaires
Ax = b
le systme normal associ
AT Ax = AT b
a au moins une solution. Toutes les solutions du systme normal sont des solutions au sens des
moindres carrs du systme Ax = b. De plus, si W est lespace des colonnes de A et si x est une
solution de moindres carrs de Ax = b, alors
projW b = Ax .
Thorme 7.41. Soit A une matrice de taille m n. Supposons que les vecteurs colonne de A
soient linairement indpendantes. Alors la matrice AT A est inversible.
Dmonstration. Pour montrer que AT A est inversible, il suffit de montrer que le systme
AT Ax = 0
a une unique solution (la solution triviale). Soit x une solution de ce systme. Alors Ax est dans le
nilespace de AT . Mais Ax est aussi dans lespace des colonnes de A. Or nous avons vu que ces deux
espaces sont orthogonaux lun lautre. Leur intersection est donc nulle. Ceci implique que
Ax = 0.
Comme nous avons suppos que les vecteurs colonne de A sont linairement indpendants, ceci
implique que x = 0.
Thorme 7.42. Soit A une matrice dont les vecteurs colonne sont linairement indpendants.
Alors tout systme linaire
Ax = b
a une unique solution au sens des moindres carrs qui est donne par
x = (AT A)1 AT b .
Dmonstration. Ceci dcoule directements des deux thormes prcdents.
Exemple 7.43. Trouver les solutions de moindres carrs du systme Ax = b suivant :
x1 + x2
2x1 x2
x1 3x2
1
1
3
1
A= 2
1
119
6
b= 1
1
Les vecteurs colonne de A tant linairement indpendants, le systme a une unique solution au sens
des moindres carrs. On a
6 5
AT A =
5 11
et
T
A b=
7
8
.
5x1 + 11x2
8.
117
39
x2 =
83
.
39
120
Chapitre 8
Dfinition 8.1. Soit A une matrice n n. On dit que x Rn , x 6= 0, est un vecteur propre de A
sil existe R tel que
Ax = x .
Le scalaire est appel valeur propre de A. On dit que x est un vecteur propre associ (ou correspondant) la valeur propre . Si x est un vecteur propre de A, alors Ax est colinaire x :
x
Ax
x
Ax
=2
= 1
1
2
3
8
0
1
est un vecteur propre de A correspondant la valeur propre = 3, car
Ax =
3
8
0
1
1
2
=
3
6
= 3x.
122
Exemple 8.3. Cherchons les valeurs propres et les vecteurs propres de la matrice
1 3
A=
.
4 2
Son quation caractristique est
det(I A) = det
1
4
3
2
= 2 3 10 = 0.
= 5.
et
1
4
3
2
3
4
x1
x2
=
0
0
.
Pour = 2, on obtient
3
4
x1
x2
=
0
0
.
x2 = t.
3
3
4
4
x1
x2
3
4t
=
0
0
x1
x2
=
.
123
a11 . . . . . .
..
0 a22
.
..
..
.
..
A= .
.
.
.
.
.
.
.
0
0 ...
0 ann
Le polynme caractristique de A est
a11
0
a22
..
det(I A) = det
.
..
.
0
...
..
..
.
..
.
...
.
..
.
0
...
ann
= a22 ,
...
, = ann .
8.1.1
Soit A une matrice carre et une valeur propre de A. Les vecteurs propres de A correspondant
la valeur propre sont les vecteurs x 6= 0 qui satisfont lquation Ax = x. De faon quivalente,
ces vecteurs sont les vecteurs non nuls de lespace des solutions de
(I A)x = 0 .
Lensemble de ces vecteurs propres est appel lespace propre de A correspondant la valeur propre
et est not E .
Nous venons donc de voir que lespace propre E est le nilespace de la matrice I A.
Exemple 8.5. Trouver des bases pour les espaces propres de la matrice
0 0 2
1 .
A= 1 2
1 0
3
Lquation caractristique de A est
3 52 + 8 4 = ( 1)( 2)2 = 0 .
Les valeurs propres de A sont donc
=1
et
= 2.
2 0
2
1 0 1 .
1 0 1
On obtient
x1 = s,
x2 = t,
x3 = s.
124
Les vecteurs propres de A correspondant la valeur propre = 2 sont donc les vecteurs non nuls
de la forme
s
s
0
1
0
x = t = 0 + t = s 0 + t 1 .
s
s
0
1
0
Comme
1
0
1
et
0
1
0
sont linairement indpendants, ces vecteurs forment une base de lespace propre E2 .
Pour = 1, on calcule le noyau de I A :
1
0
2
1 1 1 .
1
0 2
Les solutions sont
x1 = 2s,
x2 = s,
x3 = s
ce qui nous permet de conclure que les vecteurs propres de A correspondant la valeur propre = 1
sont les vecteurs non nuls de la forme
2
s 1 .
1
Lensemble
2
1
et
cn1 = tr(A).
8.2. DIAGONALISATION
125
a11
a12
...
a21
a
...
22
det(I n) = det
..
.
an1
...
an(n1)
a1n
a2n
..
.
ann
Si on dveloppe ce dterminant par rapport la premire ligne par exemple, on remarque que le
seul terme qui contient des puissances de suprieures n 2 est
( a11 )( a22 ) ( ann ).
On a donc
( a11 )( a22 ) ( ann ) = n + (a11 a22 ann )n1 + . . .
Le coefficient de n1 dans le polynme caractristique est donc bien trace(A).
Corollaire 8.9. Une matrice carre A est inversible si et seulement si = 0 nest pas valeur propre
de A.
Dmonstration. la matrice A est inversible si et seulement si det(A) 6= 0. Or, par le thorme
prcdent, ceci est quivalent dire que = 0 nest pas un zro du polynme caractristique,
cest--dire pas une valeur propre de A.
Notons que si = 0 est une valeur propre de A, alors lespace propre associ E0 nest rien dautre
que le nilespace de A. En rsum,
E0 = KerA
si 0 est valeur propre.
8.2
Diagonalisation
Dfinition 8.10. Soit A une matrice carre. On dit que A est diagonalisable sil existe une matrice
inversible P telle que P 1 AP soit une matrice diagonale.
Thorme 8.11. Soit A une matrice n n. Alors les proprits suivantes sont quivalentes :
(a) A est diagonalisable ;
(b) A a n vecteurs propres linairement indpendants.
Dmonstration. (a) = (b) Comme A est diagonalisable,
p11 p12 . . .
p21 p22 . . .
P = .
..
..
.
pn1
pn2
1 0
0
2
D=
.
..
0
...
...
p1n
p2n
,
..
.
pnn
= D, avec
... 0
..
.
.
..
. 0
0 n
126
Comme P 1 AP = D, on a AP = P D. Donc
p11
..
.
...
pn1
...
AP = P D =
p1n
..
pnn
0
..
.
0
..
.
...
..
1 p11
1 p21
..
.
2 p12
2 p22
..
.
...
...
1 pn1
2 pn2
...
n p1n
n p2n
n pnn
2 p2 ,
...,
n pn .
Ap2 ,
...,
Apn .
P = .
..
.. .
..
.
.
pn1
pn2
...
pnn
Les colonnes de la matrice P sont les vecteurs p1 , p2 , . . . , pn . Les colonnes du produit AP sont les
vecteurs Ap1 , Ap2 , . . . , Apn . Mais comme
Ap1 = 1 p1 , Ap2 = 2 p2 , . . . , Apn = n pn ,
on a
AP =
1 p11
1 p21
..
.
2 p12
2 p22
..
.
...
...
n p1n
n p2n
..
.
1 pn1
2 pn2
...
n pnn
p11
p21
..
.
p12
p22
..
.
...
...
p1n
p2n
..
.
pn1
pn2
...
pnn
1
0
..
.
0
2
..
.
...
...
..
.
0
0
..
.
...
= P D,
avec
D=
1
0
..
.
0
2
..
.
...
...
..
.
0
0
..
.
...
On a donc :
AP = P D .
Comme les vecteurs colonne de P sont linairement indpendants, la matrice P est inversible et lon
obtient finalement
P 1 AP = D ,
ce qui montre que A est diagonalisable.
8.2. DIAGONALISATION
8.2.1
127
0
A= 1
1
0
2
0
2
1 .
3
1
p1 = 0 ,
1
0
p2 = 1
0
2
p3 = 1
1
Ces 3 vecteurs propres tant linairement indpendants, la matrice A est diagonalisable. On pose
alors
1 0 2
1
P = 0 1
1 0
1
et on a
2
P 1 AP = 0
0
0
2
0
0
0
1
Thorme 8.13. Si v1 , v2 , . . . , vn sont des vecteurs propres dune matrice A correspondant des
valeurs propres distinctes 1 , 2 , . . . , n , alors {v1 , v2 , . . . , vn } est un ensemble linairement indpendant.
Dmonstration. Nous allons dmontrer ce thorme par labsurde.
Supposons donc que les vecteurs propres v1 , v2 , . . . , vn sont linairement dpendants. Soit r le
plus grand entier tel que {v1 , v2 , . . . , vr } soit linairement indpendant. On a 1 r < n. Il existe
donc des scalaires c1 , c2 , . . . , cr+1 non tous nuls tels que
c1 v1 + c2 v2 + + cr+1 vr+1 = 0 .
()
128
8.3
Comme nous allons le voir, les matrices symtriques sont des matrices ayant la proprit dtre
toujours diagonalisables. De plus, il existe une base de vecteurs propres orthonorme.
Thorme 8.17. Soit A une matrice n n, symtrique. Alors A possde n vecteurs propres linairement indpendants. De plus, on peut choisir ces vecteurs propres de faon quils forment une base
orthonormale. Une matrice carre symtrique est donc diagonalisable.
On va faire appel au lemme suivant, dont la dmonstration ncessite lusage de nombres complexes.
Lemme 8.18. Soit A une matrice n n, symtrique. Alors A possde une valeur propre relle.
Preuve du thorme 8.17. Il sagit de montrer : pour une matrice A symtrique (AT = A), il existe
une matrice P orthogonale (P T P = I) telle que P 1 AP est diagonale. En effet, la matrice P en
question a pour colonnes les vecteurs propres de A, et ces derniers forment une base orthonormale
si et seulement si P est orthogonale.
On procde par rcurrence, le cas n = 1 tant trivial. Par le lemme, soit 1 une valeur propre de
A, et soit x un vecteur propre associ. On peut supposer x de norme 1, soit xT x = 1.
Par le procd de Gram-Schmidt, on peut complter x en une base orthonormale (x, y2 , . . . , yn )
de Rn . On note Y la matrice n (n 1) dont les colonnes sont y1 , . . . , yn . On a donc Y T Y = 1 et
xT Y = 0 et Y T x = 0, par orthogonalit de la base.
129
AP = P AP =
=
1 QT Y T x
!
!
xT 1 x
xT AY Q
(Ax)T Y Q
=
QT Y T AY Q
QT Y T 1 x
QT BQ
T
1
0
1 x Y Q
2
0
2
.
.
..
..
0
n
0
n
xT Ax
QT Y T Ax
est diagonale.
Thorme 8.19. Deux vecteurs propres associs deux valeurs propres distinctes sont orthogonaux
(pour le produit scalaire usuel).
Dmonstration. Soient A une matrice carre et , deux valeurs propres de A distinctes. Soient
encore v un vecteur propre associ la valeur propre et w un vecteur propre associ la valeur
propre . On a
(Av) w = (v) w = (v w) = wT v.
Dautre part,
v (Aw) = (Aw)T v = wT AT v = wT Av = wT v = wT v.
La troisime galit dcoule du fait que A est symtrique. On a donc (Av) w = v (Aw), cest--dire
v w = v w. Ainsi
( ) v w = 0.
Comme 6= , on a ncessairement v w = 0. Les vecteurs v et w sont donc bien orthogonaux.
Dfinition 8.20. Soit A une matrice carre. On dit que A est orthogonalement diagonalisable si
elle est diagonalisable et sil existe une base de vecteurs propres qui est orthonorme.
Par le thorme prcdent, toute matrice symtrique est orthogonalement diagonalisable.
Nous donnons maintenant un exemple dune diagonalisation orthogonale.
1 1 1
Exemple 8.21. Soit A = 1 1 1 . Le polynme caractristique est
1 1 1
det( I A)
cest--dire
1
det 1
1
1
1
1
1
1 .
1
On trouve ainsi
3 32 .
Les valeurs propres de A sont donc 0 et 3.
le systme
1 1
1 1
1 1
1
x
0
1 y = 0
1
z
0
130
(
)
1
1
E0 = s 1 + t 0 s, t R
0
1
Comme A est diagonalisable
1
1
1
1
On remarque quon a bien 1 1 et 1 0 . Appliquons le procd de
1
0
1
1
1
1
Gram-Schmidt pour extraire une base orthogonale de E0 . Posons f1 = 1 et f2 = 0 .
0
1
f20
=
=
Les vecteurs, g1 =
f1
||f1 ||
12
1
2
f1 f2
f1
f2
f1 f1
1
1
1
0 1
2
0
1
1
2
1
2
1
et g2 =
12
223
1
3
1
2
223
1
3
{z
PT
23
1
3
2
=
f20
||f20 ||
223
1
}
1
3
1
3
1
3
1
1
1
1
1
12
2
1
0
|
223
223
2
3
{z
P
1
3
1
3
1
3
= 0
0
}
0
0
0
0
0
3
Chapitre 9
Applications linaires
9.1
Dfinitions et exemples
132
(6) La projection orthogonale. Soit V un espace vectoriel muni dun produit scalaire gnralis
<, >, et soit W un sous-espace vectoriel de V . Nous avons dfini la projection orthogonale
f : V W
f (v) = projW (v) .
Si S = {w1 , w2 , . . . , wr } est une base orthonorme de W , alors
f (v) = projW (v) =< v, w1 > w1 + + < v, wr > wr .
Cest une application linaire. En effet, vrifions les deux proprits :
(f1 + f2 )(ax + b)
= f1 (ax + b) + f2 (ax + b)
= T (f1 ) + T (f2 )
et
T (f )
(f )(ax + b)
= (f (ax + b))
= T (f ).
133
(9) Lapplication linaire dfinie par un produit scalaire gnralis. Soit V un espace vectoriel muni dun produit scalaire gnralis <, >. Soit v0 V . On dfinit une application
f : V R
en posant
f (v) =< v, v0 > .
Alors f est une application linaire. En effet, on a :
f (u + v) =< u + v, v0 >=< u, v0 > + < v, v0 >= f (u) + f (v) ,
et
f (v) =< v, v0 >= < v, v0 >= f (v) .
(10) La drivation. Soit V = C 1 (R) lespace vectoriel des fonctions f : R R drivables avec
premire drive continue et W = C 0 (R) lespace vectoriel des fonctions continues relles
variable relle. Soit
D : C 1 (R) C 0 (R)
lapplication dfinie par
D(f ) = f 0
o f 0 est la premire drive de f . Alors D est une application linaire car la drivation est une
opration linraire.
(11) Lintgration. Soit V = C 0 (R) et W = C 1 (R). Soit
J : C 0 (R)
f (t)
C 1 (R)
Z x
f (t)dt
0
Rx
Rx
Rx
Rx
Lapplication J est linaire car 0 (f (t) + g(t))dt = 0 f (t)dt + 0 g(t)dt et 0 ( f (t))dt =
Rx
0 f (t)dt pour toutes fonctions f et g et pour tout R.
(12) Soit Mn (R) lensemble des matrices n n. Alors
tr : Mn (R)
A
R
trace(A)
134
9.1.1
= f (v + (1)w)
= f (v) + f ((1)w)
= f (v) + (1)f (w)
= f (v) f (w) .
9.1.2
Soit f : V W une application linaire, et soit {v1 , . . . , vn } une base de lespace vectoriel V .
Alors f est dtermine par les images des lments de la base, cest--dire par lensemble
{f (v1 ), . . . , f (vn )}.
En effet, si v V , alors v = 1 v1 + + n vn . On a donc
f (v)
f (1 v1 + + n vn )
1 f (v1 ) + + n f (vn ) .
Exemple 9.5. Soit {v1 , v2 , v3 } une base de R3 , avec v1 = (1, 1, 1), v2 = (1, 1, 0) et v3 = (1, 0, 0).
Soit
f : R3 R2
lapplication linaire telle que
f (v1 ) = (1, 0), f (v2 ) = (2, 1), f (v3 ) = (4, 3) .
Soit
v = (2, 3, 5) .
135
Alors
v = 5v1 8v2 + 5v3 ,
donc
f (v)
(5 16 + 20, 8 + 15)
(9, 23) .
Figure 11.1
f2 (f1 (u + v))
Soient v V1 et R. Alors
(f2 f1 )(v)
f2 (f1 (v)) =
f2 (f1 (v)) =
f2 (f1 (v)) =
(f2 f1 )(v) .
136
9.2
Dfinition 9.8. Soit f : V W une application linaire. Le noyau de f, not Ker(f ), est par
dfintion lensemble des v V tels que
f (v) = 0 .
Limage de f , note Im(f ), est par dfinition lensemble des w W tel quil existe v V avec
f (v) = w .
Exemple 9.9. Soit f : Rn Rm dfinie par f (x) = Ax, o A est une matrice m n. Alors Ker(f )
est gal au nilespace de A, et Im (f ) est gal lespace des colonnes de A.
Exemple 9.10. Soit 0 : V W lapplication linaire nulle. Alors Ker(0) = V et Im(0) = {0}.
Exemple 9.11. Soit f : V V lapplication identit. Alors Ker(f ) = {0} et Im (f ) = V .
Exemple 9.12. Soit f : R3 R2 la projection orthogonale sur le plan xy. Alors Ker(f ) est gal
laxe des z et limage de f est gale au plan xy.
Figure 11.2
w1 ,
f (v2 )
w2 .
137
Mais alors
f (v1 + v2 )
f (v1 ) + f (v2 )
= w1 + w2 ,
donc w1 + w2 Im(f ). Soient w Im(f ) et R. Soit v V tel que f (v) = w. Alors
f (v) = f (v) = w. Donc w Im(f ). Ceci implique que Im(f ) est un sous-espace vectoriel
de W .
Exemple 9.14. Soit n un entier. Considrons lapplication linaire
: Pn
f
Pn+1
xf.
138
(ii) Si rg(f ) = 0, cela signifie que Im(f ) = {0}. Autrement dit, tout vecteur de V est envoy sur 0
par lapplication f . Ainsi, Ker(f ) = V et null(f ) = dim(V ).
(iii) Supposons maintenant que null(f ), rg(f ) 6= 0. Posons r = (f ) et soit {e1 , . . . , er } une base de
Ker(f ). Pour montrer le thorme, il suffit de montrer que limage de f est de dimension n r.
Comme {e1 , . . . , en } est une base de
Ker(f ), cest en particulier une famille de vecteurs linairement indpendants. Il existe donc
er+1 , . . . , en V tels que {e1 , . . . , en } soit une base de V . La famille B = {f (er+1 ), . . . , f (en )}
est une base de Im(f ). En effet,
i) si r+1 f (er+1 ) + + n f (en ) = 0, alors, par linarit, on a que r+1 er+1 + + n en
Ker(f ). Ce vecteur sexprime alors dans la base du noyau :
r+1 er+1 + + n en = 1 e1 + + r er
pour certains 1 , . . . , r R
=0
Ainsi, tout lment de limage de f est une combinaison linaire des vecteurs de B.
9.3
Nous avons dj dfini linverse dune application linaire fA donne par une matrice inversible
A. Nous allons maintenant gnraliser cette notion pour toutes les applications linaires.
Dfinition 9.20. Soit f : V W une application linaire injective. On dfinit
f 1 : Im(f ) V
de la manire suivante :
Soit w Im(f ). Il existe v V tel que w = f (v). De plus, comme f est injective, le vecteur v est
unique. On dfinit alors
f 1 (w) = v.
Lapplication f 1 est appele linverse de f .
139
Remarque 9.21. Dans le dfinition ci-dessus, on dfinit f 1 uniquement sur lespace Im(f ). Si
Im(f ) = W , cest--dire si f est aussi surjective, alors on peut dfinir f 1 : W V . On dit alors
que f est inversible.
Remarque 9.22. Une application linaire f : V W est donc dite inversible si et seulement si
elle est bijective.
Thorme 9.23. Soit f : V W une application linaire injective. Alors
(1) (f 1 f )(v) = v pour tout v V .
(2) (f f 1 )(w) = w pour tout w Im(f ).
(3) f 1 est une application linaire.
Dmonstration. (1) Ce point dcoule directement de la dfinition de linverse.
(2) Soit w Im(f ). Il existe un unique v V tel que f (v) = w. On a donc
(f f 1 )(w) = f (f 1 (w)) = f (v) = w.
| {z }
=v
Or, f
(?)
Mais, par le thorme prcdent, cette expression est gale g(w). Ainsi, g(w) = f 1 (w) pour tout
w Im(f ), cest--dire que g = f 1 .
En appliquant f des deux cts de lgalit (?), on obtient (f g)(w) = w pour tout w Im(f ).
Cas particulier
Soit V un espace vectoriel de dimension finie et f : V V une application injective. Alors, par
le thorme du rang, rg(f ) = dim(V ) et donc, Im(f ) = V . Dans ce cas, linverse de f est dfini sur
tout V .
Thorme 9.25. Soient f : V1 V2 et g : V2 V3 deux applications linaires injectives. Alors
g f est aussi injective et
(g f )1 = f 1 g 1 .
Dmonstration. Soit v1 V1 avec g(f (v1 )) = 0. On utilise succesivement linjectivit de g et de f
pour conclure que v1 = 0. La composition g f est donc bien injective.
Soit v3 Im(g f ). Posons u = (g f )1 (v3 ). Montrons que u = (f 1 g 1 )(v3 ). On a
(g f )(u) = (g f )((g f )1 (v3 )) = v3 .
Ainsi,
g 1 ((g f )(u)) = f (u) = g 1 (v3 )
et
f 1 (f (u)) = u = f 1 (g 1 (v3 )) = (f 1 g 1 )(v3 ).
140
9.4
{e1 , . . . , en1 }
B2
{b1 , . . . , bn2 }
B3
{1 , . . . , n3 }.
Ecrivons
11
..
= .
n3 1
1n2
..
.
n3 n2
et
11
..
= .
n2 1
1n1
..
.
.
n2 n1
11 11 + + n2 1 1n2
11 21 + + n2 1 2n2
.
..
.
11 n3 1 + + n2 1 n3 n2
Mais ceci est aussi la premire colonne de la matrice [f2 ]B3 ,B2 [f1 ]B2 ,B1 . En faisant la mme chose
avec les autres colonnes, on remarque que [f2 ]B3 ,B2 [f1 ]B2 ,B1 et [f2 f1 ]B3 ,B1 sont deux matrices ayant
leurs colonnes gales. On a donc bien lgalit cherche.
Thorme 9.27. Soit f : V V une application linaire, et soit B une base de V . Alors les
conditions suivantes sont quivalentes :
(a) lapplication f est inversible ;
(b) La matrice [f ]B est inversible.
Dmonstration. Si f est inversible, alors, par le thorme prcdent, [f ]B [f 1 ]B = [f f 1 ]B = [I]B .
Ainsi, [f ]B est inversible et son inverse est [f 1 ]B .
Rciproquement, si [f ]B est inversible, il existe une matrice [g]B telle que [f ]B [g]B = I = [g]B [f ]B .
Par le thorme ci-dessus, [f g]B = I = [g f ]B , et les applications f g et g f sont toutes deux
gales lidentit. Donc f est bien inversible.
Thorme 9.28. Soient V un espace vectoriel de dimension finie, B et B 0 des bases de V et PB,B 0
la matrice de changement de base de B 0 B. Soit f : V V une application linaire. Alors
1
[f ]B 0 = PB,B
0 [f ]B PB,B 0 .
141
1
Dmonstration. Soit x V . Il faut montrer que PB,B
0 [f ]B PB,B 0 (v)B 0 = (f (v))B 0 . Rappelons que
1
PB,B 0 = PB 0 ,B et que PB,B 0 (v)B 0 = (v)B . On a alors
1
PB,B
0 [f ]B PB,B 0 (v)B 0
= PB 0 ,B [f ]B (v)B
= PB 0 ,B ([f ]B (v)B )
= PB 0 ,B (f (v))B
=
(f (v))B 0 .
142
Chapitre 10
Applications multilinaires et
tenseurs
La thorie des tenseurs offre un langage mathmatique simple et efficace pour dcrire des phnomnes naturels, comme la trajectoire dun satellite, la circulation de la chaleur dans un corps ou
encore la focre lectromagntique dun lectron. Lobjectif du prsent chapitre est dintroduire la
notion de tenseur ainsi que certaines proprits associes. Celles-ci permettent, par exemple, dexpliquer les relations entre des quantits physiques et de prdire leur volution future.
Dans toute la suite, on considre un espace vectoriel V .
Nous commenons ce chapitre en introduisant, dans le premier paragraphe, les tenseurs dordre
(0, 1) et ceux dordre (1, 0) : ce sont des formes linaires. Dans les paragraphes suivants, nous introduirons les tenseurs dordre (0, m) (dits aussi m fois covariants) puis les tenseurs dordre (m, 0) (dits
m fois contravariants) avant de dfinir les tenseurs mixtes (p, q) : ce sont des formes multilinaires.
Ltude du comportement des tenseurs lors de changements de bases permettra dexpliquer les terminologies covariant et contravariant (paragraphe 10.6). Ce chapitre clturera avec un paragraphe
sur les champs tensoriels.
10.1
10.1.1
Formes linaires
Formes linaires sur V : tenseurs dordre (0,1)
Dfinition 10.1. On appelle forme linaire ou tenseur dordre (0, 1) ou encore tenseur covariant
dordre 1 sur V toute application linaire :
f : V R.
Exemple 10.2.
1. Si V = Rn , lapplication de i-ime projection i : (x1 , ..., xn ) 7 xi est une forme linaire sur V .
2. Si V est lespace vectoriel des matrices carres de taille n, alors lapplication trace M 7 Tr(M )
dfinit une application linaire sur V .
3. Si V est un espace vectoriel muni dun produit scalaire gnralis <, > et si v0 un lment de
V , alors lapplication f : V R dfinie par f (v) =< v, v0 > est une forme linaire sur V .
10.1.2
Dfinition 10.3. On appelle espace dual de V lensemble, not V , des formes linaires sur V .
143
144
On a donc :
V = {f : V R k f est linaire }.
Thorme 10.4. Lespace dual V est muni dune structure despace vectoriel.
Dmonstration. On vrifie facilement que laddition des formes linaires et leur multiplication par
un scalaire satisfont aux proprits des espaces vectoriels.
Si V est un espace vectoriel de dimension finie (voir Chapitre 6 pour la notion de dimension),
alors V est aussi de dimension finie, et leurs dimensions sont gales. Plus prcisment, chaque base
de V dtermine une base de V de la faon suivante :
Thorme 10.5. On suppose que lespace V est de dimension finie, avec dim(V ) = n.
Soit B = (e1 , ..., en ) une base de V . Soit B la famille (1 , ..., n ) de V o les i : V R sont
des applications linaires sur V donnes par :
i (ej ) = ij
et tendues linairement V .
Alors, la famille B forme une base de lespace dual V , appele base duale de la base B.
En particulier, on a bien :
dim(V ) = dim(V ).
Rappelons que le symbole ij dsigne le symbole de Kronecker, cest--dire la fonction qui vaut
1 si i = j et 0 sinon.
Dmonstration. Soit f une forme linaire sur V . Puisque toute forme linaire sur V est dtermine
par ses valeurs prises sur les ei , on a :
n
X
f=
fi i
i=1
Remarque
10.6. Si f est une application linaire sur V , alors, avec les notations prcdentes, on
P
a f = i fi i et les coordonnes fi sont appeles les coordonnes covariantes de f .
145
2 (e1 ) = 2 (2, 1) = 2c + d = 0
2 (e2 ) = 2 (3, 1) = 3c + d = 1
do c = 1 et d = 2.
La base duale est donc :
B = {1 : (x, y) 7 x + 3y ; 2 : (x, y) 7 x 2y}.
Le thorme 10.5 implique un rsultat plus fort :
Thorme 10.8. Si V est un espace de dimension finie, alors les espaces V et V sont isomorphes.
Dmonstration. Soit B = (e1 , ..., en ) une base de V et soit B = (1 , ..., n ) la base duale de V
correspondante, donne par le thorme 10.5. Daprs ce thorme, il est vident que lapplication :
B
: V
ei
V
i
10.1.3
u =
f =
Lespace dual V de V tant encore un espace vectoriel, on peut dfinir son espace dual. Celui-ci
est not V : cest lespace vectoriel form de toutes les formes linaires sur V . Si lon applique
deux fois le thorme 10.8, on voit clairement que les espaces V et V sont isomorphes, lorsque V
est de dimension finie. En fait, on a mieux : lisomorphisme est cette fois canonique, dans le sens
quil ne dpend pas de la base choisie sur V . Cest ce que nous montrons dans le thorme qui suit.
Avant cela, il est utile de faire la remarque suivante : si v est un vecteur de V , lapplication :
vb := f 7 f (v)
est une forme linaire sur V , cest--dire un lment de V . On dfinit ainsi une application de
lespace V dans son bidual V , donne par :
: V
v
V
vb.
146
Dmonstration. Pour montrer la linarit, il faut montrer que (k v + w) = k (v) + (w) pour tout
k R et pour tout v, w V . Il faut donc montrer que k \
v + w = k vb + w.
b Ce qui est vrai car
(k \
v + w)(f ) = f (k v + w) = k f (v) + f (w) = k vb(f ) + w(f
b )
puisque f est linaire.
Supposons maintenant que (v) = 0, cest--dire que vb(f ) = 0 pour tout f V . Ceci implique
que f (v) = 0 pour tout f V et donc que v = 0. Ceci dmontre bien linjectivit de .
Enfin, si lon calcule la base duale de B , on obtient une base de V , note :
B = {eb1 , eb2 , . . . , ec
n}
et lisomorphisme (cf. notations de la preuve du thorme 10.8)
B
B
V
V
V
envoie ei sur ebi . Cet isomorphisme nest donc rien dautre que (en particulier, ne dpend plus de
B). Ceci prouve la dernire assertion du thorme.
Dans la suite, nous supposerons lespace V de dimension finie et nous identifierons souvent
les espaces V et V . Les vecteurs de V sont appels tenseurs dordre (1, 0), ou encore tenseurs
contravariants dordre 1.
Avec cette identification, remarquons que si (1 , ..., n ) est une base de V , duale dune base
(e1 , ..., en ) de V , alors (e1 , ..., en ) est aussi une base de V , duale de la base (1 , ..., n ).
10.2
10.2.1
1 i n, 1 j n
dfinies par
(i j )(ek , el ) = ik jl .
Lensemble des i j forme alors une base de Bil(V, R). Les coordonnes fij dune forme bilinaire
f quelconque dans cette base sont simplement donnes par lvaluation de f au couple (ei , ej ).
Explicitement, on a
fij = f (ei , ej )
147
et
f=
fij (i j ).
i,j
Ainsi, si une base B de V est choisie, une forme bilinaire sur V nest rien dautre que la donne
dune matrice F = (fij ) de dimension n n o n = dim V . Si [u]B (resp. [v]B ) dsigne le vecteur des
coordonnes de u (resp. v) dans la base B, alors f (u, v) se calcule par le produit matriciel suivant :
f (u, v) = [u]TB F [v]B .
Une forme bilinaire sur V est aussi appele un tenseur dordre (0, 2) ou encore un tenseur 2 fois
covariant. Cette terminologie provient du comportement de la forme lors dun changement de base
que nous verrons dans la section 10.6.
Remarque 10.11. La notation ci-dessus peut tre prise ici pour une simple notation.
Exemple 10.12. Soit V = Rn . Alors le produit scalaire usuel est une forme bilinaire (symtrique).
Sa matrice dans la base canonique est In .
Un produit scalaire gnralis est une forme bilinaire (symtrique). Il est reprsent par une
matrice A symtrique et dfinie positive.
10.2.2
une application. On dit que f est une forme multilinaire ou tenseur dordre (0, m) si pour tout
1 i m, on a :
f (v1 , . . . , vi + wi , . . . , vm ) = f (v1 , . . . , vi , . . . , vm ) + f (v1 , . . . , wi , . . . , vm )
pour tout v1 , . . . , vm , w1 , . . . , wm V et tout , R. Une telle application est appele tenseur
dordre (0, m), ou tenseur covariant dordre m. Pour m = 1, on retrouve les formes linaires sur V ,
et pour m = 2 les formes bilinaires sur V .
Exemple 10.14 (Produit mixte). Le produit mixte
R3 R3 R3 R
f (x, y, z) = [x, y, z] = x (y z)
est un tenseur dordre (0, 3).
10.2.3
Avant de poursuivre, voici quelques interptations physiques des tenseurs dordre (0, m) que nous
venons de rencontrer.
1. Les tenseurs dordre (0, 0) sont les applications linaires R R. Ces dernires tant prcisment de la forme x 7 ax pour un scalaire a R, les tenseurs dordre (0, 0) peuvent donc tre
naturellement identifis aux scalaires de R. En physique, ils reprsentent des quantits chiffres
telles la masse dun satellite, la temprature dun corps ou la charge dun lectron.
2. Les tenseurs dordre (0, 1) sont les formes linaires V R. Un exemple de tel tenseur est
donn par ltude de la trajectoire dun bateau voile, qui se dirige selon un vecteur unitaire
e. Considrons la force du vent exerce sur ce bateau : elle est reprsente par un vecteur
f perpendiculaire la voile du bateau. Seule la composante ef (produit scalaire) propulse
le bateau lavant. Lapplication f 7 ef est un tenseur dordre (0, 1). Le bateau avancera
dautant plus vite que la quantit ef est grande.
3. Les tenseurs dordre (0, 2) sont les formes bilinaires V V R. Le calcul du moment dune
force applique sur une clef plate pour visser un boulon fournit un exemple.
148
10.3
10.3.1
Nous avons vu la section 10.1.3 que V et V sont isomorphes si V est de dimension finie (ce
que nous supposons toujours ici). Ainsi un vecteur v V peut tre vu comme une forme linaire vb
sur V :
vb : V R
f 7 f (v).
Cest pourquoi, on identifie les tenseurs dordre (1, 0) avec les vecteurs. En physique, la direction
que suit la trajectoire dun lectron un moment donn est reprsente par un vecteur et fournit
donc un exemple de tenseur 1 fois contravariant.
10.3.2
Considrons un espace vectoriel V muni dune base B = {e1 , . . . , en } et son dual V muni de la
base duale B = {1 , . . . n }.
On se donne une forme bilinaire
f : V V R.
Cette forme est entirement dtermine par ses valeurs sur les couples (i , j ).
Rappelons que lespace vectoriel V des formes linaires sur V est isomorphe canoniquement
V et admet pour base lensemble :
B = {eb1 , . . . , ec
n}
o les ebi sont donns par :
ebi (j ) = j (ei ) = ij .
1 i n
1 j n
o fij = f (i , j ). Le choix de B tant fait (et donc aussi celui de B et de C), la forme f est
reprsente par une matrice F = (fij ).
Les formes bilinaires sur V V sont appeles tenseurs dordre (2, 0), ou encore tenseurs
contravariants dordre 2.
10.3.3
est appele un tenseur dordre (m, 0) ou tenseur m fois contravariant ou encore tenseur contravariant
dordre m.
nouveau, la terminologie de tenseur contravariant vient du comportement dune telle application lors dun changement de bases (voir paragraphe 10.6).
10.4
10.4.1
149
Il existe des tenseurs mixtes, savoir des tenseurs dordre (p, q) qui sont donc (en copiant les
terminologies prcdentes) p fois contravariants et q fois covariants.
Dfinition 10.16 (Tenseur dordre (p, q)). Soient p et q des entiers 0. Un tenseur dordre (p, q)
est une application multilinaire :
f : V V V V R.
|
{z
} |
{z
}
p
10.4.2
Pour illustrer la notion de tenseur dordre (1, 1), considrons une application bilinaire :
f : V V R.
Nous allons montrer quune telle application nest rien dautre quune application linaire :
: V V.
On commence par la construction inverse. Etant donne une application linaire :
: V V,
on peut dfinir une application bilinaire :
f : V V R
en posant :
d
f (, u) = (u)()
= ((u)).
On vrifie facilement que f est bilinaire et que lassociation 7 f est injective. Vrifions ici
linjectivit. Supposons que f soit lapplication triviale f (, u) = 0 pour tout u V et pour tout
V . Par dfinition de f , ceci implique que ((u)) = 0 pour tout u et tout . Mais ceci entrane
que (u) doit tre nul pour tout u V et donc que est lapplication nulle.
Pour des raisons de dimensions, linjectivit implique la surjectivit et on a donc montr que
donner une application bilinaire :
f : V V R
est quivalent donner une application linaire :
: V V.
Ce qui est remarquable, cest que les matrices de f et de sont les mmes, une base B de V
tant choisie. Soit B = {e1 , . . . , en } une base de V et B = {1 , . . . , n } sa base duale. La matrice
de f dans les bases B et B est dfinie par FB ,B = F = (fij ) avec
fij = f (ei , j ).
Mais, dautre part, la j-me colonne de la matrice []B est donne par limage de ej exprime dans
la base B. Ainsi, on a
[]ij = i ((ej )) = f (i , ej ) = fij
ce qui prouve que
[]B = FB ,B .
150
10.5
Sur les tenseurs de mme ordre, on a une opration daddition et de multiplication par les scalaires
qui en font un espace vectoriel.
Nous avons dj vu cette structure despace vectoriel pour les tenseurs dordre (0, 1) et dordre
(0, 2), cest--dire sur V et sur lespace des formes bilinaires. La gnralisation tout tenseur se
fait de manire vidente.
On a aussi une opration de multiplication entre tenseurs. Nous commenons par lexemple du
produit de deux formes linaires :
Exemple 10.17. Soient f, g V deux tenseurs dordre (0, 1),
f
: V R
: V R .
q+s
par :
(f g)(a1 , . . . , ap+r , x1 , . . . xq+s ) = f (a1 , . . . , ap , x1 , . . . xq )g(ap+1 , . . . ap+r , xq+1 , . . . xq+ss ).
Remarque 10.18. Lapplication identit Id : R R peut tre considre comme un tenseur dordre
(0, 0). Il joue alors le rle dlment neutre pour le produit dfini ci-dessus.
10.6
Changement de bases
Dans ce paragraphe, nous allons tudier le comportement dun tenseur (ou plutt de ses coordonnes) lors dun changement de bases. Il sagit ici dintroduire des proprits importantes des tenseurs
lies aux changements de coordonnes, trs utiles par exemple en physique lorsque lon change de
systme rfrent. Dautre part, les relations obtenues nous permettront dclairer les notions de
tenseurs covariants et contravariants.
Soient donc deux bases de V :
B = {e1 , . . . , en }
et
B 0 = {e01 , . . . , e0n }.
151
e0j =
n
X
ij ei
(10.1)
i=1
..
.
abus de notation)
e1
e2
T
0
= PBB
. .
..
en
e0n
(10.2)
Dans la suite, nous noterons ij les coefficients de la matrice PB0 B , de sorte que lon a :
ei =
n
X
e0k .
k=1
10.6.1
(10.3)
1
[v]B0 = PBB
0 [v]B
(10.4)
ou encore :
10.6.2
Considrons maintenant une forme linaire f V . Soit B = (e1 , ..., en ) une base de V et soit
B = (1 , ..., n ) la base de V , duale de V .
xn
152
Le vecteur ligne [f ]B = f1
En dautres termes, on a :
...
fn est la matrice de f dans la base B , donne par fi = f (ei ).
f=
n
X
fi i .
i=1
De mme, si B 0 = (e0 1, . . . , e0n ) est une autre base de V , de base duale B 0 = (10 , . . . , 0 n), et si on
note [f ]B0 la matrice de f dans cette base, ses coefficients sont donns par :
fi0 = f (e0i ),
de sorte que :
f=
n
X
fi0 i0 .
i=1
Il sagit dcrire la matrice de passage de la base B 0 la base B et de voir les modifications sur
les coefficients de la matrice de f .
Pour cela, dterminons dabord les coefficients, nots ij de la matrice de passage PB B0 , dont
la j-me colonne est donne
par les coefficients de lapplication j0 dans la base B .
P
0
Des relations j = i ij i et i (ej ) = ij , on dduit :
j0 (ei ) = ij ,
cest--dire :
ij
P
= j0 ( k ki e0k )
= ji ,
1
o les ij sont les coefficients de la matrice PB0 B = PBB
0.
On a donc prouv :
1 T
PB B0 = (PBB
0) .
(10.5)
On peut maintenant calculer les coordonnes de f dans la base B 0 , i.e. trouver les fj0 tels que
f=
fj0 j0 .
=
=
=
=
f (e0j )
P
Pi ij f (ei )
Pi ij f (ei )
i ij fi .
On a donc :
T
[f ]B0 = PBB
0 [f ]B
(10.6)
On constate que les formes linaires sur V se transforment comme les vecteurs de base tandis
que les vecteurs se transforment selon la rgle inverse (comparer (10.6) avec (10.2) et (10.4)).
153
Cest pour cette raison que les vecteurs (ou les formes linaires sur V ) sont appels
des tenseurs contravariants dordre 1 et les formes linaires sur V sont appeles des
tenseurs covariants dordre 1.
Le qualificatif contravariant concernerait donc les tenseurs dont les composantes se transforment contrairement celles des vecteurs de base. Poursuivons notre investigation...
10.6.3
On considre une forme bilinaire f sur V et sa matrice F (resp. F 0 ) dans la base B (resp, B 0 ).
On peut montrer que lon a la relation
T
F 0 = PBB
0 F PBB 0 .
(10.7)
Cette quation est du mme type que la relation (10.6). Les formes bilinaires suivent les mmes
rgles que les formes linaires lors dun changement de bases. Cest pourquoi, on dit aussi que les
formes bilinaires sur V sont des tenseurs covariants dordre 2.
10.6.4
On considre un tenseur dordre (2, 0), cest--dire une forme bilinaire sur V . Notons F (resp.
F ) sa matrice dans la base B (resp, B 0 ). On a la relation :
0
1
1 T
F 0 = PBB
0 F (PBB 0 ) .
(10.8)
On constate que cest la rgle inverse que pour un tenseur dordre (0, 2) (comparer avec 10.7).
En revanche, cest une loi similaire celle qui rgit le changement de coordonnes dun vecteur. Un
tenseur dordre (2, 0) est donc dit 2 fois contravariant.
10.6.5
Via lquivalence vue au paragraphe 10.4.2, et tenant compte du fait que = F , on obtient la
manire dont les coefficients dun tenseur dordre (1, 1) varient lors dun changement de bases. Cest
la mme rgle que pour une application linaire. Plus prcisment, si
f : V V R
est une application bilinaire de matrice F (resp. F 0 ) dans la base B (resp. B 0 ), alors on a
1
F 0 = PBB
0 F PBB 0
(10.9)
On constate que la matrice de changement de base apparat droite de F mais que cest son
inverse qui apparait gauche. Cest pourquoi, un tenseur dordre (1, 1) est dit 1 fois covariant et
1 fois contravariant (comparer la relation (10.9) avec lquation (10.8) qui donne la rgle pour un
tenseur 2 fois covariant.)
154
10.6.6
Les formules prcdentes se gnralisent encore... et expliquent pourquoi un tenseur dordre (p, q)
est dit p fois contravariant et q fois covariant.
10.7
10.7.1
Champs tensoriels
Dfinitions
Jusquici, nous navons considr que des tenseurs isols. En physique, il est plus frquent de
rencontrer un champ tensoriel, cest--dire, la donne dun tenseur en tout point de lespace (ou
dune partie de celui-ci) ou en plusieurs instants.
On considre donc lespace affine E = Rn et en tout point y de lespace on considre lespace
vectoriel V = Rn .
Dfinition 10.19 (Champ tensoriel). Un champ tensoriel est la donne en tout point y de lespace
dun tenseur dordre (p, q). Alors que le tenseur varie en fonction du point y E, lordre (p, q),
quant lui, est indpendant de y.
Exemple 10.20. Considrons un fluide localis dans une partie de lespace E. La vitesse du fluide
en chaque point de lespace est un tenseur dordre (0, 1).
En chaque point y R3 , on se donne une base :
B(y) = {e1 (y), . . . en (y)}
dans laquelle on exprimera le champ tensoriel.
Par exemple, on pourrait considrer la base canonique en chaque point y : dans ce cas, la base
ne dpend pas de la position y.
10.7.2
Changements de coordonnes
Supposons que lon se donne un changement de coordonnes, i.e. en termes mathmatiques, une
fonction :
:
Rn
(x1 , . . . , xn )
n
R
u1 = u1 (x1 , . . . , xn )
..
.
un = un (x1 , . . . , xn )
Explicitement, en chaque point y de lespace Rn , on a un changement de bases qui est donn par
e0i (y) =
X uj
j
xi
(y)ej (y).
155
B
e2 (y)
y
P
e1 (y)
e02 (y)
D
`
((
(
y0
e01 (y)
Dfinissons la matrice :
= (ij ) :=
ui
(y) .
xj
Cest la matrice de changement de base au point y. Son inverse est donn par
xi
1
= = (ij ) =
(y) .
uj
Ces deux matrices dpendent du point y.
10.7.3
Admettons que lon ait maintenant un champ vectoriel, i.e. la donne dun vecteur v de Rn en
tout point y de lespace Rn . Un champ vectoriel (ou champ tensoriel dordre (1, 0)) est donc la
donne dune application :
E = Rn Rn
y 7 v(y)
qui tout point y associe un vecteur v(y).
Notons vi (y) (resp. vi0 (y)) les coordonnes de v(y) dans la base B(y) (resp. B 0 (y)). On montre
alors quon a la relation suivante :
vi0 (y) =
X ui
(y)vj (y)
xj
j
ou matriciellement
[v 0 ] = [v].
Cette rgle est similaire celle obtenue en (10.3), avec comme seule diffrence que la matrice de
changement de bases dpend du point y et est donne par la matrice jacobienne = 1 .
On parle dans ce cas de champ contravariant.
10.7.4
Soit w un champ de formes linaires, i.e. la donne en tout point y de lespace dune forme linaire
w(y) : Rn R.
On peut, en tout point y, considrer la base duale de B(y) que lon note B (y). Comme prcdemment,
si
B (y) = {i (y)}
alors chaque forme linaire w(y) scrit
w(y) =
X
i
wi (y) i (y).
156
Le changement de coordonnes donn par induit un changements des coordonnes wi (y) qui suit
la rgle suivante :
X xj
wi0 (y) =
(y)wj (y)
ui
j
qui scrit matricellement
[w0 ] = T [w]
ou encore
[w] = (1 )T [w0 ]
(10.10)
Ce rsultat nest pas surprenant. Lquation (10.10) est semblable la relation (10.6), la matrice
PBB0 ayant t remplae par la matrice .
On parle dans ce cas dun champ covariant.
10.7.5
On peut gnraliser ce qui prcde au cas dun champ tensoriel dordre (p, q) quelconque. Les
changements de coordonnes se font de la mme manire que pour un tenseur dordre (p, q) la
diffrence prs, nouveau, que la matrice de changement de bases dpend du point y (et de ). On
remplace ainsi la matrice
PBB0
par la matrice
=
ui
xj
.
Bibliographie
[1] H. Anton and C. Rorres. Elementary linear Algebra. Applications Version. John Wiley &
Sons, Inc. New York, 2000.
[2] R. Dalang and A. Caabouni. Algbre linaire, Aide-mmoire, exercices et applications.
[3] D. Danielson. Vectors and Tensors in Enginee and Physics. Addison-Wesley Publishing Company, 1992.
[4] T. Liebling. Algbre linaire : une introduction pour ingnieurs.
157
158
BIBLIOGRAPHIE
Index
angle entre deux vecteurs, 105
application, 69
application linaire, 70, 127
base
dun espace vectoriel, 86
orthogonale, 108
orthonorme, 108
standard, 78, 83, 87, 88
bijective (application), 75
caractristique (quation), 117
caractristique (polynme), 117
Cauchy-Schwarz (ingalit de), 65, 104
cofacteur dune matrice, 42
combinaison linaire, 82
complment orthogonal, 106
composition dapplications, 73
coordonnes dun vecteur, 50, 87, 108
Cramer (rgle de), 46
dterminant, 33, 35
drivation, 129
diagonal(e)
lment, 19
matrice, 29
diagonalisation, 121
dimension dun espace vectoriel, 90
dual dun espace vectoriel, 139
espace
des colonnes, 92
des lignes, 92
propre, 119
vectoriel, 79
dimension, 90
fonction, 69
forme multilinaire, 141
Gauss (algorithme de), 12
gaussienne (limination), 11
Gram-Schmidt (mthode de), 110
homogne (systme), 15, 82
image dune application, 132
impaire (permutation), 34
incompatible (systme), 6
inconsistant (systme), 6
injective (application), 75
inversion dune permutation, 33
linaire (quation), 5
linairement dpendants (vecteurs), 84
INDEX
rang, 95, 133
rang (thorme du), 96, 133
rflexion, 71
rotation, 73
second membre, 47
somme
de matrices, 19
de tenseurs, 143
de vecteurs, 49, 64
sous-espace vectoriel, 80
sphre unit, 102
surjective (application), 75
systme dquations linaires, 6
systme normal, 115
tenseur, 139
triangle (ingalit du), 66, 104
valeur propre, 117
variable
directrice, 15
libre , 15
vecteur(s), 49
colonne, 66
ligne, 66
normal, 60
orthogonaux, 105
propre, 117
159
160
BIBLIOGRAPHIE