Académique Documents
Professionnel Documents
Culture Documents
LINÉAIRE
Joseph Grifone
4e édition
Cépaduès
h P :
:
M; fv
www.cepadues.com
Algèbre linéaire
4e édition
Joseph GRIFONE
CÉPADUÈS-ÉDITIONS
111, rue Nicolas Vauquelin
31100 Toulouse-France
Tél. : 05 6140 57 36 Fax : 05 6l 4179 89
-
www.cepadues.com
Courriel : cepadues@eepadues,com
Coordonnées GPS en WGS 84
N43°34'43,2"
E001°24'21,5"
Chez le même éditeur
Robustesse et commande optimale ...AlazardD. étal
Topologie des espaces vectoriels normes Colin J-J., Morvan J-M. etR.
Mathématiques et résolution des équations aux dérivées partielles classiques... ...GiraudG, DufourJ.P.
Les fonctions spéciales vues par les problèmes Groux R., Soulat Ph.
Les structures et les morphismes vus par les problèmes- ...Groux R., Soulat Ph.
Le code de la propriété intellectuelle du 1er juillet 1992 interdit expressément la photocopie à usage
collectif sans autorisation des ayants-droit. Or, cette pratique en se généralisant provoquerait une baisse
brutale des achats de livres, au point que la possibilité même pour les auteurs de créer des œuvres nouvelles
et de les faire éditer correctement est aujourd'hui menacée.
Nous rappelons donc que toute reproduction, partielle ou totale, du présent ouvrage est interdite sans
autorisation de l'Éditeur ou du Centre français d'exploitation du droit de copie (CFC 3, rue d'Hautefeuille
-
75006 Paris).
1 Espaces Vectoriels 1
1.1 Introduction 1
1.2 Espaces vectoriels 4
1.3 Sous-espaces vectoriels 6
1.4 Bases (en dimension finie) 10
1.5 Existence de bases (en dimension finie) 15
1.6 Les théorèmes fondamentaux sur la dimension 17
1.7 Bases en dimension infinie 20
1.8 Somme, somme directe, supplémentaires
sous-espaces 21
1.9 Somme et somme directe de plusieurs sous-espaces 25
2 La méthode du pivot (ou méthode d'élimination de Gauss) ... 37
2.1 Etude d'un système d'équations linéaires par la méthode du pivot 37
2.2 Cas des systèmes linéaires homogènes 42
2.3 Application aux familles libres et aux familles génératrices .... 44
2.4 Utilisation pratique de la méthode du pivot 48
3 Applications linéaires et matrices 57
3.1 Applications linéaires 57
3.2 Image et noyau. Image d'une famille de vecteurs 59
3.3 Matrices et applications linéaires 63
3.4 Produit de deux matrices 70
3.5 Matrice d'un vecteur. Calcul de l'image d'un vecteur 72
3.6 Produits de matrices. Matrice de l'inverse d'une application ... 74
3.7 Changement de base 76
3.8 Rang d'une application linéaire et rang d'une matrice 80
3.9 Espace dual 81
3.10 Annulateur d'un sous-espace 87
4 Déterminants 103
4.1 Définition des déterminants par récurrence 103
4.2 Les déterminants vus comme formes multilinéaires alternées . . . 105
4.3 Permutations, transpositions, signature 109
4.4 Une formule explicite pour le déterminant 112
4.5 Déterminant de la transposée d'une matrice 114
4.6 Calcul des déterminants 115
4.7 Déterminant du produit de matrices. Déterminant d'un endomor-
phisme 119
4.8 Calcul de l'inverse d'une matrice 121
i
SOMMAIRE
AVANT-PROPOS
L'Algèbre Linéaire a une place spéciale parmi les disciplines enseignées en premier
cycle d'Université. D'une part parce que, étant utilisée pratiquement dans toutes les
branches scientifiques, sa connaissance fait partie du bagage indispensable au futur
chercheur, ingénieur ou agrégatif. D'autre part parce que l'algèbre et la géométrie se
mêlent constamment, l'imagination est sans cesse sollicitée et, de ce fait, elle est très
utile à la formation de l'esprit mathématique.
Malheureusement les programmes actuels de l'enseignement dans le secondaire ne
comportent presque plus d'Algèbre Linéaire. N'ayant ni le recul, ni le langage de base,
les étudiants abordent souvent cette discipline d'une manière abstraite et formelle : il
s'ensuit un décalage entre le niveau requis et les résultats atteints, décalage que tout
enseignant a pu constater ces dernières années.
Dans cet ouvrage, fruit d'une expérience de plusieurs années d'enseignement de
l'Algèbre Linéaire en premier cycle d'Université, j'ai essayé de combler cette lacune. Je
me suis efforcé de présenter les différentes notions en mettant en évidence leur raison
avant les formes quadratiques et les formes hermitiennes, contrairement à ce qui est
fait dans la plupart des manuels. L'expérience montre que, malgré les redites, ces
parties du cours sont beaucoup mieux comprises.
J'ai aussi essayé d'aller à l'essentiel. Pratiquement toute l'algèbre linéaire est
contenue dans le cadre où le corps des scalaires est M ou C. Non pas que l'algèbre linéaire
sur les corps finis, par exemple, ne soit pas intéressante, mais elle n'est pas essentielle
formels, quotients, etc) qui souvent assomme l'étudiant en début d'année. Ici aussi
l'expérience prouve que, lors une seconde lecture, celui qui a déjà assimilé la
substance, le mécanisme et la vision géométrique de l'algèbre linéaire sur RouC passe
sans difficultés à l'algèbre linéaire sur les corps plus généraux. Cependant toutes les
définitions et les énoncés sont donnés pour un corps quelconque de manière à ce que
l'exposé ne souffre pas de cette restriction.
Les appendices jouent d'ailleurs un rôle important dans le plan de cet ouvrage. J'ai
voulu éviter un livre trop dense, une sorte d'encyclopédie de résultats, où l'étudiant
a du mal à dégager ce qui est essentiel et ce qui est secondaire. Aussi les différents
pour les systèmes dynamiques, voire les algèbres de Lie et les groupes continus de
transformations. Dans ce même esprit j'ai traité dans les appendices certains thèmes
que l'on aborde en général en dernière année de Licence ou en Master, comme les
vi Avant-Propos
gratitude envers tous ceux qui ont eu la gentillesse de m'aider par leurs indications et leurs
commentaires, ou qui ont pris la peine de me signaler les coquilles et les corrections.
Puisque je ne me fais pas d'illusions et que des imprécisions se sont probablement
glissées aussi dans cette version, je suis d'avance reconnaissant envers tous ceux qui
auront l'amabilité de me les signaler ou qui voudront bien me faire part de leurs
Espaces Vectoriels
1.1 Introduction
habituellement plus faciles à résoudre que les problèmes plus généraux (appelés "non
linéaires" précisément).
Les physiciens, par exemple, rencontrent souvent des problèmes linéaires : le principe
de superposition exprime justement le fait que les équations de la chaleur, des cordes
vibrantes, de l'électricité, etc. sont linéaires. Beaucoup d'autres problèmes sont
linéaires en première approximation : l'équation des oscillations du pendule, par exemple,
n'est pas linéaire, mais si l'on s'intéresse aux petites oscillations, elle peut être
approchée par une équation linéaire.
On sait que les physiciens représentent certaines grandeurs par des segments
"^Nous verrons dans la suite une définition plus précise de cette notion.
1
2 Espaces Vectoriels
Figure 2 Figure 3
l'addition, qui exprime la loi de composition des forces ou des vitesses, définie par
(cf. 2))
-
le produit d'un vecteur par un nombre réel À, qui donne un vecteur homothétique
de rapport À, c'est-à-dire un vecteur ayant la même direction, de même sens si
À > 0 et de sens contraire si À < 0, et dont la longueur est multipliée par |À|
(cf. fig. 3)).
REMARQUE. —
Pour pouvoir faire des calculs, on part de l'observation suivante. Considérons le plan
ou l'espace ordinaire2, que nous noterons 8 et fixons un point O G S. A tout point
P £ £ est associé un et un seul vecteur d'origine O (celui qui a P comme extrémité). Si
l'on choisit un système de coordonnées d'origine O, on peut donc repérer les vecteurs
du plan issus de O par les coordonnées de P, c'est-à-dire par les couples (#i, £2) G M2.
D'une manière analogue, les vecteurs issus d'un point de l'espace peuvent être repérés
par les triplets (£i,#2,#3) G M3.
2Nous utiliserons les mots plan, espace, point, système de coordonnées, etc. au sens de la géométrie
élémentaire.
1.1 Introduction 3
z
A
%3
+>x +>y
Figure 4
tf+w =
(zi +yi,x2+2/2)
À î/ =
(À£i,À#2)
A l'aide de ces formules, on peut vérifier les propriétés suivantes :
v + w =
w + v
(commutativité)
iï+ (v + w) =
(u + v) + w
(associativité)
De plus, il existe un vecteur noté 0 tel que 0 + v pour tout vecteur v (il
v
=
w =
(-xu-x2)).
X(fjbv) =
(À fi) v
(\ + fj,)v =
\v-\-fiv
\{v + w) =
\v + \w
1 .v =
v
Il y a, bien entendu, beaucoup d'autres propriétés qui sont vérifiées mais, comme
nous le verrons, celles que nous venons de signaler constituent justement «le cadre
mathématique commun à tous les problèmes linéaires». En d'autres termes, toutes les
propriétés essentielles des problèmes linéaires peuvent être dégagées à partir de ces
propriétés.
REMARQUE. -
L'exemple que l'on vient d'étudier est très utile, car il permet d'avoir
n'est pas essentielle à la théorie. D'abord parce que nous ne considérerons pas seulement
des espaces de «dimension» 2 ou 3 comme M2 ou R3 mais aussi des espaces de dimension
peut dire que la dimension, dont précise par la suite, est liée
nous donnerons la définition
au nombre des paramètres qui interviennent dans le problème, nombre qui peut être très
grand : dans ce cas, l'analogie avec les vecteurs de l'espace ordinaire risque de ne pas être
d'un grand secours. D'autre part, on considérera aussi la multiplication des vecteurs par
des nombres complexes ou, en général, appartenant à un corps commutât if quelconque
et dans ce cas l'interprétation géométrique de la loi de produit n'est pas évidente. Ceci
dit, le support géométrique est particulièrement important en algèbre linéaire et, en règle
générale, il ne faut pas se priver d'y faire appel.
Définition 1.1 -
vérifiant :
A.l) (x + y) + z =
x + (y + z) , \/x,y,z£E;
A.2) x+y=y+x, Vx,yeE;
A.3) II existe un élément de E noté 0E,ou plus simplement 0, dit neutre, tel
que Va; G E : x + 0E =
x ;
B.l) \(fj,x) =
(XfjL)x , V\,neK, VxeE;
B.2) (\ + fj)x =
Xx + fjLX , VÀ,/xGif, \/xeE;
B.3) À (s+ 2/) =
\x + \y, VÀGif, Vx,yeE;
B.4) l.x =
x, VxeE
(1 étant Vêlement neutre de la multiplication dans K).
3Pour ne pas alourdir l'exposé, la définition de corps est donnée en Appendice 1. Le lecteur qui
n'est pas familiarisé avec cette notion pourra supposer que K R ou C. =
4On exprime ces quatre propriétés en disant que (E, +) est un groupe abélien (ou commutatif)
(cf. Appendice 1).
1.2 Espaces vectoriels 5
Exemple 1. -
(xi,...,Xn) +(î/l,.--iî/n) :=
(Xi +î/l,...,a5n+î/n)
^/jx'
A(a?i,...,xn) :=
(Azi,.. .,A:rn)
Ici 0Rn =
(0,..., 0) ; l'opposé (—x) de ce =
(xi,..., xn) est (—#i,..., —
xn). De même
Cn est muni d'une structure d'espace vectoriel sur C et, plus généralement, Kn est muni
d'une structure d'espace vectoriel sur K avec les lois définies par les formules (1).
Exemple 2. -
L'ensemble Rn[x] des fonctions polynômes à coefficients dans R de degré < n, c'est-à-dire :
Rn[x] =
{P : R — R | P (x) =
a0 + ai x + + an xn ; a» G R}
est un espace vectoriel sur R pour les lois :
Efcfok**) + Efc(fc*fc) ==
£fcK + **)**
A(Efc«^fc) ==Efc(Aafc)xfc
(les sommes ne comportent qu'un nombre fini de termes non nuls).
Exemple 3.-
Soit M.2{K) —
(a b \
( a' b' \
( + af b + b' \
) ) )
a
+
\ c d \c' à! \ c + c' d + d'
(4)
(a b \
f \a Xb \
\ ) ~\Xc )
=
c d Xd
Exemple 4.-
S =
{applications / : A —>
E}
On peut définir sur S une structure d'espace vectoriel sur K par les lois suivantes :
si f,ge£: f + g: A — E
a l >
f(a)+g(a)
c'est-à-dire :
(-/)(«) :="(/(a)).
Exemple 5.-
Soient i?i et £2 deux espaces vectoriels sur le même corps K. On définit une structure
Proposition 1.2 -
1. A0S=0S et 0z =
0s.
2. Ax Os =
=> A =
0 ou x =
0E.
3. (-À)a =
À(-aO =
-(AaO.
Démonstration : -
1. \0E=\(0E+0E) \0E+\0Ey =
d'où :
0S=A0S
0z (0 + 0)£ 0x + 0z d'où:
= =
0x =
0s.
2. Supposons A a: 0S et A ^ 0. En multipliant par A-1, on obtient X~1(Xx)
= =
Exercices 1. 2. 3.
Définition 1.3 Soit E un espace vectoriel et F une partie non vide de E. On dit
-
En principe, pour montrer que F est un sous-espace vectoriel, il faudrait vérifier les
huit axiomes de la Définition 1.1. En fait, il suffit de vérifier la «stabilité» des lois de
composition comme l'affirme la proposition suivante :
Proposition 1.4 -
1. F^0
2. (a) x,y G F => x + y eF
REMARQUE. -
l'élément neutre 0F chaque de sous-espace F. C'est pour cette raison que, dans la suite,
on le notera simplement 0 (au lieu de 0E ou
0F), s'il n'y a pas de risque de confusion.
Proposition 1.5 -
1. F±%
2. x,y G F ; À,/i G K => Xx + \iy G F
REMARQUE. —
1. Droite vectorielle.
Soit v e E, v ^ 0 ; alors :
F =
{yeE\3XeK:y =
Xv}
est un sous-espace vectoriel de E dit droite vectorielle engendrée par v (cf. Fig.
5).
En effet F ^ 0, car v G F. De plus, F est stable pour les lois de E, car si
x,y G F (c'est-à-dire : x =
Xv, y
=
/j,v), on a :
x + y =
Xv + jiv =
(à + aO^GF
De même, si x e F (c'est-à-dire x =
Xv), on a : fix
=
fi (Xv) =
(//À) v G F.
8 Espaces Vectoriels
%>
Figure 5
2. Plan vectoriel.
Soient x\, x2 G E et
F =
{y e E | 3Ai,A2 e K : y
=
X1x1 + X2x2} .
Figure 6
3. Sous-espace engendré.
Plus généralement, si #i,..., xp G E alors :
F =
{y G S | 3 Ai,..., \p G K : y
=
Ai x± H h Xp xp}
est un sous-espace vectoriel de E noté Vect{#i,..., xp}y
sous-espace engendré dit
par #i,...,JEp, OU aussi espace des de Xi, ,Xp. Nous
combinaisons linéaires . . .
verrons par la suite que, au fond, tous les sous-espaces vectoriels sont de ce type,
REMARQUE. (Important)
—
l'espace vectoriel des vecteurs d'origine O. Une droite vectorielle est une droite passant
par O. De même, un plan vectoriel est un plan passant par O. Plus généralement, un
sous-espace vectoriel de M.n peut être visualisé comme un "plan de dimension p" passant
par O. On pourrait donner un sens précis à la notion de "plan de dimension p", mais
cela n'est pas nécessaire. Retenons pour le moment le fait qu'il doit passer par O, car
tout sous-espace vectoriel doit contenir le vecteur nul. Ainsi, par exemple, une droite ne
passant pas par O n'est pas un sous-espace vectoriel : les points de la droite sont les
extrémités des vecteurs issus de O et le vecteur nul n'est pas parmi eux.5
Exemple 1. -
Figure 7
Soit
F =
{(x,y,z)ER3 | 2x + y + 3z =
0}.
F est un sous-espace vectoriel de R3. En effet, soient v\ =
(xiyyi,zi) et V2 =
(#2, 2/2,22) €
F ; on a :
vi + V2 =
(xi + £2, î/i + 2/2, 21 + z2) E F
Exemple 2. -
5 =
{(x,y,z) eM3 \2x —
y
—
z =
1} n'est pas un sous-espace vectoriel de R3 car
0 =
(0,0,0)g£.
Proposition 1.6 -
Démonstration :
1. On a d'abord F H G ^ 0, car 0^ G F n G.
Soient x,y E F n G ; on a, x,y E F donc x + y E F. De même, si x,y E G,
x H- y E G et par conséquent x + y E F n G.
Si À E K et z G F D G, on a : x E F, donc À # G F, et a; G G, donc Xx G G;
d'où: ÀxGFHG.
2. Cela tient au fait qu'en général F U G n'est pas stable par la somme. Par
exemple, soient E =
M2, F la droite vectorielle engendrée par (1,0) et G la
droite vectorielle engendrée par (0,1). On a :
mais: w =
(1,0) + (0,1) =
(1,1) g FU G
10 Espaces Vectoriels
G*
(0,
Figure 8
REMARQUE. C'est à cause de cela qu'en algèbre linéaire on considère rarement les
-
réunions d'espaces vectoriels et encore moins les complémentaires, car on perd la structure
d'espace vectoriel et donc toute la richesse de la théorie. Notamment, les raisonnements par
la contraposée, c'est-à-dire du type «supposons que x £ E» (E étant un espace vectoriel),
sont en général à éviter.
Exercices 4. 5. 6.
avec la structured'espace vectoriel définie par les lois (3) page 5 et soit {Pi,... ,Pn} une
famille finie de polynômes. Elle ne peut être génératrice car, en effectuant des combinaisons
linéaires, on n'obtiendra que des polynômes de degré < Sup{ degrés des (Pi)}.
Exemple 1. -
(xi,x2) =
xi (1,0) +z2(0,1) =x\e\ +x2e2.
ke rang
(#1,..., xn) =
xi e\ H + xn en
1.4 Bases (en dimension finie) 11
l'exemple ci-dessus, par exemple la famille {ei, e2, f}, avec v (1,2). Elle est évidemment =
Plus généralement : toute famille contenant une famille génératrice est génératrice.
Exemple 3. -
génératrice.
Soit x =
(a,b) G R2 avec a,b arbitraires : il s'agit de montrer qu'il existe x\^xi G R tels
que x =
£it>i + £2^2, c'est-à-dire :
(a, 6) =
(xi, zi) 4- (x2i -X2) =
(#i + X2, xi -
£2)
Ceci signifie que quels que soient a et b G R, il existe xi,X2 G M vérifiant le système :
f x\ + £2 = a
\ £1
—
X2 = b
a + b a —
Définition 1.8 -
Ai vi H h Xp vp =
0 => Ai =
0,..., Xp =
0.
On dit aussi que les vecteurs v±,..., vp sont linéairement indépendants. Une famille
qui n'est pas libre est dite liée (on dit aussi que ses vecteurs sont liés ou linéairement
dépendants).
Exemple 1. -
liés car on a 2 v1 + 3 v2
—
v3 =
0.
Exemple 2. -
On aura :
c'est-à-dire :
Ai =0
Ai + 2 A2 =0
-Ai 4- A2 +5 A3 =0
Proposition 1.10 -
une famille {^i,..., vp} est libre si et seulement si aucun des vecteurs vi n'appartient
à l'espace engendré par les autres.
Les vecteurs v± et V2 forment une famille liée : Les vecteurs v\, V2 et ^3 forment une famille
V2 appartient à l'espace engendré par v\. liée : i>3 appartient à l'espace engendré par v\
et V2-
Démonstration :
-
Si {t>i,..., vp} est liée, il existe Ai,..., Xp non tous nuls tels
que Ai vi + + Xp vp =
0. Si, par exemple Ai 7^ 0 (ce que Ton peut toujours
supposer quitte à changer la numérotation), on pourra écrire :
A2
+ -r-^ vp
-Ap
vi v2-\
. .
= - —
M M
c'est-à-dire :
vi
-
/JL2V2 fj,pvp
=
0.
Il existe donc une combinaison linéaire des vecteurs {vi,..., vp} qui est nulle, sans
que les coefficients soient tous nuls. Donc la famille est liée.
Proposition 1.11 Soit {vi,... ,i>p} une famille libre et x un vecteur quelconque
-
de l'espace engendré par les vecteurs vi (c'est-à-dire x est combinaison linéaire des
Vi). Alors la décomposition de x sur les vi est unique.
En effet, soient :
x =
Ai v\ H h Xp vp
x =
/ii vi H h \ipvp
0 =
(Ai -
/xi) vi H h (Ap -
/ip) vp.
Puisque la famille est libre, on a Ai —
\i\
=
0,..., \p —
[ip
=
0 c'est-à-dire :
Ai /xi,
=
Ap fip.
...,
=
1.4 Bases (en dimension finie) 13
Définition 1.12 -
On a immédiatement :
Une et seulement si
tout x E E se décompose façon unique sur les V{. C'est-à-dire
d'une :
X =
\\V\-\ h \nVn.
Proposition 1.14 -
Soit B =
{vi... vn} une base deE. Il existe alors une bijection :
<pB: E —> Kn
x=x\e\-^ \-xnen l >
(xi,...ixn)
Exemple 1. -
Base canonique de Kn .
=(0...0, ^,0...0),
,
ek ,cn =
(0,...,0,l)
kerang
On sait déjà qu'ils forment une famille génératrice. Montrons qu'elle est libre. On a :
Ai ei + + An en =
0 <*=» (1,0... 0) +
Ai + Àn (0... 0,1) 0 =
Par conséquent {ei,..., en} est une base de Kn, dite base canonique.
Exemple 2. -
{l }
6
La famille B =
est une base de M.n \X\.
En effet, tout P E Rn [x] s'écrit P =
ao 1 + ai x + + an xn avec, ai G M ; B est donc
génératrice. De plus :
Ao 1 + Ai x + + An x71 =
0 => Ao =
0, Ai =
0,..., An =
0.7
6Plus précisément B =
{Pq, Pi, ..., Pn} où P& : x i xk. Nous utiliserons souvent cet abus de
notation.
7D'après la définition de polynômes : deux polynômes sont égaux si et seulement si les coefficients
des termes de même degré sontégaux (le 0 au second membre est le polyôme nul).
14 Espaces Vectoriels
Exemple 3. -
El =
Toute matrice
( I G .M 2 (if), peut s'écrire :
<=> Ai =
A2 =
A3 =
A4 =
0
Exemple 4. -
Soit F =
{(x,y,z) eM3 \2x+ y+ 3z =
0} . Chercher une base de F.
veF «=» v =
(x, -2x-Szt z) <==^ v =
x (1, -2,0) -h z (0, -3,1).
Par conséquent les vecteurs v\ —
[
=
A2 =0
base de F.
Proposition 1.15 -
Démonstration :
Xx 0 implique A
=
0, ce qui signifie que {x}
=
est une famille libre.
Réciproquement, supposons {x} libre. Alors, d'après la définition de famille
libre, si A x 0 on a nécessairement
= A 0 ce qui signifie, toujours d'après la =
,
x =
Ai vi + 1- \pVp + 0wi -\ \-0wq, avec wi,..., wq G E.
3. Soit T =
{vi... vp} une famille libre et T' une sous-famille de T. Quitte à
changer la numérotation, on peut supposer que T' =
{t>i,..., Vk} (avec k <p).
Si T' était liée, Pun des vecteurs vi,...,Vfc serait combinaison linéaire des
autres. Il existerait donc un élément de T qui s'écrirait comme combinaison
linéaire de certains éléments de T. Or, cela est impossible car T est libre
(cf. proposition 1.10).
4. Soit T {vi,..., vp} une famille liée et G {v±,..., vp> w\,..., wq}. D'après la
= =
proposition 1.10, l'un des vi est combinaison linéaire des autres. Or, les vecteurs
Vi appartiennent à G ; donc l'un des éléments de G est combinaison linéaire des
5. Évident d'après 4., car il s'agit d'une famille contenant {0}, et {0} est liée,
d'après 1.
Exercices 7. 8. 9.
Démonstration : Soit G =
{vi,...,vp} une génératrice et L\ une famille
famille
libre contenue dans G. Quitte à changer la numérotation, on peut supposer que L\ =
{^i,.. }. Si L\ est génératrice, elle est une base et le théorème est démontré.
.vr
En effet, si ce n'était pas le cas, chaque vecteur de {iv+i, , vP} serait combinaison
linéaire des vecteurs {t>i,...,vr} de L\. Mais ceci est impossible, car si x est un
vecteurquelconque E, de x =
ai v\ H h ar vr + ar+i vr+i H \-apvp, on pourrait
remplacer dans cette expression les vecteurs vr+i, , vp par leur expression en
fonction des vecteurs v\,..., vr et x s'écrirait comme combinaison linéaire des vecteurs
vi,...,vr. Puisque x est arbitraire, cela signifierait que L\ est génératrice, ce que nous
avons exclu.
Nous avons donc prouvé que l'on peut agrandir la famille libre L\ —
{vi,...,vr} en
lui ajoutant un vecteur vix G {tv+i>..., vp} de manière que la famille L<i =
{Li,^}
soit libre.
b) Si L2 est génératrice, elle est une base et le théorème est démontré. Dans le cas
contraire, en répétant le raisonnement, on voit qu'il existe Vi2 G G, Vi2 £ L2, tel que
la famille L3 =
{L2,Vi2} est libre. On construit ainsi une suite :
Li C L2 C L3 C C G
7e ¥> 7e
de familles libres et le processus peut être continué tant que Lk n'est pas génératrice.
Mais G est une famille finie et par conséquent, le processus doit s'arrêter,
éventuellement pour Lk =
G. Il existe donc une famille Lk libre et génératrice, c'est-à-dire une
base et L\ c Lk C G.
Théorème 1.17 -
2. ( Théorème de la base incomplète). Toute famille libre peut être complétée de manière
à former une base.
Démonstration :
2. Soit L =
{vi,..., vp} une famille libre et G =
{w\, ...^Wq} une famille génératrice
quelconque. La famille G G U L est génératrice, elle est sur-famille
'
=
car une
bases ont le même nombre d'éléments. Ce nombre est appelé dimension de E sur K
et est noté dim^ E.
Démonstration : Pour la démonstration on a besoin du lemme suivant :
Lemme
Dans un espace vectoriel engendré par n éléments, toute famille contenant plus de
n éléments est liée.
Démonstration du Lemme.- Soit T =
{vi,...,vn} une famille génératrice et T1 =
{wi,..., wm} une famille de m vecteurs, avec m > n. Il s'agit de montrer que T1 est
liée.
a) Si l'un des Wi est nul T1 est liée (cf. proposition 1.15, 5 ). Supposons donc que
tous les Wi sont non nuls. Puisque T est génératrice, w\ s'écrit :
wi =
ai vi H \-anvn
Comme w\ ^ 0, il existe, parmi les ai,... ,an, un ai non nul. Supposons, quitte à
changer la numérotation, que ai ^ 0. On pourra alors écrire :
1 /a2 an
vi =
wi v2 H 1 vn
— —
ai \ai ai
l'expression trouvée, on voit que x est combinaison linéaire de tui, i>2,..., vn. Puisque
x est arbitraire cela signifie que la famille {^1,^2, vn} est génératrice. ,
Nous avons donc remplacé dans la famille génératrice T Vun de ses vecteurs par Vun
des vecteurs de T1 et la famille ainsi obtenue est encore génératrice.
VJ2 =
Pi Wi + /h V2 H \~ PnVn
Si fo —
Ps —
* *
=
Pn =
0, on a W2 =
/?i w\ : la famille T1 =
{wi,W2> , wn} est
donc liée (car elle contient une famille liée) et le théorème est démontré.
Dans le cas contraire il existe un Pi parmi /32,..., Pn différent de 0. Supposons, pour
fixer les idées que /32 7^ 0 ; on pourra alors écrire :
V2 =
-W- W2
~
En raisonnant comme ci-dessus, on voit que la famille { wi, W2, ^3, , vn } est
génératrice.
Le théorème 1.18 s'en déduit immédiatement. En effet, soient B et B' deux bases.
Comme B est génératrice, si B' avait plus d'éléments que B elle ne serait pas libre en
vertu du Lemme. Or cela est exclu, car B' est une base. On a donc Card B1 < Card B.
Corollaire 1.19 -
Remarques. -
1. Si E =
{0} on pose :
dimKE =
0. On a évidemment :
£ =
{0} <=> dimK£ = 0
2. dimKKn =
n
3. La dimension d'un espace vectoriel E dépend non seulement de E mais aussi du corps
de base K (d'où la notation dim^i?)10.
En effet, considérons, par exemple, C muni de la structure d'espace vectoriel sur R
définie par les lois :
(a + i b) + (c + id) (a + c) + i (b + d)
=
Proposition 1.20 -
Soient E\,... ,EV des espaces vectoriels de dimension finie sur le même corps K.
Alors :
dimK(£i x x
Ep) =
dim^J^i H h dimKEp
En effet, soient {ai,... ,ani}, {&i,... ,&n2}) »{^ij Jnp} des bases de E±,
E2,...,EP. On vérifie facilement que la famille
{ (Oi, 0, . . .
,
0 )i=l...ni i (0, b^ 0 ... 0 )i=i...n2 ,-..,... (0, . .
, 0, k.
)i=i...np }
est une base de E\ x x
Ep. D
DCependant, lorsque le contexte sera clair, on écrira aussi simplement dim E au lieu de dimK.E.
1.6 Les théorèmes fondamentaux sur la dimension 19
En particulier, on a :
dimc Cn =
n , dimE Cn =
2n.
En général, pour montrer qu'une famille est une base, il faut montrer qu'elle est libre
et qu'elle est génératrice. Cependant, si la famille a exactement autant d'éléments que
la dimension de l'espace, on a le théorème suivant qui est d'un usage fréquent :
Théorème 1.21 -
-
Toute famille génératrice ayant n éléments est une base.
-
Toute famille libre ayant n éléments est une base.
En effet, soit G une famille génératrice ayant n éléments. D'après le théorème 1.17
on peut en extraire une base. Mais cette base extraite doit avoir n éléments car la
dimension de E est n : il s'agit donc de G elle-même.
De même, soit L est une famille libre ayant n éléments. D'après le théorème de la
base incomplète on peut éventuellement lui ajouter certains vecteurs de manière à
former une base. Mais si on lui ajoutait effectivement certains vecteurs, on aurait une
base formée de plus de n éléments, ce qui est exclu. Donc L est elle-même une base.
Proposition 1.22 -
1. d\mKF <
&\mKE
2. àimKF =
dimKE <^=> F =
E.
Démonstration :
Lx c L2 C L3 C C F
# # #
2. Si dim^F =
dimKE, il existe une base B de F ayant n éléments (n =
dimK E).
Mais F C E : B est donc une famille de E qui est libre et qui a n éléments.
En vertu du théorème 1.21 ,
elle est une base de E et donc elle engendre F,
c'est-à-dire Vect{S} =
E. Mais Vect{6} =
F, donc F =
E.
20 Espaces Vectoriels
REMARQUE. -
1. Une famille T =
{xa}ae^ d'éléments de E est dite génératrice si Vect{Jr} =
E,
c'est-à-dire, si \/x G E il existe une sous-famille finie {#i,... ,xp} C T telle
que :
x =
Ai X\ + + Xp Xp.
2. La famille T est dite libre, si toute sous-famille finie est libre, c'est-à-dire si :
VI C A, /finie :
J2 Xi Xi =
0 =» Xi =
0 ,
Vz G L
iei
3. Une famille T est dite base si elle est libre et génératrice.
On vérifie immédiatement :
Proposition 1.26 -
Exemple 2. -
SoitRN =
{ u : N—>R } l'espace vectoriel de toutes les suites réelles. Considérons la
n i y
Un
famille T =
{ei,e2,... ,en, -}nGN où:
ne rang
On vérifie immédiatement qu'il s'agit d'une famille libre, mais elle n'est pas une base,
car elle n'est pas génératrice. En effet, par combinaisons linéaires finies, on engendre des
suites (uojUi,..., un ...) dans lesquelles seulement un nombre fini des m sont non nuls
Pour les espaces de dimension infinie, on peut démontrer aussi un théorème d'existence
de bases, mais la démonstration dépasse le cadre de ce cours12 :
Théorème 1.27 -
Tout espace vectoriel non réduit à {0} admet une base. Plus
précisément :
Exercice 14.
Ei + E2 =
{x G E | 3xi G E, 3x2 G E2 : x =
x\ + x2}
Il s'agit effectivement d'un sous-espace vectoriel de E comme on le vérifie facilement.
Notons S Ei +E2. D'après la définition, tout élément de S est somme d'un élément
=
de Ei et d'un élément de E2. Mais cette décomposition en général n'est pas unique.
En effet, supposons Eifl^^ {0} et soit xq ^ 0, xo e E± D E2. Si x x\ + X2 (avec =
^ G ^) on a aussi la décomposition :
x =
(xi +x0) + (x2 -
xo)
avec Ei, X2 xq G E2. On voit donc qu'une condition nécessaire pour que
xi+xo £ —
Cette condition est aussi suffisante. Supposons, en effet, que Ei n E2 {0}, et soient —
x xi + #2, x
=
x'i + x2 deux décompositions de x sur E\ et £2. Par soustraction,
=
on a :
Xi
—
x'i =
X2
—
X2
x[ G Ei et y =
x2
—
X2 G E2 ; donc y G EinE2 =
{0}
c'est-à-dire y 0, d'où : Xi
= =
x\ et X2 =
x2-
Nous avons ainsi démontré :
11
II s'agit des polynômes formels (cf. Appendice A.2).
12Elle s'appuie sur l'axiome du choix.
22 Espaces Vectoriels
£ =
E1@E2
En d'autres termes :
£ =
Ei + E2 et
( £ EX+E2 tout élément de £ s'écrit
l
=
Ei^E2 =
{0} x =
X\+x2
avec X\ G E\ , x2 G E2
Proposition 1.30 -
de E. Alors E E\ 0 E2 =
si et seulement si pour toute base B\ et E\ et toute base
B2 de E2, {#1,62} esî une base de E.
En effet, soient B\ =
{va}aeA e^ ^2 =
X =
\lV0tl+--
s
+ \vV0ip '
+ fJbi Wfa H
v
+ llq Wf3q
'
v v
€Ex eE2
Définition 1.31 -
Ex), si E E1@E2. =
Corollaire 1.32 Soit E un espace vectoriel. Pour tout sous-espace vectoriel E\, il
existetoujours supplémentaire.
un supplémentaire de E\ n'est pas unique, mais si
Le
E est de dimension finie, tous les supplémentaires de E\ ont même dimension.
incomplète, il existe wp+i,..., wn tels que {i>i,..., vp, wp+i,..., wn} est une base
de E. En posant E2 Vect{wp+i,..., wn}) on obtient, d'après le théorème précédent,
=
un supplémentaire de E\ dans E.
la dimension de E\.
I
{ 1. E1nE2 =
{0}S
X
E =
E1®E2 <=>
I 2. dim E =
dim E\ + dim E2.
Ai Vi H h Ap Vp = -
0 et donc fJ>p+i 0,..., fin 0. Donc, la famille {i>i,..., vp, itfp+i,..., wn} est libre.
= =
Exemple 1. -
Dans R2 soient v et w
Vect{i;} et E2 =
Vect{w} les droites
vectorielles engendrées par v et par w
On a M2 =
Ei 0 E2 car {v, w} est une
Figure 10
Exemple 2 -
R3 = tt 0 Vect{<u}
car si {ei,e2} est une base de 7r, alors
Figure 11
24 Espaces Vectoriels
Exemple 3. -
Soit E =
M2 (M) et
El =
{B=(°c d)>6'C>d€K}
Ei et E2 sont deux sous-espaces de E et Eif)E2 =
{0}. De plus, toute matrice de E est
Proposition 1.34 -
En particulier :
Démonstration :
Supposons que dim Ei =
p, dim E2 =
q et dim Ei H E2 =
r.
r < q. Considérons une base {ai,..., ar} de Ei C\E2. Puisque la famille {ai,..., ar}
est libre, on peut la compléter en une base de E\ et aussi en une base de E2. On peut
donc construire :
Or tout vecteur de Ei +E2 s'écrit comme somme d'un vecteur de E±, et d'un vecteur
de E2 et donc il est de la forme :
x =
Ai ai + h Àr ar + Àr+i er_|_i -I \- Xp ep
+//1 ai + h {iT ar H- //r+i er+i + h \xqeq
c'est-à-dire, en posant Vi =
Xi + \ii, pour i
=
1,..., r :
x =
i/iai -i \-vrar-\- Ar+i er+i H h Ap ep + /xr+i er+i H h \iq eq
Par conséquent, la famille {ai,..., ar, er+i,..., ep, er+i,...,eq} engendre E± + E2.
Montrons qu'elle est libre.
Soit une combinaison linéaire nulle :
^îai H
s
h urar +
'
Ar+ier+i
^
+ + Xpep + /zr+i£r+i
' v
+ H- /ig£g
'
=
0 (*)
v v v
On &x-\-y + z =
0, donc z = —
Mais {ai,..., ar, er+i, , £q} est une base de E2) donc tous les coefficients de cette
combinaison linéaire doivent être nuls. En particulier, /xr+i 0,..., jj,q 0. On voit de
= =
1.9 Somme et somme directe de plusieurs sous-espaces 25
Ainsi la famille {ai,..., ar, er+i,..., ep, £r+i, >£q} est libre et donc elle est une
Nota -
La théorie et les résultats de ce paragraphe ne seront utilisés qu'au chapitre 6. On peut donc
Définition 1.35 Soient Ei,..., Ep des sous-espaces vectoriels d'un même espace
-
vectoriel E. On note :
E\-\ \- Ep =
{x e E\ 3xi e Ei,...,3xp € Ep : x =
xi-\ \-xp} .
de
JBi,..., Epj alors {Gi,..., GP} est une famille génératrice de E\-\ h Ep.
Démonstration : Soit x =
Xi + + xp un élément quelconque de Ei 4- + Ep,
avec Xi e que, puisque pour chaque i Xi est combinaison
Ei. On voit immédiatement
linéaire des éléments de la famille Gi, % est combinaison linéaire des éléments de la
famille {</i,...,£P}.
x =
(xi -
S =
Ei<&...®Ep
et on dit que £ est la somme directe des Ei.
La meilleure manière de comprendre ce qu'est une somme directe est donnée par la
caractérisation suivante qui généralise la proposition 1.30.
26 Espaces Vectoriels
Théorème 1.38 Soient E±v ,EP des sous-espaces vectoriels de E. Alors ces sous-
-
..
E =
Ei 0 Ep si et seulement si pour toutes bases Si,..., Bp respectivement
...
0
de i5i,..., Ep, famille {Si,..., Bp} est une base de E.
la
Démonstration :
(Pour plus de clarté, nous donnons ici la démonstration en dimension
finie. La démonstration en dimension infinie est exactement du même type et seules les
notations sont un peu plus lourdes).
Soient Si {vi,..., vr},..., Bv {wi,..., ws} des bases de E\,..., Ep et supposons
= =
1.36), elle est une base de £. Donc, tout x E £ s'écrit d'une manière unique :
X =
V
Ai Vi H h Ar Vr H
'
h fllWi-\
*
h flsWs
'
v v
eEi eEp
Les Xi et les fii étant uniques, x se décompose d'une manière unique sur les Ei, ce qui
veut dire que les Ei sont en somme directe.
Ai
'
vi H h Ar vr H
'
h fil wi H
*
fjb8 ws
'
=
0 a)
v v
eEi eEp
et remarquons que :
0E =
0El + + 0Ep b)
(où noté 0^ l'élément neutre dans E^ qui n'est autre que Ojs, pour souligner le
on a
Ai vi H h Ar vr =
0El , , f*iWi-\ h fis ws =
0es
Notons que £ E\ ® =
0 Ep est un sous-espace vectoriel de E et peut, bien entendu,
être différent de E.
1.9 Somme et somme directe de plusieurs sous-espaces 27
Ei =
Ox, E2
axe axe Oy. =
E\ —
plan Oxy, E2 =
Vect{t>}, (v £ E\).
£ =
Ei@E2= plan xOy. On a : S C M3. £ =
£1 0 E2. On a : £ = R3.
Figure 12 FiSure 13
Il faut donc bien distinguer les notions «les Ei sont en somme directe» (cf. Fig. 12)
et «E est la somme directe des Ei» (cf. Fig. 13) ce qui signifie :
-
les Ei sont en somme directe
-
Corollaire 1.39 -
dim(J5i ® ® Ep) =
dim E1-\ h dim E%
Corollaire 1.40 -
1. E =
E1 + --
+ EP.
2. dim E =
dim Ex + 4- dim Ep.
Comme nous le verrons, l'obstacle au fait que l'on puisse diagonaliser une matrice consiste en
ceque certains sous-espaces (les espaces propres), qui sont toujours en somme directe, peuvent avoir
une somme strictement incluse dans E.
28 Espaces Vectoriels
Théorème 1.41 -
(E1 + E2 + E3) H E4 =
{0} , (Ex
, + E2 + + £p_i) H Ep =
{0}
Démonstration : Supposons qu'il existe Xo ^ 0, (£i H
Xq G Ek) H £fc+i pour
h
un certain A; G {1,... ,p
—
1} et soit x =
a;H Yxv (avec #* G ^). On peut écrire :
x =
xi H h rcfc + #o + (Efc+i -
#o) +^/b+2 H + %P
£El-\--+Ek G-^fc+i
On aurait donc deux décompositions différentes de x sur les E^ et par conséquent les
Ei ne seraient pas en somme directe.
Réciproquement, supposons les conditions satisfaites et soient
X =
X±+ >
+ x
X —
Xi
A ~r ~r Xr
que la décomposition de x est unique, ce qui signifie que E\,..., Ev sont en somme
directe.
REMARQUE. —
Ex n E2 n n Ep =
{0}
ne suffit pas pour assurer que les sous-espaces E\,..., Ep sont en somme directe. Il en est
de même pour les conditions
Ei PI Ej =
{0}
(pour i^ j).
Figure 14
Exercices 29
EXERCICES
A(zi,£c2) : =
(A#i,0) (A G M)
E est-il un espace vectoriel ?
2 On note M+\{0}, l'ensemble des nombres réels strictement positifs. Montrer que les lois :
x®y : =
xy X.x: = xx (x, y G M+\{0} , A G R)
confèrent à IR+\{0} une structure d'espace vectoriel sur R.
3 Montrer que dans la définition d'espace vectoriel (définition 1.1), l'axiome A.2 (commu-
tativité de la somme) peut être déduit des autres axiomes.
4 Dans R3 muni des lois habituelles, lequel de ces sous-ensembles est-il un sous-espace
F={(,,^)eR3|{L-_^-0 }
vectoriel ?
G={(x,y,z)eR3 | (x -
y)2 = 2x + y}
5 Dans M2 (R) muni les lois de l'exemple 3, page 5, lequel de ces sous-ensembles est-il un
sous-espace vectoriel ?
E={AeM2im\A=(«2+cb _«)}
F={AeM2(R) M=( J l )}
|~6~| Soit R[Q'61 =
{/ : [a, b] —>
E} muni des lois de l'exemple 4, page 5. Lequel de ces sous-
1. C° ([a, b], R) =
{fonctions continues / :
[a, 6] —
M} ;
I 7
| Montrer que la famille {i>i,i>2} où v\ =
(1,2), ^2 =
(—1,1) engendre R2. Est-elle une
base ?
I 8| 1. La famille {vuv2iV3} C R3 où vi =
(l,l,-l),*u2 =
(2,l,3),v3 =
(0,-1,5)
est-elle libre ? Quelle relation linéaire lie ces vecteurs ? Est-elle génératrice ?
I 9
I Déterminer une base du sous-espace E de M2 {R) de l'exercice 5.
30 Espaces Vectoriels
10 Soit A4n (if), l'ensemble des matrices carrées d'ordre n à coefficients dans K, c'est-à-
dire des tableaux d'éléments de K disposés sur n lignes et n colonnes. On définit sur
\ 0 ann /
s On appelle trace d'une matrice A G Ain (if), la somme des termes de la diagonale
principale : TY A =
an + a22 + ...
+ ann.
2. Soit S l'ensemble des matrices de M.n{K) à trace nulle et telles que la somme des
éléments de chaque ligne est nulle. Montrer que S est un sous-espace vectoriel de
12 Soit S =
{P e R2 [x] : P = A+ (2A -
13 Soit P (x) un polynôme à cœfficients réels, de degré n. Montrer que P et ses n dérivées
forment une base de Rn \x].
14 Soit C°°([a, 6], E) l'ensemble des application C°° de [a, b] dans E. Montrer que les
familles suivantes sont libres :
a) {#, ex} b) {ex, e2x} c) {x, sin ce} d) {sin x, cos ce}
e) {1, e*, e2 '} f) {1, sinœ, sin2#, ..., sinnec}.
F-{-G.
Peut-on généraliser ce résultat au cas de n sous-espaces, c'est-à-dire : Vect (Fi U F2 U
... U Fn) =
F\ + ...
+ Fn ? Peut-on généraliser le résultat en dimension infinie ?
Exercices
1. Soient i*i, i*2, F3 trois sous-espaces vectoriels d'un espace vectoriel E. Montrer
que :
Fi D (F2 + Fz) D Fi H F2 + Fi n F3
s Soient
={^^(DiA=(_; 2tt_:b)}
:
G
={A6^2(R)|A=(_a6 ^J}
Montrer que Mi (M) = F 0 G.
18 Soit A G A^n (iC) et *A la matrice de «Mn (K) dont les lignes sont les colonnes de A.
(I0 2 -1\
lA
/ 1 0 8
Par exemple, si A = 1 3 alors = 2 1 1
1. Montrer que les ensembles Sn (K) et ^4n (X) des matrices respectivement
symétriques et antisymétriques sont des sous-espaces vectoriels de A4n (^0-
2. Déterminer une base et la dimension de Sn (K) et de An (K) pour n =
3.
Généraliser à n quelconque.
3. Montrer que Mn (K) =
Sn (K) 0 An (K)
I. Soit E l'espace vectoriel des suites de nombres réels et S C E l'ensemble des suites
vérifiant la relation de récurrence :
Un+2
=
%+l +2 Un (n > 0).
1. Montrer que E est un sous-espace vectoriel de E.
famille libre de S.
Un+2
=
OLUn+l+fiUn (a,/3GR).
On suppose que a et p ne sont pas tous deux nuls.
2. Chercher une suite de S du type an =rn. Montrer que r doit vérifier une équation
de 2e degré. Lorsque cette équation admet deux racines réelles et distinctes ri et
r2, en déduire l'expression de un en fonction de uq et de u\.
3. Montrer que lorsque l'équation de 2e degré admet une racine double r, les suites
= Tn
Q>n et bn nrn forment une base de S.
=
une base de S.
32 Espaces Vectoriels
III. Application. Déterminer le terme général des suites définies par la relation de
récurrence :
Un+2 =
5un+l —6 Un
Un+2 =
4un+i -
4 Un
Un+2 + Un+l + Un = 0.
y" +ay' + by = 0
où a, b £ R et y =
y (ce) la fonction inconnue (réelle de variable réelle.)
1. Montrer que les solutions forment un espace vectoriel S sur R.
1. Montrer que si elle admet deux racines réelles ri, r2, alors la solution générale
est :
y = AeriX + Ber2X
y =
(A + Bx)erx
3. Montrer que si l'équation caractéristique admet deux racines complexes
conjuguées a±i/3, la solution générale est :
y
= eax (Acos/3x + Bsin/3x)
INDICATIONS
1 Seul l'axiome B.4 n'est pas satisfait (ce qui montre qu'il ne peut être déduit des autres
axiomes).
| 2
I Vérifier les axiomes de la définition 1.1.
I
'
3
'
I On a: (1 + 1) (x + y ) =
B2
1 (x +y ) + 1 (x + y ) =
B.4
(x +y ) + (x + y ).
D'autre part :
(1 + 1). (x + î/) =:
B.3
(l + l)- + (l + l)-î/ =:
B.2
(l.a; + l.aO + (l.î/ + l.y) =
B.4
(x + x) + (y + y)
d'où: (z + y) + (x + y) =
(x + x) + (y + y).
En ajoutant à gauche —
4 F oui ; G non.
| 5
| Pour E, vérifier la stabilité (proposition 1.4) ou, mieux, écrire A = a l n n ) +
Mn —1 /"^(q n): -^est l'espace engendré par les trois matrices mis
mises en
0
1. Oui.
7 Le système in, _
h
admet une solution unique pour tous a et 6.
H 1. Le
A
système
(A M).
x\ v\ + X2 V2 + #31>3
La famille n'est pas libre. Relation de dépendance : 2i;i
G
= 0
vi +v$
a comme solution #i =
2A, rc2
—
=
—A, xs
=
=
0.
La famille n'est pas génératrice, car le vecteur v (a, 6, c) ne peut s'écrire =
sous
la forme v =
x\ v\ + X2 V2 + xs V3 que si: 4a
—
56 —
c = 0.
[9 I (0 g ) ( '
0 -l)'V2 o)eSt génératrice et libre.
10
l 1 0 0 \ °\
0 0 0
1. En =
, E\2 =
l 0 0 y V 0 0 /
0 .
Enn —
(plus précisément, Eij est la matrice dont tous les termes sont nuls sauf celui de
la i-ième ligne et j-ième colonne, qui vaut 1). dim M.n (K) = n2.
Cette base est dite base canonique de M.n(^)-
n(n + 1)
2. Engendré par {Eij}iK .. La dimension est 1 + 2 + + n = .
c -a
dimf=3
12 PeS <=> P =
A(l + 2z) + /z(-3z + x2).
Pi = 1 + 2 x et P2 = —3 x + rc2 forment une famille génératrice. Vérifier qu'il s'agit
d'une famille libre.
14 a) A x + fi ex =
0 =>- (en dérivant) À + fi ex = 0. En faisant x = 0 dans ces deux
n >
d'où : À =
fx = 0.
'
2/3 G Fi H F3. Donc x G Fi n (F2 + F3).
2. Non. Considérer, par exemple, les sous-espaces de la figure 14, page 29.
[rT] BasedeF:{Ai,A2}aveci41=^ jQ jV
( °
A2 =
Q _^ (_ j\
°
BasedeG:{Bi,S2}avecBi =
#2 =
I 1
t^_|_ tg ge servjr (je ces propriétés pour montrer la stabilité des lois dans Sn(K)
et dans An{K).
2. A E A3 (K) si et seulement si :
/ 0 a b \
A = 1 -a 0 c
\ y
iM
-6 -c 0
t ° x 0 0 1 0 0 0
= a -1 0 0 0 0 + c 0 0 1
V 0 0 -10 0 0 -1 0
En déduire que dim A3 (K) = 3. De même : dim S3 (K) = 6.
Dans le cas général, les matrices antisymétriques sont caractérisées par les
coefficients strictement au-dessus de la diagonale principale (la diagonale principale
est formée par des 0), et les matrices symétriques par les coefficients au-dessus de
la diagonale principale, la diagonale comprise. Par conséquent :
dimSn(K) =
r^+ll, dimAl(A-) = îi(!Lii)
(A
A\ (A *A\
) ( )*
l
+
+
faire n =
0, puis n = 1 et montrer que l'on peut résoudre le système en À et /i.
4. Un =
\ (-1)" \ -
2"-
IL 1. Soient ao, ai, bo, b\ des réels tels que ao 61 7^ ai 60 On considère les suites (an),
(bn) de S dont les premiers termes sont respectivement ao,ai et bo,bi. Soit
(un) G S. Montrer qu'il existe un et un seul couple A,/x de réels tels que :
( uq Aao + fJ,bo
|
=
wi =
Aai + /J>bi
En déduire que (an) et (bn) forment une base de £.
Exercices 35
ar —
(5 =
0. Si ri et r2 sont
les deux racines réelles distinctes, an = rn et bn =
r% forment une base de S et
un =\r? + (j,r%.
En faisant n =
0, puis n =
1, on détermine À et fi en fonction de uo et u\.
3. Même raisonnement.
4. On considère d'abord l'espace E' des suites complexes et £' le sous-espace des
suites de E' vérifiant la relation de récurrence. On obtient deux suites ipn =
j>n
Ite ipn lm ipn
_, ,
an = =
on = =
2
—
2%
,
.
Etant combinaisons linéaires de ipn et ipn, elles appartiennent à S' et, puisqu'elles
sontréelles, elles appartiennent à S. Vérifier qu'elles forment un système libre.
III1. un =
X2n+fj,Sn.
2. un =
(\ + n/j,)2n.
2ir 2nn
3. un A + M
.
= cos —
n sin .
{A
:
yo + B vo = a
Azo + Bwo =0
En déduire que yi et 2/2 est une base de S.
2. 3. Vérifications analogues.
Chapitre 2
La méthode du pivot
(ou méthode d'élimination de Gauss)
comprendre la théorie sur des exemples, ce qui dans ce cas est largement suffisant, car les
aspects théoriques sont d'une grande simplicité conceptuelle. Les raffinements de la méthode
et les questions liées au choix du pivot seront traités dans l'Appendice A.4.
( an x\ + ai2 X2 H h a\n xn =
b\
J a<i\ X\ + a22 #2 H h &2n %n =
&2
Les dij et les bi sont des éléments de K, donnés. Les Xi sont dites 'inconnues et
résoudre le système signifie déterminer les xi G K) s'il y en a, qui vérifient toutes les
équations.
La méthode du pivot est fondée sur la remarque suivante :
Propriété 2.1 L'ensemble des solutions d'un système linéaire ne change pas si l'on
-
37
38 La méthode du pivot (ou méthode d'élimination de Gauss)
2. multiplier une équation (premier et second membre ) par un scalaire non nul ;
Exemple 1. -
Li 2x + y-2z + 3w = 1
l2 |T|x + 2î/- z + 2w = 4
l3
{[s}x + 3y + 3z-3w =
b
On effectue des opérations élémentaires de manière à faire disparaître les deux coefficients
encadrés. Par exemple :
2x + y
-
2z + 3w =1
L'2=2L2-3L1 ^ y + 4z 5w 5
—
=
L'ensemble des solutions n'a pas changé. On répète maintenant l'opération sur les deux
dernières équations :
2x + y-2z + 3w= 1
y + 4z bw £
l'2
—
=
L'-3L' 0 =-8
Exemple 2. -
Li x + 2y —
z = 1
L2 < 2x + 3y+ z = 2
L3 x + 4y-6z = 2
1*1 x + 2y —
z = 1 Li x + 2y —
z = 1
2/ + 2^ 0
l>2=L/2—2Z/i 4 y + 3z 0 l2 <
=
= —
"
L'3=L3-Li 2y —
bz = 1 l'3+2L'2 ^
z =
l
On a donc z =
1. En reportant dans l'équation L2 on obtient la valeur de y : y
=
3. En
remontant maintenant dans l'équation L\ on trouve x : x 2y+z+ l = —
= —
6+ 1 + 1 = 4.
Le système admet donc la solution unique x = —
4, y =
3, z = 1.
la matrice des coefficients des premiers membres des équations. Par exemple, pour
l'exemple 1., la matrice du système est :
Lx 2 1 -2 3
L2 3 2 -1 2
L3 3 3 3 -3
On notera Li, L2,... Lk les différentes lignes de la matrice. La ligne L* sera dite zème
2 3 10 12 6
0 0 7 18 2 0
0 0 0 0 0 6 2
1° 0 0 0 0 0 ol
13 10 15 9
0 0| 7 1 8 2 0
0 0 5 10 6 2
0 0 0 3 2 15
Exemple 3. -
Ll
'
x + 2y-3z = 4 Li ( x + 2y- 3z = 4
L2 x + 3y+ z = 11 L'2=L-2 —
Li | y+ 4z =
7
<
L3 2x4- 5y-4z =
13 L'3=L3—2Li 11 y+ 2z =
5
k4 lly
| |3j/ + 12z
L4 + =37 L'4=L4-4Li = 21
Il s'agit maintenant d'échelonner les trois dernières équations. Le pivot est à présent le
coefficient de y dans l'équation L2 (c'est-à-dire 1).
z + 2 y--3z= 4
Li
y + 42 7
11
=
L'n
^2
<
1 2* 2
L3—L2
=
I/4 3L2
1
1
° =
0
4 6 + 3
= 1. Le système = —
= admet donc la
solution unique x 1, y 3, z =1. = =
Exemple 4.
Li (x —
3y + 4z —
2w =
5
L2 { x y + 9 z w = 7
— —
L3 [x-2y-{-7z-2w =
9
f
Li rx —
3y + 4z —
2w =
b Li x —
3y + 4z -2k; =
5
L2=L2—Li <
2y + 5z+ w = 2 -
->
l2 < 2y + 5z + w = 2
L3=L3-Li y + 3z = 4 2L3
—
L2 z —
w =
6
<
Le système est sous forme échelonnée. En donnant à w une valeur arbitraire À, on met
en évidence le système dont la matrice est la matrice encadrée, qui admet une solution
unique pour chaque choix de À :
x —
3y + 4z =
5 + 2A
2y + hz = 2- A
z =
6 + A
En résolvant, on trouve :
x = -26-8A y- -9-3A 2 = 4+ A w = A
z =
-61-llA , y =
-14-3A ,
2 =
6 + A ,
w = A
Les exemples que nous venons de traiter illustrent suffisamment la méthode pour
résoudre un système d'équations linéaires.
0x1+0x2 + -'
+ 0xn =
0
elle peut être écartée. Une fois éliminées toutes ces équations, on aboutit
à un système du type :
0%
0>ps \Xs~r 1
Û-pn Xfi
—
^ous verrons en Appendice A.4 les précautions qu'il faut prendre dans le choix du pivot, de
manière à contrôler les erreurs dues aux approximations numériques dans les calculs.
42 La méthode du pivot (ou méthode d'élimination de Gauss)
Alors le système admet une et une seule solution que l'on obtient en résolvant d'abord
la dernière équation et en remontant jusqu'à la première.
On donne alors aux variables libres des valeurs arbitraires Ai,..., Am, on porte les
Xi au second membre et l'on est ramené précédent
au cas : il existe alors une et une
seule solution pour chaque choix de Ai,...,Am c'est-à-dire, une infinité de solutions
Exemple :
( + 2y -2z + 3w 2 + 2y-2z + 3w 2
'
z,i x = x =
L2<k2x+4y 3z+4w =
5 l'2=l2-2L1 z-2w = l
Lx ( x + 2y-2z + 3w = 2
L2-2L1 < Z —
2w = 1
L'3-2L'2 [ 0 =
0
-2w = l
|=2-2À-3jLi
"
x-2z
z = 1 + 2/x
d'où les solutions x —
4 —
2A + /i, y =
A, z =
1 + 2/x, w =
\i.
Exercices 1. 2. 3.
an #i + «12 #2 + + «In Xn =
0
«21 #1 + «22 #2 + + «2n %n =
0
«pi #1 + «p2 #2 +
* ' '
+ «pn #n =
0
Un tel système
toujours, bien entendu, au moins une solution, la solution nulle :
a
xi X2
=
xn=
0, dite solution triviale. Il est intéressant de savoir si le système
= =
REMARQUE -La dimension de l'espace des solutions est égale au nombre de variables
libres qui apparaissent dans la forme échelonnée.
Supposons avoir mis le système sous forme échelonnée et avoir trouvé k équations.
Il yaura donc k inconnues principales et n k variables libres. Quitte à changer la —
numérotation des x^ on peut supposer que les variables libres sont a?i,... >xn-k et
les variables principales xn-k+i>>..., xn. Une solution sera donc du type :
*-> —
Xn-k+i
=
ai Ai + + an-k An_fc
#n-fc+2
=
b± Ai + + bn-k An_fc
xn =
h Ai + + ln-k An-/c
(n—k
n—k n—k \
S =
Ai (1,0,..., 0, ai,6i,...,Ji) + À2 (0,1,0,...,0, a2, 62,...,Z2)
h Xn-k (0,0,..., 1, an_fc, bn-k,..., ln-k)
k solutions :
(1,0,..., 0), (0,1,..., 0)... (0,..., 0,1) ). Elles forment un système de générateurs,
car la solution générale est combinaison linéaire de ces solutions. Il est facile de voir
qu'il s'agit d'une famille libre et donc d'une base de l'espace des solutions2. D
Comme nous le verrons au paragraphe 4, cela tient du fait que la "matrice engendrée" est
échelonnée.
44 La méthode du pivot (ou méthode d'élimination de Gauss)
REMARQUE -
{x
Exemple :
2y-3z +
+ t-w =
0
x3y 4z
+ —
+w =
0
2x + by-7z + t =0
x + 2i -3z + t- w =
0
y
-
z-t + 2w =
0
Les variables libres sont z, t, w ; l'ensemble des solutions est donc un sous-espace vectoriel
de dimension 3 de M5. La solution générale est :
x =
À —
3/z + hv , y = X + fi —
2v ,
z =
\> t =
\i ,
w = v
c'est-à-dire :
S =
(À 3 n + 5 v, À + \i 2 v, À, \x, v)
— —
Exercices 4. 5. 6.
Exemple :
Vérifier que les vecteurs de M3
Vl =
(1, -2, -3), v2 =
(2,3, -1), v3 =
(3,2,1)
forment une famille libre.
Il s'agit de savoir si x\ v\ + X2 V2 + #3 ^3 =
0 => xi =
0, X2 =
0, xz =
0 c'est-à-dire si
le système :
zi + 2x2 + 3z3 =
0
3#l —
X2 + X3 =
0
Ll ( Xi + 2X2 + 3X3 =
0 Lx ( Xi + 2X2 + 3X3 = 0
d'où : xi =
0, X2 =
0, X3 =
0. La famille est donc libre.
2.3 Application aux familles libres et aux familles génératrices 45
vi =
(1,1,0,2) v2 =
(-1,0,2,1) % =
(0,1,2,3) v4 =
(1,3,4,8)
Il s'agit de déterminer les Xi (i =
1,..., 4) tels que
Xi Vi + X2 V2 + X3 V3 + X4 V4 =
0
Li X\ X2 + X4 =
0 L1 X\
—
X2 + X4 =
0
La [2Xi + X2 + 3 £3 +8X4 =
0 L4=L4-2Li 3 X2 + 3 £3 + 6 £4 =
0
Xi
—
#2 + X4 =
0
u X2 + X3 + 2 £4 =
0
£3-214 I 0=0
£4-3^2 l 0=0
En posant X3 = À £4 =
M> on trouve :
£2 = —
A —
2/jL
xi = —
À —
3/1
d'où les relations :
(À + 3/-0 vi + (À + 2/z)i>2 -
Au3 -m«4 =
0 (A,/iGR)
En donnant au couple (À, fj,) les valeurs (1,0) et (0,1) on obtient les solutions
indépendantes :
vi + V2 —
V3 =
0 et 3 vi + 2 V2 —
V4 =
0.
(1,-2,0,3), V2 =
(2,3,0,-1), i>3 (2,-1,2,1) et exprimer v en fonction dev\,
=
V2, V3.
Il faut que l'on puisse trouver xi, X2, X3, X4 G M tels que :
v =
xi vi + X2 V2 + £31*3;
-2xi + 3x2 —
X3 =
9
2x3 = -4
3xi —
X2 + X3 = —
2^3.
46 La méthode du pivot (ou méthode d'élimination de Gauss)
Il faut montrer que tout vecteur v G M3 appartient à Vect{vi, t>2, ^3} c'est-à-dire que
V (a, 6, c) G R3, le système (a, 6, c) =
x\ v\ + X2 V2 + X3 V3 admet au moins une solution.
On a :
Li Xl = a Li xi = a
L2 < Xl + X2 + X3 = b >
L2-Li < X2 + X3 =b —
LZ Xi + X2 X3 =
C L3-L1 X2 X3 = C a
— —
—
< <
xi
f
= a
b + c-2a
X2 =
> <
g
b-c
Xi =
On a donc une solution xi X2, X3 pour tous a^b, c\ la famille {^i, t>2, ^3} est donc
génératrice.
ui =
(1,-1,0,2), V2 =
(2,1,3,1), wi =
(l,l,l,l), W2 =
(3,-4,4,2).
Déterminer une base de F C\G.
À vi + \x v2 =
awi + p W2
c'est-à-dire :
A + 2/x =a + 3/3
-A+ fi =
a-4/3
SfjL =a + 4f3
2A + M =a + 20
2.3 Application aux familles libres et aux familles génératrices 47
\ + 2fj,-a-3/3 =
0 (X + 2/jl- a-3/3 =
0
l2 A+ /z-a + 4/3 =
0 L1+L2 3^-2a+ /3 =
0
3fi-a-4:p =
0 Sfj,- a-4/3 =
0
La { 2A+ tM-a-20 =
Q L4-2Li -3^ + a + 4/3 =
0
\ [Tj + 2^ -
a -3/3 =
0
3m 2a + /3 =
0
[ô] -5/3 = 0
À, jit, a sont les inconnues principales, /3 la variable libre. On trouve facilement, en fonction
de/3 :a =
5/3, m =
3/3, A 2/3.=
F H G est donc défini par l'un des deux membres de (*) où À, /z, a sont exprimés en
fonction de /3. On trouve :
(8 /3, /3, 9/3, 7 /3) ce qui veut dire que F n G est engendré par
le vecteur (8,1,9,7).
(1,3,-2,2,3), ^ =
(1,4,-3,4,2), t* =
(2,3,-1,-2,9).
Une équation quelconque du système est du type :
ax\ 4- b X2 + c X3 + d X4 + e X5 =
0
En imposant que les composantes de vi, V2, V3 vérifient cette équation, on trouve le
système :
Ll ( a + 36-2c + 2d + 3e =
0 \~â} +36 -2c + 2d + 3e =
0
En donnant aux variables libres, c, d, e les valeurs {1,0,0} {0,1, 0} et {0,0,1} on trouve
{-
,
le système :
xi+ x2 + x3 =
0
4 xi —
2 X2 + X4 =
0
—6x1 4- X2 + X5 =
0
si Von effectue sur les vecteurs de la famille l'une des «opérations élémentaires»
suivantes :
Démonstration :
a) Evidente.
b) D'après a) il suffit de montrer que si
E =
Vect{^i,...,vp} et F =
Vect{kvi,...,vp} (avec k ^ 0),
alors on a : E =
F.
Soit y y \i\ (k V\) + M2 v2 H
G F : =
1- Mp vp 5 on a immédiatement y =
(mi k) V\ +
M2 v2 H h /J>P vp c'est-à-dire y G E.
Réciproquement, si y G E, c'est-à-dire y est de la forme y \\V\-\ \- =
Xp vpy on a :
y
=
-r (k vi) + A2 v2 H h Xp vp
c'est-à-dire y G F.
V2, V2,...,Vp}.
Soit y G Vect{î;i + v2, v2,..., vp} :
y =
Mi (vi + v2) + M2 v2 + h \iP Vp
On a :
y =
Mi vi + (/X2 + Mi) v2 H h Mp ^p
^p}.
Réciproquement, soit y G Vect{i>i, t>2,... , t>p} : y
=
Ai t>i H- + Xp vv. On peut
écrire :
y =
Ai (vi + î;2) + (A2 -
Ai) v2 + A3 v3 H h Ap vp,
et donc y G Vect{î;i -f v2, i>2, , ^p}.
3Bien que l'algorithme que nous allons expliquer soit extrêmement simple et pratique, l'on ne
doit pas perdre de vue les exemples du paragraphe 3. : on peut oublier une technique, il ne faut pas
oublier ce qui est la démarche naturelle du raisonnement.
2.4 Utilisation pratique de la méthode du pivot 49
Soit E un espace vectoriel de dimension finie, {ei,..., en} une base de E (que nous
noterons dans la suite simplement {e^}). Comme nous l'avons vu au chapitre 1, (cf.
proposition 1.13), tout vecteur v G E peut être caractérisé par un n-uplet d'éléments
de K (ses composants dans la base {e^}).
Définition 2.4 -
engendrée par les vecteurs Vi dans la base {e^} (ou plus simplement : matrice des
vecteurs Vi) la matrice dont les lignes sont les composantes des vecteurs vi,...,vp
Il est clair qu'aux opérations élémentaires du théorème 2.3 correspondent les opérations
élémentaires sur les lignes de la matrice engendrée, que nous avons vues au §1 (changer
les lignes entre elles, multiplier une ligne par un scalaire non nul, ajouter à une ligne
une combinaison linéaire des autres lignes).
Comme nous l'avons vu au paragraphe 1., on peut toujours effectuer des opérations
élémentaires sur une matrice de manière à la mettre sous forme échelonnée. Du
théorème 2.3 on a immédiatement :
Corollaire 2.5 -
Théorème 2.6 -
Démonstration : Remarquons d'abord que les lignes non nulles de A' fournissent
une génératrice de Vect{?;i, ...,vp}, d'après le corollaire 2.5. Il suffira donc de
famille
montrer qu'elles forment un système libre. La démonstration (cf. exercice 15) est plus
4 a b c d
0 0 2c' d!
A'
0 0 0 0-1 ^3
0 0 0 0 0, VA
Vérifions que {^1, i>2, ^3} est une famille libre, c'est-à-dire que :
Xi Vi + X2 V2 + Xs V3 =
0 => Xi =
0, X2 =
0, X3 =
0.
4Au chapitre suivant, nous construirons des matrices en mettant les composantes de certains
vecteurs colonnes. On aurait pu adopter ici la même convention avec les changements opportuns
en
dans les énoncés des résultats. Cependant nous avons préféré adopter cette définition d'une part
pour suivre de près la théorie développée au paragraphe 1. (où la notation en ligne s'impose) et
d'autre part pour souligner la signification différente des matrices que nous introduirons (et éviter,
par exemple, que l'on soit tenté d'effectuer des opérations élémentaires sur les matrices qui seront
introduites au chapitre suivant).
50 La méthode du pivot (ou méthode d'élimination de Gauss)
AxX 0
'
=
ax\ =
0
bXi +2 £2 =
0
CX\ +dX-2 =
0
l dx\ + d!x<i —
xs =0
APPLICATIONS
Exemple :
vi =
(1,1,0, -1), v2 =
(-1,1,1,0), vs =
(0,2,1, -1)
et les éventuelles relations linéaires.
1 1 0 1 1 0 -1 vi
-111 0 2 1 -1 v'2=vi+V2
0 2 1 v3 0 2 1 -1 *>3
110-1
0 2 1-1 v2
0 0 0 0 v3='y2-'y3
Ainsi v\ =
(1,1,0, —1) et v2 =
(0, 2,1, —1) forment une base de Vect{vi, t>2, ^3}.
D'autre part v3 =
0 c'est-à-dire v2 —
V3 =
0 ou encore v\ + v2 —
V3 =
0, ce qui donne :
relation linéaire liant {vi, v2, V3}.
Exemple :
vi =
(1, 2, -1,0,1), V2 =
(2,1,1,1,1), v3 =
(3, 2,0,1,2)
forment une famille libre de M5. Déterminer deux vecteurs w\, w2 de M5 de manière a ce
1 2 -1 0 1 Vi i 2 -1 0 1 Vi
2 1 1 1 1 V2 — 0 -3 3 1 -1 v'2=v2-2v1
3 2 0 1 2_ v3 _o -4 3 1 -1_ v'3=v3-3vi
'1 2 -1 0 r
0 -3 3 1 -i v2
Puisque l'on n'obtient pas de lignes nulles dans la matrice échelonnée, la dimension de
l'espace F engendré par t>i, V2, V3 est 3. {t>i, ^2, V3} est donc une famille libre, car elle est
une base de F (notons que {vi,v'2, ^3} est aussi une base de F). Considérons la matrice :
1 2 -1 0 r VI
0 -3 3 1 -1 -'2
0 0 -3 -1 1 <
0 0 0 1 0 W\
0 0 0 0 1 VJ2
Cette matrice est échelonnée, donc la famille {viiv2iv,^wi,W2} est une base de R5.
D'après la proposition 1.30, page 22, {wi,W2} est une base d'un supplémentaire G de
F:
R5 = F© G
Donc B =
{viy V2, V3 , wi, W2 } est une base de R5 (toujours d'après 1.30 ).
base de F base de G
Exemple :
Soit.F Vect{vi,V2,v3},
=
où : vi =
(1,-1,0,2), v2 (2,1,3,1),^ = =
(4,5,9,-1) et
G =
Vect{wi,W2} où : w\ =
(1,1,1,1) et W2 (3, —4,4,2).
=
On a : F + G =
Vect{vi, ^2, t>3j wi, ^2}. On commence par extraire une base de F et
une base de G.
52 La méthode du pivot (ou méthode d'élimination de Gauss)
de F :
2 1 3 1 v2 > 0 3 3 -3 v2-2v1=v,2
4 5 9 -1 V3 0 9 9 -9_ V3—4vi=v'3
'1 -1 0 2" VI
0 1 1 -1 ^—vU
3 ~v2
0 0 0 0 v's-Zv'2
Ainsi B\ =
{v\, t>2'} est une base de F.
Base de G :
0 1 1 -1 0 1 1 -1
—
1 1 1 1 0 2 1 -1
-
Ul=Wl —V\
0 1 1 -1 0 1 1 -1 <
-> —
0 0 -1 1 u\ —2u'<2 0 0 -1 1
(0,0,-1,1).
Exemple :
dim (F n G) =
dim F + dim G -
dim (F + G) = 2 + 2 -
3 = 1
W2
—
2V2) =
0
Et donc, en portant à premier membre les vecteurs de F et à second membre les vecteurs
de G:
2 vi —
9 v'i =
5 w\ -f- W2
e f e g
53
Exercices
Notons z le vecteur donné par l'un des deux membres de cette équation. On a z G F et
EXERCICES
a) \ Sx- y + 2z = 7 b) < x + y + 4z -9
I
=
îx + 2y-2z 9 7x + 5y+ 14
{x-3y
= z =
+ 7z = -4
x +2y-3z = 6
7x + 4y z = 22
x-\- y
—
z =1
x + 2y + a;z =2
2z + ay + 2;z =3
x + 2y 3z —
= a
3x + 8y- Uz = b
2x + 4z = c
{2x-3y
4 Le système suivant
+ 32 + t =0
x-4y +t =0
ce- y + 2z + t = 0
!x
une
y -f- 2 £+ii> =0
x+ y +2z- t =0
2x-2y +3z- t + 2w =0
4x-2y + 6z-3t + 3w =0
| 6
I Montrer qu'un système homogène dans lequel les coefficients d'une inconnue sont tous
| 7
| Montrer, à l'aide de la théorie sur les systèmes homogènes le résultat du corollaire
1.19, 1. : dans un espace de dimension n, toute famille ayant plus de n vecteurs est
V! =
(1,-1,0,2), v2 =
(1,0,1,2), v3 =
(1,3,5,7), v4 =
(0,2,3, a)
forment-ils une base de M4 ?
54 La méthode du pivot (ou méthode d'élimination de Gauss)
2. Dans le cas où la famille est liée, déterminer les relations linéaires qui lient ces
1, P3 =
(i- l)2 forment une base de R2[i\.
Déterminer les coordonnées du vecteur P = 2 £2 —
0 Déterminer les éventuelles relations linéaires liant les polynômes suivants de M3 [t] :
6£ + 4.
| 11
I Montrer que les matrices
^=(_9 i),J^=(^ fi ) »
^ =
( 1 —
1 ) ^orment
une base de l'espace vectoriel £2 (M) des matrices symétriques d'ordre 2. Décomposer
cette base la matrice M [ ).
V6
sur =
c7
,
vi =
(1,3, -2, 2, 3), v2 =
(2,7, -5,6,5),ti3 =
(1, 2, -1,0,4)
et G le sous-espace vectoriel de M5 engendré par
W! =
(1,3,0,2,1), w2 =
(2, 7, -3,6,3), w3 =
(1,1,6,-2,-1).
1. Déterminer une base de F, une base de G, une base de F + G et une base de
FnG.
13 Traiter les exercices 8, 9, 10, 11, 12, par les méthodes illustrées au paragraphe 4.
vi =
(1+t, l + 2i, i )
v2 =
( 2, 4- », -1 )
V3 =
( 0, —1 + 2* ,
2 + 0
sont liés si C3 est considéré comme espace vectoriel sur C et sont libres si C3 est
considéré comme espace vectoriel sur R.
15 Démontrer le théorème 2.6 : les lignes non nulles d'une matrice échelonnée forment un
système libre.
INDICATIONS
1 a) Incompatible.
b) Solution unique (1, 2, —3).
c) Une infinité de solutions à 1 paramètre :
(2 —
À, 2 + 2 À, À).
H En échelonnant, on trouve :
x +y —
z = 1
y + (a + 1) z =1
(2 + a) (3 a) -
z =3-a
HT] c+26-8a =
0.
[IT] (xtyiztt) =
(5X-fMt A + /x, -2A, 2A, 2/x) =
A(5,1, -2,2,0) + M(-l, 1, 0,0, 2).
6 Si, par exemple, l'inconnue Xj n'apparaît pas dans le système, le système admet la
solution (0,..., 0, 1 ,0, ...,0).
système homogène en n équations et m > n inconnues, ayant donc une solution non
triviale.
X\ + X2 + X3 =0
—xi + 3 xs + 2 X4 = 0
X2 + 5 X3 + 3 £4 =0
2 cci + 2x2 + 7x3 + a X4 =0
On trouve oj ^ 5.
2. Pour a =
5on trouve v\ —
2 ^2 + vz —
V4 =
0. Donc dim Vect{t»i,..., V4} = 3 et
{viy V2> V3} est une base.
3. Si a 7^ 5 {^î,... ,^4} est une base de R4 et v G Vect{vi,..., ^4} pour tout
k G M. Pour les composantes, on résout le système trouvé en 1. avec second
membre (—2, /c, 1, 3). On trouve :
xi 9 + 4 k + 5 r,
= —
#2 16 + 5 /c + 10 r, #3 3 k = = — — —
5 r, £4 =
5 r
2 + fc
avec r =
5
.
a
—
2. On trouve :
v = —
i>i + 6i>2 —
i>3-
ai2 + 6t + c =
xi + x2 (t -
1) + x3 (t -
l)2.
En identifiant les coefficicents de 1, t, t2 on est amené au système :
| x\ X2 + X3 c
—
=
< X2
—
2x3 = b
( X3 = a
(t —
1) + 2 (t —
l)2.
| 11
| Puisque dim<S3 (M) 3 (cf. exercice 18, chapitre 1),
= il suffît de vérifier que la famille
est génératrice. En écrivant xA + yB + zC= M on est amené au système :
( x + y z = a
l
-
-2x + 3y + z = b
[^ x + 6y 3z = c
—
On trouve :
M = -
12 On a : 3i>i —
V2
—
V3 =
0, bw\ —
2w2 —
w% =
0, dim F =
2, dim G = 2. Une
famille de F + G est, par exemple, {^i, -U2, wi, VJ2}- On trouve la relation
génératrice
vi V2 w\ + W2 = 0. Donc dim (F -f G) = 3 et par conséquent dim F C\G 1. Une =
— —
base de F + G est, par exemple, {vi, i>2, wi}. Base de F n G : (1, 4, —3, 4, 2).
{a
lesystème :
+ 36-2c + 2d + 3e = 0
2a + 76-5c + 6d + 5e =
0
a + 36 + 2d + e = 0
On trouve a = 7e + 4d,6 = 2e —
7xi + 2x2 + #3 + X5 =0
4xi 2x2 + X4 —
=0
13 Calculs standard.
14 En échelonnant la matrice
1 + 2 l + 2i i
2 4-2 -1
0 -l + 2i 2 + 2 ^3
on trouve V3 =
(1 —
i)vi —
V2.
1 1 1 2 0 1
2 0 4 -1 -1 0 v2
0 0 -1 2 2
1_ *>3
"1 1 1 2 0 1"
0 -2 2 -5 -
1 -2 i>2 2vi
0 0 -1 2 2 1 *>3
Soient v\,..., vn les vecteurs lignes d'une matrice échelonnée. La matrice engendrée
par V2, ., vn est échelonnée ; donc dim Vect{v2,. ., vn} = n
—
1, d'après l'hypothèse
de récurrence. Montrer que v\ g Vect{i>2, vn} et , que dim Vect{vi, i>2,..., vn} = n.
Chapitre 3
La structure d'espace vectoriel ne devient vraiment intéressante que si l'on introduit la notion
d'application linéaire. Il s'agit des applications entre espaces vectoriels qui, dans un sens que
nous allons préciser, «conservent la structure d'espace vectoriel».
Dans ce chapitre, qui est un peu l'axe de tout le reste du cours, nous allons donner
essentiellement les définitions et les résultats élémentaires de base.
Définition 3.1 Soient E et E' deux espaces vectoriels sur le même corps K et f
-
a)f(v + w) =
f(v) + f(w), Vv,weE;
b) f(\v) =
\f(v) , \/v£E,\/\eK.
L'ensemble des applications linéaires de E dans E' est noté Ck (Ey E') ou, plus
simplement, C(E, E').
REMARQUE -
Exemple 1. -
f: E —> E'
v l > 0
57
58 Applications linéaires et matrices
Exemple 2. -
idE: E —> E
v l > v
Exemple 3. -
/ : R3 — R2
(x\,X2,Xz) '
(2xi+X2, X2~#3)
En effet, si v =
(xi, x2, #3) et w =
(yi, 2/2, 2/3), on a :
=
\2 (xi + 3/1) + (X2 + 2/2), (a?2 + 2/2) (x3 4-
2/3))
2/3))
-
=
f(2a;i + x2) + (2yi + 2/2), (x2 -
£3) + (2/2 -
=
/ (v) + / (tu)
/(Au) =
/ uAxi, Az2, Ax3)J =
/ ((2Axi + Ax2, Xx2
Xx3)j
-
=
f(\(2xi + x3, x2 -xsj) =
A/ f(2xi + x3, x2 -
x3)j
=
A/(v)
Comme on peut s'en rendre compte par cet exemple, la linéarité de / tient au fait
que les composantes x% dans l'espace d'arrivée (ici R2) apparaissent toutes à la
puissance 1 : plus précisément chaque composante dans l'espace d'arrivée est un polynôme
homogène de degré 1 en les Xi. Nous verrons cela d'une manière plus précise dans la
suite.
/: M3 —> R2
(#1, #2, #3) ' >
{x1—X2y X2~\-Xz)
n'est pas linéaire (ni a), ni b) de la définition 3.1 ne sont satisfaites à cause du terme
au carré). De même :
/: R3 —> R2
(#11^2,353) ' >
(2rriiC2 , #2+3a:i)
n'est pas linéaire (2x1X2 est un polynôme homogène de degré 2 en x\ et en #2), pas
plus que :
/: R3 — R2
(rci,£2,£3) ' >
(2 xi+3 ^2+^3+5, xi—2 0:2+^3)
Exemple 4. -
/ : R3 — R
(xi, X2,xs) I > —
a?i+2as2+5 #3
Exemple 5. -
D(f + 9) =
(f + gy f' + 9' Df = =
+ Dg
D(\f) (\f)' \f = =
si A G M et /, <?e£>([0,l],R)
Exemple 6. Soit E =
E\ 0 Ei ; alors tout vecteur x e E s'écrit d'une manière unique
-
X =
Xi + #2 OÙ El G £?i et #2 G E2.
L'application :
prx : E? —> E
X±-\-X2 ' *
El
Figure 1
Exemple 7. -
t : E —> E
v I
>v+vq
Exercices 1. 2. 3. 4.
Proposition 3.3 -
rg/ :=dim(Im/)
60 Applications linéaires et matrices
2/i + 2/2 =
/ (#i) + / (sc2) =
/ (xi + X2) ; donc : yi + y2 G / (F)
De même si y G / (F) (y =
/ (x) avec # G -F), on a :
\y =
\f(x) =
f(\x)\ donc: Ày G / (F)
Proposition 3.4 -
5oz£ / G £ (£,E') et
Keif:={xeE\f(x)=0}
Ker/ sous-espace vectoriel de E appelé noyau de /.
2
es£ un
En effet si z, 2/ G Ker /, on a :
/ (s + y) =
/ (s) + / (y) =
0 + 0 =
0 ; donc : x + y G Ker /
/(Ào;) =
À/(aO = AO =
0 ; donc: As G Ker/
Proposition 3.5 -
Ker/={0}.
En effet, soit Ker/ =
{0} / (x) f (y)
et x, y e E tels que 0 d'où / (x) =
f (y). On a :
-
=
Exemple 1 Soit E -
E\ =
© E2 et pr1 le projecteur sur Ei parallèlement à E<z
(cf. exemple 6., page 59). On a : Im pi^ =
E\ et Ker prx =
£72, comme on le vérifie
immédiatement.
Exemple 2 -
Soit :
D :R[x]—>R[x]
p p/
'—>
Le noyau de D est formé par les polynômes constants. D'autre part, Im D = R [se], car si
P G R [a:], Q (x) :=
Jo
/ P (£) cft est un polynôme et on a Q' = P c'est-à-dire £><2 = P.
Exemple 3 -
Soit :
ou:
{ j/' =
2x+ y-Zz
{x
+ y
-
2 = 0
2x + y
-
32 =
0
3z + 2y -
Az = 0
On trouve facilement x =
2À, y = —
{x
:
+ y
—
z =
x'
2x + y
-
3z =
y'
3x + 2y -
4z = z'
Il s'agit donc de savoir pour quelles valeurs de x\ y\ z' ce système est compatible. En
échelonnant, trouve
(x-\-y
on :
z x' (x y z=xl
l
—
= — —
z' =
0.
z' =
0.
Démonstration :
1. Supposons la famille {vi}ieI libre et soit / injective. Pour toute famille extraite
{vai,..., vaq}, la relation
Ai/(vai) + -"
+ Ag/(t;aJ =
0
Ai vai + + Xq vaq =
0
f (x). D'autre part la famille {vi}iej est génératrice, donc x est de la forme
x =
Ai vai + h Ap vap
d'où : f (x) =
Xi f (vai) + + Xpf(vap)> y est donc combinaison linéaire
d'éléments de la famille {f (vi)}ieI et, puisqu'il est choisi arbitrairement dans
Théorème 3.7 -
pour k =
1,..., n on pose : / (e*) =
e'k ;
-
si x =
XX=i xk ek on pose : f (x) =
Y2=i x* f (e*) =
ELi xk e'k
(en d'autres termes, on définit / sur la base de E et on la prolonge par linéarité sur
E tout entier). On vérifie facilement que / est linéaire et bijective (la vérification est
laissée en
exercice).
REMARQUE. -
canonique.
Dans le où les espaces E et E' sont de dimension finie, les dimensions du noyau
cas
et de l'image de / sont liées par la relation donnée dans le théorème suivant, l'un des
plus importants en Algèbre Linéaire :
dimE =
rg / + dim(Ker/)
Démonstration :
Supposons dimE =
n, dimKer/ =
r et montrons que dim(Im /) =
n —
r.
Soit {iui,..., wr} une base de Ker /, et {vi,... ,i>n-r} une famille de vecteurs telle
que {wi,..., wr, i>i,..., vn-r} soit une base de E. Soit B =
{f (t>i),..., / (vn-r)}.
Montrons que B est une base de Im /.
-
B engendre Im /.
Soit, en effet y =
f (x) G Im /. Comme x G £, x est de la forme x =
ai w\ H +
ar wr + b\ vi + h bn-r vn-r. On a donc :
y =
ai f(wi) + + ar f(wr) + 6i f(vi) H h bn-r /(vn-r)
=
&1 f{vi) + + bn-r f(vn-r)
ce qui montre que B engendre Im /.
-
B est libre.
Ai vi H h Xn-r vn-r =
ai wi H \-arwr
c'est-à-dire :
Al Vi +
*
+ Xn-r Vn-r
~
aiWi
— - ' —
arU)r =
Q
Puisque la famille {i>i,..., vn_r, Wi,..., wr} est libre, les coefficients de cette
combinaison linéaire sont tous nuls ; en particulier : Ai 0,..., An_r
= =
0, c'est-à-dire
B est libre. D
3.3 Matrices et applications linéaires 63
surjectivité :
Corollaire 3.9 -
finie).
Alors les propriétés suivantes sont équivalentes :
1. f est injective.
2. f est surjective.
3. f est bijective.
lmf E' =
(cf. proposition 1.22, page 19), c'est-à-dire / surjective.
REMARQUE. —
l'application
D :
R[x] — R [x]
p i—> p'
Proposition 3.10 -
a) Matrices
de K, les composantes de /. Pour des raisons que nous verrons par la suite, ces
composantes sont rangées non pas sur une ligne mais sur un tableau ayant un certain
nombre de lignes et de colonnes, que l'on appelle matrice associée à l'application
linéaire /.
Définition 3.11 -
( an ai2 0>ln \
^21 &22 0>2n
A =
ou, en abrégé : A =
(a^) ,
ou aussi : A =
\\aik\\-
\ CLpi ap2
L'ensemble des matrices àp lignes etn colonnes est notéMPyn (^0- Sin=p, M.n,n {K)
est noté : M.n (K).
1 2-i 3 + A
(o 1 2)
eM 2,3 (
-i
0 1 + i
2 1
i \ e M3 (C)
Remarquons que dans la notation que nous venons d'adopter, aïk désigne l'élément
ligne et de la k-ème colonne :
de la i-ème 3
Une autre notation que nous emploierons aussi dans la suite, est la «notation par
colonnes» :
/ a,ik \
a>2k
A= ||ci,...,Cn|| ,
OÙ Ck = est la keme colonne
\ aPk )
Sur l'ensemble MPi (K) n on définit les lois :
addition : si A =
(a^), B =
(6^) ,
on note C =
A + B la matrice (c^) telle
que :
Cik —
Par exemple :
/ 2 -1 0 3 \ 1 / 2 04\/3 107\
J 1^ j j
+
\1 2 1 -1 3 1 -1 2 \ 4 3 0 1
"
/ 2 -1 0 3 \ 10/ -5 0 15 \
Vi 2 i -î y V 5 io 5 -5 y
Il est facile de voir que, muni de ces lois, Mp,n (K) est un espace vectoriel sur K.
L'élément neutre est la matrice dont tous les éléments sont nuls, dite matrice nulle,
notée 0. L'opposée de la matrice (a^) est la matrice ( a^).
Proposition 3.12 -
0 0 \
(\ 0
0 0
En ,..., Eik =
0 1 0 jème lignej
Vo 0/
0 0/
o\
0 0 feème colonne
E'pn
—
\o i/
forment une base de Mv^n (K) dite base canonique (cf. exercice 10, chapitre 1).
f (^n) =
Q>ln £l + &2n ^2 "' *~ aPn €P
66 Applications linéaires et matrices
Définition 3.13 -
la matrice notée M (f)ei)€j appartenant à MP)Ti {K) dont les colonnes sont les
composantes des vecteurs f (ei),..., / (en) dans la base {^i,..., ep} :
/ an ai2 ...
a\n \
&21 a22 a<in
M{f)ei^ =
î î î
/(ei) /(ea) /(en)
S'il n'y a pas d'ambiguïté possible, on écrira aussi M (/) à la place de M (/)Ciiej-, mais il est
clair que la matrice associée à / dépend du choix des bases de E et E'.
deM(/)ei,e..
M: CK{E,E') —>
MPtn(K)
f h—>
M(f)ei,ej
est un isomorphisme d'espaces vectoriels c'est-à-dire :
et M est
M (A/) =XM(f)
En particulier : dim^ C (E1, E') =
np
Démonstration : On a, en effet :
M(f + g)ei>ej =
||(/ + ff)(ei),...,(/ + 5)(eB)||ei
=
||/(ei) + 0(e1),...,/(eB)+0(en)||e,
=
||/(e1),...,/(en)||ej+||fl(e1),...,fl(en)||ej
d'après la définition de l'addition des matrices, c'est-à-dire :
M (f + g)ei,ei =
M (f)ei,ej + M (g)eue..
De même, si À G K :
M(A/)eil£, =
||(A/)(e1))...,(A/)en||£i =
||A/(e1),...,A/(en)
=
A||/(e1))...,/(en)||e,
Donc M est linéaire.
3.3 Matrices et applications linéaires 67
( an Q>ln \
«21 0>2n
A =
eMpn(K)
\ %>1 Q"pn /
' ' '
/ (ei) =
an e\ + a2\ e2 H h av\ ep
f (en) =
ain £1 + a2n ^2 H h apn ep
x =
Ai ei H h An en G £7,
on pose :
/(x)=Ai/(ei) + ...
+ An/(en).
Il est facile de vérifier que / est linéaire et que A —
M (f)ei,er
Enfin M est injective. Soit en effet / G KerM :
0 0
MU)
\o oy
î î
/(ei) /(e„)
Exemple 1 -
Soit E de dimension et
idE E
n
:
(l 0 ... OX
0 1 0 :
M(ids)ei =
(1 : élément unité de K)
: 0 '. 0
V 0 ... 0 1/
Cette matrice est notée In ou simplement / et est appelée matrice unité de Mn {K).
68 Applications linéaires et matrices
Exemple 2 -
Soit E = R2 et :
pn : R2
(n,y) (*,o)
prx (ei) =
ei
prj (e2) =
0
>x
Donc :
M(prl)ei =
(j J)
Figure 2
Exemple 3 -
Soit 2£ M2 =
et / la projection sur la première bissectrice parallèlement à la seconde
bissectrice, {ei, e<i\ étant la base canonique de E, on a :
/ (ei) =
/ (e2) =
e = -
(ei + e2)
> £
Figure 3 Figure 4
donc M(/k:*
V )
:
2
1 1
Exemple 4 -
Soit E =
R2 et / la symétrie par rapport à l'axe
Ox parallèlement à l'axe Oy. Soit {ei, e^} la base
canonique ; on a : e2
/(ei) =
ei, /(e2) =
-e2
ei
(i-î)
Donc
M(/)e
/M
Figure 5
3.3 Matrices et applications linéaires 69
Exemple 5 -
/(e2) —
sin 6 e\ -f cos 9 e2
et donc :
(cos#
sin# \
M(f)e{
J
—
sin0 cos0
Figure 6
Exemple 6 -
Soit {£i, £2} la base canonique de E2 et {ei, e2, 63} la base canonique de E3. On considère
l'application linéaire :
/: E3
(x,y,z) (x-y,z-y)
On a :
Donc
M(/ki>ej (l0 -1 0\
y )
=
-1 1
Exemple 7 -
On considère l'application :
\Xi, . . .
, Xn) aixi H hanxn
w (en) =
/ (0,..., 0,1) =
an =
an £
Ainsi :
M(a;)ei>£ =
(ai,..., on)
Exercices 17. 18. 19
70 Applications linéaires et matrices
Au paragraphe précédent, nous avons défini sur les matrices les opérations d'addition
et de produit par un scalaire. En vertu de la proposition 3.14, ces opérations
correspondent aux opérations analogues sur les applications linéaires, c'est-à-dire on a :
Nous allons maintenant définir une nouvelle opération, le produit de matrices. Comme
nous le verrons (cf. proposition 3.19), elle correspond à la composition des
applications, en ce sens que :
M(fog) =
M(f) -M(g)
Tout d'abord, remarquons que la composition des applications ne peut se faire pour
tout couple d'applications, mais uniquement si l'espace d'arrivée de g est inclus dans
l'espace de départ de /. Cette situation va se retrouver sur les matrices : le produit
ne peut s'effectuer qu'entre matrices d'un certain type.
Définition 3.15 -
MPtn(K) X
Mn,ç(K) Mp,q(K)
(aji) (bmk) (Cjk)
ou :
Cjk aji bik + aj2 b2k H h ajn hnfc-
=
est la somme des produits des éléments de la ]érne ligne de A par les éléments de même
>1<7 \
v%q
'
i
y
<'
/an / au / aln \ ( cn Clq\
aji a
>jt *jn
bn zjk J%q
REMARQUE. Le produit AB
—
/ 2 -1 1 \
/ 2 0 1 0
Exemple 1 -
Soit A= [V l * ),B=1122
V
"
' 1 2 1 0
On a :
X
( 2
1
0
1
1
2
°\
2
\i 2 1 0/
(ï -(i 12
-1 1\ 1 1
o 2 y 4 3
C=>IB
Exemple 2
Soit A = 4 1 et 5
(s)
Remarques
-
2. AB =
AC avec A ^ 0 n'implique pas nécessairement B C (c'est-à-dire, =
en
pas commutative).
Exemple
AB =
( ) (ce qui montre 1.)
BA = (
j donc BA ^ AB (ce qui montre 3.)
et AB =
AC (ce qui montre 2. puisque on a B ^ C).
Proposition 3.16 -
A(BC) =
(AB)C, ^A e Mp%n> V£ e Mn,q, VC e Mq,m)
72 Applications linéaires et matrices
A(B + C) =AB + AC
(A + D)B = AB + DB, (V A, D e Mp>n, VB, C G Mn%q)
La vérification est laissée en exercice.
Remarquons enfin que la multiplication est une loi interne sur l'ensemble Mn (K) des
matrices carrées d'ordre n, c'est-à-dire elle est une application :
Mn (K) X Mn (K) —
Mn (K).
VAeMn(K): InA =
AIn = A.
Définition 3.17 -
/ xi
M(x)ei =
\ %n
[notée aussi
M(x)).
REMARQUE. -
/: K — E
X I > A x
f(e) = x =
xiei-\ h xn en
donc :
3.5 Matrice d'un vecteur. Calcul de l'image d'un vecteur 73
Proposition 3.18 S'oient E, F deux espaces vectoriels if, {ei, ..,en} et{ei, ...,£p}
sur
-
M(f(x))£j=M(f)eu£jM(x)ei
ou plus brièvement : M (f (x)) =
M (/) M (x).
(an ...
ain \
Démonstration : Soit M {f)euEj =
,
ce qui veut dire que :
\ ^pl &pn /
P
f (ej) =
aij £i H 1- a-pj £p =
2J akj €k' ®n a :
k=\
f(x) =
f (xi ei + + xn en) =
YTj=i Xj f (ej) =
£*=1 x3- Y7k=i akj ^k
Vk
Donc: M (f (x)) ,
avec yu
=
V Vp 1
(an ...
aln \ ( xi \ ( YJj=i °>ij xj \ ( 2/i
M(f)ei,Sj M(x)e
\ api . . .
On a :
M
(/(*)) =
M(f) M(x)
1 y/3 3+ 2V3
V T J \2/ /
. .
2
Figure 7
Exercice 25.
74 Applications linéaires et matrices
Proposition 3.19 Soient E,F,G trois espaces vectoriels de dimension finie sur
-
M{fog)eum=M{f)£i,nkM{g)euej
ou, plus brièvement
M(fog)=M(f)M(g).
Démonstration : Soit x e E arbitraire. En utilisant le résultat de la proposition
3.18, on a :
=
M {f) M (g (x)) =M{f)M (g) M (x)
M{fog) =
M(f)M(g).
Exemple :
On a :
M {h) =
M(fog) =
M(f)M(g)
1 1 \ / cos0 —
sin#
1 1 / l sin0 cos(
cos 6 -h sin 9 —
sin 0 + cos 6
cos 6 + sin 6 —
sin 6 + cos 6
Figure 8
Définition 3.20 -
AA! =
A'A =
I.
Il existe des matrices non inversibles, par exemple la matrice nulle. Mais la matrice
nulle n'est pas la seule matrice non inversible. Considérons par exemple la matrice
aurait :
1 0\/z v\ ( 1 0
'
J \ J V01
=
0 0 z t
c'est-à-dire:
(J q) (o Î =
En fait, les matrices inversibles sont les matrices qui représentent les applications
linéaires bijectives. On a en effet :
K) {e;} une base de E, {ej} une base de F. Une application linéaire f : E —> F est
bijective (c'est-à-dire est un
isomorphisme) si et seulement si M
(/)ei,ej- est inversible.
De plus :
M(f)-]£j=M(f-%,ei
ou, d'une manière plus concise : M (/_1) =
M (/)_1.
Démonstration : Ona/_1o/ =
idE ; d'où M (f-1 o
/)Ci, ei =
M (ids)eij Ci
Donc, d'après la proposition 3.19 :
M(f-%ieiM(f)ei,£j=I
De même, on voit que M (/)Ci>ej M («f-1)^,^ =
/.
Il existe différentes méthodes pour calculer l'inverse d'une matrice, sur lesquelles nous
reviendrons. Pour le moment, on peut retenir la suivante qui est d'ailleurs d'un usage
courant.
Soit A G Mn (K), x et x' G Kn et X, X' les matrices colonnes qui représentent x et
x' dans la base canonique de Kn. Considérons l'équation matricielle :
X' = AX (*)
Si A est inversible, en multipliant les deux membres à gauche par A~l on obtient
A-1 X' =
(A-1 A) X, c'est-à-dire :
X =
A~1X/
Donc A~l est la matrice du système obtenu en résolvant le système (*) en les
composantes Xi de x.
76 Applications linéaires et matrices
Exemple :
Gî)
Ecrivons l'équation matricielle (*) avec X = (
) et X' —
( ) j.
On a :
+ 2X2
( ) ( )( ) )
Xi
qui équivalent système
=
*
ce est au <
+ 3^2
=
Xi
_
{
xi =
3 x'i —
2 x2
X2 =
Xi -\r X2
—
c'est-à-dire X =
f ^
*
} X' ,
donc 4"1 =
( *
M.
Définition 3.22 -L'ensemble des matrices inversibles de M.n (K) est noté GL(n, K)
et est dit groupe linéaire 4.
La matrice qui représente application linéaire a été construite à l'aide d'un choix
une
des bases dans l'espace départ et dans l'espace d'arrivée. Dans ce paragraphe, nous
de
allons voir comment sont reliées deux matrices qui représentent la même application
linéaire en des bases différentes.
a) Matrice de passage
Soit E un espace vectoriel de dimension n, {ei,..., en} et {e^,..., e'n} deux bases de
E. Les vecteurs e\ s'écrivent comme combinaisons linéaires des vecteurs ei :
e'i =
pu ei +P21 e2 + hpni en
ef2 =
P12 ei + P22 e2 + h pni en
Définition 3.23 -
On a, bien entendu
Pei—4 =
M(idS)e{,Ci
PCi_>e{ =
MOdsîei.e,
On en déduit immédiatement (cf. propositions 3.19 et 3.21)
P P —
( Pa—>e\) -^ej—>a
—
Soit x € E, de composantes (#i,..., £n) dans la base {e*} et de composantes (x[,..., x'n)
dans la base {e^}. Il est facile de déterminer les relations entre les Xi et x^ à l'aide de
la matrice de passage Pei >e/.
Notons
/ xi ( <\
X:= M(x)ei, X':= M{x)eii et P =
Pe,
\ %n \< J
On a (cf. proposition 3.18 ) :
PX' =
M(iàE)e,vei x
M(aOej =M(idE(x))ei=M(x)ei=X
c'est-à-dire PX' =
X, d'où X' =
P'1 X.
Nous avons donc démontré la relation importante :
Proposition 3.25 -
X' =
P'1 X
NOTA. —
On dit que les composantes d'un vecteur x se transforment d'une manière "contravariante"
pour exprimer le fait que si les bases sont transformées par la matrice P, les composantes de x
Exemple :
Soit M2 muni de deux bases : la base canonique {ei, e2} et la base {ei, e'2} définie par :
f ei 2ei + e2 (*)
\
=
e2 =3ei + 2e2
Soit x = 2 ei + 3 e2. On a deux méthodes pour calculer les composantes de x dans la base
{ei, ei}.
o..=p-(;;) ,
,-=(j 1)-*-(;)
En appliquant la relation de la proposition 3.25, on trouve :
*-'-*-(-; i)(î)-(i
donc x = —
5 ei + 4 e2.
{
°na:
^
f ei =
2e!- e2
e2 =
-3e'1 + 2e'2
En remplaçant dans l'expression de x, on trouve :
x =
2ei+3e2 =
2(2ei -
Proposition 3.26 Soient f G C (E, F), {ei,..., en} e£ {e^,..., e'n} deux bases
{si,..., e'p}
-
de E et {ei,..., ep} ,
deux bases de F. Notons :
On a alors :
A' =
Q~1AP
M(/(x))£/ =Q-1M(f(xj)e_=Q-1M(fU,.iM(x)ei=Q-1AX
où on a posé X = M (x)ei- D'autre part, si X' = M (a;)e/ :
M(f(xj) #
J
=M(f)e,,e, M(x)e, =A'X' = A'P~XX
Donc:
A'P-'X^Q-'AX
Comme x est arbitraire, cela implique que A' P_1 =
Q~x A, d'où : A' —
Q~l AP. D
3.7 Changement de base 79
Corollaire 3.27 -
A =
M(f)ei, A' =
M(f)e et P =
P.ei—>e'. '
On a alors
A' = P~1AP
Définition 3.28 -
A' = P~1AP
Il est clair que deux matrices semblables représentent le même endomorphisme en des bases
différentes»
Exemple :
Soit f Vendomorphisme de R3 qui dans la base canonique {e*} est représenté par la
matrice :
/3 -1 1\
A M(f)ei= 0 2 0
V J
=
1 -1 3
( ei (1, 0, -1)
{
=
e'2 =
(0, 1, 1)
I
.
e'3 =
(1, 0, 1)
1 0 1
On A' P~1AP P \\e[, e'2, e'3\\ei =\ 0 10.
V
a avec
/
= =
-1 1 1
(ei
=
ei-es
e'2 =
e2 -f e3
e'3 =
ei + e3
( ci =
|(ei + e3)
e2 =
|(ei + 2e2-e3)
l e3 =
^(-ei+es)
Dans ce cas, comme nous l'avons déjà signalé, on note M (f)ei au lieu de M (f)eitei
80 Applications linéaires et matrices
donc
/ 1 1-1
P-I =
\\eue2>e3\\e,=-2 0 2 0
V i -i i
/ 2 0 0 \
A' = I 0 2 0
\ 0 0 4 /
REMARQUE. Puisque A' = M (f)e{, ceci veut dire que :
-
/(ei) =
2ci , f{e'2) =
2e2 , f (e'3) =
4e'3
comme d'ailleurs on le vérifie directement. On a, en effet :
/(ei) =
/(e1-e3) =
/(ei)-/(e3)
Or /(ei) =
3ei H- e3 (cf. la première colonne de la matrice A) ; de même f (e3) =
2e3 =
2ei, etc.
1. Soit T =
rg ||ci,..., cn|| =
rg {ci,..., cn} =
dim Vect{ci,..., cn}
Proposition 3.30 Soient E et F deux espaces vectoriels de dimension finie
-
et f G C (E, F). Soient {ei,..., en} {ei,... ,£p} deux bases quelconques de E et F
,
rg/ igA =
En effet :
A =
M(f)eii£j =
||/(ei),...,/(en)||e.
donc
igA =
dim(Vect{/(ei),...,/(en)}) =
dim(Im/) =
rg/
3.9 Espace dual 81
Soit A G Mp,n (K) A la matrice dont les lignes sont les colonnes de A (cf.
*
et
-(ïl)-'-(-îïi)-'
:
rg A =
rg lA
Il s'ensuit que le rang d'une matrice est aussi égal au rang de la famille des vecteurs
lignes.
Exemple :
/ 1 -1 3 5 1 \
A= 2 0-131
\ 3 -1 2 8 2/
D'après la définition, il faudrait calculer le rang des vecteurs colonnes en échelonnant la
matrice :
r 1 2
3"]
-1 0-1
3-1 2
5 3 8
L 1 1 2J
Mais d'après la proposition 3.31, cela revient à calculer le rang des vecteurs lignes (c'est-à-
dire à échelonner la matrice elle-même), ce qui plus simple a priori. On voit, d'ailleurs,
est
que la troisième ligne est la somme des deux premières lignes qui sont indépendantes entre
elles. Donc rg A = 2.
Exercice 31.
des équations linéaires (cf. par exemple, exemple 3. page 8 ; exemple VI page 47, etc).
Cette seconde caractérisation peut être plus utile pour certains types de problèmes.
Par exemple considérons le sous-espace F de M5 engendré par les vecteurs
Vl =
(1,3, -2,2,3), v2 =
(1,4, -3,4,2), «3 =
(2,3, -1, -2,9) ;
82 Applications linéaires et matrices
question, il faut voir si l'on peut trouver des scalaires Ài,À2, À3,A4,A5 tels que : v =
xi+ X2 + X3 =
0
4 xi —
2 X2 + xa = 0
—6x1 + X2 + x& =
0
u : E —>K.
L'ensemble des formes linéaires Ck (E, K) est noté E* et est dit espace dual de E.
u>(x) =
xi w(ei) H h xn tv(en) =
ai x\ H Y an xn
où les Oi =
lj
(ei) sont des scalaires. Ainsi les formes linéaires sur E sont les
applications du type :
u: E > K (*)
x=xi e\ H h xn en 1 > ai x\ H \-anxn (aiEK)
REMARQUE. —
La matrice qui représente u dans les bases {e*} et {1} de K est une matrice
ligne :
M(w)ei,i =
(ai,...,an)
1, n étant la
dimension de E. On a donc :
Proposition 3.33 -
dim(Kercj) =
n
—
6On note en général les formes linéaires par des lettres grecques : o>,^,y?, etc.
3.9 Espace dual 83
a\ x\ + Y an xn =
0.
L'espace des solutions d'un système d'équations linéaires peut donc être vu comme
une intersection d'hyperplans. En d'autres termes, travailler sur l'espace dual revient
à travailler sur des équations linéaires (plus précisément : sur les premiers membres
des équations linéaires).
3.14:
dim^ C (25, K) =
diuiK E x dim^ K =
dirn^ E.
On a donc :
dinuE^dimE'*
Notons que l'isomorphisme de E sur E* n'est pas canonique, en ce sens qu'il dépend
du choix d'une base dans E et d'une base dans E* (cf. la démonstration du théorème
3.7 page 61).
a) Base duale
Comme nous allons le voir, si l'on choisit une base {ei,..., en} de E on peut construire
canoniquement une base {#i,...,
9n} de E* :
Théorème 3.35 -
où ôik —
\ _
t
(ôik est dit symbole de Kronecker).
Alors {#i,..., 6n} est une base de E* dite base duale de {ei,..., en}.
Démonstration : Remarquons qu'une forme linéaire lj est parfaitement déterminée si
on connaît l'image des vecteurs d'une base, car d'après la linéarité de cj on a : u (x) =
v
(#i eH \-xn en) =
x\ (e{)-\
u Yxn u (en). Donc, si on connaît lj (ei),..., uj (en),
u) est connue en tout x. En particulier, la définition ci-dessus détermine parfaitement
les 9i. Plus précisément, si x =
x\ e\ -\ h xn en, on a :
0i (x) =
xi 9j (ei) H \-xn9i (en) =
e».
7Rappelons que Kn est un espace vectoriel sur K, de dimension n, cf. exemple 1, page 5 et
remarque 2 page 18.
8cf. théorème 3.7.
84 Applications linéaires et matrices
Donc :
Al 01 (x) + + An 0n (x) =
0.
En particulier, pour x =
ek (k =
1,..., n), on a :
Exemple :
ci =
(1,1,1) , e2 =
(1,0,-1) , e3 =
(0,1,1).
Déterminer la base de (M3)* duale de {ei, e2, es}.
On a :
0i(ei) = l , 0i(e2) =
0 , 0i(e3) =
O.
Si 0i (x) =
ax\ -\-bx2 + ca?3, pour x =
(x\, X2, ^3), on doit avoir :
0i (ei) =1 ( a+6 + c =
1
0i (e2) =0 —^< 0
[
a -
c =
0! (e3) =0 — b + c =
0
ce qui donne a =
1, b = —
1, c=l, c'est-à-dire :
{a
pour en on :
= = =
+ b + c =
0
a
—
c =
1
6 + c =
0
c'est-à-dire : a =
0, 6=1, c = —
1, donc :
02 (x) =
X2
—
X3.
{a
en = = = on :
+ 6 -h c =
0
a -c =
0
6 + c = 1
c'est-à-dire : a =
—1, 6 =
2, c = —
1 ; donc :
03 (x) =
—xi + 2x2 —
£3
La base duale de {ei, e2, es} est donc donnée par les formes linéaires 0i, 02, 03 définies
par :
3.9 Espace dual 85
01 (x) =
X\
—
X2 + X3
02 (x) =
X2—X2,
03 (x) =
—Xl -\-2X2—Xz
Ai ipi H h Xp ipp =
0 Ai =
0,..., Xp 0.
Le plus simple, en général, est de décomposer les (pi sur une base de E* et d'utiliser
ensuite les méthodes vues au chapitre 2.
Exemple :
Soient (p\, </?2, <^3 les formes linéaires sur E4 définies par :
{(fi(x)
=
xi
—
3^2 + 2 £3 —
X4
{x)
<4>2 =
X\+2X2 —
X4
(P3(x) =
2x\ —
X2~\-2X3-\rX4
Montrer que {<£>i, </>2, ^3} est une famille de libre de (M4)*.
Soit {ei,..., e±\ la base canonique de M4 et {0i,..., 64} sa base duale. On a 6i (x) =
Xi,
donc :
(pi (x) =
0i (x) -
04 (x)
c'est-à-dire :
<Pi(x) =
(0i-302+ 203-04) (x)
Puisque cela est vrai pour tout #, ceci signifie que :
c'est-à-dire les composantes de (pi sur la base {0i,..., 04} sont (1, —3, 2, —1) (en fait les
coefficients des xi dans les y>i{x)).
De même :
p2 =
01+202 -04
lp3= 201- 02 + 203+04
En utilisant la méthode du pivot, cela revient donc à échelonner la matrice du système
d'équations dont les premiers membres sont les (pi :
1 -
2 -
-1 2 1_ </?3 0 5 -2 3 <P*3 =
<^3
-
-2<Pi
c) Bidual
Puisque E* est un espace vectoriel sur K> on peut considérer l'ensemble des formes linéaires
sur E*, c'est-à-dire le dual de E* dit «bidual» :
E**=£K(E*,K)
En dimension finie, on a diuiK E** =
dimx E* =
dimx E, donc, tout comme E*, E** est
Proposition 3.36 -
e — £**
x i <ï>x
où &x est l'application :
$x : E* — K
u i—> u
(x)
Montrons d'abord que, pour chaque x fixé, &x est bien une application linéaire (donc $x G
CK (£*, K) =
E**y On a, pour vu v2 e E* :
$x (wi + co2) =
(oji + w2) (as) =
ui (x) + cj2 (x) =
$x (lji) + $x (0J2)
etsiweE*et\£K:
®x (Aw) =
(Aw) (#) = A
(w(x)j =
\$x (a;)
Donc $* G E**.
D'autre part <3> est linéaire. Soient en effet x, y £ E et co £ E* arbitraire ; on a :
&x+y (w) =
W (x + y) = cj (x) + w (y) =
$x M + $y (w) =
($x + $y) (w)
Puisque a; est arbitraire :
$*+?/ =
$x + $y De même, si À G iiT, on a pour tout a; G E* :
$Aa; (<*>) =
cj(àz) =
Aa;(x) =
A$x (a;),
c'est-à-dire $\x =
\$x. $ est donc une application linéaire.
Il ne reste plus qu'à montrer que $ est bijective et pour cela il suffira
de montrer que $ est injective, car on sait que dim E** dim = E (cf. corollaire 3.9).
Soit x G E tel que &x 0 ; il s'agit de montrer que x
= =
0. Or &x =
0 signifie que
Vu; G E* $x (c*;) =
0. Soit {ei,..., en} une base de E et {0i,..., 0n} la base duale ; puisque
0i G E* on aura $* (04) =
0 c'est-à-dire 0. (a:) =
0, Vz =
1,..., n. Mais 0» (x) est la ième
composante de x sur la base {ei,..., en} ; donc x a toutes ses composantes nulles et, par
conséquent x =
0.
Remarque. -
9En revanche, bien que E et E* soient isomorphes, on ne peut pas vraiment les identifier car
l'isomorphisme <p : E —> E* dépend du choix des bases ; l'élément de E* qui par (p correspond à un
élément de E n'est pas parfaitement défini, car il dépendra justement d'un choix préalable des bases.
3.10 Annulateur d'un sous-espace 87
{ai
xi + + an xn =0
h xi + + ln xn =0
L'ensemble F0 des formes linéaires qui s'annulent sur tous les vecteurs de F,
F° =
{u>eE*\u>{v)=0, V^GF},
F0 =
{u e E* | u> (vi) =
0,..., w (vp) =
0}
En effet si a; G -F0 on a évidemment uj (v\) =
0,... ,<j (vp) =
0 car les Vi appartiennent à F.
w(vi) =
0, ...,u(vp) =
0.
cj (v) = u
(Ai vi -\ h Ap vp) =
Ai u)
(vi) H h Ap uj (vp) =
0
doncu; G F0.
Proposition 3.39 -
dim E =
dim F + dim F0
Applications linéaires et matrices
p = dim E —
dim F).
Tout d'abord 0p+i,... 0n 6k (vi) 0... 0^ (vp)
, G F0 car, =
,
=
0, pour tout pour tout
k =
p -h 1,..., n d'après la définition de base duale.
D'autre part {0P+i,..., 0n} est une famille libre car elle est extraite d'une base. Il ne reste
LO =
Ap+i 0p+l + + An 0n.
Soit x G E : x =
x\ v\ + + xv vp + xp+i vp+i + + xn vn> Puisque vi,..., vp G F et
lo G F0, on a :
LO
(x) =
Xp+i LO (Vp+i) H \-XnCO (vn).
En posant lo
(vp+i) =
Àp+i,..., lo (vn) =
An, on a :
Uj (x) =
Ap+l Xp+i H h An Xn =
Ap+i 0p+i (x) H h An #n (x)
x G F, on a : lo =
Ap+i 0p+i + -f An 0n.
Exemple :
14-3 4 2 V2 > 0 1 -1 2 -1 v2
-
vi =
v2
2 3 -1 -2 9 ^3 0 -3 3 -6 3 v3
-
2 vi =
v'3
13-22 3" Vl
0 1-12 -1 V2
0 0 0 0 0_ v's- 3v2
Donc vi =
(1,3, —2,2,3) et v2 =
(0,1, -1,2, —1) forment une base de F.
D'après 3.38 : F0 =
{u G E* \ lo (vi) =
0, lo (vf2) =
0}
et d'après 3.39 : dim F0 =
5 -
2 =
3.
Il s'agit donc de déterminer trois formes linéaires indépendantes qui s'annulent sur vi et
v'2.
Soit lo(x) =
a\ xi -h + db %5 une forme linéaire. En imposant lo (v{) =
0, on trouve :
ai + 3 a2 —
2 a3 + 2 a4 + 3 as =
0 ; en imposant lo (v2) =
0, on a : a2
—
a3 + 2 04
—
as = 0.
Il faut donc résoudre le système :
ai -h 3 a2 —
2 a3 + 2 a4 + 3 as = 0
a2
—
a3 -h 2 a4 —
as =
0
Exercices 89
Le système est déjà échelonné avec variables libres a3, a4, as ; la solution est :
ai = —
X-\-4:fjb —
6v , a2 =
A —2/i-f^ , a3 = X , a^ =
yL , as = v
f <Pl(x) = -
Xi + X2 + X3
<P2(x)= 4X1—2X2+^4
ip3(x) =
-6xi+ x2 + x5
EXERCICES
E
f F
où F (x) =
Jo
/ / (t) dt, est un endomorphisme de E.
ip: E —> R
f — +
/o/o(0/(*)dt
est une application linéaire sur E.
ô : E —> R
f — / (0)
est une application linéaire (elle est appelée fonctionnelle de Dirac).
I 3 I Soit heRet:
yh En [x] Q (x) (x h)
:
avec = P +
P Q
H Transport de structure
loi d'addition :
6:=/-1(/(a) + /(6))
A x A
où a0
a©6
90 Applications linéaires et matrices
loi externe :
£,Xaf ^ ta °Ù
A.a:=/-(A/(a))
(en d'autres termes prend
: on images par / des éléments de A, on les compose
les
avec la structure d'espace vectoriel de E et on revient dans A par l'application
r1)-
Montrer que, muni de ces lois A est un espace vectoriel sur K isomorphe à E.
(On dit que la structure de E a été transportée par isomorphisme sur A, ou aussi
que la structure de A est induite par / de celle de E).
2. Soit R muni de la structure habituelle d'espace vectoriel sur R, A =
R+\{0}
l'ensemble des nombres réels strictement positifs et :
/: A — R
a i—>
Log a
Déterminer la structure d'espace vectoriel sur A obtenue par transport de la
structure d'espace vectoriel de R.
3. Soit :
/: ]0,1[ — R
x i—>
Log
1 -
Montrer que / est une bijection. Déterminer la structure d'espace vectoriel sur
|5 | Soit :
/ : R4 — R3
(x}yfz7t) i
(x-y + z + t, x + 2z-t, x + y + 3z-3t)
Déterminer une base de Ker / et une base de Im /.
|6 | Soit :
M=(V l l)J U ô
et f 'M2 (R) M2 (R)
A '—'AM-MA
|7 | Soit :
ip : Rn [x] — Rn+1
P ,—>
y>(P) =
(P(0)>P(l)lP(2)>...lP(n))
Montrer que ip est un isomorphisme.
rg/ =
rg(/op)
De même si / : E — F et h : F — G sont linéaires et h est injective, montrer que :
rg/ =
rg(ho/)
En particulier : en composant à gauche ou à droite par une application linéaire bijective,
le rang ne change pas.
p2 =p.
=
p.
2. Montrer Kerp =
Im(id p) —
et que donc : E =
Imp 0 Im q, où q = id —p.
Soit E =
Fi 0 0 Fq : tout x G # s'écrit d'une manière unique ce =
x\ + + xq. On
pose : Pi(x) := Xi.
Une famille deprojecteurs vérifiant les deux propriétés ci-dessus, est dite système
complet de projecteurs.
2. Réciproquement, on suppose qu'il existe un système complet de projecteurs {Pif
Montrer que E est somme directe des images des Pi.
f °9° f =
f et go fog =
g
12 | Soit End(E)
/ G tel que f3 =
f. Montrer que E = Ker / 0 E\ 0 E-i où Ei =
{xeE\f(x)=x} et E-i =
{xeE\f(x) =
-x}.
14
1. Soit / un endomorphisme de E. Montrer que pour tout p G N*, on a :
(c) £ Im/0Ker/
=
15 Soit / G End (R3) tel que f2 0. Montrer qu'il = existe v G R3 et g G C (R3, R) tels
Im fn , Kn =
Ker fn. On a (cf. exercice 14) :
J\ D Ji D D Jn D
Kl C i^2 C C Kn C
IL On pose J = n Jn /C = U Kn.
n=l n=l
1. E =
J®K.
2- f\ j est un automorphisme (c'est-à-dire un endomorphisme bijectif).
3- /|/c est nilpotente.
4. r = s (r est dit caractère de /).
IV. Réciproquement, on suppose que E =
FÇ&G et qu'il existe / G End (E), tel que :
J, G = K.
17 Soit / l'endomorphisme de M3 qui dans la base canonique est représenté par la matrice
/ -2 3 1
A=[ 5 10
V 4 11 3
18 1. Existe-t-il des applications linéaires / : M4 —> R3 telles que Ker/ soit engendré
par le vecteur v (1,1,0, —1) et Im/ soit le plan d'équation x + y z 0?
= —
=
2. Déterminer la forme générale des matrices qui représentent dans les bases
canoniques de R4 et de R3 les applications linéaires / : R4 —> R3 pour lesquelles
20 Soit A = I 3 4 .
Déterminer, s'il y en a, toutes les matrices B telles que BA = /.
Exercices 93
1 —1 —1 \ / an bn bn
Soit A =
[ —1 1 —1 I. Montrer que An est de la forme I bn an bn
1—11/ \ bn bn an
—
(A + B)n =
J2 Cn Ak Bn~k
k=0
1. Montrer que :
x
( B! \B2 )
/ Ai | ( Ai B1 \Ai B2 \ Ai G Mk,n A2 G Mh,n
J Mn,r Mn,s
Bi B2
\
G G
A2 A2Bi A2B2
2. Montrer que :
Bi {}k
x \ B2 I
Bi G B2 G
3. Montrer que :
k{ f Bi B2
B3 Ba
Ai B± + A2 B3 Ai B2 + A2 B4
Ai A2
A3 A4 A3 Bi + A4 B3 A3 B2 + A4 B4
En définitive : on peut toujours faire le produit par blocs, pourvu qu'on puisse
le faire...,
c'est-à-dire pourvu que les coupures soient faites de manière à pouvoir
effectuer les produits des matrices.
\\v\\ =
yla\ + + an. Montrer que les rotations de centre 0 dans le plan M?
conservent la longueur des vecteurs (la rotation étant définie par la matrice de l'exemple
5, page 69).
/ 1 2 -1
Soit A = 0 1 2 Calculer A
V 0 0 1
94 Applications linéaires et matrices
27 Soit N une matrice carrée. On dit que N est nilpotente s'il existe p G N tel que Np = 0
N est inversible.
Application. Calculer l'inverse de la matrice :
( 1 a b c
0 1 b
I
a
a'6'cGl
,
A ^,
s ,
= °U:
0 0 1
'
a
\ 0 0 0 1
e3, e2 =
e\
—
C2 + 03,
e3
=
—ei + e2 + e3. Montrer que {e'1? e2, e3} est une base de M3.
Soit / l'endomorphisme de M3 qui dans la base {e^} est représenté par la matrice
( Q- b a + c c b
— —
I I. {e^}.
h
A= -
b —
a c —
y a + 6 a
—
c b —
30 Soit .A une matrice carrée d'ordre n. On appelle trace de A la somme des termes de la
diagonale principale :
Tr A =
an + a22-i h o,nn
AB -
BA = I
(Df)(x)=f'(x) Dif(x)=xf(x)
Calculer le «commutateur» [D, Di] défini par [D, Di] := D o Di —
Di o D.
31 Soit l'application :
/: R2[x] —+
R2[x]
P ^->
(ax + 1) P + (bx2 + c) P'
Quelles relations doivent vérifier a, 6, c pour que / soit un endomorphisme de R2 [x] ?
Déterminer, dans ce cas, le rang de /
32 Soit la base de Rn :
ei =
(1,1,..., 1), e2 =
(0,l,l,...,l), e3 =
(0,0,1,1,...,!),...,
en =
(0,0,...,0,1)
Déterminer la base de (Rn)* duale de celle-ci.
(pi (x) =
2X1 -
7X2 + X3
ipi (x) =
xi + 2^2 + X3 , <P2 (x) =
2x\ + 3x2 + 3x3 , <£3 (#) =
3xi + 7x2 + #3
forment une base de (R3)*. Déterminer la base dua.le de celle-ci [en identifiant M3 avec
(E3)**].
*f:F* — F*
*(/-1) =
C/)-1
4. On suppose que E et F sont de dimension finie et soient {e^} , {ej} des bases de
E et F respectivement, {ipi} , {tpj} leurs bases duales. On note A M —
(/)ei,eJ
Montrer que :
M
('/)</>;, ,*>,; = *A
t(AB) =tBtA
*(A-i) =
('A)"1
2. (F + G)° =F°nG°
3 ir00 = F
4. (F fl G)0 =F° + G°
(Im/)° =
Ker[V)
En déduire que si F et F sont de dimension finie :
rg/ =
rg */
et que, par conséquent, pour toute A G À4P)n (K) : rg A =
rg* A
96 Applications linéaires et matrices
INDICATIONS
(Z"1 (6))
z = w = a
a + b =
f(z) et / (a) +/"1 =/(«,).
En déduire d'abord f (z) =
/ (iu), puis z = w. Démonstration analogue pour la loi
externe.
|~^
'
I
'
1. Simples vérifications. Par construction /(a06) =
/(a) + /(6) et f(X-a) = À /(a),
donc / est un isomorphisme
2. a 0 b = eL°ga+L°g6 = eLo£ab = ab
X .
a = eA^°Sa aA =
(cf. exercice 2. chapitre 1).
3. On trouve :
ab n*
o©6 À a
(l-a)(l-b) (1 a)x
= =
ax +
r
+ ab
—
"
4. Aussi surprenant que cela puisse paraître, il existe des bijections de R sur
(Cantor).
{
x —
y + z+ t =0
y + z-2t =0
( x —
y + z + t = x'
< x +2z- t =y'
\x + y + %z-Zt -z'
On trouve x' —
2yf + z' =
0 et une base est, par exemple :
{u/i =
(1,1,1), w2 =
(0,1,2)}
(cf. exercice 18. pour une méthode plus simple pour la détermination de Im/).
|6 On a :
f x y \
f 2z 2x + 2y-2t \
) )
1f
\ z t
\ -2z 2z
Base de Ker / :
{«,=(-; j) ,
m2=(j )}
dim(Im/) =4-2 = 2
0
1. -
x -p(x) G Ker p.
2. -
p o
(id —p) =
0, donc Im(id —p) C Ker p.
D'autre part, si a; G Kerp, on a : x x—p(x), =
Figure 10
10 | 1. Simples vérifications.
2. Puisque id Pi + =
\- Pq on a facilement E = Im Pi + h Im P<j.
Soit x E E arbiraire, x =
x\ -\ (- xq et x =
a?i + h as^ deux décompositions de
#. Par différence :
0 =
(xi x[) H h (xq x'q)
- -
0 x
Employer "d'analyse et synthèse" Il s'agit de montrer que tout
la méthode dite
unique x
G E s'écrit d'une manière y + z avec y G Ker /, z G Im p. =
.
en fonction de x.
x =
x-g(f{x)) +
<?(/(*))
G Ker / €lrag
ce qui montre l'unicité.
Synthèse. Il ne reste plus qu'à montrer que g ( f (x) j G Im g (ce qui est évident) et
x —
x =
#o + x\ + x-i avec xq G Ker/ , x\ G E\ , x~\ G £?-i
f2 (x)
rg/ = n -
rg/2 )
<=^rg/ =
rg/2
ce qui, toujours d'après 1, équivaut à (b).
Pour (c) montrer que Im/ D Ker/ =
{0} et utiliser le théorème 1.33 ainsi que
le théorème du rang.
linéairement de x.
"Toi L 1. fm (E) =
/"H-1 (£) =^ /m+l (£) =
fm+r (£) j
etc
Km=> / +i(aO =
0,etc.
IL 1. (a) On a JJr+i
=
JrJr d'où /
J. (J) =
/ (Jr) = = =
0 =
/(x) =
/s+1 (s') =» a/ G Ks+i =
Ks^fs (x') =
0 =» x = 0.
(c) Soit a; G Js PI /C ; on a x =
fs {x') et /s (a;) =
0 d 'où :
f* (xf) =
0 = x7 G K2s s Ks = /s (a/) =
0 = a; =
0
IIIJ.. On a : J Jr Jr+s= = et /C =
Xs =
jfiTr+a Il faut montrer que iS =
2. cf. IL
3. cf. IL
4. On a E =
Jr<&Ks.
fs (E) =
fs (Jr) =Jr =
J
f+HE) =f(J) =J
Soit x G Ks ; /* (x) G Jr et /s =
fr =
0 (car x £ Ks) ;
r(E) =
r(F) + no) =
r(F) = f
F =
Im/r =
Im/r+1
D'autre part : G C Ker/r C Ker/r+1. Soit x G Ker/r+1, x =
xp + xq avec xp G
F ,xq G G. /r+1 (x) =
0 =>» /r+1 (a;^) 0; comme /|j? = est un automorphisme,
/r+1|ir est aussi un automorphisme, donc xp = 0 et par conséquent Ker/7*"1"1 =
G.
Ce qui montre que G —
Ker/r Ker/r+1. =
Exercices
p'
'—*
P
{-2x
+ 3y +z =0
5z + y =0
4x +II3/ +3* =0
1
ce qui donne V = -5 (à un facteur de proportionnalité près).
17
Donc dim Ker / 1 et dim Im / 2. Pour avoir une base de Im
= =
/ il suffit de
prendre deux vecteurs colonnes indépendants, par exemple f (e±) et /(e2) c'est-à-dire
-2 / 3\
5 I I 1 I (on identifié vecteur de R3 matrice colonne dans
4y \uj
, a un avec sa
z =
0.
18
1. Non, en vertu du théorème du rang.
2. Soit :
/ ai Û2 Û3 a-4
A =
M(f)ei,£j= h b2 b3 b4
C2 C3 a
î î î T
/(ei) /(e2) /(es) f {et)
En imposant que / (e^) G 7r on trouve : ci ai-\-bi (i 1,..., 4).
= = Ces conditions
sontéquivalentes à Im / C 7r.
Imposer, ensuite, vi, v2 6 Ker/ (c'est-à-dire Vect{i>i, v2} C Ker/). On trouve :
rg/ dim 7r
=
2, ce qui s'exprime par le fait que les colonnes ne sont pas toutes
=
19 f (x)+v =
x, où, v =
(3 À, 2 À, À). On détermine
A de manière à ce que x —
v G 7r.
On a :
(x 3A) + 2 (y 2A) + 3 (z X) = 0
\=^(x
- - -
=> + 2y + 3z)
7 -6 -9
10 l -1 -2 7 Figure 11
100 Applications linéaires et matrices
20 Nécessairement I =
h et B G M.2,z (K). On trouve :
-2-Sc l + 3c c
B
?_8c' _I+3c' c'
avec c,c El
=
,
21 On trouve :
Gn+i
=
an —2bn
c'est-à-dire J ûn+i
=
an+2an_i
[
:
bn+i =
-a>n bn+i = —
an
Q>n =
l (2n+1 (-1)*) + 6n = - i
(2- (-1)"-1) +
(4 + B)2 = A2 + AB + BA + B2 ^ A2 + 2AB + B2
bi
23 Utiliser les notations suivantes. Soit l =
(ai,..., an) une matrice ligne et c =
bn
une matrice colonne. On a l c =
a\ b\ + h an bn. Si Zi,..., lp sont les lignes de A,
Zi c
X II Cl,..., Cq
l\ Cl . .
.Il Cq
=
\\Aci,...,Acq
lp Cl . . .
Lp Cp
1*1. 1 mi 1
Ai A2 Bl Il Vi,..., Vr II B2 \\W1,...,WS\
kl
= = = =
, ,
\ >h 1
On a :
X II t/i,..., Vr Wi,..., WS
'
Zl Vi .
.Il
.
Vr hwi ..
.h ws
h vi h vr IkWl-'-lk Ws
y mhvi...mhvr mhwi...mhws
J
Méthode analogue pour les autres.
Exercices
£ „. X
J
, ,
J )
„
on a
.
i>
\ 0 + 6 0
=
0 cos9 \ \
=
b v J
n „
.
, .
„ ,
^
cos
.
sin a sin
.
( x + 2y -\- z = x'
26 X'=AI y + 2z y'
[
= .
s = s'
En résolvant par rapport h x, y, z :
x =
x' -2y' + 3z'
y =
y' —
z =
z'
|27J On a:
(/ -
N) (I + N + TV2 + + N73-1) = I
donc :
(I -
+ N?-1
On trouve :
1 -a a2 -b -a3 + 2ab-c \
0 1 a2 -b
A-*
-a
=
0 0 1 -a
0 0 0 1
1 0 0 \
28 A' = M (f)Vi =
( 0 1 0 I. En prenant, par exemple : v\ =
0 0 0/
f
2 3 3
Calculer A = PA,P~1.
29 0 0 c \
M(/)e, =
( a 0 0
0 6 0 y
30 1. Vérifier que TV(A + S) = TVA + TV£ et TV(ÀA) = ÀTVA.
2. Soit C =
AB, C =
(cifc), avec cik =
Trfp-M?) =
TV^-^AP)) =
TV^APJP-1) =
TV^PP"1) = TVA
4. On trouve :
[D, D{\ = id.
NOTA. En dimension infinie il existe donc des endomorphismes A, B tels que
[A, B] = id (ce qui est exclu en dimension finie). L'existence de cette relation
permet de justifier le principe d'indétermination d'Heisemberg, fondamentale
en Mécanique Quantique. Ce qui explique aussi pourquoi la formalisation de
la Mécanique Quantique exige l'utilisation des espaces vectoriels de dimension
infinie.
| 31
| Calculer /(l), /(#), f (x2) et imposer qu'ils appartiennent à ï [x]. On trouve que
c'est le cas si et seulement si a + 2b =
0. On a alors :
/le 0
M{fhltXtX2}= 1 f
V
-26
0 -b
1
l + 2c
0
Si c = ou bc =
on a rgA = 2 ; sinon rgA = 3.
2
102 Applications linéaires et matrices
32 On trouve :
01 (x) =
X\ , 02 (x) =
—Xl + X2 , 03 (#) =
-ÎC2 + #3 ,
flfc+i (x) = —
Xk + 3fc+i, , 0n (a?) = —
xn_i + xn
33 <pi
-
10(^2 + 7y?3 = 0
34 Notons {cji, CJ2» ^3} la base de M3** duale de {y>i, y?2, ^3} : cj» (^) =
5»j.
Comme M3* R3, avec les notations de page 86 il existe vi, V2iî>3 G M3 tels que <É>Vi =
~
V
= = = on : v\ =
35
1. Vérifier que (p o
/ est linéaire.
2. Simples vérifications, sauf pour (d), qui elle en revanche se démontre très
facilement à l'aide de la question 4. qui suit ( ce qui montre que parfois le point de
vue des applications est plus commode (comme pour (c)) et parfois il est plus
3. Pour (e) ,
montrer d'abord que t(idJg;) =
id^* ; appliquer ensuite (c) à /o/-1 =
\dp et à f~1 o
f =
id#.
4. Soit :
/ au...ain \ ( b\\...b\n
A=i et B =
M(*/)^iV,i= I
y an± ...
ann J y bni... bnn
c'est-à-dire :
p n
/ (e*) =
$^ <*ki ei et (*/) tyj) =
^2 bi<* ^a
t=l a=l
En déduire :
(ipj o
/) (ek) =
akj et (*/) (ipj) (ek) =
bjk ,
d'où :
bjk =
akj et
donc B = lA.
prenant x =
0,p ,
on voit que y? G G0 ; en prenant y =
0g : <^ G F0.
Réciproque facile.
3. Montrer d'abord que F C F00 ; puis que dim F = dim F00.
4. Remplacer dans 2. F et G par F0 et G0 et prendre l'annulateur des deux membres.
Déterminants
Comme nous l'avons déjà fait remarquer, la notion de dépendance ou indépendance linéaire
intervient, d'une manière ou d'une autre, dans les différents problèmes d'algèbre linéaire.
Jusqu'à présent, la seule méthode que nous avons vue pour savoir si un système de vecteurs
est libre, est celle qui consiste à étudier un système d'équations linéaires par élimination, ou
encore
-
libre ou non. Appliquée aux systèmes d'équations linéaires, la notion de déterminant permet
d'obtenir les conditions de compatibilité sans que l'on soit obligé de chercher explicitement
la solution et elle donne aussi des formules pour la solution. L'intérêt de cela apparaît
clairement lorsque l'on étudie les systèmes d'équations avec paramètre (comme nous le ferons
au chapitre 6. pour le calcul des vecteurs propres) : la théorie des déterminants permet de
donner immédiatement les conditions sur les paramètres pour que le problème admette une
solution, alors qu'une étude directe par la méthode d'élimination conduirait à des calculs
compliqués et surtout ne permettrait que très artificiellement d'avoir des résultats généraux.
La présentation que nous donnons ici n'est pas la plus élégante, mais elle permet d'effectuer
immédiatement les calculs et de se familiariser rapidement avec la notion de déterminant
et ses applications. Il est important, cependant, de comprendre que le déterminant est une
n-forme multilinéaire alternée car l'on voit ainsi d'une façon très naturelle le lien entre la
notion de déterminant et les problèmes d'indépendance linéaire.
Nous donnerons cette caractérisât ion au paragraphe 2 et 4 (cf. théorèmes 4.2 et 4.11) ; au
paragraphe 10 nous mettrons en évidence l'interprétation géométrique par le volume. La
notion d'orientation est présentée au paragraphe 11.
Comme toujours, le corps K est supposé commutât if.
Nota -
application : dét :
Mn(K) — K de la manière suivante :
Si n =
1, c'est-à-dire si A =
(a), on pose dét A
=
a ;
si n > 1 ,
notons Aij la matrice obtenue de A en supprimant la ieme ligne et
la jeme Hgne colonne (c'est-à-dire la ligne et la colonne qui passent par Vêlement
103
104 Déterminants
dét A =
au détAn + + (-l)k+laik dét Alk + + (-l)n+1 alndétAln
Le scalaire dét A est dit déterminant de A et le déterminant de la matrice
Exemple 1 :
4 -1
3 2
= 4x2 -
(-1) x3 = 11
Plus généralement :
a c
= ad bc
b d
—
Exemple 2 :
1 -2 3 1 -2 3 1 -2 3 1 -2 31
2 1 -1 = 1 2 1 -1 -(-2) 2 1 -1 + 3 2 1 -1
1 5 1 1 5 1 5 1 1 5 1
1 -1 2 -1 2 1
1 ("-2) + 3
-
5 1 1 1 1 5
=
(1 + 5) + 2(2 + 1) + 3(10 -
1) =
39
Plus généralement
b'\
a a a
b' b" b b" b
b b' b" = a 1 II
-
a h + a"
C c c c c c
a(b'd' -
b"c') -
a,(bc,/ -
b"c) -h a"{bc' -
b'c)
ab'c" + a'b"c + a"bc' -
a"b'c -
a'bc" -
ab"c'
Règle de Sarrus
Ce résultat permet d'énoncer la règle de Sarrus pour le calcul d'un déterminant d'ordre 3 :
le déterminant d'une matrice d'ordre 3 est la somme de six termes, trois affectés du
signe + et trois du signe —
les produits signe + contiennent soit les trois termes de la diagonale principale,
affectés du
soit deux termes parallèles à cette diagonale ;
pour les produits affectés du signe —, on procède de même en changeant de diagonale.
-
Plus précisément, voici le schéma de cette règle (dont le seul intérêt est d'effectuer plus vite
les calculs) :
+ +
Exemple 3 :
an 0 0 Q>22 0 0
: * 0 * 0
0»n\ 0>n2 CLnn
a33 0 0
: '-. 0 :
=
an a22 = =
ail «22 a33 an
- - -
: * 0
I Q>n3 CLnn I
Exercices 1. 2.
Théorème 4.2 -
NOTA. -
Nous verrons une réciproque de cette propriété (cf. proposition 4.11) en ce sens que toute
application multilinéaire et alternée, c'est-à-dire qui vérifie les propriétés 1. et 2. ci-dessus, est,
dans une certaine base, le déterminant d'une matrice.
Démonstration
2
: Par récurrence sur n.
| Xa c a c
Xb d
Xad —
Xbc=X(ad —
bc) = A
b d
+ a'
(a + a') b') c {a' d-b'c)
c
b c) +
a
b + b' d
d -
(b + =
(a d -
a c a c
b d b' d
'Tour une raison que l'on verra (cf. corollaire 4.3 page 107), cette propriété s'exprime
par la suite
en disant que le déterminant est application alternée.
une
2Cette démonstration est tirée de S. Lang : Algèbre linéaire 1, InterEditions, Paris, 1976.
106 Déterminants
ce qui montre la linéarité par rapport à la première colonne. De la même manière, on vérifie
la linéarité par rapport à la seconde colonne,
la al
Enfin
b b
=
ab —
ab =
0 et la, propriété 2. est vérifiée.
1 et soit A G Mn (K).
Montrons d'abord la linéarité de dét A par rapport à la kème colonne où k G {1,..., n}.
D'après la définition, dét A est une somme de termes du type :
(an
Il suffira de vérifier que chacun de ces termes dépend linéairement de la kème colonne.
: : : :
Dans ce ne dépend pas de la kème colonne, alors que la matrice A±j contient
cas, le terme a\j
la kème colonne. D'après l'hypothèse de récurrence, dét A\j est une fonction linéaire de la
kème colonne. Ainsi, a\j dét A±j dépend linéairement de la kème colonne.
Si j k, aij
=
aïk dépend linéairement de la kème colonne, alors que A\k ne contient pas
=
la kème colonne. Aussi, a\k dét A\k dépend linéairement de la kème colonne.
Ainsi dans tous les cas, dét A dépend linéairement de la kème colonne.
Il reste à montrer que si deux colonnes sont égales, le déterminant est nul.
Lemme (a) :
(an
En effet, supposons par exemple que Ck =
Ck+i et soit j un indice différent de k et de k +1.
>
a-ij a^ a^ aln
: : : : :
conséquent dét A = 0. 0
Lemme (b) :
change de signe.
En effet, remplaçons dans la matrice A la jème et la (j + l)ème colonne par leur somme
En utilisant la linéarité par rapport à chaque colonne que nous avons démontrée ci-dessus,
on a :
En utilisant le lemme (a), on voit que le premier et le quatrième termes sont nuls et donc
que :
dét||ci,...,Cj, Cj + i,...,Cn||
=
-dét||ci,...,Cj + i, Cj,...,Cn||
ce qui montre le lemme .
0
matrice jusqu'à ce que les deux colonnes égales soient adjacentes. Chaque fois que l'on fait un
tel échange, le déterminant change de signe d'après le lemme (b) ce qui n'a pas d'incidence
sur le fait qu'il soit nul ou non. Puisque, lorsque les colonnes égales sont adjacentes le
déterminant est nul d'après le lemme (a), il le restera lorsque a et Ck sont deux colonnes
quelconques égales. D
Le théorème que nous venons de démontrer entraîne toute une série de propriétés
importantes.
Corollaire 4.3 Si l'on échange entre elles deux colonnes, le déterminant change
-
de signe.
Soit A ||ci,..., cn|| et A! une matrice obtenue en changeant l'ordre des vecteurs
—
colonnes de A (on dit que A' est obtenue de A par permutation des vecteurs colonnes).
Par exemple A ||ci,C2,C3,C4|| et A' ||c4,C3,ci,C2||.
= =
A! =
||C4,C3,C1,C2|| en échangeant
>
||C1,C3,C4,C2|| en échangeant
>
||C1,C2,C4,C3||
Ci et C4 Ci et C3
en échangeant
||C1,C2,C3,C4|| =
A
C3 et C4
L'opération qui consiste à échanger entre elles deux colonnes en laissant fixes les autres
est dite transposition des colonnes. A chaque transposition le déterminant change de
signe et donc, dét .A' =
(—l)r détA où r est le nombre de transpositions nécessaires
pour passer de A à A'.3 En particulier, si détA =
0 alors détA7 =
0.
Dans l'exemple précédent : r =
3 donc dét A! = —
dét A.
Exemple -
Calculer
0 0 0 10
10 0 0 0
A =
0 0 0 0 1
0 10 0 0
0 0 10 0
1 0 0|
0 '
-dét||ei,e2,e3,e4,e5|| = -
0 = -1
0 1
Théorème 4.4 -
Soit A =
||ci,... ,cn|| G Mn(K). Alors les vecteurs ci,...,cn
forment une base de Kn si et seulement si dét A ^ 0.
Un déterminant est nul si et seulement si Vune des colonnes est combinaison linéaire
des autres colonnes.
Démonstration : Supposons, quitte à changer l'ordre des colonnes (ce qui n'a pas
d'incidence surle fait que le déterminant soit nul ou non) que la première colonne
soit une combinaison linéaire des autres :
A =
iiX/^Ci'C2'--->Cnii
2=2
En utilisant la linéarité, on a :
dét A =
Or, chaque terme de la somme est un déterminant avec deux colonnes égales, donc
nul, et par conséquent dét A 0. =
n n
J2 ^2 '"
Or, chaque terme de cette somme est du type a dét \\cj , c^,..., c\ ||, où a est un scalaire
et les indices j, fc,..., quelconque des nombres 1,2,..., n. Si deux indices
/ sont l'un
sont égaux, ||cj,Cfc,... ,q|| 0; si tous les indices sont différents, ||cj,Cfc,... ,c/||
=
est obtenue par permutation des colonnes de la matrice ||ci,..., cn||. Puisque le
déterminant de celles-ci a été supposé nul, le terme a dét || CjyCk,... ,c/|| est nul
et, finalement, dét \\vi, ..., vn\\ 0. =
Mais ceci est impossible, car v\,..., vn sont des vecteurs arbitraires (il suffit de
prendre pour {vi,..., vn} la base canonique {ei,..., en} de Kn : dét ||ei,..., en|| =
dét/n =
l).
Exercices 3. 4. 5.
Comme nous l'avons vu, un rôle important dans la théorie des déterminants est joué par les
permutations des colonnes. Voici la définition précise de la notion de permutation.
Définition 4.5 -
<r:{l,2,...,n}—>{l,2,...,n}
L'ensemble des permutations de {1,2,..., n} est noté Sn.
Puisque a est bijective, l'ensemble des valeurs de a, {cr(l), <j(2), ,a(n)}, possède ... n
éléments distincts et donc est composé des entiers 1, 2,... ,n rangés dans un ordre
éventuellement différent.
Par exemple, l'application a : {1, 2, 3, 4} —> {1, 2, 3, 4} telle que cr(l) =
4, cr(2) =
1, cr(3) 3, a (4)
= 2 est une permutation : a € S±.
=
( 1 2 \
)
n
...
/ 1 2 3 4 \
'^4 1 3 2J
Si cri et cr2 sont deux permutations dans Sn, on peut former la permutation produit ai o<72.
Par exemple, si :
/1234\ /1234\
(,4 ) { )
6t
^
cri =
°2 =
1 3 2 3 1 2 4
110 Déterminants
on a :
ai o cr2 (1) =
cri (3) = 3 , <n o a2 (2) =
ai (1) = 4
ai o (72 (3) =
(71 (2) = 1 , G\ O <72 (4) =
(71 (4) = 2
donc :
/ 4 \
fflCaa=l J
1 2 3
3 4 1 2
/ 1 2 3 4 \
I 3 1 2 4 I
J
<7i O (72 =
a2
\ 3 4 1 2 <r1oa2
De même, puisque <7 est bijective, on peut considérer la permutation inverse a"1. Dans
l'exemple précédent :
/ 3 4 \
(, J
i 1 2
ai 2 4 3 1
_
-
Définition 4.6 -
Par exemple :
/ 1 2 3 4 5 \
\ )
T~
1 4 3 2 5
_
'=
/i2S4\
4132
= /;?;;\ par.qm échange 1 et 4
v
\ 4 1 3 2 / par échange 1 et 2
'
r2 qui
donc (7 =
ri o n.
Proposition 4.7 -
"i1 l)j
= :
2 '"
y * * k
Deux possibilités peuvent se présenter :
1. k =
n. Ceci veut dire que l'élément n est fixe et que donc o est une permutation de
{1, 2,... ,n 1}. D'après l'hypothèse de récurrence o est un produit de transpositions.
2. k 7^ n. Considérons alors la transposition r qui échange k et n et soit o\ = r o o.
On a :
<7i (n) =
ro(n) =
r(k) =
n
produit de transpositions : o\ =
n o o
rp.
On aura donc : r o o =
n o o
rp, d'où, en composant avec r à gauche :
(7 T O Tl O O
Tp
=
car r2 =
id. Donc o est un produit de transpositions.
4.3 Permutations, transpositions, signature 111
/ 1 2 3 4 5 \
a={ 4 3 5 1 2
J
on a :
/ 1 2 3 4 5 \
/ 1 2 3 4 5
\ '21345*
4 2 3 15 4 13 2 5
et aussi a =
4 5 3 12 4 3 12 5
\ 4 3 5 1 2
) 4 3 5 2 1
V 4 3 5 1 2 /
Dans le premier cas, a est produit de 3 transpositions, dans le second cas elle est le produit de
5 transpositions.
Théorème 4.8 Soit a une permutation. S'il existe une décomposition de a en un nombre
-
£ (a) :=(-!)"
a n o o
rp
=
g =
t\ o o
tq
Il s'agit de montrer que : (-l)p (-l)g. =
A det
||eTlOT2o...oTp(l)î eT1OT2o-OTp(n) H —det
||er2o...orp(l)) er20".orp(n)||
=
î >
—
=
+dét||eT3o...oTP(i),--.,e^o...oTp(n)|| = =
(-l)pdét ||ei,... ,en|| =
(-l)p
Au paragraphe 2, nous n'avons admis que la proposition 4.7 que nous venons de démontrer.
112 Déterminants
Corollaire 4.9 -
n o o
rp o t\ o o
tq, donc :
e (m o
a2) =
(-l)p+« =
(-l)p (-1)' = e (<n) e M
Les autres propriétés se démontrent tout aussi facilement.
Exercices 6. 7.
A l'aide des résultats du paragraphe 3, on peut donner une formule pour calculer les
déterminants, dont l'intérêt est surtout théorique : elle va nous permettre de démontrer certaines
propriétés importantes des déterminants.
Commençons par le cas n = 2.
( ) ||ci,C2||, {ei,e2}
n
Soit A = = où ci,C2 sont les vecteurs colonne de A. Si est
\ ^21 0,22 )
la base canonique de K2 :
ci =
an ei + a2i e2
C2 =
ai2 ei 4- a22 62
En utilisant les propriétés fondamentales vues au paragraphe 2., on a :
dét A =
dét||an ei + a2i e2, ai2 e± H- «22 621|
=
N
anai2dét||ei,ei|| +an a22dét ||ei,e2|| '
+ a2i ai2dét ||e2,ei||
v
=0
+
>
a2ia22dét ||e2, e2|| '
=
(an a22 -
=0
=
an a>22 0,21 ai2
—
ci =
an ei + a2i e2 + a3i ez =
Y2i=i a*i e*
c2 =
a\2 ei + 022 62 + a32 ez =
Y^j=i aJ2 ej
C3 =
ai3 ei + a23 £2 -h azz £z =
Sfc=i afc3 efc
On a :
333 3
Lorsque deux des indices i, j, & sont égaux, le terme correspondant dans la somme est nul
(car le déterminant qui y intervient a deux colonnes égales). Il reste les termes
correspondant aux indices {i, j, k} avec i, j, k variant entre 1 et 3 et différents entre eux, c'est-à-dire
correspondant à toutes les permutations de {1,2, 3}. Par exemple {i, j, k} égal à {3,1,2} ou
à {1,3,2}, etc.
En changeant de notation et en posant :
4.4 Une formule explicite pour le déterminant 113
i =
a(l) , j =
a(2) ,
k =
cr(3) avec a e S3
2J lle^(i)' ea(3)|
on a :
dét A =
<Mi)i ûa(2)2 <M3)3 dét e^(2)?
<res3
=
Proposition 4.10 Si A =
(aij), on a :
-
dét A =
Exemple
-
<$3 =
{cri, (72, CT3, Ti, T2, T3}
ou :
-(iîî)
/ 1 2 3 \ / 2 3 \
J 'a2=V23lJ
1
V
0~\ = id =
0-3
1 2 3
/ 1 2 3 \ / 1 2 3 \
~\1 J
Tl T2 T3
3 2 ^ 3 2 1 y
'
1 (i =
1,2,3), d'où :
dét A =
an G22 ^33 + a2i 032 ai3 + CI31 ai2 «23
an a32 a23 «31 a22 ai3 a2i ai2 a33
— — —
c'est-à-dire
/(v,w) = dét II v,w ||Ci /(ei,e2)
Ceci montre que si /(ei,e2) =
/ identiquement nulle, ou, en prenant la contra-
0 alors est
dét||u,iu||ei =
f(v,w)
114 Déterminants
Soit f : M2xM2 — R une application bilinéaire alternée telle que /(ei, e<i) =
1,
{ei,e2} étant la base canonique. Alors
f(v,w) = dét A ,
où :
A=||v,w||
Proposition 4.11 -
f :E x x £ — K
nfois
f ( vi}..., vn ) =
dét || vi,..., vn ||(ci) /(ei,..., en )
Exercice 8.
dét(*A) =
déti4
Démonstration : Soit A =
(a»j)- Comme nous l'avons vu :
dét A =
CL<x(n)n
aesn
Puisque le corps K est commutatif, on peut effectuer une permutation quelconque sur les
termes à second membre. Par exemple, on peut permuter les deux premiers facteurs :
e(0")ûa(l)l *
aa( )
=
£ (p) Ol p(l)
"
Gnp(n)
4.6 Calcul des déterminants 115
détA=
^ £(p)alp(l) '"
anp(n)
pesn
Or ceci est exactement dét (*A). En effet, A (bij) bij a,ji ; donc
*
= avec = :
anp{n)
pÇSn PtSn
On en déduit immédiatement :
Toutes les propriétés des déterminants relatives aux colonnes peuvent être affirmées
pour les lignes.
Ainsi par exemple, les propriétés exprimées par les théorèmes 4.2, 4.3, 4.4 admettent
leur version duale :
Théorème 4.14 -
un déterminant est nul si et seulement si Vune des lignes est une combinaison
linéaire des autres lignes.
Exercice 9.
coî (aij) :=
(-l)i+j dét Aij
1 0 -3\ 4 -2
A =
( 2 4 -2 , cof(l) =
+
-1 3
= 10
5-1 3 /
cof(O) = -
5 3
=-16 etc.
116 Déterminants
Remarques. -
1. Le signe (—l)1"1"-7 dans la définition de cofacteur est déterminé par le schéma suivant
(schéma en damier) :
/ + -
+ -
+ ... \
+ -
+ -
+ -
+ -
+
-
+ -
+ -
\ /
2. Avec cette notation, la formule de la définition 4.1, s'écrit :
dét A =
an cof (an) + avi cof (avi) + + a>in cof (ain)
Théorème 4.16 -
détA =
aji coi(aji) + a^ cof(a^2) + + a,jn cof(a^n)
dét A =
aij cof (aij) + a2j coffaj) H- + anj cof (anj)
(an
par tA).
din \
: : et considérons la matrice B obtenue de A en échangeant
ani a-nn /
' ' '
dét A) :
B =
Ojl b]jk oj
ujn au a>ik air, -jeme ligne
ank Q>nn /
bifc =
ajk , bjk =
aïk et bik =
a^ ( si i ^ 1 et i ^ j)
détB =
bu cof(6n) + &12 cof(612) + + bin cof(bin)
=
dji cof(6u) + aj2 cof(612) + + ajncoî(bin)
4.6 Calcul des déterminants 117
Considérons l'un des termes de cette somme, par exemple a,jk cof (&ifc). On a :
hn
«21 «2fc «2n
Ûln
ligne en effectuant (j —
2) transpositions
avec les (j 2) lignes qui la précèdent, on aura :
—
cof(6lfc) =
(-l)1+fc+0-2) «11
"
«lit
'*'
«In
=
-C0f(ajA;)
donc :
déti? = —
dét A, on a la formule.
Exemple -
Soit :
1 -2 3
A = 2 1 0
1 -1 2
(-1) 2 0
+ 2
2 1
= -3-6 + 10 = 1
dét A =
+3
2
1 -1
1
+ 2
i—i
2
-2|
1
9 + 10 = 1
Le calcul d'un déterminant ne présente pas de difficultés, mais il peut être très long.
La somme qui apparaît dans la formule 4.10 comporte autant de termes qu'il y a de
permutations dans <Sn c'est-à-dire n! (pour n 5 cela donne 120 termes, pour n = =
Proposition 4.17 -
colonne) on ajoute une combinaison linéaire des autres lignes (respect, des autres
colonnes).
La démonstration est très simple. Ajoutons par exemple à la ieme colonne une
dêt\\vi,...,Vi +
52&i*JvJ>-->vn\\ =
dét||vi,...,Vi,...,v„||
+
Ej#i X3 WVU > Vi-Uvj>vi+U . .
, Vn
.
II =
dét ||vi, . . .
, Vi, . . .
, Vn ||
car dans la somme à second membre chaque terme est nul puisqu'il comporte deux
colonnes égales.
La méthode pratique pour le calcul des déterminants consiste à utiliser la propriété
ci-dessus de manière à faire paraître le plus possible de zéros sur les lignes ou sur les
colonnes.
Exemple -
Calculer
1 -2 1 3 4
1 -1 0 2 4
dét A 2 1 3 1 2
-1 0 1 1 3
0 1 -1 1 3
On a :
1 -2 1 3 4
0 1 -
-1 -1 0 L2-Li
détA =
0 5 1 -5 -6 L3-2Li
0 -2 2 4 7 L4+L1
0 1 -
-1 1 3
a première colonne
1 -1 -
-1 0 1 0 0 0
5 1 -5 -6 5 6 0 -6
dét;4
-
-2 2 4 7 -2 0 2 7
1 -1 1 3 1 0 2 3
C?2"fCi C3+C1
6 0-6
2 7
dét A =
0 2 7
2 3
=
6(6 -
14) =
-48
0 2 3
Théorème 4.18 -
dét(AB) =
(déti4) (détB)
( an ai-n bu
A = =
||ai,...,an|| ,
B = =
||&l,...,&n
\ an\ bnl
( en Clr,
et: C =
AB =
||Cl,...,Cn||
\ Cnl Cnn
'''
Cik
2_^ aij bjk
=
donc :
3=1 aij \
Ck =
YlbJk :
bik ai + + bnk an
anj /
/ anj àjk
\
;
3=1
^bjkaj
3=1
d'où:
dét(AB) =
dét||ci,...,Cn|| = dét || y^ bji a3, ^ bi2 ai,..., ^ bin Oi\\
3=1 i=i
jj Z,..., i variant de 1 à n et tous différents entre eux, c'est-à-dire {j, Z,..., i} permutation
de {1,2,..., n} . En écrivant, donc j = a
(1), l = a
(2), ...,
i =
a (n) avec a £ Sn on ,
aura :
dét (AB) =
Corollaire 4.19 -
alors :
1
dét^-1)^ détA
dét(A-1)
v J
= -±-.
détA
Réciproquement, soit A =
||ci,... ,cn|| et supposons que détA =£ 0. Les vecteurs
colonnes de A forment donc une base de Kn (cf. théorème 4.4) et A est la matrice
de passage de la base canonique {e^} à la base {q} : A Pei—>Ci. =
Or, on sait que
les matrices de passage sont inversibles, (cf. proposition 3.24 page 77) donc A est
inversible.
Corollaire 4.20 -
dét A' =
dét (P"1 AP) =
dét (P"1) (dét A) (dét P)
détA détP
detA
,, A
=
détP
détf =
détM(f)ei
Exemple -
x v
d'équation —
= —
= z
-1 -4
1
A=-\ -6 -3 12
3
V -2 -2 7
g{vi) =
-vi g(v2)=V2 g(v3) =
v3
et donc dét g = —
Figure 1
A~ 'cof (A)
dêtA
par la jeme ligne. Son déterminant vaut 0, car B a deux lignes égales :
0 = détB =
aki cof(dfci) + + akn cof (akn)
=
aji cof (a/ci) + + ajn cof (akn)
On a donc
l'expression (*) le premier membre est le terme de la jerne ligne et kèrne colonne de A cof (A)
*
Exemple 1 -
Soit A = ( „
I. On a dét A =
5 ^ 0, donc ^4 est inversible. On a
Donccof(A)=( J J ) (J ).
= = = =
, , ,
et A- = I
"J
Plus généralement, si >1 =
( ,
), avec ad —
bc / 0, on a:
aa oc
\ c a
y
—
—
/ 1 2 0
Exemple 2-A=l-l 3 0 dét A 3 2 5 7^ 0. Donc A est inversible.
V
= =
1-1/
— — —
0
Les cofacteurs des coefficients de la première ligne sont :
3 1 -1 0 -1 3
cof(l): 0 -1
-3, cof (2) = -
0 -1
-1, cof(0): 0 1
-1.
Nous déjà vu le théorème fondamental 4.4 (page 108) qui affirme que les vecteurs
avons
Théorème 4.23 -
(A)
Soit E un espace vectoriel de dimension n. Les vecteurs {vi,..., vn} de E forment
une base si et seulement si :
dét||vi,...,vn||Ci t^O
où ||vi,... ,vn||ei désigne la matrice dont les colonnes sont les composantes des
vecteurs i>i,..., vn dans une base {e^} (quelconque) de E.
NOTA. Dans la suite, si le contexte est clair, on notera simplement ||t>i,..., vn\\ la
—
matrice dont les colonnes sont les composantes des vecteurs vi,..., vn dans une base de E.
Par exemple, en choisissant la 2ème et 3ème ligne et la 2ème et 4ème colonne dans la
matrice
/ 1 2 7 3
2^
0 0 5
0 1
obtient le mineur 5
3 4
14
\T\ [ë]
on
2 3 1 1 6
v 2 i -î 3 2 y
Théorème 4.24 (B)-
D'après la remarque ci-dessus on peut se limiter à démontrer ce théorème, ainsi que ceux
qui suivent, pour les vecteurs de Kn> ce qui simplifiera les notations.
CLlr I \
\ ^nl Ûrir /
' ' '
on peut
supposer que le mineur encadré est non nul.
124 Déterminants
Considérons l'application :
p: Kn
( *i \ /6x \
\br J
V bn
an air
\\p(vi),...,p(vr
\ Q>rl
Donc
dét||p(t;i),...,p(t;r)||^0
D'après (A), {p(^i),... ,p(vr)} est une base de ifr, donc une famille
le théorème
libre. On en
{i>i,..., vr} est libre. En effet si Ai v\ +
déduit que + Ar vr 0, en =
une
/ an air
ari 0
0
jB =
||vi,.. .,iv, er+i,.. Ûr+1,1
0
V O-nl 0 0 1/
an a^
dét£ =
I arl arr i
' ' '
incomplète dit non seulement que toute famille libre peut être complétée
5
Le théorème de la base
en une base, mais qu'elle peut être complétée en choisissant les vecteurs dans une famille génératrice
quelconque fixée au préalable (cf. remarque page 16.)
4.9 Application des déterminants à la théorie du rang 125
Exemple
-
Les vecteurs
f1^
2 1
1
5
\
vi 3 V2 = 2 ^3 =
9
3 4 -2
v 5 y V o y 0/
forment une famille libre de M5 car dans la matrice ;
(
1 0 1
2 1 5
A = 3 2 9
3 4 -2
{ 5 0 0
Définition 4.25 -
/ 1 2 2 -1 0
^ 1
1 3 4 2-1 21
Dar exemple, soit et ô Les bordants de ô sont
S\'
: = :
3 -1 2-10 1
V 4 1 4 2 -1 )
1 1 2 1 2 1 2 -1 Il 1 2 0
en bordant
y I 3 4 I 3 2 1 3 -1
1
avec la IHeme ligne
3 -1 2 3 -1 -1 3 -
1 0
I 1 2 1 2 1 1 2 -1 1 2 0 1
en bordant
». 1 3 4 I 3 2 1 3 -1
avec la IVeme ligne
4 1 4 1 4 1 2 4 1-11
î î î
en bordant en bordant en bordant
avec , la IIIe e colo nne a1vec Ui][Ve m s C(Diorine aLvec lai Veme colonne
A =
et B
0>nl Uni bn I
Quitte changer Tordre des lignes et des colonnes, on peut supposer que le mineur ô
non nul est le mineur encadré.
Supposons que w G Vect{^i,... ,iv}. Si Tun des bordants était non nul, la famille
{vi,...,îV, w} serait libre (cf. théorème (B) ), ce qui est exclu, car w appartient
l'espace engendre par {v\, ..,iv}. Donc tous les bordants de ô dans B sont nuls.
Réciproquement, supposons que tous les bordants de ô sont nuls.
En regardant les vecteurs lignes de la matrice B, on voit que les r premiers sont
indépendants, car ô ^ 0 (théorème (B)) et chacun des autres est lié aux r premiers
(théorème (A)). Ainsi la matrice B a pour rang r. Donc les vecteurs colonnes de
B, {^i,... ,vr, w}y forment une famille de rang r et comme {^i,... ,vr} est une
Exemple -
0 /
1 1 0 \ / 1 0 a
\
0 1 1 0 0 1 2
A = ô =
et B =
1 0 0 1 ï Ô" 1
V 0 1 / V 0 1 P )
Les bordants de ô sont :
a a
Ai = 2 = 1 et A2 = 2 =
P-2
1 0 1 0 1 /3
D) DÉTERMINATION DU RANG
Théorème 4.27 -
an «îr
A= ||vi,...,Vr, Ciyl
* * *
Cbf dm I
(théorème (B)).
,
> r + 1 ; d'après le théorème (C), tous les bordants de 5 dans A sont nuls.
pour 5
Théorème 4.28 -
(E)
Le rang d'une matrice A est l'ordre maximal des mineurs non nuls extraits de A,
c'est-à-dire :
volume dans Rn
NOTA. —
La présentation que nous donnons ici est tirée du livre de S. Lang : Algèbre linéaire i,
InterEditions, Paris, 1976.
Comme nous l'avons dit dans l'introduction, le déterminant possède une remarquable
interprétation en termes de volume dans Rn.
Etudions d'abord le cas de dimension 2 et considérons le parallélogramme engendré par deux
vecteurs v et w de R2.
128 Déterminants
Figure 2
Théorème 4.29 -
A(v, w) =
dét || v, w ||
Démonstration : Posons :
A est dite aire orientée. Avec cette notation, il s'agit de démontrer que :
Â(v, w) =
dét||t>, w\\.
Pour cela il suffira, d'après la proposition 4.11 page 114, de montrer que A est bilinéaire,
alternée et que Â(ei, ei) = 1.
On a immédiatement
Â(v, v) =
±A(v, v) =
0
et :
dét||ei, e2|| 1
A{ex, e2) —-^ A (eu e2)
a f
1 1
\ , ,
x
= = x =
!
-
dét ||ei,e2
Il ne reste plus à démontrer que A est bilinéaire.
Lemme. -
Pour tout À G M, on a :
A(\v, w) =
\X\A(v) w
a) A(—v, w) =
A(v,w)
J(.(nv, w)
= n A(v, w) pour tout entier n > 0
4)-
(n —
l)v
On en déduit, en remplaçant v par
—
v dans la
n
formule trouvée :
A l -v, w) =
A(v, w)
J
-
\n n
et donc :
/m \ m Vm, neN
A ( ) A (v, w),
N
.
v,
.
A
w
m > 0, n >
=
0
v "
—
—
' n
\n
.
^ ^
' n
Figure 4
c A(v, w) =
A(c, w) Figure 5
Â(\v, w) =
\Â(v,w),} VA G M.
détllÀv, iu||
A(\v, w) —-—lL-rA(\v, w)
a /x n A /x
x
-j
=
A(vi+V2,w) =
A(Vi, V)) +A(V2, V)) , V^i, V2, W Gl2
v v + w
/
c
En effet :
/ ^
Figure 6
(ii) A (v + w, w) =
A (v, w).
Cela est évident si v et w sont liés. Si v et w sont libres :
dét
Si ji 0, cela a déjà
=
été démontré.
Supposons fi y£ 0 :
w) = —
^ J[(Av, /xiy) =
J[ f Av, -iy 1 =
J[(Àv, iy)
Soient maintenant vi =
av -f bw et ^2 =
cv + diy, on a :
.Â(vi + V2, w) =
.A((a + c) v + (b + d)iy, iy) =
(a + c) Â(y, w)
= a A(v, w) + cÂ(v, w) =
*4(ai>, iy) + A(cu, iy)
=
A(yiiw) + Â(v2,w)
(ii)
L'intérêt de cette démonstration réside dans le fait qu'elle peut se généraliser facilement en
dimension supérieure.
Notons que le parallélogramme engendré par v± et V2 est l'ensemble :
{z e M2 | z =
Ai vi + A2 v2 avec 0 < A* < 1 ,
i =
1, 2}
On a :
4.11 Orientation 131
Théorème 4.30 Soient vi,..., vn n vecteurs de Rn ; on note Vol (i>i,..., vn) le volume
-
{ z G Rn | z =
Ai vi -\ h Àn vn ,
avec : 0<Ai<l,i =
l,...,n}
On a alors :
Vol (vi,...,Vn) =
dét||vi,...,Vn||
En gardant donc fixes tous les Vi sauf deux, on peut étendre sans trop de difficultés la
démonstration donnée ci-dessus. D
Exercice 23.
4.11 Orientation
L'une des applications les plus importantes de la théorie des déterminants est qu'elle permet
de définir la notion d'orientation.
Soit #={^1,^2,^3} une base ordonnée de R3; puisque B est une base, dét ||vi,V2, V3II ^
0. On dit que B est orientée positivement si dét ||vi, V2,f3|| > 0; dans le cas contraire,
on dit que B est orientée négativement :
Figure 7
électromagnétisme) et, plus généralement, dans tous les problèmes où il intervient des rotations.
Elle sert à donner une signification précise à la notion de sens de la rotation ce qui revient
à choisir un ordre dans les repères de référence.
La notion d'orientation se généralise à un espace vectoriel réel quelconque de la
manière suivante.
Soit E un espace vectoriel réel de dimension n , {e*} et {e^} deux bases ordonnées
différentes6 de E et P =
Pei >e< la matrice de passage. Puisque dét P ^ 0, on peut
poser la définition suivante :
«différentes» en ce sens que deux bases sont considérées différentes même si elles ne diffèrent
que par l'ordre des éléments. Par la suite nous supposerons toujours cela, même si nous ne le disons
pas explicitement.
132 Déterminants
Définition 4.31 -
On dit que les bases {e^} et {e^} d'un espace vectoriel réel de
dimension finie ont même orientation si dét Pei >e/ > 0 (dans le cas contraire, on dit
{ei} a la même orientation que {ei}, puisque dét Pei—>ei = dét J = 1 > 0 ;
si {ei} a la même orientation que {e^} alors {ej} a la même orientation que {ei} car si
dét Pe _/ > 0 alors dét Pe/__e. =
(dét Pe >e/)-1 > 0 ;
Le lecteur familiarisé avec la notion de quotient (cf. Appendice A.3.), aura remarqué
qu'il s'agit d'une relation d'équivalence.
Proposition 4.32 -
C+ : =
{ bases de E, de même orientation que B }
=
{ B' e B | dét Pb-^3' > 0 }
C~ : =
{ bases de E1, d'orientation opposée à celle de B}
=
{ B' e B | dét Pb-^b' < 0 }
Il est clair que toute base de E est soit dans C# soit dans C# et qu'elle ne peut
être dans les deux à la fois ; ainsi B est la réunion disjointe de C% et de C# .
Si maintenant nous fixons une autre base B1 de E ont voit immédiatement que :
C& =
Cg si B et B1 ont même orientation
C+, =
Cg si B et B' ont une orientation opposée
Définition 4.33 -
les bases de cette classe sont orientées positivement (ou qu'elles sont directes) et celles
de l'autre négativement.
En d'autres termes, fixer une orientation revient simplement à affecter d'un signe +
une classe et d'un signe l'autre classe.
—
NOTA. —
7Elle est immédiate si l'on fait appel à la notion de quotient (cf Appendice A.3 ).
4.11 Orientation 133
Exemple -
la base {vi,..., vn} est orientée positivement si et seulement si dét Pei—>v. > 0, c'est-
à-dire si dét ||vi,..., vn\\ > 0, comme nous l'avons dit ci-dessus pour n 3. =
{Eij} (cf.
élémentaires page 65.)
Orientation induite
Comme on voir, dans certains cas l'espace vectoriel peut être muni
vient de le
peut le faire aussi d'une autre façon, qui sous certains aspects est plus pratique.
Pour cela, on choisit un vecteur w E R3 \ {n} :
on dira qu'une base B {vi, V2] de n est =
/ p 0
dét P&^& =
dét ||vi,V2, Hl{vi„v2,ti>} =
^t I I n
^ I =détP
V 0 0 1
Ainsi B et B' sont dans la même classe (au sens de l'orientation que l'on vient de
définir, c'est-à-dire : dét -£#_>#/ > 0 ) si et seulement si elles le sont au sens habituel,
c'est-à-dire si dét Pjs^b' > 0.
généralise immédiatement :
Définition 4.34 -
F une orientation dite orientation induite par w et par l'orientation de E : une base
& {^1? >
=
Vn-i}
de F sera dite positivement orientée si la base B {vi>..., vn_i, w} =
REMARQUE -
une base de F, on a :
Exercice 24.
EXERCICES
a 0 b 0
1 a -b
0 a 0 6
Ai = -aie A2 =
a, b, c, d €
c 0 d 0
b -c 1
0 c 0 d
2 Résoudre l'équation :
1111
0 0
(a, b, ).
x a
= 0 c, d £ R non nuls
a; 0 6 0
x 0 0 c
a\
—
61 ai
—
62 ai
—
6n
a2 —61 &2
—
&2 «2
—
bn
A =
an
—
b± an
—
62 an bn
4 Les nombres 136, 221 et 595 sont divisibles par 17. Montrer, sans le calculer, que le
déterminant
6|
:
Il 3
2 2 1
5 9 5
m
5 Pour quelles valeurs de À,//GM les vecteurs
(I 2\I ( M
0
\x I (' forment-ils
V V V
, ,
.
!
/ !
/
'
une base de R3 ?
ai =
(2 4 1 3 5) , a2 =
(1 5 2 4 3) , <r3 =
(2 3 4 5 1)
Calculer cr =
ai o a2 o 0-3 et vérifier que e (a) = e (ai) e (a2) e (as).
Exercices 135
7 Soit <j G Sn. On dit que deux éléments i, j G {1,2,... ,n} sont inversés dans a si
% < k et a
(i) > a
(k). Soit :
£ (jji)
Montrer que :
e(a) =
( l)i=1
=
2, |J5 =
0, (|6 =
1, donc :
e(a) =
1].
8 Soit A une matrice de terme général a^. Montrer que l'on ne change pas la valeur de
son déterminant si l'on remplace les éléments a^-, avec i + j impair, par a^.
—
3 16 24 33
x + 2 2x + 3 3x + 4
15 7 9
2z + 3 3z + 4 4z+ 5
5 27 36 55
Sx+ 5 5x + 8 lOx + 17
7 38 51 78
0 Calculer le déterminant :
0 0 0 0 . -1 X
12 Calculer le déterminant :
1 + x2 X 0
X 1 + x2 X 0
0 X 1 + x2 X
An =
0 0 x 1 + x2 x
0 0 0 x 1 + x2
<| 1
| 13
I Déterminant de Vandermonde
Montrer que :
1 X! (Xl)2 ...
(Xi)"-1
1 {x2)2 (a*)"-1
(xj xi)
x2
n
...
= -
l<i<j<n
1 Xn (xn)2 ...
(Xn)71'1
136 Déterminants
14 Soit
k n—k
\
B
}k
avec A G Mk{K)
D
CeMn-k{K)
=
\ k
et
)
n
\
—
0 C
Montrer que dét D = dét A dét C.
Généraliser :
\M\
*
dét =
dét Ai dét Ai dét Ap
(i4i, , Ap étant des matrices carrées)
0
B)
B
-B
dét =
dét(A2 + B2)
17 Soient vi, , vn n vecteurs d'un espace vectoriel E de dimension n et {e^}, {e^} deux
bases de E. Montrer que :
dét||vi,...t;n||ci =
(détP e/) dét ||«i, ,v„||c/
y + 5^ =
0 parallèlement à la droite x y z suivie de = =
(dét A)n~l. En déduire que si A est inversible, A+ Test aussi et que A++ (dét A)n~2 = A.
[Pour une généralisation au cas non inversible, cf. exercice 5 chapitre 6.] ,
a 2 -1 b \
21 Soit la matrice A =
3 0 1 -4 I Montrer que rg A > 2.
5 4-1 2 /
Par quelles valeurs de a et 6 a-t-on rg A = 2 ?
22 a) Soient i>i =
(a, 6, c) et i>2 (a;, 6', c') deux vecteurs indépendants de
=
#2 xi %3 x\
— —
{v! =
(1,1,0,1), v2 =
(0,0,1,0),«3 =
(0, -1,0,1), v4 =
(0,0,0,1)}
Coïncide-t-elle avec l'orientation canonique de R4 ?
2. Soit F le sous-espace de M4 engendré par les vecteurs {w\ = (1,0,2,1), W2 =
(2,—1,1,7),W3 =
(1,0,1,1)}. Quelle est la dimension de F? Déterminer un
vecteur w £ F tel que l'orientation induite sur F par w et par O coïncide
avec l'orientation définie par {wi,tU2}W3}-
3. Soit R4 muni de l'orientation canonique et F l'hyperplan défini par x + y z + —
positivement ?
INDICATIONS
|T~| Al = 1 + a2 + b2 + c2 , A2 =
(ad -
bc)2
Hl
1 1 1
=
+ + -.
b
- - -
x a c
ai
E Soient a = et v =
an
A = dét II a —
61 vy a —
62^,..., a —
bnv \\
Les vecteurs colonnes appartiennent à Vect{a, v} et donc, si n > 2, ils sont donc liés.
4 Ajouter à la IHème colonne la lere multipliée par 100 et la IIème multipliée par 10.
H
2 A M
M 0 A = A2 + m2 -
2A =
(A -
l)2 + fj,2 -
1
1 1 0
e(ai) =
-l, e(<72) =
l; e(a3) =
l] a =
(54312), e(a) = -l.
| 7
| Par récurrence sur n. Pour n = 1 il n'y a rien à démontrer.
_
/ 1 2--- fc n \
8 D'après la formule de la proposition 4.10, dét A est une somme de termes du type
e (j) ajxi aj22 ajnU où j {j\,..., jn) est une permutation de (1,2,..., n). Etant
n\n + 1) on a : + +
=
+ {jn+n) =
n(n+l)
qui est un nombre pair.donc dans ajx 1 aj22,..., %nn
Il y a un nombre pair de couples
O'fci &) tel Que Jfe + A; est impair. Conclure.
9
| dét (M) = dét (-A) =
(- l)n dét A...
|~ÏÔ] Ai =-2.
Pour A2 : soustraire la première ligne de la seconde et la seconde de la troisième. Mettre
en facteur
(x + 1) (x + 2). On trouve : A2 = 3 (x + l)2 (x + 2). -
An =
an xn + dn-i x71-1 H h ai x + ao
12 | An —
premiers entre eux, le déterminant est divisible par leur produit, et, pour des raisons de
degré, il vaut k Y\ (%j —
14 Remarquer que :
h 0
D =
0 C
A + B B
dét = dét
B A B + A
B A-iB -B
dét = dét
B B + iA
A-iB B
= dét
0 A + iB
| 17
| Soient : Xi (vi)Si, X[ M (vi)et. On a :
M =
=tdét||P-1Xi,...,P-1X„||
=
dét ||tii,...
,t^||ej =dét||X(,...,Xn||
= dét (P-1 \\Xi,... ,Xn||) (cf. chapitre 3, exercice 23).
Exercices 139
Autre méthode : Si v\,...vn sont liés, les deux membres sont nuls. Si {i>i,...,^n} est
une base, alors, d'après la transitivité des matrices de passage (cf. proposition 3.24,
page 77)
dét||vi,...,vn|| =détPei-+<ui =dét(PCi_>c./Pc./_>Vi) =
détPe._>e./ dét ||vi, ...,vn||Ci'-
On a dét / =
0, dét g =
0, car f et g sont non injectives.
Donc dét (g o
/) =
(dét g) (dét /) = 0.
2a-12 S-a 2
19 \ a + 1 A"1 =
a-7
4- a a-1 -3
1 -2 1
De la relation AA+ =
(dét A) I on obtient (dét A) (dét A+ ) =
(détA)n. Ecrire
ensuite la relation A A+ =
(dét A) I en remplaçant A par A+.
a 2 -1
21 Dans A =
3 0 1 le mineur encadré est non nul, donc rg A > 2.
5 4
a a' x\
22 b b1 y \ =
0. En effet cette équation exprime, d'après le théorème (A), que
ce* z\
x
y | G Vect{vi,v2}.
a a'
b) Utiliser le théorème (B). Si par exemple b b' ^ 0, le plan est défini par le
a a' X a a' X
b b' y = 0 b b' y = 0
c c! z d d' u
23 L'aire étant invariante par translation, effectuer une translation de manière à ce que
le sommet A soit l'origine.
24 1. On a dét || v\, V2, V3, i>4 || > 0. Donc l'orientation définie par ces vecteurs coïncide
avec l'orientation canonique.
2. Il suffit de choisir un vecteur w £ P, tel que dét || wi,W2,W3,w \\ > 0. On voit
Au chapitre 2. nous avons appris à résoudre les systèmes d'équations linéaires par la méthode
du pivot. Cette méthode, même si elle est très simple et très efficace 1, se révèle en général
mal aisée lorsque dans le système interviennent des paramètres et surtout elle ne permet
pas de savoir a priori si le système admet ou non des solutions : pour le savoir on est obligé
d'entamer la résolution du système et voir si l'on obtient des équations du type 0 =
a avec
Les déterminants fournissent un outil efficace et indispensable pour la discussion des systèmes
linéaires : ils permettent d'avoir les conditions de compatibilité sous forme de relations liant
les coefficients et fournissent aussi des formules qui donnent explicitement la solution
(formules de Cramer).
an #i + &12 #2 + + ain xn =
b\
; (i)
l api x\ + aV2 X2 + + apn xn =
bp
où les dij et les bij appartiennent à un corps K (commutatif).
On appelle solution tout vecteur x =
(#1,... ,#n) G Kn dont les composantes xi
satisfont toutes les équations. Le système est dit compatible s'il admet au moins une
solution.
Expression matricielle
Soient
(an
:
ciin \
i i GMPtn(K)
Gpl 0"pn /
' ' '
141
142 Systèmes d'équations linéaires
/ *i \
B =
€ Mp,i (K) et X =
G À<„,i (tf)
\Xn J
Le système (1) peut s'écrire sous la forme matricielle :
AX = B (!')
Expression vectorielle
Notons ci,..., Cn les vecteurs colonnes de la matrice A :
/ an d\n
Cl =
GF,. eKp
\ «pi
On a :
an zi
O-ln Xn
XiCi =
, X<n Cn
a-pxt Xn
api xi
h
Si donc b =
G KP, le système peut s'écrire :
ai ci H h xn cn =
b (1")
Définition 5.1 -
an «i H \~ a>in %n =
b\
avec dét A^O (2)
O-nl *^1 ~r Ojyifi Xn un
* *
i
*
—
AX =
B (2')
Comme A est inversible, multipliant par A à gauche,
*
en on trouve :
X =
A~lB (3)
par (3).
La solution peut être exprimée aussi par les formules de Cramer. Considérons
l'interprétation vectorielle du système (1") ; la solution (xi,...,xn) est telle que :
xi ci H \-xncn =
b
Or
dét ||ci,... ,Ci_i, 6, ci+i,...,Cn|| =
aet ||Ci, . . .
,Ci_i, 2^fc=l xkCk-> Ci+1»« )Cn||
=
YJk=l Xk dét||dî,...,3_i, Cl, Q+i,...,Cn||
Pour k^i les déterminants de cette somme sont nuls (deux colonnes égales). Il reste
le terme avec k =
z, c'est-à-dire Xi dét A. Ainsi :
d'où:
dét || cî,..., 3_i, 6, Ci+i,...,Cn||
Xi
dét A
—
Un système de Cramer :
an xi H 1- &in Xn =
b\
^nl xl ~r i OjYifi Xn =
On
* " '
(avec A =
(a^) =
||c~î,... ,c^||, dét A ^ 0)
admet toujours une et une seule solution, quel que soit le vecteur b (&i,...,6n),
solution donnée par les formules de Cramer :
Exemple -
Soit le système :
2x -
by + 2z =7
x + 2y -
4z =3
3x —
4y —
6z =
5
On a :
2 -5 2
détA = 1 2 -4 -46
3 -4 -6
7-5 2 2 7 2
3 2-4 =
5 _1_ 13-4
46 46
5 -4 -6 3 5-6
2 -5
1 2
46
3 -4
Exercices 1. 2.
Op
xi ci H Yxncn =
b
an a\r
S : =
+ o,
ar\
{ci,..., cr} est une famille libre et donc une base de Vect {ci,..., cn} (cf. théorème
(B) ). D'après le théorème (C), b G Vect {ci,..., cn} = Vect{ci,..., cr} si et
seulement si tous les bordants de ô sont nuls :
5.3 Cas général. Le théorème de Rouché-Fontené 145
61
A,= =
0, s =
r + 1, ...,n
Les déterminants As sont dits déterminants caractéristiques. Leur annulation est donc
une condition nécessaire et suffisante pour que le système soit compatible.
Oi<n h \
B =
||ci,...,cr,...,cn, 6|| =
Apn bP J
Cette matrice a rang r, car cr+i,..., cn, b G Vect{ci,..., cr} et les vecteurs c\,..., cr
forment système
un libre. Donc les lignes de B forment une famille de rang r. Puisque
les r premières lignes sont indépendantes (à cause de la présence du mineur encadré)
les p —
r dernières lignes sont combinaisons linéaires des r premières. Ceci veut dire
combinaisons linéaires des autres et, par conséquent, elles peuvent être éliminées. Aussi le
système (4) est équivalent au système :
Or
Ces équations sont dites équations principales . Les inconnues qui y interviennent
-
Cest-à-dire X\, . . .
, Xr
—
xr+i
=
Àr.fi, , xn =
Xn (Xi G K)
Le système (4') s'écrit alors :
anxi + *
< (4")
\
ar\ x\ + 1 (Jb<p ip JU
ip Uj> Cbf 'p-i-'^ /\<p_|_l
...
ilifft ^T
146 Systèmes d'équations linéaires
On obtient ainsi unsystème de Cramer, lequel admet une et une seule solution pour
chaque choix de Àr+i,..., Àn. La solution dépendra donc des n —
r constantes que
l'on fixées. On dit que l'on a une indétermination d'ordre
a n-r.
Soit :
k. api Xi ~~r
*
i
Ojpr 3Cr "r"
* * *
i
Ûpn %n
—
bp
an air
î o
ar\
bx
0 (s =
r + l,...,n)
sr us
2. Si cette condition est réalisée, le système est équivalent au système des équations
principales :
Les
solutions se calculent en résolvant le système de Cramer obtenu en donnant aux
Exemple :
{2x
G R le :
+ y
—
z =
a
y + Sz =
p
2x + ky + 2z =
7
2 1 -1
0 1 3
2 k 2
1 a 1 -Il
|2 a -Il
|2 1 a I
1 3 0 P 3
P 1 0
2I 2I I2
r
k |2 7 k 7I
6(2-fc) 6 (2-A;) 6(2-k)
' y
(2 -
3 k) a -
6 2-k 3
?
—
- -
ô =
2 1 a
A =
0 1 (3 =
2{1-a-f3)
2 27
Donc le système est compatible si et seulement si 7 =
a + (3.
Les solutions s'obtiennent alors en résolvant le système des équations principales :
2x+ y
—
z =
a
y + 3z =
(3
x=a-<32+4X , y=0-3X ,
,= A
En résumant :
AX =
0
f(x) =0
et l'ensemble des solutions n'est pas autre chose que le noyau Ker / de /, qui est un
espace vectoriel.
En utilisant le théorème du rang, on a :
n =
dim Ker / + rg /
Proposition 5.4 -
Soit
un système linéaire homogène de rang r. On suppose que le mineur encadré est non
nul. Puisque les conditions de compatibilité du théorème de Rouché-Fontené sont
trivialement satisfaites, le système est équivalent au système des équations principales :
r).
REMARQUES.
-
1. Les solutions d'un système linéaire non homogène AX = B avec 5/0 ne forment
et AX2 B, d'où A
=
(Xl X2)
+ 2B ^ B : donc la somme de deux solutions n'est
=
Un cas particulièrement important est celui où la matrice A est carrée. Dans ce cas,
la condition pour qu'il y ait des solutions non nulles (r < n) est équivalente à ce qu'il
ne soit pas de Cramer, c'est-à-dire dét A 0. On a ainsi : =
matrice carrée, A e Mn (K). Le système admet des solutions non nulles si et seulement
si dét A 0.
=
Exercices 6. 7. 8. 9. 10.
EXERCICES
{3x
:
y + 2z = a
-x + 2y -
3z = b (a,6,ceR)
x + 2y + z = c
{(l+i)x
+ (1-22)2/ + (-l + 3i)* = 2 + i
x
-
2y + z = 0
ix + (2-i)y -
2z = 0
2 Soient x\t..., a?n+i n + 1 nombres réels deux à deux distincts. Montrer qu'il existe un
et un seul polynôme à coefficients réels de degré < n qui prend en x\>... ,œn+i des
valeurs préfixées.
\2x : ;v
+
/ ;0 I2: 2yy si z 1
~
+
i + Ay 2z l y
L t
x
I
-
=
Sx 3
_
_
y z
Sy
=
v
\4x + bz 1
y
- -
q -
* =
1
(x -
y + 2+ t = 2
<z + 2/- + 2t 1
(
z =
y + 2z =
0
x + y + (l-2a)« =
2(1 + q)
(l + a)x -
(l + a)y + (2 + a) z = 0
2x -
2ay + 3z = 2 (1 + a)
Abcx —
acy + 3abz = a
{
(2-i)x + (1+0 î/ + (4 + 30* = 0
équations :
x y + 2z t + u = 0
- -
2x + y + z -
2t + 2u =0
CE + Z —
t + U =0
I 8
I Déterminer quatre points alignés M, AT, P, Q connaissant les milieux A, B, C, D des
segments MiNT, 7VP, PQ, QM. Quelle relation doivent satisfaire A, P, C, D pour que
le problème admette une solution ?
9 Soit / l'endomorphisme de R3 qui dans la base canonique est représenté par la matrice :
3 2-2
A = -1 0 1
110
Pour quelles valeurs de À G E, existe-t-il des vecteurs non nuls -y G E3 tels que / (v) =
Xv?
{ax
-\- by + cz = 0
est de rang 2.
Expliquer pourquoi une base de l'espace des solutions est donnée par (#, y, z) avec :
y =
Généraliser.
INDICATIONS
8a + 56 -
c -2a + b + 7c -4a -
76 + 5c
x =
â y ô
8
'
—
| 2
| Soit P =
anxn + an-i ccn_1 + + ai x + ao- Ecrire le système :
P{xi) =
ai i =
l, ...,n + l
0
2 A + 4 5A-1
5 A
À pour le premier système.
-
z =
4 12
Solution unique pour le second système : x = —
, y =
,
z = -.
O ou
3(A-1) (1 + A)
Le troisième système est de rang 3 ; solutions
,
: x y
= = -
2a + 3 1 + a
2(a-l) 2(1-a)
* '
1-a
3 A
l--A, l+-
-, x ,
a =
y =
,
2
Si a = —
rc = A , y = —
A ,
z =
0
a
—
76 =
0.
6 Système de rang 1.
+ 2z -t +u =0
+ z -t +u =0
Solutions : x = —
z + t —
u , y = z —
( t~u\ ( -J1 \
-Z +
z —
u ! I
X = z = z 1 + t 0 + u 0
t ° 1 0
u J V 0 / V 0 J V 1 /
Les trois colonnes mises en évidence forment une famille génératrice et libre, donc une
!x
résoudre le système :
+ y = 2a
y + z = 26
z + t =
2c
t + x = 2d
9
| Il faut et il suffit que le système AX =
AX, c'est-à-dire (A -
solutions non nulles. Pour cela, il faut et il suffit que dét (A XI) —
= 0. On trouve
A = l.
152 Systèmes d'équations linéaires
(cf. théorème 4.22). La somme à premier membre est donc nulle si i ^ k. On considère
la matrice :
l m n
abc
a' y d
pour % = 2 et k =
1, la relation ci-dessus donne :
pour i = 3 et k = 1 :
Donc cof (l), cof (m), cof (n) vérifient le système. L'un deux est non nul car le système
est de rang 2. Puisque l'espace des solutions est de dimension 1,
(cof (l), cof (m), cof (n) )
est une base de l'espace des solutions.
GÉNÉRALISATION :
{an
n n :
xi + + ainxn = 0
Ûn-1,1^1 + + Q>n-l,nXn
= 0
supposé de rang n—1. Une base de l'espace des solutions est donnée par (cof (^i),..., cof (£n) j
dans la matrice
f
:
il h "-in
an 0,12 Clin
" '
M(/k =
||/(ei),...,/(en)||ei.
M (/)ei) A' =
M (/)e/ et P Pei >e/ est la matrice de passage de la base
=
{e^} à la
base {e£}, on a :
A1 =
P~lAP
Dans ce chapitre, nous nous proposons de chercher des bases de E dans lesquelles la
forme de la matrice est la plus simple possible, c'est-à-dire, par exemple, diagonale
ou, éventuellement, triangulaire.
Plus précisément, on dira que / est diagonalisable s'il existe une base {e^}, telle que :
/ an 0 o\
0 a22
M(f)ei =
\ 0 0 ann )
On dira que / est trigonalisable s'il existe une base {e^}, telle que :
/ an \ / an 0 °\
* a22
0
M(/)ei =
d22 OU M(/)e
*
V 0 0 ann ) Q"nn /
153
154 Réduction des endomorphismes
D d'équation —
=
j-
= z. Dans la base
canonique {e*}, on a :
M(/k = -L ( -2
V2, f(v3) =
0, donc :
M(f)Vi = I 0
\ 0
6.2 Vecteurs propres 155
/ 1 0 0
M(g)Vi =
0 1 0
V 0 0-1
NOTA. Dans tout ce chapitre, nous supposerons que E est un espace vectoriel de
—
nous le verrons.
1. v^O.
2. 3XeK:f(v) =
Xv.
Remarques. -
1. Alors que les vecteurs propres sont non nuls par définition1, la valeur propre peut être
nulle : les vecteurs (non nuls) de Ker/ sont justement les vecteurs propres
correspondant à À =
0.
K, /i^O, fxv est aussi vecteur propre correspondant à la même valeur propre À. En
effet :
/(mv) =
m/(v) =
h(\v) =
\(nv)
La raison de ce choix est que les vecteurs propres sont utilisés pour construire des bases.
156 Réduction des endomorphismes
Exemple 1 -
a f(w) =
0.
Ainsi, les vecteurs non nuls du plan sont des
vecteurs propres correspondants à la valeur
propre +1 et les vecteurs directeurs de la droite
sont des vecteurs propres correspondants à la
valeur propre À 0. =
Exemple 2 -
Exemple 3 -
Tout vecteur non nul de E est vecteur propre correspondant à la valeur propre k.
f(Vl) =
AiVi, f{v2) =
A2^2, JM =
Kvn
ainsi :
Ai 0 0 \
0 A2 *'. :
M(f)Vi =
0
0 .
0 An /
2Ce n'est en fait qu'une reformulation de la définition de vecteur propre. Si nous l'appelons
«théorème», c'est pour en souligner l'importance : dans la pratique il faut toujours avoir présent
que diagonaliser c'est chercher une base de vecteurs propres.
6.3 Recherche des valeurs propres. Polynôme caractéristique 157
( an 0 \
0 «22
M(f)ei
0
V 0
En regardant les colonnes de la matrice, on voit que f(e\) anei, ffa) «22^2,
= =
..
? f(en) —
ann e>n>
ce qui signifie que les vecteurs ei sont des vecteurs propres.
Ainsi, par exemple, les endomorphismes des exemples 1 et 3 sont diagonalisables, car
dans ce cas on peut construire une base formée de vecteurs propres.
Remarquons que sur la diagonale principale de la matrice diagonale apparaissent
justement les valeurs propres de l'endomorphisme.
Exercice 1. 2. 3.
(/ À
-
A id) =
0
/an aln \
M(f)ei = :
\ &nl Qjnn /
la condition pour que À soit une valeur propre s'écrit :
an
-
A ai2
&21 a22 A 0>2n
0.
—
Q>nl Q>n2
' ' '
Q>nn
~~
Proposition 6.3 -
Exemple :
Soit / : R2 —> M2 l'endomorphisme qui, dans la base canonique, est représenté par la
(-: i)
matrice :
A =
On a :
1-A 2
Pf(X) = dét (/-Aid) = A2 5A + 6 =
(A-2) (A-3).
-1 4-A
-
Si A = M (/)ei5 PfW dét (A- XI) sera noté aussi Pa (A). Il est clair, cependant,
=
que le polynôme caractéristique dépend de / et non pas de la base {e^} choisie, car
le déterminant d'un endomorphisme ne dépend pas du choix de la base dans laquelle
on le calcule (cf. définition 4.21 page 120).
L'ensemble des valeurs propres de / est dit spectre de / et est noté SpK(f) (ou
SpKAy si A est la matrice qui représente / dans une base).
Notons que A =
0 est valeur propre de / si et seulement si dét / =
0, car
P/(0) =
dét/.
REMARQUE -L'indice K dans la notation SpK(A) est nécessaire pour la raison suivante.
2 1
A =
-5 -2
2-A 1
On a : PA(\) = A2 + 1
-5 -2-A
Si donc on considère A comme matrice de M2 (C), elle a deux valeurs propres : + i et i. Si, —
en revanche, A est considérée comme une matrice de M2 (M) elle n'a pas de valeurs propres.
En d'autres termes :
SpcA =
{-i, +z} , SpRA =
0
Exercice 4. 5.
K[x}.3
A(X) =
B(X)Q(X) + R(X) avec d° R < d° B
A par B.
Si le reste de la division euclidienne de A par B est nul on dit que B divise A (et on note :
B\A).
2. Racines
On a :
a)\P
En effet, si on effectue la division euclidienne de P par X —
a, on a :
P(X) =
(X-a)Q(X) + R(X) avec d° R < 1
P(X) =
(X-a)Q(X) avec
Q(X)eK[X}.
3. Racines multiples
Supposons que a est racine de P ; on peut donc écrire P(X) =
(X —
a)Qi(X). Si a est
racine de Qi, peut mettre à facteur X
on a dans Q\ et écrire (X a)2Q2(X). Si —
P(X) = —
expression du type :
P(X) =
(X -
On dit alors a G K est racine d'ordre k de P (en d'autres termes, (X a)k divise P et
a)k+1
—
(X -
ne divise pas P. )
Si ai,..., ap sont des racines deux à deux distinctes respectivement d'ordre ai,..., ap, on
peut écrire :
P(X) =
{X-a1)^{X-a2y\...,(X-avYpQ{X)
avec Q (X) G K [X] Q n'ayant pas de racine dans K
,
On voit de (i) que un polynôme de degré n admet au plus n racines (en comptant chaque
racine autant de fois que son ordre de multiplicité).
Définition 6.4 -
P(X) X2 -
bX + 6 =
(X -
2) (X -
De même :
P(X) = X3 -
4X2 + 5X -
l)2 (X -
P{X) =
a(X--ai)ai ...
(X-ap)a*
avec a G K , ai 7^ % pour z ^j (ii)
et ai + -
+ ap = d°P
complexes.
On voit facilement que :
P =
k (X -
(X bqf* (X btf*
- - - - -
On a donc :
Proposition 6.6 -
P =
k(X- ai)ai ...
(X -
+ ap + 2(j0i + .../?9)=n (n =
d°P)
Pf(X) =
(-l)n(X -
Ai)"1 ...
(X -
Ap)ap
où Ai,---)AP G K sont les valeurs propres deux à deux distinctes de / de multiplicité
respectivement ai, , ap.
Dans la suite nous utiliserons la notation suivante : soit / un endomorphisme d'un espace
vectoriel de dimension n sur K et Ài,....,Àn ses n valeurs propres, égales ou distinctes,
éventuellement sur la clôture algébrique K' de K,
5
on pose
Sp7 =
{Al,....,Àn}
Par exemple, si Pf(X) =
(-l)n (X -
2)2 (X -
4)3 ,
on a :
Sp/ =
{2,4} et Sp7 =
{2,2>4,4,4}
NOTA -
La notation Sp'/ n'est pas standard, mais nous ne nous gênerons par pour l'utiliser.
2) (X -
3) , P2 =
(X -
1) (X -
3) et P3 = X -
eux.
Il est clair que si P\, , Pr sont scindés, ils sont premiers entre eux si et seulement si
il n'existe pas de racine qui soit commune à tous les Pi. En revanche, par exemple, les
polynômes de R[X] : Pi =
(X-2) (X2 +1), et P2 (X 3) (X2 + 1) ne sont pas premiers
= -
entre eux (X2 +1 est diviseur commun) bien qu'ils n'aient pas de racine commune (dans R !)
Théorème de Bezout . 6.7 -
Lespolynômes Pi, , Pr K[X] G sont premiers entre eux si et seulement s'il existe des
On dit que les polynômes Pi,..., Pr sont deux à deux premiers entre eux si pour chaque
i^j, {Pi, Pj} sont premiers entre eux.
Par exemple si P =
a(X ai)ai —
aj pour i ^ j,
les polynômes (X —
ai)ai, , (X
—
Une fois calculées les valeurs propres on détermine les vecteurs propres en résolvant,
dans le cas où la dimension est finie, un système linéaire : le système
(A-XI)v =
0.
Pour le lecteur qui n'est pas familiarisé avec les corps quelconques, considérer K R ou C et =
K =
C, et les n racines du polynôme caractéristique, Ai,...,Àn , égales ou distinctes, réelles ou
complexes.
On dit parfois premiers entre eux dans leur ensemble.
162 Réduction des endomorphismes
Exemple :
*-(-î!)
:
f(vi) =
Ai vi et f(v2) =
A2 V2
Calcul de v\.
(A-2I)v1 =0 équivaut à:
( "J 2)(») (o) =
{
ce
-x + 2y =0
-x + 2y =0
(A-3I)v2=0, c'est-à-dire:
{l^J ïj
et la solution est engendrée par v2 =
( . ).
2 1
qu'ils forment une base de M2, car dét||vi, i>2|| =
1 1
t^ 0. Par conséquent / est
diagonalisable
(l 30)
et
M(f)Vi =
P=\\VlM\ei =
(K\ \ )
On vérifie facilement que : A' =
P~1AP) où A' = l 1.
REMARQUE. —
A I)v = 0.
Puisque dét (A —
XI) = 0 (k cause du fait que A est valeur propre) l'une au moins des lignes de la
matrice A —
XI est combinaison linéaire des autres lignes (cf. proposition 4.14). Par conséquent
on obtiendra toujours un système linéaire homogène dans lequel une équation au moins est
TrA =
Ài + ---
+ Àn
dét A =
Ai Xn
PA(X) =
dét (A-XI) =
{-l)n{X -
Ai) .
(X -
An).
En faisant X = 0 on trouve immédiatement dét A =
Ai An.
Pour ce qui est de la trace c'est un peu moins évident. Qu'il nous suffise ici de le voir dans
Mn(K')
' [* ')
le cas où A est diagonalisable : A est semblable à la matrice de
V 0 Xn J
et A et A' ont la même trace (cf. 30, chapitre ) exercice 3.
Nous verrons propriété est vraie dans le cas général (cf. corollaire 6.16, page 173).
que cette
Le lecteur est invité cependant à s'en servir dès maintenant en prenant l'habitude de vérifier
que la somme des valeurs propres qu'il a trouvée par le calcul est bien égale à la trace de la
matrice.
Exercices 6. 7.
Définition 6.8 -
Soit X G K. On note :
Ex:={veE\f(v) =
Xv}
On vérifie immédiatement, en effet, que E\ est stable pour les lois d'addition et de
E\ =
{ vecteurs propres associés à A} U {0} et dimE^ > 1.
Ceci veut dire (cf. théorème 1.38, page 26) que si Bi,...,fîp sont des bases de
E\x,..., E\p) la famille {Z?i,..., Bp} est libre dans E (non nécessairement génératrice).
Démonstration : Par récurrence sur p.
E\p) fi E\p+1, alors x 0 (cf. proposition 1.41, page 28) : les autres propriétés sont
=
f(x) =
Ai xi H h Xp xp
D'autre part, puisque x G
E\p+1
f(x) =
Àp+i x =
Àp+i xi-\ h Àp+i xp
En faisant la différence :
0 =
(Ai —
Xp+i) Xp
Or E\x,..., E\p sont en somme directe, donc 0^ =
0ex + + 0ex es^ la seule
(Xk -
Ap+i) xk =
0Ek pour k =
1,... ,p
Ainsi donc les espaces propres sont toujours en somme directe, mais il peut se faire
que leur somme «ne remplisse pas» E tout entier, c'est-à-dire que l'on ait
EXl 0 © EXp C E
1. f est diagonalisable.
2. E est somme directe des espaces propres : E =
E\x 0 0 E\p.
3. dim£Al H + dim£Ap =
àimE .
D'autre part :
si E =
E\1 0 E\p alors, en prenant des bases B\,..., Bv de E\±,..., E\p,
©
la famille B :=
B =
{vu-
"
-
,vni,- '
,ww
*
-
,wn
'
}.
. v
e^Ai eEXp
Comme card(S) =
dimE, on a : ni H \- np =
dimE, c'est-à-dire :
Corollaire 6.11 -
diagonalisable.
En effet dans ce cas / admet n valeurs propres de multiplicité égale à 1. Il y aura
Les dimensions des espaces propres interviennent donc d'une manière essentielle dans
le problème de la diagonalisation. Un renseignement sur la dimension des espaces
propres peut être lu directement sur le polynôme caractéristique. La proposition suivante
Alors
dim E\<a
En effet, supposons que dimE^ > a 4-1, et soient vi,..., va+i des vecteurs propres
indépendants correspondant à À. Complétons œtte famille en une base B de E :
B =
{vi,...,VoH-i,ea+2,...,en} On a :
/ A \
M(f)t
0 | B
d'où:
/ X-X 0
Pf(X) =
dét
X-X
0
\ 0 | B-XI)
=
(A -
X)a+1 dét(.B -
XI)
X serait donc valeur propre d'ordre de multiplicité au moins égal à a + 1, ce qui est
exclu. D
c'est-à-dire À est racine d'ordre a et de Pf(X).
166 Réduction des endomorphismes
Le théorème principal sur la diagonalisation est une conséquence des propositions (A)
et (B).
Théorème (III) 6.13 -
1. Pf(X) est scindé dans K, ce qui veut dire que Pf(X) s1écrit :
| pf(x) {-i)»(x-\1)<»-(x-\Prp |
=
2. Les dimensions des espaces propres sont maximales, c'est-à-dire : pour chaque
valeur propre \ de multiplicité ai, on a :
à\mE\i =
ai
Pf(X) =
Q{X)(X -
Ai)ai (X -
Par conséquent : dim E\Y H h dim E\k < ai H h a* < n, ce qui est exclu. Pf (X)
est donc scindé :
Pf(X) =
{-l)n{X Ai)"1 (X Ap)a*> avec
- -
ai + + ap =
n.
Exemple 1 -
/ 2 0 4 \
,4=3 -4 12
V i -2 5 y
On a : PA(X) = -X (A -
1) (A -
2).
A admet donc 3 valeurs propres distinctes et donc elle est diagonalisable.
Déterminons les sous-espaces propres.
Eo : Soit v\ =
(*\
I y ; vi G i?o si et seulement si A v\ =
0 ce qui donne le système :
\ z
/
{2x
+ 4z =
0
3x-4y +12z =
0
x -2y + hz =0
6.6 Caractérisation des endomorphismes diagonalisables 167
on trouve : vi =
(l ~4\
3 I (ou tout autre vecteur colinéaire à celui-ci.)
V 2/
Il faut résoudre le système (^4 I)v2 0, c'est-à-dire
{x
Ei : =
:
—
+ 4z =
0 / -4
3x —
5y +12z =
0 ce qui donne, par exemple, V2 =
I 0
x -2y + 4z =
0 \ 1
(A 21) v$ 0, c'est-à-dire
{Az
E2 : On doit résoudre —
=
:
=
0
3z-6y + 122 =
0
x -2y +3z =
0
d'où V3 =
I 1 ,
à un facteur de proportionnalité près.
/ -4 -4
A'=\ 3 0
\ 2 1
Exemple 2 -
-1 1 1
A = 1 -1 1
1 1 -1
On trouve Pa(A) = —
(A —
{x
:
+ y + z =
0
x+y+z=0
rc-h2/ + ^ =
0
vi =
\ 0 et V2 =
(-2x+ y + z =0
\ x-2y + z =0
V 1
/ 1 01
A' =
\ 0-2 0 | et on a : A! = P"1 AP avec P =
0 11
168 Réduction des endomorphismes
-1 1 0
A = 0 -1 1
1 0 -1
Ainsi A n'est pas diagonalisable dans R, car le polynôme caractéristique n'est pas scindé
dans R, mais elle est diagonalisable dans C, car elle a trois valeurs propres complexes
distinctes (cf. corollaire 6.11). C'est-à-dire A est semblable à une matrice diagonale complexe,
mais pas à une matrice diagonale réelle.
Exemple 4 -
A =
On trouve Pa(A) = —
(Sx -22 = 0
\ bx + y-2z =
Q
qui définit une droite vectorielle, car les deux équations sont indépendantes. On en déduit
que dimiia 1 et, par conséquent, que A n'est diagonalisable ni dans R ni dans C.
=
Soit A G Mn{K). Supposons A diagonalisable ; il existe alors une matrice diagonale A' et
une matrice inversible P telles que : A' =
P~XAP, c'est-à-dire A = PA! P"1. Donc :
Ak =
(PA,P-1)(PA,P-1)...(PA,P-1)
v /
=
P{A')kP~1
v
fc-fois
fA1 0 0 \
Or si A' =
(A')k =
( . et donc Ak se calcule facilement
V o An 0 A* /
par la formule
Ak = P P'1
A£ J
6.7 Trois applications 169
Exemple
-
1 -1
'
Soit A =
t 2 4
2 0
On a Pa(A) =
À2 5A + 6 =
(A 2)(A 3). Ainsi A'
0 3
- - -
E2 : -a;-y=0, donc: v± = (
_1
£3 : -2x y =
0 donc : t>2 =
f _2
et P"> =
+ + 2
Illustrons cela sur un exemple. Il s'agit de déterminer deux suites (un)neN, (vn)nen telles
que :
f Un+1 Un Vn ( Uo 2
(1)
= =
et telles M
/1\
—
n
< que <
^0
, ,
{Vn+1 =2un+4vn 1
n
,
,
=
On pose Xn =
Xn+i = A Xn avec
ai)
d'où, par récurrence :
Xn =
AnX0 avec X0
On est ainsi ramené au calcul de An. Dans notre cas, compte tenu du résultat ci-dessus :
Un
H _
3n 2n+1 -
2 3n \ / 2 \
/ V
Vn 71
+ 3n -2n + 2 3n *
/
2n+2 _
2 .
3n _|_ 2^+1 _
2 .
3n
_2n+i + 2 3n -
2n + 2 3n
3 2n+1 4 3n
c'est-a-dire
. -
: <
[Vn =
-3 2n + 4 3n
170 Réduction des endomorphismes
dxr
dm %1
~dt
CLnn En
*
i i
" "
—
Éè
xi
« = AX A =
(aij^, X =
X par
X' = P~XX
dX' .
dX
^
dt dt
^- = P~lAX =
(P-1AP)X' =
A'X'
dX'
= A'X'
dt
Exemple -
Soit le système
dx
"dt
ày = 2x + 4i
dt
*-(î!)
1 1
On a et P
-1 -2
6,8 Trigonalisation 171
H X'
Le système
——
= A'X' s'écrit :
=
3y'
de2t C2e3t
+
C2e3 -Cie2t-2C2e3t
c'est-à-dire :
x =
de2t + C2e3t
y =
-Cie2t -
2C2e3t
( an ai2 «in \ ( an \
«22 &21 a22 0
A =
(resp. : A )
^ o Ûnn /
Q>nn /
REMARQUE. Toute
—
f /(ei) =
anei
f(e2) =
a\2 ei + a22 e2
/(en-i) =
«i,n-i ei H h an-i,n-i en-i
{ f(en) =
ain ei H h ann en
Considérons la base
si =
en, e2 =
en_i, , £n =
ei.
On aura
f /(^l) =
ûin^n + «2n£n-l H h ann£l
| f(s2) =
ai,n-l £n H h an_i,n-l £2
l /(£n) =
an 6n
172 Réduction des endomorphismes
donc
/ ann 0 ^
fln-l,n 0>n—l,n 1
M(f)H = = A'
\ CLln «il /
A et A' sont semblables car elles représentent le même endomorphisme en des bases
différentes.
pf(X) =
(-l)n (X Ai)** (X \p)*r
- -
avec ai + ap
= n.
Corollaire 6.15 -
en général des réels mais des complexes. On dit dans ce cas que A est trigonalisable dans C mais pas
dans M.
Démonstration :
Supposons que l'endomorphisme / est trigonalisable et soit une
/ an
M(/k =
V o
On a :
/ an
-
X *
\
Pf(X) =
dét (an -
X)(a22 -
X) (ann -
X).
V 0 0>nn X ]
—
propres).
diagonale an sont les valeurs
Réciproquement supposons Pf(X) scindé et montrons par récurrence que / est
trigonalisable.
6.8 Trigonalisation 173
V 0 I
Soit F Vect{£2,
=
,£n} et g : F — F l'unique endomorphisme de F tel que
M{g)e2)...,en B. =
On a :
Pf(X) =
dét(A -
XIn) =
(A -
X) dét(B -
Xln-x) =
(X-X) Pg{X)
Puisque Pf(X) est scindé, Pg(X) l'est aussi et donc, d'après l'hypothèse de récurrence,
Remarques.
-
Corollaire 6.16 -
+ An
dét A =
Ai An
Ai H h An et dét A! =
\\ An. Puisque deux matrices semblables ont même
trace et même déterminant, on a Tr A Ai H
=
h An et dét A Ai =
An.
Exemple -
/-4 0 -2\
Soit A 0 1 0
V
=
5 1 3/
On a Pa{X) =
—(X —
l)2(X + 2).
polynôme caractéristique est scindé dans R ; donc
Le
A est trigonalisable dans R. En regardant A comme la matrice d'un endomorphisme / de
M3 dans la base canonique, on sait qu'il existe une base {vi} de M3 telle que
(l b\
c)
a
M(f)Vi = 0 1
\0 0 -2/
î î î
fM /(!») f(vs)
174 Réduction des endomorphismes
1 ( f(vi) vi
f{v2)
=
II < =
av\+V2
III \ f(vz) bVi + CV2 2^3
= —
id)t>i =
0 (c'est-à-dire (A —
I)vi =
0), donne :
( -Sx -2z =0
\ bx + y + 2z =0
( 02\
On peut prendre
)
V-5/
^i =
Calcul de V2«
On résout l'équation II , (/ —
id ) V2 =
ai>i, c'est-à-dire (A —
I) V2 = a v\ :
( —bx z =
2a
\
—
bx -\-y + 2z =—ba
V 4/
en a = : V2 = —
Calcul de V3.
On sait qu'il existe un vecteur propre v correspondant à la valeur propre —2, c'est-à-dire
tel que f(v) = —
( -2x -2z =0
\ 3y =0
A' =
M(f)Vi =
P= ||vi,V2,v3|| =
Exercice 21.
polynômes annulateurs, que nous allons développer dans les paragraphes qui suivent, permet
de s'affranchir de la recherche des espaces propres et de la discussion sur leur dimension en
donnant d'une manière explicite les relations qui doivent relier les coefficients de la matrice
soit diagonalisable.
pour qu'elle
Q(X) =
amXm + am^X -1 + + axX + a0
où fk =
v
f°--of '
v
fc-fois
tative, on a cependant :
P(f)oQ(f) =
Q(f)oP{f)
pour tout couple de polynômes.
Cela tient au fait que / est linéaire et que les différentes puissances de / commutent entre elles.
n m
Y^ôP ; on a :
PU) o
Q(f) =
(E?=i cap) (Ef=1 bdfs) J2id oibjf* fi.
o = o =
^ oibjfi+t
=
Etj bjoif* fi (S,m=1 bjP) (J2?=i Oif*)
o = o =
QU) o
P(/).
X vérifie
QU) o. =
Définition 6.17 -
Ainsi, par exemple, un projecteur est nécessairement diagonalisable car le polynôme Q(X) =
X(X —
1) l'annule, est scindé et n'a que des racines simples (cf. exercice 11 chapitre 3).
De même, considérons un endomorphisme f de E tel que /3 =
/. On peut montrer (cf. exercice
12 chapitre 3) que E =
Eç> 0 E± 0 E-± ; donc / est diagonalisable car E est somme directe
d'espaces propres. Le théorème que nous venons de citer donne directement le résultat, car le
polynôme Q(X) = X3 -
X =
X(X -
Sp(/)cRacQ
En effet, si À est une valeur propre de /, il existe un vecteur v non nul tel que
f(v) =
Xv. On a :
f2(v) =
f(Xv) =
Xf(v) = X2v
f*(v) =
X3v
fk(v) =
Xkv
Soit Q{X) =
amXm + arn-iXm-1 + + axX + a0 un polynôme tel que Q(f) =
0,
c'est-à-dire vérifiant :
c'est-à-dire
(dm Am + am_i Am_1 + + ai X + a0) v =
0
Or v^O, donc am Àm H h a\ X + ao =
0, c'est-à-dire Q(X) =0.
Ainsi, par exemple, un projecteur ne peut avoir que les valeurs propres 0 ou 1 (ou 0 et 1). Si /
est un endomorphisme qui vérifie f3=f ses valeurs propres ne peuvent être que 0, 1 ou —
1.
Remarquons que toutes les racines de Q ne sont pas nécessairement valeurs propres.
Par exemple id vérifie id2 =
id, donc Q(X) =
X{X —
La première question qui se pose est de savoir si, pour tout endomorphisme /, il existe
un polynôme annulateur de / (autre que le polynôme nul).
La réponse est affirmative. En effet, si dirn^ E n, on a dimx End #(i£) n2. Donc = =
id, /, /2, , fn sont liés. Il existe donc ao, ai, a2, , an2 G K non tous nuls, tels
que :
Pf(f) = 0
6.9 Polynômes annulateurs. Théorème de Cayley-Hamilton 177
'Ai
M(/)ei =
On a :
Pf(X) =
(Ai -
X){\2 -
X)... (An -
X).
Il s'agit de montrer que
(Ai id -/) o
(A2 id -/) o o
(An id -/) =
0.
Considérons l'application
Qi =
(Ai id -/) o ...
o
(A» id -/)
Nous allons montrer par récurrence que gi annule les vecteurs ei,e2,..., e* ; pour
i n on aura le théorème.
=
Pour i =
1, on a :
9i(ei) =
(Aiid-/)ei =
Aiei -
/(d) =
0
(cf. la première colonne de M(/)eJ. Supposons que g%-i(ei) =0, ..., <fc-i(ei-i) =
0
et montrons que :
9i(ei) =
0, ..., gi(ei) =0.
On a : # =
^_i o
(Ai id -/ ) =
(Ai id -/) o
gi__1 ,
donc :
gi(ei) =
0, ..., ^i(ei_i) =
0.
ffa)). Or :
/\l ax \
o '
| a%-\
o»-i
'
'
M(/)e Ai
0
u 0 An /
î
178 Réduction des endomorphismes
donc
f(ei) =
oi ei H h a*_i e^-i + A; e^
d'où:
9i(ei) =
9i-i (Xi e» -
car <ft_i s'annule sur ei,..., ei_i. Ceci montre que si A G Mn(C), Pa(A) =
0.
Q(X) =
(X-a1)ai--.(X-ar)ar.
Le polynôme
Q1(X) =
(X-a1)..'{X-ar)
est dit radical de Il est facile de voir que si f est un endomorphisme
Q. diagonalisable
non seulement Pf(X), mais aussi son radical est un annulateur de / :
Proposition 6.20 -
Soit f un endomorphisme et
Pf(X) =
{-l)n (X -
Ai)ai ...
(X -
Xp)«*
le polynôme caractéristique. Alors, si f est diagonalisable, le radical de Pf(X), c'est-
à-dire le polynôme Q(X) (X Ai) = —
(X —
Xp), annule f.
(/-Aiid)o...o(/-Apid)T; =
0,
de/.
alors
il existe un polynôme annulateur qui est scindé et qui a toutes ses racines simples. Dans
le prochain paragraphe nous allons montrer la réciproque de cette propriété.
f End k(E) et
kemme des Noyaux 6.21 Soit G
-
Q(X) =
Q1(X) QP(X)
Si Q(f) ° alors :
=
E =
KerQi(/) © © KerQp(/)
entre eux, on a :
£ =
Ker/ © Ker(/ -
id)
Donc E est somme directe d'espaces propres et, par conséquent, / est diagonalisable.
Plus généralement, si
Q{X) =
(X~X1) ...
(X -
Xp), avec Ai / À,
annule /, on a :
E =
Ker(/ -
Ai id) 0 © Ker(/ -
Xp id)
=
EXl © © EXp
et donc / est diagonalisable.
Plus précisément, on a :
U1Q1 + U2Q2 =
l
d'où:
Ui(f)oQ1(f) + U2(f)oQ2(f) = id
180 Réduction des endomorphismes
Ainsi :
VxeE : x =
Ui{f)o Qx(/)(») + U2(f) o
Q2(f)(x) (*)
c'est-à-dire :
E C Im £/!(/) o
Qj(/) + Im C/2(/) o
Q2(f)
et donc :
E =
lm Ui(f) o
Qrif) + Im U2(f) o
Q2(f).
Or:
Q2U) °
W) °
Qi(/) = 0 (car Qa(/) °
Qi(f) =
0)
donc :
Im^2(/)oQ2(/)cKerQi(/)
et par conséquent :
^ =
KerQ!(/) + KerQ2(/).
D'autre part, si a; G Ker Qi(f) H KerQ2(/), d'après (*) on a x =
0 et donc :
E =
KerQ!(/)0KerQ2(/).
1 et écrivons :
Q =
Qi Qi
V
- - -
Qp-i -QP
-
'
v
Q*
D'après le cas p = 2 :
E =
Ker Q*(/) ©KerQp
Il reste à montrer que :
KerQ*Cf) =
KerQ!(jO e--- ©KerQp_i(/)
Soit F =
Ker<2*(/). D'après l'hypothèse de récurrence :
F =
K^Q1(f) © ©Ke^Qp_i(/)
où K^Qi(/) =
{ajGF|Qi(/)(x) =
0} C KerQ^/).
Or en fait Ker<2;(/) KerQi(f). En effet si
= x G KeiQi(f) on a Q*(f)(x) =
0, donc
x G F et donc x G KerQi(/). Ainsi donc :
F =
KevQ1(f) ®-.-©KerQp-i(/). D
sans racines
dans K). On a alors :
E =
Ker(/ -
Ai id)ai © © Ker(/ -
Pf(X) =
(-l)n(X -
alors : E =
Ker(/ -
Ai id)°* © 0 Ker(/ -
Xp id)"*>
noté rrif(X) -
le polynôme
normalisé annulateur de f de degré le plus petit n.
m/(/) =
0
Il est clair que si un polynôme Q est un multiple de rrif(X) (c'est-à-dire est divisible
Q(X) =
A(X) mf(X) =» Q(f) =
A(f) mf(f) =
0
On a, en fait, la réciproque :
Proposition 6.25 -
Q{X) =
A(X) mf{X) avec A(X) G K[X]
Supposons en effet que Q(f) =
0. En effectuant la division euclidienne de Q par m/,
on a :
Q{X) =
A(X)mf(X) + R(X)
où d°R < d°mf (c'est-à-dire : ou R 0 ou, si R ^ 0, d°R < d°mf). =
Mais rrif(X) est Pannulateur de degré le plus petit : ainsi R ^ 0 est impossible (car
on aurait alors d°R < d°mf). Donc R =
0 et m/ divise Q.
10cf. (i) page 159
plus haut degré
1
normalisé veut dire que le coefficient du terme de vaut 1.
182 Réduction des endomorphismes
Corollaire 6.26 -
La proposition 6.25 montre que pour connaître tous les polynômes annulateurs de /, il
suffit de connaître le polynôme minimal. Nous allons expliquer maintenant comment
on détermine le polynôme minimal.
Proposition 6.27 Les racines de mf(X) sont exactement les racines de Pf(X),
-
c'est-à-dire les valeurs propres, mais avec une multiplicité en général différente. En
d'autres termes, si on considère Pf(X) scindé (éventuellement sur la clôture
algébrique K' de K), c'est-à-dire si
pf(X) =
(-l)n(X -
Ai)*1 (X -
aiH \-ocp=n
alors
(X- Ai)^1 Ap)A>
'
mf(X) =
(X -
On a : PA{X) =
-(X + 1)(X + 2)(X -
3),
mA(X) =
(X + 1)(X + 2)(X -
3).
PA(X) =
-(X-l)(X + 2)2.
soit mf (X)=(X-1)(X + 2)
soit m/pf) pT-l)pf + 2)2
'
Calculons (A —
(-2 1 V 1 1 1\ 0 0 0
\ 1 1-2, 1 1 1 0 0
Donc :
m/(X) =
(X- 1)(X + 2)
6.11 Recherche des polynômes annulateurs. Polynôme minimal 183
(Y -
Puisque Q(X) n'a que des racines simples, rrif(X) n'a que des racines simples. D
Exemples :
i-i i i\
1.
A=\ 1-1 1 On que mA(X) (X+ 2)(X 1).
-l)
a vu =
\
-
.
1 1
2. A= -1 0 1 On a: PA{X) =
-(X -
l)3
donc :
ou :
l (X -
l)3
et A est diagonalisable <£=> mA(X) = X —
1 <é=> A —
I =
0.
/3 -1 1\
3. A= 2 0 1 On PA(X) =-(X 1)(X-2)2
\l
a:
2)
-
-1
nx-i)(x-2)
donc mA(X)
((X-l)(X-2)2
: = < ou :
Ainsi :
1)(X -
2) <=> (^ -
7)(A -
21) =
0.
I) (A —
2 7) on trouve :
/2 -î r
(A-I)(A-2I)= 2-1 1
) [ 2 -2 l
) =
| . . .
) ^0
Exercices 27. 28. 29. 30. 31. 32. 33. 34. 35. 36.
184 Réduction des endomorphismes
M(f)Vi =
0 An/
Une simplification supplémentaire est possible dans laquelle plusieurs des termes «*»
sont nuls.
Définition 6.29 -
Soit Pf(X) =
(-l)n(X -
X±)ai (X -
Xp)a? (avec Xt £
Xj). On appelle espace caractéristique associé à la valeur propre Xi le sous-espace
vectoriel :
NXi =
Ker(/ -
A, id)°«
D'après le corollaire 6.23, si Pf{X) est scindé, E est somme directe d'espaces
caractéristiques (que / soit diagonalisable ou non) :
e =
NXl e e NXp
Remarques. -
1. Nx d Ex
A id)a(z) =
0 (a étant l'ordre de
multiplicité de A), c'est-à-dire x G Nx.
En effet, si x G iVA, on a : (/ -
A id)a(z) 0 =
; d'où / o
(/ -
A id)a(aO =
0 et donc
(/ -
A id)a o
f(x) =
0, c'est-à-dire f(x) G Nx.
Théorème 6.30 .
(Réduction selon les sous-espaces caractéristiques)
Soit f G End k (E). On suppose que le polynôme caractéristique est scindé :
Pf(X) =
(-l)n(X -
Ai)ai ...
(X -
que
M(/)£
ai OL2 OLp
et
( Xi
M«K\
=
V o \i
stables par f. Si Si, , Sp sont des bases de E±, ,EP, la matrice de f dans la
base S {Si,
=
, Bp} de E est :
( {MÏ\ 0 \
\M2\
{
M(f)B =
où: Mi =
M(/L1)
o
[Mp]y
En effet, soient Si =
{ei, ,eni}, ,SP =
{ei,- ,enp}. Puisque f{Ei)<zEi, on a :
=
an ei + + aini eni =
£i + h
l/(eni) =
Griil Ci H h anini eni (f(£np) =
&npl £l H 1- ^npnp £np
donc
M, o \
M(f)B =
où Mi =
( Ojj ),- -, Mp =
( 6Jm )
0 \Mn
186 Réduction des endomorphismes
Démonstration du théorème :
Puisque les N\i sont stables par /, d'après le lemme il existe une base B de E telle
que
(\K\ o \
M(f)B où Mj Mtfj), fj f\N
1°
= : = =
Il s'agit de montrer que chaque matrice Mj est trigonalisable et ses valeurs propres
sont {\j,
v
, Xj}.'
On a :
v
ajfois
NXj=Kev(f-Xjid)^
donc \jid)aJ(x)
(/ 0, NXj, c'est-à-dire : (fj \jid)a*
= 0.
Vx G =
Ainsi le
-
-
mfj (X) =
(X -
Xj)Jj ,
avec 1 < 7j < &j.
On en déduit :
Pfj(X) =
(-l)s>(X-\j)*', avec
ôj >
7i
ôj fois
trigonalisable.
Il reste à montrer que ôi =
a*. On a :
XI)
=
p/x(x) .p/p(x) =
(-ir(x -
Ai)**... (x -
\py*
et comme par ailleurs Pf(X) =
(-l)n(.X" -
Ai)ai (X -
Ap)ap, on a facilement
Si =
ai.
Exemple Soit
(l -2\
-
-1 2
0 0 1-1
A =
1-110
\1 -1 1 0/
Considérons A comme la matrice d'un endomorphisme / de E4 dans la base canonique
{ei}. On a :
Pf(X)=X2(X-l)2.
Il existe donc une base de M4 {t>i, , v^} telle que :
( 1 a 0 0 \
0 1 0 0
M(f)vt =
0 0 0 b
\ 0 0 0 0 /
î T î î
/(»l) /(»2) /(«S) /(«4>
6.12 Réduction en blocs triangulaires
(ou réduction selon les espaces caractéristiques) 187
f f(vi) =vi
f(v2) =CLVi+V2
f(vs) =0
{ f(v4) =bv3
y
Calcul de vi. On résout le système A v\ =
v\, avec v\ =
z
c'est-à-dire
W
-y + 2z-2t = 0
s y
=
-y + z t =
0
0
-
y =
x y =
0
t
—
[
z =
x
—
y -h z —
t =
0
I)i^ =
at>i :
-y -\-2z-2t = 0
x =
a
-y + « * =0
o
-
y =
a; y =
a
t
—
z
[
=
x y + z t =
a
— —
( x-y + 2z-2t =
0
z t 0 1
On trouve
-
=
: V3 =
a; —
y + 2 =0 0
^ £ —
y+z =0 W
Calcul de V4. On résout le système /(V4) =
bv$ :
[ x-y + 2z-2t = b
x =
y b
t b
—
z =
qui donne t 0
-
: =
x y + z =
0
6
—
*
L
=
x —
y + 2 =0
1
En prenant b =
1, on a par exemple t>4
W
Ainsi
/l1
:
x 0 0 \
0 1 0 0
0 0 0 il
\ 0 0 0 0
|/
188 Réduction des endomorphismes
/0 1 1
0\
0 0 11
\\V\,V2,Vz,Va\\ 10 0 1
\l 0 0 0/
Notons que l'espace caractéristique Ni est l'espace engendré par v\ et ^2, et que N0 est
([m^\ 0 \ /[mTJ* 0
k
\
{ 0 H/ { 0 g]V
On est ramené au calcul de : . Posons :
0 *
B:= =
XI + J où J :=
0 0
On voit facilement que J est nilpotente, c'est-à-dire il existe p < n tel que Jp =
0. En effet
Pj(X) =
(-l)nXn et donc mj(X) =
Xp, avec p < n ; comme raj(J) =
0, on a Jp =
0.
Exercice 37.
Un endomorphisme / est dit nilpotent (cf. exercice 3) s'il existe fc 6 N tel que fk 0. =
f =
d+ n
En particulier :
Démonstration :
a) Existence
Soit B une base dans laquelle / est réduit selon les sous-espaces caractéristiques
\
o
A' =
M(f)B =
0
0 Av\)
ai a2 OLp
Ai \ /
0
0
0
0 Ai 0 0
o
0
0
*
V / v 0 0
A! =
D' + N'
f = d+ n.
Remarquons que d est diagonalisable, car Df est diagonale, et que n nilpotent, car N'
est nilpotente. De plus d et n commutent car D' et Nf commutent. En effet, d'après
190 Réduction des endomorphismes
/ [Mi] 0 \
( \Nt\ o \ / Mi Ni | 0
{ { {
=
o
\MP ) o Np ) ° MPNP
f Xi 0 \
( °
U
=
XiI et
V o Xi J 0
b) Unicité
/ =
d + n
=
d' + n'
d —
d' =
n' —
n.
Soit h := d —
d' =n' —
est
un endomorphisme diagonalisable.
Pour la démonstration, cf. exercice 14.
Lemme 2. -
endomorphisme nilpotent.
En effet, soient ni et n<i deux endomorphismes nilpotents d'indices de nilpotence
respectivement r et s. Puisque ni et n^ commutent, on peut utiliser la formule du
binôme ; on a :
(ni + n2)r+s =
£ Crfc+S ni n2r+s-k
fc=0
=
0
car si k > r : n\ =
0
si k <r : alors r + s —
k > s ,
donc n<ir+s_fc =
0
Lemme 3. -
Démonstration : -
Notons tout d'abord que d commute avec n donc il commute
avec / = d+ n ; de même d' commute avec /.
Considérons la décomposition de E en somme directe de sous-espaces
caractéristiques
E =
NXl e e N\p ;
M{qi)B =
\o o/
donc
d =
Ai qi H \pqp.
Considérons maintenant l'endomorphisme d' et montrons d'abord qu'il laisse
stables les sous-espaces caractéristiques.
Soit x G NXi) c'est à-dire tel que Ker(/ —
Àiid)ai(a;) =
0. Puisque d1 commute
avec /, on a :
(/ -
Xi id)a* o
d'(x) =
d'o(f-\i id)a* (x) =
0,
c'est-à-dire d'{x) G NXi. Les sous-espaces caractéristiques sont donc stables par d'.
{qi
Il s'ensuit que :
(x^
o d1 =
d' (x^
q%odf(xj) =0 pourz^j
On peut montrer maintenant que d' commute avec tous les projecteurs qi. En effet,
pour tout x G E, on a :
d' o
qi (x) =
d' (x^ et
qi o d! (x) =
qi o
(x\ H
d' Vxp)=q%o d' (x\) H qi o d' (xp)
=
qiod' (xi) = d' (x^
donc d' oqi =
qio d' pour tout i
=
1, ...,p. Par conséquent d' commute avec d, car
d =
Ai ci H ApÇp.
De la même manière on voit que n' commute avec d.
On a enfin :
n' o n =
rî o
(/ —
d) =
(/ —
d) o n' =
n o n' 0
Le théorème est ainsi démontré. D
Exercice 38.
192 Réduction des endomorphismes
La réduction par blocs triangulaires est, en général, suffisante pour les applications ;
une dernière réduction peut être effectuée à l'intérieur de chaque bloc jusquà parvenir
cependant
à la forme qui, dans un certain sens, est la plus simple possible : la forme de Jordan.
Par exemple, soit :
/l 0 0\
A = 0 1 1 =
M(f)ei
\0 0 2/
Cette matrice est sous forme triangulaire. On peut se demander si elle est diagonalisable.
On trouve :
PA(X) =
-(X -
1)2(X -
2) et mA(X) =
(X -
1)(X -
2)
/l 0 0\
M(f)Vi =010
0 0 2.
En revanche, soit
B =
On a :
PB(X) =
-(X -
1)2(X -
2) et mB{X) =
(X -
1)2(X -
2);
donc B ne peut pas être réduite à la forme diagonale. Ainsi pour certaines matrices
triangulaires une ultérieure réduction est possible, pour d'autres non. La théorie de Jordan
permet d'arriver à ce que l'on peut considérer la dernière réduction, aboutissant ainsi à une
classification des matrices à la relation d'équivalence près "A est semblable à B" (ou si l'on
veut : "A et B représentent le même endomorphisme" ).
Plus précisément le problème est le suivant. Comme on l'a déjà vu, si deux matrices sont
semblables alors elles ont la même trace, le même déterminant et, plus généralement, les mêmes
valeurs propres. En d'autres termes, si deux matrices ont, par exemple, une trace différente
(ce qui est très facile à vérifier), alors elles ne représentent pas le même endomorphisme. Il
est claircependant que le spectre n'est pas le seul invariant de la classe des matrices qui
représentent le même endomorphisme : le rang, par exemple, est un autre invariant. Mais
le rang et le spectre eux-mêmes ne suffisent pas à caractériser les matrices semblables. Par
exemple :
/ 0 1 0 \ / 0 1 0 \
A= I 0 0 0
] ,
£=0 0 1
\1 0 0/ \ 0 0 0 /
ont même rang et même spectre et pourtant elles ne sont pas semblables (vérifier qu'il n'existe
pas de matrice inversible P telle que AP =
PB).
La question se pose d'une manière naturelle de savoir s'il existe un système complet
d'invariants, c'est-à-dire si l'on peut associer à chaque matrice A un ensemble fini «Sa de scalaires
(tels que le spectre, le rang, etc) tel que si pour deux matrices A, B G Mn(K) on a Sa Sb > =
dans ce paragraphe.
6.14 La réduction de Jordan 193
(x i
0X
J(X) =
1
Vo
propriété 6.34 -
Pj(X) =(-l)n(X-X)n
mj(X) (X-X)n =
dimE\ = 1
Théorème de Jordan 6.35 Soit f G End k(E) ; on suppose que Pf(X) est scindé.
-
\l\ Supposons d'abord que f n'a qu'une seule valeur propre et que :
Pf(X) =
(-l)n(X-\)n, mf(X) =
(X-Xf, dim£A=7
II existe alors une base B de E telle que :
( | Ji(A)| 0\
\M*)\
M{f)B = =
JW
notation
v
o | A(A) | )
-
(ceci est évident, car dans chaque bloc il n'y a qu'un vecteur propre, d'après la
proposition précédente).
Pf(X) =
(-l)n(X -
A0ai (X -
/
|^i (A) 0
M(/)e =
1 j*w 1
0 1 J-rW |
ai &2 otp
194 Réduction des endomorphismes
A)5, mf(X) =
(X -
A)3 et dimEx =
2, il existe
une base {vi} de E telle que :
f A
0
1
A
0
1
1 0
0
0
0
\
0 0 A 0 0
M(f)Vi =
0 0 0
1 A l
\
0 0 0 0 A
/
Si d\mE =
5, Pf(X) =
-(X -
A)5, mf(X) =
(X -
A)3 et dimEx =
3, il existe une base {vi} de
E telle que :
/ A 1 0 0 0 \
0 A 1 0 0
0 0 A 0 0
M(f)n
0
=
l
0 0 0 o
0
0 J
0 0
o
Remarque : Une matrice sous la forme de Jordan est diagonalisable si et seulement si elle
est déjà sous forme diagonale.
En effet si elle n'est pas diagonale il y a un bloc de Jordan d'ordre /3 > 1, ce qui implique
que dans le polynôme minimal il y a au moins un facteur du type (X
—
A)^ ,
donc mf(X)
n'a pas toutes ses racines simples.
Démonstration du théorème :
Soit Pf(X) =
(-l)n(X -
A)n.
Puisque Pf(X) est scindé, / est trigonalisable. Il existe donc une base B' telle que :
/'
A
V 0 A,
TV: =
M(u)B'
0 o
Comme on l'a vu (cf. page 188), u est nilpotent. Puisque la matrice XI de Aid est la même
en toute base, le problème endomorphismes nilpotents.
revient à étudier la réduction des
que u^Q.
/O 1
M(u)b
î
VO o/
,
L'équivalence de 2. et 3. est immédiate : B est justement la base {x, u(x), u2(x)> , un~1(x)}.
Si 3. est vérifiée, (3 n
(cf. propriété 6.34).
=
Vn-1 =
U(x),
vk =
un~k(x):
Vl =
nn_1(x)
On voit facilement que cette famille {vi, , vn} est libre et donc elle est une base. En effet
soit :
Y^XkVk
n
=
0
fc=i
c'est-à-dire :
À2 0 ; d'où Ai un (x) =
0, et, puisque un (x) ^0, Ai =
0. Donc la famille {vi} est
une base et
0
r \
M(u)Vi 1
Vo o/
Le théorème est ainsi démontré pour (3 = n. O
D'après le lemme 1. et le lemme 6.31 page 185, le problème revient à démontrer que :
Lemme 2. En notant Kv =
Ker^p; on a la suite d'inclusions strictes :
{Q} =
K0CK1cK2C-'-C Kfi-i C Kp = E
± ± ± ± ±
Kp =
Kp+i =
Kp+2 = ' ' —
'
Kp = E
(cf. exercice 16, chapitre 3). Donc p serait l'indice de nilpotence, ce qui est exclu, car p < j3.
o
196 Réduction des endomorphismes
D'après le lemme 2., pour tout p G {1, ,0} il existe un sous-espace vectoriel Mp yé {0}
tel que Kp Kv-\ © Mp. On sait que le supplémentaire de Kv-\ n'est pas unique, mais
=
tous les supplémentaires ont même dimension. Nous allons choisir les sous-espaces Mp de
manière à ce que certaines conditions, nous permettant de mener à bien la construction,
soient satisfaites.
Lemme 3. Il existe des sous-espaces vectoriels M\, M2, , Mp non réduits à {0}, tels que :
1) Kp =
Kp-1®MPi pour p=l,---,/3
2) «(Mp)cMp-i, pour p =
2,---ï/?'
Démonstration : par récurrence "descendante" sur p.
-
a) u(Mp) C Kp-!
b) u(Mp)nKp-2 =
{0}
En effet, soit x G Mp. Puisque Mp C Kp, on a up(x) 0, d'où up~1(u (x) ) 0, c'est-à-dire = =
donc y = 0.
Ainsi u{Mp) et ifp_2 sont en somme directe (d'après b)) et lfp-2 0w(Mp) C Kp-\
(d'après a)).
Il s'ensuit qu'il existe un supplémentaire Gp-i de Kp-2 ® w (Mp) dans Kp-\ :
Kp-t =
Kp-2 © u(Mp) © Gp-i
On pose alors :
Lemme 4.
£7 =
Mx © M2 © © M/3
En effet :
E =
Kp =
Kp-! ® Mp =
Kp-2 © M/3-1 © Mp
=
Kp-3 © M/3-2 © Mp-! © M/3
=
Mi © M2 © © Mp
0
Nous allons maintenant construire une base de E en choisissant, par un procédé itératif, une
Jjexnme 5. L'image par u d'une base de Mp est une famille libre de Mp-i (pour p > 2).
En effet, soit {i>i, , vr} une base de Mp et soient Ai,... Ar, tels que :
Al U (Vi) + + Xr U (vr) =
0
on a u(\i vi + + Ar vr) =
0, donc :
Ai vi H h A2 v2 G Ker u =
K\ C Kp-\
a :
Ai =
A2 = =
Ar =
0 0
-
Dans Mp ( que nous allons noter G/3), on prend une base quelconque.
-
Dans Mp-i = u
(Mp) © Gv-\ on prend l'image par u de la base construite sur Mp et on
Bp =
{vi,...,vn/3 }
l%
v
'J
G/3
Bp-1 =
{u(vi)i...iu(vn0)9Wii...iWn0_1 }
Bp-2 =
\u2(vi),...,u2(vn/9),u(iui),
L
..,u{wn0_x), zi,...,zn/3_2/Jj
>
v
Gf3-2
Bl =
\up l(vi),...,u(3 1(vnf3),up 2(wi)i...,u(3 2(wn0_1),..., u(yi),..., u(yn2):
V V
u(G2)
3îl, 3^ni
')
.
, r
V
v
Gx
1,..., 2,1 et x G Gk ,
soit :
Ik{x) —
Vect{x,u(x),u2(x),... ,uk~1{x) }
Ainsi, par exemple :
Ip(vi) =
{vi,u(vi)y u2(vi),..., i/-1(ui) }
Vect
Lemme 6.
a) dim Ik (x) = k
Il est clair que E est somme directe de Ip(y\),..., Ip{vnf3)^ Ip-\(wi),..., Ip-i(wnf3_1),
,h(xi),..., Ii(xni) d'où il suit immédiatement la partie 1. du théorème.
La partie 2. vient du fait que E est somme directe de sous-espaces caractéristiques et sur
Dans l'énoncé du théorème nous avons donné des indications sur la dimension des blocs
de Jordan, qui sont général, pour déterminer la forme de Jordan lorsque la
suffisantes, en
dimension de E n'est pas trop grande. En fait, en analysant la démonstration, on voit que
l'on peut calculer explicitement à l'aide de / le nombre des blocs de Jordan de taille donnée
qui apparaissent dans la réduction.
Proposition 6.36 -
Soit
np(\) : =
nombre de blocs de Jordan d'ordre p pour la valeur propre X ;
KP(X) : =
Ker(/ -
A id)p .
On a alors :
np(X) = 2 dimKP(X) —
dimKp-i(X) —
dimKp+i(X)
Kp =
Kp-i © Mp , Mp= u(Mp+1) 0 Gp
et
u\mp+1 est injective. Ainsi :
dim dim Mp —
dim Mp+\
et
dim Mp = dim Kp —
dim Kp-i,
d'où la formule.
Corollaire 6.37 -
scindés, sont semblables si et seulement si elles ont la même réduite de Jordan (à l'ordre des
blocs près).
En effet si elles ont la même réduite de Jordan J, alors elles sont semblables à J et donc
elles sont semblables.
Réciproquement, si A et B sont semblables, elles représentent le même endomorphisme,
donc, en particulier, elles ont les mêmes valeurs propres. D'autre part, comme on vient de
le voir, les dimensions des blocs de Jordan sont calculées à l'aide de l'endomorphisme par
les formules ci-dessus et elles dépendant donc de l'endomorphisme et pas des matrices qui le
représentent. Ainsi les deux matrices auront les mêmes blocs de Jordan.
On peut aussi exprimer le corollaire en disant que si A est une matrice carrée dont le
polynôme caractéristique
est scindé, alors :
l'ensemble des valeurs propres (avec leurs ordres) et les dimensions des blocs de Jordan
associées à chaque valeur propre forment un système complet d'invariants.
EXERCICES
[sT] Soit E
bissectrice.
R2 = et /
—> : M2
M2 la symétrie orthogonale par rapport à la première
géométriquement les vecteurs propres, les valeurs propres, la
Déterminer
trace et le déterminant de /.
an-i (-l)71"1 Tr /.
=
(TrA) X + dét A.
ll^ll =
Montrer que le groupe linéaire des matrices inversibles, GL(n, K), est dense dans
Mn (K).
Application. Généraliser les propriétés de l'exercice 20. du chapitre 4 au cas non
inversible, c'est-à-dire :
dét A+ =
(dét A)71-1 ,
A++ =
(dét A)n~2 A
(7
=
4 0 0>
-12-6 6 lly
matrice réduite diagonale et une matrice de passage.
\7 Soit A G .Mn(R). Montrer que si À est une valeur propre complexe de A alors À est aussi
Soit A
(-1
I 0—1
1 0\
1 I. Déterminer matrice dans A^n(C) diagonale et
V -i)
=
une sem-
i o
blable à A, ainsi qu'une matrice de passage.
(1
Soit de est représenté par la matrice :
Loga6 Logac\
Log6a 1 Log6c
Logca Logc6 1 /
où a, 6, c sont trois nombres réels strictement positifs et différents de 1.
Montrer que / est diagonalisable et déterminer une base de vecteurs propres. En déduire
la signification géométrique de /.
H Soit
ft
1 ...
i.
1 t
At =
eMn(
'. 1
.1 1 t
200 Réduction des endomorphismes
propre ? En déduire Sp'-A*. At est elle diagonalisable ? Pour quelles valeurs de t a-t-on
dét At = 0 ?
10 Soit
/ 0 ai a2 as
an\
ai 0 ai as an
ai ai 0 as an
A =
\ai ai as an 0 /
13 Soient f et g deux endomorphismes d'un espace vectoriel de dimension n, tels que fog =
gof. On suppose que g admet n valeurs propres distinctes. Montrer que f et g admettent
une base commune de vecteurs propres. En déduire qu'il existe ao, ai, ai,. , an-i G K
tels que :
/ =
ao id +ai g + ai g2 H h an_i pn_1
0 Diagonalisation simultanée.
Soient f et g deux endomorphismes diagonalisables. On suppose que f et g commutent.
On note Ai,..., Ap (resp : m,..., fj,q) les valeurs propres de / (resp : de g) et Fi,..., Fp
les sous-espaces propres correspondants (resp : Git...>Gq).
1. Montrer que chaque Gj est stable par / et chaque Fi est stable par g.
En particulier :
domorphisme diagonalisable.
15 Décomposition spectrale.
1. Soit / un endomorphisme diagonalisable de E, Ai,...,Àg les valeurs propres
de /. Montrer qu'il existe un système complet de projecteurs {Pi,..., Pq} (cf.
exercice 10, chapitre 3) tel que :
/ =
Ai Pi + + Xq Pq (*)
Exercices 201
Ai Pi + Xq P<j,
...
+ alors / est diagonalisable.
L'expression (*) est dite décomposition spectrale de /.
3. Application. Déterminer la décomposition spectrale de
/l 2-2
A = 2 1-2
\2 2 -3
En déduire An.
g(x) =
f1>-* f(t)dt
Jo
Déterminer les valeurs propres et les vecteurs propres de <ï>.
/ tt/2
g(x) =
/ cos(x + i) f(t) d£.
J-ir/2
f(Q) =
(2x+ï)Q-(xi-l)Q
Calculer fn(ao + ai x + ai x2).
18 On note S l'espace vectoriel des matrices carrées réelles d'ordre 2 à trace nulle. Soit
B=\\ 3) et f
'
dx
4x + 6y
~dt
=
dy = —3 a; 5y
dt
—
dz
= —Sx Qy —
5z
dt
—
Soit P G InM, P =
ao + a\x + + anxn. On note P
-^ l'opérateur différentiel
P
[-^1 :
C°°(R) ->
C°°(R) défini par :
a"(l)
d
=
ao id +ai +
—
202 Réduction des endomorphismes
d#i
=
auxi + + ainXn
a,ij g R.
dxn
anlXi + + CLnnXn
~~dt~
—
dxi~\
Pa = 0
dt
=
3xi 2 #2
dt
—
dx2
=
2xi %2
dt
—
21 1. Pour chacune des matrices ci-dessous, donner une matrice réduite triangulaire en
2 -2 13 -5 -2
Ai =
, A2= |-1 0 1 A3 = -2 7 -8
1 0 -5 4 7
SpQ(/) =
{Q(Ai),...)Q(Ap)}
Q(A)M =
MQ(B).
3. Déduire des questions précédentes que ip est injective et que
et Q2 sont premiers entre eux. Soient E/i, V2 deux polynômes tels que U\Q\ +U2Q2 = 1-
Montrer que les projecteurs de E KerQi(/)0KerQ2(/) sur KerQi(/) et KerQ2(f)
=
sont respectivement
pri:=t/2(/)oQ2(/) et pr2:=[/i(/)oQ,(/).
En déduire algorithme permettant d'exprimer les projecteurs sur les espaces Ker Qi(f)
un
M4 =
Ker(A-J)2©Kei(A2+J).
1 a 1 \
28 | Soit A = I 0 1 b , (a, 6,c E M).
\ 0 0 c
/
Pour quelles valeurs de a>b,c ,
A est-elle diagonalisable ?
/ 5 1 1 -1\
1 5 1-11
| 29 I Soit A = .
1 x 5 _i I
\-l -1 -1 5/
Montrer que A est diagonalisable et inversible. En déduire le polynôme minimal et, à
l'aide du polynôme minimal, calculer A-1.
P*
30 1. Pour quelles valeurs de ai, a2, 03 G C3, la matrice
/ 0 0 ai
A= 0 0 a2
y ai a2 03
est-elle diagonalisable ? (On suppose ai et œt\ non tous les deux nuls, autrement
le problème est trivial).
2. Soit / l'endomorphisme de C3 qui dans la base canonique (ei,...,en) est
représenté par la matrice
( ai
\
0
M(f)ei
)
=
0>n-l
\ ai CLn-l CLn
' '
On pose a =
a\ + + a^_1 et v =
ai ei -\- + an en.
{/(e;)
=
ei+i (pour i =--
1,... ,
n -
1)
/(en) =
ci
En déduire que / est diagonalisable. Montrer que id, /, /2,..., /n_1 sont
linéairement indépendants. En déduire le polynôme minimal.
Déterminer les valeurs propres, le polynôme caractéristique et le déterminant
de/.
204 Réduction des endomorphismes
A =
0,2 ai ao e Mn(C)
/ 6 (E) /
50
32 Soit End où E est un espace vectoriel de dimension n. Montrer que si =0,
alors fn = 0.
33 Soit / :
IRn[#] —*
Rn[œ] l'application qui à tout polynôme P associe le reste de la
f o
(/2 -
Ai id ) o o
(/2 -
\p id ) =
0.
En déduire que
Im[(/2-Aiid)o...o(/2-Apid)l C Ker/2
et que
/o(/2-Aiid)o..-(/2-Apid)=0.
En déduire que / est diagonalisable.
3. Montrer que si / est diagonalisable alors Ker/ =
Ker/2.
En déduire le résultat suivant :
/ o ...
ai
02
A =
e Mn(C)
\ On 0
soit diagonalisable.
35 Soit la matrice
1 —a —a
1-/? a a 1
A où a,(3 e R.
—
P 1+/3
=
—a 1 —
0 a a 0
A3 -8A2 + 21A-18I =
0.
/ 3 -1 1
A= 2 0 1
\ 1 -1 2
PA(X) =
(X l)4 (X 2)2
- -
mA(X) =
(X-l)2(X-2)
Que peut-on dire des dimensions des espaces propres ?
Quelles sont les formes de Jordan possibles ?
40 Soit la matrice :
1 a
0 1
A=l ï1 2 3 1
' ' oùû^E-
En discutant selon les valeurs de a, donner une réduite de Jordan ainsi qu'une matrice
de passage.
41 Méthode pratique pour la construction d'une base de Jordan (cf. page 195)
1. On considère la matrice
/ 3 2-2
A2 -1 0 1
V
=
1 1 0
(cf. exercice 21). Quelle est sa réduite de Jordan ? (ordonner les blocs selon l'ordre
décroissant entaille). En construisant la base de Jordan, peut-on choisir comme
V
v =
une
i
/
2. On considère un endomorphisme /d'un espace vectoriel de dimension p et on
À id. Montrer que l'on obtient une base B = {i;i, ...,i>p} dans laquelle la
matrice de / est J(A), en prenant :
vpe E \ KergP'1
Vp-i =g(vp)
Vp-2
=
g{vp-i)
l vi =g{v2)
206 Réduction des endomorphismes
2 12-1
12 1 0
42 On suppose que :
PA(X) =
(-!)<* (X -
A)<*
mA(X) =
(X-X)?
dimE\ =
7
Montrer que :
-<7<l + a-/5.
43 Soit :
/0 0 0 0 0 0 1\
0 0 0 0 0 0 0
0 10 0 0 0 0
ab =0
A=|0
avec et
0 1 0 0 0 0
a + b = 1
0 0 0 0 0 0 0
0 0 0 0 6 0 0
\0 0 0 0 0 a 0/
Donner la forme de la matrice réduite de Jordan, en discutant selon les valeurs de a et b.
INDICATIONS
| 1
| Écrire la matrice de pp dans une base B =
{B±,B2}, où B\ est une base de F et B<i
une base de G.
H Soit v
f(v)
vecteur propre
: Xv. On a : 0 fp(v) \pv, d'où : À = = = =
0.
Si / nilpotent et diagonalisable, il est représenté, dans une base de
est vecteurs propres,
par une matrice diagonale ayant des zéros sur la diagonale ; donc / =
0.
|4 | a0 =
P/(0) = dét (/ -
0 id) =
dét/.
Développer dét (/ —
X id )
première ligne : les cofacteurs de
selon les éléments de la
ai2, Û13,..., a\n sont des déterminants d'ordre 1 qui contiennent chacun n 2 n
— —
1 de Pf(X) proviennent —
Donc :
Pf(X) =
(-l)nXn + (-l)71"1 (an + a22 + + an^X"-1 +
Soit Sp(.A) =
{Ai,..., \p}. Si tous les À^ sont non nuls, dét A ^ 0. On peut donc prendre
B = A.
Supposons, par exemple, que Ai =
0. Soit e > 0 arbitraire et r > 0 tel que r <
i=2,...,n
r, ...,ÀP +r } donc non nulles, aussi B G GL(n,K). D'autre part :
|| A -
B || =
|| rJ || =rVn<e.
Exercices 207
sont continues, car dét A est une fonction polynomiale des coefficients de A et A+ se
f:Mn(K)—+ K et g :
Mn(K)- K
A —>detA+ a '(détA) -1
h
sont continues. Puisque elles sont égales sur une partie dense, elles sont égales sur
Mn(K).
De la même manière voit que A+Jt (dét A)n~2 A.
(11 "1
on —
2 0 0\
3 2
-1 0 -2 -3/
7 -PaPO £ C[X] est à coefficients réels. Donc si À est racine d'ordre a, À est aussi racine
d'ordre a.
Av = Àv ==> A v = Xv Av = Xv
-{*
/l
-S-iVS 1
2 2
iy/3
}
-3 +
SpA P= 1 -l + t>/3 -l-i\/3
J V1
,
-l-*>/3 -l+t>/3
[T] Pa(X) =
-X2(X -
3)
("se servir de Loga6 -
^^^ .
#0 =
(Log a) x + (Log b) y+ (Log c) z est de dimension
2. Donc A est diagonalisable. Dans une base de vecteurs
propres :
/0 0 (T
M(/) =000
\0 0 3^
/ est la Es parallèlement à 2So} suivie
projection sur
t-X 1
Figure 6
1 t-X
0^t(A) =
1
t-X
Pour t —
X = 1 deux lignes (et même toutes) sont égales donc le déterminant est nul.
Donc À = t —
1. D'où : ordre
(t -
1) > n 1. Donc :
-
Sp'At =
{t v
-
l,i -
1,...,i -
1, Àn}.
,
v
n-l fois
Xn n + t
= 1. —
On a Àn / £ 1, donc ordre (t —
diagonalisable.
dét At {t l)n_1 (n
= -
+1 -
n.
208 Réduction des endomorphismes
propre. De même, —a2, —as,..., —an sont valeurs propres. Par la trace on a la dernière
valeur propre : ai + + an. Donc
Sp'A =
{-ai, a2,..., an,ai H h an} et détA =
(—l)n( fi ai
J f S a,j).
n
E a^),
( i=l A est diagonalisable.
Pour construire une matrice diagonalisable, il suffit de prendre, par exemple, les a* deux
à deux distincts et > 0. Par exemple :
/ 0 1 2 3
10 2 3
A =
12 0 3
\ 1 2 3 0
| 11 | dim E0 = n
-
1 et Sp'/ =
{0,..., 0, Tr /}.
n-l fois
/ est diagonalisable si et seulement si ordre(O) = n —
1 c'est-à-dire si et seulement si
Tr/^0.
Pour construire une matrice diagonalisable, on peut fixer arbitrairement la première
non
ligne, puis se donner les autres lignes proportionnelles à la première en ayant soin de
choisir le facteur de proportionnalité de la dernière ligne de manière que la trace soit
nulle. Par exemple :
( 1 2 4 -1
^
2 4 8-2
A =
-1 -2 -4 1
\ 1 2 4 -1
y
12 Si A =
0 est valeur propre de / o
5, on a dét (/ o
g) =
0, donc dét (g o
f) = 0 ; donc
A 0 est valeur propre de g o f.
=
13
| Montrer que si v est un vecteur propre de g pour la valeur propre A ( v G E^1' J, on
a :
f{v) e Ex(g). Utiliser dimJ^ = 1.
Écrire l'équation f =
ao id +a\ g-\ + an-i <?n-1 dans une base de vecteurs propres
commune à / et à g. On obtient un système dont les inconnues sont ao,ai,..., an_i
et le déterminant est un déterminant de Vandermonde.
14 1. Trivial.
a :
f(xi) Xi (2/1 + =
+ yq) f(yi) + + f(yq). Or f{Vj) G Gj (d'après 1. )
=
Ainsi, Fi =
Fi n G\ + + Fi n Gq.
Montrer que la somme est directe comme dans la démonstration de la proposition
6.9, page 164.
Puisque E est somme directe des Fi et pour chaque i Fi est somme directe des
Hij (non réduits à {0}), j =
1, ...,g, E sera somme directe des Hij. En prenant
une base dans chacun des Hij qui ne sont pas réduits à {0}, on obtient une base
de E formée de vecteurs qui / que pour g. Aussi,
sont propres aussi bien pour
si / et g commutent, ils sont simultanément diagonalisables.
Réciproquement si / et g sont simultanément diagonalisables leurs matrices dans
une base commune de vecteurs propres commutent, donc f et g commutent.
15
1. Puisque E est diagonalisable, E est somme directe des espaces propres :
Exercices 209
E =
EXl © 0 EXq
Prendre pour Pi le projecteur sur
E\t.
Tout x G E s'écrit x =
x\ H + xq (xi G EXi) d'où, en appliquant / :
f(x) =
Al Xl H h Xq Xq =
Al Pi H Xq Pq
2. On a ImPi ©
E =
© ImPg (cf. exercice 10, chapitre 3)
Puisque / Ai PiH =
\-Xq Pq et PioPj pour i ^ j, on a pour tout x G ImP*
f(x) Ai Pi(x)
=
Xi = x. Donc ImP* C E\i. D'où :
1 (double). On a :
r / pi+p2
i
=
A =
Pi-P2
d'où :
-1 0 -1 1
I + A I-A
Pi = -1 et P2 = -1 0 1
-1 -1 -1 2
An =
Pi + (-l)nP2
4. Dans le cas général, on a :
Pi + -
+ Pq
A Ai Pi + + XqPq
+ A^-1Pg
Le déterminant de ce système est un déterminant de Vandermonde (cf. exercice
13, chapitre 4). Ceci permet de calculer explicitement les projecteurs Pi.
Remarque -
La relation / =
Ai Pi + ...
+ ...
/Ai
Xi
M(f)Vi = =
Ai +
0/
/°
+ Aq =
Al Pi + + Ag Pq
I
ri
cœ-V(*)dt =
Xf(x) (1)
Jo
En dérivant, on trouve :
Xf'(x) =
Xf(x). Si A ^ 0 on a : f(x) = Cex.
E° =
2. L'analyse donne : Xf + À / 0. =
f I
r/2 r/i ï
Eo {f(t)\I / f(t)costdt f(t)sintdt 0}
[ J
= =
J-tv/2 J-tv/2
=
| 17
| Ecrire / dans la base B =
{1, #, x2}. On trouve :
/l 10\
A:=Af(/)e= 2 12, SpA {1,-1,3}
\0 1/
=
i (\ 1 1 v
[-1
P= 0-2 2
4
-
1 1
Calculer
£ = An ai
,7/ W,
et écrire le résultat sous la forme a + fîx +7 #2
18 A= (a d) ££ <=> a + d = 0 <==> A =
aEi + bE2 + cE3 avec
/ 0 2 0
B =
{EuE2yE3} est une base de S. Soit C :=
M(f)B = 0 2 0
\-4 0-2
On trouve :
/ 0 1 0
Cn 2n
[ 0 1 0
^
=
d'où fn(A) 2n
V y
: =
2a(-i)n-&(i+(-ir)+C(-ir -6
19 a; =
C2 e~2t + 2C3e\ y =
-C2 e~2t -
C3 e*, z =
Ci e~5t + C2 e"
20 Ona: tCof{A -
X J) (A -
XI) X =
PA{\) X (*)
/ xi \
où X =\ : et le système s'écrit :
(^ I-^)X—
= Q.
2yf + y =
0, dont la
solution générale est y et(ci + c21). Donc x\ et x2 sont
=
de la forme :
j X! =et(a + bt)
\ x2 =
et(c + dt)
211
Exercices
f 36 + 2d 6 f
l
d =~b
{
=
d'où : b
[ 3a + 2c =a + b
{ c -a+
= -
ce qui donne :
x\ = e* (a + bt)
X2 = e* (—a H bt)
Nota. Cette méthode permet de résoudre le système ïians chercher les vecteurs propres
(ou, le cas échéant, les espaces caractéristiques : cf exercice 37) .
1. Sp'Ai ={2,2,1}.
Si / est l'endomorphisme associé à Ai dans la base canonique, il existe une base
{vi} telle que
(2 a 0N
M(f)Vi =020
\0 0 1,
W
vi = comme =
on a a
W
a on : V2 par v3 :
W
= = .
= .
11 1 0\
A[ 0 2 0
\o iy
=
Sp'A2 =
{1,1,1} ; Ei : a; + y —
/0\
(1 0 o\
«3=0. Ainsi A'2 M(/)„< =0 1 6
W
: =
1/
.
\0 0
On calcule a, 6 en imposant que /(i^) = av 1 +6^2+^3. On obtient a =
—2,6 = 1.
fI 2
Sp'A3 {9,9,9}. dimi^g 1. E9 est engendré par vi 2
] Il existe
V
= = = . une
-1
base {vi} telle que :
/9 a b\
M(f)Vi = 0 9 c
\0 9/
.
En imposant /(i>2) =
clvi + 9i>2 on voit que l'on peut prendre, par exemple,
(I ~1/3
\
1 et V2 —2/3 ] (Attention n'a pas le droit de multiplier
V )
a : on V2 par
= = .
0
3, car i>2 est solution d'un système non
homogène).
On trouve b =
18, c = 2.
dX'
2. On résout : —-
dt
=
A[ X' et on revient à X par X = PX''.
212 Réduction des endomorphismes
( x'
=
(C2t + C3)e2t
y' =
C2e2t
{ zf =
d c*
a; =
(C2t + C3)e2t + C3e<
y =
(c2t + C3)e2* + 3C3et
l « =
C2 e2t + C3 e*
23 En dérivant le système -^ =
AX, on a par récurrence :
f-^J X = APX. D'autre
part, si PA(A) =
(-l)nAn + an_iAn-1+ -+aiA + a0, on a : (-l)n An+an_i A71"1 +
( —^ X.
h ai A + ao I = 0. Appliquer à X et tenir compte du fait que APX =
J
24
1. Si SpA={Ai,...,Ap},ona: SpPB(A) =
{PB(Ai), ...,PB(AP)} (cf. exercice 22),
donc toutes les valeurs propres de Pb(A) sont non nulles.
2. On a Ak M M Bk pour tout k G N, etc.
=
25 | On a
prx o
pr2
= 0 puisque Qi(f) o
Q2(f) = 0. D'autre part, d'après (*) page 180,
on a
pr1(a;) + pr2(#),
: x = Va; G E , d'où prx(a: ) =
pr2(rc ). Ceci montre que prx est
le projecteur sur KerQi(/). Même démonstration pour pr2.
Il est clair que l'algorithme de calcul des polynômes U\ et U2 du Théorème de Bézout
permet de calculer facilement les projecteurs prx et pr2.
i + 1 + A. D'où A = 1. Le polynôme
caractéristique de A est donc Pa(X) =
(AT-1)2(A:2 + 1). Puisque X-l X2 + l sont
et
/ )2 ©Ker( A2 + / ).
Noter que le Lemme des Noyaux s'applique aussi si les polynômes Qi ne sont pas
scindés.
27 mAl(X) =
(X- 2)2(X -
1), mA2(X) =
(X -
l)2 mA3(X) =
(X-9)*
28 PA(X) =
-(X-l)2(X-c).
Si # 1 : mA(X)
c (X 1) (X c) = - -
ou mA(X) (X = -
l)2 (X -
c'est-à-dire si et seulement
si (A —
I)(A —
cl) =
0. On trouve que A diagonalisable si et seulement si a =
0, et b
quelconque.
Si c = 1 :
mA(X) = X -
1 ou
(X —
l)2 ou (X —
1, c'est-à-dire si et seulement si A =
/, ce qui est exclu.
par conséquent :
mA(X) {X = -
4)(X 8) d'où : (A
- -
41)(A -
81) =
0, c'est-à-dire :
A2 -12A + 327 = 0.
Comme il n'y a pas de valeur propre nulle, A est inversible. En multipliant par A-1
cette équation, on trouve :
/ 7 -1 -1 1\
7
\ 1 1 1 7/
Exercices 213
30] 1. PA(X) =
~x(x2 -
cX -
(a2
admet trois valeurs propres distinctes, donc elle est diagonalisable.
+b2j). Sia2 + 6V0 et c2 +4 (a2 + b2) ^ 0, A
2. (a) On trouve /3 =
anf2 + crf. Polynôme annulateur :
Q{X) =
X(X2-anX-a)
(b) Si 7^ 0 et a2
a + 4 <r 7^ 0, Q n'a que des racines simples et donc A est
diagonalisable.
Si a =
0, alors Q(X) X2(X an). Si an 0, A = —
=
est diagonalisable si et
seulement si A 0, ce qui est exclu, etc. (raisonner
= comme dans 1.).
r^n 1- /fc(e0 =
ei+fc[modn]. Donc /n(e;)
=
e*, c'est-à-dire /" = id.
Q(X)
1
Donc = Xn —
ei, on trouve 60 =
61 =
62 = =
&n-i = 0. Donc dPmf(X) = n et par
conséquent :
mf(X) = Xn 1 et Pf{X) =
(-l)n(Xn 1).
- -
On en déduit :
Sp/ =
{ct>o,wi,...,Wn-i}, uk = e~TT
Sp <? =
{P(wo), P(wi), , P(wn-i)} ,
dét A =
P{u0)P{ui) P(wn-i).
32 X50 est annulateur. Donc m,f{X) = X^3 (avec /? < 50) et, par conséquent Pf(X) =
33 f2 =
f. Donc X(X —
1) est annulateur.
Q(x) =
Ai) (X —
Àp), d'où
f2 o
(/2 -
Ai id) o o
(/2 -
Ap id) =
0, c'est-à-dire
Im
[(f2 -
Ai id) o o
(/2 -
Ap id)] C Ker f2
Utiliser Ker/ =
Ker/2.
3. En écrivant les matrices de / et f2 dans une base de vecteurs propres, on voit
facilement que Ker / = Ker f2.
4. Application. A2 est diagonale, donc A est diagonalisable si et seulement si
Ker A = Ker^42. Cette condition s'exprime sur les coefficients ai par :
ai =0 <*=> an-i+i =0 (i =
1,... n)
214 Réduction des endomorphismes
2. Sp'(,4 + J) =
{1,1,2,2}, donc dét (A +1) ^ 0. Soit £ = ,4 + I ; B est
diagonalisable, donc (B -
I) (B -
B) = I - -
A.
18 =
(X -
2){X -
ma
(X) = X —
2 , ce qui donne A = l _
1.
ra,4 (X) = X —
3 , qui donne A = f n
„
)
-
mA(X) =
(X -
2)(X -
3), d'où :
PA{X) =
(X -
2)(X -
3) = X2 -
5X + 6, ce qui
équivaut à TV A = 5 et dét A =
6, c'est-à-dire :
/a 6 N
avec a(5 a) bc= 6
a)
— —
\c 5 —
rriA(X) =
(X —
'0 1 0 0>
0 0 0 0
37 A est semblable à A' = avec matrice de passage :
0 0 10
^0 0 0 1>
P =
^0 0 0 ly
Calculer P(A')np-
38 On a
Pa(-X") =
—(X —
1) (X —
A' =
Donc
donc :
1 -1 0 0
N = PN,P~1 = 1 -1 d'où D=A-N= 1 0
0 0 -1 2
Exercices 215
1 1 1 1
0 1 0 1
0 1 1
m
et
0 1
S s
V 0/ 0/
En particulier : dimEi =
3 ou dimi^i = 2.
40 I PA(X) =
(X-1)\ mA(X) =
(X-l)2
(ay =
0 si a = 0
et dim.Em <
!
=
{)
+ 2z + t = 0 2 si a ^ 0
/ 1 1 0 0 \
0 1 0 0
Donc : si a = 0 A est semblable à A'
0 0
V 0 0 0
0 /
/ 1 1 0 0 \
0 1 0 0
si a 7^ 0 A est semblable à A' =
0 0 1 1
V 0 0 0 1
/
Matrice de passage :
0 1 0 1
0 0 1 0
si a = 0 : P =
1 0 -1 0
y,-2 0 0 -1/
^011 -2/a>
0 0 0 1/a
si a 7^ 0 : P =
10 0 0
k-2 0-1 0 /
1 1
41
1. Réduite de Jordan : 0 1
V 0 0
0 J
Ei est le plan x + y —
z =
0. Si {^î, t>2 ^3}
>
est la base de Jordan on doit avoir
pour V2 au système
2x + 2y-2z = 1
—x —y + z = 0
Nota. C'est pour éviter ce type de problèmes que l'on utilise la construction
ci-dessous.
2. Simple vérification
216 Réduction des endomorphismes
3. Réduite de Jordan :
f 2 1 0
0 2 1 0
A' =
M(f)Vi =
0 0 2 0
V o o o
g /
Les vecteurs {v\ , ^2, i>3 } engendrent le sous-espace caractéristique N2 ; le vecteur
1
1
V4 engendre le sous-espace propre E\ : V4 =
-4
-1
on voit
que, dans les coordonnées {x,y, z,i}, N2 est défini par l'équation x 0. =
2I)2.
Le calcul montre que Ker(A —
=0
f
x
0
\
x =
-x +y-t = 0 c'est-à-dire :
y t
3x+y-t=0
=
On prend ensuite V2 =
(A —
2I)vs = et vi =
(A -
2 /) v2 =
P= \\viiv2tV3iv4t\\ =
Pi =
P, #2, /?3, .
, j&y. Or pi > 1 (pour t =
2,... ,7). Donc :
a =
Pi+p2 + --+P1>P+l + --
+ l =
P + l-l
7-1 fois
43
| On a A3 = 0 ; Pa(-X) =
--X7, m^CX) = X3 , dim^o = 3 quels que soient a et b.
Pour connaître la forme de Jordan, il faut calculer 723, 712 et ni à l'aide des formules
de la proposition 6.36.
Si a = 1 et b 0, on trouve
=
n3 =
2, donc n2 = 0 et ni = 1 ;
si a = 0 et 6 1, on trouve
=
713 = 1 et n2 =
2, donc ni =
0.
Chapitre 7
Espaces euclidiens
d'espace vectoriel permet de donner un sens, de définir et étudier les phénomènes linéaires,
la notion de produit scalaire permet de donner un sens, définir et étudier les propriétés
métriques dans les espaces vectoriels.
Dans ce paragraphe nous donnons les notions intuitives de "norme", "angle", "orientation",
de manière à assimiler plus facilement les notions plus précises qui seront définies par la
suite.
On sait qu'en physique ou en mécanique l'on introduit sur les vecteurs du plan R2 ou de
l'espace E3 une opération dite produit scalaire définie de la manière suivante :
Si x =
(xi, #2, £3) et y =
(yi, 2/2, ys), on appelle produit scalaire de x par y le scalaire :
(x +y,z) =
{x, z) + (y, z)
(Àx, z) =
À(x, z)
(x, y + z) =
{x, y) + (x, z)
(x, Xz) =
X (x, z) , Vx, y, z e M3, VA G R
(x, y) =
(y,x) , Vx, t/GE3.
iii) Il est défini positif, c'est-à-dire :
(x, x) 0 <(=4> x
=
0 =
217
218 Espaces euclidiens
Bien entendu, le produit scalaire vérifie d'autres propriétés, mais en fait toutes les notions
"métriques" peuvent être introduites en tenant compte de celles-ci.
Nous allons rappeler ici brièvement quelques-unes de ces notions.
1. Norme
| x || :=
^/{x, x) =
^x\ + x% + x\
La propriété iii), assure que l'on peut prendre la racine carrée et qu'un vecteur est nul si et
seulement si sa longueur est nulle.
Cette notion correspond à celle intuitive déduite du théorème de Pythagore (cf. fig. 1).
Figure 1
2. Orthogonalité
On dit que deux vecteurs v, w sont orthogonaux si
{v, w) = 0
Cette définition coïncide avec la notion intuitive d'orthogonalité. Soient en effet v et w deux
vecteurs ; on peut exprimer le fait qu'ils sont orthogonaux par la condition (cf. figure 2.) :
||v + tu|| =
\\v -w\\
--Jly^wii
Figure 2
\\v + w\\2 =
(v + w, v + w) =
\\v\\2 + IMI2 + 2 (v, w)
et \\v -w\\2 =
(v -
w, v -
w) =\\v\\2+ \\w\\2-2(v,w)
Donc la condition H^; + w\\ =
\\v —
v w non
orthogonal
à v (cf fig. 3). On trouve :
A =
Figure 3
v w
Vl et Wl
,
ïTiï
IMI
TT"iï
\H\
= =
cos 9 = X
Figure 4
Donc
Ceci définit l'angle (non orienté) compris entre 0 et 7r. C'est cette formule qui inspirera,
par la suite, la définition d'angle dans un cadre plus général (cf. page 233).
(v,w)
,
\sinay
11 .
" "
.
a w
I 0 I
A|
cos ol cos
sm a sin
>ei
=
||t>|| IM| (cos a cos/? —
sin ce
sin/3)
=
\\v\\\\w\\sm(p-a) =
\\v\\\\w\\sme
Figure 6
A(t»,w) =
IMIIMII *l (3)
REMARQUE. -
On a sin0 > 0 <==> dét \\v, w\\ei > 0, c'est-à-dire sinO > 0, si et seulement si
la base {v, w} a la même orientation que la base canonique (cf. définition 4.31.)
Figure 7
D'une manière pouvoir parler d'angle orienté il faut fixer au préalable une
plus précise, pour
orientation de la normale plan tt Vect{t>, w}, c'est-à-dire choisir un vecteur directeur n
au =
Si e =
(v, w)n, on a :
Figure 8
En effet :
Remarque -
Bien entendu, le fait que l'on puisse définir sans ambiguïté l'angle orienté entre
deux vecteurs de R2,tient à ce que M2 est muni d'une orientation canonique (l'orientation définie
par la base canonique).
À la fin de ce chapitre nous donnerons une définition plus précise d'angle orienté (cf. définition
7.29)
Comme on quelques exemples, les différentes propriétés métriques de l'espace
le voit de ces
ordinaire peuvent être définies rien qu'en faisant appel aux propriétés i), ii), et iii). Aussi
i), ii) et iii) peuvent être utilisées comme axiomes pour définir le produit scalaire dans les
espaces vectoriels quelconques.
Exercices 1. 2. 3. 4.
Définition 7.1 -
i) bilinéaire
ii) symétrique
iii) définie positive, c'est-à-dire :
(x,x) 0 =
4=^> x 0 =
Un espace vectoriel réel de dimension finie, muni d'un produit scalaire est dit espace
euclidien1.
Exemple 1 -
Exemple 2 -
fo y) et =
Xi vi + " *
+ Xn y
pour x =
s?=i xi ei i y =
127=i y*ei-
Exemple 3 -
Sur M3 on définit
La symétrie est évidente. La bilinéarité vient du fait que tous les x% et yi apparaissent à
la puissance 1 : plus précisément, le second membre est un polynôme homogène de degré
1 en les x% et les yi. Montrons que (, ) est défini positif.
On a :
(x,x) := x\ + 2 #2 + 3 £3 + 2xix2
Ecrivons le premier et dernier terme à second membre comme le début d'un carré :
xX + IXx X2
{x\
et on a :
+ x2 =0
X2 =0 4=4> Xi =
X2 =
X3 =
0
X3 =0
Exemple 4 -
(
(
iCi Xo \ yi 2/2
Il s'agit d'un produit scalaire. En effet si A = 1 et B
2/3 2/4
(A, B) =
xiyi+ x2 y2 4- x3 y3 + x* \
canonique. Si A =
(xij ) et B =
(yij ), on a :
^
n
(A,B) =
xijViJ-
Ils'agit donc du produit scalaire associé à la base canonique Eij de Mnfà) (cf. exercice
10, chapitre A.l).
Exemple 5 -
Notons que M[#], n'est pas de dimension finie et donc qu'il n'est pas euclidien, mais pré-
hilbertien réel.
Exemple 6 Si F est un sous-espace d'un espace vectoriel E muni d'un produit scalaire
-
(x,y)F :=
(x,v)e » (Vx,j/€F)
On vérifie facilement que (, )F est un produit scalaire sur F, dit produit scalaire induit.
Sauf mention contraire, nous supposerons que les sous-espaces vectoriels d'un espace
euclidien sont munis du produit scalaire induit. S'il n'y a pas de risque de confusion possible,
nous noterons d'ailleurs (, ) aussi bien le produit scalaire (, )E que le produit scalaire
induit (, )F .
Exercices 5. 6. 7.
Dans ce paragraphe nous allons préciser la technique utilisée dans l'exemple 3. page
222 qui permet de savoir si une application bilinéaire symétrique est définie positive.
Définition 7.2 -
f(x, y + z) =
f(x, y) H- f{x z) ,
f{\x,y) =
\f{x,y) =
f{x,\y), \/x,y,zeE, \/\eK.
V =
E£=i2/j ej ,
on a :
/( ^2 ^yjejj y^2,xiyjf(euej)
n n n
ffay) =
^ Ci, =
f(x>y) =
J2 o**x*yj
f(x,y) =
an xi yi + a12 xi y2 + h a%j xiyj H r- annxnyn
224 Espaces euclidiens
Autrement dit, on reconnaît une forme bilinéaire par le fait que, en l'écrivant dans
une base, on obtient une somme de monômes dans lesquels Xi et yj apparaissent à la
puissance 1.
f(x, y) =
xi yi + 2 x2 y2 x3 y\ + xi y3
-
f(x, y) = 3 xi 2/1 + 3 x\ y2 H
f(x, y) =
3x2y2 + 2x2-\
est symétrique.
Pour savoir si/ est définie positive (dans le cas où K R), on procède = comme dans
l'exemple de page 222, selon la technique suivante due à Gauss.
Il s'agit de savoir si f(x,x) > 0 et si f(x,x) =
0 implique x =
0. En écrivant f(x,x)
on obtient une expression du type :
f(x, x) =
anxl~\ h ann x^-\ h a+j XiXj -\
f(xyx) se présente donc comme un polynôme homogène de degré 2 en les x\. Les
termes en
x\ sont dits «termes carrés», les termes en XiXj, avec i =^ j, «termes
rectangles».
REMARQUE. Si / -
est un produit scalaire, tous les coefficients au des termes carrés sont
strictement positifs.
Exemple 1 -
Soit E =
R3, {a} la base canonique, x =
x\ ei + x2 e2 + x$ e% et :
f(x, x) =
x\ + 2 x\ + 5 x\ + 2 xi x2 —
4 x2 xz
Considérons un terme carré, par exemple x\ (s'il n'y a pas de terme carré, / n'est pas un
produit scalaire).
7.3 Méthode de Gauss pour la réduction en carrés 225
-
on ordonne suivant la f(x,x) =
x\ + 2x\X2 +2x1+5x1 4:X2X3
variable x\ :
termes avec x\
x22+2xl + bx1-4:X2Xz
le début d'un carré
* '
xi comme
v
:
î î
terme terme
avec Xi correctif
l'opération
f(x,x) =(xi+X2)2+ x\-^X2Xz +5#3
on recommence
-
=
(xi +x2)2 + (x2
V
-
2 x3)2 -
4 x\ +5 x\
'
v
î
terme
correctif
Notons que la réduction de Gauss n'est pas unique, car au lieu de partir de la variable
xi on aurait pu partir de n'importe quelle autre variable.
Il est facile maintenant de savoir si / est définie positive. Dans notre exemple on a
X\+X2 =
0
X2
-
2 x3 =0
x3 =0
Exemple 2 -
/(#, x) =
x\ + 3 x\ + 5 x\ + 2 xi X2 —
4 xi X3 + 6 X2 X3
226 Espaces euclidiens
/(x,x) =
(xi + (x2 -
2x3)J
-
T î
terme correctlf
termes avec Xi
=
(Xi -2X3)2+2X2 + X3 + 10X2X3
+X2
=
(xi+x2 -2x3)2 + (x3 + 5x2)2-25x1+ 2x1
=
(xi + x2 2x3)2 + (x3 + 5x2)2 23x1
- -
On voit immédiatement que / n'est pas un produit scalaire car cette expression peut
s'annulersans que x soit nul (ceci tient au fait que le dernier carré est affecté d'un signe
"moins"). Il suffit, en effet, de prendre xi, X2, X3 solution du système :
f xi + X2 2x3 =
0
\
—
X3
—
5x2 =
\/23x2
Théorème 7.3 -
échelonné (car la méthode de Gauss permet, à chaque étape, d'éliminer une variable).
Or un tel système n'admet que la solution nulle.
Réciproquement, s'il y a moins de n carrés, ou si l'un des carrés est affecté du signe
"moins", il n'est pas difficile de se convaincre qu'il existe des solutions non nulles de
f(x,x) 0. En effet, soit
=
f(x,x) =
anpi(x)2 +a2(p2(x)2 -\ \-anipn(x)2
la réduction de Gauss, où les ipi(x) sont des formes linéaires. Supposons, quitte à
changer la numérotation, que ai > 0 et a2 < 0 et considérons le système :
V ai
(p3(x) =
0
[ <Pn{x) =
0
Exercice 8.
7.4 Le théorème fondamental des espaces euclidiens. Procédé d'orthonormalisation
deSchmidt. 227
y
=
YJj=\y3eh ona :
^
n
\(X y)
,
=
ai3 Xi y3
(x,y) =
an xiyi+a12x1y2 + h chj xnjj-\ + annxnyn.
Dans ce chapitre nous allons montrer qu'en fait il n'y a qu'un seul type d'espaces
euclidiens. Plus précisément, modulo un changement de base, tout produit scalaire
peut s'écrire sous la forme :
3
(x, y) =
si î/i +
--
+ xnyn
Définition 7.4 Soit (£?,(,)) un espace euclidien. Puisque (x,x) > 0 pour tout
-
Il x II :=
VWX~)-
L'expression \\x\\
4
est dite norme de x.
Définition 7.5 -
(eu e3) =
0, Vi, j tels que i ^ j.
Elle est dite orthonormée si de plus chaque vecteur est de norme 1, c'est-à-dire si :
(e^, ej) =
dij
3En particulier, par exemple, si l'on demande de montrer une propriété sur les espaces euclidiens,
on ne
perd pas en généralité en la démontrant sur W1 muni du produit scalaire canonique, ce qui,
bien entendu, est en général plus simple.
4La notion de norme et ses propriétés seront étudiées au §5.
228 Espaces euclidiens
Remarques. -
1. Il est clair que si {si} est une base orthogonale, les vecteurs ei := rr-^rr définissent une
lle*ll
base orthonormee.
2. Toute famille de vecteurs non nuls {ei, ...,£p} deux à deux orthogonaux est libre.
En effet, si ai e\ + + ap ep = 0 ; on a, pour j =
1, ...,p :
0 =
( ej , ai si + -f ap ep ) =
aj
Eï=i %i &iy y
=
fa y) =
E£j=l Xi % <**i
#
= =
^1 2/1 H VXnyn
Ainsi :
On comprend dès lors l'intérêt de savoir s'il existe des bases orthonormées et, le cas
1 et
soit v G E, v ^ 0. Considérons l'ensemble de tous les vecteurs orthogonaux à v :
F ={xeE \ (x,v) =
0}.
Il est facile de voir que F est un sous-espace vectoriel de E et que dimF n 1. = -
En effet, F Kero; où uj est la forme linéaire définie par oj(x) (x,v). Comme
=
5 =
1.
Figure 9
5On a bien uj G E*, car le produit scalaire est linéaire en le premier argument.
7.4 Le théorème fondamental des espaces euclidiens. Procédé d'orthonormalisation
deSchmidt. .
229
Aussi E =
Vect{t>} 0 F. Par conséquent, si {v2, , t>n} est une base orthogonale de
F alors {i>, i>2, , vn} est une base orthogonale de E (cf. figure). D
On en déduit :
Corollaire 7.7 Le choix d'une base orthonormée B {e*} dans un espace euclidien, =
ipB : E — Rn
Nous allons expliquer ici une méthode due à Schmidt, qui, par un procédé standard,
permet d'associer à toute base de E une base orthonormée 6.
Proposition 7.8 Soit {i>i, , vp} une famille libre d'un espace euclidien E et F =
f £1 =
vi
\ £2 =
V2 + Aei, avec À tel que €2 -L e\.
0 =
(v2 + XeU£i) =
<v2,ei) + A||ei||2.
vi =ei
V2 =
£2
-
Aei
£3 =
V3 + M^i +^^2
Ceci donne
0= (vz+iJLei +ve2,£i) =
(vs.si) + /x||£i||2 , car (£i,£2) =0
d'où fjb = —
(î>3,£l) De même, en imposant que £3 _L £2, on trouve v __(^3, £2>
= —
m
.
Comme
Vi =6!
V2 =
£2
—
Aei
V3 £3 pei VS2
= - -
on a Vect{£i,£2j£3 } =
Vect{i>i,i>2,t>3}> c'est-à-dire {£i,£2,£3} est une base
orthogonale de l'espace engendré par v\, V2, V3
On voit bien maintenant le procédé de récurrence.
Supposons avoir construit £1, , £k-i pour k < p ; on pose :
ek =
yk -f combinaison linéaire des vecteurs déjà trouvés
=
vs + Ai £1 H h Afc-i £/c-i
1) sont équivalentes à :
K, £i)
Ai
,
iïo-
_
11
~
Ai £1
— —
Vect{£i,..., £fc} =
Vect{i>i,..., v/J, aussi {£1,..., £&} est une base orthogonale de
Vect{vi,...,vfc}.
Exemple -
(l\ ( 0l\
:
f°\
\'V2=\
1 1
vi =
1>3 =
0 -1 1
V 0 / V 1J v 1 y
(M4 étant muni du produit scalaire canonique).
On vérifie d'abord que {vi> t>2, ^3} est une famille libre, ce qui est immédiat, car dans la
matrice :
/ 1 1 0 \
1 0 1
\\Vit V2, Vz\\ =
0 -1 1
0 1 1
\
le mineur encadré est non nul. On pose :
£1 =vi
+ Aei À
(P2,gl)
£2 =
V2 ,
avec
Donc £2 =
i»2
—
~£i
7.5 Norme d'un vecteur. Angle non orienté 231
-\\
Remarquons que l'on peut prendre comme second vecteur vecteur e2 colinéaire à £2
(\
un :
V 2
On pose ensuite :
£3 =
v3 + Ai£1 + A2£2 , avec Ai =
--„^ „9/ et A2 = -
x s,1|2
21!
On trouve : Ai =
--, A2 = —
d'où : £3 = -
\ 3
Ainsi ei, £2 et e3 =
( ~l\ 2
forment une base orthogonale de F.
\ 3 /
En normalisant, on trouve :
1 e3 =
V 2 y'
qui est une base orthonormée de F.
Exercice 9.
1. Norme
Proposition 7.9 -
3. Inégalité triangulaire :
\\x + y II <
||x|| + ||y H, \/x,y eE
Pour tous x, y e E, on a :
(x, y) \\x\\z\\y |r
I \ 2 n2 11 ||2
<
11
<
INI2 + lly||2 + 2|NM|yï =
(INI + ||2/||)2
-
on a l'égalité en (a) si (#,y) =
| (a;,y) |. Puisque y
=
Xx ,
on a A ||x||2 =
|A| ||#||2
donc A > 0.
REMARQUE. —
L'inégalité triangulaire
exprime le fait que dans un triangle la
côtés.
Figure 10
7.6 Représentation matricielle du produit scalaire 233
2. Angle
fo y)
COS0 (i)
IMIIIvH
:
0 est dit angle (non orienté) entre les vecteurs x et y (cf. (1) page 219 ).
Notons enfin la relation qui exprime le produit scalaire en fonction de la norme :
(x,y) =
\\x + y\\2 =
(x + y,x + y) =
\\x\\2 + \\y f + (x, y) + (y, x) =
\\x\\2 + \\y\\2 + 2 (x, y)
(en vertu de la symétrie du produit scalaire).
Pour les calculs il est souvent pratique d'utiliser l'expression matricielle du produit
scalaire.
Soit E un espace vectoriel de dimension finie n sur K et b : E x E —> K une forme
bilinéaire (cf. définition page 223. Si {e;} est un€! base de E et x
X^=i %i eii V
Er=i%e^
— —
°na:
$^Zi2/j&(<îi,
n
&(s> y) =
ej).
2=1
b est donc déterminée par la connaissance des valeurs b(ei, ej) sur une base.
Définition 7.11 Soient b une forme bilinéaire sur E} et {ei} une base de E. On
appelle matrice de b dans la base {ei} la matrice
b{en,en) j
=
11*(*, ei)||
î î
zeme jeme
ligne colonne
b(x, y ) =
5 xiyi 2 x2y2 + 4 z3î/3 + 7 Z12/2 H- 6 Z12/3 4 z3yi + 2 xiyz + 8 z32/2
- -
/ 5 7 6
M(b)ei =
0-2 2
\ -4 8 4
/ 1 0
M(<,)k = / =
Vo ...
i
Proposition 7.12 Soient b une forme bilinéaire sur E, {e^} une base, et
A =
M(6)Ci, ^ =
M(x)ei, Y =
M(y)ei (x, y G E).
On a :
b(x, y) = lXAY
Exemple -
'5 7 6
0-2 2
,
-4 8 4
lXAY =
(1
v
2-1) '
(9-5 6) 9
v
tXAY
Donc b(x, y) =
9.
REMARQUE. -
{x,y)ei =
tXY
est de caractériser, parmi les matrices symétriques réelles celles qui sont associées à
7.6 Représentation matricielle du produit scalaire 235
un produit scalaire 7. Notons pour le moment que la matrice qui représente un produit
scalaire dans une base
(quelconque) est nécessairement inversible. Soit en effet A la
matrice qui représente le produit scalaire dans une base {e^} et X G Mn,i, tel que
AX 0. En multipliant par tX à gauche, on aura :
=
*XAX =
0
Cela signifie que si x est le vecteur de E qui dans la base {e*} est représenté par
X) (x\x)
on a : 0, =
d'où x =
0, c'est-à-dire X =
0. Donc Ker^4 =
{0} et, par
conséquent A est inversible.
Changement de base
Pei—e^ =
||ei, ,e{J|ei la matrice de
passage, et x.yeE.Si X =
M(x)ei, X' =
Af(a;)e/, F =
M(y)ei et F7 =
M(y)e/,
on a :
X'^P-1^, d'où X =
PX' et y = PF'
b(x, y) =
*X'A'Y' où A' =
M(b)e,.
\ 6«,ei) &«,<) /
On a donc :
WÇPAPW =
WA'Y', VX'Y' e Mn,i(K)
et par conséquent (cf exercice 13) :
A! =
lPAP
Remarque Comparons cette formule avec la loi de changement de base des endomorphismes. Une
-
fois fixée base, à toute matrice sont associés un endomorphisme et une forme bilinéaire : dans le
une
premier cas elle se transforme par P~lAP et dans le second par tPAP.
En particulier, par exemple, il a un sens de parler de déterminant d'un endomorphisme. On le définit
comme le déterminant de la matrice qui le représente dans une base quelconque, car
En revanche, on ne peut pas définir le déterminant d'une forme bilinéaire comme le déterminant de la
matrice qui la représente dans une base, car dét A' = dét ^PAP) =
(dét P)2 dét A et la définition
7Nous verrons par la suite (cf. Proposition 7.39) que la condition (nécessaire et suffisante) pour cela
est toutes les valeurs propres de la matrice (dont on montre qu'elles sont réelles) sont strictement
positives.
236 Espaces euclidiens
Exemple -
e/i =
2ei + 3e2, e2 = —
8ei+5e2
A' =
lPIP =
lPP
Or
P=(V32 ~8
5
(.f -i)
Donc
» -*'-
c'est-à-dire :
(ce, 2/)e, =
13 x[ y[ -
x[ y2
-
x2 y[ -f 89 x2 y2.
AL :=
{x G E | (x, a) 0, Va G ,4} =
argument.
2. vient du fait que (, ) est défini positif. Soit en effet x G E1- ; on a : (x, y) =
0, Vy G E ; en
particulier {x, x) =
0 et donc x = 0.
Proposition 7.14 -
1. dim^^dimF + dimF^;
2. E =
F®F±;
3. F1-1- =
F
^2
n
(!/>x) =
aij Vi x3
7.7 Sous-espaces orthogonaux 237
Puisque les composantes des vecteurs Vi,V2,...,vp dans la base B sont respectivement
(1,0,...,0), (0,1,0,...,0), ...(0,...,
v
1
rang p
,0,...,0),ona:
{vux) =
0 <=ï
YJj=i aijxo =
0
(Vp, X) =
0 <É=>
YTj=l aP3X3 =
°
^ dpi x\ -\ h apn xn =
0
Or dét ( ctij ) 7^ 0 (cf. page 235), donc les lignes de la matrice ( a^- ) indépendantes.
sont
Il s'ensuit que ces équations sont indépendantes. Le rang du système est donc p
et par conséquent l'ensemble des solutions est de dimension n
—
p, c'est—dire :
dim F1- =
n
-
p.
donc x =
0, car le produit scalaire est défini positif.
On a, tout d'abord F c F"1-1,
3. car si a G F, on a : (a, x) =
0, Va; G F"1,
c'est-à-dire a G F1-1. D'autre part
dimF"1-1 =
dim E -
dim F"1 =
dim E -
(dim F -
dim F) =
dim F.
Puisque F C F±J-, on a F =
F-1-1
La propriété 1. vient aussi de la proposition suivante. On sait qu'en dimension finie E et E* sont
isomorphes (car ils ont même dimension) ; mais en général il n'y a pas une manière canonique
de construire l'isomorphisme. Cependant si E est euclidien, on peut construire un isomorphisme
canonique entre E et E*.
Proposition 7.15 Soit (E,{, )) un espace euclidien. L'application
-
De plus, si F est un sous-espace vectoriel de E et F0 est Vannulateur de F (cf. 3.37 page 87), on
a :
j{F±) = F0
Démonstration : La linéarité de j vient de la linéarité de (, ) par rapport au premier argument.
Puisque E et E* sont de même dimension, pour montre]' que j est un isomorphisme il suffira de
montrer que j est injective.
Soit y G E tel que j(y) 0, c'est-à-dire (x,y) =0, Vx G E. On aura, en particulier, {y, y)
=
0, =
donc y 0. Ainsi j est injective et par conséquent bijective (car E est de dimension finie). D'autre
=
part :
j-i(F°) -
{y eE\j(y) G F0} =
{y G E\j(y)(x) =0, V* G F}
=
{yeE\ (x,y)=0, Vx G F} = F1-
Comme j est bijective, ceci est équivalent à JiF^) = F0.
Il s'ensuit, en particulier, que dimE = dim F + dim F1- (cf. proposition 3.39).
(f{x)t y) =
{x,f(y)), Vx,y € E.
A =
M(f)ei, A* =
M(f*)ei, X =
M(x)ei, Y =
M(y)ei
Puisque on est dans une base orthonormée, l'identité de l'énoncé s'écrit (cf. remarque
page 234) :
\AX)Y =
lXA*Y, VX,YeMnA®)
ce qui équivalent
est (cf. 13). Ceci montre que A* (donc /*) est
à tA =
A* exercice
unique.
Réciproquement, si on définit /* G End(E) par M(f*) lA on voit, en remontant =
NOTA. -
Soit A G Mnfâ) et f l'endomorphisme de M71 qui dans la base canonique est représenté par A ;
alors lA représente dans la base canonique l'endomorphisme /* adjoint de f relativement au
produit scalaire canonique sur Rn, {x y) ,
=
xi yi + + xn yn-
a) /**=/, (id)* =
id.
b) (f + g)* =
r+g*> (A/)*=A/*, (fog)*=g*of*.
c) rg/*=rg/, dét/* =
dét/.
applications linéaires (elles sont des applications affines : cf. Appendice A.7)
7.9 Groupe orthogonal 239
Définition 7.18 Soit E un espace euclidien et f £ End (E). On dit que f est une
-
transformation orthogonale si
(f(x),f(y)) =
(x,y), Wx,yeE.
On note O(E) Vensemble des transformations orthogonales de E.
1. </(*), f(v)) =
(x, V) Var, y € E.
.
2.\\f(x)\\ =
\\x\\, VxeE.
</(*), /(»)> =
Kii/(s)+m\\2 wmw* \\f(y)\\2) - -
=
è(ll/(^ + y)ll2-ll/WII2-ll/(y)ll2)
donc, si / conserve la norme :
</(*), f(v)) =
\ (II* + vf -
INI2 -
IMI2) =
{x, y).
Montrons que 1. 4=> 3.
En écrivant 1. dans une base orthonormée, on a
(cf. remarque page 234) :
</(*), f(v)) =
(x,y),Vx,yeE
<^ t(AX)AY=tXY., VX,YeMnA(R)
<=> tAA =
I
= =
dét A ; donc =
1, et par conséquent
déti4 =
±l.
On en déduit que A est inversible. En multipliant par A~x à droite, l'équation lAA =
J, on obtient A'1 =
lA ; d'où, en multipliant à gauche par A : AlA I. —
REMARQUE. —
/*o/ = id.
Propriétés 7.20 -
1.
dét/
2. ±1. En particulier f est bijective.
=
D'autre part, de /* o / =
1. =
240 Espaces euclidiens
REMARQUE. —
des valeurs propres complexes. Nous verrons par la suite (cf. remarque page 284) que les valeurs
propres complexes de A sont de module 1, mais ceci ne résulte pas de la propriété ci-dessus, qui
n'a de sens que dans le cas réel, puisque / est un endomorphisme d'un espace vectoriel réel.
Proposition 7.21 -
En effet soit / orthogonale ; puisque / est bijective, elle transforme toute base en une
(/(e*)> f(ej)) =
(ei> ej) =
ôij
donc {f(ei)} est une base orthonormée.
Réciproquement, supposons qu'il existe une base orthonormée {e^} telle que {/(e^)}
soit une base orthonormée, et soient x Ya=i xiei-> V Y17=i V^- = —
D'autre part :
Y%j=ixiyjôij =
YJl=ixiVi =
(z, y)
donc / est orthogonale.
0(n,R) :=
{A G M„(R) | lAA =
1} =
{A G Mn(R) \AtA =
I}
vérifie les propriétés suivantes :
(b) JeO(n,R);
(c) si Ae 0(n,R) alors A'1 G 0(n,R).
En particulier, 0(n, R) est un sous-groupe GL(n,R)
9
du groupe linéaire dit groupe
orthogonal.
Il est clair que si A G 0(n,R), dét A = ±1. On a donc deux types de matrices
orthogonales celles de déterminant +1, dites matrices orthogonales directes, et celles
:
SO(n,R) =
{Ae 0(n,R) | dét A =
1}
est un groupe, dit groupe spécial orthogonal.
*-*{} 1 -i)
Exemple -
La matrice
est orthogonale. On peut vérifier en effet que *AA I. Plus simplement, il suffit de =
vérifier que les vecteurs colonnes ci, C2, C3 forment, une famille orthonormée, c'est-à-dire :
-Ci)
A G O (2, R ) si et seulement si le système des vecteurs colonnes est orthonormé, c'est-à-dire :
f a2 + c2 l
{I
=
62+d2 = l
ab + cd =
0
242 Espaces euclidiens
a =
cos 0 ,
c = sin 0.
b =
cos (p ,
d ='sin (p.
Enfin,
a b -f c d =
0 <é=> cos 0 cos y? -h sin 0 sin y? =
0 <=> cos(0 —
y?) =
0
c'est-à-dire :
(p
-
0 =
(2k + 1)tt/2
Donc
1)tt/2)
:
6 = cos (o + (2/c + =
(-l)fe+1 sin0
d =
sin
(0 + (2/c +
1)tt/2J
=
(-1)* cos 0
Ainsi AgO(2,R) si et seulement si :
/ cos0 (-1)*+Isin0 \
V s[n0 (-l)fccos0 )
Puisque dét A =
(-l)*(cos2 0 + sin2 0) =
(-l)fc, A G SO (2,M) si et seulement si k est pair.
On a donc :
Proposition 7.25 -
f cos0 sin0
5ozt j4 G SO (2, R ) et dans A
« wr» \
—
n .. a 1 t a
ce cas =
y sm0 cos0
-
v y „
. .
cos0 sin0 \
Soit A <£ SO (2, R ) et a/ors A
J
=
sin 0 —
cos 0
Dans ce cas A représente la symétrie orthogonale par rapport à la droite d'angle polaire
0/2 (cf. exercice 3)
AeS0(2,M) >4gSO(2,R)
Figure 11
7.10 Étude de 0(2,R) et 0(3, R) 243
{e%} étant la base canonique. Il existe alors une base {e'i, e2, e3} de R3, orthonormée, telle
que
cos 9 —
sin 9
A' =
M{f)e, = sin 9 cos 9
0 0
ou s =
+1 si détA = 1 ,
c'est-à-dire si A G SO (3,R) ;
et e = -1 si dét A =
-1, c'est-à-dire si A 0 SO (3,R).
Démonstration : Si A =
±1 le résultat est trivial (prendre pour {e£} la base canonique
et 0 = 0 si A =
I, 0 =
7T si ,4 =
-/).
Lemme 1. Si détA =
1, À = 1 est valeur propre d'ordre 1 ou 3.
Si détA = —
1, A = —
propre, nécessairement réelle, donc égale à A :tl. Or détA 1 donc A > 0 et par = =
conséquent A = 1. 0
(/(w)i Vi) =
(f(w)9 f(vi)) =
{w, Vi) =
0 pour i =
1, 2 ,
î T
car
f car
f\vi)=vi orthogonale
Le cas détA = —
Lemme 3. Si détA =
+1 (respect. : détA =
—1), alors le plan ir =
Ei (respectiv. :
7r =
E-i1') est invariant par f et la restriction de f à tt est une rotation.
244 Espaces euclidiens
Ei (ou £__!)
Soit en effet x G 7r, c'est-à-dire (#, w) 0. Comme / est =
orthogonale :
(f(x), f(w)) =
0. Or f(w) ±w, donc (/(#), w)
= =
0,
c'est-à-dire f(x) e n. Ainsi 7r est stable par /.
Soit f =
f\n. Vx, y G 7r, on a : / C G
(Z»,/^))^ =
(/(x), /(y)>B =
<z, î/)s =
(x, y)n
donc / est orthogonale.
Montrons que dét/ 1. Si {i>i, ^2}
= est une base de ir ; on a :
f
j (* bd )=M(f){vuV2} FiSure 12
M(/){V1,,2)W = c d 0 ,
où:
et e =
±1 selon que détA = ±1 (c'est-à-dire e =
détA). Or le déterminant de cette
matrice vaut dét A, car le déterminant est invariant par changement de base. Donc :
a b a b
détA =
dét A.
d d
-
c c
a b
Ainsi = 1 et donc / est une rotation. 0
c d
Il existe donc une base orthonormée {ei, e2, 63} avec ei, e2 G tt et e3 G £?i (respect :
(cos0
e3 G £-1) telle que :
sin0 0 \
sin(9 cos0 0
0 0 e
J
avec e =
dét A. Ce qui achève la démonstration de la proposition. D
i i
1/ /
XI / [
i
/ °
\ ! V
/ F vi
\i
détA=l détA = -l
Figure 13
Ainsi, si détA 1, / représente une rotation autour de l'axe E\. Puisque la trace est
=
invariante par changement de base, l'angle (non orienté) de rotation est donné par la relation :
TrA =
2cos0 + l.
Si dét A =
1, on peut écrire / =
h o
g avec :
—
/ cos0 -sin0 0 \
M(g)ei =
I sin0 cos0 0 et M(h)e* =
V 0 0 1/
7.lO_Étude de 0(2,R) et 0(3, R) 245
f est donc
la rotation autour de Vaxe E-\ suivie de la symétrie orthogonale par rapport
plan E-i1"- L'angle de rotation est donné dans ce cas par
Iïj4 =
2cos0-1.
En résumant :
proposition 7.27 -
TrA = 2cos0 + l.
Si àêtA —
—
En particulier, si Tr A =
1 on a 0 =
0 : A représente dans ce cas la symétrie orthogonale
par rapport au plan E-i1-, dite aussi réflexion par rapport à -E-i_L.
que l'on peut faire en fixant l'orientation de la normale (cf. page 220). En choisissant donc
un vecteur n de E\ (respect, de E-i) et un vecteur u du plan de rotation, l'angle orienté de
rotation est (u, f(u)) et donc, d'après la formule (4) page 221 :
car ||/(u)|| =
|M|, puisque / est orthogonale.
Exemple -
Considérons la matrice
-il
2 -1 2
2 2 -1
\ —1 1 ^ 2 2 /
^
Nous avons vu (cf. page 241) qu'elle représente une rotation dans la base canonique de M3.
L'axe de rotation est déterminé par un vecteur propre correspondant à la valeur propre
V
= =
L'angle (non orienté) de rotation est déterminé par la relation : Tr A = 2cos0 + 1, ce qui
donne cos 9 = -
et donc 6 =
±7r/3.
Pour déterminer l'angle orienté, on choisit un vecteur directeur de la normale, par exemple
On
|
a :
1 1 1
V3
sin0=—^-1
V3
0 1
2
'
o 1 1
246 Espaces euclidiens
Donc 9 =
7r/3.
Ainsi A représente, dans la base canonique de M3, la rotation d'angle 7r/3 autour de l'axe
i /
Exercices 27. 28. 29.
Définition 7.28 -
Pour ce qui est de la notiond'angle, la définition d'angle non orienté est très simple.
Soient u,v G E\ {0}. D'après l'inégalité de Cauchy-Schwartz on a : |Jij'L| < 1. Il
existe donc un unique 9 G [0,7r], tel que
cos 9 =
„ „ „ „ (*)
u v
La notion d'angle orienté est plus délicate et elle fait intervenir, bien entendu, Porientatioi
du plan défini par les deux vecteurs (cf. page 220)10.
n,r/i«\ f cos# —
sin0 \
angle orienté dans M2 ou E3 c'est parce que ces espaces sont naturellement
10
Si on a pu définir un
y~û-
^ existe al°rs un
\\u\\ \\v\\
,
unique 9G] —
noté(uv).
Démonstration : Soient U =
(Z7i, C/2), V =
(Vi, V2) les composantes de U,V dans
une b.o.n. directe. Puisque
f
Ul + Ui =
1
sin 0 9 sin/3
=
cos sin a
9
=
mod L 2?r J
m i
—
/, ^
S &
,
Exemple Soit R2 muni de l'orientation canonique. Chercher l'angle entre les vecteurs
\/3,1 \/3).
.
u =
(1,1) et v =
(1 + -
On a : U =
-y=(l, 1) et V =
-^=(1 + \/3, 1 -
/ cos<9
cos0 -sin0 \
\_1_/
J_ / 1 \_
\ _J^_ (/ l1 + >/3
_l_ y/3 \
\ sinO cos6 J ^2\1 J' 2V2\l-VS )
_
c'est-à-dire :
1 +V3
9 9
« .
,
cos sin
v^2
—
= -=
1-V3
0 + 0
.
sm cos =
7=
1 /*}
ce H qui donne : cos0 = et sin0 =
c'est-à-dire : 9 =
2 2 3
- ——- — —
où (ej) est une b.o.n.directe. En effet, il suffit de résoudre par rapport à cos# et sin#
le système
/ cos0 -sinô
\(U!\(Vi\
\ sin0 cos9 )\U2)~\V2)
Un petit calcul donne :
cos9 =
UiV! + U2V2 =
(U,V) et sinfl =
UiV2 -
U2V1 =
dét ||C7, V\\M
d'où les formules (*).
248 Espaces euclidiens
Propriétés 7.30
La première est une simple vérification. Pour la seconde, si [/, V, W sont trois vecteurs
unitaires, ona :
W =
1Z(VW)(V) et V =
K{uv)(U), donc: W =
K{vw) ll{uv) (U)
o
D'autre part : W =
U^W)(U) donc K(vw) oTl^uv)(U) =
U(UW)(U). Comme U est
arbitraire :
Soit (tt)
plan vectoriel dans un espace euclidien orienté de dimension 3, E%. On
un
suppose (ir) muni du produit scalaire induit et de l'orientation définie par le choix
d'un vecteur normal n que l'on supposera unitaire. Puisque (tt) est orienté, on peut
définir l'angle orienté 9 (uv) entre deux vecteurs u^v e (tt) \ {0}. Soit (£i,£2) une
=
u v
(si u, v sont indépendants ; si u, v sont liés on pose sin# 0). En effet, si U jr-r: et
IMI
= =
V
V
T/
rr-rr, On a :
IMI
=
Z/i Vi 0
dét ||ii,t>,n |
u v
:dét||^,V;n||B/ =
u2 v2 o àét\\U,V\\£l^2=sm9
0 0 1
On a en fait :
Proposition 7.31 Soit n un vecteur unitaire normal au plan Vect {u, v} et 6 Vangle
orienté (uv) pour Vorientation défine par n. Pour toute b.o.n. directe B (et non
seulement pour les bases dont deux vecteurs sont dans le plan de rotation), on a :
dét \\u.v,n I
sin#
u v
7.12 Produit vectoriel 249
En effet, si i>i,..., vn sont n vecteurs d'un espace vectoriel E de dimension n et (e^), (e£)
sont deux bases, alors (cf. exercice 17, chapitre 4) :
Exercice 30 .
vectoriel deuetv est le vecteur noté uAv défini par les conditions suivantes :
-
il est orthogonal au plan Vect {it, v} ;
\\u Av\\ =
Aire(V), où V est le parallélogramme
défini par les vecteurs uetv; f
-
Propriétés 7.33 .
2. uAv =
—vAu.
3. Soit n un vecteur unitaire normal au plan Vect {^, v} et 6 Vangle orienté (uv)
pour Vorientation défine par n. Alors :
uAv =
\\u\\ \\v\\ sm9n
4- Si (ei) est une b.o.n. directe et n un vecteur unitaire normal au plan Vect {u, v},
alors :
1. et 2. sont triviales.
Aire(V)N, donc, en utilisant la formule (3) page 220, uAv \\u\\ \\v\\ | sin0| =
N.
Or sin 9 > 0 si n = N et sin 6 < 0 si n =
—N ,
d'où la formule.
4. est une conséquence immédiate de la proposition 7.31. D
250 Espaces euclidiens
eiAe2 =
e3, e2 A e3 =
d , e3 A e\ =
e2. (*)
On déduit du corollaire que, si (ei, e2, e3) est une b.o.n. directe et si x =
X\e\ + x2e2-\-
^3e3) et y yxex + y2e2 + 2/3e3, alors
=
xAy =
(x2y3 ~
x3y2)e± + (2:33/1 -
Ziy3)e2 + (ziy2 -
£2yi)e3
(x y) ,
z
facilement.
NOTA -
L'identité de Jacobi montre que la loi de composition sur E3 définie par le produit
vectoriel n'est pas associative.
Un espace vectoriel muni d'une loi de composition interne bilinéaire et alternée vérifiant l'identité
de Jacobi est dit algèbre de Lie13. On note habituellement [ ] la loi interne alternée d'une ,
Propriété 7.36 Soient x,y G Es et (e^) étant une b.o.n directe, x A y est le seul
vecteur de E3 tel que
dét||a;,y,*||Ci =dêt\\x,y,(z,n)n\\ei =
(z}n)dêt\\x,y,n\\ei
D'autre part,
(xAy,z) =
(z,n)(xAy,n) =
{z,n) dét\\x, y, n\\ei
(x Ay —
u, z) =
0 pour tout z G Es
d'où x A y =
u, car le produit scalaire est une forme non dégénérée.
Remarques.
-
2. La propriété (7.36) peut être prise comme définition du produit vectoriel, car elle est
indépendante du choix de la b.o.n. directe. En effet si on change de b.o.n. directe le
déterminant dét ||^c, y, ^lle^ est multiplié par le déterminant d'une matrice de SO(3,R)
qui vaut 1. Cette définition a l'intérêt de mettre évidence le fait que le produit
en
3. Une autre définition de produit vectoriel peut être donnée à partir des formules ( ),
page 250. On peut définir le produit vectoriel comme la seule application bilinéaire
alternée / : E$ x E3 —> £3, qui, dans une b.o.n. directe vérifie
14
:
/(ei,e2) =
es, /(e2,e3) =
ei, /(e3,ei) =
e2
Ici aussi il faut vérifier l'indépendance du choix de la b.o.n. directe (ce qui cependant
est moins facile que dans le cas de la définition par le déterminant).
cf. exercice 1
252 Espaces euclidiens
</(*), y) =
(a, f(y)) , Va, y G E
\AX)Y =
tX-AY , MX, Y G MnAR)
c'est-à-dire :
tXtAY =
lXAY , MX,Y G Mn,i(R)
ce qui équivalent
est à tA = A. Ainsi : / est autoadjoint si et seulement si la matrice
1. f est diagonalisable.
2. Les sous-espaces propres de f sont deux à deux orthogonaux.
En particulier, on peut construire une base orthonormée de vecteurs propres en
NOTA -
canonique est orthonormée, / est autoadjoint. On peut donc énoncer le théorème en termes
Théorème 7.38' -
Théorème 7.38" -
Notons que les théorèmes 7.38, 7.38' et 7.38" sont trois manières différentes d'énoncer le
même théorème.
7.13 Diagonalisation des endomorphismes autoadjoints d'un espace euclidien 253
Démonstration du théorème :
X =
\ : G Mni(C) la matrice d'un vecteur propre v correspondant à À.
\ Xn /
Puisque A est symétrique, on a :
t(AX)X=tXAX (*)
D'autre part AX =
XX, d'où AX =
XX et, comme A est réelle, AX =
XX.
En reportant dans (*) :
t(XX)'X= tXXÏC
c'est-à-dire
X(\x1\2 + ---
+ \xn\2) =
X(\x1\2 + ---
+ \xn\2)
et donc À =
A, puisque v ^ 0. Les valeurs propres sont donc réelles.
(b) Montrons, par récurrence sur la dimension n de Ey qu'il existe une base de vecteurs
propres.
Pour n =
1, il n'y a rien à démontrer. Supposons la propriété vraie à l'ordre
n
—
1.
(f(y), x) =
(y, f(x)) =
X (y, x) =
0, puisque y _L x\
(/», w)h =
(/(«), w)E =
(v, f(w))E =
(v, f(w))H
Or dimi? =
n
—
(c) Montrons que les sous-espaces propres sont deux à deux orthogonaux. Soient ^i
et V2 vecteurs propres correspondant aux valeurs propres Ai, A2, avec Ai ^ A2.
Montrons que v\ Lv^. On a :
15Ce passage aux complexes n'est peut-être pas élégant mais néanmoins correct. Si l'on restait dans
le cadre des endomorphismes il faudrait utiliser le complexifié de l'espace vectoriel que nous n'avons
pas introduit. Le lecteur qui connaît les espaces hermitiens, reconnaîtra dans la démonstration qui
suit l'utilisation de l'expression matricielle du produit scalaire hermitien.
254 Espaces euclidiens
</(vi), v2) =
{vu f(v2)) =
A2 (vu v2).
Ainsi :
(Ai —
ne sont pas
nécessairement diagonalisables (ni dans R, ni dans C).
(3X -
a2.
Si /32 + 4 a2 =
0 (dans C cela est possible sans que a et (3 soient tous deux nuls), on
aura deux racines confondues, c'est-à-dire une valeur propre double A (3/2 et donc
=
Pa{X) =
(X —
c'est-à-dire A =
{13/2) I ce qui évidemment est exclu.
Par exemple : A =
( 1 est symétrique et non diagonalisable.
Proposition 7.39 Soit s une forme bilinéaire symétrique sur un espace vectoriel
-
Démonstration :
Soit ( , )
produit scalaire associé à
le cette base (cf. exemple 2. page 222), que nous
(a) Montrons tout d'abord qu' il existe un et un seul endomorphisme fs tel que :
(z> fs{y)) =
s(x,y) =
s{y,x) {y, f8(x)) {fs{x),y)
= =
, Va,y G E.
Exercices 255
Par conséquent, en prenant dans chaque espace propre une base orthonormée,
on obtient une base orthonormée {vi} de vecteurs propres de fs (notons qu'il
s'agit de vecteurs propres de la matrice S).
Soient maintenant x =
Yh=i xi v» et y =
s(x,y) =
Hlj^XiyjsivuVj) =
Y,lj=ixiVj (vufs(vj)
=
Th,j=1 Xi Vj Sij =
^1 ^lî/l "I ^n Xnyn
d'où:
s{x, x) =
Xixi2 -\ h An xn2
ce qui montre que s est définie positive si et seulement si toutes les valeurs propres
de S sont strictement positives.
NOTA. Nous verrons au chapitre 9 (cf. corollaire 9.25) que le résultat de ce théorème est, en fait,
—
Exemple -
9A + 2 et SpR(A) =
{2, 2 + \/3, 2 -
%/3}.
Comme les valeurs propres sont strictement positives, A définit un produit scalaire.
EXERCICES
1. Soit {ei, e2, es} la base canonique de R3. Montrer qu'il existe une unique
application / : R3 x M3 —> R3 bilinéaire, alternée telle que
/(ei,e2) =
e3, /(e2, es) =
ei, /(e3, ei) =
a
orthogonal à ce et h y.
3z = 0 et P' : ce —
3y + 2z =
0.
3z = 0.
l (
(x, y) "/=*! x2 + X3
j -j^Vi 2/2 + 2/3
j
+ (x2 xz)(y2 2/3) + 3x32/3
= - ~ - -
7 On considère l'intégrale :
r+00
/
1
2
In = xne~x '2 dx (n entier, positif ou nul)
7-00
y
V27T
(rappel f± : e~^~ dx =
v^tt J .
2. On définit :
(, ) : R [x] X R [a;] —> R par :
/>+oo
/2P(x)Q(x)dx
1
2
(P,Q):=-= e-
V^TT ^-00
X2 2/3
-
z3 2/2
3. b(x,y) =
2xi3/i +7zi2/2 + 7#22/i +8x22/2 -3x3y3 + A x2 2/3 + A #3 2/2
| 9
I On munit R2[x] du produit scalaire de l'exercice 7. Déterminer une base orthonormée.
Une application d : S X S —> R+ est dite distance si elle vérifie les propriétés
suivantes :
a) d(x,y) 0 <==> x y = =
b) d(x,y) d(y,x) =
w\\
définit une distance sur E dite distance associée à la norme.
X1—X2+X3 X4 = 0
X2
—
2X4 = 0
Déterminer F-1.
5. <jp(x),y) =
(x,p(y)) , V x,y G E.
pF(v) =
(v, ei> ei H h (v, ep) ep
19 Matrice de Gram
1. Soit (E, (, )) un espace euclidien et {vi, ...,vp} une famille ordonnée de vecteurs
de E. On appelle matrice de Gram associée à la famille (t>i, ...,vp), la matrice
(vi,vi) {vitvp)
Gram(vi,...,vp) =
(vPivi) (vpyvp)
On note G(i»i, ...,t>p) := détGram(vi,...,vp). Soit B =
{ei,...,ep} une base or-
2. En déduire que G(t>i, ...,%,) > 0 et que la famille {vi,...,vp} est libre si et
seulement si G(vi, ...,vp) ^ 0.
3. Soit {v\, ...,vp} une famille libre, F =
Vect{vi, ...,fp} et x G E. Montrer que
G(a;,vi,...,vp)
d(x,Fy
2
G(vi,...,i;p)
=
_
4. Retrouver par cette méthode le résultat de l'exercice 18.2. et comparer les deux
méthodes.
F C G =» F1- D G±
(F-l-G)-1 = F-LflG1-
(F D G)-1 = F-1 + G1-
</(*),</>£ =
{x,r(v))B> >
V a; 6 J5, y G JS?;.
2. On suppose dans la suite que g = dim£J < dimi?7 = n et que / est injective.
Montrer que dét(/* o /) ^ 0.
3. Soit p : E1 — E' la projection orthogonale sur Im /. Montrer que :
p=/o(r°/)_1°r-
4. On note /t : E' —> £7 l'application définie par
/t =
(/*o/)-ior;
/"l" est dite inverse généralisée de / (noter que /to/ =
ids et /o/t =Pï et
21
5. Exemple, a) Calculer l'inverse généralisée de la matrice 11 —1
y ==2
x + 3y --a
24 | Soit A G O (n, M). Montrer que si dét A = 1 chaque terme de A est égal à son cofacteur
et si dét A = —
A =
QR
où Q G 0(n,E) et R est triangulaire supérieure (décomposition de Householder).
Exemple. Donner la décomposition de Householder de la matrice
Ker(/ -
id) =
Im(/ -
id)-1
En déduire que si (/ —
id)2 = 0 ,
alors / =
id.
0 1 0
A = B =
,
C = 0 0 -1
1 0 0
defXi!
:= = —
id
6. Soit Ai ^ ±2 tel que V\i ^ {0}. Montrer que si v G V^* alors v n'est pas vecteur
propre de /. En déduire que l'espace W = Vect{i>, f(v)} est de dimension 2.
9. Soit W1- l'orthogonal de W dans V\i. Montrer que W1- est stable par /.
10. Déduire des questions précédentes les résultats suivants :
Soit f une transformation orthogonale d'un espace euclidien. Il existe alors une
(V\1 I1 \
1 _1
1
'
-1
M(f)ei =
cos0i —
sin^i
sin0i cos0i
cos 0r —
sin 0r
sin 6r 9r
V
cos
la propriété suivante :
(V) Soit E un espace euclidien de dimension n. Toute f G O(E) s'écrit sous la forme :
f =
o~ai o o
Gar avec : n dim E± < r < n.
—
E(.
,
alors : r > n —
dim
(c) Montrer que pour tout couple de vecteurs non nuls y,z G E tels que y ^ z
et || y || = || z ||, il existe une réflexion aa qui échange y et z, c'est-à-dire
telle que o~a(y) = z.
va o
/ (z) = z. En déduire la propriété (V) dans le cas où E( =
{0}.
2 2 -1
4. Exemple. Soit A I -1 2 Montrer que A G O (3,R). Décom-
3\
= -
2 -1
poser A en produit de réflexions.
Exercices 261
i =
1,..., n, ont même norme.
f{x') =
{cos6)xl + (sm6)nf\x
En déduire que :
f(x) =
( cos 6 ) x + ( sin 6 ) n A x + (1 —
cos 6) (x, n) n
f(xAy) =
f(x)Af(y), Vrc,?/ G E, si et seulement si / G SO(E).
V 2 2
2y
Interpréter géométriquement l'endomorphisme qui dans la base
canonique de R3 est représenté par A.
262 Espaces euclidien!
£ A? =
£ a%
i=l *ij=l
35 Soit B =
{i>i,
t>n} une base orthogonale d'un espace
,
37 Décomposition polaire
1. Soit p un endomorphisme autoadjoint d'un espace euclidien
E. On dit que p est défini positif si toutes ses valeurs propres
sont strictement positives.
Montrer que si p est défini positif, il existe un et un seul
endomorphisme a autoadjoint défini positif tel que p a2 =
INDICATIONS
|]l 1. Puisque / est bilinéaire, elle est déterminée par la connaissance des /(e^, ej).
' '
Comme / est alternée, il suffit de connaître /(ei,ej) pour i < j.
2. x A y =
(x2 2/3
-
X3 y2) e\ + (#3 y\ -
x<i y\) e$
Exercices 263
B
On peut définir l'angle entre les deux plans comme étant
entre les deux normales n et n'. Si les deux plans
l'angle
ne sont pas orientés, les normales ne le sont pas non
o
L'angle
entre P et P' est donc 7r/3.
Figure 14
H Soit
« -
n = cos
*
-
ei+sm -
*
e2 un vecteur
(
(, )
cos0 sin0 \
M««
a^r/px
=
ai»» -oc»
H
1. -
f(x) + (xin)n = x
d'où :
f(x) —
x
—
(x,n)n
7? 4
Si n = -= I 2 !, en calculant /(ei), /(e2), /(e3) ^ ^-^
.
1
on trouve :
13 -2 3
M(f)ei =
-^ 14
I
V
-2
3
10
6
6
5
2. -
6 -2
M(g)ei = -
-2
Pour iii) :
(P, P) =
ag + 2a0ai +3af +3a^ =
(a0 +ai)2 + 2aj +3o^
H
264 Espaces euclidiens
f*°°e~x I2 xn àx.
hp+i est nul puisque c'est l'intégrale d'une fonction impaire
sur ] —
l)/n_2. On en déduit
immédiatement, par récurrence :
I2p =
1.3-5.-.(2p-l).
2. Tout d'abord l'intégrale converge, car elle est une somme finie d'intégrales
convergentes. La bilinéarité et la symétrie sont immédiates. D'autre part, clairement
e-x2/2p(x)2 > 0> et donc (Pj p) > 0 Si (p? p) =
0j puisque e~x2/2P(x)2 >
1 —
1. f(x, x) =
(xi + 2x2 + 3Ax3)2 4- 2(z2 -
3Ax3)2 + (3 -
3 3
2. Pour aucune valeur de A (/ n'est pas symétrique)
3. Pour aucune valeur de A (le coefficient de x\ dans f(x,x) est négatif).
ei =
l;
12 =
1, d'où : fi —1. En imposant (£3,£2)
= 0 = on a i^ + A/2 + fJ>h = 0. Comme
13 =
0, on trouve A 0. =
Donc £i =
l, £2 =
x, es = x2 —
1. En normalisant on trouve :
ei =
l, e2 =
x, e3 =
—(x2 -1).
10
1. -
Simples vérifications. A
<u
2. -
\^
Figure 16
11
'
0 = —
I 12 | 1. b(xtx) =
(x1-\-x3)2 + 2(x2-\-X4)2+S(x3+2x4)2-\-4,xl
Exercices 265
( 1 0 1 0
0 2 0 2
2. A =
10 4 6
\ 0 2 6 18
1. On a évidemment AX =
0 VX G Mn,i(K) <=$- A =
0, (car, en termes
lXAY =
0, VX, Y G K,i (JQ <^>* XA =
0 ,
VX G .Mn,i (#)
(en prenant la transposée) lAX =
0, VX G A^n,i(^) «<=> *A = 0 A =
0.
2. 'XAX =
0 ,
VX G K,i(i() «=> en remplaçant X par X + Y :
%X+Y)A{X +
Y) =
0, VX,Y e Mnii{K) ; etc.
xi
14 | Soit n =
| x2 une base de l'orthogonal ; imposer (n, ei) = 0 et ( n, e2) =
0. On
X3 }
trouve
( 0 \
1
11 )
n =
15 F1- =
{x G M4| 6(x, 2/ ) 0, Vy =
G F}, c'est-à-dire, sous forme matricielle :
f± =
{x g ,Mn>i(R) |*x^y =
o, vr g F}
/ \
|
VI
2/1-2/2 + 2/3-2/4 =0
Soit Y Ye F<=>
-2y4
=
2/2 =0
( -1
0
^ (22
Y = Y =
X
1
+ M
0 (A, fjL G M)
V o
) ^ 1
lXAY =
0, VY G F équivaut à :
/ 1 0 1 0 \ /2/a-A
0 2 0 2 2^
(#1 X2 X3X4 ;
10 4 6 A
= 0 , VA, /x G ]
\ 0 2 6 18 / \ M
c'est-à-dire :
D'où
{
:
X3 + 2 £4 =0
-
3xi +6x2 +9x3 + 22x4 =0
Im(Id-p) =
(Imp)-L
2. <£=> 3. Il est clair que 2. => 3. Réciproquement, si
Im(id-p) (Imp)1, on a C
dim(Imp)-1-.
—
dim Imp =
si
(x p(x),p(y ))
—
0 Vz,y € E, c'est-à =
dire :
{p(x),p(y)) =
{x,p(y)) Vz,y G ,
E.
Figure 17
LiZJ d(î;-pfM)2
d(t/ -Pf(v)r =
\\v-pF(v)\\2
llv- =
\\v\\2 + \\pF(v)\\2 -
Aussi =
|H|a
—
IH|2 + ||t/||2-2(t;,t/) =
+ ||t/||2
—
2
(pF (i>), v1) d'où :
\\v'-pF(v)f d(v',pF(v))2
-
= =
c'est-à-dire :
18 1.
pF (i>) G F, donc pF(v) =
ai e\ H h ap ep. Imposer v—ppv G F-1 (cf. exercice
16).
Soit {ei,*",en} la base orthonormée associée à {vi, ,vn} par le procédé
de Schmidt. On la construit en normant les vecteurs ek =
Vk
—
Vf (vp) »
ou
Ffc_i =
Vect{vi, ,t>/c-i}, c'est-à-dire en normant les vecteurs
£*=PvecHvi,...,vk_l}±M
2. d(x3,R2[x]) \\x3 -Pr2[x](x3)W =
+
—
—-^-
= = x
- -
=
J4 x = 3 a?
On a donc :
\\p(x3) -x3\\ =
\\Sx- x3\\ =
x/9/2-6/4 + /6 =
\/6.
xp la, projection
orthogonale sur F1-. On a :
Exercices 267
G(x,ei, ...,ep)
(vi,vp)
+
_
0 (vP,vi> '
Nota. Cette méthode permet d'éviter le calcul de la base orthonormée (cf. exercice 18).
On a :
{f(x),y) =
(x,f*(y)), pour tous x,y G E. Si donc x G Ker/, alors (x,f*(y)) =
Pour la seconde égalité, remplacer / par /* et prendre l'orthogonal des deux membres.
implique
0 =
</* o
/ (s), x) =
( f(x), f(x) ) ; donc :
|| f(x)\\2 =0, Vx e E.
23
1. Raisonner comme dans la démonstration de la proposition 7.16. Si A M(/)e. e/,
=
0= {f*of(x)tx)E =
(f(x)J(x))E, ,d'où s = 0.
f p(s) Glm/
U-pW efim/)1
Or :
p(z) G Im/ équivaut à p(z) =
/(it), avec u £ E .
z
p(z) ± Im / équivaut à :
(z /(tt), /(#)) 0 VsGfî
//* (z
=
f(uj\, aA
— —
c'est-à-dire à : -
= 0 ,
Va; 6 E et donc à /* (z) -
/* o
/ (u) = 0 ;
d'où : u =
(f* o
f)~1o / (z). On en déduit l'expression de p.
4. || b-f(x0) || =
|| 6-/o/t(6) || =
|| 6-p(&) || =
d(Mm/) (cf exercice 17). Donc :
5. a) At =
(A* A)'1 A*. On trouve
t JL ( 18 15 -1 \
V )
=
50 2 ~10 14
-(-!)
est pour a = ce
-*'(j)-è(-£+-ù.)
La solution des moindres carrés est
xo
25 1. Soit A =
\\vii...ivn\\ei, {e-i} canonique de Rn. On a : A
étant la base Pei^Vi. =
base {vi}, et Q :=
Pe._>e{.
%
i
D'après la proposition 7.24, Q G 0(n,R). On a :
A =
Pei—*Vi —
Pei-+e'. Pe'.-+Vi =
QR
z
est triangulaire supérieure (cf. démonstration du procédé de
Schmidt).
2. Le procédé de Schmidt appliqué à la base {vi, i>2, ^3} donne la base orthonormée
{ei>e25e3/ et
/ 0 2 y/2 \
Q= Il e[,ef2ief3\\ V3 -1 V5
V -y/2 J
=
^6
—
V5 1
i
/ 2v^ x/3 1 \
fl Q-1A= *QA= 0 3 1
J
-^
=
1/6 V 2V2
.
0 0
26 x G Im(/ -
id)1- «= (z,/(y)-2/)=0, Vy G £
id)
Si (/ -
id) C Ker(/ -
id), donc :
Im(/ -
id) C Im(/ -
id)-1-,
d'où : / -
id =
0.
57T 1 (1\
B : rotation d'angle autour de l'axe dirigé et orienté par le vecteur 1
3 x/3
— ——
viy
1 \
27T 1
C : rotation d'angle —
3
autour de l'axe dirigé et orienté par le vecteur ——
V3
| —
y
—
z = 0.
28
1. P*=/*+/ =
P
(/2+/o/*-Ai/)(aî)=0l VxeVXi.
4. Pour Xi = 2 Q(X) =
(X —
5. Même démonstration.
X2 AjX + 1, car ce polynôme annule f\i (cf. proposition 6.18 page 176). Or f\i
Ai 7^
—
est orthogonale, donc ses seules valeurs propres sont +let —letQ(l) 2 = —
7. Soit x G W, x =
fif(v). Puisque (/2 A» / + id) | Vx. 0 f(x)
Xv + -
=
,
=
Xf(v) +
fj,f2(v) =
Xf(v) + fi{Xif(v) -v) eW. Donc W est stable par /.
J. Donc dét/= 1.
9. Soit x G W-1-, c'est à dire (x,v) 0 et (x,/(«)) 0 ; il s'agit = = de montrer que
(f(x), v) 0 et (/(#), /(i>))
=
0. Puisque / est orthogonale, on a = :
(/(#)> /M) =
n (r -
1).
En déduire l'inégalité en tenant compte du fait que
On en déduit que E =
Ef © E^ =
E% © E°_x ; donc a est diagonalisable.
Pour montrer que a2(x) = x pour tout x, décomposer x sur E° et E^_v
(b) On vérifie facilement que aa ainsi définie est une réflexion.
Réciproquement, si a est une réflexion, le projecteur (orthogonal) p_i sur
E^_x est
(a;, a)
P-i(x) =
n M a, ou a est un vecteur propre correspondant a —1. D autre
(c) Prendre a —
y
—
z.
</(«),*> =
</(w ),/(*)> =
<v,*> =0.
(x,b)
(b) On <Jb(x) 2 6 E. En particulier, pour tout
'
a = x pour tout x €
—
»eH :«7i(»)
La propriété est vraie pour n(*P)
y-2^6
=
id},
et id (j°. Supposons la propriété vraie jusqu'à l'ordre n
= 1 et soit —
/ =
z, donc / abl o
o = =
abr,
car les deux membres sont égaux sur # et sur Vect{z}.
Ainsi l'application craof est une application orthogonale dont l'espace propre
correspondant à +1 n'est pas réduit à {0}. En utilisant le résultat de 3.(b),
on peut écrire cra o / ar, avec r < n 1, d'où :
crai o o = —
/ =
aa o
crai o o ar.
/1 \
z =
I 1 G .Ej4. On est donc dans le cas 3.(b) et A est produit d'au plus deux
V i
/
réflexions ai, abl. Prendre b G 2X, par exemple b
(I —1l\ D'après 2.(b) :
V
=
/
.
o
270 Espaces euclidiens
0 10
M(<jb) =(100
0 0 1
Puisque A =
G\> o
crbl, on ;
ej), f(ei —
ej)) =
0, d'où :
3. Soit x =
y^Xiei un vecteur quelconque de E. On a :
||:r||2 =
5~^#2 et
i=i i=i
n
ll/WII2 =
M2 E^l-Conclure.
i=i
fa\
lb \
2. Si n =
(avec a2 + b2 + c2 =
1) on a :
csinfl + ab(l —
cos0)
M(/)Ci =
ab(l-cos0)
csin0 + cos0 + 62(l -
cos6)
\—bsinQ + ac(l cosO)
—
asind + bc(l —
cosO)
f(x Ay) =
Xf(x) A f(y)
En utilisant l'identité de Lagrange et le fait que / G SO(.E), montrer que
ll/(*Ai/)||2 =
||/(*)A/(i,)||2
d'où |A| = 1. D'autre part
dét ||/(a;), /(y), f(x A y)|| =
(dét /) dét \\x, y, x A y\\ = dét \\x, y, x A y\\ > 0
et
dét H/Oc), /(y), f(x A y)\\ = A dét ||/(x), /(y), f(x) A /(y)||
d'où A = 1.
Réciproquement, supposons que / conserve le produit vectoriel et soit (e^) une b.o.n.
s'agit de montrer que (/(e;)) est aussi une b.o.n. directe.
directe. Il
On a :
/(ei A e2)
/(e3) /(ex) A /(e2), donc /(e3) -L Vect {/(ei),/(e2)}. En
= =
calculant de même /(ei) et /(e2), on voit que la famille (/(e*)) est une famille
orthogonale. D'autre part, /(e3) /(ei) A/(e2), d'où : ||/(e3)|| =
||/(ei)|| ||/(e2)|| (utiliser =
l'identité de Lagrange). En échangeant le rôle des e*, montrer que les vecteurs f(ei)
sont de norme 1.
/0 0 0N
]
.
33 Sp'A =
{0, 6,6} A' = P^AP = 0 6 0 ,
avec :
\0 0 6
P= ||t*,t;,HI> «= -=
1 f
I
X
1
Projection orthogonale sur le plan Vect {-y, w} suivie d'une homothétie de rapport 6.
Exercices
On a Tr(*AA) =
^_J afj. Puisque A est symétrique, il existe P orthogonale telle que
(' A2
°\
A! = lPAP =
V 0 XnJ
n n
Y^ A? =
TLfA'A') = Tr* fPAPtfPAP) = Tr* AA =
J^^j
36 On munit Mn(^) du produit scalaire canonique (cf. page 222) ; montrer d'abord que
(HAt B) =
(A, tHB)
(AH, B) =
(A, B*H)
A l'aide de ces relations, montrer que ipM est autoadjoint.
37 1. Soit Sp'p =
{Ai,..., An}. Si {e^} est une base orthonormé de vecteurs propres de
p, on définit a par :
/ VXi
M(a)ei =
(1)
V 0 V\n
D'autre part a est unique, parce que si a est un endomorphisme autoadjoint
et défini positif
tel que p <r2, en considérant une base orthonormée {e^} de
=
vecteurs propres de <r, on voit immédiatement que cette base est aussi une base
de vecteurs propres de p et que M(a)ei a nécessairement l'expression (1).
2. (/* o
/)* =
/* °
/, donc /* o
/ est autoadjoint. D'autre part si v est vecteur
</* o
/M, o> =
(/(«), /(«)> =
</* »
/(»), »> = A (v, v)
donc A > 0 et, puisque / est bijectif, A > 0.
3.(u(x),u(y)> =
(foa-1(x)Joa-1(y)) (f* / = o o a"1 (s), a"1^ ))
=
(o-(aj),o--1(2/)) (x.aoo-1^)) = =
(xty)
u est donc orthogonal. Aussi / = u o <r, avec w orthogonal et cr est défini positif.
Pour montrer l'unicité, suppose que /
on a, orthogonal et a = u o avec u
Espaces hermitiens
Dans ce chapitre, nous nous proposons d'établir, dans le cadre des espaces vectoriels
complexes, une analogue
théorie à celle du produit scalaire 1. Il ne s'agit pas d'une généralisation
gratuite : les notions que nous introduirons interviennent en des nombreuses branches des
1. Formes hermitiennes
Soit E un espace vectoriel de dimension finie sur C. Pour définir l'analogue du produit
scalaire sur E, on serait tenté de considérer la forme bilinéaire symétrique
s : Ex E C
{x,y) i
xiyi-\ \-xnyn
(x =
^Ji=ixiei-> V
—
-
d'abord parce qu'il n'a pas de sens de dire que s(x, x) > 0 ; ( s(#, x) est un nombre
complexe) ;
-
d'autre part parce que si s(x)x) =
x\ + + x\ est nul cela n'implique pas que
x =
0.
s' : E x E — C
(x,y) i—>
xi 2/1 ^ \-xnyn
On aura :
s'(x, x) | x\ |2 | |
2
=
H h xn
1On trouvera en Appendice A. 13 une table de correspondance entre les définitions concernant les
espaces euclidiens et la théorie que nous allons développer. Il est conseillé de se rapporter à cette
table pour se familiariser avec la terminologie.
273
274 Espaces hermitiens
s'(x,x)>QiVxeE et s\x,x) =
0 => x =
0.
C'est pourquoi pour les espaces vectoriels complexes on utilise, comme analogue du
produit scalaire, l'application s' plutôt que s.
Cependant, s' n'est pas bilinéaire ; on a, en effet, Vx, y, z G E, VA G K :
s'(x,\y)= As'(x,y)
mais :
sf{\x,y) =Js'(x,y).
(on dit que s' est antilinéaire en x.)
De plus s' n'est pas symétrique, mais vérifie la propriété suivante :
s'{x,y) =
s'(y,x)
Définition 8.1 -
application
h\ExE—>C
e) h(x,y) =
h{y,x).
Les formes hermitiennes jouent le même rôle que les formes bilinéaires symétriques
du chapitre précédent. Notons, en effet, que si h est une forme hermitienne, on a, en
vertu de la propriété e) :
2Une telle application, antilinéaire dans le premier argument et linéaire dans le second argument,
est dite sesquilinéaire (terme qui vient du grec et signifie : à moitié linéaire)
g.l Formes hermitiennes. Produit scalaire hermitien 275
{ | ) : ExE—> C
(x,y) i—>
(x\y)
a) (x + y | z) =
(x\z) + (y\z)
b) (x\y + z) =
(x\y) + (x\z)
c) (x\\y)= X(x\y)
d) (Xx\y) =
X (x | y)
e) (x | y) =
(y\ x)
et
/) (x | x) > 0, \/x e E et (x | x) =
0 ^=> x =
0
Un espace vectoriel de dimension finie surC muni d'un produit scalaire hermitien est
dit espace hermitien.
REMARQUE. Un espace vectoriel complexe E non nécessairement de dimension finie, muni d'un
—
produit scalaire hermitien est dit préhilbertien complexe. De même un espace vectoriel réel, non
nécessairement de dimension finie, muni d'un produit scalaire est dit préhilbertien réel. Ainsi les
espaces préhilbertiens de dimension finie sont les espaces hermitiens et euclidiens. Le préfixe "pré"
devant l'adjectif "hilbertien" tient au fait que l'on réserve le nom d'espace hilbertien aux espaces
préhilbertiens qui sont complets (c'est-à-dire : toute suite de Cauchy converge) pour la norme que
nous allons définir. On démontre que tout espace préhilbertien de dimension finie (c'est-à-dire
tout espace euclidien ou hermitien) est complet.
Exemple 1 -
E =
Cn avec (|) défini par :
Le produit scalaire hermitien ainsi défini est dit produit scalaire hermitien canonique.
Comme pour les espaces euclidiens (cf. corollaire 7.7), nous verrons que si E est un espace
hermitien, moyennant le choix d'une base, on peut identifier E à Cn muni du produit
scalaire hermitien canonique. En d'autres termes il s'agit, à un changement de base près,
du seul exemple d'espace hermitien
Exemple 2 -
{x | y)&i \= xi 2/1 + + xn yn
pour x =
XvILi xiei i y
—
Exemple 3 -
Hf,9)= /
Jo
f(x)g(x)dx
est une forme hermitienne définie positive. La vérification est laissée en exercice.
Comme nous allons le voir, tous les résultats sur les espaces euclidiens se transportent
sans difficultés aux espaces hermitiens.
3. Réduction de Gauss
YTj=\Vùe3 :
n n
Ç^Xiei ^j/j-e,)
n
h{x,y) = h ,
=
^ Xiyjh^ej)
i=l j=l i,j=l
^
n
h(x, y) =
aij Ëi Vj
h(x,y) =
an x~\ yi + aX2x1y2-\ h a%j xiyj H h annxnyn
f (x,y) =xi yi + (1 -
3i)x2V2 -
5ix3yi +xiy3
La vérification de la symétrie hermitienne est tout aussi facile : le fait que la valeur de
h(x> y ) change en sa conjuguée lorsqu'on échange les rôles de x et y, équivaut, bien
entendu, à
c'est-à-dire le coefficient de xiyj doit être égal au conjugué de celui de Xjyi. Ainsi,
par exemple, l'expression f(xyy) ci-dessus n'est pas une forme hermitienne, alors
que :
h(x,y) =
£iyi + 5â2y2 + ^x3y3 -ix~iy2 + ix2yi -\-(3 + 2i)x1y3
+(3 -
2i)x3y\ + (1 + i)x2y3 + (1 -
i)x3y2
est hermitienne.
8.2 Inégalité de Cauchy-Schwarz. Norme 277
pour reconnaître si une forme hermitienne est définie positive, on peut adapter sans
q (x) =
h(x,x)
h(x, y ) =
xi yi + 5 x2 y2 + (3 + ï) x~i y2 + (3 -
i) x2 y± ;
on a
q(x) =
\xi\2 + 5 \x2\2 + (3 + i)x-iX2 + (3 -ï)x2x\.
Pour revenir à h(x,y) il suffira de remplacer les x\ par le yi (cf. aussi exercice 3).
Notons que, comme dans le cas euclidien, si h est définie positive tous les coefficients
des termes \xi\2
dans q (x) sont strictement positifs (car ces coefficients sont les valeurs
de h{ei^ei)). Ainsi, si dans q(x) il n'y a pas de carrés de modules, h n'est pas un
produit scalaire hermitien. Supposons donc que q(x) contient un terme en \xi\2 et,
pour simplifier, raisonnons sur un exemple (le cas général se traite d'une manière
analogue).
Soit h la forme hermitienne sur C3 définie dans la base canonique {ei} par :
q(x) =
\xi |2 + 5 \x212 + 3 \x312 + 2 i x± xi —
2 i x\ X2 + i #2 X3 —
i £2 x~3
On choisit un terme en
\xi\2 (par exemple \xi\2) et on cherche le coefficient de xi (ici :
xi + 2ix2).
On écrit :
q (x) =
\xi + 2ix2\ + termes correctifs
Dans les termes correctifs il n'y a ni Xi ni au, comme on le vérifie facilement. On itère
ensuite le procédé. Dans notre cas :
q(x) =
\xi +2ix2\2 -4|x2|2 + 5|a?2|2 + 3|x3|2 -\-ix~2X3 ix3x2 -
=
\xi +2iX2\2 + \X2\2 + 3 |X3|2 + iX2X3 iX3X2 —
=
\x1+2ix2\2 + \x2 + ix3\2-\x3\2+S\x3\2 \x1 + 2ix2\2 + \x2+ix3\2+2\x3\2 =
Exercices 1. 2. 3. 4. 5.
Il x II :=
y/(x I x).
278 Espaces hermitiens
\{x\y)\<\\x\\\\vl
On aura :
0<||z||2+2^|(z|y)|nVlM|2 V/x G R.
Puisque y ^ 0, le second membre est un trinôme en // ; son discriminant est donc < 0,
c'est-à-dire :
l<z|y)|2<IMI2|UI|2 Vx,yeE.
Si x + Xy 0 on a l'égalité, dans cette expression (il suffit de remplacer x par —Ay).
=
1. || x || > 0 et || x
||=0<^£ =
0 ;
2. || Ax|| =
|A| || x
||, VAgC, \/xeE ;
3. || x + y || <
|| x || + || y ||, Mx,yeE.
De plus Végalité a lieu si et seulement si il existe A G R; A > 0 tel que y = Xx
(ou x =
Xy).
Démonstration : Il suffira de démontrer 3., car 1. et 2. dérivent immédiatement de
la définition du produit scalaire hermitien.
On a, en notant 1Ze z la partie réelle de z G C :
Il x + y ||2 =
(x + y | x ||2 + (y \ x) + (x | y) + || y ||2
+ y) =
|| x
Si y Xx= avec A G R+ ,
on l'égalité. Réciproquement si on a l'égalité, en remontant
les calculs on trouve :
8.3 Matrices hermitiennes 279
-
d'une part que x et y sont colinéaires en vertu de l'inégalité de Cauchy-Schwarz ;
donc, si, par exemple x^O, y
=
À x avec À G C ;
-
d'autre part que 7le(x\y) —\(x\y)\.
Puisque (x\y) =
(x | À x) X \\ x ||2, on aura
=
IZe (x \ y) =
\ (x \ y) | si et seulement
si %e A =
| À |, c'est-à-dire si et seulement si À G 1 et A > 0.
Exercice 6.
Comme il en est des formes bilinéaires, il est utile de représenter les formes
hermitiennes par des matrices.
h(x, y) =
^2xiyjh(ei, ej)
(cf. page 276). h est donc déterminée par la connaissance des valeurs h(eiy ej) sur
une base.
Définition 8.5 -
\ /i(en,ei) h(e
=
(h (ei> ej))
T î
ième jème
ligne colonne
représentée par :
h(xty) =
xiyi -\-bx2y2 + 4^3 2/3 -
2i)x3y\ + (1 + i)x22/3 + (1 -
i)x3yi
On a :
/ 1 -i 3 + 2i \
M(h)ei = i 5 1 + i
)
\ 3-2i 1-i 4 /
Définition 8.6 -
Les matrices hermitiennes sont donc les matrices qui représentent les formes
hermitiennes.
280 Espaces hermitiens
Remarque. -
2. Nous allons voir (cf. théorème 8.16 et proposition 8.19) que, tout comme pour les matrices
symétriques réelles (cf. théorème 7.38 et proposition 7.39) :
-
les matrices hermitiennes sont diagonalisables dans R ;
-
une forme hermitienne définit produit scalaire hermitien si et
un seulement si la matrice qui
la représente dans une base quelconque qui est justement
-
H =
M(h)ei, X =
M(x)ei, Y =
M(y)ei (x, y e E)
On a :
h(x,y) =
fXHY
Changement de base
En notant W =
M(ft)e/, on a :
h(x,y)= tX'R'Y'.
D'autre part :
h(x,y)= tXEY =
t(PX')HPY'= tX'{tPHP)Y
pour tous X,Y e Mnii(C), d'où :
H' PHP
Exercice 7.
Définition 8.7 -
/ai 0 0 \
0 a2 :
M((\))ei =
(^ e.
' . o
\ 0 0 an )
8.4 Bases orthonormées. Orthogonalité 281
ou encore : n
q(x) =
ai \xi\2 H han|a;n|2 (où x =
^2/xiei)
ii=l
/ 1 0 ...
0 \
0 1
M((\))ei =
: 0
\0 ...
0 1 /
ou encore :
q(x) =
\xx\2 H h |zn|2 ( où :x =
YA=ixiei)-
Théorème 8.8 -
La démonstration est la même que dans le cas euclidien (cf. théorème 7.6 page 228).
Notons que si X et Y sont les matrices qui représentent dans une base orthonormée les vecteurs
x} y, on a :
(x\y) = *XY
Définition 8.9 -
{x eE\ (a\x) =
0, VaG E}.
Proposition 8.10 -
1. dimE^dimF + dimF-1
2. E =
F®FJL
3. FLL =
F
Exercices 8. 9.
282 Espaces hernutjeTlift
(m\y) =
(x\r(y)), Vx,y€E.
Démonstration : La démonstration est la même que dans le cas euclidien (cf. proposition
7.16). Soit {e;} une base orthonormée de E et notons
A =
M(f)ei, A* =
M(f*)ei, X =
M(x)ei, Y =
M(y)ei
'CÂxJy =
*xa*y, vx,re.Mn,i(M)
qui est équivalent à A A* Ceci montre que A*' (donc /*) unique.
*
ce =
est
Proposition 8.12 -
a) /** =
/, (id)*=id
b) (f + 9)* =
f*+9*, (A/)*=À/*, (fo9y=g*or
c) rg/* =
rg/, dét/* =
dét/
NOTA. —
A* = tÂ.
def
Exercice 10.
et f un endomorphisme de
E. Les propriétés suivantes sont équivalentes :
1- Il f(x) || =
|| x
|| ,
Vx G E ;
S.6 Groupe unitaire 283
équivalente : A* A
d'une manière I). =
/o/* = id.
Définition 8.14 -
équivalente A1 A =
1 ) est dite unitaire. L'ensemble des matrices unitaires est un
U (n, C) : =
{A G Mn(C) \tÂA=I}
Les matrices unitaires sont les matrices qui représentent dans une base orthonormée les
transformations unitaires d'un espace hermitien. Il s'agit donc de l'analogue, dans le
cas complexe des matrices orthogonales et, plus précisément, les matrices orthogonales
sont les matrices unitaires réelles :
0(n,R) =
U(n,C)nÀ<n(R).
Si A G U (n, C), puisque *X4 = I on a : | dét A |2 =
1, donc :
|dét A\ = l.
Exemple 1 -
Soit la matrice :
/ ei(fil 0 \
\ 0 è*« )
On AA / ; donc A est unitaire A G U (n, C). D'autre part
*
a = : :
dét A =
e<(vi+V2+,"+*n)
donc A G SU (n, C) <=^ ipi + (f2 H h <pn =
2&7ir.
284 Espaces hennitiens
Exemple 2 -
Détermination de SU(2,C).
S0it
*=(ïj)^(C);
La condition
*
AA =
I est équivalente
ona:
au
«*=(* *).
système
(I) ( aâ + bb = 1
(II) < cc + dd 1
[
=
(III) ac + bd =
0
La condition dét A =
1 donne l'équation supplémentaire
(IV) ad-bc=l.
D'autre part :
Xb et b+ c = —
À a
c'est-à-dire :
d = a —
À6
c = —5 —
À a
-X(aâ + bb) =
0
Donc A s'écrit :
i4
-(4i)-
=
( £ ) _
,
avec : l°!2 + lfe!2 = !
sin a
(cos
On a ainsi :
a eî<? —
sin a e%lf> \
sinoje_îv? cosae-z6/ /
A dépend donc de trois paramètres réels : a, 0, (p. Pour 0
=
0 et ip =
0 on retrouve les
matrices de SO(2,R).
REMARQUE. -
En particulier, les valeurs propres d'une matrice orthogonale, considérée comme matrice
de Mn (C), sont des complexes de module 1.
En effet, soit / l'endomorphisme unitaire de Cn qui dans la base canonique est représenté
par la matrice unitaire A. On a :
|| f(x) || =
|| x ||, \/x G Cn. Si f(x) = Xx avec x ^ 0,
alors :
|| Xx || =
|| x
|| d'où :
|A| || x ||=|| x || et donc |A| = 1.
Définition 8.15 -
(f(x)\y) =
(x\f(x)) , Vx,yeE.
Le théorème suivant qui affirme que tout automorphisme autoadjoint (donc toute
matrice hermitienne) est diagonalisable dans R, est la généralisation du théorème
7.38 page 252 :
Théorème 8.16 -
2. f est diagonalisable.
3. Les sous-espaces propres de f sont deux à deux orthogonaux (on peut donc
construire une base orthonormée de vecteurs propres en choisissant une base
orthonormée dans chaque espace propre).
Nota -
Théorème 8.16'
Toute matrice hermitienne est diagonalisable dans R et les espaces propres sont
deux à deux orthogonaux pour le produit scalaire hermitien canonique de Cn,
(x\y) =
xiyi +
--
+ xnyn .
Ou encore, compte tenu du fait que la matrice de passage d'une base orthonormée
(la base canonique de Cn) à une base orthonormée (la base orthonormée de vecteurs
propres) est unitaire (cf. théorème 7.38") :
Théorème 8.16"
Soit A une matrice hermitienne. Il existe alors une matrice unitaire U, telle que
la matrice A' =f U AU soit diagonale réelle.
Notons que les théorèmes 8.16, 8.16' et 8.16" sont trois manières différentes d'énoncer
le même théorème
Démonstration : Il est facile de vérifier que les valeurs propres d'un endomorphisme
autoadjoint sont toutes réelles. Soit x ^ 0 tel que f(x) Xx. On a = :
(f(x)\x)= (À*|z) =
Â||;r||2
et d'autre part :
(f(x)\x) =
(x\f(x)) =
{x\\x)=\\\x\\2
d'où : A =
A.
286 Espaces hermitien;
Définition 8.17 -
f*of =
fof*
Une matrice A G A4n(C) est dite normale si AA A1 A.
l
: =
Il est clair que les matrices normales sont les matrices qui représentent les endomor-
phismes normaux dans une base orthonormee.
En particulier sont normales :
*-(i-ï)
comme par :
</(*)l/(y)> =
(fWIffe)), Vx,y€E
Le théorème suivant affirme que tout endomorphisme normal (et donc toute matrice
normale) est diagonalisable (les valeurs propres, sauf dans le cas hermitien, ne sont
Alors f est diagonalisable et les sous-espaces propres sont deux à deux orthogonaux (en
particulier on peut construire une base orthonormee de vecteurs propres en prenant
une base orthonormee dans chaque espace propre).
Toute matrice normale est diagonalisable dans C et les espaces propres sont deux à
deux orthogonaux pour le produit scalaire hermitien canonique de Cn.
Ou encore :
Soit A une matrice normale. Il existe alors une matrice unitaire U, telle que la matrice
A' =l UAU soit diagonale (non nécessairement réelle).
Démonstration : Par récurrence sur n =
dimE.
Pour n =
n'y a rien à démontrer. Supposons le théorème vrai jusqu'à
1 il l'ordre n 1
—
E =
EX@E£
Notons que dimE^ < n —
1.
La démonstration suit les étapes de la démonstration du théorème 7.38. On montre
d'abord que E^ est stable par /, puis que la restriction de / à E^ est un
endomorphisme normal.
Exercices 287
/* °
/0e) =
^f*(x), ce q^ montre que f*(x) GE\.
Soit maintenant y G ^. On a, pour tout x e. E\ :
(f(y)\x) =
(x\f*(y)) =
0, puisquey e Et etf*(x)e Ex-
ce qui veut dire que f(y) G E^ et que donc E^ est stable par /.
Notons tout d'abord que E^ est stable par f*. En effet, soit x G E^ ; pour tout
y G E\, on a :
(n*)\v) =
(x\f(y)) =
A<x|y>=0;
ce qui montre que f*(x) G E^ et que donc Ej^ est stable par /*.
Considérons maintenant l'identité (f(x) \ f(y )) =
(f*(x) \ f*(y)) (cf. remarque
page 286). Puisque, comme on vient de le voir, E^ est stable par / et par /*, on
(f(x)\f(y))\B±=(r(x)\r{V)) Vx,yeEt
ce qui montre que que la restriction de / à E^ est normale.
est somme directe de sous-espaces propres de / qui sont, toujours d'après l'hypothèse
de récurrence, deux à deux orthogonaux. Comme les sous-espaces propres de / sont
des sous-espaces propres de /, et, par ailleurs, E Ex® E^ il est clair que E est =
,
démontré.
Le théorème 8.16 permet de démontrer un résultat analogue à celui de 7.39 page 254 :
Proposition 8.19 -
exercice.
EXERCICES
a) f : C3 —> C b) f :Mn(C)—+ C_
{xi,X2,X3)t-^ x\+2xï-xz a Tr A
>
_ _
288 Espaces hermitiens
hi(x,y) =
xi yi -\-2>x2y2 + 2i x3 y3 + (2 + 3i)x~i y2 + (2 -
3i) x2 y\
+(1 -
5 i) x2 2/3 4- (1 + 5 i) x~3 y2
b) h2 :
>tn(C) x Mn(C)—> Ç_
Tr AS
(A,B)
' "
h(x>y) =
\ [q(x + y) -
4 Soit h la forme hermitienne sur C3 définie dans la base canonique {e*} par :
q{x) =
\xi\2 + 3 \x2\2 + 6 |#3|2 4- ix\ x2 —
ix\ x2 + 2ix2 X3
—
2ix3 x2.
(f(x)\x) =
Ot ViGE^/ = 0.
7 Soit 7i =
{matrices hermitiennes d'ordre 2 à trace nulle}. Montrer que 7i est un espace
vectoriel sur R. En donner une base.
Montrer que || A || : =
V—détA est une norme sur 7i.
complexes (P : R —>
C), de degré < 2. On définit :
m =
Jo
f1 P(x)\2 dx
polynômes P de la forme :
P =
2fjL- \ + 3ifix2 (A.jtiGC) .
1. si /* =
f-1 alors |A| = 1 ;
2. si /* =
/ alors A G R ;
3. si f* =
—f alors À est un imaginaire pur ;
(l \ ( \
-^ j ^ j
1 1 1+i
en ,le vecteur Wl =
l
-
. . .
A={M €M2(C)\M* =
-M, TrM =
0}
(matrices antihermitiennes à trace nulle).
1. Montrer que A est peut être vu comme espace vectoriel de dimension 3 sur R et
que les trois matrices de M2(C) :
A—^ (Tr A)
—
SU(2,C) C É~R4
(c) Montrer que si A G SU(2,C), alors A s'écrit d'une manière unique :
A =
x\ I + X2 X -f X3 J + X4 K
x\ + x\ + x\ + £4 = 1
Im(/ + 0) =
Im/ + Im0 et Ker(/ + g) =
Ker/ n Ker^.
1. Montrer que B = iA est hermitienne ; en déduire que toutes les valeurs propres
de A sont imaginaires pures.
2. Soit B' =
{wi, wî, ...
T7^^Wl+Wl^ %
=
1
1 i
W'3 -=(W2+Wï)y WlA —7^(w2 -W2)
= =
V2 x/2V
Montrer qu'il s'agit d'une base orthonormée de Rn et que la matrice de / dans
cette base B' est
cos #i —
sin 0i
sin $i cos 0i
M{fh
INDICATIONS
| 1
| Simple
des vérifications
q (x + y) =
h(x + y ,
x + y) =
h(x, x) + h(x, y ) + h(y, x) + h(y, y )
etc.
|T~~| q{x) =
\x1+ix2\2 + 2\x2-ix3\2 +4\x3\2.
1
m;i;
</(»)!*> +< </(*)|y> =o Vj,,*eJS
'
-i
(xijj =
Y^i j=i XijEij et S =
(î/tf) =
£"i=i Vij Eij ,
on a :
h(j4, £) =
an yii + X12 2/12 H h ïnn 2/nn =
Z)£j = l ^ij î/»i
Il s'agit donc du produit scalaire hermitien associé à la base {Eij} (cf. exemple 2. page
275)
MIN E l*yl2
[7] A e « <= A
( Xz X2-XT )
=
x2
avec *i.^'*3 e E
|| A ||= V-détA =
yjx\ + œ§ + a;§.
Il s'agit donc de la norme associée au produit scalaire euclidien :
(x, y) >-»
x\ y\ +
#2 2/2 + #3 2/3-
f°\ (i
2. Une base de F est, par exemple, {i>i,i>2} avec ^1=1 0 et V2 =
I i ] En
V \o
.
i
/
appliquant le procédé de Schmidt, on trouve la base orthonormée de F :
i i ( 3
h(P,Q)= f
Jo
P{x)Q(x)dx
10 1. H x ||» =
</*o/(*)|x> =
</(*)|/(*)> =
|A|2IMI2
2. 3. démonstrations analogues.
4
, llgMIl3
0|
11 Choisir un vecteur V2 tel que {^1,^2} soit une base orthonormée ; l'image de V2 doit
-j= ( _- )
avec ip G R . On trouve :
1
( l-±±+é«
V2
±^+ie*\
\/2
'
A =
\ V2 y/2 J
1. Les matrices A G A sont les matrices de la forme
12
i*)=xX+yj
/ ix V +
+ zK;
\ -y +iz -ix
J
avec x, y, z G R. Ce qui montre que la famille {Z, J, JC} engendre A. Puisqu'elle
est R—libre elle est une base de A.
On a
Vectuj/} D A =
{0}, donc Vect^j/} et A sont en somme directe et
dim A © VectK{/} = 4. Aussi R4 est isomorphe à H A © Vecti{/}. On peut =
2. (a) Puisque A est unitaire, |Ài| |A21 1 (cf. exercice 10, 1). D'autre part
= =
détA =
1, donc Ai A2 1, d'où : À2 =
Ai et par conséquent : Tr A = =
Ai + A2 G R.
M* = -M.
Pour toute A G SU(2, C), on peut écrire : A =
{A -
^) + ^^.
(c) Soit A G SU(2,C). D'après 2. b) et 1., on peut écrire A =
xi I + x2T +
xzJ + x± JC. La condition A* A = I est équivalente à x2 + X2 + x2-\-x2 = 1.
[71] 1. (a) Si
donc
/W, on a </(œ) | x>
G (x | /(*)> D'autre part (x | /(a:))
=
(/(*) | a;),
(f(x) | x) G R pour tout x G E. Réciproquement, on suppose que
-
(f(z)\y) + (f(y)\z) =
(V\f(z)) + (z\f(y))
(f(z) \y)- (f(y) |z> = -
{y |/(*)> + (z|/(y)>
et que / G ft.
{f(v) 1t>) G #+, c'est-à-dire (Ai> |t;) G R+, d'où A G R+, compte tenu du fait
que A est réel.
Si / G H+, considérer une base orthonormée {t>i,..., vn} de vecteurs propres.
Calculer (f(x) \x) en décomposant # sur cette base.
(c) En décomposant x sur une base orthonormeé de vecteurs propres, x =
E?=i *i*>i, on a :
(f(x)\x) =
£?=i |^|2A, 0. Or / G tt+, donc,
=
/(*) =
E?=i **A^ = 0.
0 =
(g(x)\x) > (f(x)\x) (car / G W+), donc (/(x) | x)
> 0 0, ce qui =
1. Utiliser le fait que valeurs propres d'une matrice hermitienne sont réelles.
2. Puisque A est réelle, si A est valeur propre, A est aussi valeur propre. Compte
tenu de 1, les valeurs propres non nulles sont en nombre pair. Puisque A est
diagonalisable (dans C), rgA nombre des valeurs propres non nulles de A.
=
1. A est normale, donc diagonalisable dans C, dans une base orhonormée (cf. Théorème
8.18). Ses valeurs propres sont de module 1 (cf. Remarque page 284). Puisque A
est réelle, ses valeurs propres non réelles sont complexes conjuguées (cf exercice
7, chapitre 6).
2. Simple vérification. Par exemple, calculons le premier bloc. On a :
w\—iwL w\ -\-iwL
w\ w\ —A———-. Donc
_
:
_
y/2 y/2
——-=—-,
= =
Aw[ =^(Aw1+Am)=^(eiew1+e-i9wï)
y 2 V 2
= -
^ L
UU\w,1 -
iw'2) +
e-ie(w[+iw/2)] -J
/ : R4 x R4 — R
définie par :
f(x, y) =
xiyi + £22/2 + x3y3
-
x±y±
/(#, x) =
x1 + x2 + x3
—
x4
risquerait de diviser par 0...). La notion d'orthogonalité devient, en général, plus délicate à
manier (noter, par exemple, qu'un vecteur de "norme nulle", c'est-à-dire tel que f(x,x) 0 =
isométries vectorielles -
trouve, au lieu des rotations et des symétries, ce que l'on appelle les «transformations de
Lorentz» (cf. exercice 26), etc.
Le but de ce chapitre est d'étudier les formes bilinéaires dans ce contexte général où elles
ne sont pas nécessairement définies positives. L'intérêt ressort, entre autres, de l'exemple
ci-dessus : l'application à la théorie de la Relativité.
Rappelons (cf. Définition 7.2) qu'une forme bilinéaire sur un espace vectoriel E sur
K est une application b : E x E —> K qui est linéaire dans les deux arguments.
Commençons par considérer le cas où E est de dimension finie. Si {e;} est une base
de E, on note :
/ 6(ei,ei) ...
b(euen) \
b =
M(b)ei =
: ;
\ b(en,e1) ...
b(e ru Cn) /
W5
296 Formes bilinéaires et formes quadratiques
la matrice de b dans la base{e;} (cf. définition 7.11 page 233). Rappelons que si
X M{x)ei
=
M(y)Ci, bfay) =l XBY.
et Y = on a :
Comme nous l'avons vu (cf. page 235), si {e^} est une autre base, B' M(b)et et =
P =
Définition 9.1 -
ig(b)=vgM(b)ei
b est dite non dégénérée si le rang de b est maximum (c'est-à-dire :
rg(&) =
n =
On notera que le déterminant de M(b)ei dépend du choix de la base. On a en effet dét B' =
(dét P)2dét B. Cependant, comme dét P / 0, on a dét B' ^ 0 si et seulement si dét B ^ 0 ; donc le
fait que le déterminant soit nul ou non ne dépend pas du choix de la base.
Exemple 1 -
Tout produit scalaire est non dégénéré. En effet, si {e*} est une base
orthonormée :
1 ...
0
'
M((,»ei=
donc rg ( , ) = n.
/1 0 0 0
0 1 0 0
M(/k =
0 0 1 0
\o 0 0 -1
donc rg / = 4.
Exemple 3 -
b(x,y) =
zi 2/i -3^3 2/3 + Z12/2 -hx2yi -xiy3 -x^yi -
3 z3 2/2 -
3 x2 2/3
On a :
-1
M(b)ei =
-3
-1 -3 -3
dét M(b)ei =
0, donc s est dégénérée. D'autre part le mineur encadré est non nul, donc
rgs = 2.
NOTA. —
On peut cependant interpréter le rang d'une forme bilinéaire comme la dimension de l'image d'une
certaine application linéaire. Soit en effet b : E x E —> K une forme bilinéaire et j l'application :
j: E — E* où j(y): E — R
y '—>
j(y) x i—>
b(x,y)
En d'autres termes : j(y)(x) := b{x,y). Nous avons vu (cf. proposition 7.15 page 237) que si b est
un produit scalaire j est un isomorphisme d'espace vectoriel.
Proposition 9.2 -
M(j)eitVj =M(b)ei
Eneffet'SOit /au \
M(j)euiPj=\\j(ei)i...j(en)\\iPi=i
au aln
...
: : :
La i-ème colonne est costituée par les composantes de j(ei) dans la base {^e,}- On a donc, d'après
l'expression de la matrice : j(e.i) ampi + + annpn , donc : =
3{ei){ek) =
aii^i(efc) H h a>kiVk{e-k) H h Q"ni<Pn(ek) =
Q>ki
car ^j(efc) =
6^^. D'autre part, d'après la définition de b :
j(ei)(ek) =
b(ekiei) =
bki
donc:
M(j)eit<Pj =
M(b)ei
Ainsi le rang de b est égal au rang de j (au sens de la définition 3.3), c'est-à-dire égal à la dimension
de Imj.
La proposition 9.2 justifie la définition suivante, qui est valable même si E n'est pas
de dimension finie :
Définition 9.3 -
2. On appelle noyau de b
-
noté N(b) -
b(x, y) =
0,\/xeE =^y =
0
Proposition 9.4 -
quelconque).
2. dim E =
rg b + dim N(b).
298 Formes bilinéaires et formes quadratiques
Remarques. -
1. Bien que le noyau d'une forme bilinéaire se calcule comme le noyau de la matrice de b, la
significationn'est pas la même. En particulier le noyau de b n'est pas l'ensemble
{(x,y) ç
E X E | b(x,y) 0} (cet ensemble d'ailleurs n'est même pas un espace vectoriel).
=
N(b) =
{xeE\b(x,y) =
0,
WyeE}
qui est le noyau de la transposée de la matrice de b. En effet, en utilisant les notations
matricielles :
Il est clair que si b est symétrique, ce qui sera le cas dans la suite, alors N(b) =
N(b)
Exemple 1 -
Bien entendu, pour un produit scalaire, comme pour toute forme non dégénérée, le noyau
est réduit à {0}.
Exemple 2 -
Soit b la forme bilinéaire de l'exemple 3 ci-dessus (cf page 296). On peut écrire :
Hx> y) =
(î/i + 2/2 -
yz) xi + (yi -
3y3) x2 + {-y\ -
Sy2 -
3y3) x3
{î/i
+ î/2
-
2/3 =0
yi -3y3 =0
-2/i -3y2 3y3 -
=0
En résolvant, on trouve : y\ —
3 À, y2 = —
2 A, y3 =
A ; donc iV(6) est engendré par le
vecteur y =
I —2
V
.
1/
On aurait pu déterminer directement N(b) à l'aide de la matrice de b :
/ 1 1 -i\
B 1 0-3
V ;
=
-1 -3 -3
Exercices 1. 2. 3.
9.2 Formes bilinéaires symétriques et formes quadratiques en dimension finie 299
dimension finie
Par la suite nous nous intéressons aux formes bilinéaires s qui sont symétriques, c'est-
à-dire telles que : s(x>y) s(y\x), Vx,y G E. =
Il est clair que si E est de dimension finie, une forme bilinéaire s est symétrique si et
seulement si la matrice de s (dans une base quelconque) est symétrique.
L'étude des formes bilinéaires symétriques est facilitée par l'introduction de la notion
de forme quadratique.
Définition 9.5 -
q(x) =
2 x\ -
3 x\ + 3 x\ + 2 x\ X2 -
3 x\ xs + 5 X2 x%
(où les Xi sont les composantes de x dans la base canonique) est une forme
quadratique.
Naturellement, pour que cette définition ait un sens, il faut vérifier que le fait d'être un
polynôme homogène de degré 2 ne dépend pas du choix de la base. La vérification est
facile. Soient {e*} et {e£} deux bases de E et x =
X)fe=i xk£k =
X^Li x'% e'% un vecteur de
E. Supposons que :
n
qyx j y
a%j x% Xj.
^=
i,j=\
Il s'agit de montrer qu'il existe des a'^ G K tels que : q{x) =
^ X'i e'i Yl
n n
X = =
X>i Pki Xk
i=l i,k=l
Puisque x =
Y^k=i Xk efe' on a Xk ~
^2 ^2 UkiPkix'iPijXj
n
v(x) =
akixkxi=
k,l=l i,j,fc,i=l
££j=i ( ^2 aM pkipiî
)x* x'o= ^Ij=i a^'x>i x'o
Nous allons montrer maintenant qu'il existe une correspondance bijective entre les
Sj=i
^2 Oij Xi yj
n
s(x, y) = =
an x\ yi H h ann xn yn + ai2 xi y<i+
+a2i x2 y\ H Y Oij Xi yj + a^ Xj yi H
300 Formes bilinéaires et formes quadratiques
(avec dij
=
dji) et donc :
q{x) =
s(x, x) =
a\\x\ H h annx2n + 2 a\iX\X2 H h 2 aijXiXj H
qui est un polynôme homogène de degré 2 en les Xi. Donc q est une forme quadratique.
Par exemple, si :
s(x, y) =
xi 2/1
-
On a :
q(x) =
x\ —
3 x\ + 2 £1 £2 -
10 £1 £3 + 6 £2 £3-
q(x) =
a\\x\ H h annx^ + ai2XiX2 H h aijXiXj H
Il suffit d'appliquer ce que l'on appelle la règle de dédoublement des carrés (dite aussi
opération de polarisation) :
aux termes "rectangles" aij Xi Xj\ (avec i^j) on associe -a^- Xi yj + -a^- a?j y^.
Il est clair que l'on obtient ainsi une forme bilinéaire symétrique 5 telle que s(x, x) =
q(x) Vx e E.
D'autre part, il ne peut exister qu'une seule forme bilinéaire symétrique s telle que
s(x,x) q(x) \/x G E En effet, si 5 est une telle forme, on a
=
. :
donc nécessairement :
s(x, y) = -
[q(x + y) -
q(x) -
q(y)] ,
Proposition 9.6 -
q(x) =
s{x,x)
1Les considérations qui suivent ne sont valables que pour les corps K de caractéristique ^ 2,
c'est-à-dire 1^ + lx/ 0, \k étant le neutre de la multiplication C'est le cas bien entendu, de R et
de C. En revanche Z/2Z est de caractéristique 2.
9.3 Définition de forme quadratique en dimension infinie 301
par :
s(x> y) =
ô Hx + y)~ q(x) -
^y)]
S est dite forme polaire de q.
Exemple -
q(x) =
3 x\ + 2 x\ —
x\ + 5 x\ X2 —
6 #i £3 + 7 £2 #3
En polarisant on obtient :
5 5 7 7
s(x, y) =
3 xi 2/1 + 2 £2 2/2 -
x3 2/3 + x xi 2/2 4- -
x2 2/1
-
3 xi 2/3
-
3 x3 2/1 + «
X2 2/3 + ô ^3 ^2
Remarques
1. Si s est un produit scalaire, q(x) =\\ x
||2. ç(x) joue donc le même rôle que le carré de la norme
q(Xx) =
X2q(x), \/xeE,\/\eK
(on exprime cette propriété en disant que q est une application homogène de degré 2).
Il ne faut pas croire, cependant, que toute application homogène de degré 2 soit une forme
quadratique. Par exemple l'application q : R2 —> M définie par :
g{x)JXJ02 -* =
(.i,*) * (o,o)
[0 si x =
(0, 0)
est homogène de degré 2, mais elle n'est pas un polynôme en les xi (cf. exercice 6).
Exercices 4. 5. 6.
La définition 9.5 n'est valable qu'en dimension finie. Cependant la proposition 9.6 suggère
la définition suivante :
Définition 9.7 Soit E un espace vectoriel sur K (non nécessairement de dimension finie).
Une application q : E —> K est dite forme quadratique s'il existe une application bilinéaire
symétrique s : E x E —>
K, telle que :
s(x,x) =
q(x).
Dans ce cas 2, s est donnée par :
s(x,y) =
q(v)\
s est dite forme polaire de q.
Ainsi, pour montrer qu'une application q : E — K est une forme quadratique il faut
montrer que :
q(x) -
Soit q :
R[x] — M définie par :
q(P) =
f* P(x)2 dx. On a :
=
\ [lo (^) 0W)2d« /o P(*)2*° + " ~
lo Q(x)2dx]
=
flQP{x)Q{x)dx
En vertu de la linéarité de l'intégrale, s est une forme bilinéaire symétrique. Puisque
s(P,P) =
q(P)y q est une forme quadratique.
Exercice 7.
Puisque la donnée d'une forme bilinéaire symétrique est équivalente à la donnée d'une
forme quadratique, les définitions sur les formes bilinéaires symétriques se
transportent sur les formes quadratiques.
Définition 9.8 -
s(x,y) =
0,\/yeE =>x =
0.
Si q est une forme quadratique à valeurs réelles, q est dite définie positive si sa forme
polaire est définie positive, c'est-à-dire si
Remarque. -
2. Le noyau N(q) de q n'est pas l'ensemble des vecteurs x tels que q(x) 0, mais =
l'ensemble N(q) := {x G E | s(xiy) 0, \/y G E}. Les vecteurs x tels que q(x) 0
= =
sont dits isotropes. Les formes quadratiques définies sont donc les formes quadratiques
dont le seul vecteur isotrope est le vecteur nul.
Exemple -
q(x) = 4 xj + 3 x% + 5 x\ x2 —
3 x\ x% + 8 xi X3
on a :
/ 4 5/2 -3/2 \
M(q)ei 5/2 +3 4
V
=
-3/2 4 0 /
(attention à diviser par 2 les coefficients des termes rectangles). q est non dégénérée car
dét M(q)ei ^ 0. D'autre part, q{es) s(e3, es) 0, c'est-à-dire ez est isotrope (cf. dernier
= =
Définition 9.9 -
I(q):={xeE\q(x)=0}.
Notons que X(q) n'est pas un espace vectoriel, mais justement un «cône» c'est-à-dire
un sous-ensemble de vecteurs C tel que si x G C, alors Xx G C, VA G K.
Exemple 1 Soit E =
E2 et q(x) =
x\ x\. On a :
[(xux2) ±x2)
-
—
X{q) =
G R2 | xi =
(cf. Fig. 1)
{(xux2,x3) xAa+z2,}
-
Tfa) =
G M3 | x3 = ± (cf. Fig. 2)
Notons dans
que ces deux exemples -/V(ç) =
0 (c'est-à-dire q est non dégénérée).
£3
A
£2 I
Figure 1 Figure 2
Propriété 9.10
N(q)Gl(q)
{
q(x) =
s(x,x)
Si s est la forme polaire de q
*(*>î/) te(^ y) ^(^) ^(2/)]
^ 1
+
.
=
2
— —
Noyau :
N(q) =
{y G E \ s(x,y) =
0, Vx G £}
Cône isotrope :
X(g) =
{a; G S | g(#) =
0}
Wfo) C J((Z)
Exercices 8. 9.
REMARQUE. -
/ai 0 \
V 0 an
q(x) =
ai x\ H Vanxn (où x =
^xia) (*)
Notons que le rang de q est le nombre des ai non nuls, ou encore le nombre des carrés
dans Pexpression (*).
/1 0
M{q)ei=\
et seulement
V 0 1
aussi,
. . .
ou si si :
q(x) =
xl-i + xi (x =
X)?=i Xid)
9.5 Bases orthogonales. Réduction des formes quadratiques. 305
( c'est-à-dire elle est dégénérée). particulier, dans le cas où q est à valeurs réelles,
non En
il existe une base orthonormée si et seulement si q est déûnie positive, c'est-à-dire sa
forme polaire est un produit scalaire.
Chercher une base orthogonale revient donc à déterminer une base dans laquelle la
matrice de q est diagonale, ou aussi, à écrire q sous la forme d'une somme de termes
carrés.
REMARQUE. —
Comme on vient de le voir, il n'existe pas forcément de bases orthonormée, par exemple
si rang g < n. Le théorème suivant affirme que, en revanche, on peut toujours trouver
des bases orthogonales.
Théorème 9.12 Soit (E,q) un espace vectoriel de dimension finie, E ^ {0}, muni
-
d'une forme quadratique q. Il existe alors sur E des bases orthogonales pour q.
En d'autres termes, il existe toujours une base {ei} telle que, si x Yn=i Xi 6i> °^ors =
q(x) =
ai xi2 H \- ar xr2 (avec ai e K) où r =
rg q
( ai
M(q)ei
v o 0/
Démonstration : La démonstration, qui suit de près celle du théorème 7.6 (cf. page
228), se fait par récurrence sur la dimension n de E1.
Pour n = 1 il n'y a rien à démontrer. Supposons le théorème vrai à l'ordre n —
1 et
soit (E, q) un espace vectoriel de dimension n muni d'une forme quadratique.
-Si q =
0, le théorème est trivial : toutes les bases sont orthogonales.
-
il existe des bases orthogonales. Si donc {i>2, ,t>n} est une base orthogonale de F
alors {v, V2) , vn} est une base orthogonale de E .
306 Formes bilinéaires et formes
quadratiques
f 6i= Vi
\ £2 =
V2 + A -Ui
C'est pourquoi, lorsque l'espace n'est pas euclidien, pour chercher une base
on utilise une autre méthode fondée sur la réduction en carrés de Gauss.
orthogonale
de carrés de formes linéaires indépendantes, dans le cas où l'un au moins des termes
carrés est non nul. Cela est suffisant pour les espaces euclidiens, car dans ce cas tous
les termes carrés de q ont un coefficient strictement positif (cf. remarque page 224).
Nous nous proposons maintenant de réduire en carrés une forme quadratique qui ne
comporte que des termes rectangles, c'est-à-dire qui, dans une certaine base, s'écrit :
q[x) =
au xi x2 + ai3 xi x3 -\ \-a%kXiXk-\ h an_ijn xn-i xn.
q(x) =
5 xi X2 + 6 xi X3 + 3 X2 X3
q'X2 =
5 xi + 3 x3
1 18
On écrit Q(x) =
r-(5z2 + 6£3)(5£i+3a:3)- ~irxl
1 0 5
q(x) + termes correctifs
,
tQxi Qx :
= '
terme
correctif
5^ " '
--—i(-5xi
5x4
+ 5x2 - -
—x3.
5
9.6 Recherche d'une base orthogonale par la méthode de Gauss 307
Si dans les termes correctifs on a un ter- Dans notre cas, q est la somme de carrés
me, carré, on continue comme à la page de formes linéaires :
Proposition 9.13 -
q(x) =
anx\ H h annx2n H h OijXiXj H
où x =
Y^i=\xiei- D'après le théorème 9.12 on peut trouver une base orthogonale
{vi}. Si {v{} est une base orthogonale et x x[vi H =
h xfnvn, on aura :
q(x) =
b\x\ H h bnx'n ,
avec 6» ='s(vi,Vi) =
q(vi),
c'est-à-dire :
/&! 0 \
M(q)Vi= ! -. i
V 0 bn )
Si X =
[ :
| =
M(x)ei et X' =
f : 1 =
M(x)Vii on a :
xn I
avec P =
Pei-^vi
x[ =
Inxi H \-hnXn ' =
<^iW
q(x) =
h (pi(x)2 + + bn ipn(x)2
Ainsi :
Ceci suggère une méthode simple pour trouver une base orthogonale. Illustrons cela
sur un exemple.
308 Formes bilinéaires et formes
quadratiques
Exemple -
q(x) =
xl +3xl + 7xl + 2xiX2 + 8x2X3
q(x) =
(Xl +x2)2 + 2 (x2 + 2x3)2 x\ -
=
(pi(x)2 + 2(f2(x)2 -y3(x)2
Posons :
( Xi
=
(x) =X\+X2
(fi
[ X3=lf3(x)=X3
xu x2i x'3 sont les composantes du vecteur x dans une base orthogonale {vi}.
Or X' = P^X a,vec P =
Pei-+Vi =|| vuv2iv3 \\ei donc X =
PX\ c'est-à-dire :
( xi =
x[ -x'2 + 2x3
X2 CC2
—
2 ^3 donc P =
{X3 =
x'3
orthogonale pour q.
REMARQUE -
q(x) x\ + >
+ xl (r =
rgq)
c'est-à-dire
\
0
M(q)ei
o /
9.8 Classification des formes quadratiques sur un espace vectoriel réel.
Théorème de Sylvester 309
q(x) =
ai y\ + Y ar y2T , pour x =
Y%=i Vi e*.
g(x) =
(Aiy1)2 + ...
+ (Aryr)2.
En posant Xi =
Xi yi, on aura g(x) =
rcf H h #2 .
q{x) x\
2 2
+ -f-
Xp %p+l
i _
c'est-à-dire :
(
0
M(q)ei
0
V o /
où r =
rang(g) et p est un entier qui ne dépend que de la forme quadratique q (et non
q(x) =
a\y\-\ h ar y2r (avec ai G R).
Supposons que ai,..., ap > 0 et ap+i,..., ar < 0.
On pourra écrire :
q{x) =
(^/ôïS/i)2 + + (v^S/p)2 ~
(\/-aP+i2/p+i)2 W-OrVr)
=
xl + + K
avec Xi =
y/âîyi (i =
1, -p) et -ajVj 0'=P+V >* )
310 Formes bilinéaires et formes quadratiques
Il reste à montrer que p ne dépend pas du choix de la base. Considérons deux bases
{e^} et {e^} telles que
q(x) =
x\ + -h x£
-
a£+1 x2 \x
=
Z^2=i xiei)
et g(z) =
y? + +$ y£+i y*
-
Soient
F =
Vect{ei,..., ep} F' =
Vect{ei,..., e'p,}
G =
Vect{ep+i,..., en} G' =
Vect{e£,+1,..., e'n}
On a :
x e F \ {0} => q(x) > 0, xGF'\{0} => q(x) > 0
donc :
x G F D G' => x =
0 et, par conséquent, FnG' =
{0}
Ainsi F et G7 sont en somme directe. Puisque F 0 G1 c jE, on a :
c'est-à-dire : p+ (n —
Corollaire 9.17 -
p)
(c'est-à-dire N(q) =
{0})
Exemple Déterminer
-
q(x) =
x\ + 2 x\ + 15 x\ —
4 x\ xi + 6 x\ £3 —
8 X2 £3
q(x) =
(xi
/2
-2£2H-3£3)2-2(£2-£3)2
/2 /2
+ 8xi
=Xi-X2+X3
.
(avec a/i =
x\
—
2#2 + 30:3, #2 —
\/2 (#2 —
£3), x'3 =
\/8£3 ) Donc : sign(ç) =
(2,1).
Définition 9.18 -
A± :={xeE\ s(z, a) =
0, Va e A}.
Les propriétés suivantes se vérifient facilement :
Propriétés 9.19 -
3. E± =
N(q)
4. MA CE :
N(q) ci1.
Le lemme suivant généralise la proposition 7.15.
Lemme 9.20 -
y ~
En effet,
j{F)0 =
{xeE**„E | ^x) =
0, W> E j(F) }
et
<p e j(F) <(=> 3 y e F tel que (p =
s(-, y)
d0nC:
j(F)° =
{xeE\s(x,y) = 0 VyeF} = F± D
Proposition 9.21 -
dim(F n N)
2. F1-1- =
F + N où N:= N(q).
En particulier si q est non dégénérée :
dim E =
dim F + dim F±
F^ =F
Démonstration :
dim j(F)
d'autre part : dim j(F) =
dim Im(j|F)
Or, d'après le théorème du rang :
dim F =
dim Im(jf|F) + dim Ker(j|F) =
=
dim(lm j\F) + dim(Ker j D F) =
dim(j(F)) + dim (F n TV)
=
dim E -
dim F± + dim (F fï N)
2. On a F C F-1-1 (en effet, si a; G F :
s(z,*) -
0 Vz G F-1, c'est-à-dire
s(z,x) =
0 Vz G F1-, donc x G F^-1).
D'autre part, le noyau est inclus dans tout orthogonal (cf. Propriété 9.19, 4.)
donc : TV C F±J-. On a ainsi :
F + N C F-1-1
Or, d'après 1
dim F + dim F± (F n AT)
:
dim £ = _
dim
dim E =
dim FL + dim F-11- -
dim (F1- n N)
mais N C F-1, donc dim F-1 D AT =
dim N.
dim F -
dim F H AT =
0
Or
dim(F + AT) =
dim F + dim N -
dim F H N
et donc:
dim F^ =
dim (F + TV)
Puisque F + N est un sous-espace de F-1-1, on a F1-1 =
F + N. D
Sous-espaces isotropes
Nous nous proposons maintenant de regarder dans quel cas on a :
E F®F±
=
conséquent : F D Fx ^ {0}.
Définition 9.22 -
FPiF±^{0}.
Comme on vient de le voir, si X ^ {0} il existe des sous-espaces isotropes : par exemple les droites
vectorielles engendrées par les vecteurs isotropes. Réciproquement si F est isotrope, et v G F D i*1-1,
v/0, on a v G X et donc X ^ 0. Ainsi :
Proposition 9.23 -
E =
F 0 F"1 4=^ F est non isotrope (c'est-à-dire : F D F1- =
{0})
Démonstration : : La condition est évidemment nécessaire.
Supposons que FnF-1- =
{0}. Puisque iVcF1 (cf. propriété 9.19. ^.), on a FnN =
Dans paragraphe on suppose que l'espace vectoriel E est muni de deux structures :
ce
E. Il existe alors des bases qui sont orthogonales à la fois pour (, ) et pour q.
(z> fs(y )) =
s (x, y ), Va;, y G E.
Pour cela, on procède comme dans la Proposition 7.39 : on considère une base {e*}
orthonormée pour (, ). En écrivant la relation ci-dessus sous forme matricielle, on
s{Vi,Vj) =
(ViJs(Vj)) =
XjivuVj).
Puisque (vi,Vj) =
0, on a aussi s(vi>Vj) =
0.
Il suffit maintenant de prendre dans chaque espace propre E\ une base orthogonale
de vecteurs propres (orthogonale pour (, )), pour obtenir une base qui est aussi
orthogonale pour s.
base quelconque.
Corollaire 9.25 -
5La situation habituelle est celle qui consiste à considérer une forme quadratique q sur (Rn, (, ) ),
où (, ) est le produit scalaire canonique.
314 Formes bilinéaires et formes quadratiques
Soit {v± vn} une base de vecteurs propres de fs orthogonale à la fois pour (, ) et
pour g, et normeé pour (, ), construite comme dans le théorème. On a :
nn
]T ^
n
s(xyy) =
^2 Xiyjsivi.Vj) =
Xiyj (vijs(vj) =
XiVj Xô (vuVj)
ij=l ij=l »iJ=l
n
Y2 Xi yi Si* =
Al Xl yi H h Xn Xn Vn
d'où:
s(x, x) =
Ai xi2 H h An xn2
ce qui montre que la signature de s est donnée par les signes des valeurs propres de
fa (donc de S).
Exemple
-
q(x) = —
2 x\ —
2 x\ —
On a :
/ -2 3 3 \
S =
4)(A + 5)2
\ 3 3 -2 /
donc Sp'(.S') =
{4, —5, —5} et par conséquent sign(s) (1,2). =
Pour avoir une base orthogonale pour s, il suffît de déterminer une base de vecteurs
propres de S qui est orthogonale pour le produit scalaire (, ) associé à la base {e*}.
V 1 /
V V )
=
-1 / c
f a + 6 + c =
0
\a -c=0
/
.
1
Ainsi les vecteurs vi, ^2, V3 qui dans la base {e*} sont donnés par
v2 =
U , v3
NOTA. La méthode fondée sur la réduction de Gauss (cf. page 306 et exemple page 310) permet
—
d'obtenir plus facilement une base orthogonale et la signature de q. Cependant cette méthode est
nécessaire si l'on cherche une base orthogonale pour q qui est aussi orthogonale pour le produit
scalaire. En particulier elle est utilisée pour déterminer la forme réduite des quadriques dans une
8(f(x),y)=s(xJ*(y)), Vx,yeE
Y =
M(y)e.. Supposons que /* existe et soit A* =
M(f*)e.. L'identité de l'énoncé
s'écrit :
{AXySY =
lXSA*Y, \/X,Y eMn,i(K)
c'est-à-dire
tX(tAS)Y =
*XSA*Y, VX,y G Mnii(Jf)
ce qui est équivalent à
*AS =
SA*.
A* =
S~1 lAS (*)
REMARQUE. —
Si {e*} est une base orthonormée (lorsqu'elle existe, par exemple, dans le cas
euclidien ou dans le cas où q est à valeurs complexes et est non dégénérée (cf. corollaire 9.15) ),
on a S = I et on retrouve donc la formule A* = lA que l'a déjà vue dans le cas euclidien (cf.
7.16.).
316 Formes bilinéaires et formes quadratiques
( \ J).ona:
-
— = —
Si A =
M(J)ei =
a) /** =
/ , (id)*=id;
b) (f + 9)* f*+9*, (A/r A/*,= =
(/°<?)* =
<?*o/*;
c) rg/*=rg/, dét/*=dét/.
donc f(x) f**(x) pour tout x G E, c'est-à-dire / /** ( cf. exercice 8).
= =
Exercice 25.
(cf. exercice 26) qui, comme on peut l'imaginer, joue un rôle important en Physique
Mathématique.
1.
q(f(x)) =
q(x), Vz G E
2. s(f(x)J(y))=s(x,y), Vx,y e E
3- f* °
/ —
s(f(x)J(y))=s(x,y))\/x,yeE 4=>
a(f* f(x),y)
o =
s(x,y), Vx,y e E
Proposition 9.29 -
So# O(g) :=
{/ G End (J3) | /* o
/ =
id } . On a :
1. id G Ofa) ;
(/ °
flO* °
(/ ° 9) =
9* °
/* °
/ °
9
=
9* ° id og =
p* o
g
=
id
Proposition 9.30 -
SO(q) :=
{/ € O(ç) | dét/ =
1}
est un sous-groupe de 0(q), dit groupe spécial orthogonal de q.
En effet, si / G 0(q) on a /* o
/ =
id, donc dét(/* o
/) =
1. Puisque dét/* =
dét/,
on a (dét/)2 =
1, donc dét/ =
±1.
La vérification de la seconde partie est laissée en exercice. D
Proposition 9.31 -
M(f)e.. On a :
/GO(g)^ tASA =
S
En effet
NOTA. -
Exercice 26.
318 Formes bilinéaires et formes quadratiques
EXERCICES
2=1—1
( 2\I ,
tu =
(I 15MI. Ecrire la matrice de 6 dans la base {vi,U2>V3} où v\ =
Cl(xtx) =
0, VxeE.
Q(y, x).
2. Montrer que si x, y G E sont liés, alors Q(x, y ) =
0. En déduire que si dimF =
1,
alors O 0. =
4. On note F =
Vect{iAi,ti2}- Montrer que :
M(a\, r){u1,u2} —
l _i g j
5. Soit W = F-1 =
{w e E \ n(u, w) =
0, Vtt G F}. Montrer que F = F 0 W.
/ 0 1
0 \
-1 0
0 1
-1 0
M(Q)ei =
0 1
-1 0
V 0 /
En particulier : toute forme bilinéaire antisymétrique est de rang pair.
q(x) =3x1 —
2 (1 + i) x% —
2ix\xi -f x\x% + (5 —
i) x^xz
Ecrire la matrice de q dans la base canonique de C3.
Exercices 319
s(z, y ) = -
(q(x + y)-q(x-y)j
"
I 1
6 Normes et normes euclidiennes
q(\x) =
X2q{x), Vz G E, VA G K.
(a) Montrer que si / est positivement homogène de degré 0 et si elle est continue
àl'origine, alors / est constante.
(b) On suppose que les dérivées partielles de / existent. Montrer que si / est
positivement homogène de degré r, ses dérivées partielles sont positivement
homogènes de degré r 1. —
8 Soit q une forme quadratique non dégénérée et s sa forme polaire. Montrer que :
s(x, z) =
s(y} z), \/z G E =ï x =
y.
a) q(x) =
x\ + 3 x\ —
8x\ —
4 x\X2 + 2 #123 —
10 x<2.xz
b) q(x) =
x\ + 2x\ —
a) q(x) =
x\ +4 a2, + 9 x\ + 2x\X2 + 6x2^3
b) q(x) =
x\ + 3 x\ + 8 x\ 4 x\X2 + 6 x\x% — —
10 X2X3
d) q{x) =
x\ + x\ + x\ —
2 x\ —
2 x\X2 —
2x\xz —
2x\X4-\-2 X2X% —
4 a?2#4
11 Démontrer la proposition 9.13 : les formes linéaires obtenues par la réduction en carrés
de Gauss sont indépendantes.
12
1. Déterminer la signature des formes quadratiques de l'exercice 10., ainsi qu'une
base orthonormée, si elle existe.
320 Formes bilinéaires et formes quadratiques
13
'
Soit : q :
M2(R)—> R
a
'—*
dét A
Montrer que q est une forme quadratique. Déterminer son rang, sa signature, une base
orthogonaleet les vecteurs isotropes.
I 14
I On définit sur E2 [x] la forme quadratique :
q(P) =
tiP(x)P"(x)dx
(cf. exercice 7.). Déterminer le rang, la signature, le noyau, les vecteurs isotropes et une
base orthogonale.
q(x) =
x\ -
x\ + 2x\x2 + 2x2x$, /
1 \
q(x) =
x\ + 2 #2 + 2 x\X2 —
2 #2#3 —
2 #224 + 4 X3X4
\
-
X2
—
X4 = 0
I 17
I Soit R2[#] muni de la forme quadratique de l'exercice 14. et F le sous-espace engendré
par Q(x) = 1 -
2x -
18 Soit (F, q) un espace vectoriel muni d'une forme quadratique, et F, G deux sous-espaces
vectoriels de E.
1. Montrer
q(x) =
x\ + 2x\X2 + 2X\X2> + 2x\X4 + 4#2#3 +4#3CC4.
20 Tout sous-espace isotrope contient des vecteurs isotropes non nuls (il suffit de prendre
v G FflF1, ^ 0).
v Construire un exemple de sous-espace non isotrope contenant des
vecteurs isotropes non nuls.
Exercices 321
2. Donner l'exemple d'une forme quadratique non nulle dans R3 admettant un sous-
22 Construire une matrice symétrique non diagonale A G .M3(M) ayant une valeur propre
strictement positive, une valeur propre strictement négative et une valeur propre nulle.
/ "9 6 2
-[
1
A =
M(f)ei = 6 7 6
\
11
2 6-9
Montrer que / est une transformation orthogonale. Déterminer les valeurs propres de
/, à l'aide de la trace et en remarquant que A est symétrique. En déduire la signature
de la forme quadratique q : R3 —> R qui, dans la base canonique s'écrit :
q(x) = —
9 x\ + 7 x\ —
9 x\ + 12 x\ X2 + 4 x\ x$ + 12 X2 X3
s(f(x),y) =
8(xif(y)), Vx,yeE (2)
2. Montrer que, si À/jii, les sous-espaces propres pour /, E\ et SM, sont
qs (x) =
xi x\ x\
+ — —
2 #1x2 + 2 X2X$
qt(x) =
(1 + a) x\ + x\ + (1 + a) x\ —
2 x\xi —
2 (1 + a) x\ X3 + 2 #2#3
25 Soit E un espace vectoriel de dimension finie muni d'une forme quadratique non
(Im/)J-=Ker/* et (Ker/^Im/*
26
1. Déterminer0(q) où q : R2 —> R est définie, dans la base canonique, par
q(x) 2x\x<2.
=
INDICATIONS
H
0 6
B =
M(b)ei =
I 2 1-3 N (b) est engendré par
3 13
rg(6) = 2 ; b(z,w) = 0.
14
:
M(b)Vi = *PBP = 7
7
2. Si y = Xx Çl(x,y) =
Q(x,Xx) =
XQ(x,x) = 0.
YI(V1,V2)
—
4. On a F nW =
{0}.
Montrer que E F @W = en faisant une analyse et une
œ = fi (x,U2)u\ —
Q(x,ui)u2 + (x—Q(x,U2)ui-\-Cl(xiui)u2)
eF ew
El s(xt y) =
3 siyi -
x\ 2/3 +
-
£3 2/1
+ —r £2 2/3 H —
z3 2/2-
( 1/2
3 —i \
5 i
—i -2(1 0
^te)ei
—
^
2
=
5-i
1/2 2
°
y
1 5 | \[q{x + y) -q(x-y)] =
\ [s(x + y, x + y) -s(x-y, x -
y)] =
1. q(Xx) =
s(Xx, Xx) =
par rapport à xk : EL
j^-r (Xx) X X2 -—r(x).
dxk
=
dxk
X2f{x), VA>0.
Figure 3
(d) Si y II est une norme, son carré est une fonction positivement
homogène de degré 2.
Exercices 323
y, z) = 0 Vz £ E signifie que x —
y E N =
{0} et, par conséquent x =
y.
9 a) g(x) =
(x± —2x2 + X3)2 —
2x2 + £3 =
%2 + 3£3 et a;i
—
2x2 + £3 = —
(I
— —
= —
=
7
N(q) est engendré 3
V
par :
-1
b) q(x) =
(x\ + X2 + #3)2 + (x2 —
X3)2 —
X3 = ±-
y(xi + X2 + z3)2 + (x2 X3)2
-
tf(9) =
{0}.
b) q(x) =
(xi -2x2 + 3x3)2 ~
(x2 -
x3)2 + 0 x\.
f *i =
#i
—
2 £2 -h 3^3
Résoudres le système { x'2
l 4
: < x2 X2 X3
= —
=
X3
x[ =
5x1+5x2 + 8x3
c) On est amené à résoudre le système :
^ x2
=
—5xi + 5x2 + 4x3
x3 X3
=
d) q(x) =
(xi -
X2
-
X3
-
X4)2 -
z'i =
x\ —X2 X3 X4
— —
X2 + \X3 + X4
X2 + \X3
£4 X2
=
indépendantes).
9W =
ï[(^iW ^W) + -
+ Ap^p(x)2
Puisque ip\ ne contient pas x; (i 7^ j)
et contient x.,, alors que <^2 ne contient pas
Xj tout en contenant Xi, y?i et ip2 sont indépendantes et y?i + ip2-> <£i H>2
—
12 1. a) :
(3,0) b) :
(1,1) c) :
(1,2) d) :
(2,1)
On a une base orthonormée uniquement dans le cas
a). Si {^1,1^2^3} est la base
1 0 0
M{q)Vi =(030
0 0 6
Donc q{vi) =
1, q(v2) =
3, q(vs) =
6. Une base orthonormée est donc
1 \ / -1 \ / 1
2P2=7i
! -,
61 =
1
2. On a une base orthonormée dans les cas a) et c). Pour a) même résultat qu'en 1.
1 11 / 5
Pour c) on trouve, par exemple, ei = —-=
t>i, £2 =
—y= V2, £3
=
-\—1>3,
V20 ÏV20 i V 12
{i>i,i>2,i>3} étant la base ci-dessus.
(X"\ )
Xo
q(A) q est donc forme quadratique. Par
\
=
xiX/i X2X2>. une
J
—
,
x3 x4
la réduction en carrés, on trouve :
q(x) = -
[(xi + X4)2 -
(xi z4)2]
- - -
[(x2 + X3)2 ~
(X2Z3)2] -
Base
Vecteurs
orthogonale
isotropes
:
:
(J Î
les matrices A telles que détA
) ( '
J -Î ) '
(Î =
0.
S ) ( '
-Î S )'
14 Dans la base ei =
1, e2 =
x, es =
x2, on a :
/ 0 0 2 \
M(q)ei= 0 0 1 vgq 2.
V
=
2 1 4/3 y
Si P =
ai + a2 x + a3 a;2 , alors :
o(P) = -
—1
15 1. M(q)&i =5=1
(l X
0
°\
1 On
V J
. a :
1 1 -1
Or:XeF<=>X=( A
j, donc :
/ 1 1 0 \ / yi \
tXSY=(X X
X)[ 1 0 1 2/2 =2à(î/i+î/2).
V 0 1 -1 y v y* J
Ainsi
'xsy = 0 <{=^ vxeF ^=> 2 a (2/1 + y2) =
0, va g m <=> 2/1 + 2/2 = 0
FJ-J- =
{y| txsy =
o,vx eF±} et x eF± <^=>x =
[ -x
Exercices 325
Donc : ^SY
0,VXgF1<^(A + fj,)(y2
= -
ys) =
0 ,VA,/z G M.
Ainsi F-11- est le plan défini par y2 —1/3 0. =
/ \-2fj,
2. Même méthode. On trouve X e F -<=> X = et :
A
A
F± / 2/1 2 2/4 0
\
~
=
2/1+2/2-2/3+2/4 = 0
| | |A £ }.
°
F-1 f
A42(M) | J isotrope.
16 =
G A =
,
a G M F est non
17 Q est isotrope.
F =
Vect{v} et G =
Vect{u>} ,
avec v =
( ft
1 ,
w = (
1
1
{(1(1 -6)
-
a) x\ + X2 + (1 —
2 a) £3 + £4 = 0
œi +2z2 -26x3 + 2x4 = 0
dim(F D F-1),
donc :
dim(F n F1-) > dimF-1 -
1 > 1.
2. Pour que X contienne un plan vectoriel, il est nécessaire que rang g ^ 3 [bien
vérifier que pour la signature (2,1) ou (1,2) X ne contient pas de plan vectoriel].
Si rang g =
1, on base, q(x)
peut écrire, dans ±x2 et alors une certaine =
X N
= =
{ plan défini par x\ plan totalement isotrope est le
= 0 } ; aussi le seul
noyau. Pour qu'il existe un plan isotrope non trivial, il faut donc que rang q 2. =
avoir un plan isotrope non trivial, il faut donc et il suffît que sign q (1,1), =
3#2 + xz)2 —
4-6 2
A= [ -6 7 -5 ) (on a : Sp,4 =
{0, 5-\/73, 5+\/73).
2 -5 -1
1 =
—1, soit 2cos0 + 1 = —1.
Le premier cas donne cos 9 0, = ce qui est exclu, car cela signifierait que / id. Il reste =
le second cas, oos0 = 1, c'est-à-dire 9 ir. f est donc une rotation d'angle ix et,
par
—
=
2. Ecrire la relation (2) pour x G E\> y G Ep. Utiliser (1) pour montrer que x _L y.
3. Supposons / diagonalisable et soit s\ := s\ex (s\ est une forme bilinéaire sur
E\). Dans chaque E\ on prend une base orthogonale pour s\ (elle sera aussi
orthogonale pour s). Puisque / est diagonalisable, E est somme directe des E\
et donc la collection de toutes ces bases est une base de E orthogonale pour s.
est diagonale.
/ a 0 -a \
4. Application. A S~1T= -11 1
)
=
\ a 0 -a
2\ / 0\ /O
( 1
\ 1 1
) \-l )
Vi V2 -U3
\0
= = =
| 25
| Utiliser l'identité s( f(x),y) =
s(x,/*(y) ),Vœ,y G E :
f*(y) =
0=^ s(f(x),y) =
0VzG£=>2/G (Imf)1-
c'est-à-dire : Ker/* C (Im/)"*". Raisonner sur les dimensions pour montrer l'égalité.
Remplacer ensuite / par /* et prendre l'orthogonal pour montrer la seconde identité.
26 1- Les matrices orthogonales sont les matrices A G .M2W telles que lASA = S
avec S =
f
1 n ) On trouve :
A =
y
.
, ,
a en a
Chapitre 10
Formes hermitiennes
Dans ce chapitre nous établissons pour les formes hermitiennes la même théorie que nous
avons développée pour les formes bilinéaires symétriques. Les résultats sont tout à fait
analogues et les démonstrations se font de la même manière. Le lecteur est invité a se rapporter
souvent à la table en Appendice A. 13.
Rappelons (cf. définition 8.1) qu'une forme hermitienne sur un espace vectoriel
complexe E est une application h : E x E —> C antilinéaire dans le premier argument
et linéaire dans le second argument, vérifiant en plus la propriété dite de «symétrie
hermitienne» :
h(x,y) =
h(y,x)
Commençons par considérer le cas où E est de dimension finie. Comme nous l'avons
vu (cf. page 280), si {e*} et {e^} sont deux bases de E et H M (h) e. , H' M (h) e/, = =
alors :
H'= *PHP
où P =
Pei->e'. Cette formule montre, comme dans le cas des applications bilinéaires,
que :
Proposition 10.1 -
Définition 10.2 -
Exemple -
h(x,y) =
2xiyi -3ixiy2 + 3ix2yi -\rSx2y2
On a :
327
328 Formes hermitiennes
Définition 10.3 -
N(h):={xeE\h(x,y) =
0, VyeE}
N(h) =
{y€E\h(x,y) =
Q, Vx e E}.
Le noyau de h est en fait le noyau de la matrice qui représente h (dans une base
quelconque).
En effet, soit H =
M(h)ei on a h(x,y) =
fI H Y ; donc :
Comme pour les formes bilinéaires, (cf. définition 9.3) le rang et le noyau peuvent être
interprétés
comme le rang et le noyau d'une certaine application linéaire.
Notons
1/ l ¥>(Aa0 =
*<P(x)> Vx,y£E. J
Les éléments de E* sont dits formes antilinéaires. On voit facilement que E* est un espace
vectoriel sur C pour les lois que l'on définit habituellement sur l'espace des applications
(exemple 4. page 5 )
Si E est de dimension n et {e*} est une base de E, on montre, comme pour le théorème 3.35,
qu'il existe une unique base {tpi}i=i...n de E*, dite base antiduale, telle que :
ipi(ej) =
ôij.
Il s'agit des applications
ipk : E — C
En i=l Œi &i
I
Xk
—
>
(cf. exercice 2). On vérifie, exactement comme pour la proposition 9.2 page 297 :
Définition 10.6 -
N(h):={yeE\h(x,y) =
0, \/x G E}
On dit que h est non dégénérée si j(h) est injective c'est-à-dire si N(h) =
0, ce qui signifie
que : h (ce, y ) 0, Mx G E => y 0.
= =
Notons enfin que si h est une forme hermitienne définie positive *, alors h est non
dégénérée.
En effet si x est tel que h(x, y ) =
0 , Vy G E, on a en particulier /i(#, x ) =
0, donc x =
0.
Exercices 1. 2. 3.
1 =
{x G E | q(x) 0} =
Comme pour les formes quadratiques (cf. 9.19, 9.21, 9.23) on montre :
Proposition 10.8 -
1. {0}-1 =
E ,
E±= N(h) ;
N(h) C I ,
A± c N(h) ,VAcE.
2. Si E est de dimension finie, pour tout sous-espace vectoriel F de E, on a :
a) dim E =
dim F + dim FL -
dim(F n N) ;
b) F±A- =
F + N où N =
N(h) .
E =
F © F1- <^=> F est non isotrope.
Exercice 4.
1c'est-à-dire :
h(x,x) > 0, \/x G E et (h(x,x) = 0
j ^^ x = 0 ( c'est-à-dire, en fait, si h
Comme pour le produit scalaire hermitien (cf. définition 8.7), on pose la définition :
Définition 10.9 -
/ ai 0 0 \
0 a2
M(h)ei =
(ai e
\o 0 an )
ou encore
q(x) =
h(x,x) =
ai \xi\2 H han|a;n|2 (si z =
X)ILi ^e* )
De même, {e^} est une base orthonormée si et seulement si :
/ 1 0 ...
0 \
0
M(h)ei
0
\0 1/
ou encore
q(x) =
|zi|2 + H- \xn\2 ( si x =
Yh=i xiei)-
On voit immédiatement que les bases orthonormées n'existent pas toujours : il existe
une base orthonormée si et seulement si h est définie positive, c'est-à-dire si h définit
Théorème 10.10 Soit E =£ {0} un espace vectoriel de dimension finie surC muni
-
d'une forme hermitienne h. Il existe alors toujours des bases orthogonales pour h.
La démonstration est la même que pour les formes quadratiques (cf. théorème 9.12).
De la même manière on montre aussi
(cf. théorème 9.16) :
Théorème de Sylvester . 10.11 -
/n i \
o
M(q)ei =
0
o /
10.4 Groupe unitaire associé à une forme hermitienne 331
\J Xiei :
2=1
q(x) =
\xi\2 + h \xp\2 -
|zp+i|2 \xr\2
où r =
rg(/i).
L'entier p ne dépend pas du choix de la base. Le couple (p,r —
p) est
dit signature de h .
Corollaire 10.12 Soit h une forme hermitienne sur un espace vectoriel complexe E
de dimension finie n. Alors :
et h(x) 0 => z
= =
0,)
h est non dégénérée <==> sign(/i) =
(p, n
—
p)
(c'est-à-dire N(h) =
{0};
Exercices 5. 6. 7.
h(f(x),y)=h(x,f*(y)), Vx,y e E.
A* =
H~lt~Â H
Proposition 10.14 -
a) f** =
(id)*
f ,
=
id ;
sur C
muni d'une forme hermitienne h non dégénérée et f un endomorphisme de E.
Les propriétés suivantes sont équivalentes :
1-
Q(fix)) =
Q(x) »
Vx e E ,
où q(x) :=
h(x,x)
2. h(f(x)J(y))=h(x,y), Mx,y G E
3- /* o
/ id (ou,
=
d'une manière équivalente, / o
/* =
idj.
En particulier f est bijective.
Un endomorphisme qui vérifie ces propriétés est dit unitaire relativement à h.
Proposition 10.16 Les applications unitaires forment un groupe pour la loi des
-
A =
M (/)ei, alors / G U(ft) si et seulement si
lÂHA = H
^=ï
t{AX)HAY=tX_HYi VI,7gK,iW
<^ tXtAHAY= lXHY, \/X,Y G Mn,i{K)
«=> *ÂHA = H
Exercice 8.
Dans ce paragraphe on suppose, comme au chapitre 9 (cf. page 313), que l'espace
vectoriel E est muni de deux structures : une forme hermitienne h et un produit
scalaire hermitien ( | ). Comme dans le cas réel (cf. théorème 9.24 page 313), on
fh est en effet autoadjoint donc diagonalisable et ses espaces propres sont deux à deux
orthogonaux pour ( | ).
2
La démonstration est la même que celle du cas réel (théorème 9.24 page 313).
De la même manière que le corollaire 9.25, on démontre aussi le corollaire :
Corollaire 10.18 -
1. On peut construire une base orthogonale de h formée par des vecteurs propres
de H.
2. De plus :
sign(/i) =
(n + ,n-), où :
n + =
nombre des valeurs propres strictement positives de H,
n- =
nombre des valeurs propres strictement négatives de H.
Exercices 9. 10.
EXERCICES
q{x) =
h(x,x) =
\x\\2 -j- 4 |x2|2 + 2|cc3|2 -
2ix\ X2 + 21x2%! + (1 -
0^1 #3 +
(1 + i ) X3 xi + 2 (1 + i) X2 X3 + 2 (1 -
i ) xs X2
|~2 1. Soit E un espace vectoriel de dimension finie sur C, {ei} une base de E. Montrer
{ipi} de E* telle que : ¥>i(ej) = Sij (base
' '
qu'il existe une et une seule base
antiduale de {ei}).
2. Déterminer la base de (C3 )* antiduale de la base :
ei =
(1,1,-2*), e2 =
(0,1 + 2,-1), e3 =
(i,0,0).
isomorphe à E.
4 Soit E un espace vectoriel de dimension finie sur C muni d'une forme hermitienne h. Si
F est un sous-espace vectoriel de E, on pose :
F° =
{u;eE* :
v(x) = 0 ,
Va; E F}
1. Montrer que dimF0 = dimE —
dimF.
2. Soit
j :E—> E*
Vf >h(-,y)
En identifiant E** avec E (cf. exercice 3.), montrer que j(F)° = F-1-.
3. En déduire que pour tout sous-espace vectoriel F de E on a :
dim (F ON).
q(x) =
\Xl-(2 + i)x2\2
334 Formes hermitiennes
7 Construire une matrice hermitienne non nulle d'ordre 3 dont toutes les lignes sont
proportionnelles.
est diagonalisable.
2. Soient H et H' les matrices de deux formes hermitiennes h et h' dans une certaine
base, h étant supposée non dégénérée. Montrer que si H2 =
if'2, alors il existe
une base qui est orthogonale à la fois pour h et pour h'.
y/2 l +iy/2 -i \
l-iy/2 y/2 y/2
i s/2 -y/2 )
admet au moins une valeur propre positive et au moins une valeur propre négative.
INDICATIONS
2ix2 + (1 —
i)X3 =
0.
2 1. Si ipi(ej) =
Sij et les ipi sont antilinéaires, nécessairement : (pi(x) =
x~i. Vérifier
{(pi} est libre et génératrice, en notant que, si 6 G E*,
' '
que la famille alors :
e(X) =
y^2Wi 0(e*) =
¥>i(ei) 1, ^1(^2)
= =
0, (pi(e3) =
0 ; ce qui donne le système :
a + ic=l
-1+i
(l-i)b -c = 0 D'où: o =
0, b=
2
,
c =-i
-ia =0
et donc : tp\(x) =
x~2 —
i X3.
De même on trouve :
(p2(x) =
X2 yzix) = 1 x\ -\ X2 £3
—
,
Exercices 335
3 Considérer l'application :
Montrer que î/j(x) est bien antilinéaire, et que i/j est linéaire et injective.
j(F)° =
{z eE\<p(z) 0, V<p =
e j(F)} =
{z eE\h(z,x) =0,VxeF}
= F±
3. Mêmes démonstrations que pour le lemme 9.20 page 311 et la proposition 9.21.
I 1 I I2 I I2
|5 I q(x) =
\xi + 2 i Z3 2 îC2 + (1 0 ; rang ç =
2, signg =
(1,1).
- —
6 Puisque rang q =
1, on a dimAf = 1. N est défini par x± —
(2 —
3i)x2 = 0. On voit
immédiatement que F n N =
{0}, donc FJ~L = F + N = C2.
I I2
exemple : q (x) =(l + 3i)o;i—ia?2 + (l+2i) . On obtient la matrice
10 -3-2 7-i
-3 + i 1 -2 + i
7+i 2+i 5
dont les lignes sont bien proportionnelles, malgré les apparences ...
|8 | On a : I .
tiennes.
10 Si h est la forme hermitienne sur C3 représentée par H dans la base canonique {e;},
on a : q (ei) =
y/2 > 0 et q (es) = —
Vocabulaire de base
Applications
Soient E et E' deux ensembles. Une application f de E dans E' est un procédé qui à tout
x de E associe un élément (unique) de E\ noté
élément f(x). On note cela :
/ :E — E'
X —>
/(*)
Exemples :
f : ¥>Ix i
est une application ;
sinx
gof :E—> G
* —
9(f(x))
Figure 1
Définition A.l.l .
-
Soit f : E —> E1 une application. Si x G E, f(x) est dit image de x par f ; x est dit
antécédent de f(x).
Si A C E, on appelle image de A par f le sous-ensemble de E' :
f(A) : =
l images des éléments de A> =
<y G E' \3x G A : y =
f(x) >
337
338 Vocabulaire de base
Figure 2
Exemple -
Soit / : R —
. On a: /([0,tt]) =
[0,1] et Im/= [-!,+!].
Figure 3
Définition A. 1.2 -
-
Une application f : E —> E' est dite surjective si f(E) =
E', c'est-à-dire si tout
élément de E' est Vimage par f d'un élément de E :\/y G E' 3x G E : y
=
f(x)
-
/(*) =
/(*') x = x .
f : E —> E' est dite bijective si elle est injective et surjective, c'est-à-dire si ,
fM =
f&i)
Application injective
Application non injective
Figure 4
339
Si / : E —> E'
bijective, on peut définir une application g : E'
est E comme suit : —>
à l'élément y G E' fait correspondre son antécédent x dans E qui existe (puisque / est
on
surjective) et est unique (puisque / est injective). g est dite application réciproque ou inverse
de / et est notée /-1. On a, d'après la définition :
fof~1= id^/ , r1 / o =
idjs,
où :
idE : E —>E.
X l > X
Lois de composition
Une loi de composition interne sur un ensemble E est une application :
* : ExE—> E
L'image du couple (x,y) est notée x * y. On emploie aussi, selon les cas, les notations x y
ou x + y .
Si E et Q. sont deux ensembles, une loi de composition externe sur E de domaine d'opérateurs
Cl est une application :
QxE—> E
Définition A.1.3 -
-
Une loi interne * sur E est dite associative si :
a* (b* c) =
(a*b) * c
Va, fr, c G E.
a*b =
b*a Va,b G E.
-
5;î/ existe un élément e G E tel que :
e*x =
x*e =
x Vx e E
e est dit élément neutre. (On voit facilement que l'élément neutre, s'il existe, est
unique).
-
Si l'élément neutre existe, un élément x e E est dit symétrisable s'il existe x' e E tel que :
x * x —
x * x =
e.
Exemple -
En général, si la loi est notée multiplicativement, le symétrique de x est noté x~x ; si la loi
est notée +, le symétrique de x est noté —x.
Définition A.1.4 -
f(x*y) =
f(x)*'f(y).
Un homomorphisme bijectif est appelé isomorphisme.
340 Vocabulaire de basp
Groupes
Définition A. 1.5 -
On appelle groupe un ensemble muni d'une loi interne qui vérifie les
propriétés suivantes :
1. H ^0
2. Va,&<E#, ab'1 e H.
Par exemple (Z,+) est sous-groupe de (Q, +). (Q,+) est sous-groupe de (M, +).
Anneaux
Définition A. 1.6 -
-a-(6 + c) =
a-6-f-a-c
(a + b)-c =
a-c-\-b-c Va, 6, c G A.
L'anneau est dit unitaire si la loi multiplicative admet un élément neutre, que l'on note 1A
ou plus simplement 1.
(a -
b est noté souvent, plus simplement, ab).
Z2 : =
{0,1} avec les lois : 0 + 0 =
0 0-0 =
0
0 + 1 = 1 + 0= 1 0-1 =
1-0 =
0
1 + 1 =
0 1-1 = 1
^n : =
{0,1, 2,..., n —
a b : =
reste de la division de a -
b par n
l + ...
+ l =
0
p fois
on dit que l'anneau est de caractéristique non nulle et le plus petit entier p pour lequel cela
seréalise est dit caractéristique de l'anneau . Si un tel entier n'existe pas l'anneau est dit de
caractéristique nulle.
Par exemple : Z, R, C sont de caractéristique 0.
Zn est de caractéristique n.
On peut montrer que la caractéristique d'un anneau intègre est soit 0, soit un nombre premier.
Un sous-anneau d'un anneau A est un sous-ensemble non vide de A auquel les lois induites
confèrent une structure d'anneau.
1. 5^0
2. Va, b G B : a -
b G B et ab G B.
Un idéal d'un anneau commutatif A est un sous-ensemble non vide I de A tel que :
1. Vx,y £ I : x
—
y G I
2. Va G A et Vx G J : ax e I.
(a) := < £ G A | x =
ab, avec 6 G A l =
aA
Définition A. 1.7 Un anneau commutatif A est dit principal si ses seuls idéaux sont du
type (a) avec a e A.
Nous verrons (cf. Appendice A.2.) que les anneaux des polynômes R[x] et C[x] sont
principaux.
Corps
Définition A. 1.8 -
Tout corps est un anneau intègre. Donc sa caractéristique est soit 0, soit un nombre premier.
Exemples :
Modules. Algèbres
Définition A. 1.9 -
\(/j,x) (\(j,)x,
=
(\ + fjb)x \x-\-fj,x, =
\(x + y) \x + \y, =
En d'autres termes, un module est une sorte d'espace vectoriel dont les scalaires sont les
éléments d'un anneau (au lieu d'être les éléments d'un corps).
Exemple :
Mnfà) —
est un espace vectoriel sur lequel est définie une loi multiplicative, vérifiant les propriétés 1.
et 2.
~T| n~ i j k
i | i -1 k -j
j j -k -1 i
k k j -i -1
que l'on prolonge linéairement à M4. L'algèbre des quaternions est notée habituellement
H (du nom du mathématicien Hamilton qui l'a introduite). On voit facilement que H
(+, ) est un corps non commutatif (cf. exercice 12 chapitre 8, où l'on a construit un corps
de matrices H isomorphe à H).
Groupes de transformations
Gx E — E
Soit a G G et ipa l'application de E dans E définie par x \—> a x ; ipa est bijective.
En effet, pour tous x G E :
Va °^Pa-1{x) —
a '
(a_1) *
x —
(ûû_1) ^ =
e x =
x
donc <£a °
^a-1 —
i^s ,
c'est-à-dire : ipâ1 =
y^-1-
Exemples :
1. E E2 et G le groupe orthogonal
= : G =
0(2, R) (cf. chapitre 7. page 240). G est une
groupe de transformations de E :
G x E2 — E2
(A , x) i A a;
2. G =
GL (n,E), E =
.M„(R) (cf. chapitre 3 page 76). On définit
G x Mn(R) —>
Mn(R)
(P ,A) i P-MP
GxE —> E
(a,x) i—> a; + a
Définition A. 1.12 -
orbite{x} =
G x =
{a x
|aGG}
c'est-à-dire, si pour tout couple d'éléments de E il existe une transformation qui fait passer
de l'un à l'autre (en d'autres termes : il y a une seule orbite).
Par exemple, l'action de 0(2, E) sur E2 (cf. exemple 1) n'est pas transitive : deux vecteurs
de norme différente ne peuvent pas être transformés l'un dans l'autre par une transformation
orthogonale. Les différentes orbites sont les cercles de centre 0 et le point 0.
L'action
GL(n,E) x
En\{0} — En
(A , x) i Ax
}
en
L'action de GL(n,E) sur .Mn(E) (exemple 2.) n'est pas transitive : les orbites sont
constituées par les matrices semblables entre elles (il existe donc une bijection canonique entre
l'ensemble des orbites et End(En)).
L'action des translations (exemple 3.) est transitive.
344 Vocabulaire de base
Définition A. 1.13 -
a -
x =
x ,
\/x G E =>> a = e.
3x G E : a x = x => a = e
Par exemple, l'action de 0(2, M) sur M2 ( exemple 1.) est effective, mais elle n'est pas libre,
car symétrie par rapport à une droite vectorielle laisse invariants les vecteurs de la droite.
la
L'action de GL (n, R) de l'exemple 2. n'est pas effective (et donc n'est pas libre) car y>_/ id. =
a -
x = b '
x => a = b
Par exemple, l'action des translations sur un espace vectoriel E est libre et transitive.
Appendice A.2
Polynômes
Soit A un anneau commutatif unitaire (c'est-à-dire pour lequel il existe un élément neutre
pour la multiplication, noté 1) : par exemple A =
Z, Q, R, C, Zn, ..
type :
a(x) =
ao 1 + ai x + a2 x2 + -h an xn
où ao, ai,..., an G A et n G N. L'ensemble des fonctions polynômes sur A est noté A[x\.
A[x] est muni d'une structure d'anneau pour les lois :
(a + 0)(x) : =
a(x) + 0(x)
{a>P)(x) : =
a(x)-P(x).
Un calcul facile montre que si a(x) =^2 aiX% et /3(x) =Y2 bjX^ (où x° : =
1), alors :
* ô
(a p){x) Cn xn ,
avec cn
n k=0
Si K est un corps (commutatif), K[x] est muni d'une structure d'espace vectoriel sur K pour
les lois (cf. page 5) :
{a + p){x) : a(x) + 0(x) =
(Xa)(x) : Xa(x). =
a(x) —
x et /3(x) = x
On a : a(0) =
0 0(0) =
0
a(l) = 1 P(l) = 1
exemple que l'on ne peut pas définir la notion de degré d'une fonction polynôme
On voit de cet
comme on le fait classiquement dans R [x] : a (qui est égal à (3) est-il de degré 2 ou 3 ?
On préfère par conséquent adopter un autre point de vue et étudier, au lieu des fonctions
polynômes, ce que l'on appelle les «polynômes formels».
WSr
346 Polynômes
Considérons une suite (ao, ai,..., an,...) d'éléments de A nuls à partir d'un certain rang.
On peut lui associer la fonction polynôme :
a(x) =
ao
-
1 + a\x + h anxn -\
L'exemple précédent montre qu'en général cette correspondance n'est pas injective. En effet :
(0,0,1,0 0 ) i
a(x) =
x2
(0,0,0,1,0 0 .. ) i
p(x) =
x3 '
puisque a =
(3 on a deux suites différentes auxquelles correspond la même fonction polynôme.
En d'autres termes, étant donnée une fonction polynôme, on ne peut pas parler d'une manière
unique de la suite de ses coefficients. En revanche si l'on parle d'une suite d'éléments de A
(nuls à partir d'un certain rang) la fonction polynôme admettant cette suite comme suite
de coefficients est bien définie. Ceci montre qu'il est préférable de s'intéresser aux suites
(ao, ai,..., an, ..) d'éléments de A (nuls à partir d'un certain rang).
Définition A.2.2 -
cp :
A[X] —
A[x]
(ao,ai,...,an,...) —*
a0l+aix-\ |-an:rn+---
On vient de voir que cette application (qui est, bien entendu, surjective) n'est pas, en général,
injective. Nous verrons, cependant, que si K est un corps ayant une infinité d'éléments, alors
(p :
K[X] —>
K[x] est une bijection (cf. corollaire A.2.11) .
OU : Cn =
E 0>k On-k-
k=0
Si K est un corps commutatif, K[X] est un espace vectoriel sur K pour les lois d'addition
X2 =
(0,0,1,0, 0... )
X3 =
(0,0,0,1,0,... 0,... )
*n =
(0,0, ,0,1,0... )
T
(n+l)èmerang
347
X° :=1 :=(1,0,...0,...)
on peut écrire le polynôme formel P =
(ao, ai, a2,..., an,. ) sous la forme :
P =
aol + aiX + a2X2 + + anXn +
<p :
A[X] —>
A[x]
i i
On voit immédiatement que d°(P + Q) < Sup(d°P, d°Q) et que, si A est un corps1, alors
d°(PQ) =
d°P + d°Q.
Soient A, B € ifpf], B ^ 0.
// existe alors un et un seul couple Q, R G K[X] tels que :
A =
BQ + R et d°R<d°B
Q') =
R- R''. Si Q Q', alors R
= R'. Par ailleurs =
Q Q', car
= i on avait Q -
Q') =
d°(R R') < B, ce qui est exclu.
-
Pour l'existence :
-
Si d°A < d°B il suffit de prendre Q = 0 et R = A.
-
Si d°A > d°J3, on raisonne par récurrence. Si d°A =
0, le résultat et trivial. Supposons le
théorème vrai à l'ordre n et soit d° A = n + 1. Soient an+i et bp les coefficients dominants de A et
B (c'est -à-dire les coefficients des termes de plus haut degré) et posons Q\ :=
(an+i/6p)Xn+1-p
et A± := A —
A -
BQi =
BQ2 + R2 et donc A =
B(Qi + Q2) + R2 .
propriété
plus généralement si A est un anneau intègre c'est-à- dire vérifiant la
1
Cette est vraie
propriété ab ou b 0" (pour a,b € A). C'est le cas lorsque A est un corps.
0 => 0
"
= a = =
2Compte tenu de la convention : d°0 00, la condition d°R < d°B signifie : «soit R=
0, soit,
—
=
Démonstration ^ {0} un idéal de K[X] et d le plus petit des degrés des polynômes non nuls
-
Soit /
de I. Considérons polynôme P G / de degré d et montrons que I
un (P). =
donc A G (P). D
a) D\ Ai, Vi =
1,... ,n.
Démonstration -
Q un polynôme qui divise tous les Ai, alors Q \ A\U\ + 4- APUP quels que soient Uii...iUPi
c'est-à-dire Q divise tous les polynômes de X et, en particulier, Q \ D> car D G (D) = X. L'unicité
du PGCD est laissée en exercice. D
Théorème de Bezout . A.2.6 Les polynômes Ai,...,An sont premiers entre eux si et
seulement si il existe des polynômes C/i,..., Un tels que : AiUi + A2U2 + + AnUn = 1.
En effet A A B = 1 d'où :
(APi) A (AB2) = A. Or A\ AB2 et A | £iB2 ; donc A | B2, car B2 est
le PGCD de AB2 et BiB2
On peut maintenant démontrer d'une manière plus précise le résultat (i), page 159 :
P(X) =
(X- ai)ai (X -
Op)°* Q(X).
349
Démonstration -
Notons d'abord que si A est premier avec Pi et P2, alors A est premier avec
P1P2. En effet de AU\ + P\Vi = 1 et AU2 + P2V2 1, = en multipliant membre à membre, on a :
AU + (PiP2)V =
1, avec U =
AU1U2 + UiP2V2 + U2P1V1 et V =
ViV2> ce qui montre que A est
P2 | A, donc P2 | P1Q1. Mais P\ et P2 sont premiers entre eux, donc, d'après le théorème de Gauss,
P2 | Q\. Il existe donc Q2 tel que Q\ P2Q2 et donc : A (PiP2)Q2- D'autre part, P3 | A,
= =
donc P3 | (PiP2)Q2 et comme P3 est premier avec P1P2, il divise Q2. Il existe donc Q3 tel que
Q2 =
P3Q3 et, par conséquent A (PiP2P3)Q3- La démonstration se généralise facilement au cas
=
soit P =
0
-
Soient A^B de degré < n et ai,... ,an+i G K deux à deux distincts. Si A(ai) =
B(ai)
pour i = 1... n -h 1 alors A —
B.
En effet le polynôme A —
A-B =
0.
Corollaire A.2.11 Soit K est un corps ayant une infinité d'éléments (par exemple K R =
-
En effet deux polynômes qui définissent la même fonction polynôme prennent la même valeur
sur tous les éléments de K. Leur différence s'annule donc une infinité de fois et, ne pouvant
être de degré infini, elle est nulle.
Appendice A.3
Quotients
Ensemble quotient
Z =
PUI où :
P =
{x G Z |x = 2k avec k G Z} =
{nombres pairs}
I =
{x£Z\x =
2k + l avec k G Z} =
{nombres impairs}
Figure 1
On a vu auchapitre 4. (cf. proposition 4.32 page 132) que l'ensemble des bases d'un espace
vectoriel de dimension finie peut se partager en deux classes, les classes d'orientation. Ici
aussi l'ensemble quotient est formé de deux éléments.
Définition A.3.1 -
1. U Xi =
E (où |J Xi =
{xeE\ 3ieI:xeXi}
ieE iei
2. XiDXj =
0, ViJ G I tels que i^j.
On appelle ensemble quotient l'ensemble des éléments Xi de la partition.
La notion de relation d'équivalence, que nous allons définir, permet de construire les
partitions et aussi de vérifier facilement si une famille de sous-ensembles de E est une partition.
Définition A.3.2 On appelle relation binaire
-
7^i : "x est inférieur ou égal à y" est une relation binaire sur E
IZ2 "x y est un nombre pair" est une relation binaire sur Z.
'
—
IZ3 : "a est fils de 6" est une relation binaire sur une population.
351
352 Quotients
Par exemple la relation 1Zi ci-dessus est réflexive et transitive mais elle n'est pas symétrique ;
donc elle n'est pas une relation d'équivalence. En revanche IZ2 est une relation d'équivalence.
Définition A.3.4 -
x =
{y G E \y ~
x}
Tout élément de la classe est dit représentant de la classe. En particulier, x est représentant
de x (d'après la propriété réflexive).
Théorème A.3.5 -
Réciproquement, si (Xi)ieI est une partition de E, il existe sur E une relation d'équivalence
dont les classes sont les éléments de la partition.
U * = E
xeE
et z y
~
A l'aide des propriétés de symétrie et transit ivité on voit immédiatement que
.
x y c'est-à-dire x
~
y. Ce qui montre que deux classes sont soit confondues, soit disjointes.
=
Ainsi une partition peut être définie par une relation d'équivalence.
Définition A.3.6 -
Exemple 1. -
x ~
y <=î> x —
^2 (cf. ci-dessus).
353
Exemple 2. -
Un ' x ~
y <==> 3k eZ \ x -y = nk
Il s'agit d'une relation d'équivalence. L'ensemble quotient E/^ est noté Zn et est dit
ensemble des entiers modulo n .
Ô =
{x eZ : x =
3k, avec k e Z}
ï ={xeZ : x =
3k + lt avec k G Z}
2 =
{zGZ:x =
3/c + 2, avec A; G Z}
Proposition A.3.7 -
% =
{y £ E | y =
x -h a, avec a e F} =
notât.
x + F
Notons que x + F n'est pas un sous-espace vectoriel de E, mais un sous-espace affine (de
direction F) : x + F rx(F) =
(cf. Appendice A.7 ).
E/p est donc l'ensemble de tous les sous-espaces affines de direction F.
Figure 2
1. Soit (E,*,7l) un ensemble muni d'une loi interne et d'une relation d'équivalence. On
dit que la loi * est compatible avec la relation d'équivalence 71 si :
1
}
x ~
x
y y
y~y'
x * r^
x *
la relation d'équivalence si :
x ~
x =^> À x ~
À x ,
VA G Cl
354 Quotients
Exemple
-
Proposition A.3.9 -
1. Soit (E, *,7£) un ensemble muni d'une loi interne et d'une relation d'équivalence. Si
* estcompatible avec 7Z, on peut définir une loi interne sur
E/^ (dite loi quotient)
en posant :
x *y = x * y
2. Soit (E,Çl,7l) un ensemble muni d'une loi externe de domaine d'opérateurs Q, et d'une
relation d'équivalence. Si la loi externe est compatible avec 71, on peut définir une loi
externe sur
E/^, de domaine d'opérateurs tl, en posant :
X'X := Xx
Démonstration : Il s'agit de montrer que les définitions ne dépendent pas du choix des
représentants.
Plusprécisément, la loi interne sur le quotient est définie de la manière suivante : soient Ci, Ci
deux classesd'équivalence (c'est-à-dire deux éléments de E/^) ; on choisit un représentant
dans chaque classe (par exemple x G Ci et y G Ci ; donc Ci x et C2 y) ; on pose alors : = =
Ci * C2 = x * y
x y G F,
—
est compatible avec les lois de E. Par conséquent les lois de E "passent au
quotient". On pose :
x +y := x +y
X'X := Xx
c'est-à-dire :
(x + F) 4- (y + F) =(x + y) + F
A-(x + F) =Xx + F
355
Figure 3
Proposition A.3.10 -
La démonstration est une simple vérification. Notons que l'élément neutre est
0E/F =
0 = F
et —x =
—x.
Théorème A.3.11 -
E7'Ker /-W
Démonstration : Soit
* :
E/Kerf —>
W
f(x)
'
x i
i est bien définie (c'est-à-dire elle ne dépend pas du choix du représentant dans x). Soit en
effet x' G x un autre représentant. On a x x' ; donc x x' G Ker / et par conséquent
~ —
f(x —
x') =
0 c'est-à-dire f(x) f(x'). Ce qui montre que i est bien définie.
=
D'autre part :
i(x + y) i (x =
+ y) f(x
=
+ y) f(x) + f(y) =i(x)
=
+ i (y)
et i (Xx) i (À x)
= =
/(À a:) = À f(x) X i (x)
=
«1
i(x)
-
Im/
/: :
(x, y) h->
(x, 0)
E/i^qx f
—
Figure 4
Corollaire A.3.12 -
dim E/p =
dim E —
dim F
f : E=F®G -+ G
#l+#2 ' *
x2
On a F =
Ker /, donc E/p =
E/j^er £ c± Im /. Donc :
dim E/p =
dim(Im /) = dim E -
dim(Ker /) = dim E -
dim F D
Corollaire A.3.13 -
E\ © Ei /
I Eo
es£ canoniquement isomorphe à E\ :
E!@E2/E ~Ei
/ : Ex 0 E2
x1
On a Ker / =
f?2 et lmf =
Ei. On applique ensuite le théorème. D
357
On peut construire un cylindre en "enroulant" une feuille de papier (cf. figure 5.)
c D
i
J i
j
_____
v__ ^ J
Figure 5
D'une manière plus précise, cela revient à identifier dans le plan M2 les points (#,y) avec
lespoints (x + 2k7r R)kez> En d'autres termes, le cylindre peut être défini comme l'espace
quotient :
(3
k G Z tel que :
x2 =
xi +2kirR .
2/2 =
yi
De même, le tore est la surface que l'on obtient en "recollant" les bords d'un cylindre (cf.
figure 6.)
Figure 6
{3k,h
comme :
eZ tels que :
x2=xi + 2knR1 .
Il est facile de vérifier que la structure naturelle d'espace vectoriel sur 1R2 est compatible
avec ces relations d'équivalence, ce qui permet de définir sur le cylindre et sur le tore une
L\ [ an xi + +
xinXn =
bi
&n
2. d'autre part qu'elle soit «stable» au sens suivant. Les ordinateurs n'ont pas une
précision infinie : chaque opération entraîne nécessairement des erreurs d'arrondis.
Il est important que les calculs soient menés de manière telle que, en s'accumulant, les
erreurs n'entraînent pas des écarts importants entre la solution calculée et la solution
théorique.
Xi =
—^ ,
où: A =
détA et A* =
dét || ci,..., B,..., cn ||-
359
360 Compléments sur la méthode du pivot. Indications sur les méthodes directes
(n —
1) n ! multiplications
-
n ! —
1 additions
donc au total (n 1) n !+ n ! —
1 = nn\ —
Tc =
(n + l)(nn! -
1) + n =
n (n + 1)! -
n
-
1 + n =
n (n + 1)! -
an
de manière à mettre le système sous la forme :
Li ( au xi + ai2 X2 + .. ...
+ ain xn =
h
r(l)
L2 «22 x2 "h ...
"h G2n Xn
—
02 /^\
r(l)
Lin r7(1)ro+
un2 ^2 T ... +r7(1)r
^ Ctnn ^n
-
—
fc(1)
"n
multiplications additions,
et n opérations. Puisqu'il y a (n
soit 2n + 1 1) équations, il faut —
au total
(2n + l)(ra 1) opération pour passer du système (1) au système (2). Aussi pour
—
y^(2 k -f 1) (k —
1) =
opérations.
fc=i
i) + 1 opérations pour xi
donc au total :
1 + 3 + 5 + + (2n -
1) =
n2
opérations. Le nombre d'opérations nécessaires pour résoudre le système (1) par la méthode
de Gauss est donc
= =
Pour n =
10 on trouve Tg =
790. La comparaison de deux méthodes se passe de
commentaire.
361
pivot Cependant,
dans la méthode de Gauss. à cause des erreurs d'arrondi, cette manière de
procéder peut amener à des résultats numériques très éloignés du résultat théorique. Voici
un exemple instructif tiré de page 35. Considérons le système
1
L\ j ax\ + X2 1
\
=
L2 xi + x2 = 2 avec a =
10~4
1 l-2a
x= -—-, y =
1 a
—
l-o
c'est-à-dire
x = 1 + a + o(a2) =
1,00010.... « 1, y
=
l-a + o(a2) =
0,99990.... «1
Supposons maintenant que l'on résout le système par la méthode de Gauss, en arrondissant
les calculs intermédiaires aux trois premiers chiffres significatifs.
Li f ax -h y = 1
Puisque 1 —
104 et 2 —
très éloignée de la vraie solution. Si en revanche on échange l'ordre des équations, en prenant
comme pivot 1, on trouve :
l2 f x + y =2 l2 ( x + y =2
\ \ (l a)y
_^
Li ax-\-y =1 L1-aL2
—
=l —
2a
Dans la seconde équation 1 —10-4 et 1—2 10~4 sont tous deux arrondis au même nombre,
ce qui donne y =
1, d'où la solution très satisfaisante :
x =
1, y = l
Ceci montre que des erreurs d'approximation peuvent provenir de la division par des
"trop petits".
pivots Il est donc indispensable, dans les calculs numériques2, par exemple par
ordinateur, d'avoir recours à l'une des stratégies suivantes :
-
Méthode du pivot partiel : on prend comme pivot dans le système (2) le plus grand des
I a22 !) »! an2 15 en permutant éventuellement les n 1 dernières équations.
—
Méthode du pivot total : on prend comme pivot le plus grand des | a\j |, en permutant
éventuellement les équations et aussi les "colonnes".
Évidemment ces stratégies doivent être appliquées à chaque étape de l'élimination.
On montre que aussi bien la méthode du pivot partiel que la méthode du pivot total sont
stables, c'est-à-dire insensibles à la propagation des erreurs.
1G.E. Forsythe- C.B Moler, Computer of Linear Algebraic Systems, Prentice-Hall, 1967.
2Ce problème ne se pose pas, en revanche, dans les questions de calcul formel.
362 Compléments sur la méthode du pivot. Indications sur les méthodes
directes
Il est clair que dans les programmes de calcul fondés sur la méthode de Gauss, il n'y a
pas
besoin d'écrire le système sous la forme (1) : ce qui compte ce sont uniquement les matrices
A et B. La méthode de Gauss se ramène en fait à travailler non pas sur des équations, mais
à faire des opérations sur des matrices. Par exemple, si A^1' est la matrice du système (2)
on a A^ =
Ei A où E\ est la matrice triangulaire inférieure :
( 1 0 o\
Û21
1
an
Ei =
' o
\ l)
CLnl
0 °
an
/1 0 \
1 n n
a
a31
1
E2 —
a(1)
tt22
0
a(1)
anl
0 0 1
V a22
On a donc : A^ =
E2 E\ A. On aboutit ainsi, toujours à condition que dans la matrice
où il faut effectuer l'élimination le premier terme est non nul, à une matrice triangulaire
supérieure U (En-i =
E2 E\) A, où
/1 0\
(fc-i)
uik
Ek = avec £ik :=
._
(fc-i)
—£k+i,i 1 a
kk
\ -Ink 1 /
Si on pose L =
(En-i E2 .Ei)-1, on pourra donc écrire :
A =
LU
Soit A =
(aij) G GL(n,K) telle
que :
'an ...
a\k
+ 0 ,
1 < k < n (*)
Cbkl akk
Uv =
w, puis Lw = c
par la méthode de la remontée. Notons enfin que la matrice L s'exprime très simplement en
( 1 0\
4ii 1
L =
1 /
MÉTHODE DE CHOLESKY
De plus la décomposition est unique si Von impose que les coefficients de la diagonale de B
sont positifs.
La démonstration n'est pas difficile : il suffit de montrer que le système BlB A dont =
les inconnues sont les coefficients bij de B peut être résolu explicitement en fonction des
coefficients de A.
Exemple -
et à la solution B
(iï)-
MÉTHODE DE HOUSEHOLDER
Une autre méthode directe est fondée sur la propriété suivante (cf. exercice 25 chapitre 7
pour le cas réel) :
se
B, est
équivalent à
RX^QB
c'est-à-dire à un seul système à matrice triangulaire (alors que la factorisation LU exige la
résolution de deux systèmes).
Dans l'exercice 25 du chapitre 7 nous avons vu comme la factorisation de Householder n'est
pas autre fait, que la méthode d'orthonormalisation de Schmidt. Cependant ce ne
chose, en
pas ainsi que dans la pratique on calcule les matrice Q et R, car cette méthode conduit à des
erreurs d'arrondis importants. On doit à Householder une méthode de calcul très ingénieuse
et stable, fondée sur la factorisation de Q en produit de réflexions (cf. exercice 29, chapitre
7, pour le cas réel), pour laquelle nous renvoyons aux livres spécialisés.
Le lecteur intéressé aux méthodes numériques les plus couramment utilisées en Analyse
Matricielle et en Optimisation, pourra consulter
Il s'agit d'un excellent livre, destiné aux étudiants en Master, qui allie la rigueur et la clarté.
Appendice A.5
Inverses généralisées
AÂA = A
Nous verrons au paragraphe suivant que pour toute matrice A il existe une infinité d'inverses
généralisées (sauf dans le inversible, où l'inverse généralisée
cas où A est est unique) et qu'il
existe des méthodes pour en construire explicitement.
Supposons avoir construit une inverse généralisée A de A et soit :
Ax = b
/
,
xi
x =
A b, ( c'est-à-dire on a: AÂb =
b).
Comme nous allons le voir (cf. théorème A.5.2), dans le cas général
-
AÂb =
b
et dans
)x
ce cas les solutions sont de la forme :
=
Âb+(ÂA- In)y
est un vecteur arbitraire.
On voit de cet exemple l'intérêt que peut avoir la construction d'une inverse généralisée.
Plus importante encore est l'application à la méthode des moindres carrés, que nous verrons
ci-dessous.
365
366 Inverses généralisées
Le concept d'inverse généralisée a été introduit pour la première fois par Predholm dans
l'étude des opérateurs intégraux. Pour les matrices les premiers résultats importants ont été
obtenus par E. H. Moore qui a pu définir une notion d'inverse généralisée unique pour
en 1920
toute matrice à coefficientscomplexes. Ces résultats, qui n'avaient pas été publiés et n'avaient
fait l'objet que d'une conférence, ont été retrouvés plus tard, sous des formes différentes par
divers mathématiciens. En particulier, Penrose en 1955 a pu caractériser l'inverse généralisée
de Moore par un système d'axiomes, ce qui en a facilité l'application à divers domaines des
mathématiques.
Inverses généralisées
La proposition suivante donne la méthode pour la construction des inverses généralisées.
Proposition A.5.1 Soient E et E' deux espaces vectoriels de dimension finie sur K et
-
/ : E — E' une application linéaire. Il existe alors des applications linéaires / : E' —> E
telles que :
/°/°/ =
/
E =
Ker f®F ,
E' =
Imf®G
Notons pF et pim/ les projecteurs sur F et sur Im/ associés à ces sommes directes.
Soit y G E\ y =
yi+y2, avec y\ G Im/ et 2/2 G G. Puisque y\ G Im/, il existe x G E tel
que y\ =
f(x). On pose :
Kv) '. =
Pf(x)
E '
E'
Figure 1
Montrons tout d'abord que cette définition ne dépend pas du choix de x. Soit x' G E tel que
y =
f(x) f(xf) ; on a f(x x') 0, donc
= —
= x
—
x') =
0,
c'est-à-dire :
Pf(x) =
Pf{x'). Ainsi f(y) ne dépend pas du choix de x.
On vérifie facilement que / est linéaire. D'autre part si y =
/(x), alors
/(/(#)) =
Pf(x) et
donc f o f o f(x) =
f(pF(x)J. Or x =
pF{x) +x0, avec x0 G Ker/ ; donc
/(pf(z)J =
/(#)>
ce qui montre que / o
/ o
/ =
/.
367
Remarque. -
I fofof j
=
En effet, si y G E\ y
=
f(x) +2/2 (avec 2/2 £ F) on a, par définition, f(y) =
pf(x). Soit
y' f ° f(y)
=
'- on aura :
donc /o / f(y) o =
f(y), \/y G E'.
Notons aussi que l'inverse généralisée de / n'est pas unique, car elle dépend du choix des
supplémentaires F et G.
Théorème A.5.2 -
/ 0/(6) =6
où f est une inverse généralisée quelconque de b. De plus, toute solution est alors de la
forme :
x =
f(b) + (fof-idE)y
où y est un vecteur arbitraire de E.
Démonstration :
Lemme 1. -
/ o
/ et f o
f sont des projecteurs.
En effet :
Lemme 2.
Ker(/ o / ids/) =
Im /
-
-
Im(/o/-idB) =Ker./
Ker(p —
id) =
Imp (cf. exercice 9, chapitre 3). Puisque / o
/ est un projecteur, on a :
Ker(/o/-id) =
Im/o/ C Im/.
D'autre part, de / o
/ o
/ =
/ on en déduit :
(/o/ id) o
/ =
0, c'est-à-dire
Im/cKer(/o/-id).
—
Ker(/o/-id).
—
Im/ =
0
XI1 s'agit, bien entendu de l'expression intrinsèque d'un système d'équations linéaires.
368 Inverses généralisées
Lemme 3. -
L'équation f(x) =
b admet des solutions si et seulement si f o
f(b) =
b
id). 0
Lemme 4. -
x =
/(&) + (/ ° / id) y, avec
~
que si E et E' sont des espaces hermitiens, il existe une inverse généralisée canonique : c'est
l'inverse généralisée de Penrose-Moore.
Théorème A.5.3 -
i- /°/t°/ / =
2. /»o/o/t /t =
3- (/o/t)* /o/t =
4- (/to/), /t«/ =
/ o
/* est le projecteur orthogonal sur Im /
/* o
/ est le projecteur orthogonal sur (Ker/)-1
En effet Im(/ o /"*") c Im/ ; comme / o /* est un projecteur orthogonal, cela suffit pour
assurer Im(/o /" ") Im/ (cf. exercice 16, chapitre 7).
que =
De même, puisque Im(/^ o/) c (Ker/)"1, /* o/ est le projecteur orthogonal sur (Ker/) .
Penrose a démontré qu'il existe une et une seule application /*" : E' — E qui vérifie les
propriétés 1, 2, 3. et 4. La démonstration de ce résultat est laissée en exercice et se fait sans
ii) Pofof =
fl;
369
montrer que E —
b) En déduire que si J"1" vérifie les propriétés i) et ii), alors elle est une inverse généralisée
de/.
c) Montrer qu'un projecteur d'un espace hermitien est un projecteur orthogonal si et
1. A Â* A =A
2. A* A rf =A^
3. {AA^y=AA^
4. {A^AY=A^A (où: A* *A).
_
:=
indépendants choisis parmi les d. Puisque les Ci s'écrivent comme combinaison linéaire des
Vi,..., Vr, il existe une unique matrice C G Mr,n(C) telle que :
A =
B-C
^ Ah Vk
r
où B =
|| Vi,..., Vr ||G Mp,r(C). Si Ci =
pour i =
1,..., n, alors :
(An
fc=i
Ain \
; ; =l|Cl,...,c„m
Arl * * *
Arn /
puisque B et C sont de rang r, il n'est pas difficile de montrer que B*B et C C* sont
inversibles 2. La formule de Mac Duffee s'écrit :
A* =
C* >
(B*AC*)-1 -
B*
C*{CC*)~1(B*B)-1B*
et en montrant que cette matrice vérifie les axiomes de Penrose.
Exemple -
2 1-11
A=| 1 1 0 1
3 2-12
2Pour montrer que B* B est inversible, cf. exercice 23 chapitre 7; pour montrer que C C* est
inversible, remplacer B par C*.
370 Inverses généralisées
On a rang A = 2. Une base de l'espace engendré par les vecteurs colonnes est {V\ =
c\ , V2 =
co)
D'autre part : C3 =
—V\ + V2 , C4 =
V2, donc :
/ 5 -4 1 \
-5 7 2
15 -10 11 1
V -5 7 2
/
Ax = b
fait, une vraie signification physique : les résultats de mesures physiques qui déterminent la
matrice A pourraient donner un système incompatible, alors que, peut-être, pour des raisons
physiques, il pourrait être clair que le système admet des solutions. Il est donc important
d'avoir une valeur approchée des solutions, même dans les cas où le système apparaît comme
incompatible.
Définition A.5.5 -
\\Ax0-b\\
11 11
= Inf H11 .4a;-6 11II.
xeCn
Théorème A.5.6 -
xo = A^b.
11.4x0-611 =
||AAt6-6|| =
||pIm/(6)-6|| =
d(6, Im/) = Inf
xeCn
\\Ax-b\\
Interscience Publication
New York, 1974
Comme nous l'avons vu (cf. exercice 5, chapitre 6.), Mn(C) est un espace vectoriel norme.
Si A = ( a,ij J, on pose (cf. exemple 4 page 222) :
Mil ^A^laiA^TriA^A)
On en déduit que M.n (C) est un espace métrique pour la distance définie par
d(A,B) :=\\A-B\\
Les définitions et les propriétés des suites et séries numériques passent facilement à l'espace
métrique (Mn (C),d). On a par exemple :
1. On dit qu'une suite de matrices
(An)neN converge vers la matrice A si
2. On dit qu'une série de matrices EnS An converge si la suite des sommes partielles
Sk =
J2t=o An converge
; dans ce cas, la limite pour k —> -foo de Sk est dite somme
de la série. On dit qu'une série de matrices est absolument convergente si la série
numérique ]Cn^oll-^nll est convergente.
La démonstration est analogue à celle que l'on donne pour les séries numériques, la valeur
absolue étant remplacée par la norme.
373
374 Exponentielle d'une matrice
An
Proposition A.6.1 -
A2 A3 An
e* =
/n + A+- + -
+ ...
+ -
\\A\\k
+00
||>4||fc
V^
TW
Exemple :
eXI = exI
Proposition A.6.2 -
Si A et B commutent, alors :
eA+B = eA-eB
(A + B)n =
Y^ C*Ak Bn~
k=0
donc :
^
+00
(A + B)"
£ EE
n
,+B
Ak Bn~k
n\k\(n-k)\
=
_
n=0 fe=0
+°° n
Ak nn-fc
e e n
(n-k)\
=
!
n=0 k=0
Corollaire A.6.3 -
eu=J.
oVJ —
Proposition A.6.4 -
+00
+2Z p-lAnp ^fc
n
Bn
=
>—-=> ;
= lim > P'1 —
P =
ff" à!L\
n=0 n=0 fc=0
: lim P"1
\fc=0 /
p® p-i Hm y-^P
k=0
= p-ie^J
375
(Le passage (1) est justifié par le fait que l'application Mn (C) —>
M.n (C) est continue). D
M i—>P-1MP
Corollaire A.6.5
dét (eA)
M =
„TrA
e
—
* \ /A}
B =
I. Notons que : £fc = donc :
An/ \0
2! /c!
/ À
fc!
p-i p =
V o l+An + ---+^f kl
+ "7 '
\
=
eA-y
,
Lemme
/H
-
o \
Soit A =
[m avec Ai matrices carrées complexes
Vo fX]/
/E3 0 \
Alors :
H
V o \ë^\)
Ce lemme se démontre facilement en utilisant le fait que :
Ak 0 \
Ak = .
Puisque le polynôme caractéristique de A est scindé, A
0
admet une réduction de Jordan : il existe P inversible et une matrice
/ Ji 0 \ /Al
Ai 1
h
B = avec Ja
V o 0/ Vo \aJ
telles que A = P-1 B P.
376 Exponentielle d'une matrice
Or Ja =
Xa J + Va et Va est nilpotente. Par ailleurs Aa / et Va commutent, donc, si p est
l'indice de nilpotence de Va :
2!
...
Proposition A.6.6 -
Soit t G M ; on a :
£(e") =
Ae"
Démonstration :
detA
lim
e(t+h)A_etA
hm
(ehA-I
' tA
h^b V
=
h-^b
=
dt h h
—-
Montrons que :
ehA-I
lim = A
h-*o h
2! ni
d'où :
ua h2 A2 hn An
2! n!
On en déduit que :
et donc :
hA \\hA\\ \h\ \\A\\
"—s—^'^—isi—^ —\—w
-, 1
r
_ _ _
?
Lorsque /i-> 0 : r- -
||i4|| , d'où \\ ,
-
A\\ -> 0. D
(A G Mn (C),x G Mn,i (C)). ^4^ors /a solution qui pour t 0 prend /a valeur xo (xo G =
z(£) = etA xo
Exemple -
Soit le système -^ =
AX, où :
/ b a a \
a b a a
a a b
A
a
=
a -
a b )
Déterminer la solution qui pour t =
0 prend la valeur xo, où xo appartient à Vhyperplan
F défini par x\ -f + xn 0. =
On a A =
(b —
a) I + a U ,
où U est la matrice dont tous les coefficients sont égaux à 1.
Puisque I et U commutent,
{atUf
et A e{b-a)t I eatU £-a '+£ k\
e(b-a)t
_ _ —
fe=i
=
e(b-a)t I +-(eatn-l)C/
n
Or Phyperplan F : xi + h xn =
0 est le noyau de 17, aussi, la solution cherchée est :
x = e(b~a't xo. C'est-à-dire : les solutions qui passent par Phyperplan F demeurent dans
F.
Plus généralement on a :
Ô.X
Corollaire A.6.8 -
Si une solution passe à un instant donné par un sous-espace propre E\, elle reste dans E\
(on dit que les sous-espaces propres sont «invariants» sous le flot des solutions).
En effet si xo £ E\, on a, :
etA xo =
y^ —r xo =
V —r xo =
ext x0 G E\.
n=0 n=0
L'exponentielle des matrices joue un rôle important dans la Géométrie Différentielle moderne
depuis les travaux de Sophus Lie à la fin du XIXème siècle. Il est difficile d'en donner une
idée même approximative, car les concepts qui rentrent en jeu sont assez élaborés. Disons, en
simplifiant, que le problème abordé par Lie, problème encore largement ouvert aujourd'hui,
était de chercher à classifier les équations différentielles qui se déduisent les unes des autres
par changement de variables. Il était donc amené à étudier les groupes de transformations
(cf. Appendice A.l. page 342) dépendant d'un certain nombre (fini) de paramètres, ceux-ci
étant des fonctions différentiables c'est le cas par exemple de 0(n,E), U(n, C), etc.
- -
plus précisément ce que l'on appelle aujourd'hui les groupes de Lie, qui sont très souvent
des groupes de matrices. On peut démontrer que si G est un groupe de Lie de matrices à
coefficients dans K, (K R ou C), toutes les informations essentielles
=
sur G sont contenues,
dans un certain sens, dans les propriétés de l'ensemble
{AeMn(K) | eAeG}.
l
g
=
1Un peu comme les informations sur une fonction sont contenues dans sa dérivée. L'analogie n'est
pas seulement formelle. En effet, si on considère une courbe c :] e, -\-e[—y G, définie par c(t)
=
etA, —
Cet ensemble, dit «algèbre de Lie» de G, est en fait beaucoup plus simple à manier que G
En effeton peut vérifier tout d'abord que g est un sous-espace vectoriel de
Mn(K) ce qui
permet d'utiliser les techniques de l'algèbre linéaire. D'autre part le crochet défini par
[A, B] :=AB-BA
permet de munir g justement d'une structure d'algèbre de Lie (cf. page 250), structure très
riche et bien étudiée, qui donne des informations importantes sur G.
Appendice A.7
Espaces affines
379
380 Espacesaffines
la structure d'espace vectoriel. Cependant, c'est en cela entre autres que réside l'intérêt
de la notion d'espace affine : car du moment qu'il n'y a pas un élément qui joue un rôle
le privilégié, on a plus de souplesse pour choisir l'origine des coordonnées de manière à
simplifier les problèmes (par exemple, l'équation d'un cercle est plus simple si on l'écrit dans
un système de coordonnées dont l'origine est le centre du
cercle).
tfi : E—> E
a
+
'—*
a v
Définition A.7.1 -
Soit F un sous-espace
vectoriel de E et v G E ; l'image de F par t$ :
tv(F) =
\beE\b
L
a+v,aeF\J = =
notation
v+F
Un espace affine A =
t$(F) n'est pas en général un sous-espace vectoriel, car il n'est pas
stable pour les lois de somme et de produit par un scalaire, à moins qu'il passe par 0, ce qui
381
se produit si v G F : on a alors A =
F.
si b =
a + xetc = a + y (avec x,y G F),
on pose :
b+c : =
(x + y ) + a
X -
b : =
Xx + a
Applications affines
Définition A.7.2 -
c'est-à-dire :
g(x) =
a + f(x), avec / linéaire.
Toute application affine s'écrit d'une manière unique sous la forme g ta o /, avec = a G E1 et
/ G £k(£, -E7). En effet, si g ta o f ta, o /' (avec a' G E' et /; G £*r(£, E')), on
= = a :
a + /(z)=a/ + //(a;), Vx G ^.
En faisant x =
0, on trouve a =
a', d'où /(x) =
f'(x), Vx G E.
Si g =
ta o
f, /est dite application linéaire associée à g et a est dit vecteur de translation.
Par exemple :
£ : M3 — M3
(#1,22,#3) >
(2Z1-X2 + 3, -Z1+Z3 + 2, X2-CC3)
est une application affine de vecteur de translation a =
(3, 2, 0) et d'application linéaire associée :
/ : E3 —> R3
Il est facile de se convaincre que les applications affines se caractérisent par le fait que les
composantes de l'image du vecteur sont des polynômes, non homogènes en
x
général, de
degré 1 en les composantes de x.
Notons que puisque /(O) =
0, on a g(x) =
g(0) -f f(x). On a donc :
^
I Les applications affines sont les applications g : E — E' caractérisées par le fait
| que l'application x i—> g(x) g(0) est linéaire. —
Proposition A.7.3 -
espaces affines.
Soit eneffet g =
ta o
/ une application affine et A =
h(F) un sous-espace affine de
direction F. On a :
Proposition A.7.4 ( Caractérisation des sous-espaces affines par des équations linéaires)
Les sous-espaces affines de E sont les ensembles du type :
A =
{x G E | f(x) =
a, avec / G C{E, E') et a G E' }
Démonstration : L'ensemble des solutions du système linéaire f(x) = a est un sous-espace
affine de direction Ker /, plus précisément :
A =
xo + Ker / ,
avec xo solution particulière de f(x) =
a.
x —
/,
xo G Ker c'est-à-dire /, x /.
G xq + Ker et donc A<Z xq + Ker
\
-
z- w =
x-y + 2z-t-w = 2
Proposition A.7.5 L'ensemble des applications affines bijectives de E dans lui-même est
-
un groupe (pour la loi de composition des applications) dit groupe affine de E noté GA(E).
La vérification est immédiate. Notons effet qu'une application affine est bijective si et seulement
en
si l'application linéaire associée est bijective. Soient h et h' deux applications affines bijectives :
h o
h'(x) = a f(b + g(x))
+ = a f(b) + / o g(x)
-f-
Ce qui montre que h oh' est affine bijective (car / o g est bijective).
D'autre part :
h~x{x) =y <É=> x =
h(y) <=> x = a + f(y) «=4> y =
f~1(x-a)
^y =
-f-1(a) + r1(x)
Donc /i-1 =
t_f-i/a\ o
/-1, ce qui montre que h-1 est affine.
383
Barycentre
Les sous-espaces affines ne sont pas stables, en général, pour la somme (cf. figure 6). Ils
sont stablesen revanche pour certains types de sommes, dites sommes barycentriques. Cette
propriété permet d'ailleurs de caractériser les sous-espaces affines et les applications affines.
-îo t\ a\ -f +t >ap)
est dit barycentre des points ai, , ap affectés des
coefficients ti, tv.
G =
-^U (xi + a) =a+-ftiûH \-tp apj G A
Figure 6
On a en fait la réciproque :
Proposition A.7.7 -
Xx = Xa —
Xao. (i)
Xx =
Xa —
Xa —
ao + b = b —
ao G F.
De même, soient x = a —
ao et y —
a' —
ao dans A. On a :
x-\-y =
a-\-a—2ao =
(a-{-a ao) —
ao-
Or a + a; —
ao est lebarycentre des points a, a7, ao affectés des coefficients 1,1,-1, donc il
appartient à A, ce qui montre que x -\-y G F.
Proposition A.7.8 -
des mêmes coefficients (on dit qu'elle «conserve le barycentre»). Pour cela il faut et il suffit
que :
a) g(Xx) Xg(x) + (1 A) c
= -
b) g(* + y) =9(x)+g(y)-c
Or Xx peut être écrit sous forme de somme barycentrique : Xx = Xx —
(1 —
À)0; donc
g(Xx) =
g(Xx -
(1 -
A)0) =
Xg(x) -
(1 -
A)p(O) =
Xg(x) -
(1 -
A)c
De même :
b || (cf.
exercice 10. chapitre 7).
Définition A.7.9 -
\\g(a)-g(b)\\ =
\\a-b\\, V a, b G E
\\g(a) -g(a)\\ =
\\g(a- b)\\ =
\\a -
b\\
La réciproque cependant n'est pas vraie : les
Figure 7
translations, par exemple, sont des isométries, mais elles
ne sont par orthogonales, car elles ne sont pas linéaires.
Nous allons voir que les isométries sont en fait les
composées des transformations orthogonales par des
translations.
Théorème A.7.10 -
g(x) =
f(x) + a avec a G E et / G O(E)
En particulier, l'ensemble Is(E) des isométries de E est un sous-groupe du groupe affine
GA(E).
385
Lemme -
Soit f une isométrie qui laisse fixe 0. Alors f G O(E).
En effet, soit / 6 Is(E) telle que /(0) =
0. On a :
ll/(o)ll =
ll/(a) -
0|| =
\\f(a) -
/(0)|| =
||a -
0|| =
||a||
D'autre part, de l'identité ||a; + y||2 + \\x y\\2 =
2\\xf + 2\\y\\2, on a :
(||/(a)||2 ||/(6)||2)
-
ll/(a) + f(b)f =
-||/(a) /(6)||2 + 2 +
=
-||a-6||2 + + +
d'où :
2 (f(a),f(b)) =
\\f(a) + f(b)f \\f(a)f \\f(b)f - -
= =
/ conserve donc le produit scalaire. Il ne reste plus à montrer que / est linéaire. Soit {e*}
une base orthonormée. Alors les f(ei), i =
1,... n, sont linéairement indépendants, car
,
(/(Aa + M6)-A/(a)-M/(6),/(ci)) =
=
(f(Xa + fzb)J(ei)) -
X (/(a),/(c<)> -M </(6),/(c<)>
=
(A a + \i 6, a) —
X (a, e*) —
\x (6, a) =
0
t-9(o)og(0) =
g(0)-g(0) = 0.
Donc / \=
t-g(o) °
9 est une isométrie qui laisse fixe 0 et, par conséquent / G O(E). Il
s'ensuit que : g =
ta o
/, avec a =
#(0), c'est-à-dire : .
g(x) =
f(x) + a.
386 Espaces affines
Espace affine
important, aussi bien pour des raisons théoriques que pratiques, que de pouvoir disposer
Il est
d'une notion d'espace affine en elle-même et non pas de le voir comme un sous-ensemble d'un
espace vectoriel 2.
1. toa =
a.
3. £tf o
(£,3a) =
(£# o
ttf) a ,
Va e A, V v, w G F.
Avec la terminologie introduite dans l'Appendice A.l (cf. page 344), on peut exprimer les
propriétés 1. 2. en disant que (F, +) agit transitivement et librement sur A.
REMARQUE. —
b = a + ao
(a+ v) + w =
(a + ao) + w = b+ w.
Si on pose c =
H^,ona: w = bc et donc
(a+ i?) + iy =
b-{-bc =
c. (i)
D'autre part :
a+(v+w) =
a+ (ab + bc). (ii)
2De même qu'il est intéressant d'avoir une notion "abstraite" d'espace vectoriel, même si par le
choix d'une base on peut l'identifier à W1 ou, plus généralement, à Kn.
387
c = a + (ao + bc),
ce qui, d'après la propriété d'unicité 1. signifie que
2. ac = ao + bc
Définition A.7.11 -
En d'autres termes, A est un espace affine de direction E si l'on se donne une application
t-.ExA — A
(vyP) i
tv{P)=.P + v
1. P + ~tf =
P
[On notera v, 0, etc. les éléments de E pour mieux distinguer les points (de A) et les
vecteurs de E.]
2. Pour tous
PjQ G A, il existe un unique vecteur v € E, tel que Q =
P-\-v. Le vecteur
v sera noté PQ, et l'on a donc :
Q =
P + P$ (1)
3. Pour tous P G A et v ,
w G E, on a : (P + v) + w =
P + (v + w), ce qui équivaut à
la relation
W$ =
FR + R$ (2)
L'équivalence de l'axiome 2. avec la relation de Chasles se démontre exactement comme
ci-dessus.
Notons que d'après l'axiome 1., le choix d'un point P G A induit une bijection Vp : A—> E
'—>P~3
.
On peut donc définir la notion abstraite d'espace affine aussi de la manière suivante :
Définition A.7.12 -
V : A x A—> E
(P,Q) '
P~3
telle que :
i) PP =
0 (qui s'obtient en faisant P=Q=R)
ii) Jp$ =
-Q^ (qui s'obtient en faisant Q=P et en tenant compte de i))
Exemples
1. L'exemple le plus important est celui que l'on a vu en 1.1 : on définit une structure
d'espace affine sur un espace vectoriel E en posant ab := b —
/(a).
REMARQUE. —
Applications affines
Comme nous l'avons vu (cf. définition A.7.2), dans le cadre des sous-variétés affines d'un
espace vectoriel E, une application g : E E est dite affine si elle est du type g[x)
— =
a-\- f(x) avec a 6 E et / linéaire. Notons qu'alors a g(0) ; aussi les applications affines
=
9(x) —
<?(0) + f(x) »
avec / linéaire.
Définition A.7.13 -
g(P) =
g{0) + f(ÔP), avec / G CK(EyE') ;
On vérifie facilement que si cette propriété est satisfaite, alors elle est satisfaite pour tout
O G A. f est dite partie linéaire de g. La partie linâire de g est notée habituellement g.
Avec les notations ci-dessus (cf. (1) page 387) on peut dire aussi que g est affine si et
seulement si l'application g : E —> E définie par
§ÇFQ) =
g(P)g(QÏ
est linéaire.
L'ensemble des applications affines bijectives de A dans A forme un groupe, dit groupe affine
de A, noté GA(A).
Deux espaces affines A et A! sont dits isomorphes s'il existe une application affine bijective
g : A —> A!. Ceci veut dire que if est isomorphisme entre les directions de A et A!.
Remarquons que si on note
Vp(Q) =
P$ et V'p, (Q') =
WQ7*'
389
gVP(Q) =
V^p)g(Q)
et traduit donc le fait que g échange les structures affines de A et A'
Vectorialisé
Comme on l'a vu, on ne peut pas définir une somme d'éléments de A. Cependant, le choix
d'un point dans A permet de définir sur A une structure d'espace vectoriel. En effet, d'après
l'axiome 1., le choix d'un point O G A induit une bijection
V0 : 4—> E
À-P
:=Vô1(\Vo(P))=Vô1(\Ô?) 0 =
+ \U?
P$ =
V0 (Q-P) (*)
Nota -
Habituellement la loi + est notée plus simplement +. Par ailleurs, puisque Vo est un
P.
Ceci veut dire que modulo le choix d'un point on peut identifier l'espace affine A avec l'espace
vectoriel Ao muni de la structure affine standard et donc avec E muni de la structure
4. Ce qui veut dire aussi que l'exemple standard est le seul exemple d'espace affine
standard
(à isomorphisme près) 5. En particulier, les propriétés d'un espace affine peuvent être
un
démontrées dans le cas standard, comme dans la section A.3.1, sans perte de généralité.
4De même que, modulo le choix d'une base, on identifie les vecteurs d'un espace vectoriel au
Définition A.7.15 Soient Pi, , Pq des points de A et £i, , tq des scalaires tels
que
-
G =
O -h
j(ti Ô~Pi + +
*,Ôp£)
indépendant du choix de O et il est dit barycentre des (Pi,ii)i=i,...,g.
6
est
Définition A.7.16 -
p =
jpG^|p =
P0 + Pà?, avec PàP G
p}
On notera aussi
V =
P0 + F , avec P0 G V.
Exemples- Soient P, Q G A, P / Q, et
x> =
{mg^|m = p + p4 tex}
est un sous-espace affine de A de direction Vect {PQ}, dit droite affine engendrée par P et
Q (cf. figure 9)
Figure 9
De même, étant donnés trois points P, Q, P qui ne sont pas sur une affine, l'ensemble
même droite
des points P + sPQ + tPR est un sous-espace affine de direction Vect {PQ, P H}, dit pJem
affine défini par les points P^Q^R.
7Comme on l'a dit, dans un espace affine il n'a pas de sens de "sommer" des points, sinon en
vectorialisant en un point et avec les abus de notations signalés (la somme dépendra du choix du
point). En revanche la somme barycentrique a un sens précis, car elle ne dépend pas du choix du
point.
391
Plus généralement, étant donnés k points Pi,..., P&, on appelle sous-espace affine défini par
ces points l'ensemble
Aff{Pi,...,Pfc}:= [PeA\ P =
Pi+*2KK + "-
P =
(l -
(t2 + +
*fc))ftK + t2KH + + tkJ\Pk.
Aussi peut-on écrire :
Aff{Pi,..., Pfc} :=
{ P G A | P =
tiPi + t2P2 + + tfcPfc, avec *i + + tk =
lj.
Le théorème A.7.7 se généralise immédiatement :
Proposition A.7.17 Une une partie non vide V d'un espace affine A est un sous-espace
-
Comme on l'a vu dans l'exemple ci-dessus, un sous-espace affine de dimension k est déterminé
par k + 1 points qui ne sont pas contenus dans un sous-espace affine de dimension (k —
1).
Ceci nous amène à la définition de repère affine.
1.
Proposition A.7.19 Soit {Po,Pi,..., Pn} un repère affine de A. Alors tout point P G A
s'écrit d'une manière unique sous
Informe
P =
2^ ai P*
i=0
'
aVeC '
OiQ-\- a\ -\ hû!n = l
PÔP =
h P0Pl + + tn P0Pn
Figure 10
Or pour tout P G A on peut écrire :
P =
Po + P^f =
Po + U P0Pl + + tn PoPn =
«0 ^0 + <*i Pi + + an Pn
...,
Toutes les propriétés que nous avons vues dans la section 1. ( cas de standard) se
transportent
immédiatement dans les espaces affines abstraits, car tout espace affine est isomorphe, mo-
dulo le choix d'un point, à sa direction munie de la structure standard. En particulier :
Proposition A.7.20 -
/ r \ r
9
\i=l ) i=l
Corollaire A.7.21 Deux applications affines qui coïncident sur un repère affine sont égales
en tout point de A.
En effet, soit {Pi,...,Pn} un repère affine et /,g deux applications affines telles que f(P{) =
g(Pi), pour i =
1, ...,n et soit P =
Y%=i &i Pi € A (avec ai H \- an 1). Puisque f et
=
g
conservent le barycentre, on a :
f(p) =
/
( È p0 Ê
\i=l
a*
/
=
i=l
** /(p<) =
E a* 9(Pi)
i=l
=
g(P)-
Isométries
Définition A.7.22 On appelle espace affine euclidien un espace affine dont la direction est
un espace euclidien.
d(P,Q) =
||P3||
Une application / entre espaces affines euclidiens S et S' est dite isométrie si elle conserve
la distance, c'est-à-dire si
d(f(P),f(Q)) =
d(P,Q), VP,QeS
Les isométries de S forment un groupe noté Is(£). Comme pour le théorème A.7.10, on a :
Théorème A.7.23 Soit S un espace affine euclidien de direction E. Alors une application
f : S — S est une isométrie si et seulement si elle est affine et sa partie linéaire f est
orthogonale, c 'est-à-dire si f est de la forme :
f(P) =
f(0) + f(U?) ,
avec / G O(E)
O étant un point quelconque de S.
f(P) iï+f(Qp).
= En vectorialisant en fi, c'est-à-dire en posant Vq(P) = on a Q?, :
Vn(f(P)) =
/(Vh(P)), donc
f =
Vâ1ofoVçî
393
Isn(S) =
V-1oO(E)oVn
Supposons maintenant qu'il n'y a pas de point fixe. Soit fi, un point quelconque ; alors
f(£l) ^ f2,
donc le vecteur v =
/(Q)Sl est non nul. Considérons l'application g t$ o /. On a :
=
9(0) =
tv(f(Q)) =
f(Q) + v =
/(O) + J(â)Û = Cl.
Donc g est une application affine qui admet O comme point fixe et l'on peut écrire :
f =
t_zog
Comme g admet un point fixe, l'étude de g est ramenée à celle de sa partie linéaire qui est une
(*) Isn(£) =
Vâ1oO(E)oVQ.
Toute isométrie est la composée d'une translation par une isométrie qui admet un point fixe.
I Elle peut donc être "identifiée" au produit d'une translation par une application orthogonale.
Appendice A.8
l'espace
Dans cet appendice, on notera Is(n) le groupe des isométries d'un espace affine euclidien de
dimension n.
-
l'identité ids
-
les rotations autour d'un point Q, d'angle 6 =£ Omod[2-7r] (c'est-à-dire différentes de id^),
que l'on notera ifo, e
-
les réflexion par rapport à une droite V, que l'on notera s^.
-
les translations t$
et les composées de ces applications.
Notons que
-
les rotations différentes de \às sont caractérisées par avoir un seul point fixe ;
-
Nous allons maintenant étudier les composées de ces isométries avec une translation. Pour
cela on a besoin du Lemme suivant, qui est valable en dimension quelconque (finie) :
Lemme A.8.1 -
-
Si 1 n'est pas valeur propre de f, alors f admet un unique point fixe.
-SU est valeur propre de f alors : soit Fix(/) =
0; soit il existe un point fixe D, et
Fix(/) =Q + e(
c'est-à-dire l'ensemble des points fixes, soit il est vide, soit il est un sous-espace affine
dont la direction est l'espace propre correspondant à la valeur propre 1 de f, E[
La démonstration est très simple si on vectorialisé en un point O et on identifie £ avec son
vectorialisé muni de la structure standard, c'est-à-dire si on identifie les points P avec les
vecteurs UP (cf. Nota page 389). Soit f(P) =
f(P) + v, on a :
395
396 Sur les isométries dans le plan et dans l'espace
si dét (/ —
-
si dét (/ id) =
0, supposons Fix{/} ^ 0 et soit CL un point fixe. On a alors
(/- id)(Cl)
—
id)(P) =
—v, d'où par
soustraction
(/-id)(P-fi)=0
ce qui veut dire que P Cl G E(, c'est-à-dire : P G Cl + E[
'
REMARQUE. -
id^) =
{0}, ce
~f(ôû) =
f(o)f(a) =
7(5)3 + uû + n7(âî =
7{ô)Û =
J{ô)Ô + ôû
c'est-à-dire :
(f-idE)(UÛ) =
/(0)d + Ô/(âj. Ainsi les points fixes Cl (c'est-à-dire qui vérifient
Çlf(Q) =
Tf) sont les solutions du système :
(/ idE)(ÔÛ) =
f(0)Ô. Ce système a une solution
f(0)Ô,
—
Supposons que 1 est valeur propre et qu'il existe au moins un point fixe Cl. Alors on peut écrire
f(P) =
f(Q) + f(HP) = Q + f(HP). Donc P est fixe <^=^> f(CïP) = CïP <=^ HP G e( *=»
P e CI + eJle .
Comme on voit, elle est laborieuse et au fond peu naturelle. Par conséquent dans la suite nous
donnerons habituellement les démonstrations en vectorialisant en un point. Cependant le point
de vue proprement affine peut aussi être plus clair dans certains cas, comme nous le verrons.
1er cas : / =
t$ o
JRfi) g
Vectorialisons en Cl (c'est-à-dire prenons Cl comme origine). On a / =
Rçi,o dont la matrice
9 7^ 0 mod[27r]). Donc, d'après le Lemme, f aun unique point fixe, et par conséquent / est une
rotation autour d'un point Cl' donné part la formule (1) ci-dessus : Cl' =
Cl—(Rn} q id^)-1^).
2ème cas : / =
t$o s^
On a / =
s^, donc 1 est valeur propre. Par conséquent, soit / n'a pas de points fixes, soit
elle en a une infinité.
Pour chercher les points fixes il faut résoudre le système (1) :
(s^ —
id)(P) =
—v, En prenant
-!)(;)--(:)
où a, b sont les coordonnées de v. Ce système est compatible si et seulement si a —
0, c'est-à-
dire v _L V et les solutions sont données par y =
6/2, x arbitraire. L'ensemble des points fixes
est donc la droite V1 parallèle à V et passant par le point ^v. Il s'agit donc d'une réflexion
par rapport à cette droite.
f =
tv° s^ =
TXu o
Tvi o
s^
réflexion
/ est donc la composée d'une réflexion par rapport à une droite parallèle à V avec une
translation dans la direction de V. Une telle application est dite glissement. Notons que les
glissements n'ont pas de points fixes, car v n'est pas orthogonal à V.
On a ainsi :
Théorème A.8.2 -
-
l'identité idf ;
-
les rotations ifo,0, d'angle 6 ^ 0[mod27r[, autour d'une droite affine V, caractérisées
par le fait d' avoir une droite fixe, l'axe de rotation ;
-
les réflexions par rapport à un plan affine sp, caractérisées par le fait d'avoir un plan
fixe.
-
les "rotations-réflexions" sv °Rt>,9, où V est un plan orthogonal à D, caractérisées par
le fait d'avoir un unique point fixe ;
-
les translations t$\
et les composées de ces applications.
1er cas : / =
t$ o
Rx>,e-
Notons, abréger, R
pour Rt>,o et cherchons les points fixes. On a /
=
R. Puisque 1 est =
valeur propre de /, alors / soit n'a pas de points fixes, soit en a une infinité. Pour chercher
les points fixes, il faut résoudre l'équation f(P) P c'est-à-dire =
R(P) -
P =
-î7. (*)
Soit k un vecteur unitaire directeur de V ; on a : < R(P), k > =
< R(P), R(k) > =
< P, k >,
puisque R est orthogonale. Donc une condition de compatibilité de l'équation (*) est que
<v,k> =
0.
-
) )
2/o =
^°
0 0 1 \ zo \ 0 / \*o/
398 Sur les isométries dans le plan et dans l'espace
ce qui donne
(cos# —
l)xo —
sinOyo = —
||v||
sin^xo -j-(cos6 —
l)yo = 0
Ce système admet une solution unique (#o,yo) (puisque 6 ^ 2/c7r). Puisque zq est arbitraire
on donc une droite V de points fixes (c'est une droite de direction k). On a ainsi :
tjj o R =
tx% o
t^o R
rotation
/ est donc une rotation suivie d'une translation dans la direction de l'axe de rotation.
Cette application est dite vissage.
2ème cas : / =
t$ o
sv
On a / sv, donc 1 est valeur propre de / et par conséquent, soit il n'y a pas de points
=
fixes, soit il y en a une infinité. Les points fixes P doivent vérifier l'équation
f(P) —#,
—
P =
Si k est un vecteur unitaire normal à V, on voit, comme dans le cas 1. qu'une condition
nécessaire pour que cette équation admette une solution est que v soit parallèle à k. Un
calculanalogue à celui effectué ci-dessus, montre que
si v -Lk, f est une réflexion par rapport à un plan V' parallèle à?.2
/ =
t$ o
sv
=
t^ o
JA£ o
sv
réflexion
/ est donc le produit d'une réflexion par une translation dans une direction parallèle au
3ème cas : / =
t$ o
(sv o Rv )
où sv est la réflexion par rapport à un plan affine V et et Rt> la rotation autour d'un axe V
orthogonal à V.
On a / =
sv o R-p. Si fl est l'intersection du plan de réflexion et de l'axe de rotation, la
matrice de / dans un repère affine orthonormé (fi, û, w, k), où k est un vecteur unitaire
directeur de l'axe de rotation, est
cosO —
sin# 0
Puisque 1 n'est pas valeur propre de /, / au un unique point fixe, le point Q, et donc / est
une rotation-reflexion.
On a ainsi :
Théorème A.8.3 -
-
des réflexions par rapport à un plan
-
des rotations-réflexions
-
des vissages
-
des glissements
-
et des translations
Appendice A.9
Groupes de symétries
des "symétries" on peut réduire l'ordre d'une équation différentielle, trouver des intégrales
premières, etc. Et il est bien connu que, en étudiant les symétries des racines des équations
algébriques, Évariste Galois a pu donner une réponse à l'ancien problème de leur résolubilité
par radicaux en jetant les bases de la Théorie des Groupes. Pour terminer cette rapide
introduction qui est bien loin d'être exhaustive, on peut encore mentionner l'importance de
la notion de symétrie en Physique Théorique ou en Théorie quantique des champs.
Comme on peut l'imaginer, en Géométrie les transformations sous l'action desquelles il
est intéressant d'étudier l'invariance d'une configuration de points ou d'une figure sont les
isométries. Dans cette Appendice nous donnons un bref aperçu de ce type de problèmes.
401
402 Groupes de symétries
Exemple 1. -
ïnv({A,B}) =
{idE,8D}
Si A et B sont échangés entre eux, alors la point Q, =
-A + -B est fixe pour toute / ç
«=»
passant par Q orthogonale à V)
t / =
^fo ( rotation de centre Çï)
On a donc
Inv({A,£}) =
{id£,iîn,s2>,5A}
La table de multiplication de ce groupe est
Lid ifa sv SA
Rq Rq id SA SV
S<D s-d SA id Rn
SA SA ST> Rn id
NOTA -
Exemple 2. -
Les sommets (A,B,C) du triangle forment un repère affine. Toute isométrie / est donc
déterminée par valeurs A, B et C. Or, pour que le triangle soit invariant par / il faut
(/(A),/(£),/(C))
ses sur
Soit G =
\(A + B + C). On a :
f(G) =
l (f(A) + f(B) +
f(Q) l(A =
+ B + C) =
G
Donc G est invariant pour toutes les isométries de X. X est donc un sous-groupe de Og(E)
conséquent il ne contient que
et par
-
l'identité
-
B C
Ri Rg,2<k/3 =
\ B C R2 —
Rgm/z A
c A B
1Les points de V sont les barycentres de A et B et / conserve les barycentres, car elle est affine.
403
1 Id Ri R2 SA SB se
~ld~j FIcT Ri R2 SA SB se
#1 Rl R2 Id se SA SB
R2 R2 Id Ri SB se sa
SA SA SB se id Ri R2
SB SB se sa R2 id Ri
se se SA SB Ri R2 id
Dans cette section nous nous proposons d'étudier le groupe Inv(<S), où S est un sous-ensemble
borné d'un espace affine euclidien S de dimension 3. Sans perte de généralité (cf. Nota page
389) on peut supposer que S est l'espace R3 muni du produit scalaire canonique et de la
structure affine standard.
Pour déterminer tous les groupes de symétries de <S, il faudrait classifier tous les sous-groupes
de Is(3), ce qui est un problème très difficile. Heureusement, les groupes de symétries qui se
présentent le plus souvent en Physique sont soit des groupes "discrets", soit des "groupes de
Lie". L'étude de derniers n'étant pas du ressort d'un
ces cours d'Algèbre Linéaire élémentaire,
on s'intéressera aux sous-groupes discrets de Is(3).
Définition A.9.3 Soit G un groupe de transformations qui agit sur un ensemble E (cf.
définition A. 1.11, page 342) et G x V orbite de x sous l'action de G. On dit que G est
discret si :
VxGjE et pour toute boule Br de centre x et de rayon r il existe au plus un nombre fini
de points de l'orbite de x contenus dans Br, c'est-à-dire : G-x D Br est un ensemble fini.
Théorème A.9.4 -
Démonstration : Notons tout d'abord que ces groupes ne peuvent contenir ni les
translations, ni les vissages, ni les glissements car l'une de ces transformations, suffisamment répétée
appliquera l'ensemble en dehors d'une sphère qui le contient. Par conséquent, G ne contient
que des rotations et des rotations-réflexions (et bien-sûr l'identité). Il s'ensuit que
chaque
élément de G admet un point fixe. Il n'est pas évident, cependant, qu'ils admettent un point
fixe commun. C'est en fait le cas :
Lemme -
En effet, x G S. Tous les points de l'orbite de x sont dans <S, donc contenus dans
soit
une boule.Puisque G est discret l'orbite de x sera finie. Soit G x {x\,..., xp} l'orbite =
Il s'ensuit que G est un sous-groupe de Oy(3), lequel est isomorphe à 0(3) (cf. (*) page 393).
De plus, toutes les orbites sont finies. En effet, soit x G E et soit R \\x y\\. Pour toute = —
g G ls(E) on a :
Ux)-y\\ =
\\g{x)-g{y)\\ =
\\x-y\\=R.
Donc l'orbite de x est contenue dans la boule de centre y et rayon R et, comme G est discret,
elle est finie.
On en effet, toute symétrie g G G, étant une application affine,
déduit que G est fini. En
est déterminée par son repère affine, c'est-à-dire par son action sur 4 points
action sur un
ai, ^2,<23, <24 non contenus dans un hyperplan. Comme les orbites de ces 4 points sont finies,
les valeurs possibles des g {ai) sont en nombre fini, donc G est fini.
1. soit G =
K, c'est-à-dire G C SO(3) ;
2. soit G =
KUj K, où j = -
id ;
Démonstration :
2L'étude de cette section et de la suivante demande quelques connaissances élémentaires sur les
groupes quotients.
405
{—1, +1}. Donc K est d'indice 2 et par conséquent il est constitué par la moitié des éléments
de G. Il y a deux possibilités :
K H K+ =
0
En effet, si #o G X n K+, on a #o =
j#, avec g e G et G £ K, d'où j =
gog~X> Puisque
<?o G X C G et g~x G G, il s'ensuivrait que j G G, ce qui est exclu.
En outre
Cardia =
Cardia
En effet, G = K U Ki, où ifi =
{# G G | g ^ if}. Puisque K est un sous-groupe distingué
d'indice 2, if et Ki sont les deux classes de G (modulo if) et donc elles ont le même nombre
d'éléments. D'autre part if+ jK\. Il existe donc =
une bijection évidente de if+ sur K\ et
donc Cardif+ Cardifi, d'où Cardif
=
Cardif+. =
Soit G+ = K U K+. On voit facilement que G+ est un groupe et tous ses éléments sont
des rotations et que K est un sous-groupe distingué de G+ d'indice 2. Il ne reste plus à
démontrer que G est isomorphe à G+. Soit
<p :KUK+—> G
90 —>
v(go)
tp(g0)
J
où est ainsi défini :
si go G K
0o
^
l K+
.
39o si go G
'
Cette application est évidemment bijective et un petit calcul montre que c'est un isomor-
phisme.
Corollaire A.9.6 -
SO(3).
Définition A.9.7 Soit G un sous-groupe de SO(3). Un point x eSr est dit pôle s'il existe
une rotation g G G, g =/= id, telle que g(x) =
x.
Remarquons qu'un pôle est l'intersection de Sr avec l'axe d'une rotation non triviale (c'est-
à-dire différente de id) ; pour chaque rotation non triviale il y a donc deux pôles sur Sr :
±x.
On voit immédiatement que G applique les pôles sur les pôles. En effet, x est pôle de pi,
alors, pour toute g G G, g(x) est pôle de g o
g\ o
g"1. Donc l'ensemble des pôles est partagé
en orbites par l'action de G.
406 Groupes de symétries
Lemme -
1. Soit O =
{xi, ...,xp} orbite de pôles. Alors :
Card G xi =
Card GX2 = =
Card GXp.
2. Soient (9i,... Ok les différentes orbites et notons
Pi = Card Oi ni =
Card Gx [si x G Oî\ et n =
Card G
3. Le nombre de rotations non triviales qui laissent fixe un pôle quelconque est :
l'H)-^1-*)!
4. On a la formule
Démonstration
par : <p :
GXi GXj est bijective.
90 gogoog-1
2. ni > 2, car il existe au moins deux rotations qui laissent fixe le pôle x\ : celle qui fait
que Xi soit pôle et l'identité.
Card(G-aO.
3. Le nombre des rotations qui laissent fixe le pôle Xi est m
non triviales 1. Par —
conséquent, le nombre des rotations non triviales qui laissent fixe un pôle quelconque
de l'orbite de x% est pi(ni 1) (car il y a p» pôles sur cette orbite).
—
4. En effet, il y a n 1 rotations non triviales dans G : chacune laisse fixes deux pôles et
—
chaque rotation doit être comptée deux fois (une fois pour le pôle x et une fois pour
le pôle —x). On a donc :
k
2(n-l) =
^pi(n»-l)
i=l
Théorème A.9.8 Compte tenu de la formule (*), il n'y a que 5 sous-groupes finis de SO(3) :
Ils'agit du groupe des rotations laissant invariant le m-prisme, dit groupe diédral.
i7s'agit du groupe des rotations laissant invariant le cube ainsi que l'octaèdre.
E) Le groupe noté y, caractérisé par : k 3, n 60, ni = 2, 712 3, n$ 5. = = = =
iZs'agtà dw groupe des rotations laissant invariant l'icosaèdre ainsi que le dodécaèdre.
Démonstration : En effet :
2(1--) > 1- —
b) Si A; = 2 on a : 2 - -
= 2 - — -
—, d'où -
= —
+ _L. Or —
> -.
Si, par
n ni n2 n ni n2 ni n
11 2 11
exemple, on avait —
c) Supposons k =
3
111 2
i) Si on avait ni > 3, on aurait 1 1 < 1, tandis que on a : 1 -\ > 1.
ni n2 nz n
Donc ni > 3 est impossible et comme les n* > 2, on a : ni = 2.
v 7
n2 n3
~ ~ ~
1 1 1^1 1 1 2
h 1 <;r + + l tandis que 1 + > 1
,. , ,
7 T
= :
-
ni n2 n3 2 4 4 n
2 1 n
iii) Si n2 =
2, on a l-\ =
H . Donc ri3 =
—, ce
2
qui implique que n est pair
n n3
et n > 4 (car n3 > 2).
2111 121 11
iv) Si n2 =
3, on a : 1 H
2
+
S
-\ = - -
,
d'où : H
6
-
—. Donc = —
> -,
n U3 n n3 n3 o
donc : n3 < 6. Comme n3 > n2 =
3, on aura trois cas possibles : n3 =
3, , n3 =
4, n3 =
5. D
La construction des solides invariants pour chacun des cas est plus compliquée. Regardons
juste le cas A) : k 2, n m n2 n3.= = = =
n
Il y a deux orbites et sur chacune pi = —
= 1 pôle. Chaque pôle est fixe pour ni = n
rotations, c'est-à-dire tous les éléments de G laissent fixes les deux pôles. Aussi G est constitué
Propriété A.9.9 -
Soit G un sous-groupe fini de SO(3) d'ordre n > 2, constitué par des rotations autour
d'un même axe. Alors G est le groupe cyclique Cn engendré par la rotations d'angle
En effet, soit G =
{e,#i,... ,#n-i}, g% étant des rotations d'angles 0i,... ,0n-i, compris
entre 0 et 2-7T. Supposons que 6\ est le plus petit de ces angles. D'après la théorème de la
division euclidienne, on a :
0i =
mi0i + (fi, avec 0 < (pi < 6\.
408 Groupes de symétries
qui s'obtiennent en ajoutant aux rotations des sous-groupes finis de SO(3) leurs com-
Paul B. Yale
Geometry and Symmetry
Dover Publications Inc. 1989
Willard Miller
Symmetry Groups and their Applications
Académie Press, 1972
Appendice A. 10
orthogonales
Définition.
On appelle symétrie un endomorphisme s d'un espace vectoriel E tel que s2 id et
=
Puisque X2 —
M(s)i =
Si s orthogonale, on a s* o s
est id, et comme s2 id et dét s ^ 0, on a s*
=
s, = =
c'est-à-dire s est autoadjointe et, par conséquent, les espaces propres E\ et E-\ sont
orthogonaux. On peut donc trouver une base orthonormée dans laquelle s a l'expression
(1). Réciproquement, si pour un endomorphisme s il existe une base orthonormée dans
laquelle s a la forme (1), alors s est une symétrie orthogonale.
Définition. -
espace de dimension n —
On a donc :
409
410 Sur la décomposition des transformations orthogonales
1. 5 est une réflexion si et seulement si il existe une base orthonormée (e*) telle que
M(«)ei =
(2)
2. p est un retournement si et seulement si il existe une base orthonormée (e*) telle que
M(p)ei (3)
Nous allons donner d'abord une autre démonstration simple du résultat de l'exercice 29 du
chapitre 7, qui permet de mieux comprendre l'idée sous-jacente 1.
réflexions
Soit f une transformation orthogonale d'un espace euclidien de dimension n > 2. Alors
f peut s'écrire sous la forme :
/ =
si o o
sr, avec r < n
[fli"l \
M(/k s où D
/ cos0i -sinflA
y sin0» cos 9i )'
V 1
/
(4)
1Pour les calculs explicites des éléments de la décomposion de /, il estplus pratique, cependant,
d'utiliser la construction par récurrence (cf. exemple de l'exercice 29 du chapitre 7).
/ 1 0 \ ( COS7T Sin7T \
J J
2
— —
0 1 \ sin7T
_
y
~
COS7T
411
Ri =
SiTi où Si et Ti sont des matrices de reflexions dans le plan. On aura donc :
/[Si \ /m \
M(f)ei=
i / v
/1 \ /1
Sk n
\ i / V i /
Or toutes les matrices qui apparaissent dans l'expression ci-dessus sont des matrices
de reflexions.
En effet, par exemple soit sil'application qui dans la base (e^) est représentée par la
première de ces matrices. Si est la matrice d'une reflexion ai dans le plan F = Vect (ei, e^) :
01 =
s±\f- H existe une b.o.n. (ei,£2) telle que M{a\)£i =
( n 1
1. il est clair que
[Ël\
[Rk\
M{f)ei =
(2k + l< n)
-1 /
On peut écrire
["flT| /l
[Ëk]
M(/)e< =
V -1/
\
Or la première de ces matrices se décompose en produit de 2k réflexions (d'après (a))
et la seconde est une réflexion. Donc / est produit de 2k + 1 < n réflexions.
3car le produit de deux matrice de d'eterminant —1 a un déterminant égal à +1.
412 Sur la décomposition des transformations orthogonales
Théorème 2 -
Soit E une espace euclidien de dimension n > 3. Alors toute transformation orthogonale
directe est un produit de k retournements, avec k < n —
1.
Nota.
1. Ce théorème montre qu'en dimension 3 toute rotation est produit d'au plus deux rotations
d'angle 7r.
Démonstration -
Considérons une transformation orthogonales directe /. Puisque dét / =
1. 1 est valeur propre. Dans ce cas, il existe une b.o.n. dans laquelle la matrice de / a la
forme (4) que l'on peut écrire :
( 1 \
Ri \
A =
Rk , 2/c+l < n
V 1 /
\ 1 J
Or chacune de ces matrices est produit de deux retournements et donc A est produit
un
de 2k < n —
/ Ri \ / \ / Ti \
\ 1 / V -1
/ V -1 /
Le même raisonnement que l'on a fait pour le théorème 1., permet de voir que les
deux matrices à second membre représentent des retournements (Si est semblable à
-1
1, etc.
0
2. 1 n'est pas valeur propre (notons que cela implique que E est de dimension paire).
Il existe alors une base orthonormée (et) dans laquelle
ls \
Rj ^ /, 2k n
\Ëk\ j
=
V
Le même raisonnement que ci-dessus montre que A est produit de 2k < n
retournements.
Nota -
On peut en fait montrer que A est produit dep < n—1 retournements (la démonstration
est plus compliqué).
Appendice A. 11
Coniques et quadriques
Coniques
Définition A. 11.1 -
q(y) + (p(v) =
k où k e R.
Nous allons donner une classification des coniques selon la signature de q. En changeant
éventuellement le signe des deux membres de l'équation, on peut supposer que la signature
de q est (2,0), (1,1), ou (1,0).
Si {ei,e2J est la base canonique et v =
Xei + Ye2, l'équation d'une conique est du type
D'après le théorème 9.24, il existe une base {^î,^} orthogonale à la fois pour q et pour
(, ) : il suffit de prendre une base de vecteurs propres de la matrice
de manière qu'elle soit orthonormée pour (, ). Les directions définies par vi et V2 sont dites
directions principales. Si v =
X' V\ + Y' i>2, l'équation de la conique s'écrira dans la nouvelle
base :
aX'2 + bY'2 -
2rX' -
2sY' = k (2)
où a =
q(v\), b =
q(v2), -2r =
ip(y\), -2s =
ipfa).
1. q est non dégénérée -
Dans ce cas a et b sont non nuls. On peut écrire l'équation (2)
(*,-ï),+'(*'-i),-t
sous la forme
En posant
X = X , y = X--
a b
on obtient l'équation :
ax2 + by2 =
h (3)
où h = k (r/a)2 (s/b)2. Notons que l'on passe de l'équation (1) à l'équation (3) par
— —
une isométrie affine : une transformation orthogonale pour passer de la base canonique
à la base définie par les directions principales, suivie d'une translation.
413
414 Coniques et quadriques
a) sign (q) =
(2,0) c'est-à-dire a > 0 et b > 0. Si h
, 0, C =
se réduit à un point
si h < 0, C 0. Supposons que h > 0. Dans ce cas C est une ellipse de centre
(7*
=
S \
-, 7
a b/
) ; elle peut se mettre sous la forme
2 2
42 ^£2
en posant A =
y/i/a et J3 =
y/h/b (cf. fig. 1)
b) sign (q) =
(1,1) ,
cest-à- dire oh < 0. Si h ^ 0, C est une hyperbole :
si, par
exemple a > 0 et 6 < 0, elle peut se mettre sous la forme
2 2
A2 B2
en posant A =
^/h/a et B =
^—h/b (cf. fig. 2).
Si h =
0, C se réduit aux deux droites d'équation y
=
dz^/| a/b\ x (cf. fig. 3).
2. q est dégénérée -
Dans ce cas oh =
0 et sign q =
(1,0).
y = ax2
Théorème A.11.2 Soit C une conique définie par l'équation q(v)+ip(v) = k. On suppose
-
1. Si sign q =
(2,0) alors C est une ellipse.
3. Si sign q =
(1,0) alors C est une parabole, qui dégénère en une droite, ou en deux
droites parallèles, si la direction principale isotrope est contenue dans Ker y?.
415
Parabole : y = ax2
Figure 4
A V2
vi
x = —
Figure 5
Quadriques
Définition A.11.3 -
Soient q uneforme quadratique non nulle et <p une forme linéaire sur
l'espace euclidien M3. On supposera R3 muni du produit scalaire canonique (, ). On appelle
quadrique l'ensemble Q des v £R3 vérifiant l'équation :
q(v) + ip(v) = k ,
où k G ]
416 Coniques et quadriques
/ a X fi \
A= A 0 u \
\ fi v 7 /
Dans cette base Q s'écrit :
2sY' -
2tZ' = k (6)
où a =
q(vi), b =
q{v2), c =
q{vz), —2r =
<p(vi) ,—2s =
^(^2), —
2t =
ip(vz). Les directions
définies par v±, ^2, v3 sont dites principales.
1. rang q = 3 -
Dans ce cas : abc 7^ 0. En effectuant une translation de vecteur de
translation ~ôf =
(r/a, s/b, t/c), Q s'écrit :
r/a, y = Yf —
s/b, z = Z' —
ax2 -\-by2 =
h+ \c\z2
En coupant avec un plan d'équation z =
K on obtient des ellipses : Q est
un hyperboloïde à une nappe (cf. fig. 7).
ii) Si h =
0, Q est cône d'axe dirigé par le vecteur V3 et dont les sections par
des plans orthogonaux à ^3 sont des ellipses (éventuellement des cercles, si
a =
b) (cf. fig. 8.)
iii) Si h < 0, les sections de Q avec des plans z K sont des ellipses si K > =
y/\ h/c | qui se réduisent à un point pour K y/\ h/c | ; pour K < y^| h/c | ces =
plans n'intersectent pas Q. Q est un hyperboloïde à deux nappes (cf. fig. 9).
2. rang q = 2 -
On peut supposer que ab ^ 0 etc =
0 (ceci signifie que la direction
principale définie par 1*3 est isotrope). L'équation (6) s'écrit alors :
où. x =
X' —
r/a, y = Y' —
s/b.
a) Si t =
0, c'est-à-dire si vz G Kery?, alors Q est un cylindre d'axe dirigé par V3
et dont les sections sont des ellipses ou des hyperboles1 (cf. théorème A. 11.2, 1.
dégénérées parallèles
1
éventuellement en deux droites non ou en un point.
417
Elllipsoïde :
£ + ]£ + ^ = 1 Hyperboloïde à une nappe :
2-% + ^
~
t?z
—
1
Figure 6 Figure 7
*»*>2 >^2
^2 + f2
-11
,
C2"
-
-
-
Figure 8 Figure 9
418 Coniques et quadriques
ax2 + by2 = z
(8)
i) si sign (q) (2,0) (c'est-à-dire si a > 0 et b > 0), en étudiant les sections
=
en fig. 11 : il s'agit d'un paraboloïde elliptique (les sections par des plans
orthogonaux aux directions principales sont soit des paraboles, soit des
ellipses).
a x2 —
| b | y2 = z
(8')
+>v2
>v2
Vi
£+# = *
7?^ W
Figure 10 Figure 11
t>2
Paraboloïde hyperbolique :
^ jb = z
~
Figure 12
3. rang q = 1 -
On peut supposer, par exemple, que a ^ 0 et b = c =
0. L'équation (6)
s'écrit alors :
ax
—
y = h (10)
Il s'agit d'un cylindre parabolique : les sections par des plans orthogonaux à l'axe,
qui est dirigé par ^3, sont des paraboles (cf. fig. 13).
Le cas où t ^ 0 se traite d'une manière analogue, par le changement de variables
x =
x,y =
Y\z =
2sY' + 2tZ'.
b) s =
t =
0. Dans ce cas l'équation (9) se réduit à a x2 = h. Q dégénère alors deux
plans parallèles (si h > 0) (cf. fig. 14) en un plan (si h =
0) et Q =
0 si h < 0.
^3
A
x =
—a/ r
+ v2 o. V2
Vi
Cylindre parabolique : y = ax2
Figure 13 Figure 14
420 Coniques et quadriques
Remarquons que la condition pour qu'une direction principale appartienne à Kercp est une
condition "ouverte" (c'est-à-direstable par petites variations des coefficients de Q) alors que
la condition pour qu'elle appartienne à Kenp est "fermée" (instable par petites variations
des coefficients). On dira dans le premier cas que la condition est générique et dans le second
cas qu'elle est exceptionnelle3.
En résumant, nous avons :
Théorème A. 11.4 -
(a) si sign g =
(3,0), Q est un ellipsoïde.
(b) si sign g =
(2,1), Q est -un hyperboloïde à une nappe (h > 0)
-
un cône (h =
0)
-
un hyperboloïde à deux nappes (h < 0).
2. rang q = 2 :
(a) génériquement (c'est-à-dire si la direction principale qui est isotrope n'est pas
contenue dans Kevip), Q est un paraboloïde elliptique, si sign q =
(2,0), ou un
(a) génériquement (c'est-à-dire si l'une des deux directions principales isotropes n'est
pas contenue dans Ker <p), Q est un cylindre parabolique
3Une définition précise de la notion de généricité dépasse le cadre de ce cours. On peut se contenter
ici de cette notion intuitive)
Appendice A.12
Systèmes autonomes
( _dxi =
Xi (£,#1,... ,xn)
dt
(i)
dxn
-^n {t>i X\, Xn)
l ~df
—
x =
X(t,x) (!')
avec a; =
(sci,..., xn), x =
-^| et X est un «champ de vecteurs», c'est-à-dire une application
d'un ouvert r C R x Rn dans Rn :
x : rcRxir -*Rn
(t,œi>...,œn)
—
(xi x«)
x =
X(x). (2)
Le théorème d'existence et unicité affirme que V(fo, xo) G T il existe une et une seule solution
"maximale" (c'est-à-dire non prolongeable) du système (1), x y>(£), telle que (p(to) xq. = =
Une solution x =
ip(t) peut être représentée géométriquement par une courbe dans l'espace
lxMn des variables (t,xi, ,xn).
Ces courbes sont dites courbes intégrales du champ X.
Le théorème d'existence et unicité affirme donc que par chaque point de V il passe une et
une seule courbe intégrale maximale.
Il existecependant une autre manière de représenter les solutions qui s'avère préférable dans
le cas des systèmes autonomes. Si x cp(t) est une solution, lorsque t varie le point x décrit
=
une courbe de l'espace M71 de coordonnées (rci, ,xn). Cet espace est dit espace des phases
et la courbe décrite trajectoire ou orbite de la solution. L'espace R x Rn est dit espace des
phases élargi.
421
422 Portrait de phase d'un système autonome
Théorème A. 12.1 -
Soit x =
X(x)
système autonome, où X est un champ de vecteurs
un
solutions constantes :
x(t) = a (a 6 M71).
2. Les trajectoires fermées qui correspondent aux solutions périodiques.
3. Les trajectoires qui ne se recoupent pas.
Figure 2
Remarque -
Il est clair que la fonction x a (a const.) est solution si et seulement
= =
si X(a) =
0. Donc, les positions d'équilibre s'obtiennent en cherchant les points a tels
423
que X(a) =
points sont dits points singuliers du champ X (il ne s'agit pas de
0. Ces
singularité différentiabilité, car X est toujours supposé C1).
au sens de la
Un cas particulièrement important est celui où la fonction X(x) est linéaire en x : c'est le
cas des systèmes linéaires à coefficients constants que nous avons étudié au chapitre 6 (cf.
page 170).
L'importance de tels systèmes vient, entre autres, d'un théorème de Liapounov concernant
l'étude de la stabilité Sans entrer dans les détails de la théorie de la stabilité, on peut dire
.
qu'elle consiste à étudier les orbites des solutions dans le voisinage d'une position d'équilibre.
Il s'agit de savoir si les trajectoires qui passent dans un voisinage suffisamment petit d'une
position d'équilibre on les obtient par exemple en faisant varier légèrement les conditions
-
initiales qui caractérisent la position d'équilibre restent dans ce voisinage (voire si elles
-
tendent vers le point d'équilibre). Si c'est le cas, la position d'équilibre est dite stable (et
asymptotiquement stable si les orbites tendent vers la position d'équilibre).
Figure 3
Le problème est important, parce que les mesures physiques n'ont qu'une précision finie, et
de ce fait on ne peut jamais être sûr d'imposer les conditions initiales qui donnent comme
solution la position d'équilibre. Si la position d'équilibre est stable, cela a peu d'importance ;
x =
X(x) par le système linéaire à coefficients
constants Oscillation du pendule
x = Ax A: position d'équilibre instable
Figure 4
à coefficients constants.
424 Portrait de phase d'un système autonome
xi ax\ + bx2
a,b,c,d El
=
X2 =
CX\ + dX2
x =
aeXltvi +c2eX2tv2
Xl =
aeXlt , x2 =
c2eX2t (1)
Notons que v\ et V2 ne sont pas nécessairement orthogonaux. Pour simplifier l'étude nous
considérons transformation linéaire qui amène {ï7i,V2} sur la base canonique {ei,e2J.
une
On tracera les orbites dans le plan {ei,e2} et on reviendra par la transformation inverse au
plan {vi,v2}.
V2 e2
> vi -+ ei
Figure 5
Remarquons que, puisque c\ et ci sont des
constantesarbitraires, en plus de la trajectoire (1) on
aura aussi les trajectoires obtenues en changeant
i) Ai < 0, À2 < 0
(figure 8).
426 Portrait de phase d'un système autonome
col
Figure !
La solution s'écrit :
xt xt
-f
-* ->
x ce vi ce V2.
. —
!/-
En posant €2 =
-(wi -\~iw2) (wi et W2 sont deux vecteurs réels indépendants), on peut
Si on pose £ =
ce =
£1 + i£2, on a :
x =
£iû;i +^2'û>'2-
On peut donc tracer les trajectoires dans le plan (wi,W2)- Comme ci-dessus, on peut se
ramener, par une transformation linéaire, à tracer les orbites sur un plan rapporté à des axes
orthogonaux.
En coordonnées polaires, la trajectoire est décrite par
£ =
ce .
En posant £ =
pe%tp ,
c =
Retoc, À =
ji + i v, on a facilement :
f p =Refxt
|^ y?
=
vt + a
Si pb < 0 le point se rapproche de O (foyer stable) ; si p, > 0 il s'en éloigne (foyer instable)
cf. figure 10.
Si p =
0 (c'est-à-dire À est imaginaire pur) on obtient des cercles de centre O ; toute
trajectoire est périodique à l'exception de l'origine qui est une position d'équilibre dite centre
(figure 11).
+>W1
Figure 10 Figure 11
3eme cas A admet une valeur propre double À (non nulle car dét A ^ 0).
a) A est diagonalisable
Si vi et V2 sont les vecteurs propres, la solution est :
xt xt
+ C2
-* -*
ci e vi V2
,
x =
e
d'où xi =
ci eA*, X2 =
C2 ext ; donc :
si À7^ 0, on a C2 xi 0 ; les
+ c\ X2 =
si À =
0, la solution s'écrit x =
xq
Figure 12
j A v\ =
X vi
\ A v2 =
v1 + A v2
j .
(i7i V2)
* *
x =
ci e vi + C2 e t -f-
428 Portrait de phase d'un système autonome
xi =
(ci + c2t) ext, X2 =
C2 e
Supposons, pour fixer les idées, que À < 0. Si l'on échange simultanément les signes de
ci et C2 les trajectoires se transforment en leurs symétriques par rapport à l'origine.
Il suffira donc d'étudier le 0, > 0 (le cas où c\ et C2 sont de
cas où a > C2 signe
contraire se traite d'une manière analogue).
Si C2 = 0 on a le demi-axe positif des abscisses.
Si ci =
0, xi =c2t ext, x2 =
c2 ext
x\ et X2 tendent vers zéro lorsque t —»
+oo, X2 gardant un signe constant positif,
Xi changeant de signe. On obtient un nœud dégénéré stable.
X2 ne change pas. Les trajectoires se déduisent donc par symétrie par rapport à l'axe
O X2 et sont décrites en sens inverse.
Figure 13
\r—c\ \r —
c\
x\ = t e c2 X2 =
C2 e c2
,
.
(a,/?) les valeurs propres A a + ifi, et à droite les trajectoires dans le plan des phases
=
de manière à pouvoir voir le changement des trajectoires lorsque les valeurs propres varient.
Comme on le voit, il y a un changement de type de trajectoire lorsque l'une des valeurs
propres traverse l'axe imaginaire (c'est ce qu'on appelle les bifurcations).
La théoriequalitative des équations différentielles est l'une des branches les plus intéressantes
desmathématiques contemporaines.
Un très beau livre sur ce sujet, accessible aux étudiants de fin de Licence et Master, est :
M.W. Hirsch -
S. Smale
x2
Xi
Ai A2
Ai =
A2
(0 a) (x
V°
1)
X2f V
=3*N=
U2A1
A2 = 0
A2
I
I
Ai=0 Ai =
A2 = 0
I
(S J) (S S)
A2A1
Figure 14
Appendice A. 13
431
432 Formes bilinéaires et sesquilineaires. Table de correspondance
b(x, y + z) b(x, y) =
+ f(x, y + z) =
f(x, y) + f(x, z)
b(Xx, y) X b(xy y)
= =
b(x, X y) f(Xx, y) = X f(x, y) ; f(x, Xy) = X f(x, y)
b(x,y) = tXBY (B =
M(b)ei) f(x,y)=fXMY (M =
M(f)ei)
Noyau : Noyau :
N =
{yeE\b(x,y) =
0, Va G E} N={y<EE\f(Xiy)=0 V* G E}
s(x,y) =
s(y,z) h(x,y) =
h{y,x)
s est représentée dans une base quelconque h est représentée dans une base quelconque
par une matrice symétrique S : par une matrice hermitienne H :
tS =
S tH = H
q(x) : =
s(x,x) q(x) : =
h(x, x) eR
s{x,y) =
\{q(x + y) -
q(x) -
q{y)) Hx>v) =
\[$(x + v) -Q(x-y)
-iq(x + iy)+iq{x-iy)]
1 :=
{xe E\ q(x) =
0} X : =
{x e E | q(x) =
0}
Si E est de dimension finie sur R il existe une Si E est de dimension finie sur C il existe une
s(f(x),y) =
s(xj*(y)) h(f(x),y) =
h(x,f*(y))
si s =
M(s)ei ,
A =
M(f)ei , A* =
M(/*)e, : siH =
M(h)ei ,
A =
M(f)e. ,
A* =
M(/*)e. :
A* =S~ltAS A* = H~lt'ÂH
Si {ei} est orthonormée : A* =tA Si {ei} est orthonormée : A* =* A
q forme quadratique non dégénérée sur un h forme hermitienne non dégénérée sur un
espace vectoriel de dimension finie sur K : espace vectoriel de dimension finie sur C :
SiA =
M(f)ei S ,
=
M(S)ei Si A =
M(f)ei iH =
M(kUi
f eO(q) <=^ tASA =
S f eU(h) <=^ tAHA = H
Espace vectoriel de dimension finie sur R Espace vectoriel de dimension finie sur C
produit scalaire
muni d'un muni d'un produit scalaire hermitien
c'est-à-dire d'une forme bilinéaire symétrique c'est-à-dire d'une forme hermitienne
<, > définie positive < | > définie positive
Norme : Norme :
0(n,R) =
{Ae M„(R) \tAA =
I} U(n, C) =
{A G Mn(C) lAA =
1}
SO( n, R) =
{A G 0(ra, M) | dét A =
1} SU(n, C) =
{A G U(n, C) \détA =
1}
0( n, R) =
U(n, C) n GL(n, R)
SO n,R) =
SU(n, C) n GL(n, R)
A G 0(n,R) <==> A représente dans une base A G U(n, C) <=> A représente dans une base
orthonormée une transformation orthogonale orthonormée une transformation unitaire
d'un espace euclidien de dimension n. d'un espace hermitien de dimension n.
Toute matrice orthogonale est diagonalisable Toute matrice unitaire est diagonalisable
dans C (non nécessairement dans R) (dans C)
et ses valeurs propres sont de module 1 . et ses valeurs propres sont de module 1 .
Tout endormorphisme autoadjoint d'un espace Tout endormorphisme autoadjoint d'un espace
euclidien est diagonalisable dans R et les hermitien est diagonalisable dans R et les
espaces propres sont deux à deux espaces propres sont deux à deux
orthogonaux. En particulier, on peut construire orthogonaux. En particulier, on peut construire
une base orthonormée de vecteurs propres. une baseorthonormée de vecteurs propres.
Toute matrice symétrique réelle est Toute matrice hermitienne est diagonalisable
diagonalisabledans R et les espaces propres diagonamlisable dans R et les espaces propres
sont deux à deux orthogonaux pour le sont deux à deux orthognaux pour le
c'est-à-dire : c'est-à-dire :
435
436 INDEX
(théorème), 159,
division euclidienne 347 F0, 87
Dm (groupe diédral), 406 factorisation
dodécaèdre, 407 LU, 363
droite de Choleski, 363
translation, 59
dans un espace affine, 392 Zn, 345, 357
auteurs@cepadues.com
Dualité,
Réduction des
Formes quadratiques,
endomorphismes
Formes hermitiennes^
Réf. 781
^gute^^ûtMf^
Espaces vectoriels,
Matrices
Réf. 799
Réf. 915
Réf. 882
Cet
ouvrage de référence présente un cours complet d algèbre linéaire
recouvrant les programmes du premier cycle des Universités et des Classes
Préparatoires.
L'algèbre linéaire a sans doute une place spéciale parmi les disciplines
enseignées en premier cycle.
-
D'une part parce qu'elle est utilisée pratiquement dans toutes les branches
scientifiques : la physique, l'économie, la chimie, l'informatique... Sa connaissance
fait partie du bagage indispensable au futur chercheur, ingénieur ou agrégatif.
-
D'autre part en vertu de son caractère pédagogique, car l'algèbre et la géométrie
se mêlent constamment et l'imagination est sans cesse sollicitée.
Un livre pédagogique
Ce livreexplique clairement l'algèbre linéaire telle qu'elle est enseignée
dans les deux premières années de Fac (ou Prépa).
Aucun prérequis si ce n'est bien sûr ceux de terminale S.
C'est donc un livre accessible, progressif, et très utile !
Quelques exercices corrigés.
Très clair et stimulant
Ce livre est très clair, et bien organisé, avec une introduction
progressive des concepts par un vrai pédagogue.
vrai
Un vrai
Un plaisir !
pla
Extraordinairement pédagogique !
Ce livre m'avait été recommandé pour sa clarté et effectivement il
se lit comme un roman, tout est détaillé à l'extrême, il se lit très
978 2 85428>962 6
Espaces vectoriels, Matrices, 11|j j JJ||g 111111111
l II 11 I!Il
Zafindratafa G., Morvan R. j | I | I I ,' I , I !
www.cepadues.com