Vous êtes sur la page 1sur 85

-0

i~

...

;0 CD"
I
0

CD'"

CD CD

:J.Q
:J e

.....

0>.
CD
~~ ,
0

~ m
c 0

(I>

CD.;(

0.0

_CD
CD-o

~
\l)

m
o.
CD. 0

(i):-;

0>

:i

CD

en
en

CD

CD

15'

:7
:J

CO
o

.;(

TI

en
en
CD
en

CD

4'

=-

=-

CiJ

-->

1_,
"'. ,- ,-i"
'

::~:~.

or~_ '; " f

N.

51

.1..;.):

Edites par Jes Pre~S poly techniques romandes


(documentation detaillee sur dernande aux
Presses poly techniques romandes,
EPFL .Centre Midi, CHI015 Lausanne, Suisse).

:.

~~,

. : .ii:~

~.:~

~i

. ~~~

a
'$.

;,~~

Algebre Iineaire, tomes 1 et 2

R. Cairoli

I.

Initiation aux probabilltes


Sheldon M. Ross

'.M

:~t
~

,~,
~

..

l :t~

ISBN 288074-110-6
Composition et impression Schiiler SA, 2500 Bienne

1987, Presses polytcchniques romandes .

CHIOIS Lausanne
Tous droits reserves
lmprime en Suisse

Preface

~ ~. :'1

' "

Si vous desirez etre tenu au courant


des publications de l'editeur de cet

ouvrage, envoyez vos nom, prenom et

adresse aux Presses polytechniques romandes


(EPFLCentre Midi, CH IOIS Lausanne,
Suisse) qui vous enverront leur catalogue
general.

', : ,(

CaJcuI differentiel et integral


Jacques Douchet et Bruno Zwahlen
1. Fonctions reelles d'une variable reelle
2. Fonctions reeltes de plusieurs
variables reelles
3. Exercices
(parution 1987)
Analyse ltott'standard
Alain Robert

H
....
" ~;1'

(
L'enseignement de l'algebre lineaire s'est considerablernent developpe au
cours des deux dernieres decennies. De nos jours, presque to utes les sections
d'etudes scientifiques et techniques, et notarnrnent les sections d'ingenieurs,
incluent l'algebre lineaire dans la formation de base de leurs etudiants. Un ouvrage
qui s'ajoute aux nombreux deja existants dans la litterature peut done encore se
justifier et pretendre repondre a des exigences restees insatisfaites.
A l'exception de quelques-uns, les sujets developpes dans ce livre sont
classiques et servent normalement de base a la realisation de tout livre d'algebre
lineaire de rneme niveau . Ce qui distingue celui-ci des autres reside dans I'arrange
ment de la matiere et surtout dans sa presentation, qui emprunte beaucoup a la
geometric ordinaire et vise a developper chez Ie lecteur une comprehension intui
tive. Un autre element distinctif est certainement la place accordee a la notion
d'espace affine et a l'etude de la geornetrie affine a plusieurs dimensions.
Dans l'elaboration de la matiere, l'auteur s'est prevalu de l'experience de
plusieurs annees d'enseignement a des sections d'ingenieurs de I'Ecole polytechni
que federale de Lausanne. C'est a travers cette experience que l'exposition pure
ment formelle concue initialement a cede la place a un discours plus parle et,
oserait-on dire, plus humain.
Conscient du fait que les concepts abstraits ne deviennent clairs qu 'a travers
les exemples, l'auteur s'est constamment soucie de favoriser la comprehension par
des motivations, des commentaires et des illustrations.
Outre creer les conditions propices a une meilleure assimilation des theore
mes et des techniques de calcul de l'algebre lineaire, cet ouvrage veut inciter Ie
lecteur a un travail de recherche personnel. Quelques-uns des nombreux exercices
places a la fin de chaque chapitre ont pour but d'encourager une telle activite,
Ce livre a ete ecrit a l'intention des etudiants du premier cycle d'etudes des
eccles d'ingenieurs de niveau universitaire, mais il s'adresse egalement aux etu
diants en rnathematique et en physique orientes vers les applications. 11 peut en
outre venir en aide aux scientifiques a la recherche de methodes algebriques leur
permettant d'apporter des elements de reponse aux problernes qu'ils rencontrent,
ainsi qu'aux maitres du degre secondaire desireux de savoir vers quels programmes
conduit leur enseignement.

(
(
(

('
(

(
(
(

-C
r(

(
(

(
(

(
(
(

<:
(

(
(
(

(
(,

.:

(
(

R._rdrmmts

(
(
(

Conventions

Je remcrcie vivement Monsieur Jean-Claude Evard de l'interet constant qu'il


a apport': :i la realisation de cet ouvrage. Ses critiques et ses suggesti~ns m'ont

permis d'arneliorer la presentation de nombreux points delicats du texte.

Je remercie Monsieur Laurent Perruchoud d'avoir lu plusieurs parties du

manuscrit et de m'avoir signale quelques imprecisions.


Je remercie egalement Monsieur Claude EI-Hayek d 'avoir controle la ver
sion definitive du manuscrit, Monsieur Klaus-Dieter Semmler d'avoir realise les
figures representant les quadriques, Monsieur Jean-Francois Casteu d'avoir effec
tue les dessins et Madame Pascale Deppierraz pour la competence avec laquelle
e1le s'est occupee des problemes d'edition,

. 1. Decoupage du texte

. ~;

Ce livre est divise en deux tomes. Chaque tome se compose de cinq chapitres
numerotes respectivement de I a 5 et de 6 a 10. Le second tome contient en outre
un appendice repere par la lettre A. Chaque chapitre est divise en sections et
chaque section en paragraphes. Les sections sont reperees par une double numero
tat ion et les paragraphes par une triple numerotation. Par,c;xeIPple. 7.2 renvoie a
la deuxieme section du septierne chapitre et 7.2.4 au quatrieme paragraphe de cette
section. La derniere section de chaque chapitre rassemble les exercices sur la
matiere traitee dans Ie chapitre. Ces exercices sont nurnerotes de la merne facon
que les paragraphes. Ainsi, 7.4.11 designe Ie onzierne exercice de la quatrierne
section du septieme chapitre, Les figures sont reperees par l'abreviation Fig. suivie
de deux nombres , Ie premier indiquant Ie chapitre et Ie deuxierne la figure. Par
exemple, Fig. 7.3 designe la troisieme figure du septieme chapitre.

'~;~

2. Conventions sur les nombres

-~

\.

.....,-~

...... ;.
.

, ..l '

'~~~'J

;:i
:~;,.

.;;.,;,
:~,
.:j'

~;,

" r~

~~

.~

~1

Les lett res R et a: designeront respectivement Ie corps des nombres reels et


Ie corps des nombres complexes. Tout au long des dix chapitres de ce livre. Ie terme
nombre aura Ie sens de nornbre reel, Dans l'appendice consacre a l'extension
de certains resultats aux nombres complexes. il sera precise dans quelles circons
tances Ie terme nombre prendra la signification de nornbre complexe.
Les nombres seront generalernent designes par des lettres grecques minuscu
les telles que a. p, y, A. )1. v, ou par des lettres latines minuscules telles que a. b,
c. d. Les nombres entiers seront appeles plus simplement entiers . Ils seront designes
par des lettres latines minuscules telles que n, k, i, j, I. m .
Nous dirons qu 'un nombre est positif inegatifv s'il est superieur (inferieur)
a zero. Nous dirons qu'il est non negatlf s'il est superieur ou egal a zero.

.:0;1_,

0i.,.:

3. Avertissement concernant I'emploi des adjectifs numeraux

(
Tout au long de ce livre, par deux. trois
n objets , nous entendrons (sauf
mention explicite du contraire) deux. trois
n objets distincts .

(
(

~, ; II

4. Families d'elements d'un ensemble


Dans ce livre. nous appelleronsfamillefinie d'elements d'un ensemble E tout
n-uplet (ordonne) d'elements de E. c'est-a-dire tout element du produit cartesien

';
S
"

"
~ .;.;.

:~t

: ' :: ~;"; ."

~~'.' .: ~:

(
(

Convent ions

. .;:0:-. :'
:. ~

'i

(x .to ... .t.) et dirons que x, est Ie i-ieme terme ou Ie terme d 'indice i. Nous dirons
en ou-tre que I'ensernble {I . 2.... n} est Yensemble d 'indices.
On remarquera que notre definition n'exclut pas que Xi = xj pour des indices
i ei ] differents, ni rneme que X ; = x pour tout indice t. x designant un element de
E. On remarquera encore que (XI' .t 2' .. .. x.) = (x]. x; .... x~ ) si et seulement si
XI

= :cit

.'(1

Table des matieres

(
(

= x;. .... XII = x~ .

Nous appellerons les families a deux et a tro is termes respectivernent couples


et triplets .
Lesfamilles infinies (ou suites) sont definies similairement en prenant comme
ensemble d' indices I'ensemble des entiers positifs. Elles seront designees par Ie
sy~bol.; .~'~j x 2 .. . ). Precisons toutefois qu 'elles apparaitront tres rarement dans
ce livre: .
Ajoutons quelques lignes de commentaire ala notion de famille finie. Dans
l'etude de nombreuses questions. telles l'independance lineaire ou la generation de
sous-espaces ou l'orthogonalite, I'incorporation d'un ordre a la definition de
famille finie est inutile. A ce type de questions . les families non ordonnees,
c'est-a-dire les applications d'un ensemble fini I dans E (notees habituel1ement par
(X;);E/) conviennent parfaitement. Par contre, dans d'autres contextes, notamment
dans certaines relations avec les matrices (en raison de leur representation sous la
forme de tableaux) ou dans des questions concernant I'orientation, I'ordre de
disposition des termes de la famille joue un role importa nt. Dans ce livre, par souci
de simplicite, nous n'avons pas juge necessaire d'utiliser deux notions de famille
finie. Le lecteur interesse pourra facilement deceler de lui-rnerne les parties qui
s'enoncent plus naturellement en termes de families finies non ordonnees,

(
(

TOME I

.1:,

(
.:.1

._'

;f!.'

Chapitre I

. ~;~ .

."

:t

1:...018

-.i
;~

.;':

'i<~

;,l-'

:1:'

"r~ '

. ~
.:$

J~.
' 1f,~

.~

'::~
1f

Espaces vectoriels et espaces affines


1.1 Un modele d'espace vectoriel . . . . .
1.2 Definition de la notion d'espace vectoriel
1.3 Exemples d'espaces vectoriels . . . . .
1.4 Combinaisons lineaires , sous-espaces vectoriels,
families generatrices . . . . . . . .
1.5 Dependance et independance lineaires
1.6 Bases d'un espace vectoriel . . . . .
1.7 Dimension d'un espace vectoriel . . .
1.8 Retour aux sous-espaces vectoriels, semmes directes .
1.9 Espaces affines. . . . . . . . . . . . . . . . . .
1.10 Sous-espaces affines, parallelisme
.
1.11 Reperes, representation parametrique, geometric an alytiq ue affine
I. 12 Exercices . . . . . . . . . . . . . . . . . . .

"?J

'

Conventions

7
10
12
15
19
22
24
27
31

34

<.
(

('
-(

l
(
(
(
(

37
41

(
(

Chapitre 2

Espaces vectoriels euclidiens et espaces affines euclidiens


2.1 Produit scalaire dans l'espace vectoriel geornetrique
2.2 Espaces vectoriels euclidiens .
2.3 Orthogonalite . . . . . . . . . . . . . . .
2.4 Inegalites, angles . . . . . . . . . . . . . .
2.5 Espaces vectoriels euclidiens de dimen sion finie
2.6 Projection orthogonale er meilleure approximation .
2.7 Produit vectoriel et produit mixte
2.8 Espaces affines euclidiens
2.9 Exercices . . . . . . .

!-~ 2'

.~

Chapitre 3

(
47
50
53
57
59
61
66
73
83

(
(

Systernes lineaires

(
3.1
3.2

Definitions et exemples . . . . .
Existence et unicite des solutions .

89
92

(
(

(
(
(

..

--

Table des matieres

(
(

--,

.J

3.3
3.4
3.5
3.6
Chapitre 4

(.

(
(
(

.,

Chapitre 5

... . . . . .. . ... . . ..

Ope rations sur les matrices


Ma trices inversibles . . .
Matrices ca rrees particulieres
Retour aux o perations elementaires
Fo nctions matricielles
Matrices de tra nsition

Exercices

. . . . .

III
119
124
126

128
130
133

7.2
7.3
7.4
Chapitre 8

._:~'"X

Definition et proprietes des determinants . . :


Demo nstrations des proprietes des determinan ts
Developpements, fonnule de Cramer
Exernples et remarques diverses

Exercices

. . . . . .. . . . .

137
143
146
150
154

:,'

..-s.

: ;~~

;~~
t

Chapitre 9

'I

:;:";

~ _. r

.~:;~

69

74

77

82

87

93

98

107

9. 1 Reductio n des formes bilineaires symetriques


9.2 Formes bilineaires syrnetriques definies positives
9.3 Red uction simultanee . . .

9.4 Exercices

113

118

123

126

Formes bilineaires symetriques

10. 1 Equation generale d'une quadrique . . . . . . .


10.2 Centrage . . . .. . .. . . .. . . . . ..
10.3 Reduction de l'eq uation d'une q uadrique centre
10.4 _Reduction de l'equation d'une quad riq ue sans centre .
10.5 Exernples de reduction . .. .
10.6 Representations pararnetriques
- - . .
10.7 Exercices

TOME 2

(
(

Conventions . . . . . . . . : . . . . . . . .

. . . . . . . . . .

(
~:

-j

C ha pitre 6

Applications lineaires et applications aflines


6.1
6.2
6.3
6.4
6.5
6.6
6.7
6.8

(
(

(
(

Generalites . . . . .
Applications lineaires .
Noyaux et images . .
Operations sur les applications lineaires .
Representation matricielle d ' une application lineaire .
Changements de base .
Applications aflines

Exercices

. .. . .

10

15

18

21

27

32

41

Valeurs propres et vecteurs pro pres

"1,;'

52

60

65

Chapitre 10 Qu ad riq ues

Exercices

8. 1 Exernples preliminaires . . . . . . . . . . . .
8.2 Definitions et premieres consequences . . . . .
8.3 Formulati on matricielle, polynorne caracteristique
8.4 Reduction la forme diagona le . . . . . . . . . .
8.5 Reductio n des applications lineaires no'N"diigonalisables
..
8.6 Transformations et matrices syrnetriques
8.7 Application am systernes differentiels
.' .
. . . . . .
.
8.8 Exercices

j: "

Classifica tion des transformations o rthog onales


.
Isornetries, similitudes

a deux et a trois dimensio ns

Determinants
5.1
5.2
5.3
5.4
5.5

Exercices

94
100
105
108

Algebre ma tricielle
4. 1
4.2
4.3
4.4
4.5
4.6
4.7

Matri ces echelonnees . . . . . . . . . . . . .


Met hode de reso lution de G au ss . . . . . . . .
Structu re et dime nsion de I'ensemble des solutions

Table des matieres

Chapitre 7

Appendice

129

131

133

137

140

142

145

Extension aux scalaires complexes


A.I
A.2
A.3
A.4
A.5
A.6
A.7

Espaces vectoriels complexes .. .. . .


Systemes lineaires, matrices et de terminants
Applications lineaires . . . . . . .
Valeurs propres et vecteurs propres
Transformations nonn ales .. . .
Formes sesquilineai res hennitiennes
Exercices

149

152

153

154

158

161

165

Tra nsfo rmations et mat rices o rthogona les, iso metrics.


similitudes
7.1 ' -T r.anefQmJa tion s .et.matrices orthogona les . . . . . .

47

,(

',

I
~:

;'~,

., . .
~\

..

CHAPITRE

(
(

;,

Espaces vectoriels et espaces affines

(
(
(

(
1.1 UN MODELE D'ESPACE VECTORIEL

(
(

..... ,,"" ....

1.1.1 Introduction

Des notions physiques telles que la force ou la vitesse sont caracterisees par
une direction , un sens et une intensite. Ce triple caractere est rnis en evidence par
les fleches, Celles-ci sont a l'origine de la notion de vecteur et en constituent
I'exemple Ie plus suggestif. Bien que leur nature soit essentiellement geornetrique,
c'est leur aptitude a se Iier les unes aux autres , done leur comportement algebrique,
qui retiendra principalement notre attention. Partage en classes d'equivalence et
muni de deux operations appelees addition et multiplication par un scalaire,
I'ensemble qu'elles forment represente Ie modele c1assique d'un espace vectoriel.
Un de nos premiers objectifs est la description detaillee de ce modele.

(
(

(
,(

(
(
(

1.1.2 Notion de Oeche

Nous designerons par '/:' l'espace ordinaire de la geometric elementaire et


par P, Q, ... ses points. Nous appelleronsjleche tout segment de droite oriente. La
fleche d'origine P et d'extremite Q sera notee PQ (fig. 1.1). II est evident que toute
fleche est caracterisee par sa direction , son sens, son intensite ou grandeur et son
origine.

(
(

Fig. 1.1

~Q
P

(
1.1.3 Ensemble des vecteurs

Nous dirons que deux flechessont equivalentes si elles ont la merne direc
tion,le meme sens et la merne intensite . Partageons l'ensemble des flechesen classes
d'equivalence: deux fieches appartiennent a une meme c1asse si et seulement si elles
sont equivalentes. Nous dirons que chacune de ces classes est un vecteur. Ran
geons, en outre, les fleches degenerees (c'est-a-dire de la forme PP) en une c1asse
distinguee que nous appellerons vecteurnul et noterons O. L'ensernble des vecteurs

(
(

( ,
(

(
(

(
Un modele d'espace veetoriel

Espaces vectoriels et espaces affines

(
ainsi definis sera designe par V. II faut souligner que les elements de V sont des
classes de fleches et non pas des fleches individuelIes. II est cependant clair qu'une
fleche quelconque suffit a determiner la c1asse a laquelIe elIe appartient et iI est

done naturel de I'appeler representant de la c1asse ou du vecteur.

Dans ce livre, les vecteurs seront designes par des lett res latines minuscules
imprimees en caractere gras ou par des couples de lettres latines majuscules
surmontees d'une fleche (par exemple, PQ designe Ie vecteur determine par la
fieche PQ). Dans les figures. les fleches seront toutefois designees par Ie symbole
du vecteur qu'elles representent,

(
(
(
(

(
(
(

~
Fig. 1.3

1.1.5 Soustraction de vecteurs

j .

':'

1.1.4 Addition de vecteurs

Tracons Ie representant d'un vecteur ya partir de l'extremite d'un represen


tant d'un vecteur x. La fleche dont I'origine est celie du representant de x et
l'extremite celIe du representant de y determine un vecteur que nous noterons
x + y et appelerons somme de x et y. L'operation qui assode a tout couple de
vecteurs leur somme s'appelle addition vectorielle (fig. 1.2)..

(
(

L'operation inverse de I'addition vectorielle est la soustraction vectorielle.


Soustraire un vecteur revient a additionner Ie vecteur oppose (fig. 1.4):
x - y = x

+ (-y~.

x+y

::---z---

~
(

A I'aide d'une figure, il est facile de montrer que l'operation d'addition


vectorielle est associative et commutative, autrement dit, que

(
(

(x

y)

z = x

+ (y + z)

et

Y= Y

x.

II est en outre evident que Ie vecteur nul 0 est l'element neutre de I'addition
vectorielIe, autrement dit , que

<.'<,

0 = 0

+x

(-x) = 0,

= x,

et que

( ,

OU - x designe Ie vecteur oppose de x, c'est-a-dire Ie vecteur dont les representants


ont la meme direction et la rneme intensite que ceux de x, mais Ie sens oppose
(fig. 1.3).

Fig. 1.4

1.1.6 Remarque

L'addition s'etend, par recurrence, au cas d'une famille finie quelconque de


vecteurs

(XI' X2..... Xk):

XI

x:J

Xl)

+ ....

En vertu de l'associativite, ces additions successives peuvent etre effectuees dans


n'importe quel ordre, ce qui justifie l'ecriture sans parentheses
XI

x2

+ ... +

Xk'

1.1.7 Multiplication par un scalaire

Dans ce livre scalaire sera synonyme de nombre, Rappelons en outre


que. sauf indication contraire, nombre signifie nombre reel, Le vecteur ex,
appele produit du nombre 0: par x, est defini de la maniere suivante : prenons une
fleche representative de x et construisons une fleche de meme direction. de meme
sens ou de sens oppose. suivant que 0: est positif ou negatif, et d'intensite 10:1 fois
l'intensite de la fleche initiale; la fieche ainsi obtenue est un representant du vecteur

ex; si 0: = 0 ou x = 0, no us po sons o:x = O. L'operation qui consiste a effectuer

Excmplcs d'espaees vectoriels

Espaces vectoriels et espaces aflines

12

P+Q
----I
--F:::,
-l'

(7) (-a)x = -(ax), donc en particulier (-I)x = -x. En effet, l'oppose


d'un vecteur etant unique d'apres (3), il suffit de montrer que ax + (-a)x = O.
Or, par la condition (I), ax + (-a)x = (a - a)x = Ox et, par (5), Ox = O.

",;"/ I
__, , /

/;tJ P

........... J...

...............

I
I""."

I..................

1.3 EXEMPLES D'ESPACES VECTORIELS

t----

+Q

dans ~

'"

/",/

<,,j,-"
_

0'

1.3.1

l.L':
.. :-

~es

Fig. 1,8

vectoriels geometriques

L'espace vectoriel geornetrique V etudie dans la section 1.1 est un premier


exemple d'espace vectoriel selon la definition 1.2.2. Un deuxieme exemple est Ie
plan vectorie1 geometrique, c'est-a-dire I'ensemble des classes de fleches equivalen
tes du plan usuel de la geometrie elementaire, muni des deux operations introduites
dans 1.1.4 et 1.1.7. Nous Ie designerons egalement par V, mais s'il faut Ie distinguer
du premier, nous utiliserons les symboles V 3 pour I'espace et V2' pour Ie plan.

Ii

,n
., 1i.

~~

1.3.3 Espaces IRn


Pour tout en tier positif n, lRn designera i'ensemble des n-uplets de nombres
disposes en colonne:

a.

-(

a2

.\
(

~1

1,3.2 Vectoriallse de

Soit 0 un point arbitrairement choisi et fixe de I'espace ponctuel ~ introduit


dans 1.1.2. Definissons l'operation d'addition des points Pet Q de "' par la regle
du parallelograrnme: P + Q est Ie sommet oppose a 0 du parallelogramme
construit sur 0, P, Q (fig. 1.6). Cette operation peut egalernent etre definie a I'aide
des fleches : P + Q est l'extremite de la fteche d'origine P equivalente a la fleche
OQ . Definissons similairement la multiplication de P par un nombre a (fig, 1.7).
Muni de ces deux operations, ~ ' devien t un espace vectoriel appele vectorialise
de :/} relativement aO. Nous designerons cet espace par ~~ et appellerons Ie point
o origine. En identifiant chaque point P ala fleche OP, no us pouvons considerer
~~o comme etant forme des fleches d'origine commune O.
Q

"./

.... ....

......A.._

/,"/

O~_

-..._--

-......

--

,.""

.>

-~P+Q

Fig, 1.6

o<1'/

-- --

....

-- -P

"

.... -

"

--~P

an
Munissons R n des operations d'addition et de multiplication par un scalaire
definies au moyen des fonnules suivantes :

a.

bl

al

a2

b2

a2

+ b,
+ b2

+
an)

a.

aa.

a2

aa2

LbnJ

lan+bnJ

Fig. 1.7

(
(

Lan)

Laan

Ces deux operations satisfont, de toute evidence, aux conditions (aHh) de la


definition 1.2.2 et conferent done
R n une structure d'espace vectoriel. Les
vecteurs de cet espace seront appeles vecteurs-colonnes. lis seront souvent designes
plus brievernent par (ai) . ..i.. n ou simplement par (a;). Le nombre a, sera appele
terme d'indice i de (a;).
n
On remarquera que Ie vecteur nul de lR est Ie n-uplet

o
o

(1.1)

- --
---

----0""",,,, ....

....,.
I <, ....

!
<,

...... I

II

,.,

Ii:

.................

"1

00(...

dans ~O'

(
(

(
(

(
(

'

On remarquera que si 0' est une deuxieme origine, ~O' et % sont egaux
en tant qu'ensernbles, mais differents en tant qu'espaces vectoriels (fig. 1.8).

(
(

14

Combinaisons lineaires, sous-espaces vectoriels, families generatrices

Espaces vectoriels et espaces affines

et que

-a,

1.4 COMBINAISONS LINEAIRES, SOUS-ESPACES


VECTORIELS, FAM ILLES GENERATRICES

al
a2

-a2
est l'oppose de

-an

JR I sera identifie

1.4.1 Avertissement
Dorenavant, sauf mention explicite du contraire, les vecteurs seront les
elements d'un espace vectoriel donne E.

an

a JR.

~.~

1.4.2 Combinaisons Dneaires


1.3.4 Un espace vectoriel fonctionnel
Soit Cia.b)l'ensemble des fonctions reelles continues definies dans l'intervalle
ferme [a. b]. Nous designerons les elements de cet ensemble par les lettres I, g... .
La valeur de f au point t sera notee f(t). Dire que f = g equivaudra done dire
que f(t) = g(t) pour tout t de l'intervalle [a. b]. De maniere abregee, nous ecrirons
f(t) == g(t). Ie signe == indiquant ainsi que les deux membres sont egaux pour tout
t de l'intervalle [a. b]. Considerons les deux operations suivantes:
f + g. definie par la formule (f + g)(t) == f(t) + g(t).
exf. definie par la formule (cd)(t) == af(t).
Ces deux operations satisfont aux conditions (a}-(h) de la definition 1.2.2 et
munissent CIa. b) d'une structure d'espace vectoriel. Le vecteur nul de cet espace est
la fonction nulle et l'oppose de fest la fonction -f definie par (-I)(e) == -f(t).
II est interessant de constater que C1abj en tant qu'espace vectoriel, est une
generalisation naturelle de JRn au cas continuo On peut en effet concevoir tout
vecteur (a) de JRn sous la forme d'une fonction reelle definie dans l'ensemble
{ I. 2..... /I}: la valeur de cette fonction au point i est tout simplement ai .

On appelle combinaison lineaire des vecteurs


forme (XIXI + a2x2 + ..: + a kxk' ou a., a 2... ..
coefficients de la combinaison lineaire.

Voici quelques autres exemples d'espaces vectoriels fonctionnels. Les opera


tions d 'addition et de multiplication par un scalaire sont definies comme dans
1.3.4.
(I) L'espace vectoriel c7a.b) forme des fonct ions reelles k fois contintiment
derivables, defin ies dans I'intervalle ouvert (a. b).
(2) L'espace vectoriel des fonctions reelles definies dans un intervalle.
(3) L'espace vectoriel des polynomes une indeterminee.
(4) L'espace vectorieI des polynomes une indeterminee de degre inferieur
ou egal an.

XI'
at

x 2...., Xk tout vecteur de la


sont des nombres appeles

1.4.3 Exemples
(I) Le vecteur nul est combinaison lineaire de XI ' x2.... . xk Pour voir cela,
il suffit de prendre a l = a2 = ... = at = O. Dans ce cas. la combinaison lineaire
est appelee combinaison lineaire triviale.
(2) Les combinaisons lineaires d'un vecteur X sont appelees multiples de X.
Un multiple de X est done un vecteur de la forme ax. On notera que Ie vecteur nul
est multiple de tout vecteur.
(3) Combinaisons con vexes. On appelle combinaison convexe toute combi
naison lineaire dont les coefficients sont non negatifs et de somme egale Ii 1.
L'ensemble des combinaisons convexes de deux points Pet Q de ~ est le segment
de droite joignant Pet Q. Pour s'en rendre compte, il suffit d'ecrire
aP

1.3.5 Autres espaces vectoriels fonctionnels

a
a

IS

+ (I

- a)Q = Q

a(P - Q),

de fairevarier a de 0 a 1 et de constater que to us les po ints du segment sont ainsi


obtenus (fig. 1.9).

,,"

",'"

""~

,," "
oar;:---.:.:.::--------;;
Q + a(P .' , " ------",,,/
-,
",,,,,,, ., -- ----'"
a(P -

Q)'<

/'" p'

-,

,,//<""

" y"

".

P- Q

Fig. 1.'1

Q)

(
(
Espaces vectoriels et espaees affines

16

Combinaisons lineaires. sous-espaces vectoriels , families generalriccs

17

(
Nous laissons au lecteur Ie soin de verifier que I'ensemble des combinaisons
con vexes de trois points est Ie triangle. eventuellement degenere, dont les sommets
sont ces trois points.
D'une maniere generate, on peut montrer que I'ensemble des combinaisons
con vexes de k > 3 points est Ie plus petit polyedre convexe (polygone convexe si
:(10 designe Ie plan), eventuellement degenere, comprenant ces points.
(4) On dit que Ie vecteur-colonne (x?)de R 3 est solution du systerne d'equa
tions linea ires

3xI - 2x z

-.r.l.t

+ 4x3 =

Xz -

0
5x3 = 0

t+f
ou

(1.2)

I
I

Soit (XI' XZ, , Xt) une famille de vecteurs. L 'ensemble des eombinaisons
lineaires de xI' x 2, ..., Xt est un sous-espaee vectoriel S de E, plus precisement Ieplus
petit sous-espace vectoriel de E (au sens de l'inclusion } eomprenant XI' Xz, ..., Xt

Les vecteurs XI' xz. .... Xt de la proposition 1.4.7 sont appeles generateurs
de S et la famille (XI ' Xz... Xt) famille generatrice de S. On dit aussi que ces
vecteurs ou cette famille engendrent S.

(
,(

1.4.9 Somme et intersection de sous-espaces vcctoriels


(

Soit S et T des sous-espaces vectoriels de E. On appelle somme de S et T,


et on note S + T, I'ensemble des vecteurs de la forme s + r, ou s et un vecteur
de Set tun vecteur de T. A I'aide de la proposition 1.4.7. Ie lecteur constatera
facilemeot que la somme S + T et I'intersection S n T sont des sous-espaces
vectoriels de E. Au contraire, la reunion S U T n'est pas un sous-espace vectoriel
de E, moins que S ne soit contenu dans T, ou reciproquement, En fait, Ie plus
petit sous-espace vectoriel de E con tenant S U Test la somme S + T (cr. exercice
1.12.14).
Les resultats de ce paragraphe s'etendent, de maniere evidente, au cas
d'une famille quelconque (SI' S2' ..., St) de sous-espaces vectoriels de E: la
somme SI + Sz + '" + St, c'est-a-dire I'ensemble des vecteurs de la forme
Sl + Sz +
+ St, ou Sj est un vecteur de S, pour i = 1,2, ... k, et I'intersection
SI n Sz n n St sont des sous-espaces vectoriels de E.

1.4.5 Sous-espaces veetoriels


On appelle sous-espace vectoriel de E tout so us-ensemble de E qui est
lui-meme un espace vectoriel pour les operations d' addition et de multiplication
par un scalaire definies dans E.
Un sous-espace vectoriel, en tant qu 'espace vectoriel, ne peut etre vide.
puisqu'il comprend au moins un vecteur, a savoir son vecteur nul-.celui-ci etant
d'ailleurs forcement Ie vecteur nul de E. en vertu de la regie (5) de 1.2.3. En .l2Utre ~ _
en rneme temps que les vecteurs X et Y, il comprend toutes leurs combinaisons
lineaires ax + Py. Inversement, on voit aussitot que tout sous-ensemble jouissant
de ces proprietes est un sous -espace vectoriel. Nous avons ainsi etabli la proposi
tion suivante:

1.4.8 Geoerateurs, famiUes genera trices

'r designe la deuxieme derivee de f.

Si Ie vecteur x est combinaison lineaire des vecteurs XI ' Xz, ..., Xt et chacun
,de ces vecteurs est combinaison lineaire des vecteurs YI' Yz, ... YI' alors X est
combinaison lineaire de YI ' Yz...., YI '

1.4.7 Proposition

= 0,

1.4.4 Combinaisons Iineaires iterees

(1.3)

Un sous-ensemble S de E est un sous-espace vectoriel de E si et seulementsi


S est non vide et ax + fJy appartient Ii S pour tout couple (x, y) de vecteurs de S
et tout couple (a. fJ) de nombres.

Toute combinaison lineaire de f l et f z est solution de l'equation different ielle

La proposition suivante en decoule aisernent :

si ses termes .~t X~. ~, substitues aux inconnues XI' Xz, X3' verifient les deux
equations.
Toute combinaison lineaire al(x]) + az(x;) de solutions (x]) et (X;) du
systeme (1.2) est encore une solution de ce systeme,
(5) Soit f l et f z les deux fonctions definies par
fl(l) ;: cost et fz(t) ;: sint.

1.4.6 Proposition. Caracterisation des sous-espaces vcctoriels

(
(
(

(
(

(
(
(

(
1.4.10 Exemples

( ,

(I) {o} et E sont des sous-espaces vectoriels de E.


(2) Le sous-espace vectoriel engendre par un vecteur non nul est forme de
tous les multiples de ce vecteur. On appelle un tel sous-espace droite veetorielle.
Un sous-espace vectoriel engendre par deux vecteurs non multiples l'un de I'autre
est appele plan vectoriel. Dans
une droite et un plan vectoriels sont effective
ment une droite et un plan passant par l'origine O.

:o

(
(

(
(
(

~ . . ~--<.. ~_ .~ - - ~ ....., . . ..

18

Espaccs vectoriels et espaees affines


19

Dependance et independance lineaires

(
4

(3) 1R est engendre par les vecteurs-eolonnes

(7) Si X n'est pas multiple de y, S = {z: z = x + ccy, cc e 1R} n'est pas un


sous-espace vectoriel de E, ne serait-ee que par Ie fait que 0 n'est pas element de
S. En particulier, une droite ne passant pas par l'origine n'est pas un sous-espace
vectoriel de ~. (Pour plus de details, voir les sections 1.8 et 1.9.)

~
;1,

ww[f]m

En effet,

[m ~', w+ W+', [f] +', m

..

,.

.! ~ . :
"

J
:1

!i
;~

i~

II

1.5 DEPENDANCE ET INDEPENDANCE LINEAIRES


(1.4)
1.5.1 Caracterisation de I'absence de paraUelisme Ii un meme plan
Si e" e2, e3 sont trois vecteurs de V3 dont les representants ne sont pas
paralleles Ii un meme plan (par convention, une fleche d'intensite nulle est parallele
Ii tout plan), alors tout vecteur x de V3 s'ecrit de maniere unique sous la forme

(4) Les fonctions (, et (2 definies dans (1.3) engendrent Ie sous-espace


vectoriel de
b) forme des solutions de I'equation dilferentielle
+ ( = O. Ce

resultat d'analyse est enonce sans demonstration.

era.

(5) Etant donne cinq nombres 10, ... , 14 arbitrairement choisis, definissons

les cinq polynomes du quatrieme degre Po> ..., P4 par la formule

x = ccle,

OU
p,{/)

==

(t - (0 )

...

(t .:. IJ ... (I - (4 )

\'

CCI' (X2' CC 3

+ CC2e2 + cc3e3'

sont des nombres (fig. 1.10).

(1.5)

(I; - (0) .. . (I; - I; .. . I; - 14J

ou l'accent circonflexe indique I'absence des facteurs d'indice i. II est evident que
P,{IJ

I et p,{/)

= 0 si i

a 3e3

# j.

(1.6)

Nous allons etablir que ces cinq polynornes engendrent I'espace vectoriel de tous
les polynomes de degre inferieur ou egal Ii 4, en demontrant que si P est un tel
polynone, alors

(
(

P(/) == p(la> Po(t)

+ '" +

p(/4 ) plt) iformule de Lagrange).

(I. 7)

"' j

ill

A cet effet, designons par p Ie polynome defini par Ie second membre de (I. 7).

D'apres (1.6),

p(to) = p(to) ' I

p(t 4) = 0

(
(

'(

(
(
<

aiel

+0+

+0

= p(to)

p(tJ' I = P(l4)'

ce qui montre que p et p prennent les memes valeurs en t = to> ..., I = t , done
4
que Ie polynome p - p a au moins cinq zeros. Puisqu'il est de degre inferieur ou
egal Ii 4, nous en concluons qu'il est nul, done que p = p. La formule (1.7) est ainsi
dernontree.
(6) L'ensemble des polynomes de degre inferieur ou egal Ii n est un so us
espace vectoriel de l'espace de tous les potynemes. II est engendre par les monomes
Po: Po(/)

== I , PI: PI(/) ==

I,

... ,

P. : pit)

== 1'.

(un

f
j

,--t
j

Fig. 1.10

En particulier, la seule possibilite d'obtenir Ie vecteur nul comme combinai


son lineaire de e., e2' e3 est d'attribuer la valeur 0 Ii CCI' cc2, cc3
Reciproquernent, si pour trois vecteurs e., e2' e3 de V3 la relation cclel +
a .e. + a,e, = 0 implioue a , = a~ = cc) = O. aucun de ces vecteurs ne peut etre

(
20

21

DCpendance et indCpendance Iineaires

Espaces vcetoriels et espaces affines

(
combinaison lineaire des deux autres, autrement dit, leurs representants ne sont
pas paralleles un meme plan.
Sur la base de ces observations, nous allons etendre la notion d'absence de
parallelisme un meme plan au cas d'un nombre quelconque de vecteurs d'un
espace vectoriel E.

,.
"
;1

1.5,2 Independance et dependance lineaires, famiUes libres et liees

l~'
II
I'

Ii

(6) Si les vecteurs x X2' ... , Xk sont Iineairement independants, les vecteurs
Xi.' X ...., Xi/ (I ~ i l < i2 < ... < i/ ~ k) I~ egalement. En d'autres termes,
i2
toute sous-famille d'une famille libre est elle-meme libre.

On dit que les vecteurs XI. x 2' ..., x t sont lineairement independants si la
relation a.x. + a 2x2 + ... + atxk = 0 implique a l = a2 = ... = a k = 0, autrement
dit, si la combinaison lineaire triviale est la seule combinaison lineaire de XI' x 2
.... xk qui soit nulle. Dans Ie cas contraire, on dit que les vecteurs XI' x 2...., xk sont
lineairement dependants.
Si I'attention est fixee sur la famille (XI' x 2' .... Xk) plutot que sur les termes
dont elle est constituee, on dit que celle-ci est libre ou liee suivant que les vecteurs
x., x 2' .... Xk sont lineairernent independants ou dependants.

Selon la definition 1.5.2. les vecteurs x,. x 2' , x k sont lineairernent depen
dants s'il existe des nombres non tous nuls ai' a 2, , ak tels que alx l + a2x2 +
... + akxk = O.

La proposition suivante generalise l'exemple (2):

(
1.5.5 Proposition. Caracterisation de la dependance lineaire

Pour qu'une famil/e de vecteurs (XI' x2' ..., Xk) (k > I) soit liee, il faut et il
suffit qu'un vecteur Xi soit combina ison lineaire des vecleurs x j avec j i.

DEMONSTRAnON

Si la famille (Xl' X2' ..., Xk) est liee, il existe des nombres non tous nuls a.,
... , at tels que alx. + Cx 2X2 + ... + <XkXk = O. En supposant <Xi non nul et en
2,
cesolvant par rapport XI' nous obtenons

(
XI = .!..(-alx. - ... a).j - ... - akXk)'

aj

ou l'accent circonflexe indique l'absence du terme d'indice i. Cela montre que x


1.5.3 Formulation de la dependance lineaire

est combinaison lineaire des xj avec j i.


Inversement. si x j = <X,x, + .., + <X7xj + ... + akxk' alors <X.x, + ... +
(-l)x + ... + <XkXk = 0, ce qui montre que la famille (x. ! X2' ... , Xk) est liee, car
j
au moins un coefficient de la combinaison lineaire est non nul.

.(
(

(
(
(

1.5.6 Proposition. Critere d'independance lineaire


1.5.4

Exemples
Voici quelques cas ou la definition 1.5.2 s'applique directement.

I
I

(I) Une famille reduite un seul terme X est libre ou liee suivant que X est
non nul ou nul.
(2) Pour qu'un couple (x, y) soit lie, il faut et il suffit que I'un des vecteurs
X ou y soit multiple de l'autre. On remarquera que Ie couple (x, 0) est lie, mais que
x n'est pas multiple de 0 si x O.
(3) Si un des vecteurs XI ' x 2. .... Xk est nul , ~s vecteurs sont lineairement
dependants. car, en supposant Xi = 0, nous voyons que 1a combinaison lineaire
OX I + ... + l~ i~ + ... + OXk est nulle _sans etre triviale.
(4) Si ~ .,;" ifPour un couple d'indices i etj differents, alors les vecteurs Xl'
X2' .... Xk sont lineairement dependants, car. etant admis par exemple que i < j,
la combinaison lineaire OX I + ... + ~+ ... + (-I)xj + ... + OXk est nullesa!l~._
~ tre triviale. Cet exemple et Ie precedent se generaifsent de la facon suivante:
(5) Si les vecteurs XI ' x 2. ..., xk sont lineairernent dependants. alors les
vecteurs XI' .... Xk' xt + l, .... x/Ie sont aussi, quels que soient x k+....., x/ (I> k) .
En d'autres termes, toute famille finie de vecteurs admettant une sous-famille liee
est elle-meme liee.

Pour qu'une famil/e de vecteurs (XI' X2' .... Xk) Soil fibre, il [aut et il suffi:
qu'aucun vecteur X ne puisse s'ecrire de t!eux manieres sous laforme d'une combinai-

(
(

son lineaire des vecteurs XI' X2' .... Xk "

DEMONSTRAnON

Supposons que la famille (x. , X2' ..., Xk) soit libre. S'il existait un vecteur X
tel que
X = <X,x,

+ a2x2 + ... +

akxk = a;x.

<X;X2

+ ... + <XiXk'

avec a j ,p <X; pour au moins un indice i, la combinaison lineaire


(a; - c:;)x.

(a2 - (2)x 2

+ ... + (ak

- <Xi)Xt

(
(
(

serait nul1e sans etre triviale, ce qui contredirait l'hypothese.


Reciproqu<:ment, supposons qu'aucun vecteur X ne puisse etre ecrit de deux
manieres so us la forme d'une combinaison lineaire des vecteurs XI' x 2' ''' Xk ' Alors,
en particulier, Ie vecteur nul ne pou~ l'etre, autrement.dit, la combinaison lineaire
triviale est la seule combinaison lineaire des vecteurs XI' X2' ... , Xk qui s'annule,
done la famille (x.' X2' ..., Xk) est libre.

,.

(
(
(

(
(

22

{
(

Espaces veetoriels et espaees affines

Bases d'un espace vectoriel

1.6 BASES D'UN ESPACE VECTORIEL

I.6.S Proposition

( 'l l:/,

I, :
( I , :!
I;

,I

23

'j

I '

"I,
J.;
~ I

Si
1.6. I Introduction

XI

XI' X2'

+ YI' X 2 + Y2'

Xn

sont les composantes de x et Y r- Y 2 .. .. Yn celles de y, a/ors


+ Yn sont les composantes de x + yet lX..l'., lX..l'2' .. . . aXn

, Xn

celles de ax.

Les families generatrices Iibres jouent un role important en algebre lineaire,


Elles seront etudiees dans la presente section et la suivante.
Comme precedemment. E designera un espace vectoriel.

En d'autres termes, additionner deux vecteurs revient a additionner leurs


cornposantes et multiplier un vecteur par a revient a multiplier ses composantes
par a. La base est done un outil de calcul important. car elle permet d'effectuer
les operations sur les vecteurs au moyen d'operations sur les nombres.

1.6.2 Bases d'un espace vectoriel


1.6.6 Notation

On dit qu'une famille finie de vecteurs est une base de E si elle est Iibre et
engendre E.

De toute evidence. les composantes d'un vecteur dependent du choix de la


base, mais une fois que ce choix est fait, it n'y aura aucun danger d'ambiguite
lorsqu'on ecrira x(x i x 2 .. .. xJ pour exprimer que XI' x 2 .. .. x n sont les composan
tes de x, (Une ecriture rnieux appropriee au cas ou des changements de base
interviennent sera introduite dans 6.5.6.)

D'apres cette definition. toute famille libre (x x 2 , xt ) est une base du


sous-espace vectoriel qu'elIe engendre.

1.6.3 Proposition

Pour qu 'une famille de vecteurs (e., e2... .. en) soit une base de E, il [aut et i/
suffit que tout vecteur x de E s'exprime de maniere unique sous la forme d'une
combinaison lineaire des vecteurs e l , e2, . ... en:
x = xle.

x 2e 2

+ ... +

xnen.

1.6.7 Exemples

(1) La donnee d'une base d~ns ~ equivaut a celie d'un systerne d'axes de
reference d'origine 0 dans :?: Les composantes d'un point de ~ sent, dans ce
cas. les coordonnees de ce point par rapport au systerne d'axes.
(2) Deux (trois) vecteurs lineairement independants de V 2 (V3) forment une
base.
(3) Les vecteurs-colonnes de IRn

(1.9)

L'expression (1.9) est appelee decomposition de x suivant la base (e e2..... en)'


l
DEMONSTRATION

Par definition d'une base. les vecteurs el' e2' .... en engendrent E. done tout
vecteur x s'ecrit sous 1a forme (1.9). O'autre part. puisque el' e . ..., en sont
2
lineairernent independants, la decomposition (1.9) est unique, d'apres la proposi
tion 1.5.6.

I
.~

Reciproquement, si tout vecteur x s'ecrit de maniere unique sous la forme


(1.9). les vecteurs el' e2, ..., en engendrent E et , en outre, ils sont Iineairernent
independants, encore d'apres la proposition 1.5.6. done (e i- e2' ..., en) est une base
de E.

(
1.6.4 Composantes d'un veeteur

Les coefficients XI' x 2, .. .. x n de la decomposition d'un vecteur x suivant une


base sont appeles composantes de x dans cette base.

En presence d'une base. tout vecteur est done entierement determine par ses
composantes.

.j
.~ ,

j'

o
o

(1.10)

.',

.'

i:
h

o
,

oI

10

forment une base que l'on appelle base canonique de IRn Les composantes du
vecteur-colonne (a j ) dans cette base sont c a2, .... an'
(4) Les polynornes Po ... P4 definis dans (1.5) forment une base de I'espace
vectoriel des polynornes de degre inferieur ou egal Ii 4. En effet, ils engendrent cet
espace et, de plus. ys sont lineairernent independants, car la relation CXoPo + ... +
a 4 P4 = 0 implique aopo(t;) + ... + a 4P4(t;) = 0 et done. par (1..6). a j = 0 pour
i = O.... ,4. D'apres (I }), les composantes dans cette base d'un polynome P de
degre inferieur ou egal a 4 sont p(to)..... p(t4 ) ,
(5) Les monornes Po ..., Pn definis dans (1.8) forment une base de I'espace
vectoriel des polynornes de degre inferieur ou egal a n. En effet, ils engendrent cet

(
Dimension d'un espaee vectoriel

Espaces vectorielset espaces affines

24

25

(
(

r.

1.7.4 Corollaire. Existence et extraction d'une base

espace et, en outre. ils sont lineairernent independants, car la relation CXoPo + ...
+ a.p. = 0 s'ecrit aussi sous la forme a o + a.t + ... + a.t' == 0 et implique done
a o = a l = ... = a. = 0 (cf. exercice 1.12.5). Les composantes d'un polynome de

degre inferieur ou egal n dans cette base sont les coefficients de ce polynome,

Tout espace veetoriel de dimensionfinie et non reduit au vecteur nul admet une
base. En fait, de toute famille generatrice d 'un tel espaee on peut extraire une base.

:'1

Soit (V V . ... . Vm) une famille generatrice de E. Si E n'est pas reduit a {o}.
2
au moins un vecteur Vi n'est pas nul. Designons ce vecteur par x. Le corollaire
resulte alors du theoreme 1.7.3 applique aux families (x) et (VI' vl ..... v".).

.,

~. i
! t. :

1\'

q: j

Au long de ce livre. no us nous occuperons principalement d'espaces vecto


riels admettant une base . Un des objectifs de cette section est de caracteriser ces
espaces.
Dans cette section. E designera encore un espace vectoriel.

Ie nombre de termes k est superieur

anest liee.

X. = aiel

On dit que E est de dimensionfinie s'il est engendre par une famille finie de
vecteurs. Dans Ie cas contraire , on dit que E est de dimension infinie.

I
1.

ce coefficient est a l. Dans ce cas.

a2
a.
I
e l = -XI - -el - ... - -e.

1.7.3 Theoreme. Prolongement d'une Camille Iibre

Soit (x x 2
Xk) une famille libre et (VI' vl . .. .. v,J une famille genhatriee
de E. Si (x t- Xl'
Xk) n'est pas une base de E, on prot extraire une sous-famille (Vii '

Vil ..... Vi) de (v V2..... v,J de telle maniere que la famille (XI' .... Xk. ViI' .... Vi) soit

une base de E.
DEMONSTRAnON

.(
(

+ alel + ... + a.e.

Comme x. n'est pas nul . au moins un des coefficients al' 0:2' .. .. a. n'est pas nul.
Quitte aenumerer autrement les termes de la base. nous pouvons admettre que

DEMONSTRAnON

1.7.2 Dimension linie et infinie

Si (el' el' .... e.) est une base de E. toute famille de vecteurs (XI ' Xl' .... Xk) done

Nous raisonnons par I'absurde en supposant que la famille (XI' Xl' .... Xk)
soit libre. Considerons la decomposition de Xl suivant la base (e., el' .... e.):

\1f

(
1.7.S Theoreme

1.7.1 Introduction

:: i.
:lt l

DEMONSTRAnON

1.7 DIMENSION D'UN ESPACE VECTORIEL

Au moins un des vecteurs Vi n'est pas combinaison lineaire des vecteurs XI'
Xl' .... Xk ' sinon (XI' Xl' .... Xk) engendrerait E. en raison de 1.4.4. et serait donc
une base de E. Notons ce vecteur vir La famille (XI' .... Xk' Vi.) est alors libre . En
effet.Ia relation alx l + ... + akx k + PIVil = 0 implique d'abord PI = O. autrement
Vi. serait combinaison lineaire des vecteurs XI' Xl' .... Xk et ensuite a l = a 2 = ...
= ak = O. puisque les vecteurs X Xl' .... Xk sont lineairement independants, Si
la famille (XI' .... Xk' Vi.) engendre E. elle est une base de E et Ie theorerne est alors
demontre, Dans Ie cas contraire, Ie meme raisonnement nous assure de l'existence

d'un vecteur Vil tel que (XI' .... Xk' Vii ' Vil ) est une famille libre. Si cette famille

n'engendre pas E. Ie precede d'extraction de vecteurs Vi de (VI' vl ..... Vm) se

poursuit. Lorsqu'il s'arrete, nous aurons obtenu un prolongement de (x Xl' ...

Xk) en une famille libre engendrant E. c'est-a-dire en une base de E.

al

..

,t

.:t:.
' .~

~~

.,.

al

al

et done (XI' e .. . . e.) est une famille generatrice de E. puisque Ie sous-espace


l
vectoriel qu'elle engendre comprend les vecteurs e l e l . .. . e . Exprimons alors Xl
sous la forme d'une combinaison lineaire de XI' el .. .. e.:

+ Plez + ... + p.e.


Les coefficients Pl' ....P. ne sont pas tous

nuls , sinon XI et Xl seraient [ineairernent


dependants. Sans restreindre la generalite, nous pouvons admettre que Pl n'est pas

nul . ce qui nous permet d'ecrire

Xl = P.x l

e,
o

PI
--XI

Pl

I
P3
+ -x,
- -e3
Pl' Pl

P.
P2

- ... - -e.

.~~.

et done de conclure que (XI' Xl' e3' .... e.) est une famille generatrice de E. puisque
Ie sous-espace vectoriel qu'elle engendre comprend les vecteurs XI' el' .... e. La
suite de la demonstration poursuit ce precede d'echange: el' .... e. sont remplaces
successivement par Xl' .... X . Le resultat montre que la famille (XI' Xl' .... xJ
engendre E. Mais alors Xk est combinaison lineaire des vecteurs XI' Xl..... X ce
qui contredit l'hypothese, en raison de la proposition 1.5.5.

(
(

(
(

(
(

(
(
26

(
(

Ii.

(
(

(
(
(

II

1.

Espaces vectorie ls et espaces atlines

1.7.6 Corollaire

Si (e., e2

Retour aux sous-cspaccs vectoriels, somm cs directes

1.7.10 Isomorphie de E et JR'


,

e.) et (e], ei ..., ek) sont deux bases de E. alors n = k .

DEMONSTRAnON

Du theoreme 1.7.5 nous deduisons que k ~ n. ainsi que n ~ k, par un


echange du role des deux bases. II s'ensuit que n = k.

Tout espace vecto riel E de dimension finie non nulle n peut etre mis en
correspondanee biunivoque avec JR'. II suffit de choisir une base de E et de faire
correspondre Ii tout vecteur x de E Ie vecteur -colonne dont les tennes sont les
composantes de x dans la base cho isie:

R'
x.

x2

1.7.7 Dimension d'un espace vectoriel

Au moyen des corollaires 1.7.4 et 1.7.6. iI est maintenant po ssible d'attribuer


une dimension Ii tout espace vectoriel de dimension finie. Soit E un tel espace. On
appelle dimension de E Ie nombre de tennes d 'une quelconque de ses bases. Si E
se redu it au seul vecteur nul, on dit que sa dimension est nulle. La dimension de
E sera notee dim E.

(
(

x(x x2 .... x.)

(
(

(
(
(

(
(

27

1.7.8 Exemples
2

La dimension de V est 2. celie de V3 est 3 et celie de JR' est n. D'apres


I'exemple (5) de 1.6.7, la dimension de I'espace vectoriel des polynomes de degre
inferieur ou egal a nest n + I. L'espace vectoriel de to us les polynornes et, par
consequent.Ies espaces vectoriels Cla bl et
b) sont de dimens ion infinie. En effet,
ces espaces admettent des families libres arbitrairement grandes, par exemple (Po.
P.. .... P. ). ou les Pisont les monomes definis dans (1.8). n etant pris arbitrairement
grand ; par Ie theoreme 1.7.5, ces espaces n'admettent aucune base, done leur
dimension est infinie, d'apres Ie corollaire 1.7.4.

eta.

(1.11)

x.
D 'apres la proposition 1.6.5, cette co rrespondance conserve les operations
d'addition vectorielle et de multiplication par un scalaire; en d'autres tennes, elle
permet, comme nous l'avons deja fait remarquer, d'effectuer les ope rations sur les
vecteurs par des operations sur les nombres. On dit que E et JR' sont isomorphes,
ou que la correspondance est un isomorphisme (cf. 6.3.7). Evidemment, eet isomor
phisme depend de la base de E choisie.
II importe de noter qu'un espace vectoriel E de dimension n n'admet, en
general, aucune base privilegiee, contrairement a JR' ; pa r consequent. sauf si Ie
cho ix d' une base de E a ete fait. iI faudra eviter de considerer E et R' comme
identiques.

1.8 RETOUR AUX SOUS-ESPACES VECTORIELS.


SOMMES DIRECTES

(
(

1.7.9 Proposition. Caracterisations d'une base

1.8.1 Introduction

Supposons que E soit de dimension fini e non nulle n.


(a) Tout e famille Iibre Ii n termes est une base de E.
(b) Toute famille generatrice Ii n termes est une base de E.

Dans eette section, nous reprenons l'etude des sous-espaces vectoriels d'un
espace vectoriel donne E et introduisons les notions de rang d'une famille finie de
vecteu rs, ainsi que celie de somme directe de sous-espaees vectoriels.

(
DEMONSTRAnON

(
(

E
(
(
(

1.8.2 Rang d'one famille finie de vecteurs

Assertion (a). Une famille libre a n tennes qu i ne serait pas une base se
prolongerait en une base. d'apres Ie theoreme 1.7.3. et la dimension de E sera it
alors superieure a n.

On appelle rang d'une famille finie de vecteurs la dimension du sou s-espace


vectoriel de E qu 'elle engendre.

Assertion (b). D'une famille generatrice Ii n tennes qui ne serai t pas une base
on pourrait extra ire une base. d'apres Ie corollaire I. 7.4. et la dimension de E serait
alors inferieure Ii n.

1.8.3 Proposition

Le rang d'une famille de vecteurs (x ., X2' .. .. Xk) est inferieur ou egal Ii k . II


est ega! Ii k si et seulement si cette famille est fibre.

...

(
(

28

Espaces vectoriels et espaces aflines

Retour aux sous-espaces vectoriels, sommes directes

29

(
(

'~ "

.<
~

}:

,~.

DEMONSTRATION

1.8.6 Hyperplans vectoriels

Ecartons Ie cas trivial ou Ie rang de la famille (XI' x 2' ... xt) est nul. D'apres
Ie eorollaire 1.7.4, on peut alors extraire de cette famille une base du sous-espaee
vectoriel qu'elle engendre. Le rang est done inferieur Ii k ou egal Ii k suivant que
(XI' x 2' ..., Xt) est une famille liee ou Iibre.

Si E est de dimension finie non nulle n, un sous-espace vectoriel de E de


dimension n - I est appele hyperplan vectoriel. Par exemple, un hyperplan vecto
riel se reduit au vecteur nul si n = I, est une droite vectorielle si n = 2, un plan
vectoriel si n = 3.

(
(

.>
~

,..

1.8.4 Proposition. Comparaison de deux rangs

1.8.7 Sommes directes

Pour que Ie rang d 'unefamille de vecteurs (XI ' X2' ..., xt) soit egal au rang de
la famille augmentee (x, x2' , xt , y), if faut et if suffit que Ie vecteur y soit
combinaison lineaire des vecteurs XI' x 2' ..., Xt.

On d it que la somme S + T de deux sous-espaces vectoriels S et T de E est


directe si S n T = {O}. Dans ce cas, on la note S E9 T.
Par exemple, si E est de dimension 2 et (e., e0 est une base de E, alors E
= DI E9 D2, ou DI et D2 sont les droites vectorielles engendrees respectivement
par e l et e2'
Tout vecteur d'une somme directe S E9 T s'ecrit d'une seule rnaniere sous
la forme s + t, ou s est un vecteur de S et t un vecteur de T. En effet, si

DEMONSTRATION

Notons Set Ties sous-espaces vectoriels engendres respectivement par (XI'


x 2' ... Xt) et (X" X2' ..., Xt, y). Si y est combinaison lineaire des vecteurs XI ' X2' ...,
Xt, alors S = T, done les deux rangs sont egaux. Reciproquement, supposons que
les deux rangs soient egaux et montrons que S = T, ce qui nous permettra de
conclure que y est eombinaison lineaire des vecteurs XI ' x2' ..., Xt. Si les deux rangs
sont nuls, il est clair que S = T = {O}. Sinon, une base de S est egalement une
base de T, puisque S est inclus dans T, ce qui entraine que S = T.

1.8.5 Proposition. Sous-espaces veetoriels d'un espaee vectoriel de dimension finie


Si E est de dimension finie et S est un sous-espace vectoriel de E. alors S est
de dimension finie et dimS"; dimE. En outre, dimS = dimE si et seulement si
S = E.

+t

= u

v,

ou s, u sont des vecteurs de S et t, v des vecteurs de T, alors


s-u=v-t
est un vecteur de S n T = {O}, done s - u = v - t = 0, ce qui entraine s = u
et t = v.
Inversement, si tout vecteur d'une somme S + Ts'ecrit d'une seule maniere
sous la forme S + t, ou s est un vecteur de Set t un vecteur de T, alors S n T = {O}
et done S + Test une somme directe. En effet, un vecteur non nul u de S n T
permettrait au vecteur nul d'avoir deux decompositions, a savoir 0 = 0 + 0 et
o = u + (-u).

(
(

'(

.(
(

(
(

(
(
(

DEMONSTRATION

1.8.8 Proposition, Existence d'un sous-espaee complementalre


Designons la dimension de E par n et supposons que celie de S soit infinie
ou finie et superieure Ii n. Par recurrence, nous allons dernontrer I'existence d'une
famille libre (XI' x:' .... xn-r') de veeteurs de S, ce qui contredit Ie theoreme 1.7.5,
vu la definition 1.7.7. Comme S n'est pas de dimension nulle, il comprend au moins
un vecteur non nul x" done (XI) est une famille Iibre. Supposons que (XI' x 2' ...,
Xt) est une famille Iibre de vecteurs de S. Si k est inferieur ou egal Ii n, au moins
un des vecteurs de S n'est pas combinaison lineaire de x" X2' .... x t, sinon S serait
de dimension k, eontrairement Ii l'hypothese. Designons ce vecteur par Xt+I' En
vertu de la proposition precedente, la famille (x, X2' ..., Xk+ I) de vecteurs de S est
alors libre.
Pour dernontrer la seconde assertion, il suffit de poser T = E dans la
derniere partie de la demonstration precedente,

Supposons que E soit de dimension finie. Pour tout sous-espace vectoriel S de


E, if existe un sous-espace vectoriel T de E (non unique) tel que E soit somme directe
de S ~t T. On dit que T est lin sous-espace cornplementaire de S dans E.

(
(

(
DEMONSTRATION

Ecartons les cas triviaux ou S = {O} et S = E. Le sous-espace vectoriel S


admet alors une base (el , e:, ..., et), ou k est inferieur Ii la dimension n de E . Par
Ie theoreme 1.7.3, cette base se prolonge en une base (e, ..., et, ek+I' .... en) de E.
Soit TIe sous-espace vectoriel engendre par la famille (et+I' et+2' ..., e,.}. Si X =
-"lei + -,,:e 2 +
+ x nen est un vecteur quelconque de E, alors X = 5 + t, ou s =
-"lei + x 2e2 +
+ Xk e k est un vecteur de Set t = x ..... lek... 1 + -"k+2ek+2 + ...

(
(

(
(
( /.1
(0

(
30

Espaces aflines

Espaccs vectoriels et espaces aflines

31

(
s,

(
(
(

+ xnen est un vecteur de T. En outre. S n T = {a} car aucun vecteur, excepte Ie


vecteur nul. ne peut etre combinaison lineaire des vecteurs e\. e2... ek et des
vecteurs ek+\. ek+2' ... en' Nous en conc1uons que E = S EB T.
Par exemple, si S est un hyperplan, tout vecteur n'appartenant pas
engendre une droite vectorielle D telle que E = S EB D.

aS

1.8.9 Proposition. Dimension d'une somme directe

Si E est somme directe de deux sous-espaces vectoriels S et T de dimension


finie, alors E est de dimension finie et

dimE = dimS

(1.12)

dimT.

DEMONSTRAnON

Ecartons Ie cas trivial OU un des sous-espaces Set Tse reduit a {O}. Soit (e.,
e2' .... ek) une base de Set (ek+I' ek+2' ... e.) une base de T. II suffit de demontrer
que (e,... ek. ek+\ ... e.) est une base de E. ou , ce qui revient au meme, que tout
vecteur de E s'ecrit de rnaniere unique SOllS la forme d'une combinaison lineaire
des vecteurs el ' ... ek' ek+I' ... en' Or. cela est imrned ia t, car tout vecteur de E s'ecrit
de maniere unique sous la forme 5 + t, OU 5 est un vecteur de S et t un vecteur
de T.

ij

"

(
(

1.9 ESPACES AFFINES


1.9.1 Introduction
L'espace '' de la geornetrie elementaire est a la fois Ie modele usuel et la
source de la notion d'espace affine que nous allons introduire. Cet espace '' est
associe aI'espace vectoriel geometrique v par la correspondance entre fleches et
vecteurs etudiee dans la section 1.1. La definition suivante ne fait que mettre en
evidence les traits dominants de cette correspondance.

1.9.2 Espaces atrmes


Soit if un ensemble non vide d'elements que nous appellerons points et
designerons par les lettres P, Q ... ; soit en outre E un espace vectoriel. Supposons
qu'a tout couple de points (P. Q) corresponde un vecteur note PQ. On dit que
(.! est un espace affine d'espace directeur ou direction E si les conditions suivantes
sont satisfaites :
(a) Pour tout point P fixe. la correspondance entre couples (P. Q) et vecteurs x
est biunivoque, autrement dit , pour tout vecteur x il existe un point Q et un
seul tel que x = PQ.
(b) Pour tout triplet de points (P. Q. R). PQ + QR = PR (relation de Chasles).

1.8.10 Extension
On dit que la somme SI + S2 + .,. + Skdes sous-espaces vectoriels St. S2'
... Sk de E est directe si, pour i = 1.2. .... k, SI n T I = {O}. OU T I est la somme
des Sj d'indice j different de i. On note cette somme directe S\ EB S2 EB ... EB Sk'
De rneme qu'en 1.8.7. on dernontre qu'une somme SI + S2 + ... + Sk est
directe si et seulement si chacun de ses vecteurs s'ecrit d'une seule rnaniere so us
la forme s\ + 5:2 + ... + 5k. OU 5j est un vecteur de SI pour i = I. 2..... k, II est
evident que cette condition est remplie si et seulement si la seule decomposition
du vecteur nul est celie dans laquelle tous les 51 sont nuls.
Si les dimensions de St. S2 .... Sksont finies, la relation (1.12) se generalise
et devient
dim(SI EB S2 EB ... EB Sk) = dim S,

+ dimS2 + ... + dimSk '

1.9.3 Notation
Si P est un point et x un vecteur, pour exprimer que Q est l'unique point
tel que x = PQ. nous ecrirons

Q = P

+ x.

(1.14)

Bien qu'un peu abusive. cette ecriture est commode a I'usage et suggere bien
Ie sens de l'operation qu'elle designe (fig. 1.11).

//Q=P+>

(1.13)

Fig. 1.11

( )
On remarquera que
(

+ (x +

y) = (P

x)

y.

(
(

32

I
I

I,

Espaces vccloriels et espaccs affines

Espaccs affines

33

(
(

1.9.4 Dimension d'un espace affine

Toutefois, cet isomorphisme depend du choix de l'origine 0 et en pratique cette


origine est choisie sur la base de donnees inherentes aux problemes poses. Par
exemple , si une transformation affine admet un point invariant, nous verrons qu'il
y a avantage Ii choisir ce point comme origine.

On appelle dimension d'un espace affine la dimension de son espace direc


teur .

(
(

(
(

1.9.5 Regles de calcul dans les espaces affines

1.9.7 Exemples

Les regles suivantes decoulent directement de la definition 1.9.2.


(I) Pour tout point P,
au cas ou P = Q = R.

PP =

(2) Si PQ
de la regie (I).

= Q. Cela resulte de la condition (a), compte tenu

-Q'P. II suffit de

poser R = P dans la condition (b).


(4) Regie du parallelogramme . "
=
si et seuJement si P'Q' = PQ.
En effet, d'apres la condition (b), " + ~ = ~ = PQ + QQ' (fig. 1.12).
(3)

j'

PQ

= 0, aI6rs

O. Cela resulte de la condition (b) appliquee

P'

i l'
f~

I;

Q'

Fig. 1.12

I0;:''

/Ja.

-Xl

1.9.6 Vectorialise d'un espace affine


Dans 1.3.2, no us avons rnontre comment l'espace 'l/ peut etre muni d'une
structure d'espace vectoriel. Dans Ie cas general d'un espace affine !if, Ie precede
est Ie merne. On choisit un point quelconque 0 de ? La correspondance entre
couples (0, P) et vecteurs de I'espace directeur E etant alors biunivoque (par (a,
tout com me celie entre couples (0, P) et points P, on definit l'addition de points
et la multiplication d'un point par un scalaire par les operations correspondantes
sur les vecteurs de E. Muni de ces deux operations, c' devient un espace vectoriel,
appele vectorialise de I relativement Ii O. Nous designerons cet espace par Co
et appellerons 0 origine.
Vu la rnaniere dont les operations ont ete definies, i! resulte que
isomorphe (cf. 1.7.10) Ii l'espace directeur E:
(f~

P =O+x

E
----

eo est

3x1

r :

(I) II est dit dans 1.9.1 que l'espace ~ . de la geometrie elementaire est un
espace affine. En elfet, sa direction est l'espace geometrique Vet les conditions (a)
et (b) de la definition 1.9.2 sont satisfaites. II faut bien noter qu 'au couple de points
::...--- (P, Q) est associe Ie vecteur PQ et non pas la fleche W. En fait, la fleche pouvant
etre identifee au couple d~ points, nous voyons que ce que postule la definition
1.9.2 n'est rien d'autre qu'une forme abstraite de correspondance entre fleches et
\ vecteurs,
(2) Tout espace vectoriel E peut etre considere com me un espace affine de
direction E lui-meme si au couple de vecteurs (x, y) est associe Ie vecteur y - x.
En effet, les conditions (a) et (b) de la definition 1.9.2 sont satisfaites.
(3) Soit E un espace vectoriel, S un sous-espace vectoriel de E distinct de
E et x un vecteur de E. Nous designerons par x + S I'ensemble des vecteurs z de
la forme x + y, ou y parcourt S. Si x n'appartient pas Ii S, x + S n'est pas un
sous-espace vectoriel de E, car Ie vecteur nul n'appartient pas Ii x + S. Par contre,
x + S devient un espace affine de direction S, lorsqu'on y introduit la correspon
dance entre couples et vecteurs definie dans l'exemple (2). En effet, la difference
de deux vecteurs de x + S est un vecteur de S et les conditions (a) et (b) de la
definition 1.9.2 sont satisfaites.
(4) Pour iIlustrer l'exemple (3), considerons Ie systeme d'equations lineaires
-

2x2 + 4x J =
3
X 2 - 5x; = -4.

(1.15)

.(

(
(

(
(

Comme dans l'exemple (4) de 1.4.3, nous appellerons solution de ce systeme tout
vecteur-colonne (x?> de IRJ dont les tennes x~, x~, xg verifient les deux equations.
Prenons une solution particuliere de ce systeme, par exemple

[~]

Nous obtenons alors la solution generale en additionnant Ii cette solution particu


liere une solution quelconque du systeme (1.2) (cf. 3.5.5). En d'autres tennes,
l'ensemble des solutions de (1.15) s'ecrit sous la forme

[i]

(
(

(
(

(
(

+ S,

ou S est Ie sous-espace vectoriel de IRJ forme des solutions du systeme (1.2).

(
(

Sous-espaces affines. parallelisme

Espaccs vectoriels et espaees affines

34

1.10.3 Proposition

1.10 SOUS-ESPACES AFFINES, PARALLELISME

Soit !/ le sous-espace affine difini par Po et S.


(a) Si P est un point quelconque de g; alors !/ = P + S.
(b) S = {x: x = PQ, P, Q e .'7'}.

1.10.1 Introduction

L'exemple (3) de 1.9.7 et son illustration (4) nous suggerent lanotion de

sous-espace affine que nous allons introduire. Les sous-espaces affines de I'espace

:~

affine

de la geometrie elementaire sont les points, les droites, les plans et :9'

lui-meme,

Dans ce qui suit, if designera un espace affine de direction E.

On dit qu'un sous-ensemble Y de if est un sous-espace affine s'il existe un


point Po de (S et un sous-espace vectoriel S de E tels que

.Y = {P: PJe S} = {P: P = Po + x, xeS}.

On notera que !/ ainsi defini n'est pas vide, car iI comprend au moins Ie
point Po.
Suivant I'exemple (3) de 1.9.7, nous designerons Ie dernier membre de (1.16)
plus brievement par Po + S, ce qui nous permettra de considerer un sous-espace
affine comme un sous-ensemble Y de (f de la forme

(
(
(

(
~~
~

= Po

(1.17)

S,

ou Po est un point de if et S un sous-espace vectoriel de E.


On prendra garde a bien distinguer les differentes significations du signe + :
addition dans E, addition d'un point et d'un vecteur, addition d'un point et
d'un sous-espace vectoriel.

1.10.4 Espace directeur


D'apres la proposition 1.10.3, Ie sous-espace affine Y' defini par (1.16) ne
depend pas du choix de I'origine)) Po et determine Ie sous-espace vectoriel S. On
dit que S est I'espace directeur ou la direction de Y

1.10.5 Sous-espaces aftlDes comme espaces affines


Soit Y"un sous-espace affine de if de direction S. A l'aide de la proposition
1.10.3, DOUS voyons que la correspondance heritee de {f entre couples de points
de Y' et vecteurs de S fait de Y' un espace affine dans Ie sens de la definition 1.9.2.

1.10.6 Dimension d'un sous-espace atrme

~~

On appelle dimension d'un sous-espace affine !/ de It la dimension de Y


en tant qu'espace affine, c'est-a-dire la dimension de l'espace directeur de Y.

Assertion (b). En vertu de (a), pour tout couple (P, Q) de points de .9: PQ
est un vecteur de S. Reciproquement, si x est un vecteur de S, choisissons un point
quelconque P de Y et posons Q = P + x. D'apres (a), Q est un point de g; done
x est bien un vecteur de la forme PQ, avec P et Q des points de Y:

(1.16)

En d'autres termes, Y est un sous-espace affine si, pour un point Po de if,


.'7' est un sous-espace vectoriel de lfpo (fig. 1.13).

Assertion (a). Posons .'7" = P + S. II suffit de montrer que .Y' est inclus
dans 51; car I'argument symetrique nous foumira l'inclusion opposee et done la
conclusion Y = ..9: Soit Q un point de Y '; c'est-a-dire un point tel que PQ
appartienne a S. Puisque P est un point de g;
appartient a S. Mais PoQ =
P;P + PQ, par la condition (b) de la definition 1.9.2, donc ~ appartient aussi

a Set, par consequent, Q est un point de Y


1.10.2 Sous-espaces affines

DEMONSTRATION

PJ

35

1.10.7 Intersection de sous-espaces affines

Soit Y et
deux sous-espaces affines de (;f. Si .'7' et .!F ont au moins un
point commun P, leur intersection est un sous-espace affine de if de direction
= {Q: PQ e S} n {Q : PQ e T}
l'intersection de leurs directions. En effet, .Y n
= {Q: PQ e S n T}, ou Set T sont les directions respectives de .Y et de .!i":

.r

(
(
(
(,

Fig. 1,13

.r

(
36

Rcpercs. representation parametrique, geometric analytique affinc

Espaces vcctoricls et cspaces affincs

31

(
(

1.10.8 Sous-espaces aflines engendres

1.10.12 Deux resultats

Forrnulees en termes de droites et de plans de ~ les deux assertions sui


vantes deviennent des enonces bien connus de la geometric eIementaire.
(I) Generalisation du cinquieme postulat d'Euclide. Soit P un point de if
et J un sous-espace affine de (if. II existe un unique sous-espace affine ,;T de if
parallele a y au sens etroit et comprenant P. En effet, ce sous-espace affine est

Soit .Y un sous-espace affine de if de direction Set PI' P2, , PI des points


de if. On appelle sous-espace affine engendre par :/ et PI' P2, , Pile plus petit
sous-espace affine .;'-contenant Y et comprenant PI' P2, ..., PI' Si S admet une
base (VI' v2, ..., vt ) , on voit aisement que la direction de J est Ie sous-espace
vectoriel engendre par les vecteurs VI' .. . , vt , ~ ....,
ou Po est un point
quelconque de Y . Par exernple, Ie sous-espace affine de ~' engendre par une droite
et un point est Ie plan passant par cette droite et ce point (suppose hors de la
droite).

M,

tout simplement J - = {Q: PQ E S}, ou S est la direction de !/.


(2) Position relative de deux sous-espaces affines paralleles. Si deux sous
espaces affines sont paralleles, soit i1s sont disjoints, soit l'un d'entre eux est inclus
dans I'autre. S'ils sont paralleles au sens etroit, soit ils sont disjoints, soit confon
dus . II suffit en elfet de choisir comme point Po des representations (1.16) des deux
sous-espaces affines un point de leur intersection (dans Ie cas ou celle-ci n'est pas
vide), pour que la conclusion decoule de la definition 1.10.11.

1.10.9 Exemples

(I) Comme deja annonce et illustre (fig. 1.13), les sous-espaces affines de
0/ sont les points, les droites, les plans et ' lui-rneme.
(2) L'espace affine t! est un sous-espace affine de lui-rneme. Pour s'en
rendre compte, iI suffit de mettre E a la place de S dans (1.16). .
(3) Pour tout point Po de ft, {po} est un sous-espace affine. On voit cela en
posant S = {o} dans (1.16).
(4) Un sous-espace affine de dimension nulle se reduit a un seul point. Un
sous-espace affine de dimension I est appele droite affine ou simplement droite; un
de dimension 2 plan affine ou simplement plan. II est clair qu'une droite est
determinee par deux de ses points et un plan par trois de ses points non alignes,
c'est-a-dire n'appartenant pas a une merne droite.

(
(
(
(

(
(
(

(
(

1.11 REPERES, REPRESENTATION PARAMETRIQUE,


GEOMETRIE ANALYTIQUE AFFINE

(
(

,(
1.11.1 Introduction

Comme pour Ie choix d'une base dans un espace vectoriel, Ie choix d'un
n
repere dans un espace affine de dimension n permettra d'identifier cet espace a R
et, par ce moyen, de traiter les problernes geometriques par des calculs sur les
coordonnees (geometric analytique).
Dans cette section , (( designera un espace affine de dimension finie non nulle

n et de direction E.

1.10.10 Hyperplans affines

Si ~. est de dimension finie non nulle n, un sous-espace affine de if de


dimension n - I est appele hyperplan affine ou simplement hyperplan. Un hyper
plan est donc un sous-espace affine de direction un hyperplan vectoriel. Par
exemple, un hyperplan est un point si n = I, une droite si n = 2 et un plan si n = 3.

1.11.2 Reperes

On appelle repere de if tout ensemble (0 ; e l, e2' ..., en> forme d'un point
0, appele origine, et d 'une base (e" e2' ..., en) de E.

(
(
(

(
(

(
(

1.11.3 Remarque

1.10.11 Parallelisme

Soit c/ et f des sous-espaces affines de tf de directions respectives Set T.


On dit quev et . /- sont paralleles si l'une des directions Sou Test incluse dans
l'autre. Si S = T, on dit aussi que Y et ./ - sont paralleles au sens etroit,
On remarquera que ces deux notions de parallelisme s'equivalent lorsqu'el
les sont appliquees a des sous-espaces affines de rneme dimension finie (en raison
de la seconde partie de la proposition 1.8.5). En les appliquant au cas particulier
de '-:, nous retrouvons les notions usuelles de parallelisme entre droites, entre plans
et entre droi tes et plans .

.;.;;.

...'

, ,
2

On peut concevoir un repere sous la forme d'une famille de points (0; PI'
Pn) telle que (~, OP;, .... OP,,) est une base de E.

(
(
(

(
1.11.4 Coordonnees

On appelle coordonnees cartesiennes ou simplement coordonnees d'un point


P dans un repere (0 ; el' e2' ..., en) les composantes du vecteur 75P dans la base
(e. , e2' .... en)'

(
(

(
(

Espaces vectoriels et espaces affines

38

Reperes, represenlation parametrique, gcomclrie analytique affine

39

Si XI' X2 .. Xn sont les coordonnees d'un point Pet YI' Y2 .. Yn celles d'un
point Q. les composantes du vecteur PQ = OQ - OP sont YI - XI' Y2 - x2 ...
Yn - x n Inversement, si XI' x 2 ... x n sont les coordonnees d'un point Pet zi' Z2.
... Zn les composantes d'un vecteur z, les coordonnees du point Q = P + z sont
XI + Z x 2 + z2' ... x n + Zn. car Pet Q sont lies par la relation PQ = OQ - OP

(
(
(

Une droite est determinee par un de ses points et un vecteur directeur, un


plan par un de ses points et deux vecteurs directeurs.

z.

Par la suite. un point P defini par ses coordonnees XI' X2' .... x n sera designe

par P(x I' x 2 .... x n).

1.11.7 Cas particuliers

;~

1.11.5 Representation parametrique d'un sous-espace affine


(

Soit .!/ un sous-espace affine de {f de direction Set de dimension non nulle


k. Soit en outre Po un point de .Y et ("I' "2' .... "t) une base de S. D 'apres (a) de
la proposition 1.10.3. un point P appartient a .9" si et seulement si P = Po + x
ou x est un vecteur de S. c'est-a-dire un vecteur de la forme aivi + a2v2 + ... +
akvk , II s'ensuit que .Y est I'ensemble des points P satisfaisant a la relation

.i

P = Po
ou

aiv i

al. a 2 at

a2 v2

+ ... + atvk

(1.18)

sont des variables parcourant R. Cette relation est appelee

V.XI

a la dimension de .Y (fig. 1.14).

~.
~

~!
)

P = Po + av
= x~ + aVI

P = Po + all'. + a 2"2
x. = x~ + a .vlI + a2 v12
X 2 = x~ + alv21 + a 2vn
xJ = x~ + a1vJ. + a2 v J2 .

XI

X2 = x~
= x~

XJ

+
+

aV2
aVJ

(1.20)

Supposons que n soit superieur a I. Si k = n - I. les equations parametri


ques (1.19) sont celles d'un hyperplan. Par Ie precede d'elimination (cf. exemple
(2) de 3.1.6). n - I equations peuvent etre utilisees pour eliminer les n - I para
metres al ' a 2..... an_I de l'equation restante. Le resultat sera une relation lineaire
entre les coordonnees XI' X2 .... Xn plus exacternent une equation de la forme

.~~

Plan:

1.11.8 Equation cartesieDDl; d'un hyperplan

representation parametrique de .9: Les vecteurs VI' v2. .... vt sont appeles vecteurs
directeurs de .Y et les variables a l a 2..... at parametres de la representation. On
notera que Ie nombre de parametres est egal

Representation
parametrique:
Equations
parametriques
dans Ie cas n = 3:

Oroite:

vr2

+ ... +

VnXn = ~.

. (1.21)

ou VI' V2 . .. . Vn sont des nombres non to us nuls et a est un nombre pouvant


s'annuler, auquel cas I'hyperplan passe par I'origine O. Cette equation est appelee
equationcartesienne ou simplement equation de l'hyperplan. Les coordonnees d'un
point P satisfont a (1.21) si et seulement si P appartient a l'hyperplan.
Reciproquement, to ute equation de la forme (1.21) est l'equation d'un
hyperplan, a condition. bien entendu, que les coefficients VI' v2 ... . vn ne soient pas
to us nuls . En effet, si par exernple Vn est non nul. les solutions de (1.21) peuvent
etre ecrites sous la forme
X. = a l

x 2 = a2

Fig. 1.14

Xn_1 =

1.11.6 Equations parametrtques

Supposons main tenant que if soit muni d'un repere (0; e e 2..... e,,). En
designant par x x2 .... x n et x~. x~ .. x~ les coordonnees respectives de Pet Po
et par Vlj' Vu. .. .. Vn j les composantes de Vj. nous voyons que la relation (1.18) s'ecrit,
de rnaniere equivalente, sous la forme

{
(

(
(

XI = x~
x 2 = x~

+
+

Xn = x~

a.v21

+ a2 vI2 +
+ a2vn +

a1vnl

+ a2vn2 + ... +

alvlI

+ 'akvlk

+ akv2k

akvnk'

Ces equations sont appelees equations parametriques de .'/.

. ';,.

xn =

Vn-lan _I'

vn

ou al. a 2. .... an _I sont des variables parcourant R. Ces equations sont de la fa nne
(1.19) et representent done un hyperplan.
Dans Ie cas particulier ou n = 2.
vlXI

(1.19)

an _I

a VI

- - -a.
v
v

Vr2 =

est l'equation cartesienne d'une droite et dans celui ou n = 3.

v.XI

vr2

vJxJ

est l'eouation cartesienne d'un olan.

(
_:,.1

40

Excrciccs

Espaces vectoriels et cspaces allines

41

- i - 2a

1.I 1.9 Problemes de geometrie analytique affine


.~

La geometrie analytique affine traite les problemes de la geornetrie affine


(parallelisme, incidence, ...) par des ealeuls dans R". Voici quelques problemes
resolus.

t+

r.~

~ t~

:j
?~

.",r1.,
.:z

vJ = ~(-4, 5, -2,3) . (

': 9~~:

,.

~~

I - 20: 1
. 2et l
3 - 3a l
= - I + 4a 1

X4

a2

4a ) (

s.

5aJ
(

- 4a 2 - 2aJ I

+ 3a~ + 3a J . /

....

~I'interseetion des deux plans d'equations parametriques


a l + 2a 2 (
x2 =
I - a l + a2 (
x J = - I + 2a 1 a2 r
X 4 = - 2 + a l + a2' I
XI =

a; ,,
x2 =
I + a; + ai

xJ = - I
+ 2a; ,

X 4 = - 2 + 2a; + 3ai. I
XI

I -

Solution. Deux veeteurs directeurs du pre~r plan sont ~I , -1,2,1) et


Vv2(2, I, -I , I), deux du deuxierne v,(-I , 1,0,2) et v;(O, 1,2,3(. Ces quatre vee- .
teurs sont lineairernent independants, done aueun vecteur, sauf Ie veeteur nul, ne /
pcut etre en rneme temps eombinaison lineaire de vI et v2 et de v; et v;. Cela entraine
que ('intersection des deux espaces directeurs est {O}. D'autre part, en posant a l /
= a 2 = a, = a i = 0 dans les equations parametriques, nous voyons que Ie point /
Po(l , I, - I, - 2) appartient aux deux plans . Nous en eoncluons que I'intersection
cherchee se reduit au point Po.

= - i - 2a
t + 3a

XI

Xl

= -I + 2a'

XJ

x) =

XI

6a,

a'

<'

4a .

<.
(

+ 3xJ - 4x 4 = 4,
parallelement a une droite de vecteur directeur v( I, 4, 3, -

1).
Solution. Les equations parametriques de la droite passant par P de veeteur

directeur v sont

xJ
X4

1+
= -3 +
= -2 +
=
1-

.(
(

(
a

4a

3a
a.

La projection cherchee est Ie point d'intersection de eette droite et I'hyperplan


donne. Ses coordonnees s'obtiennent en determinant la valeur de a pour laquelle
les seconds membres des equations parametriques verifient l'equation cartesienne
de l'hyperplan. Cette valeur est a = I, done les coordonnees de la projection de

P sont 2,

,(

x2

XI -

r, 1, O.

(
(

(
(

(3) Deux droites '/ et '/ ' sont donnees par leurs equations parametriques

X2

+ 2a

d'equation

Xl
/

(4) Determiner la projection du point P(I, - 3, -2, I) sur l'hypcrplan

XI

./

+ a

Une autre maniere de resoudre ce probleme eonsiste a ealeuler I'intersection


des deux plans definis par Po et chacune des deux droites g et :;&' .

' .' .,~

I
x2 =
I
X J = -I

XI

Ses equations parametriques sont done

x2 =
xJ =

+ a ')
+ 20:')
+ a ').

En multipliant la deuxieme equation par 2 et en la soustrayant de la troisierne, nous


obtenons aussitot a ' = 3, ee qui nous permet de ealculer les coordonnees de P',
a savoir 3, 5, 7. En prenant alors pour vecteur directeur de la droite cherchee Ie
veeteur fp;;Y, nous voyons que les equations parametriques de celle-ci s'ecrivent

't'"

= M(-2, 2, -3,4) (

v2 = PoP;(-I, 0, -4,3) r

XI

= P(-I

3a = P(- 2
6a = P( 5

.' -';'.

..f
;jJ

VI

:~

; !,

equations pararnetriques du sous-espace affine engendre par


les pain so ' , 3, -I), PI(-I, 2, 0, 3), P~(O , 0, -1 ,2), P)(-3, 5, I, 2).
Solution. .T rois veeteurs direeteurs de ee sous-espace affine sont

(
(

1.12 EXERCICES

4+ a '.

(
(

Determiner les equations pararnetriques de la droite passant par Ie point


PoCI, I, -I) et rencontrant i/.' et :j' ',
Solution. Les points d'interscction P de . ~". et la droite cherchee et P' de
'/ ' et cette merne droite satisfont ala relat ion P;P = PPoP', au Pest un nombre
inconnu non nul. En cornposantes ceue relati on s'exprirne par les trois equations

1.12.1 Montrer que les vecteurs-colonnes

[iJ. [-:]. m m

(
(

42

Espaces vcctoricls ct espaces atlines

43

Excrcices

(
(
(

[~;]

engendrent R 3 et exprimer Ie vecteur-colonne


lineaire de ces vecteurs

1.12.9 Soit (e., ez) une base d'un espace vectoriel E de dimension 2. Montrer
que les familles de vecteurs (e, + e2 ez). (el + ez. e t - ez) et (e., e2 + ae l) (a etant
un nombre arbitraire) sont des bases de E. Calculer, en outre, les composantes de
e l et e2 dans chacune de ces bases.

comme combinaison

(
(
(

1.12.2 Montrer que toute fonction de la forme f(t) == asin(At + Ii) (a. A ~
0, Ii E [0. 21t est combinaison lineaire des fonctions s(t) == sin(At) et c(t) == cos (AI)
et, inversernent, que toute combinaison lineaire de s et c est une fonction de la
meme forme que f.

1.12.10 Dans chacun des cas suivants, dire si la famille (fl' f2 f) est une base
de I'espace vectoriel des polynomes de degre inferieur ou egal a 2. Si oui , trouver
les composantes dans cette base des monomes Po(t) == I. p,(t) == t et pz(t) ==
(a) f,(t) == I
f 2(t) == 2 - t +
f)(t) == -6 + 3t (b) fl(t) == 1 + 2t
fit) == I - 2t
f 3(t) == t.
(c) fl(t) == t , fit) == t
fit) == I + t +

+,z.

(
(
(

1.12.3 Exprimer Ie polynome pet) == 1 + t4 sous la forme d'une combinai


son lineaire des polynomes Po' PI. P2' P3 et P4 definis dans (1.5).

dl
d2
d3
d4

,z.

{(a): a, = O}. {(a): a2 = I}. {(aj : 20 1 - 04 = O}. {(a) : a 104 = as}.


{(o): a. rationnel},

a,o fbib2 rCIC2 r


o '
o

0 '

C3

sont lineairernent independants si et seulement si al' b2,

I I" ,)

C3

et d4 sont differents de O.

(
(

+,z.

,z.

R S?

1.12.4 Dernontrer que les vecteurs-colonnes

+,z.

3r.

1.12.11 Les sous-ensembles suivants sont-ils des sous-espaces vectoriels de

(
(

+,z.

,z.

1.12.5 En derivant n fois la relation aD + a, t + ... + ant' == 0, montrer que


les monomes Po' PI' ... P. definis dans (1.8) sont lineairement independants.

.~.

1.12.12 Soit (e., e2, ..., e6 ) une base d'un espace vectoriel E de dimension 6.
Soit S Ie sous-espace vectoriel de E engendre par les vecteurs e, - e2' e) + e4 et
e, + e6 Quelles conditions doivent satisfaire les composantes d'un vecteur X de
E pour qu'il appartienne a S?

(
(
(
(

1.12.13 Soit E un espace vectoriel de dimension 4. muni d'une base (e., e2


e). e4) .
(a) Montrer que l'ensemble S des vecteurs x de E dont les composantes X I' x~ . x).
X 4 satisfont Ii la condition XI - 2x z + X3 - X 4 = 0 est un hyperplan vectoriel.
(b) Exhiber une base de S.
(c) Trouver un sous-espace complementaire de S dans E.

1.12.6 Montrer que les fonctions fl(t) == 1. f 2(t ) == e' et f 3(t) == e2J sont
lineairement independantes,

l ~ rJ e~ \
, ;-.:>

\\), I"J ~ ct' ~ 0


.I

='':> 01-. ,

~~.

1.12.7 Soit (x x~ . .... x k ) une famille libre de vecteurs d'un espace vectoriel
E. Soit (YI ' Yz ..., Yk) une deuxierne famille de vecteurs de E. On suppose que
chaque vecteur Xi soit combinaison lineaire des vecteurs Y" Y2' ..., Yk' Montrer que
la famille (y,. Y2' ... Yk) est libre .

(
(

(
/

1.12.8 Soit (e., e~. e3 e4 ) une base d'un espace vectoriel E de dimension 4.
(a) Montrer que les vecteurs v, = e l + e 2 + e4 v2 = e, - ez + e3 - 2e4 et
v3 = -e. + ez - e3 + e, sont lineairement independants,
(b) Prolonger la famille (vI' v2 v3) en une base de E.

; :~
~
.~

>?
..
'::
l

1.12.14 Soit Set T deux sous-espaces vectoriels .d'un espace vectoriel E.


(a) Demontrer que la somme S + T et l'intersection S n T sont des sous-espaces
vectoriels de E.
(b) Demontrer que S + Test I'intersection de tous les sous-espaces vectoriels U
de E tels que U ; j SU T.

44

Espaces vectoriels et espaees affines

1.12.15 Soit S et Ties sous-espaces vectoriels de R 4 engendres par les


familles respectives
1

-I
2 1

-2

-I

-2

-II .

5
-1

) et (

2 1

XI

Xl =
X4

1 I) .

Determiner les dimensions de Set de T. ainsi que celles de S

T et de S

n T.
~,

1.12.16 Soit S. T et U trois sous-espaces vectoriels d'un espace vectoriel E.


(a) Montrer que S + (Tn U) c (S +
n (S + U).
(b) Montrer que si SeT. les deux membres de I'inclusion sont egaux.
(c) Trouver un exemple montrant que l'egalite n'est generalement pas vraie.

n + dimeS n n

;,

Z!, ~

2 - a; - ai
3 + a; - ai
Xl = -2 + (X; + ai
x4 =
4 - a; + ai .
XI =

a2

;j ,
.~

dim T.

(
(

('
(
(

2o: l

a l

a l

al

x2 =

I + a l - 2a2 +
X2 =
I + a l + a2 .+
Xl =
2
- a2 X4 = - 2 - a l 3a2 -

('

(
f

= dimS

XI =

1.12.17 Soit S et T deux sous-espaces vectoriels de dimension finie d'un


espace vectoriel E. Montrer que

+ al

+ a l + a2
-3 + a l - a2
1 + a l + a2'

Xl + 2x 4 = 2 et ...r Ia droite passant par


le point Po(I, 5, 3.1) et de vecteur directeur v(l. O. I.-I).
(d} Y est l'hyperplan d'equation XI - 3x2 + X 4 = 3 et f ie plan passant par Ie
point Po(l. 0, 3.-2) et de vecteurs directeurs vl(-I. O. I. I) et v2(1. I. -2. I).
(e)Y est l'hyperplan d'equation XI - 3x2 + Xl - 2x4 = 4 et ..7 I'hyperplan
d'equations pararnetriques

"

dimeS

1
2

(c)Y est !'hyperplan d'equation 3x I

-1

X2 =

3
-I

3I.

45

Exercices

(
(

En deduire la relation (1.12).

.'-~:

l
:l.,

1.12.21 Soit ffo Ie vectorialise relativement a une origine


d'un espace
affine if de dimension finie superieure a I ou infinie. Etudier Ie lieu geometrique
des points de la forme (a - fJ)P

+ PQ. ou

Pet Q sont des points distincts de

ffa.

ae(-oo.l] etpeR

-(

.c
(
(

't',

". '

Exercices sur les espaces affines


1.12.18 Soit

+ Xl - 2x4 =
-' -1 = --x 2 - I = Xl - 2

I'hyperplan d'equation

geometnque
.
. .
defini
'
.
Ileu
-XI
e m par Ies equattons

3:<1 -

X2

a une

= x2 + I = Xl -

X4 + 2
x j - -I sur l'h yoerp Ian d"equation
, 2XI
- = -

,
x, = _.

-I

4'

1.12.22 Soit Wo Ie vectorialise relativement une origine


d'un espace
affine [f de dimension 3. Soit PI' P2, P l et P4 quatre points n'appartenant pas a
un meme plan. Montrer que I'ensemble des combinaisons convexes de PI' P2 P l
et P4 est le tetraedre dont les sommets sont ces quatre points.

(
(

.',

dirccteur v(- I, 2. I, 2, - 2) de la droite d'equations XI _ 2


.
'

+ 3x, -

t'.

-4

droite de vecteur
2

X4 + I
= -.

-2
2
(a) Montrer que !jJ est une droite et ecrire ses equations pararnetriques.
(b) Calculer les coordonnees du point d'intersection de 'd et ..9:

. 1.12.19 Determiner la projection parallelernent

I et q Ie

.C

:.':4
~

i
~.

1.12.23 Soit if un espace affine muni d'une origine 0 . Soit (PI' P2 . .. , Pk )


une famille de points de if et (ai' a2' .... ak) une famille de nombres telle que a
= a l + a 2 + ... + a k ;c 0, On appelle Ie point G de if defini par la relation OG
1 ------.
--+
- - ..
.
.
,
= ~(aIOPI + a 20P2 + ... + akOPk) barycentre des points PI' P2, .... Pk affectes
des coefficients respectifs

aI ' a 2, .. ., ak'

Lorsque a l

appelle G centre de gravite des points PI' P 2


1.12.20 Dans chacun des cas suivants, etudier la position relative des sous
espaces affines y ' et .'/":
(a}j est l'hyperplan d'equation XI - X2 + X 4 = I et ,,;n e plan passant par ies
points PIO, 1.2.2). N2. 2. 4,2) et Pl(I, 3, 1,4).
(b} j ' et .T sont les plans d'equations pararnetriques respectives

.. ..

= (l2 =

...

= (lk = ~.

Pk

(a) Montrer que la definition de G ne depend pas du choix de I'origine 0.


(b) Situer Ie centre de gravite des sommets d'un triangle .

11

:j
I

on

(
(

(
(

(
(,
/

(
(

46

Espaces vectoriels et espaces allines

I
(

1.12.24 Suite de l'exerciceprecedent. Soit N. , N 2, , Niles ensembles d'une


partition de {I, 2, ..., k}. Pour i = 1,2, ..., I, on suppose que Pi = 1:aj soit non

CHAPITRE

jeNi

nul et on designe par Gi Ie barycentre des points Pj avec j E N j , affectes des


coefficients a j.
(a) Montrer que G (defini dans l'exercice precedent) est Ie barycentre des points
G., G2, ..., GI affectes des coefficients respectifs PI' P2' ..., PI'
(b) A l'aide de (a), situer Ie centre de gravite des sommets d'un tetraedre,

Espaces vectoriels euclidiens

et espaces affines euclidiens

(
(

1.12.25 Soit.9; .Y' et .9''' trois hyperplans paralleles d'un espace affine de
dimension finie superieure a I. Soit en outre 9., 9 2, , des droites du meme
espace, non paralleles a .9'. On designe par Pi' P; et P;' les points d'intersection
respectifs de Y: ..9", .9''' et gj' Montrer que PiP;' = ap;p;, avec a independant
de i (theoreme de Thales).

2.1 PRODUIT SCALAIRE DANS L'ESPACE VECTORIEL


GEOMETRIQUE
2.1.1 Introduction
Dans Ie present chapitre, nous etudierons les not ions qui derivent de la

donnee d'une nouvelle operation sur les vecteurs, celie de produit scalaire. II s'agit
de notions metriques telles que la nonne ou I'orthogonalite, Dans l'espace vectoriel
geornetrique V, on peut definir un produit scalaire en partant des idees de longueur
et d'angle, Muni de ce produit scalaire, V devient un exemple de ce que nous
appellerons espace vectoriel euclidien (cr. definition 2.2.3).
Tout au long de cette section, les vecteurs seront les elements de V.

2,1.2 Longueur, angle


~.

(
(

.j

En choisissant une unite de longueur, nous pouvons mesurer l'intensite de


chaque fleche, autrement dit, determiner sa longueur. Nous pouvons aussi mesurer
l'ecart angulaire de deux fleches quelconques d'origine commune (non necessaire
rnent distinctes) en prenant comme unite de mesure par exernple Ie radian. La
mesure de cet ecart est aloes un nombre compris entre 0 et It, appele angle des deux
fleches. Si les deux fleches ont meme direction et meme sens, leur angle est nul et
si elles ont rneme direction et sens oppose, ce meme angle est It.

(
2,1,3 Norme, angle de deux vecteurs
(

(
1:

Les fleches representatives d'un rneme vecteur x ont toutes la meme lon
gueur . Nous designerons cette longueur par II x II et I'appellerons norme de x. II
est clair qu'un vecteur est nul si et seulement si sa nonne est nulle. Nous dirons

qu'un vecteur est unitaire si sa nonne est 1. Si x est un vecteur non nul, _I-x est

( '

un vecteur unitaire, puisque la nonne de ax est lalll x II .


Nous appellerons angle des vecteurs non nuls x et y l'angle de deux fleches
d'origine commune representant l'une x et l'autre y.

i1x II

Espaces vectoriels euclidiens et espaces allines euclidiens

48

Produil scalaire dans l'espaee vectoriel gComClrique

Cette expression vaut egalement dans Ie cas ou x est nul, a condition d'admettre
que la projection orthogonale du vecteur nul est Ie vecteur nul. La norme de proj,x
s'ecrit

2.1.4 Produit scalaire

On appelle produit scalaire des vecteurs non nuls x et y Ie nombre


II x 1111

y II cosO,

(2.1)

II proi~y x II

ou 0 est I'angle de x et y. Si x ou y sont nuls, Ie produit scalaire est nul par


convention.
Nous noterons Ie produit scalaire de x et y par (x I y). D'autres syrnboles
couramment utilises sont (x, y), ( x, y), x-y,
On remarquera que (x I x) = II X 11 2

= I(x I v)111 v II = I(x I v)1


II V 11 2
II v II

(2.3)

(x I v)v,

II

proj.x

II

I(x I v)l

proj.(x

+ y) = proj,x + proj.y, proj.cx = e proj.x.

(2.5)

~, ou si l'un d'entre eux est nul.

En vertu de la definition 2.1.4, x ct y sont done orthogonaux si et seulement


si (x I y) = O.

'.
~~

l;.

i
f

"j:'

2.1.6 Projection orthogonale


La projection orthogonale d'un vecteur non nul x sur la droite vectorielle
engendree par un vecteur non nul vest Ie vecteur

/,1
WI
{!
'\

:'.1

i lI

.i:,

x II cosO(_I- v),
II

'ti

v II

i.l

ou 0 est I'angle de x et v. Nous 1a noterons proj.x et l'appellerons aussi projection


orthogonale de x sur v (fig. 2.1).

!!
(j
~I

rlI
,~

~I

Le produit scalaire jouit de trois proprietes qui constitueront Ie point de


depart d'une formulation abstraite de cette operation. Les voici:
(a)(x I y) = (y I x).

(b)(ax + py I z) = a(x I z)
(c) (x I x) > 0 si x "# O.

il

,:~

II..l
i.

'1 su ffiIt d
bstituer
'
e su

II

i
~

proj.x = (x I v)

_ (x I v)

II V 11 2 V -

(v I v) v.

s
~.

(2.2)

(
(

(
(
(

La seule ..9.t!! demande une verification est la deuxierne, Si zest nul, les trois
produits scalaires sont nuls et l'egalite est vraie. Si z n'est pas nul,
proj.(ax

+ py)

= aproj.x

d'apres (2.5), ce qui entraine, grace

(ax

+ py I z)
(z I z)

(x I z)
(z I z)

= a--z

.:....-....,......,~.:.......:..z

'(

(
(

pproj.y,

a (2.2),

+ i y I z) z

(z I z) ,

d'ou la propriete (b) s'ensuit.

(
2.1.8 Bases orthononnales

Une base (e l , e2' eJ ) de Vest dite orthonormale si les vecteurs el , e2' eJ sont
orthogonaux deux deux et unitaires.

:,?'

I v)v II a. cos 0 pour 0 bteni


x(x1111
ternr

+ P(y I z).

'~ i

A I'aide du produit scalaire, Ie vecteur proj.x peut etre exprime autrement:

2.1.7 Proprietes

~,

II

On dit que des vecteurs x et y sont orthogonaux s'ils sont non nuls et leur
angle est

(
(2.4)

Par des considerations geometriques elementaires, il est facile de se rendre


compte que
2.1.5 Ortbogonalite

Si vest unitaire, (2.2) et (2.3) se simplifient et deviennent

proj,x

(
49

2.1.9 Decomposition suivant one base orthononnale

Par Ie raisonnement geometrique, on voit facilement que chaque vecteur est


la somme de ses projections orthogonales sur les vecteurs d'une base orthonor
male, ~utrement dit, si (e l , e2' eJ) est une base orthononnale,

x = (x I e.)e,

(x I e~2

(x I eJ)eJ.

(
(

(2.6)

'J

so

Espaces veetoriels euclidiens et espaces affines euclidiens

Espaces vectoriels euclidiens

51

(
(
(
(

(
(

= (x.e. +. X2e2 +. x)e) lei) = x.(e l lei) +. x2(e21 e.) +. xie) lei) = XI'
puisque (e, lei) = I et (e2 1e.) = (e) leI) = 0; de merne;
(x lei)

(x I e2)

= X 2,

(x I e)

(
(

2.2.3 Espaces vectoriels euclidiens

= X),

d'ou la decomposition.
..,./:::.

(
(

(a) (x I y) = (y I x) (syrnetrie ou commutativite).


(b) (ax +. Py I z) = a(x 1;.0:) +. P(y I z) (linearite).
(c) (x I x) > 0 si x :F 0 (positivite),

Cette decomposition s'obtient egalement par (b) de 2.1.7. En effet, xI' X2' .l")
etant les composantes de x,

2.1.10 Produit scalaire en fonction des composantes


Soit XI' X2' xl et YI' Y2'Y) les composantes respectives des vecteurs x et y dans
une base orthonormale (e., e2' e) . Grace a (a) et (b) de 2.1.7, Ie produit scalaire
(x 1 y) = (Xlel

2.2.4 Remarques

+. X2e2 +. x)e) I Ylel +. Y2e2 +. y)e)

(x 1Py +. yz) = P(x I y)

(x I y) = XIYI +. x2Y2 +. x)1).

2.2 ESPACES VECTORIELS EUCLIDIENS


2.2,5 Norme d'un vecteur

2.2.1 Introduction

Le produit scalaire dans V a ete defini au moyen des notions de norme et


d'angle, II jouit des proprietes (a), (b) et (c) (mises en evidence dans 2.1.7) qui en
resurnent les caracteres. Pour etendre la notion de produit scalaire aux espaces
vectoriels abstraits, nous suivrons Ie precede inverse ; plus exactement, nous
admettrons les trois proprietes com me donnees de depart, en deduirons les notions
de norme, d'orthogonalite et d'angle et aboutirons a un certain nombre de resultats
applicables a des situations les plus variees, notamment aux espaces vectoriels
fonctionnels. La geometric aura ainsi laisse la place a l'algebre, en demeurant
toutefois I'inspiratrice des idees et des methodes utilisees,

l
(

(
(

(
(

+. r(x I z).

(2) En posant a = P = 0 dans (b), ou P = = 0 ci-dessus, nous voyons


que Ie produit scalaire (x 1 y) est nul si x ou y sont nuls .
(3) La linearite a gauche et a droite du produit scalaire s'etend par recur
rence aux combinaisons lineaires de plus de deux termes.

(I) La condition (b) exprirne la linearite gauche du produit scalaire


(cf. 6.2.2). La linearite droite decoule de l'union de (a) et (b):

se developpe en une somme de neuf termes de la forme x;YJ{ell e); or, par I'ortho
normalite de la base, (ell e) est nul si i :F jet vaut I si i = j, ce qui entraine

On appelle espace vectoriel euclidien tout espace vectoriel muni d'un produit
scalaire.
II est clair que tout sous-espace vectoriel d'un espace vectoriel euclidien E
devient lui-rneme un espace vectoriel euclidien s'il est muni du produit scalaire
herite de E.

Soit E un espace vectoriel euclidien. On appelle norme d'un vecteur x de E,


et l'on note II x II, Ie nombre J(x I x).
En vertu de la condition (c), la norme II x II est positive si x est non nul ;
d'apres (2) de 2.2.4, elle est nulle si x est nul.
On remarquera que J(ax I ax) = Ja 2(x I x) = I a I J(x I ~ ce qui montre
que
(2.7)
[ex II = lalll x II

..

:71

On dit qu'un vecteur est unitaire si sa norme est I. D'apres (2.7), si x est

I
non nu ,

I
..
jj-;-it
est un vecteur urutaire.

2.2.2 Produit scalaire


Soit E un espace vectoriel. On appelle produit scalaire dans E to ute opera
tion qui fait correspondre a chaque couple (x, yJ de vecteurs de E un nombre, note
(x 1 y) et appele produit scalaire de x et y, satisfaisant aux conditions suivantes:

2.2.6 Exemples
(I) Vu les propnetes 2.1.7, l'operation definie dans 2.1.4 est un produit
scalaire dans V conforme a la definition 2.2.2.

(
..~:

(
53

Orthogonalite

Espaces vectoriels euclidiens et espaces affines euclidiens

52

I~

at
a2

~~l

I.1bb,

) = alb. + a2b 2 + ... + a.b.


a.

6a~, + 2a,b, + 2D,b, + 'a,b,.

~J
~i
',..

II a ete remarque dans 2.1.5 que deux vecteurs de V sont orthogonaux si et


seulement si leur produit scalaire est nul. Cette equivalence tiendra lieu de defini
tion de la notion abstraite d'orthogonalite.
Dans la suite de ce chapitre, E designera un espace vectoriel euc1idien.
Comme deja convenu, sauf indication contraire, les vecteurs seront les elements
de E.

"r, \"

.~:.:.

~: "l

l~ 1

,~

'~ I

"' I

~ ~':

(4) Un autre exemple de produit scalaire dans C1a.bl est foumi par la formule

Sf(t)g(t)p(t)dt,
a

ou pest une fonction continue a valeurs positives.

,(

i!

(I) La base canonique de JR. est manifestement orthonormale.

(2) Considerons les fonct ions Co,

,I
I

Co(t) ==

~' ck(t)

==

.n

I
,-cos(kt),

yrr.

La famille infinie (co. C1' 51' C2'


famille est orthonormale, car

/1

52' ...)

Ck

et

5k

5 k(t )

(k > 0) de CI _ x x ) definies par

==

I .
,-sm(kt).

(2.12)

y1t

est appelee systeme trigonometrique. Cette

(2.11)

(cosk

+ l)t) + cosk

- l)t))dt =

t L(cosk

- l)t) - cosk

+ l)tdt

j sin(kt)cos(lt)dt = t j (sink + l)t) + sink -~

(
si k '" I,
1t si k = I", 0,
21t si k = I = 0 ;

sin(kt)sin(lt)dt

- x

-x

-x

j cos(kt)~os(lt)dt

(f I g) =

\
-.(

';:' i

est positive si la fonction continue f n'est pas identiqueinent nulle.


Par la suite, sauf mention explicite du contraire, CIa, bJ sera considere comme
muni du produit scalaire canonique.

.~~

2.3.3 Exemples

Cette operation definit bien un produit scalaire, car les conditions (a) et (b) de la
definition 2.2.2 sont manifestement satisfaites et, en outre, l'integrale

S(2(t)dt

On dit que les vecteurs x et sont orthogonaux, ou que x est orthogonal


y, si (x I y) = O. On dit qu'une famille finie ou infinie de vecteurs (x. , x2' ...) est
orthogonale, ou que les vecteurs XI' X2' . sont orthogonaux deux Ii deux, si
(X i I Xj) = 0 pour tout couple (i,J) tel que i '" j . Si, de plus, to us les vecteurs Xi
sont unitaires, on dit que la famille est orihonormale.
Comme deja note dans la remarque 2.2.4, Ie vecteur nul est orthogonal a
tout vecteur . En fait, vu la condition (c) de la definition 2.2.2, il est Ie seul vecteur
qui possede cette propriete,

(2.10)

... '

(3) Le champ d'application privilegie de la theorie abstraite du produit


scalaire est constitue par les espaces vectoriels fonctionnels (cf. 1.3.4 et 1.3.5). On
appelle produit scalaire canonique dans CIa. bl l'operation (1) definie par la formule

Sf(t)g(t)dt.

2.3.2 OrthogoDalite

"

v
:..i

(2.9)

. ;".

-.;,;,..

La preuve que l'operation definie par (2.9) satisfait a la condition (c) n'est pas
immediate. Nous laissons toutefois au lecteur la tache de l'effectuer, car nous
reviendrons sur cette question dans la section 9.2.

(f I g) =

2.3.1 Introduction

\'

[~]) ~ 2a,b, + 3a~, + 4a,b"

7a,b, + 2a,b, + 2a,b, +

J.ii

~~
.;s:'
.. ,

:1:1

est un produit scalaire dans JR. que l'on appelle produit scalaire canonique.
Par la suite, sauf mention explicite du contraire, R sera considere com me
muni de ce produit scalaire.
Deux aut res exemples de produits scalaires dans 1R3 sont definis par les
formules

([::]1 [~])
~

.:;;..

(2.8)

lb.

([::] I

2.3 ORTHOGONALITE

(2) L'operation (-!-) definie par la formule

-JII'

{O~k"'~

1t si k = I '" 0;

(
l)tdt = O.

(
(

54

Espaccs veeto riels euclidiens et espaces affines euclidiens

Orthogonalite

55

(
2.3.4 Orthogonalite Ii un sous-espace vectoriel

On dit qu'un vecteur x est orthogonal a un sous-espace vectoriel S de E s'il


est orthogonal tout vecteur de S.
Si (v,. v2... vk) est une famille generatrice de S. pour qu'un vecteur x soit
orthogonal a S, il suffit qu'il soit orthogonal a to us les vecteurs Vi' En effet, tout
vecteur y de S s'ecrit so us la forme y = a,v, + a 2v2 + ... + akvk, done, par la
linearite a droite du produit scalaire,

(
(

(x I y) = (x I (X,v l + <%2V2 + ... + akvk) .

= a,(x I v,) + a2(x I v0 + ... + ak(x I vk) =

o.

,~

,-.,

et devient, lorsque x et y sont orthogonaux, Ie theoreme de Pythagore:

+ Y 11 2 =

II x

II X 11

II

2
Y 11 .

(2.15)

L'extension de (2.15) au cas d'une famille orthogonale (x. , X2' .... Xk) de plus
de deux termes se fait par recurrence:
II x,

x2

+ ... + x, 11 2 =

II x,1I

2+

II x211

+ .,. +

II xk 11

2.

(2.16)

2.3.8 Projection orthogonale sur one droite vectorielle

ce qui demontre l'assertion.


On appelle projection orthogonale d'un vecteur x sur la droite vectorielle
engendree par un vecteur non nul v. ou simplement projection orthogonale de x
sur v; Ie vecteur

2.3.5 Sous-espaces vectoriels orthogonaux


On dit que des sous-espaces vectoriels Set T de E sont orthogonaux, ou que
S est orthogonal a T. si chaque vecteur de S est orthogonal a T (ou, ce qui revient
au meme, chaque vecteur de T est orthogonal as).

DEMONSTRATION

(v'v)

2.3.9 Orthogonalisation

Soit (XI' x2
Xk) une famille orthogonale de vecteurs non nuls. La relation
a,x, + a2x2 +
+ akx k = 0 ~~traine , pour i = 1.2..., k, grace la linearite
gauche du produit scalaire,

o=

(0' x) = (alx l + a2x2 +


= a,(x, I x) + a 2(x2 1 Xi) +

+ akx k' Xi)

+ aixk I xJ = a,(x;! Xi)'

d'ou nous concluons que a i = O. puisque (Xi I xJ i' O.

Le precede que nous allons presenter est connu so us Ie nom de procede


d'orthogonalisation de Gram-Schmidt. A partir d'une famille libre (XI' xz...., xk),
il montre par quelles operations sur les vecteurs Xi on peut construire une famille
orthogonale (v" v2. ..., Vk) engendrant Ie merne sous-espace vectoriel que (XI' x2'
..., Xk)'
On pose successivement
VI = XI.

2.3.7 Theoreme de Pythagore

La relation

(X + YI X + y) = (x I x)

On remarquera que cette projection est I'unique vecteur av de la droite en


question tel que x - av est orthogonal av. En effet, I'unique solution de l'equation
(x - av I v) = 0 est

a = - -.

Toute famille orthogonale finie de vecteurs non nuls est fibre. En particulier,
toute famille orthonormale finie est fibre.

(2.17)

(x I v) ,

2.3.6 Proposition. Orthogonalite et independance lineaire

(x I v\.

proj.x = (v I v)

,
'

(y I y)

+ 2(x I y)

resulte aisement de la linearite gauche et


relation s'ecrit aussi sous la forme
II x

Y 11 =

II X 11

II Y 11

a droite du

2(x I y)

(x 2 1 VI)

v2 = x2

-(- , - ) v,,

vJ = x J

(xJ I v,)
(xJ I v:J
- - v , - - - v2,
(VI I v,)
(v2 1 v0

v, v,

(2.18)

(2.13)
produit scalaire. Cette

(2.14)

(x, I v0
(xk I vk_,)
(Xk I VI)
vk_,
vk = Xk - - V I - - - v2 - ... (Vk_1 I Vk_l)
(v,1 v,)
(v2 1 v0
En d'autres termes, Vi (i > I) est la difference de Xi et la somme des projec
tions orthogonales de Xi sur les vecteurs V, . v2_ .... Vi_I '

(
.

s:

Nous allons montrer, par recurrence, que les vecteurs VI ' V2, .., Vk sont
orthogonaux deux a deux et non nuls . A cet elfet, supposons que les vecteurs VI '
v2, ..., vj (i < k) Ie soient. Alors , pour i = 1,2, ..., i,

Vo(t) == I,

..}.

.1

Jsds ==

-! Srds
-I

L.

(
(

t,
I

- t Ss)ds .t

== t2

-!.

-I

Les polynomes vo, VI et v2 ainsi obtenus sont les trois premiers termes d'une famille
orthogonale infinie connue sous Ie nom de systeme de Legendre.

0,

ce qui demontre que vi+ 1 est orthogonal VI ' v2' , Vi ' En outre, VH I n'est pas nul ,
sinon xi + 1 serait combinaison lineaire des vecteurs VI ' v2, , Vi et done des vecteurs
XI ' x2' ..., Xi' en contradiction avec l'hypothese d' independance lineaire des vecteurs
XI ' x 2, , xk' Les vecteurs VI' v2, , VH I sont done orthogonaux deux a deux et
nOll nuls, ce qui etablit notre assertion .
On notera que, pou r chaque i, les families (X I' X 2' , Xi) et (VI ' V2, , Vi)
engendrent Ie meme sous-espace vectoriel de E.

2.4 INEGALITES, ANGLES


2.4.1 InegaUte de Cauchy-8chwarz

On appelle inega/ite de Cauchy-Schwarz l' inegalite, valable pour tout choix


des vecteurs X et y,

1
I
_I I).
-I

En elfectuant les calculs, nous obtenons

~J '
1

V2

-I

1
1

~i

-!j

. ),
(Ie facteur 3"I peut etre
onus

V)

1
\

-I
- I

I
I I
3 I

--7f-;

33

-6
=

2
11

- -

I
5

(Ie facteur

11

II (x I e)e 11 2 + II x - (x I e)e 11 2 ~ (x I e)211 e 11 2 = (x I e)2. (2.21)

On remarquera que l'inegalite de Cauchy-Schwarz est une egalite si et


seulement si X et y sont lineairement dependants. En elfet, l'inegal ite dans (2.21)
est une egalite si et seulement si II x - (x I e)e II est nul, autrement dit, X est mult iple
de e ou, ce qui revient au meme , de y.

(
(

(
(

-IT
2.4.2 Exemples d'appUcation

peut etre omis).

(2) Soit (Po, PI' P2) la famille de vecteurs de C[_I . II definie par plt) == t

Comme (x I e)e est la projec tion orthogonale de x sur e, x - (x I e)e est orthogonal
e, done (x I e)e, ce qui nous permet d'appliquer (2.15) au second membre de
(2.20) et d'obtenir

II ne reste alors plus qu'a multiplier les racines carrees des deux membres extremes
de (2.21) par II y II et substituer y II y lie pour etablir (2.19).

";."

1
1

(2.19)

II x

I
I I
3 I

II

.(

et l'inegali te est en fait une egalite. Si y n'est pas nul, posons e = _I_yet ecrivons
I y II
(2.20)
X = (x I e)e + x - (x I e)e.

I
VI

x 1111 y

Dans Ie cas particulier ou x et y sont des vecteurs de Vet Ie produit scalaire


est defini par (2.1) , cette inegalite est evidente, puisque I cosO I ,;;; I. Dans Ie cas
general, elle necessite une preuve. Si y est nul, les deux membres de (2.19) sont nuls

(I) Pa r Ie precede de Gram-Schmidt (2.18), nous allons orthogonaliser Ie


triplet de lR4

I (x I y) I ,;;; II

I
-I
II,

,
(

2.3.10 Exemples

I
I
II ,

-I

v2(t) == f

Vii v)
(v" v,)
~ (xi+11 VI)
(XHII v,)
(Xi+l lv) - L. ( I ) (V, I v) = (xi+ l l v) ( I ) (vjlv)
I_ I v, VI
vj vj

VI (t) == t -

' a .1

57

:Y

~ (x j + 1 I v,)

(Vi+llv) = (Xi + l -

InegalilCs. angles

-~

Espaces vectoriels euclidiens et espaces affines euclid iens

56

(I) Lorsque E est lR", l'inegalite de Cau chy-Schw arz s'ecrit


i

(cf. (1.8) et exemp le (5) de 1.6.7). Le precede d'orthogonalisation de Gram


Schmidt (2.18) applique a cette famille entraine:

"
I ~a,hi
l';;;
i=1

n
~cf ~
br

/"

V i-I

i= 1

(
(

~j

t
(
Espaces vectoriels euclidiens et espaces affines euclid iens

58

Espaees vectoriels euclidiens de dimension finie

59

Dans Ie cas particulier ou b l = b2 = ... = b; = I, elle devient

n)2
( 1: a/

Supposons que les vecteurs x et y soient non nuls. En vertu de l'inegalite de


Cauchy-Schwarz,

:.0;;;;

n 1:af,

i- I

2.4.4 Angles. Theoreme du cosinus

i- I

- I :!'::

ou encore

n)2

I
( -n

1:a/

I
:.0;;;; -

i _I

..

1:af,

I_ I

Jf2(t)dtJg2(t)dt.

:.0;;;;

f(t) IdtY

:.0;;;;

'~1

(b-a)!f2(t)dt.

,,
I
i

Par exernple,

(I

JSiii'idt

i
~

En prenant get) == I et If I a la place de f, nous en deduisons l'inegalite

(Ii

I."

(2) Lorsque E est Crab), l'inegalite de Cauchy-Schwarz s'ecrit

:.0;;;;

(x I y)

II x 1111 y II

:!':: 1

II existe donc un et un seul nombre 0 de I'intervalle [0, n) tel que

ce qui montre que Ie carre de la moyenne arithrnetique est inferieur ou egal a la


moyenne arithmetique des carres,

I f(t)g(t)dt I

.~

n sintdt = 2n,

cosO =

(x I y)

II x li llY

(2.23)

II"

Ce nombre est appele angle des vecteurs x et y. On notera les cas particuliers
suivants:
(x I y)
h
x et y ort ogonaux : II x ]] y II

. ,
.0 n
= 0, ce qUI. equrvaut
a = 2";

(xly)
PII Y 11 2
{ISiP>o,cequiequivaut ao =o ;
x = py: II x 1111 y II = IPIII Y 11 2 = - 1si P < 0, ce qui equivaut a 0 = n.
Si x et y sont non nuls, la relation (2.14), ou celle qui en derive par
substitution de -yay, s'ecrit, a I'aide de (2.23), sous la forme equivalente
II x

y 11 2 = II X 11 2 + II y f 211 x 1111 y II cosO,

(2.24)

ou 0 est I'angle de x et y. On appelle (2.24) theoreme du cosinus.

ou encore

jo
.jSfnidt J27c.

:.0;;;;

2.5 ESPACES VECTORIELS EUCLIDIENS


DE DIMENSION FINIE
2.4.3 Inegalite triangulaire

En majorant 2(x Iy) par 211 x 1111 y II (inegalite de Cauchy-Schwarz) dans


(2.14), nous voyons que
(

II

Y 11 2 :.0;;;; II x

f +

II

Y 11 2 + 1 11 x

11 11

Y II = (II x II

II Y 11)2,

ce qui entraine l'inegalit triangulaire:

II x

+ YII

:.0;;;;

II x II

+ IIY II

I II x II - II y III

(
,

:.0;;;;

II x - y II

Cette section a pour objet l'etude de quelques questions liees a l'existence


d'une base orthonormale.
Nous supposerons que l'espace vectoriel euclidien E est de dimension finie
non nulle n.

(2.22)

En I'appliquant une fois aux vecteurs x et Y - x et une autre fois aux


vecteurs x - yet y, nous deduisons la variante

2.5.1 Introduction

2.5.2 Proposition. Prolongement d'une famille orthonormale


So it (e. , e2' .... ek) une f am ille de vecteurs orthonormale. Si k est infe rieur Ii
la dimension n de E. cett e fami/le se prolonge en une base orthonormale de E.

(
Projection orthogonale et mcilJeure approximation

Espaces vectoriels euclidiens et espaces affines euclidiens

60

61

(
(

ou a;j = (e, I e). En particulier,

DEMONSTRATION

D'apres Ie theorerne 1.7.3, la famille (e., e2, ..., ek) se prolonge en une base
(e, ..., ek' Xk+I' . .. , x,,) de E. Applique acette base, Ie precede d'orthogonalisation
de Gram-Schmidt (2.18) nous foumit une base orthogonale (e., ..., ek' Vk + I' , v,,)
de E. Posons
ek+1

- - - Vk+ l , . . .,
vk + I

II

II

en = - - vn

II

vn

II

La famille (e. , e 2, ..., en) est alors une base orthononnale de E.

(x I x)

II X 11

~ ~ aj"xjx ,

;- I j - I

(2.27)

Nous reviendrons sur les expressions ainsi obtenues dans Ie chapitre 9. Pour

l'instant, limitons-nous a observer que si la base (e. , e2, ..., en) est orthononnale,
(2.26) et (2.27) se simplifient et se redu isent aux expressions qui definissent Ie
produit scalaire canonique dans R n et Ie carre de la nonne correspondante:

+ x 2Y2 + ... + XnYn'


2
11 = xf + ~ + ... + X;.

(x I y) = X.YI

(2.28)

(x I x)

(2.29)

II X

(
(

(
(

2.5.3 CoroUaire. Existence d'une base ortbonormale

Tout espaee veetoriel euclidien de dimension finie non 'Julie admet une base
orthonorma/e.
DEMONSTRATION

Un tel espace comprend au moins un vecteur non nul e., .que nous pouvons
supposer unitaire. II suffit alors d'appliquer la proposition 2.5.2 a la famille (e.).

2.5.4 Composantes d'nn vecteur dans une base ortbonormale


Soit XI x 2' , x n les composantes d'un vecteur x dans une base orthononnale
(e., e2 ..., en) de E. Par la linearite agauche du produit scalaire, pour i= 1,2, ..., n,
(x I e) = (x le l + X2e2 + ... + xne" I e)

= xl(e. Ie;) + x 2(e2 1e) + .,. + xn(en I e)

= x,(ej I ej ) = X;,

2.5.6 Isomorpbie de E et IRn


- D'apres (2.28), lorsque la base de E est orthononnale, I'isomorphisme (1.11)
entre E et R n conserve Ie produit scalaire, ce qui signifie que Ie produit scalaire
de x et y dans E est ega I au produit scalaire dans R n des vecteurs-colonnes
correspondants (x j ) et (y).

2.5.7 Produit scalaire defini par une base

Tout espace vectoriel de dimension finie non nulle n peut etre rendu eucli
dien. II sul'fit de choisir une base (e., e2, ..., en) de cet espace et de definir Ie produit
scalaire par la fonnule (2.28). Pour ce produit scalaire, la base (e., e2' ..., en) est
orthononnale.
II est evident que tout espace vectoriel reduit au vecteur nul peut egalement
etre considere comme euclidien.

+ (x I ez}e2 + ... +

(2.25)

(x I en)en

(
(

(
(

ce qui montre que x,e; est la projection orthogonale de x sur e, La decomposition


de x suivant la base (e. , e 2, , en) s'ecrit done
x = (x I e.)el

.(

Cela generalise la decomposition (2.6).

2.6 PROJECTION ORTHOGONALE


ET MEILLEURE APPROXIMATION

(
(

(
2.5.5 Expression du produit scalaire en Conction des composantes
Soit x" x 2, ..., x n et YI' Y2' ..., Yn les composantes respectives de x et de y dans
une base (e., e2' .. ., en) de E. Par la linearite gauche et droite du produit scalaire,

n)
""
n "
n
(x l y) = ( ~x;ei! ~Yjej = ~ ~xjYj(ejle) = ~ ~aijxJ'j'
;= 1
j=1
;= 1 j = 1
j=1 j - I

(2.26)

2.6.t Introduction

Dans cette section, nous definirons la notion de projection orthogonale d'un


vecteur sur un sous-espace vectoriel et utiliserons cette notion pour calculer la
meilleure approximation d'un vecteur par des vecteurs d'un sous-espace vectoriel
de dimension finie.
L'espace vectoriel euclidien E sera de nouveau de dimension finie ou infinie.

(
(

( /

l
(

Espaccs vectoriels euclidiens et espaces affines euclidiens

62

Projection orthogonale et meilleure approximation

2.6.2 Complementaire orthogonal

(
(
(

Soit S un sous-espace vectoriel de E. Designons par Sl. I'ensemble des


vecteurs orthogonaux a S. Cet ensemble n'est pas vide, car il comprend au moins
Ie vecteur nul. En outre, par la linearite du produit scalaire, en meme temps que
x et y il comprend toutes les combinaisons lineaires ax + fly. D'apres la proposi
tion 1.4.6, s- est done un sous-espace vectoriel de E. Ce sous-espace est orthogonal
a S, selon la definition 2.3.5.
D'apres (c) de la definition 2.2.2, S n s- = {O}. Cependant, E n'est pas, en
general, somme directe de Set s- (cf. exercice 2.9.13). I11'est, toutefois, s'il existe
un sous-espace vectoriel T de E, orthogonal a Set tel que E soit somme directe
de Set T, car alors Test necessairement
En effet, grace a I'existence d'un tel
T, tout vecteur t' de s- s'ecrit sous la forme t' = s + t, ou s est un vecteur de S
et t un vecteur de T; cela entraine que t' - t est un vecteur de S orthogonal a S,
done que t' - t = 0 et, par consequent, que t' (= t) appartient a T, ce qui montre
que s- est contenu dans T. D'autre part, par definition de s-, Test contenu dans
donc T = Sl..
II s'avere ainsi que les conditions suivantes sont equivalentes:

s-.

. i

s-,

(a) II existe un sous-espace vectoriel T de E, orthogonal a Set tel que E soit somme
directe de S et T.
(b) E est somme directe de Set
(c) Tout vecteur x de E s'ecrit (necessairement de maniere unique) sous la forme

s-.

x=s+t,

(2.30)

ou s est un vecteur de S et t un vecteur orthogonal a S.


(d) Pour tout vecteur x de E, iI existe un vecteur s de S (necessairement unique)
tel que x - s est orthogonal a S.

s-

est Ie
On dit que S admet un complementaire orthogonal dans E. ou que
complementaire orthogonal de S dans E. si l'une des conditions equivalentes (a}-(d)
est satisfaite.

D'apres ce que nous venons d'etablir, si s- est Ie complementaire orthogo


nal de S dans E, alors S est Ie complernentaire orthogonal de s- dans E et
(

(Sl.)l. = S.

(2.31)

2.6.3 Projection orthogonale

Soit S un sous-espace vectoriel de E et x un vecteur de E. Si S admet un


complementaire orthogonal dans E, on appelle Ie vecteur s de la decomposition
(2.30) projection orthogonale de x sur S. Nous designerons cette projection par
projsx.

(
(

2.6.4 Proposition. Existence du complementaire orthogonal d'un sous-espace

veetoriel de dimension finie

Tout sous-espace vectoriel de E de dimensionfinie admet un complementaire


orthogonal dans E.
DEMONSTRAnON

Soit S un sous -espace vectoriel de E de dimension finie. Soit en outre x un


vecteur quelconque de E. Nous allons montrer qu'il existe un vecteur s de S tel
que x - s est orthogonal a S. Si Sse reduit a {o}, s est Ie vecteur nul. Si S est de
dimension non nulle k, choisissons une base orthogonale quelconque ('I' '2' ..., 'k)
de S et posons
.
.
(x I '1)
(x I 'k)
s = proJ'lx + ... + 'ProJ'kX =
+ ... + -(-,-)'k'
('I 'I)
'k 'k

-,-'I

Compte tenu de 2.3.8, nous voyons que x - s est orthogonal


' j' D'apres 2.3.4, x s est done orthogonal a S.

a tous

les vecteurs

2.6.5 Calcul de la projection orthogonale


Lorsqu'on doit calculer la projection orthogonale d'un vecteur x de E sur
un sous-espace vectoriel S de E defini par une de ses bases ('I' '2 ' ..., 'k)' iI faut
avoir en vue les deux cas suivants:

(a) La base ('I' '2' ..., 'k) est orthogonale. Dans ce cas, d'apres ce qui precede,
.
(x I 'I)
(x I'0
(x I 'k)
proJsx = - - V I + - - ' 2 + ... +
~I~
~I~
~I~

--'k'

(2.32)

(b) La base ('., '2' ..., 'k) n'est pas orthogonale. Dans ce cas, soit on l'orthogonalise
par Ie precede de Gram-Schmidt et on applique (2.32) a la base orthogonale
('t, v;, ..., 'i) obtenue par ce precede, soit on determine les coefficients
de la combinaison lineaire al'. + a2'2 + ... + ak'k de maniere que Ie vecteur
x - (a l,. + a2'2 + ... + ak'k) soit orthogonal a,., '2' ..., 'k; cette condition
se traduit par les k equations
al(,,1 ' j) +

CX2('

21V;) + ... + ak('k I 'J = (x

I,).

i = 1,2, ..., k,

d'ou I'on tire les valeurs de a., a 2' ..., a k qui produisent la combinaison lineaire
egale a projsx.

63

2.6.6 Vecteur normal Ii un hyperplan veetoriel


Soit S un hyperplan vectoriel de E (suppose de dimension finie non nulle).
D'apres la proposition 2.6.4, S admet un cornplernentaire orthogonal dans E.
D'apres (1.12), ce complementaire est une droite vectorielle . On appelle vecteur
normal a Stout vecteur non nul de cette droite vectorielle .

(
(
Projection orthogonale et rneilleure approximation

Espaces vectoriels euclidiens et espaces affines euclidiens

64

6S

(
(

2.6.7 Meilleure approximation

Soit S un sous-espace vectoriel de E de dimension tinie. On appelle meilleure


approximation d'un veeteur x par des vecteurs de S \'unique vecteur de S qui
minimise la norme II x - y II, lorsque y pareourt S. Dans le cas partieulier ou E
est \'espaee veetoriel geornetrique et S une droite ou un plan vectoriel de eet espaee,
on voit facilement que la meilleure approximation de x est la projection orthogo
nale de x sur S. Nous allons montrer qu'il en va de meme dans Ie cas general,
c'est-a-dire que

<

(
(
(
(

(2.33)

pour tout vecteur y de S distinct de projsx. Considerons un tel vecteur y et ecrivons

II

x - projsx

II

II

x - y

x - y = (x - projjx)

II,

(projsx - y).

'I
~

i"

Comme x - prohx est orthogonal Ii tout veeteur de S, done a prohx - y, la


relation (2.15) entraine
II

x - Y 11 2 =

II

x - projsx

11

II projj x

- Y 11 >

II

x - prohx

2
11 ,

~.

.
f

;
i ,

fk

2.6.8 Exemples d'application


La meilleure approximation est utilisee notamment dans des problemes de
prediction et d'interpolation, Les deux exemples que nous presentons eoneement
Ie systerne de Legendre et Ie systeme trigonornetrique.
(I) La meilleure approximation de la fonetion f(/) == III de C1- 1 IJ par des
polynomes de degre inferieur ou egal a 2 est, d'apres 2.6.7 et (2.32), Ie polynOtne

(flv )
p = - - ovo
(vo I vo)

(flv.)

(flv

(VI I

v.)

I,

- I

(vol vo)

Sl/l/dl
2

S 12dl =

Sill (/

t)dl

!,

(v21 V2) =

S(r -

- I

==

t + ! .";-(/ 2 t)

+ ... + (f I Ck)Ck + (f I Sk)sk'

_1_ ~
JQSicl/eosU,)d,

s) =

~ j IsinUI)dl

2~(_IY' +1
}

'

==

i ~(-

(
Iy+lsin(jI).

L'etude de la convergence de fk(/), lorsque k tend vers \'intini, depasse Ie


cadre de ce livre et sera done omise. Signa Ions neanrnoins qu'elle a lieu et que la
limite est 1= f(/) si -7t < 1< 7t et 0 si I = 7t (car sin(j7t) = 0). D 'une maniere
generale, on peut demontrer que f k converge en norme vers f, c'est-a-dire que

(2.34)

k- ao

== M5r + I) (fig . 2.2).

j ~IJ

tidl = h.

= O.

done Ie polynome trigonometrique fk s'ecrit sous la forme

lim

II en resulte donc que


P(/)

(f I 5.)SI

2;

= 0 (leealculde(v.lv.)estdoneinutile);

- I

-1

-I

(f Iv0 =

-(

D'autre part,

fk(/)

(flv l ) =

(f I c.)c.

y7t-x

= Sl/ ldl =

(flc) =

(fl

(v2 1 Vv

= (f I eo>CO +

Les produits sealaires (f I cj ) U ~ 0) et (f I 5j ) U ~ I) sont appeles coefficients de


Fourier de la fonetion f. Comme f'cj est une fonetion impaire,

+ - - v I + - - 2v 2,

ou vo, VI et v2 sont les polynornes orthogonaux obtenus dans l'exemple (2) de 2.3.10 .
Le calcul des produits sealaires donne:

(fl vo)

(2) La meilleure approximation de la fonction f(l) == I de C[_ul par des


ak; c'est-a-dire des combinai
sons lineaires des 2k + I premiers tennes du systeme trigonometrique defini dans
2.3.3, est, d'apres 2.6.7 et (2.32), Ie polyncme trigonometrique

polyniimes trigonometriques d'ordre inferieur ou egal

ee qu i etablit (2.33),

.~

Fig. 2.2

II

f - fk

II =

O.

(
(

(
(
66

Espaccs vectoricls cuclidiens ct espaces allincs cuclidicns

67

Produit veetoriel ct produit mixtc

2.7 PRODUIT VECTORIEL ET PRODUIT MIXTE

2.7.3 Proprietes des determinants

Les proprietes les plus importantes des determinants seront etablies dans la
section 5.I. En anticipant sur cette section, nous enoncons ici les deux proprietes
qui nous servent a etudier Ie produit vectoriel et Ie produit mixte.

2.7.1 Introduction

Le produit vectoriel de deux vecteurs est une operation propre Ii la dimen


sion 3. Pour l'introduire, il faut prealablement orienter I'espace destine Ii Ie
recevoir. L'orientation etant definie au moyen de la notion de determinant, nous
commencerons par une breve introduction a l'etude de cette notion. Cette etude
sera reprise dans Ie chapitre 5.
Dans cette section, no us supposerons que l'espace vectoriel euclidien E est
de dimension 3.

2.7.2 Determinants d'ordre 2 et 3

(a) Le determinant est multiplie par - J si I'un de ses vecteurs-colonnes est


remplace par son oppose ou si deux de ses vecteurs-colonnes sont echanges,
(b) Le determinant est non nul si et seulement si ses vecteurs-colonnes sont
lineairement independants.
Ces deux proprietes sont evidentes dans Ie cas du determinant d'ordre 2. La
propriete (a) l'est egalement dans Ie cas du determinant d'o rdre 3. La verification
de la propriete (b) dans ce meme cas est laissee comme exercice. S'ille desire, Ie
lecteur pourra se reporter. au paragraphe 5.2.2, ou cette verification est faite en
toute generalite,

JR.2

On appelle determinant des vecteurs-colonnes de

[:~J, [:~J,

2.7.4 Determtnants de passage


On appelle determinant de passa~e d'une base (x, x 2, XJ)
YJ) Ie determinant

et on note

la, bll'

(2.35)

a2 b2

PII PI2 PI3


P21 P22 P23 I'
P J\ PJ2 PJJ

Ie nombre

a,b2

a2b l

(2.36)

On appelle determinant des vecteurs-colonnes de

a une base (YI' Y2'

ou P'j' P1Jo PJj sont les composantes du vecteur YJ dans la base

(2.39)

(XI'

x 2'

XJ) .

RJ

[:J [H [::J.

2.7.5 Orientation de E

et on note
a\ b l C 1
a2 b2 C2"
a J bJ CJ

(2.37)

On definit I'orientation de I'espace vectoriel E par Ie choix d'une de ses bases.


Ce choix etant fait, on dit que E est oriente ou dote d 'une orientation. Soit (x\ . x2,
XJ) la base definissant I'orientation de E. On dit alors qu'une base (YI ' Y2' YJ) est
directe ou positivement orientee si Ie determinant de passage (2.39) est positif et
indirecte ou negativement orientee si ce meme determinant est negatif,

Ie nombre

c'l + a Ibb2 C2CII

a, b2 C21 - a2Ib'
s, cJ
I bJ CJ

(
(

(
(

= a lb 2cJ + atJJc J

2.7.6 Remarque
(2.38)

+ aJb,c2 ~ a,bJc2 - atJ,cJ aJb2c, .


a tout couple de vecteurs-colonnes de ~.2 (a tout

La fonction qui associe


triplet de vecteurs-colonnes de R 3) son determinant est appelee determinant
d'ordre 2 (d'ordre 3).

Nous verrons dans 6.6.10 que Ie determinant de passage entre bases de


merne orientation est positif, tandis qu'entre bases d'orientations differentes ce
determinant est negatif Par les determinants de passage, les bases de E peuvent
done etre rangees en deux classes definissant chacune I'une des deux orientations
possibles de E.

(
(
68

Espaces vectoriels euclidiens et espaces affines euclidiens

Produit vectoriel et produit mixte

69

(
(

2.7.7 Effet d'une transposition et d'une permutation cyclique

II

Les deux assertions suivantes decoulent directement de (a) de 2.7.3.

(I) L'orientation d'une base (XI' X2' x 3) change si l'un des vecteurs Xi est
rem place par son oppose, ou si deux vecteurs XI et xj sont echanges.
(2) L'orientation d'une base (XI' X2' x 3) reste inchangee si les vecteurs Xi sont
permutes cycliquement, c'est-a-dire si XI prend la place de X2' X2 celie de X3 et X3
celie de XI (ou, ce qui revient au rneme, si XI et x 3 et ensuite x 2 et XI sont echanges),
A I'aide de (I) et (2), un examen des six dispositions possibles de xI' X2 et
X3 no us permet de conclure que les trois triplets

i ';

(a) X x y = -(y x x) (antisyrnetrie).


(b) (ax + py) x z = a(x x z) + P(y x z) (linearite),
(c) X x y-O si et seulement si X et y sont lineairement independants.

Les deux premieres decoulent directement de la definition. Nous etablirons


la troisieme en montrant que X x y est nul si et seulement si X et y sont lineaire
ment dependants. So us cette condition, I'une des deux colonnes dans (2.41) est
multiple de l'autre, done les trois determinants dans (2.42) sont nuls, ce qui
entraine que Ie produit vectoriel x x y est nul. Reciproquement, supposons que
x x y soit nul. Alors les trois determinants dans (2.42) s~>nt nuls, c'est-a-dire

sont de meme orientation, tandis que les trois autres


(Xl' XI' x 3), (x3, X2' XI)' (XI' X3' X2)

a celie des trois

Le produit vectoriel jouit des proprietes suivantes:

(XI' Xl' x 3), (x3, XI' xz>, (X2, XJ, XI)

sont d'orientation opposee

2.7.10 Proprietes du produit vectoriel

Xz.V3 = XJY2' XJYI = xIY3' XIY2 = Xz.VI

precedents.

(2.43)

Si tous les Yi sont nuls, les vecteurs x et y sont lineairement dependants. Si un des
Yi' par exemple Y3' est non nul, iI existe a tel que x 3 = aYJ' ce qui entraine, par
substitution de aY3 X3 dans (2.43),

2.7.8 Cboix d'une base


Dans la suite de cette section, (e., el' e3) est une base orthonormale definis
sant I'orientation de E.

,,~

',.;/

I
I ,

I:

II
;1

Soit XI' Xl' X3et YI' Y2' Y31es composantes respectives des vecteurs Xet y dans
la base (e l , e2' e J). On appelle produit vectorielde Xet y, et on note X x y, Ie vecteur

(Xz.VJ - XJYZ)e1

('\"JYI - xlYJ)ez + (x\Y2 - xz.Vl)e3

YI
(2.41)

x 2 Y2
X3

Y=

(
(

'

La premiere colonne dans (2.41) est donc Ie produit de a par la deuxieme, ce qui
implique la dependance lineaire de x et y.

(py

)IZ) = P(x x y)

y(x x z).

(2.44)

On remarquera, en particulier, que

..,

a(x x y) = (ax) x y = X x (ay),

(2.45)

ce qui nous permet d'omettre les parentheses et d'ecrire ax x y sans danger


d' ambiguite.

(
(
(

Y3

privees de leur i-ieme terme, Ie deuxierne determinant etant cependant pris avec
Ie signe -:

IXX3 Y3Y21el -IXX3 Y3Ylle2 + IXIX2 YlYlle


2

X2Y3 = aYJY2' aYJYI = XIY3

X X

X\

La propriete (b) exprime la linearite Ii gauche du produit vectoriel (cf. 6.2.2).


Cette propriete, jointe a l'antisymetrie, entraine la linearite Ii droite:

(2.40)

Cette definition depend du choix de la base (e., Cl , e3)' mais nous verrons
dans 2.7.13 qu'elle n'en depend pas si ce choix est fait parmi les bases orthonor
males directes.
La i-ieme composante de X x y est Ie determinant des deux colonnes

- .(

et donc

X2 = aY2' XI = aYI'

2.7.9 Produit vectoriel

Cas particuliers :
e l x e l = e z x e2 = e3 x eJ = 0,
e l x el = e3, ez x eJ = e. , e J x e l

2.7.11 Proprietes metriques du produit vectoriel


Les vecteurs X et y etant supposes non nuls, le produit vectoriel de X et y

(2.42)
est

ez.

(
(

ay,

(a) orthogonal X et
(b) de norme II X 1111 y II sinO, ou 0 est I'angle de X et y.

(
(

raisonnement, compte tenu de I'assertion (2) de 2.7.7, nous voyons que


e; x e; = e; et e; x e; = e; . Soit maintenant X;,
et Y;, Y;, y;les eomposantes
respectives de x et y dans la base (e;, e;, e) . Grace a (a) et (b) de 2.7.10, nous

En effet, d 'apres (2.42), (2.28), 2.7.2 et (b) de 2.7.3,

x;,x;

(x I x x y) = XI X2 Y2! - X21 Xl Yll


X3 Y3
X3 Y3

X31 XI YI
X2 Y2

XI XI YI

=
x2 X2 Y2 = 0,
x 3 x 3 Y3

pouvons ecrire

x x y =

ee qui montre que x x y est orthogonal a x et done aussi a y, puisque x x y =


-y x x. D'autre part, d'apres (2.40), (2.29), (2.28) et (2.23),

(
(

II x

x Y 11 2 = (XV'3 - XJYV

(xi

I'

(XJYI - XIY3)2 + (XIY2 - XV'I)2

=
+ ~ + ~)(yi + Y~ + Y~) - (XtYl + X2Y2 + XJY3)2

211
2 2
= II x 11 y 11 sin 0,
'.

(x;y; - x2Y;)e),

aussi sous la forme


(2.47)

II xliII y x z 11 cosO,
:if~

2.7.12 Orientation
Si x et y sont lineairernent independants, Ie triplet (x x y, x, y) et done aussi
Ie triplet (x, y, x x y) sont directs.
En effet, ZI, Z2' Z3 etant les eomposantes de x x y (dans la base (e l , e2, e3
Ie determinant de passage de (e l , e2' e3) a (x x y, x, y) s'ecrit

ZI XI YI

z2 x2 Y21 =
Z3 X3 Y3

zi + ~ + ~ .

(2.46)

Ce determinant est done positif, puisqu'au moins un des z, n'est pas nul, d'apres
(c) de 2.7.10.

1"\
1;01

(
L'expression du produit vectoriel (2.40) est invariante par ehangement de
base orthonormale directe. Soit en effet (e;, e;, e;) une telle base. Selon les proprie
tes metriques 2.7 .11, e; x e; est soit e;, soit -e;. D 'apres 2.7.12, Ie triplet (e; , e;,
e; x e;) est direct, done e; x e; = e;, vu l'assertion (I) de 2.7.7. Par Ie meme

xc"

, ...

<

<

. 'e~

'~~

';".L

~r.

:}

g,
:

'lS.

I
;t

2.7.13 Independance du produit vectoriel du choix de la base orthonormale directe

ou 0 est I'angle de x et y x z.
3
On remarquera que dans Ie cas ou E est l'espaee vectoriel geometrique V ,
Ie produit rnixte, ecrit sous la forme (2.47), symbolise Ie volume (oriente) du
parallelepipede eonstruit sur des representants de x, y et z d'origine commune
(fig. 2.4).

i'

(\

On appelle produit ~ixte des vecteurs x, y et z Ie double produit (x I y x z),


D'apres (2.23), si x et y x z sont non nuls.Ie produit mixte de x, y et z s'ecrit

On remarquera que dans Ie cas ou E est l'espace vectoriel geometrique 0 ,


la norme II x 1111 y IIsinO du produit vectoriel represente l'aire du parallelograrnme
eonstruit sur des representants de x et y d'origine commune (fig. 2.3).

~,

(xJy; - x;y)e;

2.7.14 Produit mixte

ee qui montre I'invarianee de (2.40).

(.=1
.~x;e;) x (\i=1
~Y;~;) = .=1)-1
.~ .~ x;Y;e; x e;

= (x2Y) - xJy2)e;

ce qui demontre (b).

\t : ;

71

Produit vectoriel et produit mixte

Espaees veetoriels euclidiens er espaces affines euclidiens

70

,~.

~:~

Fig. 2.4

2.7.15 Produit mixte en fonelion des composantes


Soit XI' x2, X3' YI, Y2'Y3 et ZI' Z2' z3 les eomposantes respectives de x, y
et z dans une base orthonormale directe. D'apres (2.42), (2.28) et 2.7.2,

I I I I I I

(x I y x z) = XI Y2 z2 ._ X2 YI ZI
y 3 z3
y 3 z3

+ X3 YI

ZI =
y,.
2 ~2

XI YI ZI
X2Y2 2
Z I, (2.48)
X3 Y3 Z3

(
(
72

Espaces vectoriels euclidiens et espaces atlincs euclidiens

Espaces atlincs euclidiens

73

(
(

donc l'expression du produit mixte en fonction des composantes est Ie determinant


des vecteurs-colonnes des composantes. II s'ensuit, grace a la commutativite du
produit scalaire et a (a) de 2.7.3, que
(x x Y I z) = (z I x x Y) = (x I Y x z),

(2.49)

ce qui montre que I'ordre dans lequelles deux produits sont effectues est indifferent
et justifie la notation suivante:

ce qui etablit (2.51). Pour obtenir (2.52), il suffit d'appliquer (2.50) au double
produit vectoriel u x (z x v), ou u = x x y, car cela donne, compte tenu de
(2.49),

(x x y) x (z x v) = (x x y I v)z - (x x y I z)v = [x, y, vIz - [x, y, z)v,

ce qui prouve (2.52).

L'identite (2.50) montre, en particulier, que Ie produit vectoriel n'est pas

associatif, c'est-a-dire qu'en general

x x (y x z) '" (x x y) x z.

2.7.16 Notation

(
(
(

Desormais Ie produit rnixte des vecteurs x, Y et z sera note [x, y, z).

2.8 ESPACES AFFINES EUCLIDIENS

2.7.17 Proprietes du produit mixte


Le produit mixte jouit des proprietes suivantes:

2.8.1 Introduction

(a) [x, y, z) = [z, x, y] = [Y, z, x) = -[y, x, z] = -[z, y, x] = -[x, z, y).


(b) [ax + fly, z, v] = a[x, z, v] + fJ[y, z, v].
(c) [x, Y, z) '" 0 si et seulement si x, y et z sont lineairement independants.

- (

Le concept d'espace affine defini dans la section 1.9 met en relation un


espace ponctuel avec la structure lineaire d'un espace vectoriel. Dans un espace
affine, des notions comme la distance ou l'orthogonalite n'ont pas de sens. Pour
leur en donner un, il faut munir I'espace vectoriel directeur d'un produit scalaire.
Le but de cette section est precisement d'exarniner les consequences qu'implique
I'introduction d'une telle operation.

La premiere et la troisieme de ces-proprietes decoulent de la relation (2.48)


jo inte respectivemenl a (a) et a (b) de 2.7.3. La deuxierne resulte de la definition
2.7.14 jointe a (b) de 2.2.2.
En particulier, la propriete (a) montre que Ie produit mixte est invariant par

permutation cyclique.

2.8.2 Espaces affines euclidiens

Par (2.48), la propriete (b) resulte aussi immediatement de (2.38). Elle


exprime la linearite Ii gauche du produit rnixte (cf. 6.2.2). La linearite au centre et
Ii droite suit de I'union de (a) et (b).

,;

,~)
i:,

.~.

"

Voici trois identites vectorielles d'utilite pratique :

2.8.3 Exemples
(2.50)
(2.51)

(2.52)

Le lecteur pourra verifier aisement (2.50) au moyen des composantes dans


une base orthonormale directe. Par (2.49), la premiere croix et la barre peuvent
etre echangees dans Ie premier membre de (2.51); grace a (2.50), il s'ensuit que
(x x y I z x v) = (x I y x (z x v)
=

(x I (y I v)z - (y I z)v) = (x I z)(y I v) - (x I v)(y I z),

:1:1,

.~
.~

(
(

'(,.

2.7.18 Quelques identites vectorielles

x x (y x z) = (x I z)y - (x I y)z,
(x x y I z x v) = (x I z)(y I v) - (x I v)(y I z),
(x x y) x (z x v) = [x, y, vIz - [x, y, z)v.

Soil e un espace affine de direction E. On dit que if' est un espace affine
euclidien si E est un espace vectoriel euc1idien.
En vertu de 1.10.5 et 2.2.3, tout sous-espace affine d'un espace affine
euc1idien est lui-meme un espace affine euc1idien.

(I) L'espace '?) de la geometric elementaire est un espace affine euc1idien,


car I'espace directeur V qui lui est associe est un espace vectoriel euc1idien.
(2) Dans l'exernple (2) de 1.9.7, il est montre que tout espace vectoriel Epeut
etre considere comme un espace affine d'espace directeur E lui-meme. Cet espace

affine est euc1idien si E est euc1idien.


(3) Tout espace affine de dimension finie peut etre rendu euc1idien par Ie
precede indique dans 2.5.7.
(4) L'ensemble des solutions du systeme (1.15) est un sous-espace affine
euclidien de JR.3.

(
(
(

(
(

(J
(,..

c
(

est orthogonal Ii S. D'autre part, si Q est un point de !/ tel que QP est orthogonal

2.8.4 Distance et ses proprietes

Dans la suite de cette section, if designera un espace affine euclidien. Le


lecteur desireux de se familiariser de nouveau avec la notation est prie de se
reporter Ii la section 1.9.
On appelle distance des points Pet Q Ie nombre t5(P, Q) defini par

(
(
(

t5(P, Q) =

II

PQ II .

(2.53)

Des regles (I), (2) et (3) de 1.9.5 et des proprietes de la norme vues dans 2.2.5,
il resulte que t5(P, Q) = t5(Q, P), que t5(P, Q) est positif si les points Pet Q sont
distincts et nul s'ils sont confondus. De la condition (b) de la definition 1.9.2 et
de (2.22), il resulte en outre que tout triplet de points (P, Q, R) verifie l'inegalite
triangulaire:

t5(P, R)

t5(P, Q)

7S

Espaces affines euclidiens

Espaces vectoriels euclidiens et espaces affines euclidiens

74

+ t5(Q, R).

(2.54)

Cette inegalite est une egalite si et seulement si P, Q et R sont alignes, c'est-a-dire


appartiennent Ii une merne droite.

. ::t~

'::

'\fr

.....
,'

.~.
;f

Ii S, en ecrivant

QR = QP - RP,
QR est un vecteur de S orthogonal Ii S, done Ii lui-meme. Par
consequent, QR = 0, ce qui entraine Q = R .
nous voyons que

.;

1
:j,,'

.~

;~

'j..
'

l'1

'\

.~

projsPl'

;~

...
.:j

~i
):

j'
I

j:
i

' j~

Fig. 2.5

.: ~

,~

2.8.5 Sous-espaces aflines orthogonaux

.~

On dit que deux sous-espaces affines de if sont orthogonaux, ou que l'un


d'entre eux est orthogonal Ii l'autre, si leurs espaces directeurs sont orthogonaux.

2.8.6 Vecteur normal

1:i
i

'E

Lorsque if est de dimension finie non nulle, on appelle vecteurnormal Ii un


hyperplan !/ de l ' tout vecteur normal Ii la direction S de .Y . Ainsi, une droite
orthogonale Ii un hyperplan .Y a pour vecteur directeur un vecteur normal Ii .Y .

a un sous-espace affine

Soit .Y un sous-espace affine de if de dimension finie. Soit en outre P un


point de t n'appartenant pas Ii Y. On appelle perpendiculaire par P Ii .Y la droite

determinee par Pet proj yP.

a un byperplan

2.8.8 Perpendiculaire par un point

1
,.~
~
,

ia

2.8.9 Distance d'un point

a un sous-espaee affine

'::i'

2.8.7 Projection orthogonale d'un point

Soit .9' un sous-espace affine de if de dimension finie. On appelle distance


d 'un point P II .Y, et l'on note dist(P, .9), Ie minimum de t5(P, Q), Q parcourant

s: Nous nous

proposons de demcntrer que

(
(

~ - projs~

(
(

Soit .Y un sous-espace affine de ? de direction Set de dimension finie. Soit


en outre P un point de i . Nous allons demontrer qu'il existe un point R de .Y
et un seul tel que RP soit orthogonal Ii S. Ce point R s'appelle projection orthogo
nale de P sur Y et se note proj yP.
Soit Po un point quelconque de Y '. Posons R = Po + projs~et montrons
que Rest la projection cherchee (fig. 2.5). D'apres (1.16), R est un point de .9;
en outre, d'apres (d) de 2.6.2, Ie vecteur

P;;R

RP

(2.55)

dist(P, Y ) = t5(P, proj y Pl


Soil Q un point de Y distinct de proj .'7 P. Comme (proj y

p.Hi est orthogo

nal Ii p(projyP), par (2.15) nous voyons que

PQ 11 2 =

p(proj.9::P) + (projyP)Q 1:;...1_ _....


2
= II P(projyP) 11 2 + II (proj gP)Q u > II p(projyP)
= t52(P, proj yP),

t52(P, Q) =

II

ce qui prouve (2.55).

II

2
11

(
Espaees veetoriels euclidiens et espaces affines euclidiens

76

Espaccs affines cuclid iens

77

(
(

Lorsque P n'appartient pas a Y , la connaissance d'un vecteur directeur n


de la perpendiculaire par P a .9' pennet de calculer la distance de P Ii Y au moyen

nous deduisons la relation


"

de la fonnule
dist(P, Y ) =

II

proj.p;;p

II

I (p;;p I n) I
II nil

(2.56)
u

p;;p -

proj'/;;;P

~ + a 'v' - avo

=v -

(v I v') ,

proJ"v = v - - - v .
(v' I v')

(2.58)

On notera que u n'est pas nul, car 9 et 9 ' ne sont pas paralleles, Supposons que
la droite determinee par P et P' soit orthogonale a g et a g '. Alors Ie vecteur
. " est orthogonal a v et a v', done a u. En d'autres termes,

(~ I u)

= (p;;p
In)
(n I D) D.

a '(v' I u) - a(v I u) = O.

(2.59)

(
(
(

Mais

Si g' est de dimension finie non nulle et .9' est un hyperplan de if , tout
vecteur n normal Ii .9' est un vecteur directeur de la perpendiculaire par P Ii .Y .
Lorsque la dimension de if est 3, un tel vecteur est fourni par Ie produit vectoriel
VI x v ' ou VI' v sont des vecteurs directeurs de .9' (pour Ie cas general, voir
2
2
l'exercice 5.5.!3).

(v' I u)

= (v' I v)

(v I v') (v' I v')


(v' I v')

=0

et
(

(v I v')
(v I u) = (v I v) - - - ( v I v') = (u I u),
(v' I v')

done l'equation (2.59) se reduit

2,8.10 Perpendiculaire commune

Posons

ou Po est un point quelconque de .9'. Pour justifier cette formule, il suftit d'obser
ver que
(projyP)P = Po(projy .p) est un vecteur orthogonal Ii n, ce qui
no us pennet de conclure que
(projyP)P

-(

'J

(PoPa I u) - a(u I u) = O.

a deux droites ga~es

Soit !$ et !Z' deux droites gauches de if , c'est-a-dire deux droites non


paralleles et d 'intersection vide. Nous allons demontrer qu'il existe un unique point
P de 9J et un unique point P' de !$' tels que la droite determinee par Pet P' soit
orthogonale Ii 9 et a q '. Cette droite est appelee perpendicu/aire commune Ii 9
et Ii ;;;" (fig. 2.6).

En posant

.
(v' I v)
u' = v' - proJ v' = v' - - - v

(v I v) ,

(2.60)

nous obtenons, de maniere analogue, l'equation

(~ I u')

+ a'(u' I u')

a=

(PoP'o I u)
(u I u)

et

= O.

Nous en concluons que


,

a =

,
(PoPO I u)
(u'l u') ,

(2.61)

ou u et u' sont definis dans (2.58) et (2.60). Par les representations (2 .57), ces
valeurs de a et de a ' determinent les points P et P' cherches, En effet, Ie vecteur
"
est orthogonal Ii u et Ii u', donc a v et Ii v', vu que ces deux vecteurs
appartiennent au plan vectoriel engendre par u et u'.

(
(
(

Soit Po un point quelconque de g et P'a un point quelconque de g '. Soit


en outre V un vecteur directeur de Y et v' un vecteur directeur de 2'. Des
representations parametriques de !i7 et de !7'

Po

av et P'

= PO + a'v',

(2.57)

2.8.11 Distance de deux droites gauches

Soit .9' et .5/' des sous-espaces affines de if de dimension finie. On appelle


distance de Y et Y ', et l'on note dist(Y, .9"), Ie minimum de O(Pfr> P'O>, Po et PO
parcourant respectivement .9' et .9". NoDS nous limiterons a examiner le cas ou
j et .:/ ' sont deux droites gauches, que nous noterons g et g '. Soit n un vecteur
directeur de leur perpendiculaire commune, P et P' respectivement Ie point de 9

(
(
(

\.

79

Espaces affines euclidiens

Espaces vectoriels euclidiens et espaces affines euclidiens

78

\
(
(

(
(

et Ie point de !fl ' appartenant acette perpendiculaire. Si Poest un point quelconque


un point quelconque de 9 ', alors
de 9 et

Po

dist( Y, 9')

= s, P') = II proj.~ II

1(~ln)1
II n II

(2.62)

La verification de cette formule est analogue a celie de la formule (2.56); c'est


pourquoi nous la laissons comme exercice au lecteur.
Dans Ie cas particulier ou la dimension de if est 3, on posera n = v x v' ,
ou vest un vecteur directeur de 9 et v' un vecteur directeur de 9 '.

2.8.14 Angle d'une droite et un sous-espace affme


Soit 9 une droite de if de vecteur directeur v et .9' un sous-espace affine
de if de direction Set de dimension finie non nulle k. Si Y n'est pas orthogonale
a .9 , on appelle angle de 9 el .9' I'angle () des vecteurs v et projsv (fig. 2.8). En
choisissant une base orthogonale quelconque (v" v2, ..., v*) de Set en exprimant
projsv sous la forme (2.32), nous voyons aussitot que cos() est positif, done que
() appartient

a I'intervalle [0,

i).

Si 9 est orthogonale

a .9 ~ I'angle de

g, et ,9'

est, par convention, ~ (c'est-a-dire I'angle de v et n'importe quel vecteur non nul
2
de Y ).
On remarquera que I'intersection de 9 et .9' peut etre vide. En particulier,
notre definition d'angle s'applique a deux droites gauches.

2.8.12 Angle determine par trois points

.9

Supposons que les points Pet R soient distincts d'un point Q. On appelle
angle determine par P, Q, R, et l'on note PQR, I'angle des vecteurs QP et QR
(fig. 2.7).

Q
Fig. 2.8
(
p

Fig. 2.7

2.8.15 Angle de deux hyperplans


Si if est de dimension finie superieure a I, on appelle angle des hyperplans
.9' et Y ' de g l'angle () de deux droites 9 et g ' orthogonales respectivement

2.8.13 Theoremes de Pythagore et du casinos

(fig.2.9)
evident que cos () = I (n I n') I, .
. II est eVI
ou n et n, sont d es
II n 1111 n'lI
vecteurs normaux respectivement a y ' et aY '. II est egalement evident que lorsque
if est de dimension 2, la presente definition de ()coincide avec celie du paragraphe
precedent.
0 '
et a
a c-

Soit P, Q, et R comme dans 2.8.12. D'apres (2.24),

II RP 11 2 = II QP _ QR 11 2
2
= II QP f + II QR 11

211

QP 1111 QR IIcos(PQR),

< "

,J

ce qui s'ecrit aussi so us la forme

b 2(P, R) = b2(P, Q)

b2(Q, R) - 2b(P, Q)b(Q , R)cos(PQR).

(2.63)

+ b2(Q, R).

(2.64)

Les relations (2.63) et (2.64) sont appelees respectivement theoremes du cosinus et


theoreme de Pythagore. On remarquera que (2.64) est encore vraie si P = Q ou
R = Q.

~.

b2(P, R) = b 2(P, Q)

g '

Dans Ie cas particulier ou PQR = ~, cela devient

....
Fig. 2.9

(
80

81

Espaces affine. euclidiens

Espaees vectoriels euclidiens et espaees affines euclidiens

(
2.8.16 Reperes orthononnaux
Supposons que !if soit de dimension finie non nulle n. On dit qu'un repere
(0; e l e2... e.) de if est orthonormal si la base (e l e2' ... eJ est orthonormale.

!
i;
I, !I
I!

Ij

Encore sous I'hypothese que it est de dimension finie non nulle, considerons
un hyperplan .Y de !if de direction S. un vecteur n normal a Y et un point
quelconque Po de Y '. D'apres (1.16). P est un point de Y si et seulement si Ie
vecteur
appartient as. D'autre part. en vertu de (2.31). ce vecteur appartient
a S si et seulement s'il est orthogonal a D. L'hyperplan .Y est done constitue des
points P qui verifient l'equation

XI

x2
xJ

P';P

(n I p';p) =

o.

(2.65)

Munissons iif d'un repere orthonormal (0; el' e2' .... e.) et designons par
les coordonnees de po. par XI' X2 .. . . x. celles de Pet par VI' v2 v.
les composantes de n, L'equation (2.65) s'ecrit, de maniere equivalente, so us la
forme

if,

VI(X I -

xC:>

V2(X2 -

X~

+ ... +

v.(x. -

X~ = O.

(2.66)

V:Z-~2

+ ... +

v"x.

t5.

V1XI

0
V2X2

+ ... +

(2.68)

L'equation (2.67) n'est rien d'autre que l'equation cartesienne de I'hyperplan


Y (cf. 1.11.8). Elle est ici obtenue par un precede propre aux espaces affines
euclidiens. Ce precede montre que les coefficients du premier membre de cette
equation sont les composantes d'un vecteur normal a I'hyperplan. Grace a (2.56).
il fournit en outre une interpretation du second membre:
I t5\

= II n IIdist(O, Y ' ).

XI

+
+

x2 =
xJ =

a
2a.

-1 - 2a '

2 - a'

- 2a'.

= I~I =

J-s.

-(

(3) Les donnees etant celles du probleme precedent. determiner les points
d'intersection P, P' des droites g , g ' et la perpendiculaire commune a g et

a g'.

a =
0
v"x.
(n OP~.

1
1
1

dist(9. 9')

(2.67)

ou
t5 =

=
=
=

et g' d'equations

Solution. En appliquant les formules (2.61) a Po(l. I. I). PO(-I. 2. 0),


yeO, 1,2) et Y'(-2. -1, -2). nous obtenons

ou encore
VIX.

Solution. yeO. 1.2) est un vecteur directeur de g et Y'(-2. -I, -2) un


vecteur directeur de 9 '. En appliquant la formule (2.62) a Po(l. I. I), PO(-I. 2. 0)
et D = Y X v', nous obtenons

xg ~~

'ii ,

Jfi. = Jf

dist(P .9') =

<'
(

(2) Calculer la distance des deux droites gauches g


parametriques respectives

2.8.17 Retour i "equation cartesienne d'un hyperplan


I'

Solution. En appliquant la formule (2.56) a P(O. I. -1.2), poCO. 0.0,2) et


n(l. -1.3, 1). no us obtenons

(2.69)

2.8.18 Problemes de geometrie analytique euclidienne


La geometrie analytique euclidienne traite les problemes de la geornetrie
euclidienne (distance. orthogonalite, angles....) par des calculs dans JR'. Dans les
exemples suivants.I'espace affine euclidien est suppose muni d'un repere orthonor
mal.
(1) Determiner la distance du point P(O, I. -1.2) a I'hyperplan 5i' d'i:qua
tion
XI - x 2 + 3xJ + x 4 = 2.

4,
S.
a

= -

Les coordonnees des points cherches P et P' se calculent alors par (2.57) :
9 13
P(I. S. 5)' r(l, 3, 2).

\
(

(4) Trouver la projection orthogonale du point PC-I. 1.2,3) sur Ie plan Y


passant par Ie point PoCO. - I, O. - I) et de vecteurs directeurs YI (l, I, 0, 0) et
Y2(1, I, I. 1). Determiner. en outre. la distance de Pa Y .
Solution. On voit aussitot que YI et Y2 - YI sorl't des vecteurs directeurs
orthogonaux de 51'. D'apres 2.8.7 et (2.32).

.'

proJyP = Po + proJsPoP = Po +

(PoP I YI)

(JQ I Y2 -

YI)
(Y I Y ) YI + (Y2 - Y I Y2 - YI )(Y2 - YI)'
I
I
I

(
(

(
ce qui nous permet de calculer les coordonnees de projyP. soit 1, ;-t, 3. 2.
La distance de P a .Y est egale a la norme du vecteur P(projyP). c'est-a-dire

a JI3/2.

<

(5) Trouver l'equation du lieu geornetrique des points equidistanta des


points PI(I. O. 2. -I) et P2(0 . I. -I. 1).

(
(

(. .

(
Espaces vectoriels euclidiens et espaces affines euclidiens

82

(
(

Solution. Un point P(x" X2' X3' X4) est situe


si et seulement si

(x, - 1)2

Exercices

a egale distance de PI et de P2

(x 3 - 2)2 + (x 4 + 1)2
=
+ (x2 - 1)2

x7

(x 3 + 1)2

(x 4 - 1)2.

En developpant les cartes, on voit aisement que cette equation se reduit

2x 1 - 2x2

6X3 - 4x 4 = 3.

C'est l'equation d'un hyperplan, appele hyperplan mediateur du segment de


droite P 1P2
(6) Determiner l'equation du cone de revolution de sommet P(3, 0, 3) et
dont I'intersection avec le plan !/ d'equation

83

2.9 EXERCICES
2.9.1 Lesquelles des operations definies ci-dessous sont des produits scalai
res dans R 3?
(a) (x I y) = xLY.
(b) (x I y) = xIY.
(c) (x I y) = xIY,

+
+
+

x2Y2 + x2Y3 + -"3Y2 + 2X3YJ.


X2Yz - 3X2Y3 + x 3Yz + X3YJ.
X2Y2 + xiYz-

Meme question rapportee aux espaces vectoriels respectifs CI_1. II ' CIO. )
et CIR :
(d) (f I g) =

j rf(t)g{t)dt.

-I

2x 1

x2

2x 3 = 3

(e)

est un cercle de rayon 3.


Solution. En appliquant la formule (2.56)
0(2, -1,2), nous obtenons
dist(P, Y ) =

I ~91

(f1 g)

Stf2(t)g{t)dt .

a P(3, 0, 3),

Po(O, - 3,0) et

(I) (f I g) =

Se-'f(t)g(t)dt.
-

2.9.2 Pour tout couple de polynomes p(t)

= 3.

i .. O

i .. O

=:E a/ et q(t) =:E P/, posons

min(m )

La tangente de I'angle () des generatrices et l'axe du cone est done

(P I q) =

3
tg(}=-=I
3
'
ce qui entraine () =~ . Soit Q(x., x2' x 3) un point quelconque du cone dis
tinct de P. L'angle du vecteur directeur 0(2, -1,2) de I'axe du cone et

PQ(x. - 3, x 2, X3 - 3) etant ~ ou 3;, il s'ensuit, grace


(
(

II

:1

2(x, - 3) - x 2

+ 2(x 3 -

XI -

3)2 + ~

16x1x3

a /Pi'

(a) Montrer que l'operation ainsi definie est un produit scalaire dans I'espace
vectoriel des polynomes,
(b) Exhiber. une famille infinie de polynomes orthonormale pour ce produit sea
laire .

a (2.23), que
+

J2

(x3 - 3i)'I3(-).
2

On notera que les coordonnees de P verifient egalement cette equation. 11 ne reste


aloes plus qu 'a elever les deux membres au carte et a developper ces cartes pour
obtenir l'equation dernandee:

x7 + 7x~ + ~ + 8x1X2 -

3) =

:E

i -O

8X2X3 + 42x, - 48x 2 + 42x3 = 126.

2.9.3 Montrer que pour tout couple (x, y) de vecteurs d'un espace vectoriel
euclidier;,

" x + Y,,2

+ II x -

y "z = 2"

11 2 + 211 Y11 2 (identiti' du parallelogramme).

2.9.4 Montrer que dans un espace vectoriel euclidien la somme et la diffe


rence de deux vecteurs de rnerne norme sont orthogonales.

2.9.5 Par Ie precede de Gram-Schmidt, orthogonaliser Ie triplet de vecteurs


de R 4

0
0

2'

I"

\.
t

-I

o
3
-II).

(
Exercices

Espaces vectoriels euclidiens et espaces affines euclidiens

84

85

<"
(

II '
1:

2)1.6 Soit (e., ~, eJ' e4) une base orthonormale d'un espace vectoriel euc1i
dien de dimension 4. Par Ie precede de Gram-Schmidt, orthogonaliser Ie triplet
de vecteurs (x., x z, x J), ou XI = e l + e2 + eJ + e4' Xz = e2 + eJ + e4 et
xJ = e J + e4
//
~ A

2.9.14 Soit E un espace vectoriel euc1idien, oriente et de dimension 3. A


quelle condition doivent satisfaire deux vecteurs donnes y et z de E, pour que
l'equation vectorielle x x y = z ait au moins une solution Xo dans E? Quel est

2.9.. Exprimer 10 "''''''-<010000 [-:] sous I, forme d'une combinai


son lineaire des vecteurs-colonnes

2.9.15 Soit E comme dans I'exercice precedent. Dernontrer les identites

J3 _~ , J2 ~ , J6 =~
I [

I]

I [I]

II
I; t
'

I [

I']

vectorielles suivantes:
(a) (x x (y x z) + (y x (z x x + (z x (x x y = O. (Utiliser"(2.50).)
(b) (x x y I (y x z) x (z x xj) = [x, y, zf. (Utiliser (2.51) ou (2.52).)
lv, y, z]
[x, v, z]
[x, y, v] ([
U ..
)
(c) v = -I--]x + - - ] y + - - ] z x, y, z] i' 0). ( tiliser (2.52).
x,y,z
[x,y,z
Ix,Y,z
/

! ~.

fA: = 0.)
(b) En deduire que S n'adrnet aucun complementaire orthogonal dans C[-~.~J
(autrement dit, que S $ SJ. i' C[_x.~I)

alors l'ensemble des solutions?

i!r

i,

2.9.9 Soit (e l , ez, ..., eA:) une famille orthonormale de vecteurs d'un espace
vectoriel euc1idien E. Montrer que pour tout vecteur x de E,
A:

L (x I e;i

;=1

II

<
(

0 _

I'aide de l'inegalite de Cauchy-Schwarz, montrer que

I
'
.j5
SJf+7dl <-.

L
p

2.9.13 Soit S Ie sous-espace vectoriel de C[_~. ~J forme de tous les polynomes


trigonornetriques.
(a) A I'aide de (2.34), montrer que SJ. = {O}. (prendre un f de SJ. et s'assurer que

(
(

(
"(

Exercices sur les espacesaffines euclidiens


Dans les exercices suivants, lorsqu'il est sous-entendu que l'espace affine
euc1idien est muni d'un repere, celui-ci est suppose orthonormal.

(
(

2
11

~~
,

Dans quel cas les deux membres sont-il~..~g~ux?

2.9.16 Calculer la distance du point P(O, I, -1,2) a I'hyperplan d'equation


XI -

2.9.10 Soit E un espace vectoriel euc1idien de dimension 4, muni d'une base


orthonormale. Determiner la projection orthogonale du vecteur x(3, 2, -2, -I)
sur Ie pf~n vectoriel de E engendre par les vecteurs vl (1, 0, -I, I) et v2(1, 0, 0, I).

Xz

+ 3xJ + x 4 =

2.

(
2.9.17 Trouver l'equation de l'hyperplan mediateur du segment d'extrerni

tes N3, -2, 5, -I) et P2(- 3, 1,2,4).

(
2:9.11 Soit E un espace vectoriel euc1idien de dimension 4, muni d'une base
orthoriormale, Soit S Ie sous-espace vectoriel de E engendre par les vecteurs
VIO, I, I, I) V2( -3, I, I, I) et V3(0, -2, I, I). Determiner Ie cornplementaire
orthogonal de S dans E.

2.9.12 Calculer la meilleure approximation de la fonction f(t) ==


Cl- u l par des polynomes trigonornetriques d'ordre inferieur ou egal a k .

r2

de

2.9.18 Trouver les equations pararnetriques des bissectrices des deux droites
passant par Ie point Po(-I , 2, 1,3), de vecteurs directeurs respectifs v(l, -3,2,2)

et v'(4, 0, I, I).

(
2.9.19 Determiner la projection orthogonale du point P(-I , I, I, I) sur Ie
plan passant par Ie point Po(O, 1,2, -I), de vecteurs directeurs vl(-l, 0, 2, I) et
viO, I, I, -I). Calculer en outre la distance de Pace plan.

(
(

Excrciccs

Espaces vectoriels cuclidiens et espaces affincs cuclidicns

86

87

(
(

2.9.27 Les quatre sommets d'un tetraedre sont p.(l, I, I), P 2(- I, 2, I),
P
2, 3) et P Trouver les coordonnees du point P4 , sachant qu'il appartient a
4
la3(5,
dro ite passant par Po(I, 0, I), de vecteur directeurv(-2, -1,3), et que Ie volume

2.9.20 Dans un espace affine euclidien, oriente et de dimension 3,on consi

dere un point Pet la droite 9 passant par Ie point Po et de vecteur directeur Y.

Montrer que

dist(P g ) =

"

du tetraedre est 5.

II P;P x Y II.
II Y II

2.9.21 Determiner la perpendiculaire commune et la distance des deux

droites d'equations pararnetriques respectives

(
(

XI

=
=
=
=-

XI

x2 = I
x) = -I + a
x 4 = 2 - a,

x2
x)
X4

a'

I - a'

1 + 2cx' .

2.9.22 Calculer l'angle de la droite passant par Ie point Po(l, I, I, I), de


vecteur directeur Y(O, I, -1,0), et Ie plan passant par Ie point Qo(l,O, -I, I),
de vecteurs directeurs YI(I, 1,0,0) et Y2(O , I, I, -I).
2.9.23 Determiner I'angle que forment la droite et l'hyperplan de l'exer
cice 1.12.18.

XI -

2.9.24 Determiner l'angle des deux hyperplans d'equations respectives


- 2x 2 - 3x) + 2X4 + 2x s = - I.

3x2 + x) - 2x 4 - Xs = 2 et 2x I

2.9.25 Soit tff un espace affine euclidien de dimension finie superieure Ii I.


(a) Montrer que les equations des hyperplans bissecteurs des deux hyperplans
de if d'equations respectives (01 I x) = c:5 1 et (021 x) = c:52 sont donnees par
(0Il x) - c:5 1 = +.:...(..:.2.:...
' x...:.)_-_c:5..:2

II
(

01

II

II

0211

(b) Appliquer ce resultat Ii


c:5 2 = 2.

1(1, -1 ,3,1,2), 2(-

1, 2, 4, 0, -2), c:5. = -I et

(
(

<.

'l?

i
'~

2.9.26 Dans un espace affine euclidien, oriente et de dimension 3, on consi


dere .trois points PI' P 2, p) non alignes et on pose O. = pi'IP2' O2 = P/'2P) et
0) = p/')p r- A I'aide du produit vectoriel, demontrer que

'I!'
-:/,

~~

~..

.....-,'
" I"

sinO I
c:5(P2, r,

sin O2
c:5(P I , r,

sinO)

c:5(P , P ) (theoreme du sinus).

(
(

(
(

CHAPITRE 3
-

(
(

Systemes lineaires

' .. ,

.1

I
-f",

I
,I
t

'ifr
..

;;.
~

3.1.1 Introduction
(

Nous avons deja eu 'l'occasion de constater que la resolution de certains


problemes lies aux notions de sous-espace vectoriel et de sous-espace affine se
reduit Ii la recherche des solutions d'un systeme d'equations lineaires, D 'un point
de vue plus general. on voit souvent que des problemes d'origines les plus diverses
se traduisent en tennes d'equations lineaires. Le present chapitre exposera les
principaux resultats de la theorie des systemes d'equations lineaires. L'idee Ii la
base de notre etude est simple: par une succession d'operations elementalres sur

les equations. Ie systerne est transforme en un systeme echelonne equivalent que

I'on peut resoudre facilement. Le precede de transformation est connu sous Ie nom

de methode de Gauss ou methode d'elimination des inconnues.

-(

3.1.2 Systemes Iineaires

On appelle systeme lineaire, ou simplement systeme, toute famille d'equa


tions de la forme

.~

a2l x,

+ a l2x2 +
+ anX2 +

amlx.

+ am2x2 + ... + anurX.

~L

3.1 DEFINITIONS ET EXEMPLES

allx l

+
+

ax. = b,
a~x. = b2

(
(

(3.1)

= bm

ou all' au, .... a"", sont des nombres appeles coefficients du systeme, bl' b1, .... bm
des nombres appeles coefficients du second membre et XI' X2' ... x. des nombres
inconnus appeles inconnues du systerne, Si les coefficients du second membre sont
tous nuls, on dit que Ie systeme est homogene. On appelle systeme homogeneassocie
au systeme (3.1) Ie systeme que I'on obtient de (3.1) en substituant des zeros aux

coefficients du second membre.

(
(

(
3.1.3 Ecriture abregee
~~

'9i

On ecrit souvent Ie systeme (3.1) sous la forme abregee suivante :

.~

-;;

~ ai;-"j

;~ 1

= b., i = 1,2...., m.

(3.2)

91

Definitions ct exemples

Systemes linealres

90

(
(
Une ecriture encore plus condensee sera introduite dans I'exemple (5)
de 4.1.7 .

(
(

A I'aide de la premiere equation. exprimons x I en fonction de X2 et xl:

XI

= t(-I +

3X2

2x l )

(3.4)

Substituons ensuite l'expression ainsi obtenue Ii XI dans les deux autres equations

3.1.4 Solutions d'un systeme

On appelle solution du systeme (3.1) tout n-uplet de nombres (x1. x~, ... x~
tel que

r.a;;cJ =

de (3.3):

de l'autre, autrement dit, s'ils admettent Ie meme ensemble de solutions. On dit


parfois que les equations d'un systeme sont compatibles ou incompatibles, suivant
que ce systeme admet au moins une solution ou n'en admet aucune.

9X2
6X2

3.1.5 Interpretation geometrique


Supposons que les premiers membres des equations du systeme (3.1) soient
non nuls. D 'apres 1.11.8, chacune de ces equations represente alors un hyperplan
d'un espace affine de dimension n. Par consequent. l'ensemble des solutions du
systeme, regarde eomme ensemble de n-uplets de coordonnees, represente une
intersection finie d'hyperplans, Selon 1.10.7, une telle intersection est un sous
espace affine ou I'ensemble vide. Du point de vue geometrique, resoudre un
systeme admettant au moins une solution revient Ii chercher les equations parame
triques (1.19) de ce sous-espace affine.

+ 17xl

= I

solution XI = I. X 2 = 2. xl = -I.
Les deux equations (3.5) s'obtiennent plus rapidement en soustrayant la
premiere equation de (3.3) multipliee par 4 de la deuxieme multipliee par 3 et en
additionnant la meme equation multipliee par 2 Ii la troisierne multipliee par 3. De
meme, nous obtenons l'equation (3.6) en soustrayant la premiere equation de (3.5)
multipliee par 2 de la deuxieme multipliee par 3, puis en divisant les deux membres
par - 19. Ces operations reduisent Ie systeme (3.3) au systeme equivalent
-

x2 = I
x2 = 0

(3) Nous allons main tenant resoudre Ie systeme

(2) Nous nous proposons de resoudre Ie systeme

4x I

x 2 + 3X3
+ 4x 2 + 3X3

= -I

par la methode d'elirninaticn des inconnues.

xI - x2
3x I + 2x 2

+
-

2x l = 0
3Xl = 2.

(3.8)

Eliminons I'inconnue XI de la deuxieme equation en soustrayant la premiere


equation multipliee par 3 de la deuxieme. Cette operation reduit Ie systerne (3.8)

3xI - 3X2 - 2x 3 = -I
- 2x I

(3.7)

attention.

n'admet aueune solution. car les deux equations se contredisent I'une I'autre. Ces
equations representent deux droites paralleles,

3x2 2x 3 = - I
9X2 + 17xl =
I

Xl = -I

que l'on resout par substitution. comme il a ete indique ci-dessus. Par la suite, c'est
cette variante de la methode d'elimination des inconnues qui retiendra notre

(I) Le systeme

(3.6)

-I

Par substitution de cette valeur Ii Xl dans l'une des deux equations (3.5). nous
determinons la valeur de X2' soit X2 = 2. Nous calculons finalement la valeur de
XI par (3.4). ce qui nous donne XI = 1. Le systerne (3.3) admet done I'unique

3.1.6 Exemples

(3.5)

7.

simplification, il reste

3xI

+
+

5xl

A I'aide de la premiere de ces deux equations, exprimons Ii present X2 en fonetion


de Xl et substituons l'expression obtenue Ii X2 dans la deuxieme equation. Apres

Xl

XI
XI

2xl) - x 2 + 3Xl = -I

2x l ) + 4X2 + 3x 3 = 3.

En multi pliant chaque membre par 3 et en groupant les termes, no us obtenons

Resoudre un systerne signifie trouver I'ensemble des solutions de ce systeme. Deux


systemes Ii n inconnues sont dits equivalents si toute solution de I'un est solution

+
+

3X2
3x2

b., i= 1.2 ... m.

j-I

+
+

!(-I
-t(-I

(3.3)

au systerne equivalent

XI -

x 2 + 2x) = 0
5x2 - 9xl = 2.

(3.9)

(
92

93

Existence et unicite des solutions

Systemes lineaires

(
(

Pour resoudre ce systeme, nous assignons aXl une valeur arbitraire c, exprimons
en fonction de (X l'aide de la deuxieme equation, puis XI l'a ide de la premiere
equation . II en resulte que les solutions du systeme (3.8) sont les triplets de nombres
de la fonne

x2

XI =

! -!a

X2 =

! +

Xl

ou

(X

(3.10)

ja

3.2.2 Notation

Nous assignerons aux matrices des symboles propres, a savoir les lettres
latines majuscules imprimees en caractere gras: A, B, ... . Toutefois, les matrices
colonnes seront egalernent designees par les symboles reserves aux vecteurs: a, b,

... ; nous les appellerons d'ailleurs indifferemrnent matrices-colonnes ou vecteurs


colonnes.

(X,

(
(

(
(

3.2.3 Matrices nuUes et matrices-unites

parcourt JR. L'ensernble des solutions represente done une droite.

On appelle matrice nulle, et on note 0 , toute matrice dont chaque tenne est
nul. Les matrices-colonnes nulles sont egalement designees par Ie symbole
vectoriel O.
On appelle matrice-unite d'ordre n, et on note In ou simplement I, la matrice
carree d'ordre n

3.2 EXISTENCE ET UNICITE DES SOLUTIONS

(
(

(
(

a.m

all a l2
a2l an

alj
a"1j

a'n
am

ail ai2 . . . aij

.. am

am' am2 .. . amj

.. aIM

.. . . . .

II

(3.11)

(3.12)

3.2.4 Rang d'une matrice


Soit ai ' a2' ..., an les colonnes d'une matrice A. On appelle rang de A, et on
note rgA, Ie rang de la famille (a:, a 2, . .. . a.) (cr. 1.8.2).
Par exemple, Ie rang de 0 est 0 et Ie rang de I. est n; les rangs des matrices

On designe souvent une matrice de type m x n plus brievement par


(aij)'" i",m ou simplement par (aij)'
l"j"n
Le nombre aij est appele terme d'indices i.]. L'indice i est appele indice de
ligne et l'indice j indice de colonne .
Lorsque m = n, on dit que (aij) est une matrice carree d'ordre n. Dans ce
cas, les tennes all' a22, ... , ann sont appeles termes diagonaux.

On appelle une matrice une seule ligne matrice-ligne et une matrice une
seule colonne matrice-colonne. II est clair qu 'une matrice-colonne n'est rien d'autre
qu'un vecteur-colonne. Par la suite, les lignes d'une matrice seront assimilees des
matrices-lignes et les colonnes des matrices-colonnes.
L'interet de la notion de matrice apparaitra tout au long de ce livre, partir
de cette section, mais la raison d'etre immedia te de cette notion est simplement de
pennettre a certaines families finies de nombres d'etre concues sous la forme d'un
tableau rectangulaire.

Nous verrons au chapitre suivant que 0 joue Ie role d'elernent neutre de


I'addition matricielle et I d'element neutre de la multiplication matricielle.

oI

'(

00 .. . I

On appelle matrice
lignes et n colonnes, ou matrice de type m x n, tout
tableau rectangulaire de nombres

,(

3,2.1 Matrices

10

[i

3 -I

~] , [-~

4 -I

I
3

2I -25) '

I 00-63]

-2
I

sont respectivement 3, 2 et I.

(
(

(
(

(
3.2.5 Matrices associees :i un systeme lineaire
On appelle matrice associee au systeme (3.1) la matrice (3.11), c'est-a-dire
la matrice A dont les termes sont les coefficients du systeme. On appelle matrice
du secondmembre du systeme (3.1), ou simplement second membre du systeme (3.1),
la matrice-colonne b = (b,.) dont les tennes.sont les coefficients du second membre
de ce systeme. On appelle matrice augmentee associee au systeme (3.1) la matrice
obtenue de A en y ajoutant b comme (n + lj-ieme colonne.

(
(

(
(
(

(
(
94

Systemes lineaires

(
Nous venons de definir les differentes matrices associees a un systeme, mais
il est egalernent utile de pouvoir parler du systerne hornogene associe a une matrice
donnee ou du systeme associe a une matrice augmentee donnee. Cette terminologie
s'explique d'elle -meme et nous ne nous attarderons done pas a la preciser davan
tage.

(
(
(

[-~

Considerons un systeme de matrice associee A et de second membre b.


Designons par a a 2.... , a. les colonnes de A. Le systerne s'ecrit alors de rnaniere
equivalente sous la forme d'une equation vectorielle lineaire:

xla l

x2a2 +

... + x.a.

= b.

(3.13)

En effet, les deux membres de cette equation sont les vecteurs-colonnes dont les
i-iemes termes sont les deux membres de la i-ieme' equation du systerne.
D'apres la proposition 1.8.4. l'equation (3.13) admet au moins une solution
(x~. x~, .... x~ si et seulement si Ie rang de la famille (ai' a 2..... a.) est ega I au rang
de la famille augmentee (a a 2 a b). Selon la proposition 1.5.6. cette solution
est unique si et seulement si Ie rang de la famille (a a2. .... a.) est n.
A I'aide de la definition 3.2.4. nos conclusions se resurnent de la rnaniere
suivante:

3.2.7 Proposition. Existence et unicite des solutions d'uR systeme llneaire


I
I

I
\

<

Pour qu 'un systeme lineaire de rna/rice associee A et de second membre b


admette au moins une solution, if faut et if suffit que Ie rang de A soit egal au rang
de la matrice augmentee (A ib). Si cette condition est remplie.Ie systeme admet une
seule solution si et seulement si le rang de A est ega! au nombre d'inconnues,
autrement dit , les colonnes de A sont lineairement independantes.

-2
17
5

3 -3
9
0
0
0

-I]

-I]

~
-I]
-I
3

3L 2 - 4L I
3L J + 2L 1

-n(3LJ

(3.14)

2LJ

-2
17
I .
I -I

(3.15)

Le systeme associe a la matrice augrnentee (3.15) est Ie systeme (3.7). Suivant


l'expression que nous allons introduire dans 3.3.5, la matrice (3.14) a ete reduite
a la forme echelon nee (3.15) par des operations elementaires sur les \ignes. II est
peut-etre superflu de preciser que Ie symbole Lj utilise ci-dessus designe la i-ieme
ligne de la matrice contigue et que la formule suivant la i-ieme ligne indique les
operations a elfectuer pour obtenir la i-ieme \igne de la matrice successive.

3.3.2 Matrices echelonnees


On dit qu'une matrice est echelonnee si ses \ignes satisfont aux deux condi
tions suivantes:
(a) Toute ligne nulle n'est suivie que de lignes nulles.
(b) L'indice de colonne du premier terme non nul de toute Iigne non nulle est
superieur a I'indice de colonne du premier terme non nul de la ligne qui la
precede.
Une matrice echelonnee non nulle est done de la forme

al
aln

!.~!!. I": ":"":1~Y.L.:....:...:.


o

\ ~~!r. . . .:.. :. .:.. ~~.

3.3 MATRICES ECHELONNEES

3.3.1 Exemple

La methode employee pour reduire les systernes (3.3) et (3.8) aux systemes
equivalents (3.7) et (3.9) est. en fait. un precede d'annulation de certains termes
de la matrice associee au systeme par des operations sur les lignes de la mat rice
augmentee, Voici, indiquee acote de cette mat rice, la suite des operations que nous
avons effectuees pour aboutir au systerne (3.7):

-3
9
6

-2
3
3

(3.16)

<

-3
-I
4

3
0
0

3.2.6 Ecriture vecterielle d'un systeme IIneaire

9S

Matrices echclonnees

ouil < l: < ... < l, et aliI ' a2;2' .... a'i, sont des termes non nuls. Bien entendu, les
lignes nulles terminales peuvent manquer.
Les matrices nulles et les matrices-unites I. sont des matrices echelonnees,
Deux autres exemples de matrices eehelonnees sont les suivants:

o
o
o

o
o
o
o

-2

2 -I

0
0
0

o
o

2 1,

[~

2 -3

0-1

000

~]

(
Matrices echelonnees

Systemes lineaires

96

97

(
(

I
i
i

I
i

a;'

ia'2h

3.3.3 Rang d'une matrice eehelonnee


Les colonnes dindiceJ,h ...J,de la matrice (3.16) sont c1airement lineaire
ment independantes, Envisagees comme des vecteurs-colonnes de R,'. elles forment
done une base de cet espace vectoriel. En considerant les autres colonnes egalement
comme des vecteurs-colonnes de R,'. nous en deduisons qu 'elles sont combinaison
lineaire de celles dindiceJI.h .... J, et donc que Ie rang de la matrice (3.16) est r.
On notera que r est le nombre de lignes non nulles de la matrice (3.16) et
egalement le rang de la famille des lignes de cette rnatrice, puisque les lignes non
nulles sont manifestement lineairement independantes,

(
a;""

ja;'j2

foumit une matrice A(2). puis une matrice A()) et, ainsi de suite, jusqu'a A(m) ou
jusqu'a ce que la seule Iigne non nulle d'une matrice A(') soit la premiere. A ce point,
1a matrice transformee est de la forme
: (I)

a(Inl )
a(2)
2n

~~ ~!.1...:" ""1.~y.~i. :

(3.17)

3.3.4 Operations elementaires sur les lignes d'une matrice

On appelle operationeJementaire sur les /ignes d'une matrice toute operation


de I'un des trois types suivants :

......1 a( ~ )

d:')

..........

rn
........................

: 'Jr

,(

\;i
I

Type I: echanger deux lignes.

Type 2: additionner a une ligne un multiple d'une autre ligne.

Type 3: multiplier une ligne par un nombre non nul.

,\
3.3.6 Pivots

3.3.5 Reduction Ii la fonne echelonnee


Toute matrice peut etre transformee en une matrice echelonnee par une suite
finie d'operations de type I et 2. On dit egalement que toute matrice peut etre
reduite alaforme echelonnee par une telle suite d'operations, Soit en effet A = (aij)
une matrice de type m x n non nulle . Si m = I. A est echelonnee, Si m > I,
designons par J. Ie plus petit indice de colonne non nulle. En echangeant deux
lignes, si necessaire, nous transformons A en une matrice A(I ) = (a~l) dont Ie terme
a\}: est non nul. En additionnant ensuite a chaque ligne d'indice i ~ 2 la premiere
no us voyons que All ) se reduit soit a une matrice
ligne multipliee par
de la forme

-aW/aU:.

' a (l)

:..y !...........]

a2

a(InI ,

a;'

o
fa;"h

. .. a:n,.

ou les termes a2h , ajh' ..., a;'j2 ne sont pas tous nuls, soit a une matrice dont les
lignes d'indice i ~ 2 sont nulles. Dans Ie deuxieme cas, la matrice est echelonnee.
Dans Ie premier cas. Ie merne precede de reduction applique a la matrice

Les termes a\}~, ag~, ..., a~J~ de la matrice (3.17) sont appeles pivots. Dans les
operations de reduction. les pivots servent a annuler certains termes des colonnes
dont ils font partie. Par extension, on appelle pivot d'une matrice echelonnee non
nulle tout premier terme non nul d'une ligne non nulle . Les pivots de la matrice
(3.16) sont donc alii' a'!j2' .... a,j, D'apres 3.3.3, Ie rang d'une matrice echelonnee
est egal au nombre de pivots qu'elle comprend.
(

a la fonne echelonnee simplifiee


Le precede employe pour parvenir a la mat rice echelonnee (3.17) peut etre

3.3.7 Reduction

poursuivi. Plus precisement, chaque pivot peut etre utilise pour annuler tous les
autres tennes de la colonne dont il fait partie. Par exemple, nous annulons Ie terme
a\}~ en additionnant ala premiere ligne la deuxierne multipliee par a\~/a~~. Apres
cette suite d' ope rations, nous divisons encore chaque ligne non nulle par son pivot.
Nous obtenons ainsi une matrice echelonnee dont les pivots sont des 1 et les
colonnes dont ils font partie des vecteurs-colonnes de la base canonique de R,m.
Une telle matrice est appelee matrice echelannee simplifiee. Ainsi, to ute matrice non
nulle peut etre transformeeen une matrice echelonnee simplijiee par une suite finie
d'operations elementaires sur les lignes. On dit egalement que toute matrice non
nulle peut etre reduite a laforme echelonnee simplifiee par une telle suite d'opera
tions .

(
(

(
(

( .,

(
{

98

Systemcs IinCaires

Matrices echclonnees

99

Voici deux exempl es de matrices echelonnees simplifiees :

[~

(
(
(

I
0
0
0

2
0
0
0

0
I
0
0

3
-2
0
0

0
0
I
0

_2J

[~

-I
1
0

0
1
0

3.3.9 Remarques
0
0
"I

( I) D'apres 3.3.5, la reduc tion d'une matrice a la forme echelonnee peut se


faire sans I'emploi d'operations de type 3. En pratique. toutefois, il est souvent plus
commode d'utiliser egalement ce type d'operation , notamment pour eviler l'intro
duction de fractions, lorsque les termes de la ma trice sont des entiers (cf. exemple
3.3.1).
(2) Le lecteur aura note que la suite d'operations reduisant la mat rice (3.18)
a la forme echelonnee (3. 19) n'est pas celie qui est exposee dans 3.3.5. Des
modifications du mecanisme de reduction analogues a celles que nous avons
operees sont souvent avantageuses et va rient de cas en cas. Notre but evident eta it
d'eviter I'apparition de fractions .

-:)

3.3.8 Exemple de reduction


(I) Nous allons redu ire la matrice suivante

[-~

10
.- 6
12
4

11
-7
14
5

-I
I
-2
-I

1 -41
-I
27
2 -52
1 -19

2
-2
0
4

1
-2
- I
5

I
0
I
-I

-I
0
-I
I

-3
8
5
-19

0
0
0

2
0
0
0

I
-I
-I
3

I
I
1
-3

-I
-I
-I
3

-3
5
5
-13

I
0
0
0

2
0
0
0

I
-I
0
0

I
I
0
0

-I
-I
0
0

-3
5
2
0

h
1

a la forme

echelonnee:

OJ LL, - 2L.

o
6
3

2+L(
L J - 3L(

(3.18)

-l .
3

[~

L 2 + L)

-3

2
0
0
0

I
I
0
0

I
-I
0
0

-I
I
0
0

-3
-5
I
0

L J - L2 puis echanger
L( + 3L 2 L J et L(

-3
-6
J
6 .

(3.19)

I
0
0
0

2
0
0
0

0
I
0
0

2
-I
0
0

- 2
I
0
0

0
0
I
0

-63J LL, +- L,5L - 2L,


2

3
0

18

3 .
-"J

+ L2

L
[~ 2)2 L
L
L)
1 2 -

[~ ~) .

Les operations elementaires sur les lignes d'une matrice ne modifient pas son
rang. En effet, si at, a2' .... an sont les colonnes d'une matrice A et ai. a2' .... a~ celles
de la matrice A' deduite de A par une operation de type I. 2 ou 3. alors to ute
rela tion de la forme

cxlajt + CX2aj2 + ... + cxkajk = 0


impl ique la relat ion

L,

L2 + L I

3.3.10 Conservation du rang

(2) Pour reduire la mat rice (3. 18) a la forme echelonnee simplifiee, nous
multiplions d'abord la deuxieme ligne de (3. 19) par - I et divisons la trois ieme par
2; ensuite no us procedons ainsi:
I
0
0
0

-n

L( - 2L t

_6J

-3
-3
IS

(3) Lorsqu'une ligne a ete modifiee, il faut se garder d'utilise r encore sa


forme non modifiee. Celli peut entrainer de graves erreurs, coinme Ie montre
l'exemple simple suivant:

(3.20)

cxlajl + cx2aj2 + ... + cx~jk = 0


et inversement, ce qui prouve qu 'a to ute famille libre de colonnes de A correspond
une famille libre de colonnes de A: et inversement, done que rgA = rgA:.
II est d'autre part evident que les operations elementaires sur les lignes d'une
matrice ne modifien t pas Ie rang de la famille des lignes de cette matrice . Or, nous
avons observe dan s 3.3.3 que Ie rang de la famille des lignes d'une matrice
echelonnee est egal au rang de la famille des colonnes, c'est-a-d ire au rang de cette
matrice. Compte tenu de 3.3.5, nous en concluons que Ie rang de n'importe quelle
matrice est egalemem Ie rang de la famille des /ignes de cette matrice.
Comme corollaire de cette conclusion. il apparait que
rgA

min(m. n).

ou A est une matrice de type m x n.

(3.21)

(
100

Systemes lineaires

101

Methode de resolution de Gauss

(
(

3.3.11 Reduction d'une matrice carree d'ordre n et de rang n

3.4.2 Resolution d'un systeme lineaire admettant exactement une solution

Le rang etant conserve par les operations elernentaires sur les lignes, la forme
echelonnee sirnplifiee de toute matrice carree d'ordre n et de rang nest la matrice
unite In.

Considerons un systeme de m equations a n inconnues, de matrice associee


A = (a;) et de second membre b = (h;). Supposons que ce systerne admette une
solution unique. Nous allons determiner cette solution par Ie precede de reduction.
D'apres la proposition 3.2.7, n = rgA = rg(A ib). On notera, au passage, que n
est, dans ce cas, inferieur ou egal a m, par (3.21). D'apres 3.3.5, la matrice
augrnentee (A ib) peut etre reduite a la forme echelonnee par des operations
elementaires sur les !ignes. Puisqu'en vertu de 3.3.10 les rangs de A et de (A ib) ne
sont pas modifies par les operations de reduction, la matrice echelonnee aura la

3.3.12 Calcul du rang d'une matrice

Le rang d'une matrice peut etre determine par reduction la forme echelon
nee. Tres souvent, cependant, ce rang peut etre trouve avant que la forme echelon
nee ne soit atteinte. Voici un exemple :
I

3
-5
-2
-1

-I
I

2
4

-3
2
1

-6

-I

I
0
0
0
0

3 L 2 3L 1
-7 L) + 5L.
2 L4 + 2L,
I t, + L I

-4
1

-I

-8

2
-2
4

0
0

forme

'a'n

6
0
0
ou all'
s'ecrit

~~ >:.

al2x2
a22-"2

+
+

+ a1n-"n
+ a2n-"n

:."7:'

..' ..... ."":

METHODE DE RESOLUTION DE GAUSS

....,

r~-~~~~

Effectuees sur les lignes de la matrice augmentee associee a un systeme, les


operations de type I, 2 et 3 sont l'expression d'operations sur les equations de ce
systeme. Ces operations transforment Ie systeme en un systeme equivalent. En
effet, echanger deux equations ou multiplier une equation par un nombre non nul
ne change en rien l'ensemble des solutions. D'autre part, toute solution d'un couple
d'equations de la forme

+
+

ai2-"2
a12-"2

+
+

+
+

1. ~~. . ~.;.

- (

a cette matrice augrnentee

= hI
= h2

(3.22)

D'apres 3.4.1, ce systerne est equivalent au systerne initial. Les inconnues x.' x 2'

+ cxa/.)xl + (a'2 + cwn)x 2 + ... +


a/lx 1 + a12x2 + ... + al".". = hi

(ain

+ aalJx.

b, + ab,

et inversement, ce qui montre que l'addition a une equation d'un multiple d'une
autre equation laisse I'ensemble des solutions inchange,

a la premiere, par substitution.

A titre d'exemple, nous allons resoudre Ie systeme


X,
2x,

3x I
XI

+
+
-

X2
3x 2
X2
2X2

+
+
+
+

2x)
6x)
2x)
3x)

- 3x 4 =
- 5x 4 =
2
- 7x4 =
5
- X4 = - I .

Reduisons d'abord la matrice augmentee

1
2 3
3 -I
1 2

a;n-"n = b,
al"."n = hi

est solution du couple d'equations

(a;1

..., x. peuvent etre determinees dans l'ordre inverse, en resolvant les equations
successivernent de la derniere

" ' " . ;.~ .: .' 3.... f Operations elementaires sur les equations d'un systeme Iineaire

ajJx,
a/lx,

a;",x. = h~.

W~
--J ....

.:"

. . . h2

a22' ..., a;'" sont les pivots. Le systeme associe


al Jx.

..~.) fj~

-12

....

-1

Le rang de la famille des !ignes et done de la matrice est visiblement 3.

. ',

b;,

. . .

!.~~. :....:.....

1
0
0
0

2
6
2
3

-3
1
-5 2 L2 - 2L,
-7 5 L) - 3LI
-1 -1 L 4 - L J

2 -3
I
I
0
2
2 3 1
0
o -1 I -2 2L4
1
1

LJ

(
(
(

a la forme

echelonnee :

I
1 2 -3
1 2 I 0
o -4 -4 2 2 j t(L) + 4L 2)
2 -2 L4 - L 2
1 I
0

0
0
0

1
0
0

1
2 -3
0
2
I
2 3 I
5 -3
0

(
(
(

Methode de resolution de Gauss

Systemes lineaires

102

dans Ie second mernbre, no us obtenons un systeme de r equations Ii r inconnues


(appelees inconnues principa/es) que nous resolvons comme il est indique dans
3.4.2. La solution s'exprimera en fonction des valeurs aj ces valeurs jouant Ie role

Le systeme associe Ii cette matrice augmentee s'ecrit


XI

,I

X2
X2

+ 2x 3 + 2x3 +
2x 3 +

3x 4 =

X4 =

3x 4
5X4 =

de parametres.

Resolvons, par exemple, Ie systeme

I
-3 .

La derniere equation determine X4' puis la troisieme x3 et ainsi de suite . L'unique


solution du systeme est
II

XI

= -S

x2

= -5'

X3

= S

X4

+ IOx2 + IIx3 - X4 +
6X2 7x3 + X4 6x I + 12x2 + 14x3 - 2x4 +
2xI + 4x z + 5X3 - x 4 +

-s3

ai. bi
a;" bz
(3.23)

a,i
......

a;. b;.

~r.

(
(

(
(

(
(

aiiJxiJ + ...
a2j2xjz

... + ai.x.
... + a'z.x.

+ ..,
a;j,Xj,

+ ... + a;.x.

= bi

= b'z

XI

52x 6 =

Nous attribuons ensuite des valeurs arbitraires ai' a 2. .... a._, aux n - r inconnues
d'indice j different de l l ....l- (s'il n'y a pas de telles inconnues, Ie systeme se
reduit au systeme (3.22. En groupant alors les termes contenant les valeurs aj

x3
-X3

x. =

X2 = a..

II

"
I
~I

.' ",

.~

+ X4 + X4 -

Xs -

Xs

3x 6 =
5x 6 =
2."C6 =

-6
-3
6.

(3.26)

(3.27)

a 2 Xs = a 3

oti a a2 et a3 sont des nombres arbitraires. Le systeme


XI

x3 -x3

-6 - 2al - az
-3 - a 2 + a 3
2x6 = 6

3x6 =

a3

5x 6 =

peut alors etre resolu, par substitution. de la derniere Ii la premiere equation. La


solution generate est
XI

-15 - 2a. - 2a 2

x2 = a l
x 3 = 18

+ a2

2a 3

a3

(3.28)

= az
X s = (X3

X4

X6

= 3.

3.4.4 Utilisation de la forme ecbeloooee simplifiee

(3.24)

b;.

+ 2x2 +

Posons

oti aiiJ' a~2' ... a;j,sont les pivots, soit une matrice de cette meme forme, mais avec
un pivot supplementaire b;+ I dans la derniere colo nne. Dans Ie deuxieme cas. Ie
systeme n'admet aucune solution. car la derniere colonne n'est pas combinaison
lineaire des autres colonnes. Dans Ie premier cas. Ie rang de la matrice associee au
systeme est egal au rang de la matrice augmentee, done Ie systeme admet au moins
une solution. d'apres la proposition 3.2.7. Pour trouver I'ensemble des solutions.
DOUS ecrivons d'abord Ie systeme reduit equivalent au systeme initial:
(

(3.25)

6
Xs - 19x6 = 3.

2xs -

La matrice augmentee associee Ii ce systeme est la matrice (3.18). Par des opera
tions elementaires sur les lignes, cette matrice a ete reduite Ii la forme echelonnee
(3.19). Le systerne associe a la matrice sous cette forme s'ecrit

Considerons Ii nouveau un systeme de m equations Ii n inconnues, de matrice


associee A = (a;) et de second membre b = (bJ. Si la mat rice A est nulle, ce
systeme n'admet de solutions qu'a la condition que b aussi soit nul. Sous cette
condition. I'ensemble des solutions est manifestement JR". Si la matrice A est non
nulle, nous transfonnons la matrice augmentee (A ib) en une matrice echelonnee,
selon ce qui a ete etabli dans 3.3.5. Le resultat de cette transformation est soit une
matrice de la forme

!.~i!" ,..:,..,~...:. i,~!~,...:....~,..:.

Xs - 41x6 = 0
Xs + 27x6 = 0

5xI

-3x. -

3.4.3 Resolution d'un systeme Iineaire dans Ie cas general

103

'v

' .~
' ,~

;r'
~i

Lorsque Ie systeme Ii resoudre admet plus d'une solution. il est souvent plus
commode de poursuivre la reduction jusqu'a la forme echelonnee simplifiee. On
peut alors resoudre Ie systeme reduit, comme dans 3.4.3. en attribuant des valeurs
arbitraires aux inconnues dont l'indice n'est pas I'indice de colonne d'un pivot et
en exprimant les autres inconnues en fonction des valeurs attribuees,

(
104

Systemes lineaires

Structure et dimension de I"ensemble des solutions

Par exemple, Ie systeme (3.25) est equ ivalent au systeme assode a la matrice
augrnentee (3.20) (obtenue par reduction de la matrice (3.18) a la forme echelonnee

'f.

simplifiee):

.;'' C:

x,

2x 2

+
XJ -

2x 4
X4

Xs

x6 =

"

i
~
j

= -IS
=
18

2x s

l,

3.

On resout ce systeme en posant x 2 = ai' X 4 = a 2, X s = a J et en ecrivant, san s plus


aucun calcul, XI' XJ' X 6 en fonction de ai ' a 2' a J. Le resultat est la solution (3.28).

'i

105

(
(

3.4.6 Choix du pivot


Lorsqu'on resout un systerne par reduction a la forme echelon nee en calcu
lant avec un nombre limite de chiffres significatifs, on amoindrit les erreurs
d'arrondi en choisissant, parmi les coefficients pouvant jouer Ie role de pivot, Ie
plus grand en valeur absolue. Le choix d'un pivot petit en valeur absolue diminue
la precision des calculs . Les erreurs proviennent, en effet, de I'addition acertains
coefficients de multiples d'autres coefficients divises par un pivot. Ces erreurs
seront d'autant plus petites que Ie pivot est grand en valeur absolue.

: '~

(
(
(
(

(
(

'~
"J

3.4.5 Resolution simultanee de plusieurs systemes Uneaires


Pour resoudre plusieurs systemes associes a une meme matrice A = (aij) et
dont les seconds membres sont b = (bi ) , C = (cj ) , d = (dJ, ..., i1 a avantage
effectuer les operations de reduction une seule fois sur la matrice A augmentee des
colonnes b, c, d. ....
Par exemple, pour resoudre les deux systernes

XI
3x I
5x 1

+ x2 +
+ 2x 2 +
+ 4x 2 +

2xJ = I
3xJ = 4
7xJ = 6,

+ x 2 + 2xJ =
+ 2~2 + 3xJ =
+ 4x 2 + 7xJ =

XI
3x I
5x t

3
-3

3.

on reduit la mat rice associee, augmentee des deux seconds membres,

a la forme

'/if

.i

[i

2
3
7

[i

I
I
- I

2
3
-3

-I
12
I -12 L J

[i

0
I
0

-I
3
0

2
-I
0

I
2

I
4

-i]-L' + JL,
L
,
+

r-

3 L J - 5L I

Les deux systemes reduits s'ecrivent alors


- xJ = 2
XI
XI
x 2 + 3xJ = - I ,
x2

L2

On obtient les solutions en attribuant une valeur arbitraire a


exprimant les deux autres inconnues en fonction de a :

XI = -9 + a

= 12 - 3a

X2

x J = a .

3.5 STRUCTURE ET DIMENSION DE L'ENSEMBLE


DES SOLUTIONS

Pour etudier I'ensemble des solutions d'un systerne, il est utile de considerer
toute solution comme un vecteur-colonne de IRn ou n est Ie nombre d'inconnues
de ce systerne. L'ensemble des solutions est alors un sous-ensernble de R n dont
nous allons examiner la structure.

, ,~.

,~

't!

~.
.y.:

x J = -9
3xJ = 12.

3.5.1 Introduction

.~

, ~;

I~ .

Le nombre d'operations necessa ires pour resoudre un systerne de n equa


tions a n inconnues par reduction de la matrice augmentee associee a la forme
echelonnee est, pour n grand. de I'ordre de n J La preuve de cette assertion est
laissee comme exercice.

:1

<~

-9]

3.4.7 Nombre d'operations

' , .~

echelonnee simplifiee:

XI = 2 + a
x 2 = -I - 3a
xJ = a,

.,.
IF

3.5.2 Systemes linealres homogenes


Considerons un systerne hornogene de m equations a n inconnues et de
matrice associee A = (aij)' II est clair que 0 est une solution (appelee solution nulle
ou triviale). En outre, toute combinaiso n lineaire a1x, + a 2x 2 = (alxJ + a.2xJ) de
solutions XI = (x) et x 2 = (xJ) est egalement une solution, car
n

aI'inconnue xJ et en

L ay(a1xJ + a2X;) =
j=1

a l L aijxJ
j- I

\
(

+- a 2 L aijxJ

= 0, i = 1,2, .... m.

j -I

Cela montre que I'ensemble des solutions est un sous-espace vectoriel de IRn Si
A est la matrice nul1e, il est evident que ce sous-espace est IRn lui-rneme. Ecartons
ce cas et reduisons A a la forme echelonnee simplifiee, Supposons, pour alleger
I'exposition, que la mat rice reduite soit de la forme particuliere

(
(

(
(

(,

(
(

(
(

I a lz
0 0
0 0
0 0

(
(
(
(

0 a l 0 a l6 a l7
I a2. 0 a26 a27 .
1
0 0 I a36a37
0 0 0 0 0

xl

X.

x,

= a.

X6
X7

LaiJ(yj j-I

(3.29)

tr

En procedant comme it est indique dans 3.4.4. c'est-a-dire en attribuant aux


inconnues x z x x 6 X 7 des va leurs arbitraires a l a z. a l a nous voyons que la
solution generaIe du systeme s'exprime par

XI
Xz

i
j;

.~

'l'

-a1z

-at.

-a16

-at7

~j

I
0
0
0
0
0

-a 26

-a2.

+ az

I
0
0
0

+ al

-a27

+ a.

-a36

-a37

I
0

0
I

I.

(3.30)

Designons les quatre vecteurs-colonnes du second membre de (3.30) par xI' X Z xl


et x. Ces vecteurs sont des solutions du systerne (Xi s'obtient en posant a t = I et
a j = 0 pourj #- I) et, de plus . its sont lineairement independants. En outre. d'apres
(3.30). toute solution du systerne est combinaison lineaire de ces quatre vecteurs.
lis fonnent done une base du sous-espace vectoriel des solutions. ce sous-espace
etant par consequent de dimension 4. On remarquera que 4 est egal au nombre
d'inconnues moins Ie rang de A. Le raisonnement dans Ie cas general est Ie rneme
et entraine la proposition 3.5.3.

i
.1

!j

j'

f:

.(

= Xo

+ alx . + a zxz + ... +

(3.31)

a, _,x,_, .

ou aI' a z..... a, _, sont des nombres arbitraires et

XI ' x z ... x, _, fonnent une base


du sous-espace vectoriel des solutions du systeme hornogene associe (si r = n, la
solution Xo est unique). II en resulte que I'ensemble des solutions du systeme est
un sous-espace affine de JR'. plus exactement Ie sous-espace affine

Xo

(3.32)

+ S.

ou S designe Ie sous-espace vectoriel des solutions du systeme hornogene associe


(cf. exemples (3) et (4) de 1.9.7).
Les resultats obtenus sont resumes dans les paragraphes 3.5.6 3.5.9.

3.5.6 Proposition

Toute solution d'un systeme lineaire admettant au moins une solution Xo


s 'obtient en additionnant Ii Xo une solution du systeme homogene associe.

L 'ensemble des solutions d 'un systeme lineaire Ii n inconnues admettant au


moins une solution est un sous-espace affine de R' de dimension n - r, ou r est le
rang de la matrice associee au systeme.

;;

Pour qu 'un systeme lineaire homogene Ii n inconnues n 'admette que la solution


nulle, ilfaut et iI suffit que r = n, ou r est le rang de la matrice associee au systeme.

ce qui .m ontre que y - Xo = (yj - xJ> est une solution du systeme homogene
associe et done que toute solution du systeme s'obtient en additionnant aXo une
solution du systeme hornogene associe. Compte tenu de la proposition 3.5.3, la
solution generale s'ecrit done sous la forme

Les solutions d'un systeme lineaire homogene Ii n inconnues forment un


sous-espacevectoriel de JR' de dimension n - r, ou r est le rang de la matrice associee

,i.'.

.
.i

= O. i = 1,2 ... m.

3.5.7 Proposition

3.5.4 CoroUaire

bi

:>

:j

= b, -

';

Le corollaire suivant derive egalement de la proposition 3.2.7.

"

LaijYj - La0J
j- I
j- I

3.5.3 Proposition

au systeme.

xJ> =

1.'
-s

107

Structure et dimens ion de I'ensemble dcs solu tions

Systemcs lineaires

106

En raison de (3.21). un systerne homogene dont Ie nombre d'equations est


inferieur au nombre d'inconnues admet done toujours des solutions non nulles .
3.5.5 Systemes lineaires dont Ie second membre o'est pas nul

Considerons un systerne de m equations n inconnues, de matrice associee


A = (Pij) et de second membre b = (bJ. Supposons que ce systeme admette au
mo ins une solution X o = (xJ>. Si y = (Yj) est aussi une solution, alors

if
:,

D'apres cette proposition, un systeme lineaire dont Ie nombre d'equations


m est inferieur au nombre d'inconnues n n'admet en aucun cas une seule solution.
car n - r > m - r ;;l: O.

" J.

...
:j

"

I
.,

'.'

3.5.8 Corollaire

Pour qu'un systeme lineaire admette une solution unique, il [aut et il suffit qu'il
admette au mains une solution et que le systeme homogene associe n 'ait que la
solut ion nu//e.
Si Ie nombre d'equations m. Ie nombre d'inconnues net Ie rang r sont egaux.
Ie rang de la matrice augmentee associee au systeme ne peut etre superieur r .
Dans ce cas. la proposition suivante peut etre consideree comme corollaire de la
proposition 3.2.7.

(
108

SystCmcs lincaires

109

Exereices

(
(

3.5.9 Proposition

3.6.6 Soit aI' a2' ... an des nombres distincts et k un entier positif inferieur
a n. Montrer que Ie rang de la matrice

Un systeme lineaire de n equations Ii n inconnues admet une solution unique

si et seulement si Ie rang de la matrice associee au systeme est n.

tI.

a l of
a2 ~

tIz

(
(

3.6 EXERCICES

an
est egal

cl. . ..

a k+ I.

3.6.1 A quelle condition doit satisfaire Ie coefficienta, pour que Ie systeme

+ xJ
+ xJ
+ x2 + aXJ
x2

XI

x,

3.6.7 A quelle condition doivent satisfaire bl' b2 et bJ pour que Ie systeme

= b,

= b2

= bJ

+
+

2x 2

3xJ == b l

6x 2
xI - 2x I

II xJ = b I

7x J = bJ

XI

2x I

admette au moins une solution quel que soit Iechoix de bl , b2 et bJ ? Cette condition
etant remplie, ce systerne a-t-il plus d'une solution?

admette au moins une solution?

3.6.2 Dans chacun des cas suivants, dire, sans Ie resoudre, si Ie systeme n'a

aucune solution, une seule solution, plus d'une solution:

3.6.8 Dans un espace affine de dimension 4 muni d'un repere, on considere


les deux plans d'equations pararnetriques respectives

(a)

2x1
-3x l

2X2 + 4xJ = I
3x 2 - 6x J = 2
X2 + 2.'CJ = I.

XI -

(c)

+ x 2 + 5x J

(b) 5xI - 3X2


-XI + 2X2
2x 2

+
-

+ 4x 4

xJ

XJ -

2x J

=
6
x 4 = -2

3x 4 =
3.

3
x, - 2X2 - 2x J = - I

-3x l + 2x 2 + x J = -I

3xI - 3x 2 - 2xJ =
O.
2.\:1

;:;

3.6.4 Reduire les matrices suivantes

5
2

- I
2

-2

-I
3
I
I

-3

4 1,

a 2.

al

aI'

-I

-I

- 3
[ 4
5

2
3
I

I
-4
0

4-1

-3
2
-3

-I
2
2 -I

+ 2a:2

+ 2a:2

5 + a l - 5a2

2 + 2a l + 3a 2.

XI

al

- 2

2
0
4

+ x2

2 X4 -

X4 -

X4 -

xJ - 2x4

9x s =

13
6xs = -6
6.'Cs =
I
tx s = -3

a la forme echelonnee, puis en tirer la solution generale du systerne.

-~J

3.6.10 Resoudre Ie systerne

5 .
- 2

aXI
aIx I

aJx l

a
b

3x I - h I - xJ
x \ - XI + 2x J
x\ - x2 + x J
- XI

3.6.5 Deerire I'ensemble des triplets (a, b, c) rendant Ie rang de la matrice

egal

=
X2 =
xJ =
x4 =

2a 2

3.6.9 Reduire la matrice augmentee associee au systerne

a Ia forme echelonnee:

Trouver l'intersection de ces deux plans.

3.6.3 Determiner Iepolynome p de degre 3 qui satisfait al'equation differen


tielle p(t) + p(t) - p(t) + t - t J == 0, ou Ie point designe la derivation par rap

port a t.

-I

I + al
-I - a l
x J = 2 + 3a l
X4 =
I + al
X, =

XI =

+
+
+

b''C2

b2x 2
bJX2

+
+
+

-\

eXJ = I
2xJ = I
~xJ = I.

(
(

(
(

ou a, b et c sont des nombres distincts et non nuls.

:]
".

:1

3.6.11 Par reduction simultanee, resoudre les deux systernes associes a la


matrice

<
(

(
(

(
(

110

SystCmcs IinCai=

(
(

dont les seconds membres respectifs sont

5
2
4

3.6.12 Resoudre Ie systerne


=
bX2
= aX I
aX 2
=

XI

x2
x3

bX3

:).

CHAPITRE

:1
:1

m" UJ.

Algebre matricielle

+1
+1
+1

bX4

"

4.1 OPERATIONS SUR LES MATRICES


4.1.1 Introduction

Xn _

xn

aXn _ 2

+
aX n _ 1

bx;

+
+

Definies dans Ie chapitre precedent en vue de faciliter l'etude des systemes


lineaires, les matrices deviendront, des maintenant, des objets pouvant se lier les
uns aux autres, en accord avec des regles que nous etablirons.

I,

ou a et b sont des nombres distincts non nuls dont la somme est I.


(poser X o = x n + 1 = 0, introduire de nouvelles inconnues Yj = x _ x _ ,
j
j I
j = 1,2, ..., n + I, et resoudre recursivernent.)

4.1.2 Addition de matrices


Soit A = (a;} et B = (b;) des matrices de type m x n. On appelle somme de
A et B, et on note A + B, la matrice C = (c;} de type m x n dont les termes sont
definis par la relation
~

Cij = aij

bij'

L'operation qui associe Ii tout couple de matrices du meme type leur somme est
appelee addition matricielle. Exemple :

i
a ll
(0
21

012
0 22

0 13)
0 23

[b ll

b l2 b13) =

b21 bn

b23

[all
0 21

+ b ll
+ b21

0 12
an

+ b l2
+ b22

013
0 23

+ b13)
+ b23

De toute evidence , l'operation d'addition matricielle est associative et com


mutative:
(A + B) + C = A + (B + C), A + B = B + A.

(
(

(
(
(

L'element neutre est la matrice nulle et la matrice opposee de A = (aij) est la


matrice -A = (-aij)'
Si A et B sont des matrices du meme type, la matrice A + (- B) est notee
plus simplement A - Bet appelee difference de A et B. L'operation qui associe Ii
tout couple de matrices du meme type leur difference est appelee soustraction
matricielle.
L'addition matricielle s'etend de maniere evidente au cas d'une famille finie
quelconque de matrices du meme type.

(
112

AIgc!bre matricielle

113

Operations sur les matrices

(
4.1.3 Multiplication d'une matrice par un scalaire

al
a2

On appelle produit du nombre a par la matrice A la matrice, notee aA, dont


les termes sont ceux de A multiplies par a. L'operation consistant a effectuer Ie
produit d'un nombre par une mat rice est appelee multiplication par un scalaire.
Exemple:

a [all al2 a 13] = [aall

aa l2
aa 21 aqu

a21 a22 a23

aa lJ ]
aa2J

1
i

i,

(a) (a + /I)A = aA + pA.


(b) a(A + B) = aA + aB .
(c) a(ftA) = (afJ)A.
(d) (-I)A = -A, OA = 0, aO = O.

lf

4.1.5 Multiplication de matrices

Soit A = (a if) une mat rice de type m x n et B = (bjk) une matrice de type
n x p. On appelle produit de A et B, et on note AB, la matrice C = (CiA:) de type
m x p dont les termes sont definis par la relation

+ ... +

a;"hnk

raijk'

(4.1)

ll
b l2 b lJ ] = [a l ibll + al2b21 allbl2 + al2bU
all a12]
[a21 au b21 bu b2J
a21bll + aUb 21 a21bl2 + a22bu

a2

' "

anb J anb2

mt +-+
C

anbn

aIJ2 +

x p = (m x n)'(n x p).

En particulier, la multiplication est toujours possible entre matrices carrees du


rneme ordre.
Le terme d'indices i, k du produit AD est, selon (4.1), Ie produit scalaire de
la i-ieme ligne de A par la k-ieme colonne de B, to utes deux considerees comme
des vecteurs de IRn
La multiplication matricielle n'est pas une operation commutative. En fait,
Ie produit BA n'est pas necessairement defini lorsque AB l'est. D'autre part, les
produits AB et BA peuvent etre definis et ne pas etre du meme type. Mais rneme
lorsqu'ils sont du meme type, ils sont generalement differents, comme Ie montre
l'exernple simple suivant:

[~ ~][~ ~] [~ ~],
=

-(

[~~)[~ ~]=[~ ~).

En revanche, Ia mult iplication matricielle est une operation associat ive et


distributive. Plus precisement, chacune des egalites suivantes est vraie , a Ia seule
condition que l'un de ses deux membres soit defini (I'autre l'est alors egalement) :

(a) A(BC) = (AB)C (associativite),

allblJ + a12b23]
a21bl3+ aUb 23 '

+ C)
+ B)C

(b) A(B

-r

mt A nt
B,

= AB
= AC

+ AC
+ BC

(di ib ' , ')


rstn unvrte),

A titre d'exernple, dernontrons (a). Soit A = (aij)' B = (bjk) et C = (CkJ des


matrices respectivement de type In X n, n x p et p x q. Le terme d'indices i, I de

A(BC) est

.., + anbn],
';"

(
(

II est' en outre evident qu'a la merne condition,


(d) (aA)(ftB) = (a/I)AB.

[atbl

ou encore

(c) (A

an] b,

b2

bn

albn
a2bn

,'

L'operation qui associe atout couple de matrices leur produit (lorsque celui-ci est
defini) est appelee multiplication matricielle. Exemples:

tal

a,b l a\b2
a2bl a2b2

..

j -I

(b

bn ]

On retiendra que Ie produit AB n'est defini que si Ie nombre de colonnes de

A est egal au nombre de lignes de B. Schematiquernent, cela peut s'exprimer ainsi:

~I

Muni des operations d'addition et de multiplication par un scalaire, l'ensern

ble des matrices de type m x n devient un espace vectoriel de dimension mn. Les

matrices dont un des termes est egal I et les autres sont nuls forrnent une base

de cet espace appelee base canonique.

a/Jill

an

4.1.4 Espaces vectoriels de matrices

= ailblk +

b2

Les proprietes suivantes decoulent irnmediatement des definitions:

C;k

I[bl

i a;(b

(
(

(
(

1c Ck' )

j = I V k= I J

(
(

(
(
114

1\5

Operations sur les matrices

Algebrc matricielle

(
(

et Ie terme de memes indices de (AB)C est


(
(

(A

f (i arb.k)ck,.

k-I

'_ 1 V J

8)k =

,~J~)A'8k-'

(4.3)

(formule du binome),

ou k designe un entier positif.

S'agissant de sommes finies, l'ordre des sommations sur jet sur k peut etre inverse,
ce qui montre l'egalite des deux expressions.

(3) II est evident que A8 = 0 si A = 0 ou 8 = O. Mais Ie produit AD peut


etre nul sans que A ou 8 soient des matrices nulles, comme Ie montre l'exemple
simple suivant :

4.1.6 Produits de plusieurs facteurs et puissances

[~

On definit un produit matriciel de plusieurs facteurs par une succession de


produits de deux facteurs. Grace a l'associativite, un tel produit peut s'ecrire sans
parentheses. Par exemple, A8CD designe la succession de produits AB)C)D.
Si A est une matrice carree, Ie produit AA ... A (k facteurs) est designe par
Ak et appele puissance k-ieme de A. Par convention, AO = I. II est evident que
AkA' = Ak +!

et

(A")' = Ak',

0I 00] [alla21
0 I

aJI

a l2 all),
a21 a22 a2J

= (all

0 I

a12 all]
[all al2 a lJ ]
an a2J = a21 a22 a2J .
an aJJ
a JI an aJJ

D'une maniere generale, on constate aisement que la matrice-unite joue Ie role


d'element neutre de la multiplication matricielle, autrement dit que

AI. = A et

I",A = A,

pour toute matrice A de type m x n. Grace


que

(
(

= C.
a=d=I

ou que 8

forme

I
[oo

=0

4,1.7 Exemples et remarques

sans que A

(4) En posant
et b = c = 0 dans l'exemple ci-dessus, no us
voyons que le carre d'une matrice non nulle peut etre nul. A l'aide de la multiplica
tion par blocs, no us verrons que la puissance n-ieme de toute matrice carree de la

[I 0 0]

AD = AC,

ou k et I sont des entiers non negatifs.

all al2 a lJ )
( a 21 a22 a2J 0 I 0

~ ~) = [~ ~) .

II est done aussi possible que

(4.2)

(1) Voici deux exemples de multiplication par la rnatrice-unite I J :

: )[

A(aIn ) = cxA

et

a la propriete (d) de 4.1.5, il s'ensuit

(cxlm)A = cxA.

II

I
.~.

8)2 = A2 + A8

8A

A. =

..
..

aln
a20

I.

.... ..

I
0
0

0
0

0
0

..

8 2 = A2 + 2A8

est la matrice nulle.


D'une rnaniere generale, on appelle matrice nilpotente toute matrice carree

A telle que Ak = 0 pour un entier positif k.


(5) L'operation de multiplication matricielle perrnet d'exprimer lout sys
teme lineaire sous la forme d'une equation matricielle. En effet, resoudre un
systerne de matrice associee A = (aij) et de second membre b = (bi) revient a
chercher les matrices-colonnes x = (x) telles que

ou encore,
all

al2

a21

a!2

aln
a20

IlxX2
l

b,
b2

. . .. ..

8 2

Plus generalement, so us la meme hypothese, il est facile de cons tater, par recur

rence sur k, que

ami
--' .'

,~,

(4.4)

an -l,n

..

Ax = b,

(2) On dit que deux matrices carrees du meme ordre A et 8 commutent, ou


que I'une des deux commute avec l'autre, si AB = 8A. Nous venons de voir que
les matrices cxIn commutent avec toutes les matrices carrees d'ordre n. Ces matrices
sont d'ailleurs les seules quijouissent de cette propriete (cf. exercice 4.7.5). A noter
que si A et 8 cornrnutent,

(A

al2 all
0 aZJ

0
0

am!

...

bm

aIM

X.

...
116

Operations sur Ies matrices

Aigebre matricielle

(6) Soit A une matrice de type m x n. Si Ax = 0 pour tout vecteur-colonne


n,
x de R alors A est la matrice nulle. Cela decoule immed ia tement de la proposition
3.5.3, mais se demontre egalement en observant qu~ Ax est la j-ierne colonne de
A si x est le j-ierne vecteur-colonne de la base canonique de R n.
L'assertion suivante en est un corollaire :
Soit A et B des matrices de type m x n. Si Ax = Bx pour tout vecteur
colonne x de )tn, alors A = B.
(7) On appelle trace d'une matrice carree A. et on note tr A, la somme des
termes diagonaux de A.

Si A = (ai}) et B = (bi}) sont deux matrices carrees d'ordre n.

tr(AB) = tr(BA).

(4.5)

D'une maniere generate, si A est la matrice (4.6) et

Br) Br!

j-I

i -I

.~

AB = I

~~~

On dit qu'une matrice A est partagee en sous-matrices si elle est de la forme


All AIZ . . . Air

A =

ZI

A ~~Z. '. : : Au I,
[

Aql Aqz Aqr

(4.6)

ou Ai} est, pour i = I. 2, ... q etj = I, 2, .... r, une matrice dont Ie nombre de lignes
est independant de j et Ie nombre de colonnes independant de i.
On peut multiplier des matrices partagees en so us-matrices. en operant
comme si chaque sous-matrice etait un terme ordinaire d'une matrice. La seule
condition que doivent remplir les partitions est que les produits matriciels entrant
enjeu soient definis, On appelle ce mode de multiplication multiplication matr icielle
par blocs.
Voici un exemple :

..

A"

Au

l~::r -~: --

--I
p

p"

B II

BIZ

BI]

1 -:'~ -1:: -::

p'

p"

AIIB II AIIB IZ i AliBI]


m

+
AIZB z1

+ :i +
Alz8i2 ! A12B!3
---1

";\;';8;';"";\;';8;;'"i'X;';8;';"

m'

AnBz l

+ i +
AnBn

i AnBn

(
B"

. ..

CIZ . . . Cit]

CII

.;;

4.1.8 Multiplication matricielle par blocs

so us reserve que les produits A;)Jjk soient definis pour tout choix des indices i.], k,

tr(AB) = i f r.a/jbji) = i(r.bjjai}) = tr(BA).

. .. .. .

B=I

.~
~

Bit
BlJ

B I I BIZ
BZI Bn

~
.~

(
(

CZ1

.C~. :

c,

CqZ

En effet,

1- 11v- 1

117

: .

CqJ

ou

CiA: = AIIBl k

AilBl l

+ ... +

A)lrk'

(4.7)

En vue d'applications ulterieures, nous allons utiliser la multiplication par


blocs pour calculer Ie produit AB. so us l'hypothese que Best partagee en vecteurs
,(

colonnes. II vient:

It

f:

bz ...

A I bl

bn

1'"

Ab l Ab z

1.

'(" I
~,'t. I

.";,;. ,

i'".
....

,
,

(4.8)

Abn

Comme deuxieme application, no us nous proposons de demontrer. par


recurrence sur n, que la puissance n-ieme de la matrice (4.4) est la matrice nulle .
Pour n = I il n'y a rien demontrer. Supposons que A: =: = 0 et partageons An

de la maniere suivante:

'

a1n

oj

f .

An

~..

Ao _ 1

i a.. l ..
0..0..:....:..:....0'"["..0..

fl.,

:~!

~ i

~. i
.~
~~ .

(
(

En multipliant par blocs. nous voyons aisernent que

.I

~:. \
A~

A~ _I

I
x

lX

O..O'..:....:..:....i:i't(j'

A:-

" 0'

Ao0-1
1

I'

ix
O..O..:..:....:..Ot..O

(
(

(
(

Matrices inversibles

Algebre matricielle

118

119

En particulier, lorsque A est une matrice carree (et k un entier positil),

ou les croix occupent la place de tennes numeriques qu'il n'est pas necessaire de
specifier. Mais alors

(I) '(A~ = ('At

al

IX

A: = A:-1A. =

4.1.10 Rang d'une matrice transposee

= 0,

A, _I

Pour toute matrice A

j x
! a.I ..
OO:::Ot"O 0"0":::..0''[ .... 0..

rg 'A = rgA,

ce qui acheve la demonstration.

4.1.9 Transposition d'une matrice


On appelle transposee d'une matrice A = (alj)' et on note 'A = (aif) la
matrice dont les lignes sont les colonnes de A (et, par consequent.Ies colonnes sont
les lignes de A). Entre les tennes de 'A et ceux de A il y a done la relation

aif

aj ; .

(4.9)

En outre, 'A est de type n x m si A est de type m x n.


Voici un exemple de transposition:

A = [all a l2 a lJ),
a21 a22 a2l

'A =
[

a ll

a l2

a21]
a22

alJ

a23

(
(

tenne d'indices k, i de '(AB) est Ie tenne d'indices i, k de AB, c'est-a-dire

Le tenne d'indices k , i de 'R'A est

(
(

(4.9).

.L aAk'
j-I

L'egalite a done bien lieu en vertu de


..

a une famille finie quelconque de matrices est immediate:

(e) '(A IA2 .. . A k ) = IAk'A k_ 1 'A I

4.2.1 Introduction
On sait que tout nombre non nul a admet un inverse unique, c'est-a-dire un
nombre, note a-I, tel que aa- I = 1. En est-il de merne pour les matrices? La
reponse cette question est negative. Par exemple, Ie produit de la matrice

*1

A =

B=[;

't

. (~

~.

. ~)

n' est jamais 12, car

I 00) [ac db) = (a0 Ob)


(0

I.>; i

1JI

(~ ~)

par une matrice quelconque

.i'

tl

La seule qui ne soit pas evidente est la derniere, En voici la preuve. Soit

L'extension de (d)

.~ .

j -I

4.2 MATRICES INVERSIBLES

A = (alj) une matrice de type m x n et B = (bjk ) une matrice de type n x p. Le

~.~

(cf. 3.3.10).

"I.

'R.

L btjaji"

car la famille des lignes et celle des colonnes d'une meme matrice ont Ie merne rang

On notera que l'operation de transposition laisse toute matrice de type


I x I inchangee, transfonne les matrices-lignes en matrices-colonnes et les rnatri
ces-colonnes en matrices-lignes.
Chacune des egalites suivantes est vraie chaque fois que I'un de ses deux
membres est defini (l'autre I'est alors egalement):

(a) '(A + B) = 'A


(b) '(aA) = a'A.
(c) 'eA) = A.
(d) '(AB) = 'R'A.

Ii

(4.10)

Dans cette section, nous no us proposons d'etudier les matrices qui admet
tent un inverse et d'exposer une methode de calcul de cet inverse.

.~

~,

~;
,~ , .

-r

4.2.2 Matrices inversibles


On dit qu'une matrice carree A est inversible ou reguliere s'il existe une
matrice B (necessairement carree et du merne ordre que A) telle que

i!
co

\~

AD = BA = I.

(4.11)

On notera que si AB = I et B'A = I, alors B = B', car B' = B'(AB) =


(8' A)B = B. Lorsque A est inversible, la matrice B de la relation (4.11) est done
uniq ue. Elle est appelee matrice inverse de A et notee A-I.

(
(

120

Algebre matricielJe

4.2.3 Proposition

'~

Soit A une matrice carree. S 'il existe une matrice B inecessairement carree
et du meme ordre que A) telle que AB = I ou BA = I, alors B verlfie (4.11),
autrement dit, A est inversible et B = A-I .

ou XI' X2' ... , x. sont les colonnes de X et e l , e2' ..., ell celles de I. Les equations (4.13)
sont l'expression matricielle de n systemes de matrice associee commune A et de
seconds membres e l , e2, . .. , e. Suivant 3.4.5, ces systemes peuvent etre resolus
simultanement en reduisant la matrice augmentee n fois

:;;

DEMONSTRAnON

[ A

II suffit de montrer que AB = I entraine BA = I. Soit n I'ordre de A et de


B. Le systerne homogene de matrice associee B n'admet que la solution triviale,

ABx

= A(8x) =

AO

..

O.

B(AB)y

By

(
(

Posons B = (b i) et designons par bl' b2, ... , b, les colonnes de B. Les solutions des
n systemes reduits associes a la matrice augmentee (4.14) sont

.(

b. 1 b. 2

.~.

x.

(4.14)

:t

"
;~I.

BA(Hy)

.~

consequent,

bl"
b211

b" b l2
b21 b 22

'.

I]

forme echelonnee simplifiee, Compte tenu de 3.3.11, Ie resultat de cette

reduction est une matrice de la forme

II s'ensuit, d'apres Ie corollaire 3.5.4, que Ie rang de Best n. Soit maintenant x un


vecteur-colonne quelconque de IR". En vertu de la proposition 3.5.9, Ie systeme
de matrice associee B et de second membre x admet une solution (unique) y. Par
BAx

e.] = [A

a la

car si x est une solution,

(
(

121

Matrices inversibles

b""

Comme x est arbitraire, la remarque (6) de 4.1.7 nous permet de conclure que

BA = I.

1:",;
...

~.

~ -.

4.2.4 Proposition. Rang d'une matrice inversible

.~

Une matrice carrie A d'ordre nest inversible si et seulementsi son rang est n.

XI

= bl'

X2

b2,

.. .,

X.

b.

Par consequent, Best une solution de l'equation (4.12). La proposition 4.2.3 nous
permet alors de conclure que A est inversible et que B = A-I .
Une methode de calcul de la matrice inverse faisant appel aux determinants
sera presentee dans 5.3.6.

DEMONSTRATION

(
(

~;

~:,

Supposons que A soit inversible. Alors A-IA = I, donc Ie rang de A est n,

d'apres ce qui a ete etabli dans la premiere partie de la demonstration precedente,


Reciproquement, supposons que Ie rang de A soit n. Le precede expose dans Ie

paragraphe su ivant demontre l'existence d'une matrice B telle que AB = I.

D'apres la proposition 4.2.3, A est done inversible.

~; ~

..

~.

4.2.6 Proposition. Proprietes de l'operatien d'inversion

Soit A et B des matrices carries du meme ordre.


(a) Si A est inversible, A-I er 'A Iesont egalement et (A -1) -1 = A, ('A)-I = '(A -I).
(b) Si A et B sont inversibles, le produit AB l'est egalement et (AB)-I = B-1A- 1.
(c) Si Ie produit AB est inversible, A et B Ie sont egalement.

. ..
4.2.5 CalcuI de la matrice inverse

DEMONSTRAnON

Soit A une matrice carree d 'ordre n et de rang n. Nous nous proposons de


resoudre l'equation matricielle

v,

:~

.~~

'~'. :

AX = I ,

(4.12)

ou X est une matrice carree inconnue. En vertu de (4.8), cette equation s'exprime,
de maniere equivalente, par les n equations matricielles

AXI = e l , AX2 = e2,

.. . ,

Ax. = e.,

(4.13)

.i
o j.

Assertion (a). Par definition de l'inverse, A est la matrice inverse de A-I.


D'autre part, en vertu de (d) de 4.1.9, 'A'(A-I) = '(A-IA) = 'I = I, done, par la
proposition 4.2.3, '(A-I) est la matrice inverse de 'A.
Assertion (b). La conclusion precede encore de la proposition 4.2.3, car
(AB)(8-IA- I) = A(BB-1)A- 1 = I.
Assertion (c). On peut ecrire A(8(AB)-I) = (AB)(AB)-I = I, amsi que
AB)-IA)B = (AB)-I(AB) = I, d'ou la conclusion s'ensuit, grace a la proposi
tion 4.2.3.

(
(

(
(

(
(

( ,

123

Matrices inversibJes

AJgebre matricieJle

122

La matrice inverse est done

4.2.7 CoroDaire. Inversion d'un produit de plusieurs facteurs et d'une puissance

Si AI' A 2, , A k sont des matrices inversibles du meme ordre, Ie produit


A IA2Ak est une matrice inversible et (A1A2 Ak ) - 1 = AkIA;~I ...AII. En parti
culier, si A est une matrice inversible, la matrice A k l'est egalement pour tout entier
positif k et (A k ) -I = (A -1)*.

(
(

A-I=i

- 14
3
[ -5

-b

'"a

A _ rb
- c
d

4.2.8 Remarques

(I) La matrice-unite I est inversible et I-I

tAA

(al

b2

+ c? +

0j-I
[3 -I
0
2
0
= 0
0 -4
0

o
[o

A-I _

b2

A=

par reduction de
mations:

{\
i(

tP)14

c2

d2

OU X, Y et Z sont des matrices inconnues. En multipliant par blocs et en egalant


les sous-matrices du produit ainsi obtenu celles du second membre, ROllS voyons

0 1 0]
2- 0
.
0 _4- 1

que
AX

(A~I)

1
0
0

0
1
0

o -4

3 -2
1
1 -I
2 -5 3

11 3-1
2 -2]
[2 1-5

L., - LI
1 L3 - 2LI

0] L. 2L

+ J
o 2L2 - L3
1

0] L 2L
o -3 -I -2
~ L+ 3L
0
-7 4 2]
2 o 3 -1 -I iL
0
I
0

In'

= A-I,

B- 1,

[Io 2-2
I
1 1-1

[~

BY

Ainsi,

a la forme echelonnee simplifiee, Voici la suite des transfor


o0]

= 1m,

AZ

CY

O.

Les solutions de ces equations sont

(3) Nous allons calculer la matrice inverse de

C) O
(X YZ) = (10 0)
(oA B
In '

= I.

Cet exemple sera generalise dans la section suivante.

[~

-b

II en resulte que

(2) On constate facilement que

1
0

-d

(5) Soit A une matrice inversible d'ordre m, B une matrice inversible d'ordre
n et C une matrice de type m x n. Considerons l'equation matricielle

4.2.9 Exemples

[;

-d]

d-c
a
b'

- a2

2 -2
3 -I
1 -5

-c

ou a, b, c et d sont des nombres non tous nuls. Les colonnes de A sont orthogonales
deux deux et de meme nonne. Cela entraine aussitot que

(2) La somme de deux matrices inversibles n'est en general pas inversible.


Par exemple, si A est inversible, -A l'est egalement, mais A + (-A) = 0 ne I'est
pas.

4]
-1.
1

(4) Nous nous proposons de calculer la matrice inverse de

(1) On designe la matrice (A-I)k plus simplement par A~k. La notion de


puissance est ainsi etendue aux exposants en tiers negatifs, A noter que lorsque A
est inversible, les relations (4.2) soot vraies pour tous les entiers k et I; en outre,
grace (a) de la proposition 4.2.6, la relation (I) de 4.1.9 s'etend tous les entiers k.

8
-1
3

2 -5

1 iL3

(o

_A-lCD-I.

C)-I = (~-I -A-ICB- I)

B O B -I

(4.15)

(
124

AlgCbre matricielle

125

Matrices carrees particulieres

(
(

4.3 MATRICES CARREES PARTICULIERES

La formule (4.16) s'etend, de maniere evidente, au cas d'une famille finie


quelconque de matrices diagonales. En particulier,
(diag(a l az ..., a.k = diag(cr!,

4.3.1 Matrices de type I x I

Effectuees sur les matrices de type I x I (c'est-a-dire les matrices a un seul


terme), les operations definies dans 4.1.2. 4.1.3. 4.1.5 et 4.2.2 se confondent avec
les operations ordinaires sur les nombres. C'est pourquoi nous identifierons les
matrices de ce type aux nombres.
Grace a cette ident ification nous pourrons, par exemple, ecrire Ie produit
scalaire canonique dans JR. et la norme correspondante sous la forme
(x I Y)

t4, .... ~.

(4.17)

ou k est un entier quelconque ou un entier non negatif suivant que


diag(a l a2' ..., a.) est inversible ou non .
Plus generalement, l'effet de la multiplication d'une matrice (non necessaire
ment carree) par une matrice diagonale est Ie suivant:

L
..................!

= 'xY. II x II = ./XX.

............?.!~ !..

..

(
(

(
(
(

diag(al' a2' ..., aJ

. . . . . . . .

............ ..........

a~i:

L~

4.3.2 Matrices scalaires


On appelle malrice scalaire toute matrice de la forme
a 0

0
0

0 ... a

bl

b. diag(a l, az ..., a.)

alb l

... ,a.b., .

,(

aI =

Nous avons deja constate que la multiplication d'une matrice scalaire aI par
une matrice A est equivalente a la multiplication du nombre a par A:
(al)A = aA.

. (,

~t :

A(al) = aA.

4.3.4 Matrices triangulaires


On appelle matrice triangulaire superieure toute matrice de la forme

.e

4.3.3 Matrices diagonales

all

alz

a22

a l
a2n
(

On appelle matrice diagonale, et on note diag(a l , az ..., aJ. toute matrice de


la forme

al 0

o az

0
0

0 . . . a.

Un calcul facile montre que


diag(al' az, .... a.)diag(b l bz .... b.) = diag(a.b l , azhz .... a.bJ.

(4.16)

D'apres la proposition 4.2.4. une matrice diagonale est inversible si et


seulement si ses termes diagonaux sont to us non nuls. Si cette condition est
remplie, il decoule de (4.16) que
(dilag (aI' az ..:.jJ. -1 = d lag
' (-I
a l , az- I. .... a.- I) .

.
..
;\
't

. . .

aM

On appelle matrice triangulaire inferieure la transposee d'une matrice triangulaire


superieure.
Pour qu'une mat rice triangulaire superieure (inferieure) A soit inversible it
faut et it suffit que ses termes diagonaux all ' a 22, ..., alJll soient to us non nuls. Cette
condition etant remplie , A-I est encore une matrice triangulaire superieure (infe
rieure); en outre. les termes diagonaux de A-I sont ajjl. aiil, ..., a;,l . Pour
dernontrer ces assertions, il suffit d'observer l'effet des operations elementaires sur
la matrice (A :1), lorsqu'on la transforme en une matrice echelonnee simplifiee. On
peut egalement proceder par recurrence sur n en s'appuyant sur la formule (4.15).

(
(

<
(
{

(
(

(
(

Retour aUJ< operations clcmentaircs

Algcbn: raatricielle

126

127

4.3.5 Matrices symetriques

<'

On appelle matrice symetrique toute matrice egale asa transposee. Entre les
tennes alj d'une matrice symetrique il y a done la relation

'1i

(4.18)

alj = aj i

Toute matrice diagonale est evidemment symetrique . Voici un exemple de

matrice symetrique non diagonale:

-I 2 5]
[

2
5

0
-I

-I .
3

L'inverse d'une matrice symetrique inversible est encore une matrice syme
trique, car, d'apres (a) de la proposition 4.2.6,

(
(

'(A-I) = ('A)-t = A-I .

Si A et B sont des matrices symetriques du meme ordre,le produit AD n'est


symetrique que si A et B commutent. En effet, d'apres la propriete (d) de 4.1.9,

(
(

'(AD)

= 'B'A = BA.

4.3.6 Remarque

L'addition et la multiplication par un scalaire de matrices de I'une quelcon


que des classes presentees dans cette section est une matrice de la meme c1asse. En
d'autres tennes, les matrices d'ordre n de chaque c1asse forment un sous-espace
vectoriel de I'espace vectoriel des matrices carrees d'ordre n.

o!.. . i-ieme

1
,

. 0 I .....l-ieme

,
~

e)

,!

lu

(i #- l) se deduit de I par addition a la i-ieme ligne du produit de la


l-ieme ligne par Ie nombre a; par exemple, si i < I,

.i

tf
t

f
(;
)

lu = I .

1
Type 3:

If se deduit de

I.. .

o i-ieme
o!.. . l-ieme

0 .. 0
t
T
i-ieme l-ieme

I par multiplication de la i-ieme ligne par Ie nombre a;

autrement dit,

i
~

o
o

1 0

oI
I~ =

.....i-ieme

4.4 RETOUR AUX OPERATIONS ELEMENTAIRES

i
.~

00 . . . . .

(
(

4.4.1 Matrices elementaires

On appelle matrice elementaire toute matrice pouvant se deduire de la


matrice-unite par I'une des operations elementaires definies dans 3.3.4. Toute
matrice carree d'ordre I est done une matrice elementaire et toute matrice elemen
taire d'ordre superieur a I est de l'un des trois types suivants:

1
t

4.4.2 Elfet de la multiplication par une matrice elementaire


L'interet des matrices elementaires vient du fait qu'elles permettent d'expri
mer les operations de reduction d'une matrice par des multiplications matricielles.
Supposons que Iii> I et I~ soient d'ordre 11. Alors, pour toute matrice A an lignes:

(
["

Type 2:

i-ieme l-ieme

I.

Iii =

exernple, si i < I,

Type I : Iii (i #- l) se deduit de I par echange de la i-ieme et la l-ieme ligne; par

(a) IuA se deduit de A par echange de la i-ieme et la l-ieme ligne.


(b) 1;jA se deduit de A par addition a la i-ieme ligne du produit de la l-ieme ligne
par a.
(c) I:A se deduit de A par multiplication de la i-ieme ligne par a.

(
128

129

Fonctions malricielles

Aigebre rnatricielle

(
2
converge (absolument) si chacun des n tennes de la matrice

4.4.3 Transposee et inverse d'une matrice elementaire

:E Cl~k
it'

.1l

-~

j{x) =

II A II =
Ii

I~
~
~

+ ClIA + ... + ClkAk.

La fonction qui associe


polynome matriciel.

a toute

+ ... + Clk.-I'

un polynorne,

(4.19)

matrice carree A la matrice j{A) est appelee

~~

~~ I
~

Nous pouvons definir des fonctions matricielles plus generales que les
polynomes l'aide de series matricielles. Soit A une matrice carree d'ordre n. Nous
dirons qu 'une serie

j~lj~l~

)Y.

(4.22)
.

eo

j{A ) =

(4.23)

:E

ClkA k

k -O

Dans Ie cas ou A est diagonale, cette definition def(A) se reduit, grace

(
.{

Pour une telle matrice A no us poserons

a (4.17). a
(4.24)

f(diag(a, . a2' ... an = diag(f(al),J(a0 ... ,J(a..

4.5.3 Derivation de ronctions matricieUes


On dit qu 'une matrice dependant d'un parametre reel t est derivable si to us
ses tennes sont derivables, Soit A(t) = (aij(t une matrice derivable. On appelle
derivee de A(t) la matrice A(t) = (a lJ.(t, ou a.(t)
designe la derivee de ali(t).
'J
7

(4.20)

(
(

Les seules matrices derivables qui no us interessent se deduisent de (4.23) par


substitution de tA

j{tA) =

a A:

oc

k -O

:E ClJAk.

D 'apres ce qui a ete dit dans 4.5.2, cette serie converge absolument pour tout t tel
que

ou rest la borne apparaissant dans (4.21) (par convention riO = (0) . En outre.

(f(/A' = A,!(tA) ,

(
(

-
I t I <IIAII'

f{tA) est derivable et

Xl

k -O

~~

4.5.2 Fonctions matricielles

:E ClkAk

4.5.1 Polynomes matriciels


Cl,X

('

4.5 FONCTIONS MATRICIELLES

Si A est une matrice carree etj{x) = Cl o +


nous poserons

(4.21)

r.

telle que II A II < r (cf. exercices 4.7.19 et 4.7.18). ou

'.

j{A) = CloI

'" Cl~. I x I <


:E
.

k -O

La serie (4.20) converge alors absolument pour toute matrice carree A d'ordre n

ce qui atteste que toute mat rice inversible est un produit de matrices elementaires.

Supposons qu 'une fonction reelle j'solt defin ie par une serie entiere dans un

(M IM2 ... M k) - 1 = MkIMk~I ... MII ,

a une

voisinage de 0:

= I.

En multipliant les deux membres par (MIM2 ... Mk)-I. nous en concluons, grace
au corollaire 4.2.7, que
A

converge (absolument) quand I tend vers l'infini. Cette condition etant remplie,
nous appellerons somme de la serie (4.20) la matrice formee des termes-limites.
Cette somme est encore designee par ['expression (4.20).
A noter que si la matrice A est nilpotente. la serie (4.20) se reduit
somme finie, car Ak = 0 pour tout entier k assez grand.

Selon 3.3.5. 3.3.7 et 4.4.2 . to ute matrice peut etre transformee en une matrice

echelonnee ou en une matrice echelonnee simplifiee au moyen d'une suite finie de

multiplications par une matrice elementalre. En particulier, pour toute matrice

inversible A. iI existe, vu 3.3.11. des matrices elementaires MI ' M 2, .... M k telles

que
... MkA

k -O
oj!

4.4.4 Matrices inversibles com me produits de matrices elementalres

M IM2

La transposee et I'inverse d'une matrice elementaire sont encore des matrices

elementaires. Plus precisement:

(a) 'Iii = Iii> Iii = Ii/'


(b) '(IY) = Ii:. (Iy)-I = Iii a
(c) '(I:') = I~. (1;')-1 = li la (a "" 0).

(4.25)

(
( .

130

Algebre matricielle

Matrices de transition

131

(
(

ou le point dans Ie premier membre indique la derivation par rapport a t de la


mat rice entre parentheses etjdans Ie second membre designe la derivee de! Dans
Ie cas ou/est un polynorne, cette relation resulte descalculs suivants:

+ altA + a 2rA2 + '" + akIA")'


alA + 2a 2tA 2 +
+ kakl-IAk
A(aII + 2a 2tA +
+ kakl-1Ak- l ) =

(lttA" = (aol
=
=
(

Le cas general s'ensuit par passage

Aj(tA).

probabilites appelees probabilitesde transition. La suite des etats successifs occupes


par la particule au cours du temps constitue ce que l'on appelle un processus
stochastique. Si la probabilite de transition d'un etat i a un etat j ne depend que
de i et dej. et non pas d'autres etats ou de I'instant auquelle changement d'etat
a lieu. on dit que Ie processus stochastique est une chaine de Markov homogene ou
simplement une chaine de Markov.

a la limite.
4.6.2 Matrices de transition

4.5.4 Exponentielle d'une matrice

ak

L'exponentie//e d'une matrice carree A s'obtient a partir de (4.21) en posant


Ilk! (dans ce cas. r = 00):
00
I
exp(A) = ~ _Ak

(4.26)

k=ok!

II est evident que exp(O) = let exp(aI) = e"I. En outre. si A et H comrnu


tent
exp(A

H) = exp(A)exp(H).

(4.27)

Etant donne une chaine de Markov. designons par aij la probabilite de


transition de l'etat i a l'etatj' en une unite de temps. On appelle la matrice A = (aij)
matrice de transition de la chaine. Cette matrice satisfait aux conditions suivantes :

o~
ail

aij ~ I . i.] = 1.2. .... n.

ai2

+ ... +

ain = I. i = 1.2 ... n.

La premiere condition exprime simplement Ie fait qu'une probabilite se mesure par


un nombre compris entre 0 et I ; la deuxieme que la chaine passe. avec certitude.
de i a un des etats I. 2..... n.

En effet, compte tenu de (4.3).

(r.

.!.H /) = i
I
k-o k!
1-0 I!
1-0 k-O k!(i-k)!
00 I
~ -I,(A + H)' = exp(A + H).

exp(A)exp(H) = ( i ..!..Ak)(i

= 1-0

A~/-k)

4.6.3 Loi initiaIe


Supposons que l'etat initial de la chaine ne soit pas fixe. mais gouverne, lui
aussi, par des probabilites : pJOl est la probabilite qu'a l'instant 0 la chaine occupe
l'etat j , Ces probabilites satisfont aux conditions suivantes:

En particulier,
exp(A)exp(-A)

= exp(A

- A)

= exp(O)

o ~ pJOl

= I.

pf'

~ I . j = 1.2. .. n.

= I.

+ p~Ol + ... + p~Ol

d'ou il resulte que exp(A) est inversible et


(exp(AW I = exp(-A).
Appliquee

On appelle la matrice-ligne
(4.28)

a la fonction exponentielle, la relation (4.25) devient

(exp(tA' = Aexp(tA).

(
(

p(Ol]

loi initiale de la chaine.

4.6.4 Loi i I'imtant k

4.6 MATRICES DE TRANSITION

(
<

' "

(4.29)

rR(Ol p(Ol
L (O) = [YI
2

4.6.1 Cbaines de Markoy tinies

La loi initiale et la rnatrice de transition d'une chaine de Markov determi


nent la probabilite de tout evenement lie a cette chaine. Par exernple, designons
par py) la probabilite qu'a I'instant k la chaine occupe l'etat j . On appelle la

matrice-ligne
L(kl =

Imaginons qu'une particule occupe une parmi n positions possibles. desi


gnees par I. 2 ... n et appelees etats, Supposons qu'aux instants O. I. 2 ... la
particule change d'etat de maniere aleatoire. Ce changement est gouverne par des

[p\kl p~kl . . . p~kll

loi de la chaine Ii l'instant k. II est intuitivement clair que


pJIl = p\Olalj

+ p~Ola Zj + ... + p~Ola.j

(
132

133

Exercices

Algebre matricielle

(
(

4.7 EXERCICES

et, plus generalement, pour tout instant positif k, que


pJk)

p\k-I)a lj

+ p~k-l)a2j + ... + p~k-I)anj '

En termes matriciels cette relation s'ecrit


L(k)

'j

L(k-I)A.

'i

L (O)Ak

(4.30)

Nous voyons ainsi que la loi initiale et la matrice de transition permettent de


calculer la loi de la chaine a n'importe quel instant.

4.6.5 Exemple
Un magasin vend deux marques m, et m2 d'un certain produit et un client
habituel de la maison achete m l avec probabilite 0,7 si son dernier achat etait m l
et avec probabilite 0,4 si son dernier achat etait m 2 Nous allons calculer les
probabilites d'achat de m l et de m2 lors du sixieme achat (l'achat initial est fait a
l'instant 0). Nous avons faire une chaine de Markov deux etats, l'etat I
designant la marque m l et l'etat 2 la marque m 2 La matrice de transition de cette
chaine est

A = [0,7
0,4

L(O)

L(O)A S ;;;

[t t] [0,57247
0,57004

It
:i
.~

. ,~

.~

_I
[-I
2 _I,B= _:

B 2,

... ,

AB = alBI

7: .

.~
~

~~

~~

:oJ
: :,

~ -~ ,C=~ .

8 2B2

+ ... +

0,42914].

Lors du sixierne achat, les probabilites d'achat de m, et de m2 sont done respective


ment 0,57084 et 0,42914.
On peut se demander si I'influence du choix initial tend a disparaitre apres
un grand nombre d'achats. Nous repondrons cette question plus loin, lorsque
nous disposerons des moyens necessaires pour etudier Ie comportement asympto
tique des puissances de certaines matrices (cf. 8.4.5).

[:

:]

otB

[:

-{

~]

4.7.4 Ecrire la matrice

A=

I 2 3]

[ I 2

I
sous la forme I + Bet calculer Ak , pour tout nombre entier positif k,
la formule du binorne.

a l'aide de

'1:

4.7.5 Montrer que les seules matrices qui commutent avec la matrice

.;~ . ~

ij

.i" ~. I
f
~

41

:~
l
:>./,. .

} "~ ~

)~ - '

'4' :
:~ti.

~~~

; .;.i. .

a"Bn '

:/;,

0,42753)
0,42996 ;;; [0,57084

4.7.3 Par reduction simultanee, trouver I'ensemble des solutions de l'equa

<'[

"

[I]

tion matricielle AX = B, ou

:Jj
-Il

.f.

4]

4.7.2 Soit 8 1, 8 2, .. . , 8 n les colonnes d'une matrice A de type m x n et B I ,


B, les lignes d'une matrice B de type n x p. Montrer que

~.

[t 1].

Calculer, !orsque la multiplication est possible, les produits AA, BB, AB, AC, BC,

'CA, 'CB, 'CC, cc.

a I'instant 5 est alors, d'apres (4.30),

L(S)

3)

2
A= ( 3

':?

0,3) .
0,6

Supposons, par exemple, que la loi initiale soit

La loi

4.7.1 Soit

~:~

Par recurrence, il s'ensuit que


L(k) =

oI I

(
al a2 a 3

al a2

at

an
a".t
a".2

sont celles de la forme

o
1

(
at

En deduire que les matrices qui commutent avec A et 'A sont de la forme aI.
Relever, au passage, que si deux matrices commutent, aucune des deux, en general,

ne commute avec la transpo see de I'autre.


4.7.6 Par recurrence sur k, dernontrer que la formule du binome (4.3)
s'applique a tout couple (A, B) de matrices carrees qui commutent.

(
(
(

134

13S

Exerciccs

Aigebre rnatricielle

(
Z

4.7.13 Soit A une matrice carree telle que A3 - A + 2A - 31 = O. Mon


trer que A est inversible et exprimer A-I sous la forme d'une combinaison lineaire .
de puissances entieres non negatives de A. (Appliquer la proposition 4.2.3.)

4.7.7 Soit A une matrice de type m x net de rang n.


(a) Montrer que Ie rang de 'AA est n. (Multiplier les deux membres de l'equation

'AAx = 0 pat 'x, en deduire que Ax = 0 et appliquer Ie corollaire 3.5.4.)

(b) En deduire que la seule solution de toute equation de la forme AX = 0 est

X = O.

4.7.14 Soit A une matrice inversible d'ordre m. 8 une matrice inversible


d'ordre n et C une matrice de type m x n. Montrer que

4.7.8 Methode des moindres cartes. Soit PI(a\ . hi)' Pz(a z h~ ... P.(a h.)

2
n points de IR tels que a, '" aJ si i '" j. Soit k un entier positif inferieur a n, Pour

tout polynorne p de degre inferieur ou egal a k, on pose

(
(

oZ(p) = (hi - p(alz

I
I
I

(hz - p(a~)Z

+ ... + (h. _

c
[8

p(a.z.

- I
1
- I

ao.

a\

a7

az ~

I
I a.

hi
hz

t4
I. b

tl. .. . tI.)

I
2

l h.

)
1

I
-I
I
1

o
o
o

o
I

o
o

0
3

2 -5

- 2

-2

(Utiliser I'exercice 3.6.6.)

4.7.10 Montrer que si deux matrices inversibles A et 8 commutent, alors


A-I et 8 - 1 commutent egalement.

., 1

4.7.11 Montrer que si une matrice inversible A commute avec une mat rice
8 . alors A- I commute avec 8.
4.7.12 Soit A une matrice carree, Soit 8 et C des matrices invers ibles du
meme ordre que A telles que '(8A)8 - 1(C8 - 1)- 1 = I. Montrer que A est inversible
et exprimer A-I en fonction de 8 et C. (Appliquer la proposition 4.2.3.)

-I
0

4.7.17 Soit 0 une matrice diagonale d'ordre n dont les tennes diagonaux
sont distincts. Demontrer que toute mat rice diagonale d'ordre n s'ecrit de maniere
1
unique sous la forme d'une combinaison lineaire des matrices I, O. Oz. .... 0--

4.7.16 On appelle matrice antisymetrique toute matrice egale a sa transposee

4.7.9 Montrer que si A est une matrice inversible , aA I'est egalement pour

tout nombre a non nul et (aA)-1 = -A-I .

rnultipliee par - I.
(a) Montrer que pour toute matrice carree A. A + 'A est une matrice symetrique
et A - 'A une matrice antisyrnetrique.
(b) Montrer que I'ensemble des matrices syrnetriques d'ordre n et celui des matrices
antisymetriques d'ordre n sont des sous-espaces complernentaires dans I'espace
vectoriel des matrices carrees d'ordre n.
(c) Trouver la dimension de ces deux sous -espaces et verifier la relation (1.12).

(Poser que b - Ap est orthogonal a Ax pour tout x de JRk+ I; utiliser les


exerc ices 3.6.6 et 4.7.7 pour prouver l'unicite de la solution.)
Application numerique: etant donne PI(O. I). Pz(l . 2). P3(2.4). P4(3 . 8). trouver
Ie polynome p de degre inferieur ou egal a 2 qui minimise o(P).

A-I

2
2

'AAp = 'Ab.

8-

-A- 1C8

4.7.15 Calculer la mat rice inverse de

Les assertions suivantes sont a demontrer : .


(a) o(P) = II b - Ap II.
(b) o(P) est minimal lorsque Ap est la projection orthogonale de b sur Ie sous

espace vectoriel forme des vecteurs-colonnes Ax. x parcourant JRk +l.

(c) Ap est cette projection lorsque pest I'unique solution de l'equation

<"

[0

A I'aide de cette formule, calculer la matrice inverse de

Le but de cet exercice est de trouver Ie polynome p(t) == a o + alt + ... + akt* qui
minimise o(P). On designe par p Ie vecteur-colonne forme des coefficients inconnus
al ... ak et on pose

A)-I=

4.7.18 Dans I'espace vectoriel des matrices carrees d'ordre n. on considere


l'operation ( 1 .) definie par la fonnule
(A 1 8) = tr('AB).

~~

:{~
-,

(a) Montrer que cette operation est un produit scalaire.


(b) Montrer que la nonne associee ace produit scalaire est celie qui est definie dans
(4.22).

(
.)u

Algebre matricielle

(
(

(c) Montrer que

CHAPITRE

II AD II.,;; I A 1111 811

Determinants

(d) Montrer que si x est un vecteur-colonne de R',

II Ax II .,;; IIAllllxll

4.7.19 Montrer que la serie (4.20) converge absolument si


est la borne qui apparait sous (4.21).
4.7.20 Soit A une matrice carree tel1e que

II A II < r.

<11). r

II A II < L Montrer que

eo
:;.~

(J - A)-I = ~ Ak
k -O

' :~
r.

(Utiliser I'exercice precedent.)

:{

A =

0'

alors

exp(tA) = ( cost
.
smr

-sint] .
cost

(Utiliser les developpements en serie de Taylor des fonctions cos et sin.)

\I

5.1.1 Introduction

"

4.7.21 Montrer que si

(0-1]

5.1 DEFINITION

ET PROPRIETES DES DETERMINANTS

.f:

., ~
r
~

-,

~~ I

La notion de determinant est apparue en relation avec la resolution de


certains systemes lineaires. El1e est egalement liee a l'idee de volume, comme Ie
montrent les conclusions de 2.7.14 et 2.7.15. Dans cette section. nous nous propo
sons d'exposer et de commenter les proprietes principales derivant de la definition
de cette nouvelle notion. ainsi que d'etendre Ie concept de volume a un parallelepi
pede n-dimensionnel. Dans la section 5.3. nous etudierons les developpements et
appliquerons les resultats obtenus a la resolution de certains systemes lineaires,
ainsi qu'au calcul de I'inverse d'une matrice.

<~ ~ I
t2

'": .

~r

!,~~

,', t

5.1.2 Notation
Le determinant d'une matrice carree A = (aij) est un nombre associe
nous nous appretons a definir et noterons

,';'.:

all

:.:. .:

a l2

a l

a 21 a22

a2n

a A que

IAI ou

(
(
(

(
(

a. 1 a.2 ...

ann

ou aussi
det(a l , a2' ..., a.),
lorsque la dependance de A est exprimee au moyen de ses colonnes at, a 2, .... a.
En accord avec ce dernier symbole, Ie determinant est egalement appele determi
nant des vecteurs-colonnes a l a 2, .... a.

(
(

(
(
(

lt

Determinants.

138

(
Par la suite, il sera souvent question de colonnes ou de Iignes d'un determi
nant . II est entendu que ces colonnes ou ces !ignes sont celles de la matrice a
laquelle Ie determinant est assode.
Si A est une matrice carree d'ordre n superieur a I, nous designerons par
Aij la matrice carree d'ordre n - I obtenue en supprimant la i-ieme ligne et la
j-ieme colonne de A.

(
(

(2) Determinant d 'une matrice diagonale. Par application repetee de (5.1),


j
'<

?,

nous obtenons:
a\

a2

:1

a2 0 ., . 0
o aJ . .. 0

~.

i!

t:,

On appelle determinant d'ordre n la fonction qui assode a to ute matrice


carree d'ordre n son determinant, Nous definissons cette fonction par recurrence
sur n:

-:

~
..i.,

Ie determinant d'une matrice carree A = (a) d'ordre I est a;


supposons que Ie determ inant d'ordre n - I ait ete defini pour un entier
n superieur a I ; Ie determinant d'une matrice carree A = (a;) d'ordre nest alors
Ie nombre

nous obtenons:

all a.2

= alii All
=

I - a2d A211+ .., + (-I) +lanl i AnI I


(5.1)

I- I

= 2 et n = 3,

notre definition coincide avec celie

.~
.":
-<i

:!

n = 2: I A I = all 1(a22) 1- a2d(a I2)1= a lla22 - a21 a12 ;

n = 3'. I A I -- all a22 a2J


a32 aJJ

I I

- a21 al2
a32

al J
aJJ

I I
+

l
aJI a 2
a22

:~

5.1.4 Exemples

\";'

.~

(I) Exemple de calcul d'un determinant :

I~

(
(

(
(
(

3(11~ ~I

= - 3(- 8

~.

- II~ ~I

I I 2
- 2 2 0 I
I 2 4

31~ ~I) 2(11~ ~I 21~ ~I + II~ ~I)

0) - 2(-2 - 0

I) = 14.

(3) Determinant d'une matrice triangulaire. Par appl ication repetee de (5.1),

a22

a l.

a22 a2J
o a33

a2n

a2n
aJ.
... = a lla22 ... ann ' (5.4)

all

. . . a.. ,

0 . . . a..

Nous verrons dans la proposition 5.1.8 que Ie determinant d'une matrice


carree A est egal au determinant de sa transposee 'A. Nous en deduisons que Ie
determinant d'une matrice triangulaire inferieure est aussi egal au produit des
tennes diagonaux.

Le determinant d'ordre n jouit des proprietes suivantes:


-;

~!;

I I 2
= -3 I 2 4
3 2 0

(5.3)

= 0".

5.1.5 Theoreme. Proprietes fondamentales du determinant d'ordre n

.'~

I I 2
2 0 I
I 2 4
3 2 0

0 . . . a.

.'
13

aa23 /

alla22 a33 + a2la32al3 + aJl al 2a23


- a lla32a2J - a 21al2aJJ aJl anOl3'

Ial.1

~.

.J'

(5.2)

En part iculier,

"-;
."

... = a la2'" a .

a1

~~

I (-li+laill A;.! .

On notera que pour n


introduite dans 2.7.2:

5.1.3 Detenninant d'ordre n

IA I

. . . .. . I =

al

139

Definition et proprietes des determinants

..'
':..;.

i~.
1
\.~;

(a) det(a., , aj , , at> ..., a.) = -det(a. , , at, ..., aj ' ..., a.) (n> I,j <.k).
(b) det(a. , , aaj , , a.) = adet (a., ..., aj ' , a.) .
(c) det(a l, , aj + aj, ..., a.) = detfa. , ..., aj' ... , a.) + det(al' ..., aj, ..., a.).
(d) deue. , e2' ..., e.) = I, ou (e l, e2' ..., e.) est la base canonique de lR .
En d'autres tennes, Ie determinant est mult iplie par - I si deux de ses
colonnes sont echang ees, il est multiplie par a si une de ses colonnes est multipliee
par a , il est additif en chacune de ses colonnes et attribue la valeur I a la
matrice -unite.
L'union des proprietes (a), (b) et (c) s'enonce en disant que Ie determinant
d'ordre nest une forme n-lineaire alternee dans R' (cf. 6.4.3).
Le determinant d'ordre n n'est pas additif (sauf si n = I) ; autrement dit,
I A + 8 I n'est en general pas egal a I A I + I 8 I. Par exemple,

I~ ~I # I~ ~I + I~ ~I

(
Determinants

140

Definition et propnetes des determinants

141

(
Nous verrons dans 5.2.4 que les proprietes (a}-(d) caracterisent Ie determi
nant d'ordre n. Ces proprietes en entrainent d'autres, que nous enoncerons dans
les deux propositions suivantes et demontrerons, avec Ie theoreme 5.1.5. dans la
section 5.2.
On remarquera d'ores et deja que Ie determinant est nul si deux de ses
colonnes sont egales ou si I'une d'entre elles est nulle . En effet, un echange de deux
colonnes egales laisse Ie determinant inchange et , d'apres (a). change en meme
temps ce determinant en son oppose. ce qui demontre la premiere assertion ; quant
a la seconde, il suffit de poser a = 0 dans (b).
On notera en outre que

laAI = an I AI

pour toute matrice elementaire M et toute matrice carree B du rneme ordre que M.
De (5.6) et des relations (a). (b) et (c) de 4.4.3 , il resulte en outre que

I'M I = I M I

voici :

5.1.8 Proposition. Autres proprietes du determinant d'ordre n


Si A et B sont des matrices carries d'ordre n, alors

En d'autres termes, Ie determinant du produit de deux matrices carrees du


meme ordre est egal au produit de leurs determinants et Ie determinant de la
transposee d'une matrice carree est egal au determinant de cette matrice.
II resulte aussitot de (a) que

5.1.6 Proposition. Proprietes du determinant d'ordre n


Le determinant d 'ordre n jouit des proprietes suivantes:

I Ak I

, aj , a,.) (n > I, j k). OU, plus


a,,) = det(a l, .... aj' ..., a,,).

I A Ik

(5.9)

,(

pour tout entier positif k ,

(b) det(al ' a2' ..., a,.) 0 si et seulement si les vecteurs-colonnes a l a2' ..., an sont
lineairement independents.
En d'autres termes, Ie determinant reste inchange lorsqu'on additionne a
I'une de ses colonnes un multiple d 'une autre colonne ou une combinaison lineaire
des autres colonnes: en outre. vu la proposition 4.2.4, Ie determinant d'une matrice
est non nul si et seulement si cette matrice est inversible (ou nul si et seulement
si cette matrice n'est pas inversible).

(a) I AB I = I A II B I;
(b) ItA I = I A I.

~.

k :ky,j

pour toute matrice elementaire M .


Les proprietes (5.7) et (5.8) serviront a demontrer leur generalisation que

(5.5)

a,,) = det(a"
, aj + I akak

;:
f

pour toute matrice carree A d 'ordre n. En effet, cela resulte de (b) appliquee a
chaque colonne de A.

(a) det(a t , ... , aj + aak'


generalement, det(a l

(5.8)

(
5.1.9 Determinant comme fonction des !ignes

Le determinant peut etre concu com me fonction de la famille des Iignes


d'une matrice . Grace a (b) de la proposition 5.1.8, cette fonct ion jouit des proprie
tes enoncees dans Ie theoreme 5.1.5 et dans la proposition 5.1.6. a savoir : elle est
une forme n-lineaire alternee, e1le attribue la valeur I a la famille des \ignes de la
matrice-unite, sa valeur ne change pas lorsqu'on additionne a une Iigne un multiple
d'une autre Iigne et cette valeur est non nulle si et seulement si les Iignes sont

;v

lineairement independantes.

I'!

~,'"

(
(

.~

:'i~

5.1.7 Determinant d'une matrice elementaire


5.1.10 Determinant de Plnverse d'une matrice

Le determinant d'une matrice elementaire se calcule par application repetee


de (5.1) (I 171 et I lil I avec i < I sont des cas particuliers de (5.4. II peut egalement
etre deduit de (d) du theoreme 5.1.5 et (a) ou (b) du rneme theoreme, ou (a) de la
proposition 5.1.6. Le resultat est Ie suivant :

I Iii I = -I , I lil I = I , 1171

= a.

(5.6)

Vu l'effet de la multiplication par une matrice elernentaire (cf. 4.4.2), il


s'ensuit, grace a (a) et (b) du theoreme 5.1.5 et a (a) de la proposition 5.1.6, que

IMBI

IMIIBI

(5.7)

Soit A une matrice inversible. D'apres (d) du theoreme 5.1.5 et (a) de la

proposition 5.1.8,

III = IAA-tl = lAllA-II,

d'ou no us deduisons que


(5.10)

II en decoule aussitot que dans Ie cas ou A est inversible, la relation (5.9)

IA-11=IAI- I .
est vraie pour tout entier k .

(
(

(
142

143

Demonstration des proprii:ti:s des determinants

Determinants

(
Dans Ie cas ou n = 2, un parallelepipedeest appele parallelogrammeet son

5.1.11 Proposition. Rang d'une matrice par les determinants

Le rang d'une matrice A (non necessalrement carree) est le plus grand entier
k tel que l'on puisseextraire de A une sous-matricecarreed'ordre k et de determinant
non nul.

(
{

DEMONSTRAnON

Soit r ce plus grand entier et m Ie nombre de lignes de A = (a i) . Designons


parjl ,j2' ... .i. les indices de colonne d'une sous-matrice carree de A de determinant
non nul. D'apres (b) de la proposition 5.1.6, les colonnes et done les lignes de cette
sous-matrice sont lineairernent independantes, II s'ensuit que Ie rang de la matrice

a~

a~

~~

a~

volume aire. D'apres (5.12)


aire(Po, PI'

PJ

detfa., aJ I =

amj,

est r, car r de ses lignes sont lineairement independantes, Par consequent, rgA ~ r.
D'autre part, r' etant Ie rang de A, nous pouvons extraire de A r' colonnes
lineairement independantes formant une sous-rnatrice A' de rang r ', En prenant
alors r' lignes lineairement independantes de A', nous constituons une sous-matrice
carree de A d'ordre r' et de rang r', D'apres (b) de la proposition 5.1.6, Ie
determinant de cette sous-matrice est non nul. Par consequent, r' = rgA ~ r .
Nous en concluons que rgA = r, ce qu'il fal1ait dernontrer.

5.1.12 Volume d'un paralleleplpede

all

a21

a,211 =
au

allau - a21 a121 .

Montrons que Ie dernier membre est bien I'aire ordinaire du parallelograrnme


construit sur Po' PI' P2. Le carre de cel1e-ci est ega I a
2cos2(PIPoPJ
2
2
211
II P;;P; 11 211
112sinz(PIPoP2) = II a l 11 a 2 11 - II al 11 II a2 11

= II a l 11 211 a 2 11 2
- (a, I aJ2 = (allau - a21 a 1J2,

ce qui demontre l'assertion si PI et P2 sont distincts de Po; autrement, elle est


evidente.
Compte tenu de 2.7..14 et de 2.7.15, nous voyons egalement que

vol(Po, PI' Pz, P3) =

ami! amj2 . . .

II

I det(a l ,

a2' a3) I =

all

a l2

all

II a21

au

a31

a32

a23
a33

represente Ie volume ordinaire du parallelepipede construit sur Po, PI ' P2, P3


Nous montrerons dans 7.1.12 que la definition de volume (5.12) est indepen
dante du choix du repere orthonormal. De ' ce fait, Ie volume d'un cube-unite,
p;;P" sont
c'est-a-dire d'un parallelepipede tel que les vecteurs ~,
orthogonaux deux a deux et unitaires, est egal a 1, car dans Ie repere (Po; ~,
"'Ji;P;, ...,
ce volume s'ecrit

M, ...,

p;;p,,)

vol(Po, PI' ... p.) =

I detfe., e 2, .., eJ I

et vaut done I, par la propriete (d) du theorerne 5.1.5.


A titre d'exercice, Ie lecteur pourra ecrire les proprietes du volume qui
decoulent de cel1es du determinant et ilIustrer ces proprietes, a I'aide d'une figure,
dans Ie cas de I'aire et du volume ordinaires.

Soit if un espace affine euclidien de dimension finie non nul1e n. On appel1e


parallelepipede construit sur les points Po, PI' ..., P; de ff' le so us-ensemble de (

~ ajPOP
----+

}
{P: -PoP = ~
j' 0 ~ aj ~ I,J = 1,2. .., n .
j -I

(5.11)

<'
(

(
(

(
(

c.

M unissons if' d'un repere orthonormal et designons par aj Ie vecteur


colonne de R forme des composantes du vecteur ~. On appel1e volume du
parallelepipeds (5.11), et on note vol(Po, PI' ..., Pn ) , la valeur absolue du determi
nant des vecteurs-colonnes ai' a2' ..., a.:
vol(Po, PI' ..., p.) =

I det(a l , a 2, ..., aJ I.

(5.12)

Dans Ie cas ou n = I, un parallelepipede est un interval1e et son volume est


la longueur.

5.2 DEMONSTRAnONS DES PROPRIETES


DES DETERMINANTS
5.2.1 Demonstration du theoreme 5.1.5

Propriete (a). Cette propriete est evidente si n = 2. Supposons qu'el1e soit


verifee par Ie determinant d'ordre n - 1, netant superieur a2. En vertu de (5.1),
elle est alors verifiee par Ie determinant d'ordre n dans Ie cas ou 1 < j < k. Le cas
ouj = I et k > 2 se reduit acelui ouj = I et k = 2 par un triple echange : d'abord
de a2 et at , ensuite de a l et at et finalement de a l et 82 ' Le premier et Ie troisieme

144

qeterminants

Demonstration des proprietes des determinants

145

(
(

echange transfonnent chacun la valeur du determinant en sa valeur opposee, par


ce que nous venons de constater. Le deuxierne echange en fait autant, en vertu de
ce que nous allons dernontrer. Pour tout couple (i, I) tel que i i' I, designons par
Ai/.1 2 la matrice carree d'ordre n - 2 deduite de A par suppression de la i-ieme et
la l-ieme ligne , ainsi que des deux premieres colonnes. D'apres (5. I),
i -I

- --

II s'ensuit, grace a la propriete (a) deja etablie, que

..

"'~'.
'~j

ou il est entendu que Ie second membre se reduit a la deuxieme somme si i = I


et a la premiere si i = n. Substituons ce second membre a I Ail I dans (5. I). II vient :

.. .,

a,J = det(a" ..., aj

~ a,tllk' ..., a,J

k :k"j

II

I Ail I = ~ (- li+ la 12 1A'I.I2~ _~~(=1)~I2J AiI.121,


- - -- - - - /- 1- - - l - i+1

det(a" ..., aj ,

.~

f.

. ::~ ~

-~t: j

:.1t.

det(a l, ..., 0, ..., an) = O.

Inversement, supposons que les vecteurs-colonnes a" a2' ..., an soient lineairernent
independants, Selon la proposition 4.2.4 , la matrice A de colonnes ai ' a2' ..., an est
alors inversible. -D'apres-(d) ~du-theoreme~ 5.1;5 -et ~ (a)- de- Ia -p roposition 5.1.8
(demontree ci-dessous),
I

(
(

= I I I = I AA-I I = I A II A-I I,

ce qui entraine que I A I = detfa] , a 2, ..., an) est non nul.

~.

"

IAI

i -I

II_I

II

~ ~ (- li+ ilal2l Ai/.121 - ~ ~ (- li+ 1aila 12 1 Ai/.121


i -2/- 1
i -I/- i+'
~ (-I)i+lailaI2IA il,l2l- ~ (-li+lailaI2IA il,l2l,
1a

(i.J)<l1

(5.13)

(i.I)'<l2

OU 4, = (U, I) : 2 ~ i ~ n, I ~ I ~ i-I} et 4 2 = {(i, l) : I ~ i ~ 1- I,


2 ~ I ~ n}. Si nous echangeons la premiere et la deuxieme colonne de A, les
matrices Aa.12 ne subissent aucune modification. En revanche, aila 12 change en
a/la 12, pour tout couple (i, l). Nous voyons ainsi que la deuxieme somme du dernier
membre de (5.13) devient la premiere et, inversement, la premiere devient la
deuxieme, L'echange de la premiere et la deuxieme colonne a done pour seul effet
de multiplier Ie determinant de A par - I, ce qu'il faIlait demontrer,
Proprietes (b) et (c). Vu la propriete (a), nous pouvons admettre quej = I.
les conclusions decoulent alors directement de (5. I).
Propriete (d) . II suffit de poser a = I dans (5.3).

5.2.2 Demonstration de la proposition 5.1.6

Propriete (a) . En vertu de (a) du theoreme 5. I .5, nous pouvons admettre que
j = I. D'apres (b) et (c) du meme theorerne,

det(a,

+ aak'

a 2,

a,J = det(a l, a2' ..., an)

~ a,tllk'

k :k"j

'.~; ~

~' :

" ' ~R

~.

-:
'i

Propriete (a) . Si A n'est pas inversible, Ie produit AB ne l'est pas non plus,
selon (c) de la proposition 4.2.6. Or, nous venons d'etablir que Ie determinant

d'une matrice non inversible (c'est-a-dire dont les colonnes sont lineairernent

dependantes) est nul. L'egalite I ~B I = I A II B I est done vraie dans ce cas. Si A

est inversible, il existe, d'apres 4.4.4 , des matrices elementaires M I , M 2, ..., Mk telles

que A = M,M2 ... M k Compte tenu de (5.7), nous pouvons done ecrire

. (.

I AB I = I M IM2 ... MkB I = I M,


=

II M 2 ... MkB I = ...


IM.lIM2 1.. I M k ll B I = IM 1M2 ... M kIIBI = IAIIBI,

ce qui etabl it la propriete (a).

Propriete (b). Si A n'est pas inversible, 'A ne I'est pas non plus, d'apres (a)
de 4.2.6, done I A I = I'A I = 0, d'apres (b) de la proposition 5.1.6. Si A est
inversible, A = M IM2 . .. M k , OU M I , M 2, ..., M k sont des matrices elementaires.
Dans ce cas, grace a la relation (e) de 4. I.9, a la propriete (a) demontree ci-dessus
et a (5.8), nous pouvons ecrire

ItAI = I 'Mk'M k_I .. 'MIl = I 'M k II 'Mk_11 ... I'M,I


= IMIII M 2 1.. IM k l = IM IM2 ..Mk , = IAI,

adet(ak' a 2, ... , a,J .

Propriete (b). Supposons que les vecteurs-colonnes ai ' a 2, ..., an soient


lineairement dependants. En vertu de la proposition 1.5.5, un de ces vecteurs, par
exemple aj , est combinaison lineaire des autres :
=

5.2.3 Demonstration de la proposition 5.1.8

~' i

ce qui etablit la propriete (b).

Puisque k est different dej = I par hypothese, Ie vecteur-colonne a k apparait deux


fois dans Ie dernier determinant. Celui-ci est done nul, d'apres ce qui a ete
rernarque dans 5. I.5. La formulation generale s'ensuit par iteration.

8j

f1'1

i
(
(
(

(
S.2.4 Caracterisation du determinant d'ordre n
Le determinant d'ordre nest la seule fonction reelle definie dans l'ensemble
des matrices carrees d'ordre n verifiant les proprietes (a)-(d) enoncees dans Ie
theoreme 5.1.5. En elfet, nous avons demontre qu'une telle fonction, tout com me
Ie determinant d'ordre n, attribue a A la valeur 0 si A est une matrice non invers ible
et la valeur I M I II M 2 1... I M k I si A est un produit de matrices elementaires M"

M 2, .... M k Toute matrice carree etant de I'une de ces deux sortes, I'assertion est
dernontree.

(
(

(
(

147

DCveloppem enlS. ronnule de Cramer

Determinen ts

146

(
(

5.3 DEVELOPPEMENTS, FORMULE DE CRAMER

5.3.3 Mineurs, cofacteurs


j
On appelle I A ij I m ineur d'indices i, j et (-1)i+ I A ij I cofa cteur de aij' Le signe
j
(-1)i+ varie selon Ie tableau suivant:

(
(

5.3.1 DeYeloppement d'un determinant suivaot uoe colonne

Soit A = (ai) une matrice ca rree d'ordre n > 1 et ai ' a2' ..., an ses colonnes.
Fixons j > I et designons par A' = (aij) la matrice obtenue a partir de A en
echangeant success ivement aj et aj-I ' aj et aj _ 2' . , aj et a, . Les colonnes de A'
(ecrites dans I'ordre) etant~, ai ' ..., aj-I' aj
an' it est clair que , pour tout ind ice
de ligne i,

+ - +
+
+ - +

+" ...,

+
+

ai, = aij et Ail = Aij'


\

I,

I
!

Ainsi, d'apres (5.16) et (5.18), Ie determinant d'une matrice carree est egal

ala somme des termes d'une colonne ou d'une ligne mult iplies par leurs cofacteurs

D'apres (5.1), Ie determinant de A' s'ecrit done sous la forme


n

IA'I

= L(-li+ laijIAijl.

(5.14)

i- I

D'autre part, puisque A' est deduite de A par j - I echanges de colonnes, la


propriete (a) du theoreme 5.1.5 entraine

I A' I =

(- 1);-1

En comparant (5.14)
n

IAI

I A I.

(5.15)

:.

(5.16)

i- I

On appelle Ie second membre de (5.16) developpement du determinant de A


suivantla j-ieme colonne. On remarquera que (5.1) est un cas particulier de (5.16),
a savoir Ie cas ou j = 1.

respectifs.

-1

'J~."~

'&)
r,',

"

a (5.15), il resulte que

= L(-I)i+ aijIA ijl, j = 1,2, ..., n .

-:1'- ,

':t .

5.3.4 Exemple d'apptication


Les developpements s'emploient avantageusement pour calculer Ie determi
nant d'une matrice do nt plusieurs termes sont nuls. Dans I'exemple suivant, la
fteche indique la ligne ou la colonne suivant laquelle Ie determinant est developpe :

'{

.(
.>

II

-3

- 3

10

-2

- 9

Soit A = (aij) une matrice carree d'ordre n > 1. D 'apres (5.16), Ie develop
pement de la matrice IA = (aiJ suivant la i-ieme colonne s'ecrit

5.3.2 Develeppement d'uo determinant suiYant one tigoe

o -10

-3

o ...

- 3 -10

-3

I IAI = L(-li+jai;l('A)jil.

(5.17)

j- I

it s'ensuit, vu la propriete (b) de la proposition 5.1.8, que

(
(
(
(

IAI

= L(-I)i+JoijIAijl, i = 1, 2, ...,n.

(5.18)

j -I

On appelle Ie second membre de (5.18) develappement du determinant de A


suivant la i-ieme ligne .

_21

-9

o -10

-3

5
0

-3

= -21

I = -2 '7 = - 14.

-3

Comme
ai; = aij et ('A )ji = '(A ij)'

-3

1-3 -10

"

'. ;i1

, I, .

148

Determ inants

149

Developpernents, fonnule de Cramer

"l;l ~

t;

f:

5.3.5 Formule de Cramer


Considerons un systerne de n equations Ii n inconnues, de matrice associee
A = (aij) et de second membre b = (bJ. Supposons que Ie determinant de A soit
non nul. D'apres la proposition 3.5.9. ce systeme admet une solution unique
Xo = (xJ>. Nous aIlons exposer une methode de calcul de Xo s'appuyant sur les
proprietes des determinants. Designons par a l a2... an les colonnes de A. Par
hypothese.

x?al

x~a2

+ ... +

'i~,;

~f~

~l"

5.3.6 Calcul de la matrice inverse par la methode des cofacteurs

Soit A = (aij) une matrice carree d'ordre n et de determinant non nul.


D'apres (b) de la proposition 5.1.6 et la proposition 4.2.4. A est inversible. Les
colonnes de la matrice inverse A-I sont les solutions des n equations matricieIles
(4.13):

x2j

x~an = b.

A
.'''' .

b, aj + I'

x nj

aJ.

...

detta, ..., aj _

xJaj aj+ I '

.. .

j = 1.2.. . n.

"(

... j-ieme

10 .

Ces equations sont l'expression matricielle de n systemes lineaires que nous resol
vons Ii I'aide de la formule de Cramer (5.19). La solution unique duj-ieme systeme

D'apres (a) de la proposition 5.1.6. ce determinant est egal Ii


aJ = xJdet(a l a2' .... aJ.

s'ecrit
all .. , 0 . . al n

. bl
b2

al n
a2n

0 __
1

xj

jAII ajl

. , . I . . apr

b; . .
T
j-ieme

' .

0 . .
T
i-ieme

alllf

+
+
-

2x2

6xJ = 5

3x 2
3xJ = 2

2X2 - 4xJ = I.

A-I =

Selon (5.19).

XI

3
2
2

=
326
233
2 -2-4

5 6
2 3
1-4

3 2
2 3
2 -2

-to

I . x2 =

326
233
2 -2-4

alllf

xJ

2
1

t
326
233
2 -2-4

_I_A.
I AI

....

(5.20)

n.

A=

(oij)'

OU oij = cofaj l La matrice

\f\'

A-I =

(5.21)

(
(

[a

22
1
allan - a21 a12 -a21

Calculons, par exemple, la mat rice inverse de

A =

rr\ .L od1 R

En d'autres terrnes, A-I est egale Ii la matrice des cofacteurs transposee divisee par
Ie determinant de A.
On notera Ie cas part iculier ou n = 2:

(
_(-I)i+jIAjil_cofaji ' - 1 2
IA I
- I A I ' 1- ,
x ij -

ou cofaj i designe Ie cofacteur de aji. Posons


inverse de A s'ecrit alors sous la forme

+
+

5 2 6
2 3 3
1 -2-4

ou encore. apres developpernent du demier determinant suivant la i-ieme colonne.

Cette relation est connue sous Ie nom de formule de Cramer pour la resolu
tion d'un systeme lineaire.
Resolvons, par exemple, Ie systeme lineaire
3x,
2x1
2x1

i = 1.2 ... n,

(5.19)
ani'

ani

-(

.(

xij =

, j = 1.2 ... n.

IAI

(
<

II s'ensuit que
all
a 21

I 1=1'1.
I .

10

Xljl

Substituons Ie premier membre de cette egalite Ii b dans Ie determinant


det(a l . . . aj _

3 1 2]
[-I0 II 0I .

-a I2 )
all

(5.22)

(
(

(
(

(
(

lSI

Exemples et remarques diverses

Determinants

ISO

(
(

Ensuite, it convient de soustraire de la premiere tigne deux fois la deuxieme et une


fois la quatrieme:

En developpant Ie determinant de A suivant la troisieme tigne, nous voyons

aisement que I A I = -2. O'autre part,

(
(

cofall = /:

cofal) =

~I

= -I, cofa l2 =

1_ ~ :I

= I, cofa21 =

A = '[-I2
-I

-I
2
-3

-I_~ ~I

-I:

= -I,

,'4

o21 -- 2, ...,

j'

~!

'1
....1
/

I]
-4 .
3

D'apres (5.21), nous concluons que

- I
A-I=-t -:
[

-2
I
41
I
I

2-I]

*1

'*. 1
:' ,
'~. !

..~;; !

". !

o
o

a-b ~_b2
b-e b2-

2 - 3 I
3 4 0-1

c2

= (a-b)(b-e) 1 . : = (a -b)(b -e)(e-a).


1 b+e
1

c2

(3) On notera,

,I

I'

c2

.. ,
I
.i

5.4 EXEMPLES ET REMARQUES DIVERSES

on peut soustraire la deuxierne ligne de la premiere et la troisieme de la deuxierne:

":":1
;

:~ I

'l j

0
0
I = 4(-2) = -8 .
0
I

(2) Pour calculer Ie determinant

.~ j

2 -3 .
-4
3

0
0
I

0
I
- I
- I

21

a titre d'exemple, que

= 0, car la troisieme ligne est la somme des deux premieres.

5.4.1 Quelques exemples de calcul d'un determinant

Le calcul d'un determinant est d'ordinaire precede d'un travail de simplifica


tion fait principalement a I'aide de (a) de la proposition 5.1.6 ou de la propriete
correspondante relative aux lignes.

(I) Pour calculer Ie determinant

I
I
- I
-I

(
(

I
-I
I
I

-I

-II ,

I
I
-I
-I

(
(
I

2
2

0' = 4

I
I
I+a I
I
I I+b I
1 I+e I
I
I I+d
1
I
peut etre calcule en appliquant (c) du theoreme 5.1.5 et (a) de la proposition 5.1.6.
A cet effet, posons

on peut commencer par additionner la premiere colonne a la troisieme et


quatrieme et appliquer (b) du theoreme 5.1.5 a ces deux colonnes:

(4) Le determinant

I
I
- I
-I

o
o

I
I

a la

a
0
b =
I . I, a = 1
0 '
,0

0
b

o'
0

c=

0
0

e
0

, d=

0
0
0
d

Alors Ie determinant s'ecrit :


det(v + a, v + b, v + c, v + d)
= det(v, v + b, v + c, v + d) + det(a, v + b, v + c, v + d)
= det(v, b, c, d) + det(a, Y, v + e, v + d) + det(a, b, v + c, v + d)
= bed + det(a, v, c, d) + det(a, b, v, v + d) + det(a, b, c, v + d)
= bed + acd + det(a, b, v, d) + det(a, b, c, v) + det(a, b, c, d)
= bed + aed + abd + abc + abed.

(
152

Determinants

(5) Nous vous proposons de calculer Ie determinant de la matrice carree


d'ordre n

2 100
I 2 I 0

0
0

I 2 I

I
l,i

:'f;'.

~:

I 2 I

(~, l;

0 I 2

I I 0 . . . 0

o r
I A.I

21 A._II -

A'_ 2

21 A, _I I -IA._ 2 1.

01

5.4.2 Determinant d'une matrice partagee en sous-matrices


Cornmencons par observer que. pour toute matrice carree A d'ordre m et
toute matrice C de type m x n

C
= IAI

(5.23)

O il.

Pour s'en rendre compte. iI suffit de developper Ie premier (deuxierne) determinant


n fois suivant la premiere (derniere) ligne.
Soit main tenant A et B des matrices carrees respectivement d'ordre m et n
et C une matrice de type m x n. En vertu de (4.7).

X OI

X 02

XOn

XII

XI2

X,.

....................................
B

(
(

J
I x. 1 x. 2

x".

Pour etablir cela, il suffit de soustraire la premiere ligne de to utes les aut res et
d'appliquer (5. I). Compte tenu de (b) de la proposition 5.1.8, Ie resultat de ces
operations est Ie determinant det(a l, a2' .... a.) dont la valeur absolue est. selon

fa definition (5.12). Ie volume du parallelepipede,

5.4.4 Equation cartesienne d'un hyperplan

Soit rf un espace affine de dimension finie non nulle n et PI' P2 P;


n points de rf engendrant un hyperplan. Supposons que if soit muni d'un repere
et designons par Xii' xJ1 . xi.les coordonnees de Pj' oiJj = 1.2. ..., n. L'equation
cartesienne de cet hyperplan peut alors s'ecrire sous la forme

X,

x2

. X.

XII

xI2

. XI.

IAIIBI .

(5.24)

X. 2 .

(
(5.26)

I x"'

(
= O.

II s'ensuit, grace Ii (a) de la proposition 5.1.8 et Ii (5.23). que

l
(5.25)

BOB

Considerons Ii nouveau Ie parallelepipede defini par (5.11). Munissons


l'espace affine euclidien i6 d'un repere orthonormal et designons par Xjl' xJ1'
xi' les coordonnees de Pj' qiJ j = O. I ... n. Le volume vol(Po PI' ... P.> de ce
parallelepipede est alors la valeur absolue du determinant

[oAC] [1 0] [A IC].l
A

~ r ~

5.4.3 Retour au volume d'un parallelepipede

.\

Vu que I AI I = 2 et I A z / = 3. cette formule nous permet de calculer I A.I par


recurrence. Le resultat est I A.I = n + I.

I. : 0

#IAIIBI-IDIICI

~:

,~', I

(
(

Pour s'en rendre compte. iI suffit de prendre A = B = al2 et C = D = cI2, a # c


(cf. exercice 5.5.11).

~"

Supposons n > 2 et developpons I A.I suivant la premiere Iigne:

153

On notera cependant que si A. B. C et D sont des matrices carrees du meme


ordre, en general

I~ ~I

,i

';; - .

o . . . .
o . . . .

Exemples et remarques diverses

,.'it!'
ii,
;;(.
-,::.;~

x".

En effet, en developpant Ie determinant suivant la premiere ligne , nous obtenons


une equation de la forme (1.21). En outre. chaque po int Pjappartient Ii I'hyperplan
defini par cette equation. car en substituant les coordonnees Xj l' xJ1 Xi_ de Pj
aux inconnues x" X 2 X no us voyons que Ie determinant a deux lignes egales

et done qu 'il est nul.

(
(
(

(
(
(

<.

(
.i)

154

.~

Determinants

ISS

Exercices

~,

t;

5.5 EXERCICES

5.5.6 Montrer que pour toute famille de nombres (a l a2

cr.

a'j-I

a2 ~

d:- 1

al
5.5.1 Montrer que

::

3
0
4
5

I
I
I
-2

2
2
21 = 60.
0
6

3
0
3
3
0

I
0

I
0

~ s"

aj ) .

')

t ]

'---

a.

a.) (n > I).

'7 -'-- -' -----,-,

== .n (a;

.. . .

.-/

a: ... 0:;-'

Ce determinant est appele determinant de Vandermonde.

5.5.2 Calculer Ie determinant de la matrice

I
-I
a -I -I
I
a -I

-I
A=I
I
-I

l r:
.

5.5.8 Calculer la matrice inverse de

I
2

(a) d'une maniere directe,


(b) en effectuant, au prealable, Ie produit A'A.
5.5.3 A I'aide du theoreme 5.1.5 et de la proposition 5.1.6. montrer que

aa.+b,

ab,+c,

al

acl+a,

aa2+ b2

ab2+c2

aC2+a2

aaJ+b J

abJ+c J

aCJ+aJ

= (a J + I) a2
aJ

all +t a12+t
p(t) ==

...

b2

C2

bJ

cJ

. ..

I XI)

..

(x,

a..+1

I Xk)

Jf

3 -I
I -5

5.5.9 Soit A = (aij) une matrice carree d'ordre n > 1.

!l~;1 . = }Jl/ A;l - ,

(a) Montrer que

AA = IAI I..

:- I

/~ 1A

tl7- A

rv

IAI=IAI- I .
(Utiliser (a) de la proposition 5.1.8 et (5.3).)
\

5.5.10 Dernontrer, par recurrence sur Ie nombre n de lignes, que

2cosO
2cosO

2cosO

sinn+ 1)0) si 0 '" kn,


sinO
si 0 = Lkn;

n+ l

(
(

(/

par la methode des cofacteurs.

, /

"

que la relation

I?

5.5.5 Soit (XI ' X2' ... . xk) une famille de vecteurs d'un espace vectoriel
euclidien. Demontrer que cette famille est liee si et seulement si son determinant
de Gram
('. ',)
(XI

/)

par sa k-ieme.)
(b) Dans I'hypothese que I A I '" O. en deduire la fonnule d'inversion (5.21), ainsi

(Appliquer (5.16) Ii la matrice deduite de A en remplacant sa j-ierne colonne

a,.+t

. . .... .

a., +1 a. 2+t
(

c.

5.5.4 Quel est Ie degre du polynome p defini par

a2' + t a22+ t . .. a2o+ t

bl

... .

( (.

I 2 -2]

' "

(-I)(n

(x, I x,) .. . (x, I xk)


est nul. (Utiliser la proposition 1.5.5 et les proprietes du determinant.)

2cosO

I) si 0 = (2k

+ I)n.

(
(
156

Delenninants

(
(

5.5.11 Soit A une matrice inversible d'ordre m, B une matrice carree d'ordre
n, C une matrice de type m x n et Dune matrice de type n x m.

(a) Montrer que

Index

I~ ~I

=/AI/B-DA-IC/.

(Verifier que

[DA BC]

m
[1DAI

~][~

B - DA-IC

[I0

Les nombres en caractere romain renvoient aux pages du tome I


Les nombres en caractere italique renvoient aux pages du tome 2

A-IC]

\
(

(b) En deduire que si A et B sont du meme ordre et A et D commutent

I~ ~I ~IAB-DCI

5.5.12 Soit PI(al' aJ. Pib l, bJ et P3(cl cJ trois points non alignes d'un
plan affine euclidien, muni d'un repere orthonormal. Montrer que

~+~

XI

x2

er.+~

al

a2

bl

b2

ci

c2

bhbi
t'T+ci

=0

est l'equation du cercle passant par PI' P2 et PJ'


5.5.13 Dans un espace affine euclidien if de dimension finie n superieura
Ii 2 et muni d'un repere orthonormal, on considere un hyperplan .9' dont lej-ieme
vecteur directeur a pour composantes les termes de laj-ieme colonne de la matrice
VII

VI2

V21

V22

vl ... _ 1
vl..- _ I

V=

V.I

V.2

' "

I.

et appliquer (5.24).)

v.... _ 1

(a) Soit VI (i = I, 2... n) la matrice obtenue en supprimant la i-ieme ligne de V.


Montrer que Ie vecteur D de composantes
vl=(-I)i+",Vil, i=I.2, ... n,
est normal Ii .9'. (Appliquer (a) de l'exercice 5.5.9 Ii la matrice A = (Via), ou
a est un vecteur-colonne quelconque de R".)
(b) Interpreter ce resultat dans Ie cas ou n = 3.

i
..,
~\

addition
d'applications, 10. /8
matricielle, III
vectorielle, 8, II
adjointe
d'une application lineaire , /58
d'une mat rice. /52
affine
application -, 32
dilatation - . 35
droite -, plan -, hyperplan -. 36
espace - . 3 /
projection -. symetrie -, 35
sous-espace -. 34
affinite, 37
aire, 143
alternee, forme n-lineaire - . 139
angle(s)
de deux vecteurs, 47, 59
de deux hyperplans, 79
determine par trois points. 78
d'Euler, 66

d'une droite et un sous-espace


affine, 79
oriente d'un couple de vecteurs, 53
oriente d'une rotation. 54, 56, 58,
62,63
antilineaire, forme -, /6/
antisymetrique
forme bilineaire -, //3
matrice -. I35
application, 7
affine, 32

bijective. 9
composee, 9
constante, 7. 34
duale,44
identique, 7
injective. 9
inverse. 9
nulle, /2
surjective, 9
application lineaire, lO
adjointe, /58
associee Ii une matrice, 22
composee, /9
diagonalisable, 77
nilpotente, /08
approximation. meilleure -. 64
asymptote, cone -. /46
auto-adjointe, transformation -. /55
axe(s)
de rotation. 56. 58. 62

de symetrie, 55

barycentre, 45
base. 22
canonique,23
changement de -, 27
directe ou positivement orientee,
67,29
duale.20
indirecte ou negativement orientee,
67.29
orthonormale, 49. 60
bijective, application -. 9

.(

J
l

l
(

(
(

(
(
(

(
(

<.

(,

158

Index

Index

159

(
(
(

bilineaire, forme -, / /3

binome, fonnule du -, 115

blocs,

multiplication par -, 116

diagonale par -, 44

(
(

(
(
(

(
(
(
(

l . ..

caracteristique

equation -, 79, 80

polynorne -, 79

Cauchy-Schwarz, inegalite de - , 57
centrage, /32
centre
de grav ite, 45

de rotation, 62

d'une homothetie affine, 35

d'une quadrique, /3/

d'une symetrie centrale, 35

changement

de base, 27

de repere, 37

Chasles, relation de -, 31
coefficients
d'une forme lineaire ou quadrati
que, //4

d'un systeme lineaire, 89

d'un systeme differentiel , 98

cofacteurs(s), 147
methode des -, 149
colonne
d'une matrice, 92
matrice- -, 92
vecteur- - , 13
combinaison
convexe, 15
lineaire, lineaire triviale, 15
commutent
applications lineaire qui - , 44
matrices qui - , 114
compatible, incompatible, 90
complementaire
orthogonal, 62
sous-espace -, 29
completion des carres, /17, /26
composantes, 22

composee

d'applications, 9

diagonal(e)
matrice - , 124
par blocs, 44
tenne - ,92
diagonalisable(s)
application lineaire -, 77
matrice -, 83
simultanement, /24, /64
diagonalisation, 83
d'une matrice nonnale, /6/
d'une mat rice symetrique, 96
d'une transformation hennitienne,
/56
d'une lransfonnation nonnale,

d'applications lineaires, /9

cone

du second degre, /35

asymptote. /46

coniques, 134

conjuguee d'une matrice, /52

conservation

de la nonne, 47, /54

des angles, 48

des barycentres, 45

du produit scalaire, 47, /54

convergence en nonne, 65

coordonnees, 37

cosinus, theoreme du -, 59, 78

couple, 2

Cramer, formule de -, 148

cylindres, 135, 139

/60

decomposition

suivant une base, 22

spectrale, 77

definie non negative, positive

fonne bilineaire symetrique - , //9

forme sesquilineaire hennitienne - ,

/63

matrice hennitienne -, /63

matrice symetrique - , / /9

dependance lineaire, 20

derivee d'une matrice, 129

determinant

de Gram, 154
de passage, 67, 28
de Vandennonde, 155
d'ordre 2 et 3, 66
d'ordre n, 138
d'une application lineaire, 3/
d'une famille de vecteurs-colonnes,
137

d'une matrice , 137

d'une matrice orthogonale, 5/

d'une matrice unitaire, /54

developpernent d'un determ inant, 146

>,

d'une transformation symetrique,


94
difference
de deux vecteurs, 11
de deux matrices, 111
dilatation, 13
affine, 35
affine orthogonale, 36
orthogonale, 13
dimension
d'un espace affine, 32
d'un espace vectoriel, 26
finie et infinie, 24
direct(e)
base -, 67, 29
repere - , 29
somme -, 29, 30
directeur(s)
vecteurs -, 38
espace -, 31, 35
direction(s)
d'affinite, 37
d'une dilatation, 13, 36
d'un espace affine, 31
d'un sous-espace affine, 35
principales d'une quadrique, /34 ,
/38
distance
de deux droites gauches, 77

de deux points, 74
d'un point a un sous-espace affine,
75
droite,36

affine, 36

vectorielle, 17

dual(e)

application -, 44

base -,20

espace - , 20

echelonnee

matrice - , 95

matrice - simplifiee, 97

element, fixe, invariant, 8

elementaires

matrices - , 126

operations - , 96

elimination, methode d' - , 89


ellipse, 134
ellipsoide, /35
engendre
sous-espace affine -, 36
sous-espace vectoriel -, 17
ensemble

de depart. d'arrivee, 7

d'indices, 2

equatioms)
caracteristique, 79
d'une droite, d'un plan, 39
d'un hyperplan, 39, 153
matricielle d'une application affine,
37
matricielle d'une application
lineaire , 24
parametriques, 38
equilatere, hyperbole -, /34
equivalents, systemes lineaires -, 90
espace(s)
affine, 31

affine euclidien, 73

affine oriente, 29

directeur, 31, 35

dual, 20

(
160

Index

161

Index

(
vectoriel, 10
vectoriel complexe, /49
vectoriel euclidien, 51
vectoriels fonctionnels, 14, 149
vectoriel geometrique, 10
vectoriel hennitien, 151
vectoriel oriente, 67, 29
Euclide, postulat d' -, 37
euclidien
espace vectoriel -, 51
espace affine -, 73
Euler, angles d' - , 66
exponentielle d'une matrice, 130
extremums d'une fonction, 122

famille
finie, I
infinie, 2
generatrice, 17
libre, liee, 20
orthogonale, orthononnale, 53
fixe, element - , 8
forme
antilineaire, 161
bilineaire, 113
bilineaire associee a une matrice,
JJ5
bilineaire syrnetrique, JJ3
bilineaire symetrique definie, 119
bilineaire symetrique reduite, 116
diagonale, 82
echelonnee, 96
echelonnee simplifiee, 97
lineaire, 19
n-lineaire altemee, 139
nonnale, 134, 138
quadratique, 113
quadratique hennitienne, 162
semi-lineaire, 161
sesquilineaire, 162
sesquilineaire hermitienne, 162
sesquilineaire hennitienne definie,
163

sesquilineaire hermitienne reduite,


163
fonction,7
matricielle, 128
fonnule
de Cramer, 148
de Lagrange, 18
du binome, 115
Gauss, methode de -, 100
generateurs, 17
generatrice, famille -, 17
Gram, determinant de - , 154
Gram-Schmidt, precede d'ortho
gonalisation de -, 55

hennitien(ne)
espace -, 151
forme quadratique -, 162
fonne sesquilineaire -, 162
matrice -, 153
produit scalaire -, 151
transformation -, 155

I
....

!
.:~

homogene
systeme differentiel -, 99
systeme differentiel - associe, 100
systeme lineaire - , 89
systerne lineaire - associe, 89
homothetie, 12
affine, 35
hyperbole, 134
hyperboloide, a une nappe,
nappes, 135
hyperplan, 36
affine, 36
d'affinite, 37
polaire, /47
tangent, 130
vectoriel, 29

..:'1

]It
~~

e....
i
' 1
~;.
~~ ' I

~~~

: '.I:~

;t"

a deux

-,

.~:~
1..
';;'i

' , o ..lo

.,

, ./
.~

.";

:..1

.;

identitets)
du parallelogramme, 83
vectorielles. 72. 85

" ~

image
d'un element, 7
d'un sous-ensemble, 8
d'un sous-espace vectoriel, 15
d'une application, 8
d'une famille, 8
d'un parallelepipede, 40
reciproque d'un sous-ensemble, 8
reciproque d'un sous-espace vecto
riel, 15
inconnues
d'un systeme Iineaire, 89 '
principales, 103
independance lineaire, 20
indices, ensemble d' -, 2
indirect(e)
base, 67, 29
repere,29
inegalite
de Cauchy-Schwarz, 57
triangulaire, 58, 74
inertie, loi d' - , 127
injective, application - , 9
intersection de sous-espaces vecto
riels, 17
invariant(s)
element - , 8
points -,34
so us-ensemble - , 8
sous-espace - d'une dilatation, 14,
36
inverse
d'une application, 9
d'une application lineaire, 19
d'une matrice, 119
inversible, matrice -, 119
isometrie,61
a deux dimensions, 62
a trois dimensions, 63
isomorphisrne, 18
de E dans R~, 27, 61
de E dans (C~, 152
Kr-r. Iii

Lagrange, fonnule de -, 18
Legendre, systerne de -, 57
Iibre,20
liee, 20
ligne(s)
d'une matrice, 92
rnatrice- - , 92
operations elementaires sur les -, 96

(
(

(
(

lineaire
application -, 10
combinaison - , 15
dependance - , independance -, 20
forme -,19
systeme -, 89

linearite

a gauche et a droite, 51, 69, 72


au centre, 72
loi d'inertie de Sylvester, 127

(
(
-(

,<
l

matrice(s)
adjointe, 152
a m Iignes et n colonnes, 92
antisymetrique, 135
associee a un systerne lineaire, 93
augmentee, 93
carree,92
conjuguee, 152
de passage, 27
de type I x I, 124
de type m x n, 92
de transition, 131
diagonale, 124
diagonalisable, 83
d'une application lineaire, 21. 22
d'une forme bilineaire, 114
d'une forme quadratique, 115
d'une forme sesquilineaire, 162
echelonnee, 95
elementaire, 126
hermitienne, 153
hennitienne definie, 163
hessienne, 122
inversible, Ill)

<
(
(

(
(

(
(

(
(
(

(
(

(
(
(
(

(.

(
(

(
(
(

ii

I
I
i

(
(
(

(
(
(

t')

Index

163

Index

162

-ligne, -eolonne, 92

nilpotente, 115

nonnale, /53

nulle,93

orthogonale, 50

reguliere, 119

scalaire, 124

semblables, 30

symetrique, 126

symetrique definie, 119

transposee , 118

triangulaire, 125

-unite, 93

unitaire, 154

meilleure approximation, 64

methode de Gauss, 100

mineur(s), 147

principaux, 120
moindres carres, methode des -, 134
multiplication matricielle, 112
par blocs, 116
multiplication par un scalaire

d'une application, 10

d'une application lineaire, 18

d'une mat rice, 112

d'un vecteur, 10, 11

multiplicits d'une valeur propre, 81


negatif, 1
negativement orientee, base -, 67, 29
nilpotente, matrice -, 115
non negatif, I
nonnal(e)
matrice -, /53
transfonnation -, 159
vecteur -, 63, 74
nonne, 47, 51
noyau, /6
n-uplet, 1
operations elementaires, 96
opposete)
matrice -, III
vecteur -, 11

orientation

d'un espace vectoriel, 67,.29

d'un espace affine, 29

orienteje)

base -, 67, 29

repere -,29

origine

d'un repere, 37

d'un vectorialise, 32

orthogonal(e)
complernentaire -, 62
famille -, 53
matrice -, 50
projection -, 13
symetrie -, 13
transfonnation -, 49
orthogonalisation, precede d' -, 55
orthogonaux
sous-espaces affines -, 74
sous-espaces vectoriels -, 54
vecteurs -, 48, 53
orthononnal(e)
base, famille, 53
repere, 80

',f;

\~
~
~;,

.~~
. . .:.
. ,; ..

' --: ~~

~ . ~.~;

parabole, 138
paraboloides, 139
parallelisme, 36
parallelogramme, 143
identite du - , 83
regie du -, 32
parallelepipede, 142
parametrique(s)
representation - , 38, 142
equations -, 38, 14j
parametres, 38
passage
determinant de -, 67, 28
matrice de -, 27
permutation cyclique, 68
perpendiculaire, 75
perpendiculaire commune, 76
plan, 36

' ~~f
,{':
";1

affine, 36

vectoriel, 17

point, 31

invariant, 34

pivot, 97

polaire

hyperplan -, 147

representation - , 166

polynome

caracteristique, 79, 80

matriciel, 128

trigonometrique, 65

positif, I
positivement orientee, base -, 67, 29
probleme aux valeurs initiales, 99
precede d'orthogonalisation, 55
produit
de matrices, 112

d'une application par un scalaire,

10, 18
d'une matrice par un scalaire, 112
d'un vecteur par un scalaire, 9, 11
mixte,71
scalaire, 48, 50
scalaire canonique, 52, /51
scalaire defini par une base, 61
scalaire hermitien, 151
vectoriel, 68
projection
affine, 35
affine orthogonale, 36
orthogonale
sur une droite vectorielle, 48, 55
sur un sous-espace affine, 74, 36
sur un sous-espace vectoriel, 62,
13
propre
valeur -, vecteur -, 74, 77
sous-espace -, 74, 77
puissance d'une matrice, 114, 85
Pythagore, theoreme de -, 55 ,78
quadratique, forme -, Jl3, 162
quadrique, 130

a centre, 133

sans centre, 137

racine carree d'une matrice, /28


rang
d'une application lineaire, 16
d'une famille de vecteurs, 27
d'une matrice, 93
d'une matrice echelonnee, 96
rapport

d'affinite, 37

de dilatation, 13, 36

d'hornothetie, 12,35

reduction
la forme echelonnee, 96
ala forme diagonale, 82, 155
a la forme triangulaire, 89, 155
d'une forme bilineaire syrnetrique,
lJ6
d'une forme sesquilineaire hermi
tienne,163
simultanee, 123, /64

regie du parallelogramme, 32

repere

direct, indirect, 29

orthonormal, 80

changement de -, 38

representation parametrique, 38, /42


revolution, surface de - , /43
rotation, 54, 56
affine, 62, 63

scalaire,9

section d'une quadrique, 146

semblables, matrices -, 30

serni-lineaire, forme - , 161

sesquilineaire, forme -, 162

similitude, 64

simple, valeur propre -, 81

somme

d'applications, 10, 18
de matrices, III
de sous-espaces vectoriels, 17

(
164

165

Index

Index

(
(

I
I

de vecteurs, II

directe, 29, 30

sous-espace

affine, 34

complernentaire, 29

invariant d'une dilatation, 14, 36

propre, 74, 77

stable, 76

vectoriel, 16

soustraction

matricielle, III

vectorielle, 9, II

spectre

d'une application lineaire, 74

d'une matrice, 78

spectrale, decomposition - , 77

stable

so us-ensemble, 8

sous-espace, 76

surjective, application - , 9

Sylvester, loi d'inertie de - , 127

symetrie, 13

affine, 35

affine orthogonale, 36

axiale,55

centrale, 12,35

orthogonale, 13

symetrique

matrice -, 126

transformation -, 93

systemets)

de Legendre, 57

differentiel, 98

lineaire, 89

lineaires equivalents, 90

trigonometrique, 53

tangent, hyperplan - , 130

terme(s)

diagonaux, 92

d'une famille, 2

d'une matrice, 92

d'un vecteur-colonne, 13

theoreme

de Pythagore, 55, 78

de Thales, 46

du cosinus, 59, 78

du sinus, 86

spectral, 77

trace d'une matrice, 116

transformation

hermitienne ou auto-adjointe, 155,

158

normale, 159

orthogonale, 49

symetrique, 93

unitaire, 154

translation, 34

transposee d'une matrice, 118

transvection, 43

affine, 45

triangulaire

inegalite -, 58

matrice -, 125

trigonalisable

application lineaire - , 89

matrice -, 90

triplet, 2

: :J~

;1
:f-; ~

~l

:~' i

' :~: l

normal, 63, 74

oppose, II

orthogonaux, 48, 53

unitaire, 47,51

vecteur propre

d'une application lineaire, 74, 154

d'une matrice, 77, 154

vectoriel(le)

droite -, 17

espace -, 10

hyperplan -, 29

plan -, 17

produit -, 68

sous-espace -, 16

vectorialise, 12, 32

volume, 142, 153

(
(

(
(

(
(
(
(

;,i..
Z.,'/

%:/

.~ ;

~.j

-." !

:;:" 1

'(

,(

, ",' I

.
..': 1

(
(
(

unitaire

matrice -, 154

transformation -, 154

vecteur - , 47, 51

valeur(s) propre(s)
calcul de la - maximale par itera
tion, 111

d'une application lineaire, 74

d'une rnatrice, 77

extremes, 96, 128

simple , double, triple, 81

Vandermonde, determinant de -, 155

variation de la constante, 102

vecteur(s), 7, 10

-colonne, 13

directeurs, 38

lineairernent dependants, indepen

dants. 20

(
(
(

'I
I

(
(

(
(

(
(

(
(

(,

~,
j

--ll

. .,

I
. ,

'\ 1

~I

;~. : l

;',

:: j

(
(

,
" I

(
(

-;

(
(
,.;

(
(

(
(

York,1969.
S. Mac Lane, G. Birkhoff, Algebre, Gauthier-Villars, Paris, 1971.
B. Noble , Applied linear algebra, Prentice-Han, Englewood Cliffs, New Jersey,

1969.
E. Ramis, C. Deschamps, J. Odoux, Cours de mathematiques speciales, Masson ,

Paris , 1977.
E. Snapper, R.J. Troyer, Metric affine geometry, Academic Press, New York,

London, 1971.
E. Sperner, Einfiihrung in die Analytische Geometrie und Algebra, Vandenhoeck &
Ruprecht, Gottingen, 1957.
C. Tisseron, Geometries affine. projective et euclidienne, Hermann, Paris, 1983.

(
(

(
(

1968.
J. Dieudonne, Algebre lineaire et geom etrie elementaire, Hermann, Paris, 1964.
J. Frenkel, Geometrie pour I'eleve-professeur, Hermann, Paris, 1973.
F. R. Gantmacher, The theory of matrices, Chelsea Publishing Company, New
York,1977.
R.J . Goult, Applied linear algebra, Ellis Horwood Ltd ., Chichester, 1978.
W. Greub, Linear algebra, Springer-Verlag, New York , 1981.
P. R. Halmos, Finite-dimensional vector spaces, Van Nostrand, New York , 1958.
K. Hoffman, R. Kunze, Linear algebra, Prentice-Han, Englewood Cliffs, New

Florida, 1985.
S. Lang , Aig ebre lineaire, Inter Edit ions, Paris, 1976.
H. Liebeck, Algebra for scientists & engineers, J. Wiley & Sons, London, New

M. Berger, Geometrie , Cedic/Fernand Nathan, Paris, 1977.


A. Calame, Mathematiques modernes, Editions du Griffon, Neuchatel, 1968.
L. Chambadal, J. L. Ovaert, Algebre lineaire et algebre tensorielle, Dunod, Paris,

Jersey, 1961.
M. Jeger, B. Eckmann, Eirifiihrung in die vektorielle Geometrie und lineare Algebra,
Birkh iiuser Verlag, Basel, 1967.
H.-J. Kowalsky, Lineare Algebra, W. de Gruyter, Berlin, 1970.
P. Lancaster, M. Tismenetsky, The theory of matrices, Academic Press, Orlando,

Bibliographie