Vous êtes sur la page 1sur 85

>

-0 CD'"
=-

4' §.
CD CD
en en
en en
CD
en CD
£:i
=-

CiJ

TI
o 0>­
.;( (i):-;
CO o. m
o CD. 0
:7 ~ 0 ~
:J
15'
e
\l)
­
_CD
CD-o
0.0
---
;0 CD"
CD CD.;( I»
(I>

a ~ m 0 -­
c 00>.
3
~~ ,
:J.Q
0
:J e
CD
...
i~
CD CD .....
1_,
"'. ,- ,-i"
'
::~:~.
· or~_ ·'; " f·

(
(
51 .1..;.):
( I

N. Edites par Jes Pre~S poly techniques romandes H (


.... :.
(documentation detaillee sur dernande aux ~~,
Presses poly techniques romandes, ', : ,(

(
EPFL .Centre Midi, CH·I015 Lausanne, Suisse). . : .ii:~
~.:~ Preface ( ,

" ~;1'
CaJcuI differentiel et integral ~ ~. :'1
(
~i
Jacques Douchet et Bruno Zwahlen
1. Fonctions reelles d'une variable reelle L'enseignement de l'algebre lineaire s'est considerablernent developpe au (
. ~~~
2. Fonctions reeltes de plusieurs cours des deux dernieres decennies. De nos jours, presque to utes les sections (
variables reelles
~ d'etudes scientifiques et techniques, et notarnrnent les sections d'ingenieurs,
3. Exercices
a'$. ( I
incluent l'algebre lineaire dans la formation de base de leurs etudiants. Un ouvrage
(parution 1987)
qui s'ajoute aux nombreux deja existants dans la litterature peut done encore se ('
;,~~
Analyse ltott'standard justifier et pretendre repondre a des exigences restees insatisfaites.
Alain Robert ~ (
, A l'exception de quelques-uns, les sujets developpes dans ce livre sont
~
'·· "

Algebre Iineaire, tomes 1 et 2


classiques et servent normalement de base a la realisation de tout livre d'algebre (
R. Cairoli lineaire de rneme niveau . Ce qui distingue celui-ci des autres reside dans I'arrange­
:~t
I.
(
ment de la matiere et surtout dans sa presentation, qui emprunte beaucoup a la
Initiation aux probabilltes
Sheldon M. Ross
'.M geometric ordinaire et vise a developper chez Ie lecteur une comprehension intui­ (
~
,~,
tive. Un autre element distinctif est certainement la place accordee a la notion
~ ..
d'espace affine et a l'etude de la geornetrie affine a plusieurs dimensions. -C
l :t~
Dans l'elaboration de la matiere, l'auteur s'est prevalu de l'experience de r(
plusieurs annees d'enseignement a des sections d'ingenieurs de I'Ecole polytechni­
que federale de Lausanne. C'est a travers cette experience que l'exposition pure­
(
ment formelle concue initialement a cede la place a un discours plus parle et, (
oserait-on dire, plus humain.
(
Conscient du fait que les concepts abstraits ne deviennent clairs qu 'a travers
les exemples, l'auteur s'est constamment soucie de favoriser la comprehension par (
des motivations, des commentaires et des illustrations.
(
Outre creer les conditions propices a une meilleure assimilation des theore­
mes et des techniques de calcul de l'algebre lineaire, cet ouvrage veut inciter Ie (
lecteur a un travail de recherche personnel. Quelques-uns des nombreux exercices
(
places a la fin de chaque chapitre ont pour but d'encourager une telle activite,
Ce livre a ete ecrit a l'intention des etudiants du premier cycle d'etudes des (
eccles d'ingenieurs de niveau universitaire, mais il s'adresse egalement aux etu­
(
diants en rnathematique et en physique orientes vers les applications. 11 peut en
Si vous desirez etre tenu au courant
des publications de l'editeur de cet
outre venir en aide aux scientifiques a la recherche de methodes algebriques leur <:
ouvrage, envoyez vos nom, prenom et
permettant d'apporter des elements de reponse aux problernes qu'ils rencontrent,
adresse aux Presses polytechniques romandes (
(EPFL·Centre Midi, CH ·IOIS Lausanne, ainsi qu'aux maitres du degre secondaire desireux de savoir vers quels programmes
Suisse) qui vous enverront leur catalogue conduit leur enseignement. (
general.
( \

ISBN 2·88074-110-6
Composition et impression Schiiler SA, 2500 Bienne

(
e 1987, Presses polytcchniques romandes .

(
CH·IOIS Lausanne
Tous droits reserves
lmprime en Suisse (

l (
(,
.:

(
(

(
R._rdrmmts
(
(
Je remcrcie vivement Monsieur Jean-Claude Evard de l'interet constant qu'il
a apport': :i la realisation de cet ouvrage. Ses critiques et ses suggesti~ns m'ont

Conventions
( I
permis d'arneliorer la presentation de nombreux points delicats du texte.

Je remercie Monsieur Laurent Perruchoud d'avoir lu plusieurs parties du


. 1. Decoupage du texte
manuscrit et de m'avoir signale quelques imprecisions.
Je remercie egalement Monsieur Claude EI-Hayek d 'avoir controle la ver­ Ce livre est divise en deux tomes. Chaque tome se compose de cinq chapitres
sion definitive du manuscrit, Monsieur Klaus-Dieter Semmler d'avoir realise les numerotes respectivement de I a 5 et de 6 a 10. Le second tome contient en outre
figures representant les quadriques, Monsieur Jean-Francois Casteu d'avoir effec­ un appendice repere par la lettre A. Chaque chapitre est divise en sections et
tue les dessins et Madame Pascale Deppierraz pour la competence avec laquelle chaque section en paragraphes. Les sections sont reperees par une double numero­
e1le s'est occupee des problemes d'edition, tat ion et les paragraphes par une triple numerotation. Par,c;xeIPple. 7.2 renvoie a
la deuxieme section du septierne chapitre et 7.2.4 au quatrieme paragraphe de cette
section. La derniere section de chaque chapitre rassemble les exercices sur la
matiere traitee dans Ie chapitre. Ces exercices sont nurnerotes de la merne facon
que les paragraphes. Ainsi, 7.4.11 designe Ie onzierne exercice de la quatrierne
section du septieme chapitre, Les figures sont reperees par l'abreviation Fig. suivie
de deux nombres , Ie premier indiquant Ie chapitre et Ie deuxierne la figure. Par
-~

. ~; exemple, Fig. 7.3 designe la troisieme figure du septieme chapitre.

'~;~ 2. Conventions sur les nombres


\. .....,-~
...... ;.
. , ..l ' Les lett res R et a: designeront respectivement Ie corps des nombres reels et
'~~~'J

;:i Ie corps des nombres complexes. Tout au long des dix chapitres de ce livre. Ie terme
:~;,. «nombre» aura Ie sens de «nornbre reel», Dans l'appendice consacre a l'extension
de certains resultats aux nombres complexes. il sera precise dans quelles circons­
.;;.,;, tances Ie terme «nombre» prendra la signification de «nornbre complexe».
:~, Les nombres seront generalernent designes par des lettres grecques minuscu­
.:j' les telles que a. p, y, A. )1. v, ou par des lettres latines minuscules telles que a. b,
~;,§ c. d. Les nombres entiers seront appeles plus simplement entiers . Ils seront designes
" r~ par des lettres latines minuscules telles que n, k, i, j, I. m .
( ~~ Nous dirons qu 'un nombre est positif inegatifv s'il est superieur (inferieur)
.~
a zero. Nous dirons qu'il est non negatlf s'il est superieur ou egal a zero.
( ~1
.:0;1_,
0i.,.:
(
3. Avertissement concernant I'emploi des adjectifs numeraux
(
Tout au long de ce livre, par deux. trois n objets , nous entendrons (sauf
( mention explicite du contraire) deux. trois n objets distincts .
(
( I 4. Families d'elements d'un ensemble
( Dans ce livre. nous appelleronsfamillefinie d'elements d'un ensemble E tout
n-uplet (ordonne) d'elements de E. c'est-a-dire tout element du produit cartesien

~, ; II J
.
'; "
"
(

S
~ .;.;.

:~t .
~~'.' .: ~: Convent ions (
: ' :: ~;"; ." . 2
. .;:0:-. :'
(
:. ~

(x ••.to• ...• .t.) et dirons que x, est Ie i-ieme terme ou Ie terme d 'indice i. Nous dirons (
en ou-tre que I'ensernble {I . 2....• n} est Yensemble d 'indices. (

I
'i XI
On remarquera que notre definition n'exclut pas que Xi = xj pour des indices
i ei ] differents, ni rneme que X ; = x pour tout indice t. x designant un element de
E. On remarquera encore que (XI' .t 2' .. .. x.) = (x]. x;• .... x~ ) si et seulement si
= :cit .'(1 = x;. .... XII = x~ .
Table des matieres (
(

Nous appellerons les families a deux et a tro is termes respectivernent couples (


et triplets . TOME I (
Lesfamilles infinies (ou suites) sont definies similairement en prenant comme .1:,

ensemble d' indices I'ensemble des entiers positifs. Elles seront designees par Ie (
sy~bol.; .~'~j x 2• .. . ). Precisons toutefois qu 'elles apparaitront tres rarement dans
.:.1 1
._' Conventions (
ce livre: . ;f!.'
(

~
Ajoutons quelques lignes de commentaire ala notion de famille finie. Dans
Chapitre I Espaces vectoriels et espaces affines
l'etude de nombreuses questions. telles l'independance lineaire ou la generation de <.
sous-espaces ou l'orthogonalite, I'incorporation d'un ordre a la definition de 1.1 Un modele d'espace vectoriel . . . . . 7
"?£J 1.2 Definition de la notion d'espace vectoriel
(
famille finie est inutile. A ce type de questions . les families «non ordonnees», 10
c'est-a-dire les applications d'un ensemble fini I dans E (notees habituel1ement par
(X;);E/) conviennent parfaitement. Par contre, dans d'autres contextes, notamment
dans certaines relations avec les matrices (en raison de leur representation sous la
f
' . ~;~ .
."
1.3 Exemples d'espaces vectoriels . . . . .
1.4 Combinaisons lineaires , sous-espaces vectoriels,
families generatrices . . . . . . . .
12

15
('
-(

forme de tableaux) ou dans des questions concernant I'orientation, I'ordre de 1.5 Dependance et independance lineaires 19 l
disposition des termes de la famille joue un role importa nt. Dans ce livre, par souci
de simplicite, nous n'avons pas juge necessaire d'utiliser deux notions de famille
finie. Le lecteur interesse pourra facilement deceler de lui-rnerne les parties qui
·:t
·1:...018
1.6 Bases d'un espace vectoriel . . . . .
1.7 Dimension d'un espace vectoriel . . .
1.8 Retour aux sous-espaces vectoriels, semmes directes .
22
24
27 (
(

s'enoncent plus naturellement en termes de families finies «non ordonnees»,


· -.i
.;':
;~ 1.9 Espaces affines. . . . . . . . . . . . . . . . . . 31

'i<~
(
;,l-'
1.10 Sous-espaces affines, parallelisme . 34
:£1:' 1.11 Reperes, representation parametrique, geometric an aly- (
"r~ '
. ~ tiq ue affine 37 (
•.:$ I. 12 Exercices . . . . . . . . . . . . . . . . . . . 41
J~. (
' 1f,~
.~ Chapitre 2 Espaces vectoriels euclidiens et espaces affines euclidiens
(
'::~
1f 2.1 Produit scalaire dans l'espace vectoriel geornetrique 47
!-~ 2' (
.~
2.2 Espaces vectoriels euclidiens . 50
2.3 Orthogonalite . . . . . . . . . . . . . . . 53 (

2.4 Inegalites, angles . . . . . . . . . . . . . . 57 (

2.5 Espaces vectoriels euclidiens de dimen sion finie 59


2.6 Projection orthogonale er meilleure approximation . 61 (
2.7 Produit vectoriel et produit mixte 66 (
2.8 Espaces affines euclidiens 73
2.9 Exercices . . . . . . . 83 (

(
Chapitre 3 Systernes lineaires
(
3.1 Definitions et exemples . . . . . 89
3.2 Existence et unicite des solutions . 92
(
(
(
(
(
(
(
.. 4 Table des matieres

-- Table des matieres

3.3 Matri ces echelonnees . . . . . . . . . . . . . 94 7.2 Classifica tion des transformations o rthog onales

~
( 3.4 Met hode de reso lution de G au ss . . . . . . . . 100 a deux et a trois dimensio ns . 52

3.5 Structu re et dime nsion de I'ensemble des solutions 105 7.3 Isornetries, similitudes 60

(
3.6 Exercices · ... . . . . .. . ... . . .. 108 7.4 Exercices
65

l --,

(
(
.J Chapitre 4 Algebre ma tricielle

4. 1 Ope rations sur les matrices III


!
._:~'"X
j: "
Chapitre 8 Valeurs propres et vecteurs pro pres

8. 1 Exernples preliminaires . . . . . . . . . . . . 69

4.2 Ma trices inversibles . . . 119 8.2 Definitions et premieres consequences . . . . . 74

( 4.3 Matrices ca rrees particulieres 124 8.3 Formulati on matricielle, polynorne caracteristique 77

4.4 Retour aux o perations elementaires 126


a
8.4 Reduction la forme diagona le . . . . . . . . . . 82

4.5 Fo nctions matricielles 128 :,' 8.5 Reductio n des applications lineaires no'N"diigonalisables 87

( I 4.6 Matrices de tra nsition 130 "·1,;' 8.6 Transformations et matrices syrnetriques .. 93

( , 4.7 Exercices · . . . . . 133 ..-s. 8.7 Application am systernes differentiels .' . 98

: ;~~ . . . . . . . . 107

(. i

., Chapitre 5 Determinants
8.8 Exercices

Formes bilineaires symetriques


( Chapitre 9
5.1 Definition et proprietes des determinants . . : 137 ;~~

'I
( 5.2 Demo nstrations des proprietes des determinan ts 143 t 9. 1 Reductio n des formes bilineaires symetriques 113

:;:";

(
5.3 Developpements, fonnule de Cramer 146
150 ~· _. r
9.2 Formes bilineaires syrnetriques definies positives
9.3 Red uction simultanee . . .

118

123

.
5.4 Exernples et remarques diverses
( 5.5 Exercices · . . . . . .. . . . . 154 .~:;~ 9.4 Exercices
126

(
Chapitre 10 Qu ad riq ues
( 129

10. 1 Equation generale d'une quadrique . . . . . . .


( 10.2 Centrage . . . .. . .. . . .. . . . . .. 131

TOME 2
a
10.3 Reduction de l'eq uation d'une q uadrique centre 133

( 137

10.4 _Reduction de l'equation d'une quad riq ue sans centre .


( 10.5 Exernples de reduction . .. . 140

Conventions . . . . . . . . : . . . . . . . . . . . . . . . . . . I

10.6 Representations pararnetriques 142

(
~: 10.7 Exercices - - . . 145

C ha pitre 6 Applications lineaires et applications aflines


( -j
6.1 Generalites . . . . . 7
Appendice Extension aux scalaires complexes
(
6.2 Applications lineaires . 10

A.I Espaces vectoriels complexes .. .. . . 149

( 6.3 Noyaux et images . . 15

A.2 Systemes lineaires, matrices et de terminants 152

6.4 Operations sur les applications lineaires . 18

( A.3 Applications lineaires . . . . . . . 153

6.5 Representation matricielle d ' une application lineaire . 21

A.4 Valeurs propres et vecteurs propres 154

( 6.6 Changements de base . 27

A.5 Transformations nonn ales .. . . 158

( 6.7 Applications aflines 32

A.6 Formes sesquilineai res hennitiennes 161

6.8 Exercices · . .. . . 41

A.7 Exercices 165

(
( Chapitre 7 Tra nsfo rmations et mat rices o rthogona les, iso metrics.
similitudes
(
7.1 ' -T r.anefQmJa tion s .et.matrices orthogona les . . . . . . 47

(
,( )
·',
( i

I
( I

~:
., . .
;'~,
(
~\ ..­
CHAPITRE I (
(
j
;, Espaces vectoriels et espaces affines (
(
(
(
1.1 UN MODELE D'ESPACE VECTORIEL (
(
..... ,,"" .... 1.1.1 Introduction (
Des notions physiques telles que la force ou la vitesse sont caracterisees par (
une direction , un sens et une intensite. Ce triple caractere est rnis en evidence par
(
les fleches, Celles-ci sont a l'origine de la notion de vecteur et en constituent
I'exemple Ie plus suggestif. Bien que leur nature soit essentiellement geornetrique, (
c'est leur aptitude a se Iier les unes aux autres , done leur comportement algebrique,
(
qui retiendra principalement notre attention. Partage en classes d'equivalence et
muni de deux operations appelees addition et multiplication par un scalaire, ,(
I'ensemble qu'elles forment represente Ie modele c1assique d'un espace vectoriel.
(
Un de nos premiers objectifs est la description detaillee de ce modele.
(
(
1.1.2 Notion de Oeche
(
Nous designerons par '/:' l'espace ordinaire de la geometric elementaire et
par P, Q, ... ses points. Nous appelleronsjleche tout segment de droite oriente. La (
fleche d'origine P et d'extremite Q sera notee PQ (fig. 1.1). II est evident que toute
(
fleche est caracterisee par sa direction , son sens, son intensite ou grandeur et son
origine. (

~Q
(
(
P . Fig. 1.1 (
I ·
(
1.1.3 Ensemble des vecteurs
I
I Nous dirons que deux flechessont equivalentes si elles ont la merne direc­
(

I tion,le meme sens et la merne intensite . Partageons l'ensemble des flechesen classes
( I

I d'equivalence: deux fieches appartiennent a une meme c1asse si et seulement si elles ( ,


sont equivalentes. Nous dirons que chacune de ces classes est un vecteur. Ran­ ( I
geons, en outre, les fleches degenerees (c'est-a-dire de la forme PP) en une c1asse
distinguee que nous appellerons vecteurnul et noterons O. L'ensernble des vecteurs (
(
(
(
(
Espaces vectoriels et espaces affines Un modele d'espace veetoriel 9
(
(
ainsi definis sera designe par V. II faut souligner que les elements de V sont des

~
(
classes de fleches et non pas des fleches individuelIes. II est cependant clair qu'une
( fleche quelconque suffit a determiner la c1asse a laquelIe elIe appartient et iI est

( done naturel de I'appeler representant de la c1asse ou du vecteur.

Dans ce livre, les vecteurs seront designes par des lett res latines minuscules
( imprimees en caractere gras ou par des couples de lettres latines majuscules
( surmontees d'une fleche (par exemple, PQ designe Ie vecteur determine par la Fig. 1.3
fieche PQ). Dans les figures. les fleches seront toutefois designees par Ie symbole
( du vecteur qu'elles representent, 1.1.5 Soustraction de vecteurs
( j . L'operation inverse de I'addition vectorielle est la soustraction vectorielle.
( I · ':'
Soustraire un vecteur revient a additionner Ie vecteur oppose (fig. 1.4):
1.1.4 Addition de vecteurs
( Tracons Ie representant d'un vecteur ya partir de l'extremite d'un represen­ x - y = x + (-y~.
( tant d'un vecteur x. La fleche dont I'origine est celie du representant de x et
l'extremite celIe du representant de y determine un vecteur que nous noterons
(
x + y et appelerons somme de x et y. L'operation qui assode a tout couple de
( vecteurs leur somme s'appelle addition vectorielle (fig. 1.2).- .

x+y
Fig. 1.4

(
~
::---z---­ y

A I'aide d'une figure, il est facile de montrer que l'operation d'addition


1.1.6 Remarque
L'addition s'etend, par recurrence, au cas d'une famille finie quelconque de
vecteurs (XI' X2..... Xk):
vectorielle est associative et commutative, autrement dit, que
( «XI + x:J + Xl) + ....

(x + y) + z = x + (y + z)
En vertu de l'associativite, ces additions successives peuvent etre effectuees dans
(
et n'importe quel ordre, ce qui justifie l'ecriture sans parentheses
(

(
x + Y= Y + x. XI + x2 + ... + Xk'

II est en outre evident que Ie vecteur nul 0 est l'element neutre de I'addition
vectorielIe, autrement dit , que
1.1.7 Multiplication par un scalaire

x + 0 = 0 +x = x,

Dans ce livre «scalaire» sera synonyme de «nombre», Rappelons en outre


( que. sauf indication contraire, «nombre» signifie «nombre reel», Le vecteur ex,
et que
( , appele produit du nombre 0: par x, est defini de la maniere suivante : prenons une
x + (-x) = 0,
fleche representative de x et construisons une fleche de meme direction. de meme
( \
OU - x designe Ie vecteur oppose de x, c'est-a-dire Ie vecteur dont les representants sens ou de sens oppose. suivant que 0: est positif ou negatif, et d'intensite 10:1 fois
( ) , ont la meme direction et la rneme intensite que ceux de x, mais Ie sens oppose l'intensite de la fleche initiale; la fieche ainsi obtenue est un representant du vecteur

(fig. 1.3). ex; si 0: = 0 ou x = 0, no us po sons o:x = O. L'operation qui consiste a effectuer

(
<.'<, ~
12 Espaces vectoriels et espaces aflines Excmplcs d'espaees vectoriels

(7) (-a)x = -(ax), donc en particulier (-I)x = -x. En effet, l'oppose P+Q -l' dans ~O'
d'un vecteur etant unique d'apres (3), il suffit de montrer que ax + (-a)x = O. Q
--F:::-
----I
,
Or, par la condition (I), ax + (-a)x = (a - a)x = Ox et, par (5), Ox = O. ",;"/ I ................. I

"1 ...... I
__, , / II I <, ....
....,.
,., I ...............

00(... ! I /;tJ P +Q dans ~


<, I I '"
........... J...
I""."
I..................
/ /",/
I 1.3 EXEMPLES D'ESPACES VECTORIELS I
, <,,j,-"

Ii: 0'
t----­ P

l.L': 1.3.1 ~es vectoriels geometriques Fig. 1,8


.. :-
L'espace vectoriel geornetrique V etudie dans la section 1.1 est un premier
exemple d'espace vectoriel selon la definition 1.2.2. Un deuxieme exemple est Ie 1.3.3 Espaces IRn

,nIi plan vectorie1 geometrique, c'est-a-dire I'ensemble des classes de fleches equivalen­
tes du plan usuel de la geometrie elementaire, muni des deux operations introduites
Pour tout en tier positif n, lRn designera i'ensemble des n-uplets de nombres
(
., 1i. disposes en colonne:
dans 1.1.4 et 1.1.7. Nous Ie designerons egalement par V, mais s'il faut Ie distinguer a. -(
du premier, nous utiliserons les symboles V 3 pour I'espace et V2' pour Ie plan. a2
.\

~~
(
1,3.2 Vectoriallse de ~1 .
(
Soit 0 un point arbitrairement choisi et fixe de I'espace ponctuel ~ introduit an
(
dans 1.1.2. Definissons l'operation d'addition des points Pet Q de "§' par la regle Munissons R n des operations d'addition et de multiplication par un scalaire
du parallelograrnme: P + Q est Ie sommet oppose a 0 du parallelogramme definies au moyen des fonnules suivantes : (
construit sur 0, P, Q (fig. 1.6). Cette operation peut egalernent etre definie a I'aide
des fleches : P + Q est l'extremite de la fteche d'origine P equivalente a la fleche a. bl al + b, a. aa. (
OQ . Definissons similairement la multiplication de P par un nombre a (fig, 1.7). a2 b2 a2 + b2 a2 aa2
(
Muni de ces deux operations, ~ ' devien t un espace vectoriel appele vectorialise a (1.1)
+
de :/} relativement aO. Nous designerons cet espace par ~~ et appellerons Ie point
o origine. En identifiant chaque point P ala fleche OP, no us pouvons considerer (
~~o comme etant forme des fleches d'origine commune O. an) LbnJ lan+bnJ Lan) Laan
(
Ces deux operations satisfont, de toute evidence, aux conditions (aHh) de la
Q definition 1.2.2 et conferent done a
R n une structure d'espace vectoriel. Les (

.... ....
......A.._
­-­ --­ vecteurs de cet espace seront appeles vecteurs-colonnes. lis seront souvent designes (

O~_
/,"/
"./

---­ -~P+Q --~P


plus brievernent par (ai) . ..i.. n ou simplement par (a;). Le nombre a, sera appele
terme d'indice i de (a;). (
-..._-- .> .... -­ " n

-......
-- ----0""",,,, ....
,.""
....
/
P
-- --
"
On remarquera que Ie vecteur nul de lR est Ie n-uplet

o
o
(
(
\ P
-- -- (
Fig, 1.6 o<1'/ Fig. 1.7
(
\ ' On remarquera que si 0' est une deuxieme origine, ~O' et % sont egaux (
o
I \
en tant qu'ensernbles, mais differents en tant qu'espaces vectoriels (fig. 1.8).
(

14 Espaces vectoriels et espaces affines Combinaisons lineaires, sous-espaces vectoriels, families generatrices IS

et que 1.4 COMBINAISONS LINEAIRES, SOUS-ESPACES


-a, al VECTORIELS, FAM ILLES GENERATRICES
-a2 a2
est l'oppose de
1.4.1 Avertissement
Dorenavant, sauf mention explicite du contraire, les vecteurs seront les
-an an elements d'un espace vectoriel donne E.
JR I sera identifie a JR.
1.4.2 Combinaisons Dneaires ~.~
1.3.4 Un espace vectoriel fonctionnel
On appelle combinaison lineaire des vecteurs XI' x 2...., Xk tout vecteur de la
Soit Cia.b)l'ensemble des fonctions reelles continues definies dans l'intervalle forme (XIXI + a2x2 + ..: + a kxk' ou a., a 2... .. at sont des nombres appeles
ferme [a. b]. Nous designerons les elements de cet ensemble par les lettres I, g•... . coefficients de la combinaison lineaire.
La valeur de f au point t sera notee f(t). Dire que f = g equivaudra done dire a
que f(t) = g(t) pour tout t de l'intervalle [a. b]. De maniere abregee, nous ecrirons
f(t) == g(t). Ie signe == indiquant ainsi que les deux membres sont egaux pour tout 1.4.3 Exemples
t de l'intervalle [a. b]. Considerons les deux operations suivantes:
(I) Le vecteur nul est combinaison lineaire de XI ' x2.... . xk • Pour voir cela,
• f + g. definie par la formule (f + g)(t) == f(t) + g(t).
• exf. definie par la formule (cd)(t) == af(t). il suffit de prendre a l = a2 = ... = at = O. Dans ce cas. la combinaison lineaire
Ces deux operations satisfont aux conditions (a}-(h) de la definition 1.2.2 et est appelee combinaison lineaire triviale.
(2) Les combinaisons lineaires d'un vecteur X sont appelees multiples de X.
munissent CIa. b) d'une structure d'espace vectoriel. Le vecteur nul de cet espace est
la fonction nulle et l'oppose de fest la fonction -f definie par (-I)(e) == -f(t). Un multiple de X est done un vecteur de la forme ax. On notera que Ie vecteur nul
II est interessant de constater que C1a•bj • en tant qu'espace vectoriel, est une est multiple de tout vecteur.
generalisation naturelle de JRn au cas continuo On peut en effet concevoir tout (3) Combinaisons con vexes. On appelle combinaison convexe toute combi­
vecteur (a) de JRn sous la forme d'une fonction reelle definie dans l'ensemble naison lineaire dont les coefficients sont non negatifs et de somme egale Ii 1.
L'ensemble des combinaisons convexes de deux points Pet Q de ~ est le segment
{ I. 2..... /I}: la valeur de cette fonction au point i est tout simplement ai .
de droite joignant Pet Q. Pour s'en rendre compte, il suffit d'ecrire

aP + (I - a)Q = Q + a(P - Q),


1.3.5 Autres espaces vectoriels fonctionnels
de fairevarier a de 0 a 1 et de constater que to us les po ints du segment sont ainsi
Voici quelques autres exemples d'espaces vectoriels fonctionnels. Les opera­ obtenus (fig. 1.9).
tions d 'addition et de multiplication par un scalaire sont definies comme dans
1.3.4.
Q
(I) L'espace vectoriel c7a.b) forme des fonct ions reelles k fois contintiment
derivables, defin ies dans I'intervalle ouvert (a. b).
(2) L'espace vectoriel des fonctions reelles definies dans un intervalle.
,," "
",'"
,,"
oar;:---.:.:.::--------;;
""~ Q + a(P - Q)
a
(3) L'espace vectoriel des polynomes une indeterminee.
.' , " ------",,,/
a
(4) L'espace vectorieI des polynomes une indeterminee de degre inferieur
-, ",,,,,,, ., --­ ----'"
ou egal an.
a(P - Q)'< /'" p'
-, ,,//<""

" y" ".

P- Q
Fig. 1.'1
(
(
16 Espaces vectoriels et espaees affines Combinaisons lineaires. sous-espaces vectoriels , families generalriccs 17 (
(
Nous laissons au lecteur Ie soin de verifier que I'ensemble des combinaisons 1.4.6 Proposition. Caracterisation des sous-espaces vcctoriels (
con vexes de trois points est Ie triangle. eventuellement degenere, dont les sommets
Un sous-ensemble S de E est un sous-espace vectoriel de E si et seulementsi (
sont ces trois points.
S est non vide et ax + fJy appartient Ii S pour tout couple (x, y) de vecteurs de S
D'une maniere generate, on peut montrer que I'ensemble des combinaisons (
et tout couple (a. fJ) de nombres.
con vexes de k > 3 points est Ie plus petit polyedre convexe (polygone convexe si
:(10 designe Ie plan), eventuellement degenere, comprenant ces points. La proposition suivante en decoule aisernent : (
(4) On dit que Ie vecteur-colonne (x?)de R 3 est solution du systerne d'equa­ (
tions linea ires
1.4.7 Proposition (
3xI - 2x z + 4x3 = 0
(1.2) Soit (XI' XZ, •••, Xt) une famille de vecteurs. L 'ensemble des eombinaisons
-.r.l.t Xz - 5x3 = 0
lineaires de xI' x 2, ..., Xt est un sous-espaee vectoriel S de E, plus precisement Ieplus
(

(
si ses termes .~t X~. ~, substitues aux inconnues XI' Xz, X3' verifient les deux petit sous-espace vectoriel de E (au sens de l'inclusion } eomprenant XI' Xz, ..., Xt·
equations. (
Toute combinaison lineaire al(x]) + az(x;) de solutions (x]) et (X;) du
systeme (1.2) est encore une solution de ce systeme, 1.4.8 Geoerateurs, famiUes genera trices
(5) Soit f l et f z les deux fonctions definies par (
Les vecteurs XI' xz. .... Xt de la proposition 1.4.7 sont appeles generateurs
fl(l) ;: cost et fz(t) ;: sint. (1.3) de S et la famille (XI ' Xz•...• Xt) famille generatrice de S. On dit aussi que ces (
vecteurs ou cette famille engendrent S.
Toute combinaison lineaire de f l et f z est solution de l'equation different ielle ,(

t+f = 0, (
, 1.4.9 Somme et intersection de sous-espaces vcctoriels
ou 'r designe la deuxieme derivee de f. (
Soit S et T des sous-espaces vectoriels de E. On appelle somme de S et T,
(
et on note S + T, I'ensemble des vecteurs de la forme s + r, ou s et un vecteur

I 1.4.4 Combinaisons Iineaires iterees


de Set tun vecteur de T. A I'aide de la proposition 1.4.7. Ie lecteur constatera (
facilemeot que la somme S + T et I'intersection S n T sont des sous-espaces
I Si Ie vecteur x est combinaison lineaire des vecteurs XI ' Xz, ..., Xt et chacun vectoriels de E. Au contraire, la reunion S U T n'est pas un sous-espace vectoriel (
I
I ,de ces vecteurs est combinaison lineaire des vecteurs YI' Yz, ...• YI' alors X est a
de E, moins que S ne soit contenu dans T, ou reciproquement, En fait, Ie plus (
petit sous-espace vectoriel de E con tenant S U Test la somme S + T (cr. exercice
I combinaison lineaire de YI ' Yz...., YI '
1.12.14). (
Les resultats de ce paragraphe s'etendent, de maniere evidente, au cas (
d'une famille quelconque (SI' S2' ..., St) de sous-espaces vectoriels de E: la
somme SI + Sz + '" + St, c'est-a-dire I'ensemble des vecteurs de la forme
(
1.4.5 Sous-espaces veetoriels Sl + Sz + + St, ou Sj est un vecteur de S, pour i = 1,2, ...• k, et I'intersection (
On appelle sous-espace vectoriel de E tout so us-ensemble de E qui est SI n Sz n n St sont des sous-espaces vectoriels de E.
(
lui-meme un espace vectoriel pour les operations d' addition et de multiplication
par un scalaire definies dans E. (
1.4.10 Exemples
Un sous-espace vectoriel, en tant qu 'espace vectoriel, ne peut etre vide. ( ,
puisqu'il comprend au moins un vecteur, a savoir son vecteur nul-.celui-ci etant (I) {o} et E sont des sous-espaces vectoriels de E.
d'ailleurs forcement Ie vecteur nul de E. en vertu de la regie (5) de 1.2.3. En .l2Utre ~ _ (2) Le sous-espace vectoriel engendre par un vecteur non nul est forme de ( \

en rneme temps que les vecteurs X et Y, il comprend toutes leurs combinaisons tous les multiples de ce vecteur. On appelle un tel sous-espace droite veetorielle. (
lineaires ax + Py. Inversement, on voit aussitot que tout sous-ensemble jouissant

t
Un sous-espace vectoriel engendre par deux vecteurs non multiples l'un de I'autre
de ces proprietes est un sous -espace vectoriel. Nous avons ainsi etabli la proposi­ est appele plan vectoriel. Dans :¢o
une droite et un plan vectoriels sont effective­ (
tion suivante: ment une droite et un plan passant par l'origine O. (
(
( ) ~ .• . ~--<.. ~_ .~ - - ~ ....., . . ..

( ) 18
Espaccs vectoriels et espaees affines
Dependance et independance lineaires 19
(

( 4
(3) 1R est engendre par les vecteurs-eolonnes
(7) Si X n'est pas multiple de y, S = {z: z = x + ccy, cc e 1R} n'est pas un
( ~
;1, sous-espace vectoriel de E, ne serait-ee que par Ie fait que 0 n'est pas element de
S. En particulier, une droite ne passant pas par l'origine n'est pas un sous-espace

En effet,
w·w·[f]·m vectoriel de ~. (Pour plus de details, voir les sections 1.8 et 1.9.)

[m ~', w+ W+', [f] +', m


1.5 DEPENDANCE ET INDEPENDANCE LINEAIRES
..

,.
.! ~ . :
:
a (1.4)
"
! 1.5.1 Caracterisation de I'absence de paraUelisme Ii un meme plan
J
:1 (4) Les fonctions (, et (2 definies dans (1.3) engendrent Ie sous-espace Si e" e2, e3 sont trois vecteurs de V3 dont les representants ne sont pas
!i
;~
vectoriel de era.
b) forme des solutions de I'equation dilferentielle + ( = O. Ce
r paralleles Ii un meme plan (par convention, une fleche d'intensite nulle est parallele
Ii tout plan), alors tout vecteur x de V3 s'ecrit de maniere unique sous la forme
i~
resultat d'analyse est enonce sans demonstration.

I II (5) Etant donne cinq nombres 10, ... , 14 arbitrairement choisis, definissons

les cinq polynomes du quatrieme degre Po> ..., P4 par la formule

OU
x = ccle,
CCI' (X2' CC 3
+ CC2e2 + cc3e3'
sont des nombres (fig. 1.10).
(t - (0 ) ... (t .:. IJ ... (I - (4 )

p,{/) == • ) ( \'
(1.5)
(I; - (0) .. . (I; - I; .. . I; - 14J

ou l'accent circonflexe indique I'absence des facteurs d'indice i. II est evident que
a 3e3
P,{IJ = I et p,{/) = 0 si i # j.
(1.6)
Nous allons etablir que ces cinq polynornes engendrent I'espace vectoriel de tous
( les polynomes de degre inferieur ou egal Ii 4, en demontrant que si P est un tel
polynone, alors "' j
( ;

P(/) == p(la> Po(t) + '" + p(/4 ) plt) iformule de Lagrange). (I. 7)


ill
A cet effet, designons par p Ie polynome defini par Ie second membre de (I. 7).
aiel
D'apres (1.6),

~
( I

p(to) = p(to) ' I + 0 + 0 + 0 +0 = p(to)

p(t 4) = 0 + 0 + 0 +0+ p(tJ' I = P(l4)'


(
ce qui montre que p et p prennent les memes valeurs en t = to> ..., I = t , done
i
( 4
que Ie polynome p - p a au moins cinq zeros. Puisqu'il est de degre inferieur ou
I
egal Ii 4, nous en concluons qu'il est nul, done que p = p. La formule (1.7) est ainsi

f
( ; Fig. 1.10
dernontree.
'( (6) L'ensemble des polynomes de degre inferieur ou egal Ii n est un so us­
En particulier, la seule possibilite d'obtenir Ie vecteur nul comme combinai­
( ) espace vectoriel de l'espace de tous les potynemes. II est engendre par les monomes j
,--t son lineaire de e., e2' e3 est d'attribuer la valeur 0 Ii CCI' cc2, cc3•
( , Po: Po(/) == I , PI: PI(/) == I, ... , P. : pit) == 1'.
(un
j
1
Reciproquernent, si pour trois vecteurs e., e2' e3 de V3 la relation cclel +
a .e. + a,e, = 0 implioue a , = a~ = cc) = O. aucun de ces vecteurs ne peut etre
<
,

(
21
20 Espaces vcetoriels et espaces affines
DCpendance et indCpendance Iineaires (
(
(6) Si les vecteurs x •• X2' ... , Xk sont Iineairement independants, les vecteurs (
combinaison lineaire des deux autres, autrement dit, leurs representants ne sont
a
pas paralleles un meme plan. Xi.' X ...., Xi/ (I ~ i l < i2 < ... < i/ ~ k) I~ egalement. En d'autres termes,
i2 (
,. Sur la base de ces observations, nous allons etendre la notion d'absence de toute sous-famille d'une famille libre est elle-meme libre.
"
;1 a
parallelisme un meme plan au cas d'un nombre quelconque de vecteurs d'un (
La proposition suivante generalise l'exemple (2):
espace vectoriel E. (
1.5.5 Proposition. Caracterisation de la dependance lineaire (
1.5,2 Independance et dependance lineaires, famiUes libres et liees Pour qu'une famil/e de vecteurs (XI' x2' ..., Xk) (k > I) soit liee, il faut et il (
suffit qu'un vecteur Xi soit combina ison lineaire des vecleurs x j avec j ¢ i.
On dit que les vecteurs XI. x 2' ..., x t sont lineairement independants si la
relation a.x. + a 2x2 + ... + atxk = 0 implique a l = a2 = ... = a k = 0, autrement
DEMONSTRAnON
dit, si la combinaison lineaire triviale est la seule combinaison lineaire de XI' x 2•
l~·' Si la famille (Xl' X2' ..., Xk) est liee, il existe des nombres non tous nuls a.,
II .... xk qui soit nulle. Dans Ie cas contraire, on dit que les vecteurs XI' x 2...., xk sont (
I'
lineairement dependants. a ... , at tels que alx. + Cx 2X2 + ... + <XkXk = O. En supposant <Xi non nul et en

Ii
2, (

Si I'attention est fixee sur la famille (XI' x 2' .... Xk) plutot que sur les termes a
cesolvant par rapport XI' nous obtenons

dont elle est constituee, on dit que celle-ci est libre ou liee suivant que les vecteurs (
x., x 2' .... Xk sont lineairernent independants ou dependants. XI = .!..(-alx. - ... a).j - ... - akXk)'
aj
~ j
ou l'accent circonflexe indique l'absence du terme d'indice i. Cela montre que x
.(
est combinaison lineaire des xj avec j ¢ i.
1.5.3 Formulation de la dependance lineaire (
Inversement. si x j = <X,x, + .., + <X7xj + ... + akxk' alors <X.x, + ... +
Selon la definition 1.5.2. les vecteurs x,. x 2' , x k sont lineairernent depen­ (-l)x + ... + <XkXk = 0, ce qui montre que la famille (x. ! X2' ... , Xk) est liee, car (
j
dants s'il existe des nombres non tous nuls ai' a 2, , ak tels que alx l + a2x2 + au moins un coefficient de la combinaison lineaire est non nul.
(
... + akxk = O.
(
1.5.6 Proposition. Critere d'independance lineaire
(
1.5.4 Exemples Pour qu'une famil/e de vecteurs (XI' X2' .... Xk) Soil fibre, il [aut et il suffi:
qu'aucun vecteur X ne puisse s'ecrire de t!eux manieres sous laforme d'une combinai- (
Voici quelques cas ou la definition 1.5.2 s'applique directement.
a
(I) Une famille reduite un seul terme X est libre ou liee suivant que X est son lineaire des vecteurs XI' X2' .... Xk " (
non nul ou nul. (
DEMONSTRAnON
(2) Pour qu'un couple (x, y) soit lie, il faut et il suffit que I'un des vecteurs
Supposons que la famille (x. , X2' ..., Xk) soit libre. S'il existait un vecteur X (
X ou y soit multiple de l'autre. On remarquera que Ie couple (x, 0) est lie, mais que
x n'est pas multiple de 0 si x ¢ O. tel que
(
(3) Si un des vecteurs XI ' x 2. .... Xk est nul , ~s vecteurs sont lineairement X = <X,x, + a2x2 + ... + akxk = a;x. + <X;X2 + ... + <XiXk'
dependants. car, en supposant Xi = 0, nous voyons que 1a combinaison lineaire (
avec a j ,p <X; pour au moins un indice i, la combinaison lineaire
OX I + ... + l~ i~ + ... + OXk est nulle _sans etre triviale.
I (4) Si ~ .,;" ifPour un couple d'indices i etj differents, alors les vecteurs Xl' (a; - c:;)x. + (a2 - (2)x 2 + ... + (ak - <Xi)Xt
(
(
I X2' .... Xk sont lineairement dependants, car. etant admis par exemple que i < j,
serait nul1e sans etre triviale, ce qui contredirait l'hypothese.
la combinaison lineaire OX I + ... + ~+ ... + (-I)xj + ... + OXk est nullesa!l~._ (
Reciproqu<:ment, supposons qu'aucun vecteur X ne puisse etre ecrit de deux
~ tre triviale. Cet exemple et Ie precedent se generaifsent de la facon suivante:
manieres so us la forme d'une combinaison lineaire des vecteurs XI' x 2' ''' Xk ' Alors, (
(5) Si les vecteurs XI ' x 2. ..., xk sont lineairernent dependants. alors les
en particulier, Ie vecteur nul ne pou~ l'etre, autrement.dit, la combinaison lineaire
vecteurs XI' .... Xk' xt + l, .... x/Ie sont aussi, quels que soient x k+....., x/ (I> k) . (
En d'autres termes, toute famille finie de vecteurs admettant une sous-famille liee triviale est la seule combinaison lineaire des vecteurs XI' X2' ... , Xk qui s'annule,
est elle-meme liee. done la famille (x.' X2' ..., Xk) est libre. ,. (
(
(
( )

22 Espaces veetoriels et espaees affines


{
Bases d'un espace vectoriel 23
( I
,
( I ! 1.6 BASES D'UN ESPACE VECTORIEL I.6.S Proposition
( 'l l:/,
I, : Si XI' X2' Xn sont les composantes de x et Y r- Y 2• .. .. Yn celles de y, a/ors
( I , :!
,I I; 'j
1.6. I Introduction XI + YI' X 2 + Y2' , Xn + Yn sont les composantes de x + yet lX..l'., lX..l'2' .. . . aXn
( I I ' celles de ax.
Les families generatrices Iibres jouent un role important en algebre lineaire,
Elles seront etudiees dans la presente section et la suivante. En d'autres termes, additionner deux vecteurs revient a additionner leurs
( cornposantes et multiplier un vecteur par a revient a multiplier ses composantes
Comme precedemment. E designera un espace vectoriel.

"I, J.; 1.6.2 Bases d'un espace vectoriel


par a. La base est done un outil de calcul important. car elle permet d'effectuer
les operations sur les vecteurs au moyen d'operations sur les nombres.

~ I 1.6.6 Notation
On dit qu'une famille finie de vecteurs est une base de E si elle est Iibre et
engendre E.
De toute evidence. les composantes d'un vecteur dependent du choix de la
D'apres cette definition. toute famille libre (x•• x 2•••• , xt ) est une base du base, mais une fois que ce choix est fait, it n'y aura aucun danger d'ambiguite
sous-espace vectoriel qu'elIe engendre.
lorsqu'on ecrira x(x i • x 2• .. .. xJ pour exprimer que XI' x 2• .. .. x n sont les composan­
tes de x, (Une ecriture rnieux appropriee au cas ou des changements de base
interviennent sera introduite dans 6.5.6.)
1.6.3 Proposition

Pour qu 'une famille de vecteurs (e., e2... .. en) soit une base de E, il [aut et i/ 1.6.7 Exemples
suffit que tout vecteur x de E s'exprime de maniere unique sous la forme d'une
combinaison lineaire des vecteurs e l , e2, . ... en: (1) La donnee d'une base d~ns ~ equivaut a celie d'un systerne d'axes de
reference d'origine 0 dans :?: Les composantes d'un point de ~ sent, dans ce
x = xle. + x 2e 2 + ... + xnen. (1.9) cas. les coordonnees de ce point par rapport au systerne d'axes.
L'expression (1.9) est appelee decomposition de x suivant la base (e e2..... en)' (2) Deux (trois) vecteurs lineairement independants de V 2 (V3) forment une
l• base.
DEMONSTRATION (3) Les vecteurs-colonnes de IRn

Par definition d'une base. les vecteurs el' e2' .... en engendrent E. done tout I o o c»
vecteur x s'ecrit sous 1a forme (1.9). O'autre part. puisque el' e . ..., en sont o I o
2 .~
lineairernent independants, la decomposition (1.9) est unique, d'apres la proposi­ .', (1.10)
tion 1.5.6. i:
h ,

Reciproquement, si tout vecteur x s'ecrit de maniere unique sous la forme


( (1.9). les vecteurs el' e2, ..., en engendrent E et , en outre, ils sont Iineairernent .j oI 10
( independants, encore d'apres la proposition 1.5.6. done (e i- e2' ..., en) est une base forment une base que l'on appelle base canonique de IRn• Les composantes du
de E. .~ ,
vecteur-colonne (a j ) dans cette base sont c •• a2, .... an'
( .'
j' (4) Les polynornes Po• ...• P4 definis dans (1.5) forment une base de I'espace
( vectoriel des polynornes de degre inferieur ou egal Ii 4. En effet, ils engendrent cet
1.6.4 Composantes d'un veeteur espace et, de plus. ys sont lineairernent independants, car la relation CXoPo + ... +
(
a 4 P4 = 0 implique aopo(t;) + ... + a 4P4(t;) = 0 et done. par (1..6). a j = 0 pour
( Les coefficients XI' x 2, .. .. x n de la decomposition d'un vecteur x suivant une
i = O.... ,4. D'apres (I }), les composantes dans cette base d'un polynome P de
base sont appeles composantes de x dans cette base.
degre inferieur ou egal a 4 sont p(to)..... p(t4 ) ,
( En presence d'une base. tout vecteur est done entierement determine par ses
composantes. (5) Les monornes Po• ..., Pn definis dans (1.8) forment une base de I'espace
( vectoriel des polynornes de degre inferieur ou egal a n. En effet, ils engendrent cet
~

(
Dimension d'un espaee vectoriel
25 (
24 Espaces vectorielset espaces affines
(
I
1.7.4 Corollaire. Existence et extraction d'une base
(
r. espace et, en outre. ils sont lineairernent independants, car la relation CXoPo + ...
+ a.p. = 0 s'ecrit aussi sous la forme a o + a.t + ... + a.t' == 0 et implique done Tout espace veetoriel de dimensionfinie et non reduit au vecteur nul admet une (
a o = a l = ... = a. = 0 (cf. exercice 1.12.5). Les composantes d'un polynome de

~
base. En fait, de toute famille generatrice d 'un tel espaee on peut extraire une base. (
a
degre inferieur ou egal n dans cette base sont les coefficients de ce polynome,

:'1
DEMONSTRAnON
(
·Soit (V•• V . ... . Vm) une famille generatrice de E. Si E n'est pas reduit a {o}. (
2
au moins un vecteur Vi n'est pas nul. Designons ce vecteur par x. Le corollaire
(
resulte alors du theoreme 1.7.3 applique aux families (x) et (VI' vl ..... v".).
1.7 DIMENSION D'UN ESPACE VECTORIEL (
(
:: i.
:lt l
1.7.1 Introduction 1.7.S Theoreme
(
\ ., . Si (el' el' .... e.) est une base de E. toute famille de vecteurs (XI ' Xl' .... Xk) done
i ~. i Au long de ce livre. no us nous occuperons principalement d'espaces vecto­ (
1\'
! t. :
Ie nombre de termes k est superieur anest liee.
q: j riels admettant une base . Un des objectifs de cette section est de caracteriser ces
espaces. (
DEMONSTRAnON
Dans cette section. E designera encore un espace vectoriel.
Nous raisonnons par I'absurde en supposant que la famille (XI' Xl' .... Xk)
soit libre. Considerons la decomposition de Xl suivant la base (e., el' .... e.): .(
1.7.2 Dimension linie et infinie (
X. = aiel + alel + ... + a.e•.
On dit que E est de dimensionfinie s'il est engendre par une famille finie de Comme x. n'est pas nul . au moins un des coefficients al' 0:2' .. .. a. n'est pas nul. (
\1f vecteurs. Dans Ie cas contraire , on dit que E est de dimension infinie. Quitte aenumerer autrement les termes de la base. nous pouvons admettre que (
I ce coefficient est a l. Dans ce cas.
t
r 1.7.3 Theoreme. Prolongement d'une Camille Iibre I a2 a.
i e l = -XI - -el - ... - -e.
I Soit (x •• x 2 Xk) une famille libre et (VI' vl . .. .. v,J une famille genhatriee
al al . al

1. de E. Si (x t- Xl' Xk) n'est pas une base de E, on prot extraire une sous-famille (Vii '
et done (XI' e • .. . . e.) est une famille generatrice de E. puisque Ie sous-espace
l
Vil ..... Vi) de (v•• V2..... v,J de telle maniere que la famille (XI' .... Xk. ViI' .... Vi) soit
vectoriel qu'elle engendre comprend les vecteurs e l • e l • . .. . e• . Exprimons alors Xl (
~
~ ..
une base de E. sous la forme d'une combinaison lineaire de XI' el • .. .. e.:
·,t
DEMONSTRAnON .:t:. Xl = P.x l + Plez + ... + p.e•. (
' .~
Les coefficients Pl' ....P. ne sont pas tous
nuls , sinon XI et Xl seraient [ineairernent
Au moins un des vecteurs Vi n'est pas combinaison lineaire des vecteurs XI' (
dependants. Sans restreindre la generalite, nous pouvons admettre que Pl n'est pas
Xl' .... Xk ' sinon (XI' Xl' .... Xk) engendrerait E. en raison de 1.4.4. et serait donc ~~
.,. nul . ce qui nous permet d'ecrire (
une base de E. Notons ce vecteur vir La famille (XI' .... Xk' Vi.) est alors libre . En
effet.Ia relation alx l + ... + akx k + PIVil = 0 implique d'abord PI = O. autrement PI I P3 P. (
e, = --XI + -x, - -e3 - ... - -e.
Vi. serait combinaison lineaire des vecteurs XI' Xl' .... Xk • et ensuite a l = a 2 = ... o Pl Pl' Pl P2 (
.~~.
= ak = O. puisque les vecteurs X•• Xl' .... Xk sont lineairement independants, Si
et done de conclure que (XI' Xl' e3' .... e.) est une famille generatrice de E. puisque (
. la famille (XI' .... Xk' Vi.) engendre E. elle est une base de E et Ie theorerne est alors
demontre, Dans Ie cas contraire, Ie meme raisonnement nous assure de l'existence

Ie sous-espace vectoriel qu'elle engendre comprend les vecteurs XI' el' .... e•. La
suite de la demonstration poursuit ce precede d'echange: el' .... e. sont remplaces (
d'un vecteur Vil tel que (XI' .... Xk' Vii ' Vil ) est une famille libre. Si cette famille

successivement par Xl' .... X• . Le resultat montre que la famille (XI' Xl' .... xJ (
n'engendre pas E. Ie precede d'extraction de vecteurs Vi de (VI' vl ..... Vm) se

engendre E. Mais alors Xk est combinaison lineaire des vecteurs XI' Xl..... X•• ce
poursuit. Lorsqu'il s'arrete, nous aurons obtenu un prolongement de (x•• Xl' ...•
(
qui contredit l'hypothese, en raison de la proposition 1.5.5.
\ Xk) en une famille libre engendrant E. c'est-a-dire en une base de E.

(
(
(
26 Espaces vectorie ls et espaces atlines
( Retour aux sous-cspaccs vectoriels, somm cs directes 27

(
Ii. 1.7.6 Corollaire
( 1.7.10 Isomorphie de E et JR'
Si (e., e2• •••, e.) et (e], ei• ..., ek) sont deux bases de E. alors n = k .
( Tout espace vecto riel E de dimension finie non nulle n peut etre mis en

(
(
II1.
DEMONSTRAnON

Du theoreme 1.7.5 nous deduisons que k ~ n. ainsi que n ~ k, par un


echange du role des deux bases. II s'ensuit que n = k.
correspondanee biunivoque avec JR'. II suffit de choisir une base de E et de faire
correspondre Ii tout vecteur x de E Ie vecteur -colonne dont les tennes sont les
composantes de x dans la base cho isie:
E R'
(
x.
C x2
( 1.7.7 Dimension d'un espace vectoriel
x(x •• x2• .... x.) ­ (1.11)
( Au moyen des corollaires 1.7.4 et 1.7.6. iI est maintenant po ssible d'attribuer
une dimension Ii tout espace vectoriel de dimension finie. Soit E un tel espace. On
( x.
appelle dimension de E Ie nombre de tennes d 'une quelconque de ses bases. Si E
( se redu it au seul vecteur nul, on dit que sa dimension est nulle. La dimension de D 'apres la proposition 1.6.5, cette co rrespondance conserve les operations
E sera notee dim E. d'addition vectorielle et de multiplication par un scalaire; en d'autres tennes, elle
( permet, comme nous l'avons deja fait remarquer, d'effectuer les ope rations sur les
( vecteurs par des operations sur les nombres. On dit que E et JR' sont isomorphes,
1.7.8 Exemples ou que la correspondance est un isomorphisme (cf. 6.3.7). Evidemment, eet isomor­
( phisme depend de la base de E choisie.
2
( La dimension de V est 2. celie de V3 est 3 et celie de JR' est n. D'apres II importe de noter qu'un espace vectoriel E de dimension n n'admet, en
I'exemple (5) de 1.6.7, la dimension de I'espace vectoriel des polynomes de degre general, aucune base privilegiee, contrairement a JR' ; pa r consequent. sauf si Ie
( inferieur ou egal a nest n + I. L'espace vectoriel de to us les polynornes et, par cho ix d' une base de E a ete fait. iI faudra eviter de considerer E et R' comme
( consequent.Ies espaces vectoriels Cla• bl et eta.
b) sont de dimens ion infinie. En effet, identiques.
ces espaces admettent des families libres arbitrairement grandes, par exemple (Po.
( P.. .... P. ). ou les Pisont les monomes definis dans (1.8). n etant pris arbitrairement
( grand ; par Ie theoreme 1.7.5, ces espaces n'admettent aucune base, done leur
dimension est infinie, d'apres Ie corollaire 1.7.4.
1.8 RETOUR AUX SOUS-ESPACES VECTORIELS.
( SOMMES DIRECTES
(
1.7.9 Proposition. Caracterisations d'une base 1.8.1 Introduction
(
Supposons que E soit de dimension fini e non nulle n. Dans eette section, nous reprenons l'etude des sous-espaces vectoriels d'un
(
(a) Tout e famille Iibre Ii n termes est une base de E. espace vectoriel donne E et introduisons les notions de rang d'une famille finie de
( (b) Toute famille generatrice Ii n termes est une base de E. vecteu rs, ainsi que celie de somme directe de sous-espaees vectoriels.

(
DEMONSTRAnON
1.8.2 Rang d'one famille finie de vecteurs
(
Assertion (a). Une famille libre a n tennes qu i ne serait pas une base se On appelle rang d'une famille finie de vecteurs la dimension du sou s-espace
( prolongerait en une base. d'apres Ie theoreme 1.7.3. et la dimension de E sera it vectoriel de E qu 'elle engendre.
alors superieure a n.

Assertion (b). D'une famille generatrice Ii n tennes qui ne serai t pas une base
( on pourrait extra ire une base. d'apres Ie corollaire I. 7.4. et la dimension de E serait 1.8.3 Proposition
alors inferieure Ii n.
( Le rang d'une famille de vecteurs (x ., X2' .. .. Xk) est inferieur ou egal Ii k . II
( est ega! Ii k si et seulement si cette famille est fibre.

...

(
( I

28 Espaces vectoriels et espaces aflines Retour aux sous-espaces vectoriels, sommes directes 29
(
(
DEMONSTRATION
1.8.6 Hyperplans vectoriels (
Ecartons Ie cas trivial ou Ie rang de la famille (XI' x 2' ...• xt) est nul. D'apres Si E est de dimension finie non nulle n, un sous-espace vectoriel de E de
'~ " (
Ie eorollaire 1.7.4, on peut alors extraire de cette famille une base du sous-espaee dimension n - I est appele hyperplan vectoriel. Par exemple, un hyperplan vecto­
.<
~
}:
vectoriel qu'elle engendre. Le rang est done inferieur Ii k ou egal Ii k suivant que riel se reduit au vecteur nul si n = I, est une droite vectorielle si n = 2, un plan (
,~. (XI' x 2' ..., Xt) est une famille liee ou Iibre. vectoriel si n = 3. (
.>
~ (
~

~
1.8.4 Proposition. Comparaison de deux rangs 1.8.7 Sommes directes (
,.. (
Pour que Ie rang d 'unefamille de vecteurs (XI ' X2' ..., xt) soit egal au rang de On d it que la somme S + T de deux sous-espaces vectoriels S et T de E est
la famille augmentee (x, x2' • • •, xt , y), if faut et if suffit que Ie vecteur y soit directe si S n T = {O}. Dans ce cas, on la note S E9 T. (
combinaison lineaire des vecteurs XI' x 2' ..., Xt. Par exemple, si E est de dimension 2 et (e., e0 est une base de E, alors E
(
= DI E9 D2, ou DI et D2 sont les droites vectorielles engendrees respectivement
DEMONSTRATION par e l et e2' (
• Tout vecteur d'une somme directe S E9 T s'ecrit d'une seule rnaniere sous
Notons Set Ties sous-espaces vectoriels engendres respectivement par (XI'
la forme s + t, ou s est un vecteur de S et t un vecteur de T. En effet, si
x 2' ...• Xt) et (X" X2' ..., Xt, y). Si y est combinaison lineaire des vecteurs XI ' X2' ..., '(
Xt, alors S = T, done les deux rangs sont egaux. Reciproquement, supposons que s +t = u + v,
les deux rangs soient egaux et montrons que S = T, ce qui nous permettra de .(
ou s, u sont des vecteurs de S et t, v des vecteurs de T, alors
conclure que y est eombinaison lineaire des vecteurs XI ' x2' ..., Xt. Si les deux rangs
(
sont nuls, il est clair que S = T = {O}. Sinon, une base de S est egalement une s-u=v-t
base de T, puisque S est inclus dans T, ce qui entraine que S = T. (
est un vecteur de S n T = {O}, done s - u = v - t = 0, ce qui entraine s = u
et t = v. (
Inversement, si tout vecteur d'une somme S + Ts'ecrit d'une seule maniere
(
1.8.5 Proposition. Sous-espaces veetoriels d'un espaee vectoriel de dimension finie sous la forme S + t, ou s est un vecteur de Set t un vecteur de T, alors S n T = {O}
et done S + Test une somme directe. En effet, un vecteur non nul u de S n T (
Si E est de dimension finie et S est un sous-espace vectoriel de E. alors S est permettrait au vecteur nul d'avoir deux decompositions, a savoir 0 = 0 + 0 et
de dimension finie et dimS"; dimE. En outre, dimS = dimE si et seulement si (
o = u + (-u).
S = E. (
(
DEMONSTRATION
1.8.8 Proposition, Existence d'un sous-espaee complementalre
(
Designons la dimension de E par n et supposons que celie de S soit infinie
ou finie et superieure Ii n. Par recurrence, nous allons dernontrer I'existence d'une Supposons que E soit de dimension finie. Pour tout sous-espace vectoriel S de
(
E, if existe un sous-espace vectoriel T de E (non unique) tel que E soit somme directe
famille libre (XI' x:' .... xn-r') de veeteurs de S, ce qui contredit Ie theoreme 1.7.5,
de S ~t T. On dit que T est lin sous-espace cornplementaire de S dans E. (
vu la definition 1.7.7. Comme S n'est pas de dimension nulle, il comprend au moins
un vecteur non nul x" done (XI) est une famille Iibre. Supposons que (XI' x 2' ..., (
DEMONSTRATION
Xt) est une famille Iibre de vecteurs de S. Si k est inferieur ou egal Ii n, au moins
(
un des vecteurs de S n'est pas combinaison lineaire de x" X2' .... x t, sinon S serait Ecartons les cas triviaux ou S = {O} et S = E. Le sous-espace vectoriel S
de dimension k, eontrairement Ii l'hypothese. Designons ce vecteur par Xt+I' En admet alors une base (el , e:, ..., et), ou k est inferieur Ii la dimension n de E . Par (
vertu de la proposition precedente, la famille (x, X2' ..., Xk+ I) de vecteurs de S est Ie theoreme 1.7.3, cette base se prolonge en une base (e, ..., et, ek+I' .... en) de E. (
alors libre. Soit TIe sous-espace vectoriel engendre par la famille (et+I' et+2' ..., e,.}. Si X =
Pour dernontrer la seconde assertion, il suffit de poser T = E dans la -"lei + -,,:e 2 + + x nen est un vecteur quelconque de E, alors X = 5 + t, ou s = (
derniere partie de la demonstration precedente, -"lei + x 2e2 + + Xk e k est un vecteur de Set t = x ..... lek... 1 + -"k+2ek+2 + ...
( /.1
(0
( I

(
30 Espaccs vectoriels et espaces aflines Espaces aflines 31
(
(
s,
( + xnen est un vecteur de T. En outre. S n T = {a} car aucun vecteur, excepte Ie 1.9 ESPACES AFFINES
vecteur nul. ne peut etre combinaison lineaire des vecteurs e\. e2•...• ek et des
( vecteurs ek+\. ek+2' ...• en' Nous en conc1uons que E = S EB T.
( 1.9.1 Introduction
Par exemple, si S est un hyperplan, tout vecteur n'appartenant pas aS
( engendre une droite vectorielle D telle que E = S EB D. L'espace '§' de la geornetrie elementaire est a la fois Ie modele usuel et la
source de la notion d'espace affine que nous allons introduire. Cet espace '§' est
( associe aI'espace vectoriel geometrique v par la correspondance entre fleches et
( 1.8.9 Proposition. Dimension d'une somme directe vecteurs etudiee dans la section 1.1. La definition suivante ne fait que mettre en
evidence les traits dominants de cette correspondance.
( Si E est somme directe de deux sous-espaces vectoriels S et T de dimension
( finie, alors E est de dimension finie et

( dimE = dimS + dimT. (1.12)


1.9.2 Espaces atrmes

c DEMONSTRAnON Soit if un ensemble non vide d'elements que nous appellerons points et
designerons par les lettres P, Q• ... ; soit en outre E un espace vectoriel. Supposons
Ecartons Ie cas trivial OU un des sous-espaces Set Tse reduit a {O}. Soit (e., qu'a tout couple de points (P. Q) corresponde un vecteur note PQ. On dit que
e2' .... ek) une base de Set (ek+I' ek+2' ...• e.) une base de T. II suffit de demontrer (.! est un espace affine d'espace directeur ou direction E si les conditions suivantes
que (e,•...• ek. ek+\• ...• e.) est une base de E. ou , ce qui revient au meme, que tout sont satisfaites :
vecteur de E s'ecrit de rnaniere unique SOllS la forme d'une combinaison lineaire (a) Pour tout point P fixe. la correspondance entre couples (P. Q) et vecteurs x
des vecteurs el ' ...• ek' ek+I' ...• en' Or. cela est imrned ia t, car tout vecteur de E s'ecrit est biunivoque, autrement dit , pour tout vecteur x il existe un point Q et un
de maniere unique sous la forme 5 + t, OU 5 est un vecteur de S et t un vecteur
seul tel que x = PQ.
de T.
(b) Pour tout triplet de points (P. Q. R). PQ + QR = PR (relation de Chasles).

1.8.10 Extension
ij
1.9.3 Notation
" On dit que la somme SI + S2 + .,. + Skdes sous-espaces vectoriels St. S2'
( ...• Sk de E est directe si, pour i = 1.2. .... k, SI n T I = {O}. OU T I est la somme Si P est un point et x un vecteur, pour exprimer que Q est l'unique point
des Sj d'indice j different de i. On note cette somme directe S\ EB S2 EB ... EB Sk' tel que x = PQ. nous ecrirons
De rneme qu'en 1.8.7. on dernontre qu'une somme SI + S2 + ... + Sk est
directe si et seulement si chacun de ses vecteurs s'ecrit d'une seule rnaniere so us
Q = P + x. (1.14)

la forme s\ + 5:2 + ... + 5k. OU 5j est un vecteur de SI pour i = I. 2..... k, II est Bien qu'un peu abusive. cette ecriture est commode a I'usage et suggere bien
evident que cette condition est remplie si et seulement si la seule decomposition Ie sens de l'operation qu'elle designe (fig. 1.11).

//Q=P+>

( du vecteur nul est celie dans laquelle tous les 51 sont nuls.
Si les dimensions de St. S2• .... Sksont finies, la relation (1.12) se generalise
(
et devient
(
dim(SI EB S2 EB ... EB Sk) = dim S, + dimS2 + ... + dimSk ' (1.13)
(
( P Fig. 1.11
( )
On remarquera que
( J

(
P + (x + y) = (P + x) + y.

{
(
( )
32 Espaces vccloriels et espaccs affines Espaccs affines 33
(
(

I
1.9.4 Dimension d'un espace affine
Toutefois, cet isomorphisme depend du choix de l'origine 0 et en pratique cette
(
origine est choisie sur la base de donnees inherentes aux problemes poses. Par

I,
On appelle dimension d'un espace affine la dimension de son espace direc ­
teur . exemple , si une transformation affine admet un point invariant, nous verrons qu'il (
y a avantage Ii choisir ce point comme origine.
(
(
1.9.5 Regles de calcul dans les espaces affines
1.9.7 Exemples

Les regles suivantes decoulent directement de la definition 1.9.2.
(I) II est dit dans 1.9.1 que l'espace ~ . de la geometrie elementaire est un (

/Ja.
l
(I) Pour tout point P, PP = O. Cela resulte de la condition (b) appliquee espace affine. En elfet, sa direction est l'espace geometrique Vet les conditions (a)
au cas ou P = Q = R. ~ et (b) de la definition 1.9.2 sont satisfaites. II faut bien noter qu 'au couple de points (

(2) Si PQ = 0, aI6rs P = Q. Cela resulte de la condition (a), compte tenu ::...--- (P, Q) est associe Ie vecteur PQ et non pas la fleche W. En fait, la fleche pouvant (

de la regie (I). etre identifee au couple d~ points, nous voyons que ce que postule la definition
(3) PQ = -Q'P. II suffit de
poser R = P dans la condition (b). (

1.9.2 n'est rien d'autre qu'une forme abstraite de correspondance entre fleches et
j' (4) Regie du parallelogramme . " = W
si et seuJement si P'Q' = PQ. \ vecteurs, (

j En effet, d'apres la condition (b), " + ~ = ~ = PQ + QQ' (fig. 1.12). (2) Tout espace vectoriel E peut etre considere com me un espace affine de
direction E lui-meme si au couple de vecteurs (x, y) est associe Ie vecteur y - x.
(

P' En effet, les conditions (a) et (b) de la definition 1.9.2 sont satisfaites. (

(3) Soit E un espace vectoriel, S un sous-espace vectoriel de E distinct de


.(
E et x un vecteur de E. Nous designerons par x + S I'ensemble des vecteurs z de
p
la forme x + y, ou y parcourt S. Si x n'appartient pas Ii S, x + S n'est pas un (
Q' sous-espace vectoriel de E, car Ie vecteur nul n'appartient pas Ii x + S. Par contre,
(

x + S devient un espace affine de direction S, lorsqu'on y introduit la correspon­


dance entre couples et vecteurs definie dans l'exemple (2). En effet, la difference (

de deux vecteurs de x + S est un vecteur de S et les conditions (a) et (b) de la


i l' Q (
f~
Fig. 1.12 definition 1.9.2 sont satisfaites.

I; r :
(4) Pour iIlustrer l'exemple (3), considerons Ie systeme d'equations lineaires
3x1 - 2x2 + 4x J = 3
(1.15)
(

(
I0;:''
1.9.6 Vectorialise d'un espace affine
-Xl + X 2 - 5x; = -4.
(
Comme dans l'exemple (4) de 1.4.3, nous appellerons solution de ce systeme tout
Dans 1.3.2, no us avons rnontre comment l'espace 'l/ peut etre muni d'une (
vecteur-colonne (x?> de IRJ dont les tennes x~, x~, xg verifient les deux equations.
structure d'espace vectoriel. Dans Ie cas general d'un espace affine !if, Ie precede
Prenons une solution particuliere de ce systeme, par exemple (
est Ie merne. On choisit un point quelconque 0 de ? La correspondance entre

[~]

couples (0, P) et vecteurs de I'espace directeur E etant alors biunivoque (par (a», (
tout com me celie entre couples (0, P) et points P, on definit l'addition de points
(
et la multiplication d'un point par un scalaire par les operations correspondantes
sur les vecteurs de E. Muni de ces deux operations, c' devient un espace vectoriel, Nous obtenons alors la solution generale en additionnant Ii cette solution particu­ (
appele vectorialise de I relativement Ii O. Nous designerons cet espace par Co liere une solution quelconque du systeme (1.2) (cf. 3.5.5). En d'autres tennes, (
et appellerons 0 origine. l'ensemble des solutions de (1.15) s'ecrit sous la forme
Vu la rnaniere dont les operations ont ete definies, i! resulte que eo est (
isomorphe (cf. 1.7.10) Ii l'espace directeur E:

(f~ E
[i] + S, (

~
P =O+x ---- x ou S est Ie sous-espace vectoriel de IRJ forme des solutions du systeme (1.2).

j
(
( i
Sous-espaces affines. parallelisme 35
34 Espaccs vectoriels et espaees affines
( I

(
1.10.3 Proposition
(
1.10 SOUS-ESPACES AFFINES, PARALLELISME
Soit !/ le sous-espace affine difini par Po et S.
( I (a) Si P est un point quelconque de g; alors !/ = P + S.
1.10.1 Introduction (b) S = {x: x = PQ, P, Q e .'7'}.
(
L'exemple (3) de 1.9.7 et son illustration (4) nous suggerent lanotion de
( DEMONSTRATION
sous-espace affine que nous allons introduire. Les sous-espaces affines de I'espace
( affine :~ de la geometrie elementaire sont les points, les droites, les plans et :9' Assertion (a). Posons .'7" = P + S. II suffit de montrer que .Y' est inclus
lui-meme, dans 51; car I'argument symetrique nous foumira l'inclusion opposee et done la
(
Dans ce qui suit, if designera un espace affine de direction E. conclusion Y = ..9: Soit Q un point de Y '; c'est-a-dire un point tel que PQ
( appartienne a S. Puisque P est un point de g; PJ
appartient a S. Mais PoQ =
(
P;P + PQ, par la condition (b) de la definition 1.9.2, donc ~ appartient aussi
a Set, par consequent, Q est un point de Y
Assertion (b). En vertu de (a), pour tout couple (P, Q) de points de .9: PQ
1.10.2 Sous-espaces affines est un vecteur de S. Reciproquement, si x est un vecteur de S, choisissons un point
On dit qu'un sous-ensemble Y de if est un sous-espace affine s'il existe un quelconque P de Y et posons Q = P + x. D'apres (a), Q est un point de g; done
point Po de (S et un sous-espace vectoriel S de E tels que x est bien un vecteur de la forme PQ, avec P et Q des points de Y:

.Y = {P: PJe S} = {P: P = Po + x, xeS}. (1.16)


En d'autres termes, Y est un sous-espace affine si, pour un point Po de if, 1.10.4 Espace directeur
( .'7' est un sous-espace vectoriel de lfpo (fig. 1.13).
On notera que !/ ainsi defini n'est pas vide, car iI comprend au moins Ie D'apres la proposition 1.10.3, Ie sous-espace affine Y' defini par (1.16) ne
( depend pas du choix de I'«origine)) Po et determine Ie sous-espace vectoriel S. On
point Po.
( Suivant I'exemple (3) de 1.9.7, nous designerons Ie dernier membre de (1.16) dit que S est I'espace directeur ou la direction de Y
plus brievement par Po + S, ce qui nous permettra de considerer un sous-espace
(
affine comme un sous-ensemble Y de (f de la forme
( 1.10.5 Sous-espaces aftlDes comme espaces affines
y = Po + S, (1.17)
( Soit Y"un sous-espace affine de if de direction S. A l'aide de la proposition
ou Po est un point de if et S un sous-espace vectoriel de E. 1.10.3, DOUS voyons que la correspondance heritee de {f entre couples de points
( On prendra garde a bien distinguer les differentes significations du signe + : de Y' et vecteurs de S fait de Y' un espace affine dans Ie sens de la definition 1.9.2.
addition dans E, «addition» d'un point et d'un vecteur, «addition» d'un point et
( ~~ d'un sous-espace vectoriel.
~ !
(
L 1.10.6 Dimension d'un sous-espace atrme
~~
( ;
On appelle dimension d'un sous-espace affine !/ de It la dimension de Y
( en tant qu'espace affine, c'est-a-dire la dimension de l'espace directeur de Y.
(
y
( 1.10.7 Intersection de sous-espaces affines
( Soit Y et .r deux sous-espaces affines de (;f. Si .'7' et .!F ont au moins un
( point commun P, leur intersection est un sous-espace affine de if de direction
Fig. 1,13 l'intersection de leurs directions. En effet, .Y n .r
= {Q: PQ e S} n {Q : PQ e T}
( = {Q: PQ e S n T}, ou Set T sont les directions respectives de .Y et de .!i":
(
(,
(
(
Rcpercs. representation parametrique, geometric analytique affinc 31
36 Espaces vcctoricls et cspaces affincs (
(
1.10.8 Sous-espaces aflines engendres 1.10.12 Deux resultats (
Soit .Y un sous-espace affine de if de direction Set PI' P2, •••, PI des points Forrnulees en termes de droites et de plans de ~ les deux assertions sui­
(
de if. On appelle sous-espace affine engendre par :/ et PI' P2, •••, Pile plus petit vantes deviennent des enonces bien connus de la geometric eIementaire.
sous-espace affine .;'-contenant Y et comprenant PI' P2, ..., PI' Si S admet une (I) Generalisation du cinquieme postulat d'Euclide. Soit P un point de if (
base (VI' v2, ..., vt ) , on voit aisement que la direction de J est Ie sous-espace et J un sous-espace affine de (if. II existe un unique sous-espace affine ,;T de if
(
vectoriel engendre par les vecteurs VI' .. . , vt , ~ ...., M,
ou Po est un point parallele a y au sens etroit et comprenant P. En effet, ce sous-espace affine est
quelconque de Y . Par exernple, Ie sous-espace affine de ~' engendre par une droite tout simplement J - = {Q: PQ E S}, ou S est la direction de !/. (­
et un point est Ie plan passant par cette droite et ce point (suppose hors de la (2) Position relative de deux sous-espaces affines paralleles. Si deux sous­
(
droite). espaces affines sont paralleles, soit i1s sont disjoints, soit l'un d'entre eux est inclus
dans I'autre. S'ils sont paralleles au sens etroit, soit ils sont disjoints, soit confon­ (
dus . II suffit en elfet de choisir comme point Po des representations (1.16) des deux
(
sous-espaces affines un point de leur intersection (dans Ie cas ou celle-ci n'est pas
1.10.9 Exemples (
vide), pour que la conclusion decoule de la definition 1.10.11.
(I) Comme deja annonce et illustre (fig. 1.13), les sous-espaces affines de (
0/ sont les points, les droites, les plans et '§ lui-rneme.
(2) L'espace affine t! est un sous-espace affine de lui-rneme. Pour s'en (
rendre compte, iI suffit de mettre E a la place de S dans (1.16). .
1.11 REPERES, REPRESENTATION PARAMETRIQUE,
(
(3) Pour tout point Po de ft, {po} est un sous-espace affine. On voit cela en
GEOMETRIE ANALYTIQUE AFFINE
posant S = {o} dans (1.16). ,(
(4) Un sous-espace affine de dimension nulle se reduit a un seul point. Un (
1.11.1 Introduction
sous-espace affine de dimension I est appele droite affine ou simplement droite; un
de dimension 2 plan affine ou simplement plan. II est clair qu'une droite est Comme pour Ie choix d'une base dans un espace vectoriel, Ie choix d'un (
n
determinee par deux de ses points et un plan par trois de ses points non alignes, repere dans un espace affine de dimension n permettra d'identifier cet espace a R
(
c'est-a-dire n'appartenant pas a une merne droite. et, par ce moyen, de traiter les problernes geometriques par des calculs sur les
coordonnees (geometric analytique). (
Dans cette section , (( designera un espace affine de dimension finie non nulle
(
n et de direction E.
1.10.10 Hyperplans affines (
Si ~. est de dimension finie non nulle n, un sous-espace affine de if de (
dimension n - I est appele hyperplan affine ou simplement hyperplan. Un hyper­ 1.11.2 Reperes
(
plan est donc un sous-espace affine de direction un hyperplan vectoriel. Par On appelle repere de if tout ensemble (0 ; e l, e2' ..., en> forme d'un point
exemple, un hyperplan est un point si n = I, une droite si n = 2 et un plan si n = 3. 0, appele origine, et d 'une base (e" e2' ..., en) de E. (
(

1.10.11 Parallelisme 1.11.3 Remarque (


On peut concevoir un repere sous la forme d'une famille de points (0; PI' (
Soit c/ et f des sous-espaces affines de tf de directions respectives Set T.
On dit quev et . /- sont paralleles si l'une des directions Sou Test incluse dans .;.;;.
P , •••, Pn) telle que (~, OP;, .... OP,,) est une base de E.
2 ( i
l'autre. Si S = T, on dit aussi que Y et ./ - sont paralleles au sens etroit,
...'
On remarquera que ces deux notions de parallelisme s'equivalent lorsqu'el­ (
1.11.4 Coordonnees
les sont appliquees a des sous-espaces affines de rneme dimension finie (en raison (
de la seconde partie de la proposition 1.8.5). En les appliquant au cas particulier On appelle coordonnees cartesiennes ou simplement coordonnees d'un point
de '-:, nous retrouvons les notions usuelles de parallelisme entre droites, entre plans P dans un repere (0 ; el' e2' ..., en) les composantes du vecteur 75P dans la base (
et entre droi tes et plans . (e. , e2' .... en)' (
(
(

( 38 Espaces vectoriels et espaces affines Reperes, represenlation parametrique, gcomclrie analytique affine 39

( Si XI' X2• .•.• Xn sont les coordonnees d'un point Pet YI' Y2• •..• Yn celles d'un 1.11.7 Cas particuliers
point Q. les composantes du vecteur PQ = OQ - OP sont YI - XI' Y2 - x2• ...•
( Une droite est determinee par un de ses points et un vecteur directeur, un
Yn - x n· Inversement, si XI' x 2• ...• x n sont les coordonnees d'un point Pet zi' Z2.
plan par un de ses points et deux vecteurs directeurs.
( ...• Zn les composantes d'un vecteur z, les coordonnees du point Q = P + z sont
XI + Z•• x 2 + z2' ...• x n + Zn. car Pet Q sont lies par la relation PQ = OQ - OP Oroite: Plan:
(
= z.
Representation
( Par la suite. un point P defini par ses coordonnees XI' X2' .... x n sera designe
;~ parametrique: P = Po + av P = Po + all'. + a 2"2
( par P(x I' x 2• .... x n). Equations XI= x~ + aVI x. = x~ + a .vlI + a2 v12
parametriques X2 = x~ + aV2 X 2 = x~ + alv21 + a 2vn
( (1.20)
1.11.5 Representation parametrique d'un sous-espace affine dans Ie cas n = 3: XJ = x~ + aVJ xJ = x~ + a1vJ. + a2 v J2 .
(
Soit .!/ un sous-espace affine de {f de direction Set de dimension non nulle
( k. Soit en outre Po un point de .Y et ("I' "2' .... "t) une base de S. D 'apres (a) de 1.11.8 Equation cartesieDDl; d'un hyperplan
.i la proposition 1.10.3. un point P appartient a .9" si et seulement si P = Po + x•
ou x est un vecteur de S. c'est-a-dire un vecteur de la forme aivi + a2v2 + ... + Supposons que n soit superieur a I. Si k = n - I. les equations parametri­
akvk , II s'ensuit que .Y est I'ensemble des points P satisfaisant a la relation ques (1.19) sont celles d'un hyperplan. Par Ie precede d'elimination (cf. exemple
(2) de 3.1.6). n - I equations peuvent etre utilisees pour eliminer les n - I para­
P = Po + aiv i + a2 v2 + ... + atvk• (1.18) metres al ' a 2..... an_I de l'equation restante. Le resultat sera une relation lineaire
ou al. a 2••• •• at sont des variables parcourant R. Cette relation est appelee entre les coordonnees XI' X2• .... Xn• plus exacternent une equation de la forme
representation parametrique de .9: Les vecteurs VI' v2. .... vt sont appeles vecteurs . (1.21)
V.XI + vr2 + ... + VnXn = ~.
directeurs de .Y et les variables a l• a 2..... at parametres de la representation. On
notera que Ie nombre de parametres est egal a la dimension de .Y (fig. 1.14). ou VI' V2• . .. . Vn sont des nombres non to us nuls et a est un nombre pouvant
s'annuler, auquel cas I'hyperplan passe par I'origine O. Cette equation est appelee
equationcartesienne ou simplement equation de l'hyperplan. Les coordonnees d'un
point P satisfont a (1.21) si et seulement si P appartient a l'hyperplan.
.~~ Reciproquement, to ute equation de la forme (1.21) est l'equation d'un
~. hyperplan, a condition. bien entendu, que les coefficients VI' v2• ... . vn ne soient pas
~ to us nuls . En effet, si par exernple Vn est non nul. les solutions de (1.21) peuvent
~
~! etre ecrites sous la forme
X. = a l

( )
Fig. 1.14 x 2 = a2

(
Xn_1 = an _I

( 1.11.6 Equations parametrtques


xn =
a VI

- - -a. _ Vn-lan _I'


\ Supposons main tenant que if soit muni d'un repere (0; e•• e 2..... e,,). En . ';,.
v v
n n vn
{ designant par x •• x2• .... x n et x~. x~ • ..•• x~ les coordonnees respectives de Pet Po ou al. a 2. .... an _I sont des variables parcourant R. Ces equations sont de la fa nne
et par Vlj' Vu. .. .. Vn j les composantes de Vj. nous voyons que la relation (1.18) s'ecrit, (1.19) et representent done un hyperplan.
( I
de rnaniere equivalente, sous la forme Dans Ie cas particulier ou n = 2.
( XI = x~ + alvlI + a2 vI2 + + 'akvlk
vlXI + Vr2 = a
( x 2 = x~ + a.v21 + a2vn + + akv2k
(1.19) est l'equation cartesienne d'une droite et dans celui ou n = 3.
( )
Xn = x~ + a1vnl + a2vn2 + ... + akvnk' v.XI + vr2 + vJxJ = a
( Ces equations sont appelees equations parametriques de .'/. est l'eouation cartesienne d'un olan.
(
(
_:,.1
40 Espaces vectoriels et cspaces allines Excrciccs 41 (
~ (
1.I 1.9 Problemes de geometrie analytique affine - i - 2a = P(-I + a ') (
.~

La geometrie analytique affine traite les problemes de la geornetrie affine


t+ 3a = P(- 2 + 20:') (
(parallelisme, incidence, ...) par des ealeuls dans R". Voici quelques problemes :~ • I + 6a = P( 5 + a ').
.' -';'. (
r.~
resolus. En multipliant la deuxieme equation par 2 et en la soustrayant de la troisierne, nous
't'"
; !,
obtenons aussitot a ' = 3, ee qui nous permet de ealculer les coordonnees de P', <'
equations pararnetriques du sous-espace affine engendre par ~ t~
a savoir 3, 5, 7. En prenant alors pour vecteur directeur de la droite cherchee Ie
~
:j
les pain so ' , 3, -I), PI(-I, 2, 0, 3), P~(O , 0, -1 ,2), P)(-3, 5, I, 2). veeteur fp;;Y, nous voyons que les equations parametriques de celle-ci s'ecrivent
?~
Solution. .T rois veeteurs direeteurs de ee sous-espace affine sont .",r1., (
·.·.f XI = I + a
VI = M(-2, 2, -3,4) (
;jJ
x2 = I + 2a
(
.:z
v2 = PoP;(-I, 0, -4,3) r
+
,.
~~ X J = -I 4a . (

vJ = ~(-4, 5, -2,3) . (
': 9~~: Une autre maniere de resoudre ce probleme eonsiste a ealeuler I'intersection
<.
des deux plans definis par Po et chacune des deux droites g et :;&' .
' .' .,~

Ses equations parametriques sont done (

B
(4) Determiner la projection du point P(I, - 3, -2, I) sur l'hypcrplan
XI = I - 20: 1 - a2 - 4a ) (
(
s. d'equation
x2 = . 2et l . +
5aJ
(

,(
:
xJ = 3 - 3a l - 4a 2 - 2aJ I
....
XI - + 3xJ - 4x 4 = 4,
x2
X4 = - I + 4a 1 + 3a~ + 3a J . /
.(
parallelement a une droite de vecteur directeur v( I, 4, 3, -
1).
~ ~I'interseetion des deux plans d'equations parametriques Solution. Les equations parametriques de la droite passant par P de veeteur (
V XI = I +
a l + 2a 2 ( XI = I - a; ,,­
directeur v sont
(
x2 = I - a l + a2 ( x2 = I + a; + ai
XI = 1+ a (
x J = - I + 2a 1 - a2 r xJ = - I + 2a; ,
Xl = -3 + 4a

X 4 = - 2 + a l + a2' I X 4 = - 2 + 2a; + 3ai. I /


xJ = -2 + 3a (

X4 = 1- a.

./ Solution. Deux veeteurs directeurs du pre~r plan sont ~I , -1,2,1) et (


Vv2(2, I, -I , I), deux du deuxierne v,(-I , 1,0,2) et v;(O, 1,2,3(. Ces quatre vee- . La projection cherchee est Ie point d'intersection de eette droite et I'hyperplan
(
teurs sont lineairernent independants, done aueun vecteur, sauf Ie veeteur nul, ne / donne. Ses coordonnees s'obtiennent en determinant la valeur de a pour laquelle
pcut etre en rneme temps eombinaison lineaire de vI et v2 et de v; et v;. Cela entraine les seconds membres des equations parametriques verifient l'equation cartesienne (
que ('intersection des deux espaces directeurs est {O}. D'autre part, en posant a l / de l'hyperplan. Cette valeur est a = I, done les coordonnees de la projection de
(
= a 2 = a, = a i = 0 dans les equations parametriques, nous voyons que Ie point / P sont 2, r, 1, O.
(
Po(l , I, - I, - 2) appartient aux deux plans . Nous en eoncluons que I'intersection
cherchee se reduit au point Po. (

o (3) Deux droites '/ et '/ ' sont donnees par leurs equations parametriques

XI
X2
XJ
= - i - 2a
=
=
t + 3a
6a,
XI
Xl
x) =
=
= -I + 2a'

a'

4+ a '.

1.12 EXERCICES
(
(
(
(
Determiner les equations pararnetriques de la droite passant par Ie point 1.12.1 Montrer que les vecteurs-colonnes
PoCI, I, -I) et rencontrant i/.' et :j' ', (
Solution. Les points d'interscction P de . ~". et la droite cherchee et P' de
'/ ' et cette merne droite satisfont ala relat ion P;P = PPoP', au Pest un nombre
inconnu non nul. En cornposantes ceue relati on s'exprirne par les trois equations
[iJ. [-:]. m· m (
(
(
(
(
( 42 Espaces vcctoricls ct espaces atlines Excrcices 43
(
1.12.9 Soit (e., ez) une base d'un espace vectoriel E de dimension 2. Montrer
(
que les familles de vecteurs (e, + e2• ez). (el + ez. e t - ez) et (e., e2 + ae l) (a etant

[~;]
engendrent R 3 et exprimer Ie vecteur-colonne comme combinaison
( un nombre arbitraire) sont des bases de E. Calculer, en outre, les composantes de
lineaire de ces vecteurs
e l et e2 dans chacune de ces bases.
(
(
( 1.12.2 Montrer que toute fonction de la forme f(t) == asin(At + Ii) (a. A ~ 1.12.10 Dans chacun des cas suivants, dire si la famille (fl' f2• f) est une base
0, Ii E [0. 21t» est combinaison lineaire des fonctions s(t) == sin(At) et c(t) == cos (AI) de I'espace vectoriel des polynomes de degre inferieur ou egal a 2. Si oui , trouver
( et, inversernent, que toute combinaison lineaire de s et c est une fonction de la les composantes dans cette base des monomes Po(t) == I. p,(t) == t et pz(t) == ,z.
( meme forme que f. (a) f,(t) == I+,z. f 2(t) == 2 - t + ,z. f)(t) == -6 + 3t - 3r.
(
(b) fl(t) == 1 + 2t +,z. fit) == I - 2t +,z. f 3(t) == t.
(c) fl(t) == t , fit) == t +,z. fit) == I + t + ,z.
( 1.12.3 Exprimer Ie polynome pet) == 1 + t4 sous la forme d'une combinai­
son lineaire des polynomes Po' PI. P2' P3 et P4 definis dans (1.5).
(
1.12.11 Les sous-ensembles suivants sont-ils des sous-espaces vectoriels de
(
1.12.4 Dernontrer que les vecteurs-colonnes R S?
(
dl
{(a): a, = O}. {(a): a2 = I}. {(aj : 20 1 - 04 = O}. {(a) : a 104 = as}.
(
a,o fbib2 rCIC2 r d2 {(o): a. rationnel},
( o ' 0 ' C3 • d3 I I" ,)

(
o 0 0 d4
1.12.12 Soit (e., e2, ..., e6 ) une base d'un espace vectoriel E de dimension 6.
sont lineairernent independants si et seulement si al' b2, C3 et d4 sont differents de O.
( Soit S Ie sous-espace vectoriel de E engendre par les vecteurs e, - e2' e) + e4 et
( e, + e6• Quelles conditions doivent satisfaire les composantes d'un vecteur X de
1.12.5 En derivant n fois la relation aD + a, t + ... + ant' == 0, montrer que .~. E pour qu'il appartienne a S?
(
les monomes Po' PI' ...• P. definis dans (1.8) sont lineairement independants. 1
(
1.12.13 Soit E un espace vectoriel de dimension 4. muni d'une base (e., e2•
(
1.12.6 Montrer que les fonctions fl(t) == 1. f 2(t ) == e' et f 3(t) == e2J sont e). e4) .
( lineairement independantes, ; l ~ rJ • e~ \ \\), I"J ~ ct' ~ 0
.I (a) Montrer que l'ensemble S des vecteurs x de E dont les composantes X I' x~ . x).
, ;-.:> ='':> 01-. , ~~. X 4 satisfont Ii la condition XI - 2x z + X3 - X 4 = 0 est un hyperplan vectoriel.
(
(b) Exhiber une base de S.
( 1.12.7 Soit (x •• x~ . .... x k ) une famille libre de vecteurs d'un espace vectoriel (c) Trouver un sous-espace complementaire de S dans E.
E. Soit (YI ' Yz• ..., Yk) une deuxierne famille de vecteurs de E. On suppose que
( ~
chaque vecteur Xi soit combinaison lineaire des vecteurs Y" Y2' ..., Yk' Montrer que
( la famille (y,. Y2' ...• Yk) est libre .
1.12.14 Soit Set T deux sous-espaces vectoriels .d'un espace vectoriel E.
( (a) Demontrer que la somme S + T et l'intersection S n T sont des sous-espaces
( 1.12.8 Soit (e., e~. e3• e4 ) une base d'un espace vectoriel E de dimension 4. ; :~ vectoriels de E.
~ (b) Demontrer que S + Test I'intersection de tous les sous-espaces vectoriels U
( (a) Montrer que les vecteurs v, = e l + e 2 + e4• v2 = e, - ez + e3 - 2e4 et .~

v3 = -e. + ez - e3 + e, sont lineairement independants, >? de E tels que U ; j SU T.


/
(b) Prolonger la famille (vI' v2• v3) en une base de E. ~..
'::
l
(

( )
44 Espaces vectoriels et espaees affines
( )
Exercices 45
( )
1.12.15 Soit S et Ties sous-espaces vectoriels de R 4 engendres par les
XI = 1 + al - a2 XI = 2 - a; - ai (
familles respectives
X2 = 2 + a l + a2 x2 = 3 + a; - ai
1 2 o 1 4 3 Xl = -3 + a l - a2 Xl = -2 + (X; + ai (
-I o -2 -I -2 -I X4 = 1 + a l + a2' x4 = 4 - a; + ai . (
2 1• -II . ) et ( 2 1• 3I. 1 I) .
5 (c)Y est !'hyperplan d'equation 3x I Xl + 2x 4 = 2 et ...r Ia droite passant par
I o -1 o 1 -1
- (
le point Po(I, 5, 3.1) et de vecteur directeur v(l. O. I.-I).
Determiner les dimensions de Set de T. ainsi que celles de S + T et de S n T. (d} Y est l'hyperplan d'equation XI - 3x2 + X 4 = 3 et f ie plan passant par Ie ( i

~, point Po(l. 0, 3.-2) et de vecteurs directeurs vl(-I. O. I. I) et v2(1. I. -2. I). ('
" (e)Y est l'hyperplan d'equation XI - 3x2 + Xl - 2x4 = 4 et ..7 I'hyperplan
1.12.16 Soit S. T et U trois sous-espaces vectoriels d'un espace vectoriel E. d'equations pararnetriques (
(a) Montrer que S + (Tn U) c (S + n (S + U). n XI = I + a l - 2a2 + 2o: l

(
(b) Montrer que si SeT. les deux membres de I'inclusion sont egaux. s
;,
X2 = I + a l + a2 .+ a l
(
(c) Trouver un exemple montrant que l'egalite n'est generalement pas vraie. Z!, ~
Xl = 2 - a2 - a l

('
X4 = - 2 - a l - 3a2 - al .

(
1.12.17 Soit S et T deux sous-espaces vectoriels de dimension finie d'un
-(
espace vectoriel E. Montrer que

dimeS + n + dimeS n n = dimS + dim T. .~


;j ,
f 1.12.21 Soit ffo Ie vectorialise relativement a une origine d'un espace
affine if de dimension finie superieure a I ou infinie. Etudier Ie lieu geometrique
° .c
En deduire la relation (1.12). i
.'-~:
des points de la forme (a - fJ)P
ae(-oo.l] etpeR
+ PQ. ou Pet Q sont des points distincts de ffa. (
l 't',
". '
(
Exercices sur les espaces affines :l., (

1.12.18 Soit I'hyperplan d'equation + Xl - 2x4 = I et q Ie


f 1.12.22 Soit Wo Ie vectorialise relativement une origine a
d'un espace ° (
j 3:<1 - X2
~ affine [f de dimension 3. Soit PI' P2, P l et P4 quatre points n'appartenant pas a
(
· geometnque
. . . defini x 2 - I = Xl - 2 X4 + I
e m par Ies equattons
' . -XI -' -1 = ---
Ileu
-2 2
(a) Montrer que !jJ est une droite et ecrire ses equations pararnetriques.
= - -.
-4 t'.
.',
un meme plan. Montrer que I'ensemble des combinaisons convexes de PI' P2• P l
et P4 est le tetraedre dont les sommets sont ces quatre points.
\
(b) Calculer les coordonnees du point d'intersection de 'd et ..9: .
:.':4
~
.C
(
1.12.23 Soit if un espace affine muni d'une origine 0 . Soit (PI' P2• . .. , Pk )
. 1.12.19 Determiner la projection parallelernent a une droite de vecteur ~ une famille de points de if et (ai' a2' .... ak) une famille de nombres telle que a ( I

= a l + a 2 + ... + a k ;c 0, On appelle Ie point G de if defini par la relation OG


~ (
dirccteur v(- I, 2. I, 2, - 2) de la droite d'equations XI _ 2 = x2 + I = Xl - 5 = 1 ------.
. ' 2 3 ·i ~.
--+ - - .. . .
= ~(aIOPI + a 20P2 + ... + akOPk) barycentre des points PI' P2, .... Pk affectes
,

X4 + 2 x j - -I sur l'h yoerp Ian d"equation


, 2XI ,
- - = - + 3x,• - x, = _.
-I 4' . des coefficients respectifs aI ' a 2, .. ., ak' Lorsque a l = (l2 = ... = (lk = ~. on (

appelle G centre de gravite des points PI' P 2• .. .. Pk • (

1.12.20 Dans chacun des cas suivants, etudier la position relative des sous­ (a) Montrer que la definition de G ne depend pas du choix de I'origine 0. (
espaces affines y ' et .'/": (b) Situer Ie centre de gravite des sommets d'un triangle .
(a}j est l'hyperplan d'equation XI - X2 + X 4 = I et ,,;n e plan passant par ies (
points PIO, 1.2.2). N2. 2. 4,2) et Pl(I, 3, 1,4). 11 (,
(b} j ' et .T sont les plans d'equations pararnetriques respectives
:j /

I
(
(
(
46 Espaces vectoriels et espaces allines
( I

1.12.24 Suite de l'exerciceprecedent. Soit N. , N 2, •• •, Niles ensembles d'une CHAPITRE 2


(
partition de {I, 2, ..., k}. Pour i = 1,2, ..., I, on suppose que Pi = 1:aj soit non
( , jeNi
nul et on designe par Gi Ie barycentre des points Pj avec j E N j , affectes des
I coefficients a j. Espaces vectoriels euclidiens

(a) Montrer que G (defini dans l'exercice precedent) est Ie barycentre des points
(
G., G2, ..., GI affectes des coefficients respectifs PI' P2' ..., PI' et espaces affines euclidiens

( (b) A l'aide de (a), situer Ie centre de gravite des sommets d'un tetraedre,
(
(
1.12.25 Soit.9; .Y' et .9''' trois hyperplans paralleles d'un espace affine de
2.1 PRODUIT SCALAIRE DANS L'ESPACE VECTORIEL
( dimension finie superieure a I. Soit en outre 9., 9 2, ••, des droites du meme
GEOMETRIQUE
espace, non paralleles a .9'. On designe par Pi' P; et P;' les points d'intersection
respectifs de Y: ..9", .9''' et gj' Montrer que PiP;' = ap;p;, avec a independant
de i (theoreme de Thales).
2.1.1 Introduction

Dans Ie present chapitre, nous etudierons les not ions qui derivent de la
donnee d'une nouvelle operation sur les vecteurs, celie de produit scalaire. II s'agit
de notions metriques telles que la nonne ou I'orthogonalite, Dans l'espace vectoriel
geornetrique V, on peut definir un produit scalaire en partant des idees de longueur
et d'angle, Muni de ce produit scalaire, V devient un exemple de ce que nous
appellerons espace vectoriel euclidien (cr. definition 2.2.3).
Tout au long de cette section, les vecteurs seront les elements de V.

2,1.2 Longueur, angle

~. En choisissant une unite de longueur, nous pouvons mesurer l'intensite de


chaque fleche, autrement dit, determiner sa longueur. Nous pouvons aussi mesurer
( l'ecart angulaire de deux fleches quelconques d'origine commune (non necessaire­
rnent distinctes) en prenant comme unite de mesure par exernple Ie radian. La
( mesure de cet ecart est aloes un nombre compris entre 0 et It, appele angle des deux
( \ fleches. Si les deux fleches ont meme direction et meme sens, leur angle est nul et
.j si elles ont rneme direction et sens oppose, ce meme angle est It.
(

(
2,1,3 Norme, angle de deux vecteurs
(
Les fleches representatives d'un rneme vecteur x ont toutes la meme lon­
( gueur . Nous designerons cette longueur par II x II et I'appellerons norme de x. II
( \
1: est clair qu'un vecteur est nul si et seulement si sa nonne est nulle. Nous dirons

( \ qu'un vecteur est unitaire si sa nonne est 1. Si x est un vecteur non nul, _I-x est
i1x II
un vecteur unitaire, puisque la nonne de ax est lalll x II .
(
Nous appellerons angle des vecteurs non nuls x et y l'angle de deux fleches
( ' d'origine commune representant l'une x et l'autre y.
t

( I
48 Espaces vectoriels euclidiens et espaces allines euclidiens Produil scalaire dans l'espaee vectoriel gComClrique 49
( I

(
2.1.4 Produit scalaire Cette expression vaut egalement dans Ie cas ou x est nul, a condition d'admettre
que la projection orthogonale du vecteur nul est Ie vecteur nul. La norme de proj,x (
On appelle produit scalaire des vecteurs non nuls x et y Ie nombre
s'ecrit (
II x 1111 y II cosO, (2.1)
(
ou 0 est I'angle de x et y. Si x ou y sont nuls, Ie produit scalaire est nul par II proi~y x II = I(x I v)111 v II = I(x I v)1
II V 11 2 II v II
(2.3)
convention. (
Nous noterons Ie produit scalaire de x et y par (x I y). D'autres syrnboles Si vest unitaire, (2.2) et (2.3) se simplifient et deviennent
(
couramment utilises sont (x, y), ( x, y), x-y, proj,x = (x I v)v, II proj.x II = I(x I v)l· (2.4)
On remarquera que (x I x) = II X 11 2• (
Par des considerations geometriques elementaires, il est facile de se rendre
(
compte que
(
2.1.5 Ortbogonalite proj.(x + y) = proj,x + proj.y, proj.cx = e proj.x. (2.5)
(
On dit que des vecteurs x et y sont orthogonaux s'ils sont non nuls et leur
(
angle est ~, ou si l'un d'entre eux est nul. 2.1.7 Proprietes

En vertu de la definition 2.1.4, x ct y sont done orthogonaux si et seulement


si (x I y) = O.
'.
~~
l;.
Le produit scalaire jouit de trois proprietes qui constitueront Ie point de
depart d'une formulation abstraite de cette operation. Les voici:
(

'(

i
f
"j:'
/,1
(a)(x I y) = (y I x).

(b)(ax + py I z) = a(x I z) + P(y I z).

(
(
2.1.6 Projection orthogonale (c) (x I x) > 0 si x "# O.
WI (
La projection orthogonale d'un vecteur non nul x sur la droite vectorielle {! La seule ..9.t!! demande une verification est la deuxierne, Si zest nul, les trois
'\
engendree par un vecteur non nul vest Ie vecteur :'.1 produits scalaires sont nuls et l'egalite est vraie. Si z n'est pas nul, (
i lI
~,

x II cosO(_I- v),
.i:, proj.(ax + py) = aproj.x + pproj.y, (
II 'ti
v II
II
i.l d'apres (2.5), ce qui entraine, grace a (2.2), (
!!
+ i y I z) z

ou 0 est I'angle de x et v. Nous 1a noterons proj.x et l'appellerons aussi projection


orthogonale de x sur v (fig. 2.1).
(j (ax + py I z)
.:....-....,......,~.:.......:..z = a--z
(x I z) (

~I
(z I z) (z I z) (z I z) ,
rlI
,~
(

d'ou la propriete (b) s'ensuit.


~I (
'~ i (
il
2.1.8 Bases orthononnales
(

,:~ Une base (e l , e2' eJ ) de Vest dite orthonormale si les vecteurs el , e2' eJ sont

II..l
i.· (

orthogonaux deux deux et unitaires. a


(
A I'aide du produit scalaire, Ie vecteur proj.x peut etre exprime autrement: 1
:,?' 2.1.9 Decomposition suivant one base orthononnale (
'1 su ffiIt d bstituer
' I v)v II a. cos 0 pour 0 bteni
x(x1111
I e su II ternr
i
~
Par Ie raisonnement geometrique, on voit facilement que chaque vecteur est
la somme de ses projections orthogonales sur les vecteurs d'une base orthonor­
(
(
s
~. male, ~utrement dit, si (e l , e2' eJ) est une base orthononnale,
proj.x = (x I v) _ (x I v) (
II V 11 2 V - (v I v) v. (2.2)
x = (x I e.)e, + (x I e~2 + (x I eJ)eJ. (2.6)
( 'J
(
(

c so Espaces veetoriels euclidiens et espaces affines euclidiens Espaces vectoriels euclidiens 51

(
( Cette decomposition s'obtient egalement par (b) de 2.1.7. En effet, xI' X2' .l") (a) (x I y) = (y I x) (syrnetrie ou commutativite).
etant les composantes de x, (b) (ax +. Py I z) = a(x 1;.0:) +. P(y I z) (linearite).
( (c) (x I x) > 0 si x :F 0 (positivite),
(x lei)= (x.e. +. X2e2 +. x)e) lei) = x.(e l lei) +. x2(e21 e.) +. xie) lei) = XI'
(
puisque (e, lei) = I et (e2 1e.) = (e) leI) = 0; de merne;
(
(x I e2) = X 2, (x I e) = X), 2.2.3 Espaces vectoriels euclidiens
(
d'ou la decomposition. On appelle espace vectoriel euclidien tout espace vectoriel muni d'un produit
( scalaire.
..,./:::. II est clair que tout sous-espace vectoriel d'un espace vectoriel euclidien E
(
2.1.10 Produit scalaire en fonction des composantes devient lui-rneme un espace vectoriel euclidien s'il est muni du produit scalaire
( herite de E.
Soit XI' X2' xl et YI' Y2'Y) les composantes respectives des vecteurs x et y dans
(
une base orthonormale (e., e2' e) . Grace a (a) et (b) de 2.1.7, Ie produit scalaire
(
(x 1 y) = (Xlel +. X2e2 +. x)e) I Ylel +. Y2e2 +. y)e) 2.2.4 Remarques
,
(
se developpe en une somme de neuf termes de la forme x;YJ{ell e); or, par I'ortho­ a
(I) La condition (b) exprirne la linearite gauche du produit scalaire
normalite de la base, (ell e) est nul si i :F jet vaut I si i = j, ce qui entraine a
(cf. 6.2.2). La linearite droite decoule de l'union de (a) et (b):

(
(x I y) = XIYI +. x2Y2 +. x)1). (x 1Py +. yz) = P(x I y) +. r(x I z). \

(
r
(2) En posant a = P = 0 dans (b), ou P = = 0 ci-dessus, nous voyons
que Ie produit scalaire (x 1 y) est nul si x ou y sont nuls .
( (3) La linearite a gauche et a droite du produit scalaire s'etend par recur­
l rence aux combinaisons lineaires de plus de deux termes.

( 2.2 ESPACES VECTORIELS EUCLIDIENS


(
2.2,5 Norme d'un vecteur
( 2.2.1 Introduction
Soit E un espace vectoriel euclidien. On appelle norme d'un vecteur x de E,
( Le produit scalaire dans V a ete defini au moyen des notions de norme et et l'on note II x II, Ie nombre J(x I x).
d'angle, II jouit des proprietes (a), (b) et (c) (mises en evidence dans 2.1.7) qui en
..
En vertu de la condition (c), la norme II x II est positive si x est non nul ;
(
resurnent les caracteres. Pour etendre la notion de produit scalaire aux espaces d'apres (2) de 2.2.4, elle est nulle si x est nul.
( vectoriels abstraits, nous suivrons Ie precede inverse ; plus exactement, nous :71
On remarquera que J(ax I ax) = Ja 2(x I x) = I a I J(x I ~ ce qui montre
admettrons les trois proprietes com me donnees de depart, en deduirons les notions que
l de norme, d'orthogonalite et d'angle et aboutirons a un certain nombre de resultats [ex II = lalll x II· (2.7)
( applicables a des situations les plus variees, notamment aux espaces vectoriels
On dit qu'un vecteur est unitaire si sa norme est I. D'apres (2.7), si x est
fonctionnels. La geometric aura ainsi laisse la place a l'algebre, en demeurant
( I I ..
toutefois I'inspiratrice des idees et des methodes utilisees, non nu , jj-;-it est un vecteur urutaire.
(
(
2.2.2 Produit scalaire
( 2.2.6 Exemples
Soit E un espace vectoriel. On appelle produit scalaire dans E to ute opera­
( tion qui fait correspondre a chaque couple (x, yJ de vecteurs de E un nombre, note (I) Vu les propnetes 2.1.7, l'operation definie dans 2.1.4 est un produit
(x 1 y) et appele produit scalaire de x et y, satisfaisant aux conditions suivantes: scalaire dans V conforme a la definition 2.2.2.
(
(
..~:
(
52 Espaces vectoriels euclidiens et espaces affines euclidiens Orthogonalite 53
(
I~

(
• (2) L'operation (-!-) definie par la formule 2.3 ORTHOGONALITE
(
at
a2
I.1bb,
2
~

~~l 2.3.1 Introduction


(
.:;;.. (
) = alb. + a2b 2 + ... + a.b. (2.8) J.ii II a ete remarque dans 2.1.5 que deux vecteurs de V sont orthogonaux si et
~£~ seulement si leur produit scalaire est nul. Cette equivalence tiendra lieu de defini­ (
.;s:'
..• ,
a. lb. :1:1
tion de la notion abstraite d'orthogonalite.
Dans la suite de ce chapitre, E designera un espace vectoriel euc1idien.
(
est un produit scalaire dans JR. que l'on appelle produit scalaire canonique.
~J Comme deja convenu, sauf indication contraire, les vecteurs seront les elements \
Par la suite, sauf mention explicite du contraire, R· sera considere com me
muni de ce produit scalaire.
~i
"r, \"
. ;".
de E.
(
',..
-.;,;,..
Deux aut res exemples de produits scalaires dans 1R3 sont definis par les (
.~:.:.
formules "
2.3.2 OrthogoDalite (
\'

[~]) ~ 2a,b, + 3a~, + 4a,b"

y
On dit que les vecteurs x et sont orthogonaux, ou que x est orthogonal a (
([::] I ... '
v­ y, si (x I y) = O. On dit qu'une famille finie ou infinie de vecteurs (x. , x2' ...) est
:..i
~: "l orthogonale, ou que les vecteurs XI' X2' .•• sont orthogonaux deux Ii deux, si \
l~ 1 (X i I Xj) = 0 pour tout couple (i,J) tel que i '" j . Si, de plus, to us les vecteurs Xi -.(
,~

([::]1 [~])
~ 7a,b, + 2a,b, + 2a,b, + 6a~, + 2a,b, + 2D,b, + 'a,b,. (2.9)

'~ I
"' I
~ ~': ,
sont unitaires, on dit que la famille est orihonormale.
Comme deja note dans la remarque 2.2.4, Ie vecteur nul est orthogonal a
tout vecteur . En fait, vu la condition (c) de la definition 2.2.2, il est Ie seul vecteur
,(
(
qui possede cette propriete,
La preuve que l'operation definie par (2.9) satisfait a la condition (c) n'est pas
(
immediate. Nous laissons toutefois au lecteur la tache de l'effectuer, car nous
reviendrons sur cette question dans la section 9.2. (
2.3.3 Exemples
(3) Le champ d'application privilegie de la theorie abstraite du produit (
scalaire est constitue par les espaces vectoriels fonctionnels (cf. 1.3.4 et 1.3.5). On (I) La base canonique de JR. est manifestement orthonormale.
appelle produit scalaire canonique dans CIa. bl l'operation (·1·) definie par la formule i! (2) Considerons les fonct ions Co, Ck et 5k (k > 0) de CI _ x• x ) definies par
(
(
b
(f I g) = Sf(t)g(t)dt. (2.10) ,I
I Co(t) ==
I
~' ck(t) ==
I
,-cos(kt), 5 k(t ) ==
I .
,-sm(kt). (2.12) (
a .n« yrr. y1t
Cette operation definit bien un produit scalaire, car les conditions (a) et (b) de la (
La famille infinie (co. C1' 51' C2' 52' ...) est appelee systeme trigonometrique. Cette

definition 2.2.2 sont manifestement satisfaites et, en outre, l'integrale famille est orthonormale, car (

b .~~
S(2(t)dt ';:' i j cos(kt)~os(lt)dt ( I

a
/1
-x (
est positive si la fonction continue f n'est pas identiqueinent nulle.
Par la suite, sauf mention explicite du contraire, CIa, bJ sera considere comme
muni du produit scalaire canonique.
n
= t J
-x
(cos«k + l)t) + cos«k - l)t))dt =
0

1
si k '" I,
1t si k = I", 0,
21t si k = I = 0 ;
(
( I

(4) Un autre exemple de produit scalaire dans C1a.bl est foumi par la formule J
- x
sin(kt)sin(lt)dt (

(f I g) =
b
Sf(t)g(t)p(t)dt, (2.11) =
,
t L(cos«k - l)t) - cos«k + l)t»dt =
{O~k"'~
1t si k = I '" 0;
(
a
(
ou pest une fonction continue a valeurs positives. j sin(kt)cos(lt)dt = t j (sin«k + l)t) + sin«k - l)t»dt = O.
-~ -JII' (
(
[ )

( 54 Espaccs veeto riels euclidiens et espaces affines euclidiens


Orthogonalite 55
(
( 2.3.4 Orthogonalite Ii un sous-espace vectoriel
,~ et devient, lorsque x et y sont orthogonaux, Ie theoreme de Pythagore:
,-.,
( On dit qu'un vecteur x est orthogonal a un sous-espace vectoriel S de E s'il
a
est orthogonal tout vecteur de S.
~
II x + Y 11 2 = II X 11
2
+ II
2
Y 11 . (2.15)
(
Si (v,. v2•...• vk) est une famille generatrice de S. pour qu'un vecteur x soit L'extension de (2.15) au cas d'une famille orthogonale (x. , X2' .... Xk) de plus
( orthogonal a S, il suffit qu'il soit orthogonal a to us les vecteurs Vi' En effet, tout de deux termes se fait par recurrence:
vecteur y de S s'ecrit so us la forme y = a,v, + a 2v2 + ... + akvk, done, par la 2
(
linearite a droite du produit scalaire,
II x, + x2 + ... + x, 11 2 = II x,1I
2+ II x211 + .,. + II xk 11
2. (2.16)

(x I y) = (x I (X,v l + <%2V2 + ... + akvk) .

= a,(x I v,) + a2(x I v0 + ... + ak(x I vk) = o.

2.3.8 Projection orthogonale sur one droite vectorielle


ce qui demontre l'assertion.
On appelle projection orthogonale d'un vecteur x sur la droite vectorielle
engendree par un vecteur non nul v. ou simplement projection orthogonale de x
sur v; Ie vecteur
2.3.5 Sous-espaces vectoriels orthogonaux
. (x I v\.
On dit que des sous-espaces vectoriels Set T de E sont orthogonaux, ou que proj.x = (v I v) (2.17)
S est orthogonal a T. si chaque vecteur de S est orthogonal a T (ou, ce qui revient
au meme, chaque vecteur de T est orthogonal as). On remarquera que cette projection est I'unique vecteur av de la droite en
question tel que x - av est orthogonal av. En effet, I'unique solution de l'equation
(x - av I v) = 0 est
2.3.6 Proposition. Orthogonalite et independance lineaire (x I v) ,
a = - -.
Toute famille orthogonale finie de vecteurs non nuls est fibre. En particulier, (v'v)
toute famille orthonormale finie est fibre.

DEMONSTRATION
2.3.9 Orthogonalisation
Soit (XI' x2 Xk) une famille orthogonale de vecteurs non nuls. La relation
Le precede que nous allons presenter est connu so us Ie nom de procede
a,x, + a2x2 + + akx k = 0 ~~traine , pour i = 1.2•..., k, grace la linearite a a d'orthogonalisation de Gram-Schmidt. A partir d'une famille libre (XI' xz...., xk),
gauche du produit scalaire,
il montre par quelles operations sur les vecteurs Xi on peut construire une famille
o= (0' x) = (alx l + a2x2 + + akx k' Xi)
orthogonale (v" v2. ..., Vk) engendrant Ie merne sous-espace vectoriel que (XI' x2'
= a,(x, I x) + a 2(x2 1 Xi) + + aixk I xJ = a,(x;! Xi)'
..., Xk)'
On pose successivement
( d'ou nous concluons que a i = O. puisque (Xi I xJ i' O.
VI = XI.
(
(x 2 1 VI)

v2 = x2 -(- , - ) v,,

( 2.3.7 Theoreme de Pythagore


-
v, v,
(xJ I v,) (xJ I v:J
( La relation vJ = x J - - - v , - - - v2, (2.18)
(VI I v,) (v2 1 v0
( (X + YI X + y) = (x I x) + (y I y) + 2(x I y) (2.13)
(Xk I VI) (x, I v0 (xk I vk_,)
( J
resulte aisement de la linearite gauche et a a droite du produit scalaire. Cette vk = Xk - - - V I - - - v2 - ... -
(v,1 v,) (v2 1 v0 (Vk_1 I Vk_l)
vk_,·
( i relation s'ecrit aussi sous la forme
2 2 2 En d'autres termes, Vi (i > I) est la difference de Xi et la somme des projec­
+ + +
,
( II x Y 11 = II X 11 II Y 11 2(x I y) (2.14)
tions orthogonales de Xi sur les vecteurs V, . v2_ .... Vi_I '
, '
(
(
Espaces vectoriels euclidiens et espaces affines euclid iens
. -~
InegalilCs. angles 57 (
56
¥
s:
(
:Y Vo(t) == I,
Nous allons montrer, par recurrence, que les vecteurs VI ' V2, .•., Vk sont ~
(
orthogonaux deux a deux et non nuls . A cet elfet, supposons que les vecteurs VI ' ..}.
.1­
VI (t) == t - ! Jsds == t, (
v2, ..., vj (i < k) Ie soient. Alors , pour i = 1,2, ..., i, -I
1 I
v2(t) == f -! Srds - t Ss)ds .t == t2 -!. (
~ (x j + 1 I v,) -I -I
(Vi+llv) = (Xi + l - L. Vii v) (
(v" v,)
' a .1
Les polynomes vo, VI et v2 ainsi obtenus sont les trois premiers termes d'une famille
~ (xi+11 VI)
= (Xi+l lv) - L. ( I ) (V, I v) = (xi+ l l v) -
I_ I v, VI
(XHII v,)

a
( I ) (vjlv)
vj vj
ce qui demontre que vi+ 1 est orthogonal VI ' v2' •••, Vi ' En outre, VH I n'est pas nul ,
= 0, orthogonale infinie connue sous Ie nom de systeme de Legendre.
,
(

(
sinon xi + 1 serait combinaison lineaire des vecteurs VI ' v2, •••, Vi et done des vecteurs
XI ' x2' ..., Xi' en contradiction avec l'hypothese d' independance lineaire des vecteurs 2.4 INEGALITES, ANGLES (
XI ' x 2, •••, xk' Les vecteurs VI' v2, •••, VH I sont done orthogonaux deux a deux et
(
nOll nuls, ce qui etablit notre assertion .
On notera que, pou r chaque i, les families (X I' X 2' •••, Xi) et (VI ' V2, •••, Vi) 2.4.1 InegaUte de Cauchy-8chwarz (
engendrent Ie meme sous-espace vectoriel de E.
On appelle inega/ite de Cauchy-Schwarz l' inegalite, valable pour tout choix (
des vecteurs X et y, .(

2.3.10 Exemples I (x I y) I ,;;; II x 1111 y II· (2.19)


(
(I) Pa r Ie precede de Gram-Schmidt (2.18), nous allons orthogonaliser Ie Dans Ie cas particulier ou x et y sont des vecteurs de Vet Ie produit scalaire (
triplet de lR4 est defini par (2.1) , cette inegalite est evidente, puisque I cosO I ,;;; I. Dans Ie cas
general, elle necessite une preuve. Si y est nul, les deux membres de (2.19) sont nuls (
I I 1
et l'inegali te est en fait une egalite. Si y n'est pas nul, posons e = _I_yet ecrivons (
I -I I
II , II, _I I). I y II
X = (x I e)e + x - (x I e)e. (2.20) (
o 1 -I
(
Comme (x I e)e est la projec tion orthogonale de x sur e, x - (x I e)e est orthogonal
En elfectuant les calculs, nous obtenons
a a
e, done (x I e)e, ce qui nous permet d'appliquer (2.15) au second membre de (
I (2.20) et d'obtenir
(
1
II x 2
= II (x I e)e 11 2 + II x - (x I e)e 11 2 ~ (x I e)211 e 11 2 = (x I e)2. (2.21)
~J '
VI 11
I (
II ne reste alors plus qu'a multiplier les racines carrees des deux membres extremes
a a
de (2.21) par II y II et substituer y II y lie pour etablir (2.19). (
1 I 2
V2
-I
1
1
I I
3 I
0
~i -!j (Ie facteur 3"I peut etre
• . ),
onus
On remarquera que l'inegalite de Cauchy-Schwarz est une egalite si et
seulement si X et y sont lineairement dependants. En elfet, l'inegal ite dans (2.21)
est une egalite si et seulement si II x - (x I e)e II est nul, autrement dit, X est mult iple
(
(
(
";." de e ou, ce qui revient au meme , de y.
1 I -6
V)
-I
- I
1 I I
3 I
0
--7f-;33 2
3
= - -
2
11
I
5
2
(Ie facteur -IT
peut etre omis).
2

2.4.2 Exemples d'appUcation


(
(
(I) Lorsque E est lR", l'inegalite de Cau chy-Schw arz s'ecrit (
1 i

~j
(2) Soit (Po, PI' P2) la famille de vecteurs de C[_I . II definie par plt) == t
(cf. (1.8) et exemp le (5) de 1.6.7). Le precede d'orthogonalisation de Gram­ I ~a,hi
"
l';;; /"
~cf ~
n
br
\ Schmidt (2.18) applique a cette famille entraine: i=1 V i-I i= 1
t
(
58 Espaces vectoriels euclidiens et espaces affines euclid iens Espaees vectoriels euclidiens de dimension finie 59
(

(
( Dans Ie cas particulier ou b l = b2 = ... = b; = I, elle devient 2.4.4 Angles. Theoreme du cosinus

( n)2 n Supposons que les vecteurs x et y soient non nuls. En vertu de l'inegalite de
( 1: a/
i- I
:.0;;;; n 1:af,
i- I
Cauchy-Schwarz,
(
ou encore - I :!':: (x I y) :!':: 1

( ~ II x 1111 y II ~ .

I n)2 I n
..
~
;
( -n 1:a/ :.0;;;; - 1:af, .~ II existe donc un et un seul nombre 0 de I'intervalle [0, n) tel que
i _I n I_ I i
~
cosO = (x I y) (2.23)

i
ce qui montre que Ie carre de la moyenne arithrnetique est inferieur ou egal a la
moyenne arithmetique des carres,
II x li llY II"
Ce nombre est appele angle des vecteurs x et y. On notera les cas particuliers
(2) Lorsque E est Cra•b), l'inegalite de Cauchy-Schwarz s'ecrit
b
J
I f(t)g(t)dt I
a
:.0;;;;
b

a
b
Jf2(t)dtJg2(t)dt.
a
I." ~
suivants:
h (x I y)
x et y ort ogonaux : II x ]] y II = 0, ce qUI. equrvaut
. , .0 n
a = 2";
'~1
En prenant get) == I et If I a la place de f, nous en deduisons l'inegalite (xly) PII Y 11 2 {ISiP>o,cequiequivaut ao =o ;
x = py: II x 1111 y II = IPIII Y 11 2 = - 1si P < 0, ce qui equivaut a 0 = n.
(Ii f(t) IdtY :.0;;;; (b-a)!f2(t)dt.
,, Si x et y sont non nuls, la relation (2.14), ou celle qui en derive par
i
I substitution de -yay, s'ecrit, a I'aide de (2.23), sous la forme equivalente
Par exernple, {
II x ± y 11 2 = II X 11 2 + II y f ± 211 x 1111 y II cosO, (2.24)
(I JSiii'idt Y :.0;;;; I
n sintdt = 2n,
}
ou 0 est I'angle de x et y. On appelle (2.24) theoreme du cosinus.

ou encore

jo
.jSfnidt J27c.
:.0;;;;

2.5 ESPACES VECTORIELS EUCLIDIENS


DE DIMENSION FINIE
2.4.3 Inegalite triangulaire

En majorant 2(x Iy) par 211 x 1111 y II (inegalite de Cauchy-Schwarz) dans 2.5.1 Introduction
(2.14), nous voyons que
Cette section a pour objet l'etude de quelques questions liees a l'existence
(
II x + Y 11 2 :.0;;;; II x f + II Y 11 2 + 1 11 x 11 11 Y II = (II x II + II Y 11)2, d'une base orthonormale.
( ce qui entraine l'inegalit« triangulaire: Nous supposerons que l'espace vectoriel euclidien E est de dimension finie
non nulle n.
(
II x + YII :.0;;;; II x II + IIY II· (2.22)
( En I'appliquant une fois aux vecteurs x et Y - x et une autre fois aux
( vecteurs x - yet y, nous deduisons la variante 2.5.2 Proposition. Prolongement d'une famille orthonormale
( I II x II - II y III :.0;;;; II x - y II · So it (e. , e2' .... ek) une f am ille de vecteurs orthonormale. Si k est infe rieur Ii
la dimension n de E. cett e fami/le se prolonge en une base orthonormale de E.
( ,
(
(
Espaces vectoriels euclidiens et espaces affines euclidiens Projection orthogonale et mcilJeure approximation 61
60 (
(
DEMONSTRATION ou a;j = (e, I e). En particulier,
(
n n
D'apres Ie theorerne 1.7.3, la famille (e., e2, ..., ek) se prolonge en une base 2
(x I x) = II X 11 = ~ ~ aj"xjx , (2.27) (
(e, ..., ek' Xk+I' . .. , x,,) de E. Applique acette base, Ie precede d'orthogonalisation ;- I j - I v J

de Gram-Schmidt (2.18) nous foumit une base orthogonale (e., ..., ek' Vk + I' •• •, v,,) Nous reviendrons sur les expressions ainsi obtenues dans Ie chapitre 9. Pour

(
de E. Posons l'instant, limitons-nous a observer que si la base (e. , e2, ..., en) est orthononnale, (

I 1 (2.26) et (2.27) se simplifient et se redu isent aux expressions qui definissent Ie


ek+1 = - - - Vk+ l , . . ., en = - - vn • produit scalaire canonique dans R n et Ie carre de la nonne correspondante: (
IIvk + I II II vn II
(
La famille (e. , e 2, ..., en) est alors une base orthononnale de E. (x I y) = X.YI + x 2Y2 + ... + XnYn' (2.28)
(
11 = xf + ~ + ... + X;.
2
(x I x) = II X (2.29)
(

2.5.3 CoroUaire. Existence d'une base ortbonormale (


2.5.6 Isomorpbie de E et IRn
Tout espaee veetoriel euclidien de dimension finie non 'Julie admet une base
orthonorma/e. - D'apres (2.28), lorsque la base de E est orthononnale, I'isomorphisme (1.11)
entre E et R n conserve Ie produit scalaire, ce qui signifie que Ie produit scalaire
DEMONSTRATION de x et y dans E est ega I au produit scalaire dans R n des vecteurs-colonnes
correspondants (x j ) et (y).
Un tel espace comprend au moins un vecteur non nul e., .que nous pouvons .(
supposer unitaire. II suffit alors d'appliquer la proposition 2.5.2 a la famille (e.).
(
2.5.7 Produit scalaire defini par une base (

2.5.4 Composantes d'nn vecteur dans une base ortbonormale Tout espace vectoriel de dimension finie non nulle n peut etre rendu eucli­ (
dien. II sul'fit de choisir une base (e., e2, ..., en) de cet espace et de definir Ie produit
Soit XI x 2' •• •, x n les composantes d'un vecteur x dans une base orthononnale (
scalaire par la fonnule (2.28). Pour ce produit scalaire, la base (e., e2' ..., en) est
(e., e2• ..., en) de E. Par la linearite agauche du produit scalaire, pour i= 1,2, ..., n, orthononnale. (

(x I e) = (x le l + X2e2 + ... + xne" I e)


II est evident que tout espace vectoriel reduit au vecteur nul peut egalement
(
= xl(e. Ie;) + x 2(e2 1e) + .,. + xn(en I e)
etre considere comme euclidien.
(
= x,(ej I ej ) = X;,

(
ce qui montre que x,e; est la projection orthogonale de x sur e, La decomposition
de x suivant la base (e. , e 2, •• •, en) s'ecrit done (
x = (x I e.)el + (x I ez}e2 + ... + (x I en)en· (2.25)
2.6 PROJECTION ORTHOGONALE (
Cela generalise la decomposition (2.6). ET MEILLEURE APPROXIMATION (
(
2.6.t Introduction (
2.5.5 Expression du produit scalaire en Conction des composantes
Dans cette section, nous definirons la notion de projection orthogonale d'un (
Soit x" x 2, ..., x n et YI' Y2' ..., Yn les composantes respectives de x et de y dans
vecteur sur un sous-espace vectoriel et utiliserons cette notion pour calculer la
a a
une base (e., e2' .. ., en) de E. Par la linearite gauche et droite du produit scalaire,
meilleure approximation d'un vecteur par des vecteurs d'un sous-espace vectoriel (
n n) "" n " de dimension finie. (
(x l y) = ( ~x;ei! ~Yjej = ~ ~xjYj(ejle) = ~ ~aijxJ'j' (2.26)
L'espace vectoriel euclidien E sera de nouveau de dimension finie ou infinie.
;= 1 j=1 ;= 1 j = 1 j=1 j - I
(
( /
(

l
62 Espaccs vectoriels euclidiens et espaces affines euclidiens Projection orthogonale et meilleure approximation 63
( )

2.6.2 Complementaire orthogonal 2.6.4 Proposition. Existence du complementaire orthogonal d'un sous-espace

(
Soit S un sous-espace vectoriel de E. Designons par Sl. I'ensemble des veetoriel de dimension finie

(
vecteurs orthogonaux a S. Cet ensemble n'est pas vide, car il comprend au moins Tout sous-espace vectoriel de E de dimensionfinie admet un complementaire
( I Ie vecteur nul. En outre, par la linearite du produit scalaire, en meme temps que orthogonal dans E.
x et y il comprend toutes les combinaisons lineaires ax + fly. D'apres la proposi­
tion 1.4.6, s- est done un sous-espace vectoriel de E. Ce sous-espace est orthogonal DEMONSTRAnON
( I a S, selon la definition 2.3.5. Soit S un sous -espace vectoriel de E de dimension finie. Soit en outre x un
D'apres (c) de la definition 2.2.2, S n s- = {O}. Cependant, E n'est pas, en
vecteur quelconque de E. Nous allons montrer qu'il existe un vecteur s de S tel
general, somme directe de Set s- (cf. exercice 2.9.13). I11'est, toutefois, s'il existe
que x - s est orthogonal a S. Si Sse reduit a {o}, s est Ie vecteur nul. Si S est de
un sous-espace vectoriel T de E, orthogonal a Set tel que E soit somme directe
dimension non nulle k, choisissons une base orthogonale quelconque ('I' '2' ..., 'k)
de Set T, car alors Test necessairement s-.
En effet, grace a I'existence d'un tel
de S et posons
T, tout vecteur t' de s- s'ecrit sous la forme t' = s + t, ou s est un vecteur de S
. . (x I '1) (x I 'k)
et t un vecteur de T; cela entraine que t' - t est un vecteur de S orthogonal a S, s = proJ'lx + ... + 'ProJ'kX = -,-'I
+ ... + -(-,-)'k'
done que t' - t = 0 et, par consequent, que t' (= t) appartient a T, ce qui montre ('I 'I) 'k 'k
~ . i
que s- est contenu dans T. D'autre part, par definition de s-, Test contenu dans Compte tenu de 2.3.8, nous voyons que x - s est orthogonal a tous les vecteurs
s-, donc T = Sl.. ' j' D'apres 2.3.4, x - s est done orthogonal a S.
II s'avere ainsi que les conditions suivantes sont equivalentes:
(a) II existe un sous-espace vectoriel T de E, orthogonal a Set tel que E soit somme 2.6.5 Calcul de la projection orthogonale
directe de S et T.
(b) E est somme directe de Set s-. Lorsqu'on doit calculer la projection orthogonale d'un vecteur x de E sur
(c) Tout vecteur x de E s'ecrit (necessairement de maniere unique) sous la forme un sous-espace vectoriel S de E defini par une de ses bases ('I' '2 ' ..., 'k)' iI faut
avoir en vue les deux cas suivants:
x=s+t, (2.30)
(a) La base ('I' '2' ..., 'k) est orthogonale. Dans ce cas, d'apres ce qui precede,
ou s est un vecteur de S et t un vecteur orthogonal a S.
. (x I 'I) (x I'0 (x I 'k)
(d) Pour tout vecteur x de E, iI existe un vecteur s de S (necessairement unique) proJsx = - - V I + - - ' 2 + ... + --'k' (2.32)
tel que x - s est orthogonal a S. ~I~ ~I~ ~I~
(b) La base ('., '2' ..., 'k) n'est pas orthogonale. Dans ce cas, soit on l'orthogonalise
On dit que S admet un complementaire orthogonal dans E. ou que est Ie s- par Ie precede de Gram-Schmidt et on applique (2.32) a la base orthogonale
complementaire orthogonal de S dans E. si l'une des conditions equivalentes (a}-(d)
est satisfaite.
('t, v;, ..., 'i) obtenue par ce precede, soit on determine les coefficients
de la combinaison lineaire al'. + a2'2 + ... + ak'k de maniere que Ie vecteur
D'apres ce que nous venons d'etablir, si s- est Ie complementaire orthogo­ x - (a l,. + a2'2 + ... + ak'k) soit orthogonal a,., '2' ..., 'k; cette condition
nal de S dans E, alors S est Ie complernentaire orthogonal de s- dans E et se traduit par les k equations
( (Sl.)l. = S. (2.31) al(,,1 ' j) + CX2(' 21V;) + ... + ak('k I 'J = (x I,). i = 1,2, ..., k,
(
d'ou I'on tire les valeurs de a., a 2' ..., a k qui produisent la combinaison lineaire
( egale a projsx.

( 2.6.3 Projection orthogonale

Soit S un sous-espace vectoriel de E et x un vecteur de E. Si S admet un 2.6.6 Vecteur normal Ii un hyperplan veetoriel
(
complementaire orthogonal dans E, on appelle Ie vecteur s de la decomposition Soit S un hyperplan vectoriel de E (suppose de dimension finie non nulle).
( (2.30) projection orthogonale de x sur S. Nous designerons cette projection par D'apres la proposition 2.6.4, S admet un cornplernentaire orthogonal dans E.
( projsx. D'apres (1.12), ce complementaire est une droite vectorielle . On appelle vecteur
normal a Stout vecteur non nul de cette droite vectorielle .
(
(
(
64 Espaces vectoriels euclidiens et espaces affines euclidiens Projection orthogonale et rneilleure approximation 6S (
(
2.6.7 Meilleure approximation (
Soit S un sous-espace vectoriel de E de dimension tinie. On appelle meilleure (
approximation d'un veeteur x par des vecteurs de S \'unique vecteur de S qui
minimise la norme II x - y II, lorsque y pareourt S. Dans le cas partieulier ou E
(
est \'espaee veetoriel geornetrique et S une droite ou un plan vectoriel de eet espaee, (
on voit facilement que la meilleure approximation de x est la projection orthogo­
nale de x sur S. Nous allons montrer qu'il en va de meme dans Ie cas general,
(
c'est-a-dire que (
II x - projsx II < II x - y II, (2.33) (
pour tout vecteur y de S distinct de projsx. Considerons un tel vecteur y et ecrivons (

x - y = (x - projjx) + (projsx - y).


I
1
Comme x - prohx est orthogonal Ii tout veeteur de S, done a prohx - y, la
'I relation (2.15) entraine
Fig. 2.2

~ 2 2
i" II x - Y 11 2 = II x - projsx 11
2
+ II projj x - Y 11 > II x - prohx 11 ,
(2) La meilleure approximation de la fonction f(l) == I de C[_ul par des -(
I ee qu i etablit (2.33), polyniimes trigonometriques d'ordre inferieur ou egal ak; c'est-a-dire des combinai­
sons lineaires des 2k + I premiers tennes du systeme trigonometrique defini dans
t 2.3.3, est, d'apres 2.6.7 et (2.32), Ie polyncme trigonometrique (
.~
~. fk = (f I eo>CO + (f I c.)c. + (f I 5.)SI + ... + (f I Ck)Ck + (f I Sk)sk' (
l 2.6.8 Exemples d'application
l Les produits sealaires (f I cj ) U ~ 0) et (f I 5j ) U ~ I) sont appeles coefficients de (
.
f La meilleure approximation est utilisee notamment dans des problemes de
prediction et d'interpolation, Les deux exemples que nous presentons eoneement
Fourier de la fonetion f. Comme f'cj est une fonetion impaire,
(

;
Ie systerne de Legendre et Ie systeme trigonornetrique. (flc) = _1_ ~
JQSicl/eosU,)d, = O. (
i ,

(I) La meilleure approximation de la fonetion f(/) == III de C1- 1• IJ par des


(
polynomes de degre inferieur ou egal a 2 est, d'apres 2.6.7 et (2.32), Ie polynOtne D'autre part,
(
~ j IsinUI)dl 2~(_IY' +1
(flv ) (flv.) (flv
p = - - ovo
)
+ - - v I + - - 2v 2, (fl s) = = (
(vo I vo) (VI I v.) (v2 1 Vv y7t-x } '

ou vo, VI et v2 sont les polynornes orthogonaux obtenus dans l'exemple (2) de 2.3.10 . (
done Ie polynome trigonometrique fk s'ecrit sous la forme
Le calcul des produits sealaires donne: (

(fl vo)
I
= Sl/ ldl = I, (vol vo) =
I
S 12dl = 2;
fk(/) == i ~(-
j ~IJ
Iy+lsin(jI).
(
- I -1
I L'etude de la convergence de fk(/), lorsque k tend vers \'intini, depasse Ie (
(flv l ) = Sl/l/dl = 0 (leealculde(v.lv.)estdoneinutile);
cadre de ce livre et sera done omise. Signa Ions neanrnoins qu'elle a lieu et que la
-I (
• limite est 1= f(/) si -7t < 1< 7t et 0 si I = ±7t (car sin(j7t) = 0). D 'une maniere
(f Iv0 = Sill (/
- I
2
­ t)dl = !, (v21 V2) = S(r -
- I
tidl = h. generale, on peut demontrer que f k converge en norme vers f, c'est-a-dire que (

II en resulte donc que lim II f - fk II = O. (2.34)


(
k- ao

P(/) == t + ! .";-(/ 2 ­ t) == M5r + I) (fig . 2.2). (


(

G
(
(

( 66 Espaccs vectoricls cuclidiens ct espaces allincs cuclidicns Produit veetoriel ct produit mixtc 67

( 2.7 PRODUIT VECTORIEL ET PRODUIT MIXTE 2.7.3 Proprietes des determinants


( Les proprietes les plus importantes des determinants seront etablies dans la
2.7.1 Introduction section 5.I. En anticipant sur cette section, nous enoncons ici les deux proprietes
(
qui nous servent a etudier Ie produit vectoriel et Ie produit mixte.
( Le produit vectoriel de deux vecteurs est une operation propre Ii la dimen­
(a) Le determinant est multiplie par - J si I'un de ses vecteurs-colonnes est
sion 3. Pour l'introduire, il faut prealablement orienter I'espace destine Ii Ie
( remplace par son oppose ou si deux de ses vecteurs-colonnes sont echanges,
recevoir. L'orientation etant definie au moyen de la notion de determinant, nous
(b) Le determinant est non nul si et seulement si ses vecteurs-colonnes sont
commencerons par une breve introduction a l'etude de cette notion. Cette etude
lineairement independants.
sera reprise dans Ie chapitre 5.
Dans cette section, no us supposerons que l'espace vectoriel euclidien E est Ces deux proprietes sont evidentes dans Ie cas du determinant d'ordre 2. La
de dimension 3. propriete (a) l'est egalement dans Ie cas du determinant d'o rdre 3. La verification
de la propriete (b) dans ce meme cas est laissee comme exercice. S'ille desire, Ie
lecteur pourra se reporter. au paragraphe 5.2.2, ou cette verification est faite en
2.7.2 Determinants d'ordre 2 et 3 toute generalite,
On appelle determinant des vecteurs-colonnes de JR.2

[:~J, [:~J, 2.7.4 Determtnants de passage

et on note On appelle determinant de passa~e d'une base (x, x 2, XJ) a une base (YI' Y2'
YJ) Ie determinant

la, bll'
a2 b2
(2.35) PII PI2 PI3
P21 P22 P23 I' (2.39)
Ie nombre
P J\ PJ2 PJJ
a,b2 ­ a2b l • (2.36) ou P'j' P1Jo PJj sont les composantes du vecteur YJ dans la base (XI' x 2' XJ) .

On appelle determinant des vecteurs-colonnes de RJ

et on note
[:J [H [::J.
2.7.5 Orientation de E
On definit I'orientation de I'espace vectoriel E par Ie choix d'une de ses bases.
Ce choix etant fait, on dit que E est oriente ou dote d 'une orientation. Soit (x\ . x2,
XJ) la base definissant I'orientation de E. On dit alors qu'une base (YI ' Y2' YJ) est
a\ b l C 1 directe ou positivement orientee si Ie determinant de passage (2.39) est positif et
a2 b2 C2" (2.37) indirecte ou negativement orientee si ce meme determinant est negatif,
a J bJ CJ
Ie nombre
2.7.6 Remarque
( a, b2 C21 - a2Ib'
I bJ CJ s, cJ c'l + a Ibb2 C2CII
J
l
(2.38)
Nous verrons dans 6.6.10 que Ie determinant de passage entre bases de
( I
merne orientation est positif, tandis qu'entre bases d'orientations differentes ce
= a lb 2cJ + atJJc J + aJb,c2 ~ a,bJc2 - atJ,cJ ­ aJb2c, .
( determinant est negatif Par les determinants de passage, les bases de E peuvent
La fonction qui associe a tout couple de vecteurs-colonnes de ~.2 (a tout done etre rangees en deux classes definissant chacune I'une des deux orientations
( I
triplet de vecteurs-colonnes de R 3) son determinant est appelee determinant possibles de E.
d'ordre 2 (d'ordre 3).
( \

l
(
(
68 Espaces vectoriels euclidiens et espaces affines euclidiens Produit vectoriel et produit mixte 69 (
(
I 2.7.7 Effet d'une transposition et d'une permutation cyclique 2.7.10 Proprietes du produit vectoriel (
i ';

II
Les deux assertions suivantes decoulent directement de (a) de 2.7.3.

(I) L'orientation d'une base (XI' X2' x 3) change si l'un des vecteurs Xi est
Le produit vectoriel jouit des proprietes suivantes: (
(a) X x y = -(y x x) (antisyrnetrie). (
rem place par son oppose, ou si deux vecteurs XI et xj sont echanges.
(b) (ax + py) x z = a(x x z) + P(y x z) (linearite),
(2) L'orientation d'une base (XI' X2' x 3) reste inchangee si les vecteurs Xi sont (
(c) X x y¥-O si et seulement si X et y sont lineairement independants.
permutes cycliquement, c'est-a-dire si XI prend la place de X2' X2 celie de X3 et X3
(
celie de XI (ou, ce qui revient au rneme, si XI et x 3 et ensuite x 2 et XI sont echanges), Les deux premieres decoulent directement de la definition. Nous etablirons
A I'aide de (I) et (2), un examen des six dispositions possibles de xI' X2 et la troisieme en montrant que X x y est nul si et seulement si X et y sont lineaire­ (
X3 no us permet de conclure que les trois triplets ment dependants. So us cette condition, I'une des deux colonnes dans (2.41) est
(
multiple de l'autre, done les trois determinants dans (2.42) sont nuls, ce qui
(XI' Xl' x 3), (x3, XI' xz>, (X2, XJ, XI) (
entraine que Ie produit vectoriel x x y est nul. Reciproquement, supposons que
sont de meme orientation, tandis que les trois autres x x y soit nul. Alors les trois determinants dans (2.42) s~>nt nuls, c'est-a-dire
(
(Xl' XI' x 3), (x3, X2' XI)' (XI' X3' X2) Xz.V3 = XJY2' XJYI = xIY3' XIY2 = Xz.VI· (2.43)
(
sont d'orientation opposee a celie des trois precedents. Si tous les Yi sont nuls, les vecteurs x et y sont lineairement dependants. Si un des (
Yi' par exemple Y3' est non nul, iI existe a tel que x 3 = aYJ' ce qui entraine, par
- .(
a
substitution de aY3 X3 dans (2.43),
2.7.8 Cboix d'une base

Dans la suite de cette section, (e., el' e3) est une base orthonormale definis­
X2Y3 = aYJY2' aYJYI = XIY3 . (
'

et donc (
sant I'orientation de E.
(
X2 = aY2' XI = aYI'
La premiere colonne dans (2.41) est donc Ie produit de a par la deuxieme, ce qui (
2.7.9 Produit vectoriel .,,~

',.;/ implique la dependance lineaire de x et y.


Soit XI' Xl' X3et YI' Y2' Y31es composantes respectives des vecteurs Xet y dans
la base (e l , e2' e J). On appelle produit vectorielde Xet y, et on note X x y, Ie vecteur
La propriete (b) exprime la linearite Ii gauche du produit vectoriel (cf. 6.2.2).
I
I ,
Cette propriete, jointe a l'antisymetrie, entraine la linearite Ii droite:
I: (Xz.VJ - XJYZ)e1 + ('\"JYI - xlYJ)ez + (x\Y2 - xz.Vl)e3· (2.40)

II X X (py + )IZ) = P(x x y) + y(x x z). (2.44)


;1 Cette definition depend du choix de la base (e., Cl , e3)' mais nous verrons
, On remarquera, en particulier, que
I dans 2.7.13 qu'elle n'en depend pas si ce choix est fait parmi les bases orthonor­
males directes.
La i-ieme composante de X x y est Ie determinant des deux colonnes
..,
a(x x y) = (ax) x y = X x (ay), (2.45)
(

(
ce qui nous permet d'omettre les parentheses et d'ecrire ax x y sans danger
X\ YI (
d' ambiguite.
x 2 Y2 (2.41)
(
X3 Y3
(
privees de leur i-ieme terme, Ie deuxierne determinant etant cependant pris avec
Ie signe -: 2.7.11 Proprietes metriques du produit vectoriel (

X X Y= IXX3 Y3Y21el -IXX3 Y3Ylle2 + IXIX2 YlYlle


2 I
3• (2.42) Les vecteurs X et y etant supposes non nuls, le produit vectoriel de X et y (
est
(
Cas particuliers :
(a) orthogonal X eta ay, (
e l x e l = e z x e2 = e3 x eJ = 0, (b) de norme II X 1111 y II sinO, ou 0 est I'angle de X et y.
e l x el = e3, ez x eJ = e. , e J x e l = ez. (
(
( 71
Produit vectoriel et produit mixte
70 Espaees veetoriels euclidiens er espaces affines euclidiens
(

(
En effet, d 'apres (2.42), (2.28), 2.7.2 et (b) de 2.7.3, raisonnement, compte tenu de I'assertion (2) de 2.7.7, nous voyons que
( e; x e; = e; et e; x e; = e; . Soit maintenant X;, x;,x;
et Y;, Y;, y;les eomposantes
respectives de x et y dans la base (e;, e;, e) . Grace a (a) et (b) de 2.7.10, nous
(
I
(x I x x y) = XI X2 Y2! - X21 Xl Yll
X3 Y3 X3 Y3
+ X31 XI YI
X2 Y2
I XI XI YI

=
x2 X2 Y2 = 0,
x 3 x 3 Y3
pouvons ecrire
(

( ee qui montre que x x y est orthogonal a x et done aussi a y, puisque x x y = x x y = (.=1


.~x;e;) x (\i=1
~Y;~;) = .=1)-1
.~ .~ x;Y;e; x e;
-y x x. D'autre part, d'apres (2.40), (2.29), (2.28) et (2.23),
( = (x2Y) - xJy2)e; + (xJy; - x;y)e; + (x;y; - x2Y;)e),
2
II x x Y 11 2 = (XV'3 - XJYV +
(XJYI - XIY3)2 + (XIY2 - XV'I)2

ee qui montre I'invarianee de (2.40).


. = (xi + ~ + ~)(yi + Y~ + Y~) - (XtYl + X2Y2 + XJY3)2

211 2 2
= II x 11 y 11 sin 0, '.
ce qui demontre (b). 2.7.14 Produit mixte
On remarquera que dans Ie cas ou E est l'espace vectoriel geometrique 0 , On appelle produit ~ixte des vecteurs x, y et z Ie double produit (x I y x z),
\t : ; la norme II x 1111 y IIsinO du produit vectoriel represente l'aire du parallelograrnme D'apres (2.23), si x et y x z sont non nuls.Ie produit mixte de x, y et z s'ecrit
eonstruit sur des representants de x et y d'origine commune (fig. 2.3). aussi sous la forme
I'
I (2.47)
II xliII y x z 11 cosO,

\ ou 0 est I'angle de x et y x z.
:if~ 3
On remarquera que dans Ie cas ou E est l'espaee vectoriel geometrique V ,
Ie produit rnixte, ecrit sous la forme (2.47), symbolise Ie volume (oriente) du
parallelepipede eonstruit sur des representants de x, y et z d'origine commune
~, (fig. 2.4).

2.7.12 Orientation

Si x et y sont lineairernent independants, Ie triplet (x x y, x, y) et done aussi


1"\
Ie triplet (x, y, x x y) sont directs.
1­;01 xc" , ... < <
. 'e~

En effet, ZI, Z2' Z3 etant les eomposantes de x x y (dans la base (e l , e2, e3 », '~~
';".L

~r.
Ie determinant de passage de (e l , e2' e3) a (x x y, x, y) s'ecrit
:}
ZI XI YI
g,
z2 x2 Y21 = zi + ~ + ~ . (2.46) £:

'lS. y
Z3 X3 Y3

I
Fig. 2.4
Ce determinant est done positif, puisqu'au moins un des z, n'est pas nul, d'apres
(c) de 2.7.10.
2.7.15 Produit mixte en fonelion des composantes
i' ;t
( ,~. Soit XI' x2, X3' YI, Y2'Y3 et ZI' Z2' z3 les eomposantes respectives de x, y
2.7.13 Independance du produit vectoriel du choix de la base orthonormale directe
( ~ et z dans une base orthonormale directe. D'apres (2.42), (2.28) et 2.7.2,
~:~
L'expression du produit vectoriel (2.40) est invariante par ehangement de
( XI YI ZI

I I I I I I

base orthonormale directe. Soit en effet (e;, e;, e;) une telle base. Selon les proprie­ (x I y x z) = XI Y2 z2 ._ X2 YI ZI + X3 YI ZI = X2Y2 2Z I, (2.48)
tes metriques 2.7 .11, e; x e; est soit e;, soit -e;. D 'apres 2.7.12, Ie triplet (e; , e;, y 3 z3 y 3 z3 y,.
2 ~2
( X3 Y3 Z3
e; x e;) est direct, done e; x e; = e;, vu l'assertion (I) de 2.7.7. Par Ie meme
(
(\
(
(
72 Espaces vectoriels euclidiens et espaces atlincs euclidiens Espaces atlincs euclidiens 73 (
(
donc l'expression du produit mixte en fonction des composantes est Ie determinant ce qui etablit (2.51). Pour obtenir (2.52), il suffit d'appliquer (2.50) au double (
des vecteurs-colonnes des composantes. II s'ensuit, grace a la commutativite du produit vectoriel u x (z x v), ou u = x x y, car cela donne, compte tenu de
produit scalaire et a (a) de 2.7.3, que (2.49), (
(x x Y I z) = (z I x x Y) = (x I Y x z), (2.49) (x x y) x (z x v) = (x x y I v)z - (x x y I z)v = [x, y, vIz - [x, y, z)v, (
ce qui montre que I'ordre dans lequelles deux produits sont effectues est indifferent ce qui prouve (2.52). (
et justifie la notation suivante:
L'identite (2.50) montre, en particulier, que Ie produit vectoriel n'est pas
(
associatif, c'est-a-dire qu'en general
(
2.7.16 Notation x x (y x z) '" (x x y) x z. (

Desormais Ie produit rnixte des vecteurs x, Y et z sera note [x, y, z). (

2.8 ESPACES AFFINES EUCLIDIENS (


2.7.17 Proprietes du produit mixte

Le produit mixte jouit des proprietes suivantes:


2.8.1 Introduction - (
(a) [x, y, z) = [z, x, y] = [Y, z, x) = -[y, x, z] = -[z, y, x] = -[x, z, y).
Le concept d'espace affine defini dans la section 1.9 met en relation un
(b) [ax + fly, z, v] = a[x, z, v] + fJ[y, z, v].
espace ponctuel avec la structure lineaire d'un espace vectoriel. Dans un espace
(c) [x, Y, z) '" 0 si et seulement si x, y et z sont lineairement independants.
affine, des notions comme la distance ou l'orthogonalite n'ont pas de sens. Pour
La premiere et la troisieme de ces-proprietes decoulent de la relation (2.48) leur en donner un, il faut munir I'espace vectoriel directeur d'un produit scalaire.
jo inte respectivemenl a (a) et a (b) de 2.7.3. La deuxierne resulte de la definition Le but de cette section est precisement d'exarniner les consequences qu'implique
2.7.14 jointe a (b) de 2.2.2. I'introduction d'une telle operation.
En particulier, la propriete (a) montre que Ie produit mixte est invariant par

permutation cyclique.

Par (2.48), la propriete (b) resulte aussi immediatement de (2.38). Elle 2.8.2 Espaces affines euclidiens
exprime la linearite Ii gauche du produit rnixte (cf. 6.2.2). La linearite au centre et (
Soil e un espace affine de direction E. On dit que if' est un espace affine
Ii droite suit de I'union de (a) et (b).
euclidien si E est un espace vectoriel euc1idien. (
,
,;
,~) En vertu de 1.10.5 et 2.2.3, tout sous-espace affine d'un espace affine (
i:, euc1idien est lui-meme un espace affine euc1idien.
.~.
2.7.18 Quelques identites vectorielles '(,. (
"
Voici trois identites vectorielles d'utilite pratique : (
2.8.3 Exemples
x x (y x z) = (x I z)y - (x I y)z, (
(2.50) (I) L'espace '?) de la geometric elementaire est un espace affine euc1idien,
(x x y I z x v) = (x I z)(y I v) - (x I v)(y I z), (2.51)
car I'espace directeur V qui lui est associe est un espace vectoriel euc1idien. (
(x x y) x (z x v) = [x, y, vIz - [x, y, z)v.
(2.52) (2) Dans l'exernple (2) de 1.9.7, il est montre que tout espace vectoriel Epeut
(
Le lecteur pourra verifier aisement (2.50) au moyen des composantes dans etre considere comme un espace affine d'espace directeur E lui-meme. Cet espace

une base orthonormale directe. Par (2.49), la premiere croix et la barre peuvent affine est euc1idien si E est euc1idien. (

etre echangees dans Ie premier membre de (2.51); grace a (2.50), il s'ensuit que (3) Tout espace affine de dimension finie peut etre rendu euc1idien par Ie
W
:1:1, (
.~ precede indique dans 2.5.7.
(x x y I z x v) = (x I y x (z x v) .~
(4) L'ensemble des solutions du systeme (1.15) est un sous-espace affine (
= (x I (y I v)z - (y I z)v) = (x I z)(y I v) - (x I v)(y I z), euclidien de JR.3.
(J (,..
c
(
Espaces affines euclidiens 7S
74 Espaces vectoriels euclidiens et espaces affines euclidiens
(
(
2.8.4 Distance et ses proprietes est orthogonal Ii S. D'autre part, si Q est un point de !/ tel que QP est orthogonal
(
. ::t~ Ii S, en ecrivant
Dans la suite de cette section, if designera un espace affine euclidien. Le ':«:
(
(

(
lecteur desireux de se familiariser de nouveau avec la notation est prie de se
reporter Ii la section 1.9.
On appelle distance des points Pet Q Ie nombre t5(P, Q) defini par
.
'\fr
.....
,'
.~.
QR = QP - RP,
nous voyons que QR est un vecteur de S orthogonal Ii S, done Ii lui-meme. Par
consequent, QR = 0, ce qui entraine Q = R .
;f
( t5(P, Q) = II PQ II . (2.53) .;
1­ p
Des regles (I), (2) et (3) de 1.9.5 et des proprietes de la norme vues dans 2.2.5, :j,,'
il resulte que t5(P, Q) = t5(Q, P), que t5(P, Q) est positif si les points Pet Q sont .~
distincts et nul s'ils sont confondus. De la condition (b) de la definition 1.9.2 et ;~
'j.. o
de (2.22), il resulte en outre que tout triplet de points (P, Q, R) verifie l'inegalite
'

triangulaire: ~
l'1

t5(P, R) ~ t5(P, Q) + t5(Q, R). (2.54)


~.
'\
.~
Cette inegalite est une egalite si et seulement si P, Q et R sont alignes, c'est-a-dire projsPl'
;~
appartiennent Ii une merne droite.
... .:j

~i
):
I i
I
' j~
j' .: ~

,~
Fig. 2.5
I
j: 2.8.5 Sous-espaces aflines orthogonaux .~
i
On dit que deux sous-espaces affines de if sont orthogonaux, ou que l'un 1:i
i
d'entre eux est orthogonal Ii l'autre, si leurs espaces directeurs sont orthogonaux.
'E 2.8.8 Perpendiculaire par un point a un sous-espace affine
1 Soit .Y un sous-espace affine de if de dimension finie. Soit en outre P un
,.~
~
point de t n'appartenant pas Ii Y. On appelle perpendiculaire par P Ii .Y la droite
2.8.6 Vecteur normal a un byperplan ! determinee par Pet proj yP.

Lorsque if est de dimension finie non nulle, on appelle vecteurnormal Ii un ~


,
hyperplan !/ de l ' tout vecteur normal Ii la direction S de .Y . Ainsi, une droite
orthogonale Ii un hyperplan .Y a pour vecteur directeur un vecteur normal Ii .Y . ia·
'::i'
2.8.9 Distance d'un point a un sous-espaee affine

1 Soit .9' un sous-espace affine de if de dimension finie. On appelle distance


( \

( , d 'un point P II .Y, et l'on note dist(P, .9), Ie minimum de t5(P, Q), Q parcourant
2.8.7 Projection orthogonale d'un point s: Nous nous proposons de demcntrer que
( (2.55)
Soit .Y un sous-espace affine de ? de direction Set de dimension finie. Soit dist(P, Y ) = t5(P, proj y Pl·
(
en outre P un point de i£ . Nous allons demontrer qu'il existe un point R de .Y Soil Q un point de Y distinct de proj .'7 P. Comme (proj y p.Hi est orthogo­
( ) et un seul tel que RP soit orthogonal Ii S. Ce point R s'appelle projection orthogo­
nal Ii p(projyP), par (2.15) nous voyons que
nale de P sur Y et se note proj yP. 2
(
Soit Po un point quelconque de Y '. Posons R = Po + projs~et montrons t52(P, Q) = II PQ 11 2 =p(proj.9::P) + (projyP)Q 1:;...1_ _....
II
2 2
( ) que Rest la projection cherchee (fig. 2.5). D'apres (1.16), R est un point de .9; = II P(projyP) 11 2 + II (proj gP)Q u > II p(projyP) 11

en outre, d'apres (d) de 2.6.2, Ie vecteur = t52(P, proj yP),


(
~ - projs~ = ~ - P;;R = RP ce qui prouve (2.55).
(
( ,
(
(
76 Espaees veetoriels euclidiens et espaces affines euclidiens Espaccs affines cuclid iens 77
(
(
Lorsque P n'appartient pas a Y , la connaissance d'un vecteur directeur n nous deduisons la relation (
de la perpendiculaire par P a .9' pennet de calculer la distance de P Ii Y au moyen
" = ~ + a 'v' - avo (
de la fonnule
Posons
I (p;;p I n) I (
dist(P, Y ) = II proj.p;;p II (2.56) . (v I v') ,
II nil u =v - proJ"v = v - - - v .
(v' I v')
(2.58) (
ou Po est un point quelconque de .9'. Pour justifier cette formule, il suftit d'obser­ On notera que u n'est pas nul, car 9 et 9 ' ne sont pas paralleles, Supposons que (
ver que p;;p -
(projyP)P = Po(projy .p) est un vecteur orthogonal Ii n, ce qui la droite determinee par P et P' soit orthogonale a g et a g '. Alors Ie vecteur
(
no us pennet de conclure que . " est orthogonal a v et a v', done a u. En d'autres termes,
(
(~ I u) + a '(v' I u) - a(v I u) = O. (2.59)
(projyP)P = proj'/;;;P = (p;;p In)
(n I D) D. (
Mais
Si g' est de dimension finie non nulle et .9' est un hyperplan de if , tout (v' I u) = (v' I v) - (v I v') (v' I v') =0
vecteur n normal Ii .9' est un vecteur directeur de la perpendiculaire par P Ii .Y . (v' I v')
Lorsque la dimension de if est 3, un tel vecteur est fourni par Ie produit vectoriel et
(
VI x v ' ou VI' v sont des vecteurs directeurs de .9' (pour Ie cas general, voir (v I v')
2 2 (v I u) = (v I v) - - - ( v I v') = (u I u),
l'exercice 5.5.!3). (v' I v') -(

done l'equation (2.59) se reduit a


'J
2,8.10 Perpendiculaire commune a deux droites ga~es (PoPa I u) - a(u I u) = O. (

Soit !$ et !Z' deux droites gauches de if , c'est-a-dire deux droites non En posant (
paralleles et d 'intersection vide. Nous allons demontrer qu'il existe un unique point . (v' I v)
u' = v' - proJ v' = v' - - - v (2.60) (
P de 9J et un unique point P' de !$' tels que la droite determinee par Pet P' soit • (v I v) ,
orthogonale Ii 9 et a q '. Cette droite est appelee perpendicu/aire commune Ii 9 (
nous obtenons, de maniere analogue, l'equation
et Ii ;;;" (fig. 2.6).
(
(~ I u') + a'(u' I u') = O.
(
Nous en concluons que

a=
(PoP'o I u)
(u I u)
et
,
a =
-­ ,
(PoPO I u)
(u'l u') ,
(2.61)
(

ou u et u' sont definis dans (2.58) et (2.60). Par les representations (2 .57), ces (
valeurs de a et de a ' determinent les points P et P' cherches, En effet, Ie vecteur
(
" est orthogonal Ii u et Ii u', donc a v et Ii v', vu que ces deux vecteurs
appartiennent au plan vectoriel engendre par u et u'. (
(

2.8.11 Distance de deux droites gauches (

Soit .9' et .5/' des sous-espaces affines de if de dimension finie. On appelle (


Soit Po un point quelconque de g et P'a un point quelconque de g '. Soit
distance de Y et Y ', et l'on note dist(Y, .9"), Ie minimum de O(Pfr> P'O>, Po et PO (
en outre V un vecteur directeur de Y et v' un vecteur directeur de 2'. Des
parcourant respectivement .9' et .9". NoDS nous limiterons a examiner le cas ou
representations parametriques de !i7 et de !7' (
j et .:/ ' sont deux droites gauches, que nous noterons g et g '. Soit n un vecteur
P = Po + av et P' = PO + a'v', (2.57) directeur de leur perpendiculaire commune, P et P' respectivement Ie point de 9 (

\.
(
Espaces affines euclidiens 79
( 78 Espaces vectoriels euclidiens et espaces affines euclidiens

(
et Ie point de !fl ' appartenant acette perpendiculaire. Si Poest un point quelconque 2.8.14 Angle d'une droite et un sous-espace affme
\
(
de 9 et Po un point quelconque de 9 ', alors Soit 9 une droite de if de vecteur directeur v et .9' un sous-espace affine
1(~ln)1 de if de direction Set de dimension finie non nulle k. Si Y n'est pas orthogonale
( dist( Y, 9') = s», P') = II proj.~ II (2.62) a .9 , on appelle angle de 9 el .9' I'angle () des vecteurs v et projsv (fig. 2.8). En
II n II
( choisissant une base orthogonale quelconque (v" v2, ..., v*) de Set en exprimant
La verification de cette formule est analogue a celie de la formule (2.56); c'est projsv sous la forme (2.32), nous voyons aussitot que cos() est positif, done que
( pourquoi nous la laissons comme exercice au lecteur.
Dans Ie cas particulier ou la dimension de if est 3, on posera n = v x v' ,
() appartient a I'intervalle [0, i). Si 9 est orthogonale a .9 ~ I'angle de g, et ,9'
(
ou vest un vecteur directeur de 9 et v' un vecteur directeur de 9 '. est, par convention, ~ (c'est-a-dire I'angle de v et n'importe quel vecteur non nul
de Y ). 2
(
On remarquera que I'intersection de 9 et .9' peut etre vide. En particulier,
( notre definition d'angle s'applique a deux droites gauches.
2.8.12 Angle determine par trois points
.9
Supposons que les points Pet R soient distincts d'un point Q. On appelle
angle determine par P, Q, R, et l'on note PQR, I'angle des vecteurs QP et QR
(fig. 2.7).

Q
Fig. 2.8

(
p
Fig. 2.7
2.8.15 Angle de deux hyperplans

Si if est de dimension finie superieure a I, on appelle angle des hyperplans


.9' et Y ' de g l'angle () de deux droites 9 et g ' orthogonales respectivement
2.8.13 Theoremes de Pythagore et du casinos
a• c-
0 '
et a• (fig.2.9)
< £"
,J
evident que cos () = I (n I n') I, .
. II est eVI ou n et n, sont d es
Soit P, Q, et R comme dans 2.8.12. D'apres (2.24), II n 1111 n'lI
vecteurs normaux respectivement a y ' et aY '. II est egalement evident que lorsque
II RP 11 2 = II QP _ QR 11 2
if est de dimension 2, la presente definition de ()coincide avec celie du paragraphe
= II QP f + II QR 11 QP 1111 QR IIcos(PQR),
2
- 211 precedent.
ce qui s'ecrit aussi so us la forme

b 2(P, R) = b2(P, Q) + b2(Q, R) - 2b(P, Q)b(Q , R)cos(PQR). (2.63)


( g '
Dans Ie cas particulier ou PQR = ~, cela devient
( 2
( b2(P, R) = b 2(P, Q) + b2(Q, R). (2.64)

( Les relations (2.63) et (2.64) sont appelees respectivement theoremes du cosinus et


theoreme de Pythagore. On remarquera que (2.64) est encore vraie si P = Q ou
( ....
R = Q. g
~.
Fig. 2.9

( ,
(
80 Espaees vectoriels euclidiens et espaees affines euclidiens Espaces affine. euclidiens 81
(
(
2.8.16 Reperes orthononnaux Solution. En appliquant la formule (2.56) a P(O. I. -1.2), poCO. 0.0,2) et
n(l. -1.3, 1). no us obtenons <'
Supposons que !if soit de dimension finie non nulle n. On dit qu'un repere (
(0; e l • e2•...• e.) de if est orthonormal si la base (e l • e2' ...• eJ est orthonormale. 4 2
dist(P• .9') = Jfi. = Jf (

(2) Calculer la distance des deux droites gauches g et g' d'equations


2.8.17 Retour i "equation cartesienne d'un hyperplan
parametriques respectives
I'
i Encore sous I'hypothese que it est de dimension finie non nulle, considerons
un hyperplan .Y de !if de direction S. un vecteur n normal a Y et un point XI = 1 XI = -1 - 2a '

quelconque Po de Y '. D'apres (1.16). P est un point de Y si et seulement si Ie x2 = 1 + a x2 = 2 - a'

xJ = 1 + 2a. xJ = - 2a'. (
! vecteur P';P
appartient as. D'autre part. en vertu de (2.31). ce vecteur appartient
a S si et seulement s'il est orthogonal a D. L'hyperplan .Y est done constitue des
i; points P qui verifient l'equation
Solution. yeO. 1.2) est un vecteur directeur de g et Y'(-2. -I, -2) un
I, !I vecteur directeur de 9 '. En appliquant la formule (2.62) a Po(l. I. I), PO(-I. 2. 0)
et D = Y X v', nous obtenons
I! (n I p';p) = o. (2.65)

Munissons iif d'un repere orthonormal (0; el' e2' .... e.) et designons par dist(9. 9') = I~I = J-s. (
if, xg• •••• •~~
Ij les coordonnees de po. par XI' X2• .. . . x. celles de Pet par VI' v2• •••• v.
les composantes de n, L'equation (2.65) s'ecrit, de maniere equivalente, so us la (3) Les donnees etant celles du probleme precedent. determiner les points
-(

forme d'intersection P, P' des droites g , g ' et la perpendiculaire commune a g et (


'ii ,
VI(X I - xC:> + V2(X2 - X~ + ... + v.(x. - X~ = O. (2.66) a g'. (
Solution. En appliquant les formules (2.61) a Po(l. I. I). PO(-I. 2. 0),
ou encore yeO, 1,2) et Y'(-2. -1, -2). nous obtenons
VIX. + V:Z-~2 + ... + v"x. = t5. (2.67)
4, 1
a = S. a = - .
ou
o 0 0 ­ Les coordonnees des points cherches P et P' se calculent alors par (2.57) :
t5 = V1XI + V2X2 + ... + v"x. =
(n OP~. I (2.68)

L'equation (2.67) n'est rien d'autre que l'equation cartesienne de I'hyperplan 9 13 \


P(I. S. 5)' r(l, 3, 2).
Y (cf. 1.11.8). Elle est ici obtenue par un precede propre aux espaces affines
(
euclidiens. Ce precede montre que les coefficients du premier membre de cette
(4) Trouver la projection orthogonale du point PC-I. 1.2,3) sur Ie plan Y
equation sont les composantes d'un vecteur normal a I'hyperplan. Grace a (2.56). (
passant par Ie point PoCO. - I, O. - I) et de vecteurs directeurs YI (l, I, 0, 0) et
il fournit en outre une interpretation du second membre:
Y2(1, I, I. 1). Determiner. en outre. la distance de Pa Y . (
I t5\ = II n IIdist(O, Y ' ). (2.69) Solution. On voit aussitot que YI et Y2 - YI sorl't des vecteurs directeurs
(
orthogonaux de 51'. D'apres 2.8.7 et (2.32).
(
2.8.18 Problemes de geometrie analytique euclidienne . .' (PoP I YI) (JQ I Y2 - YI)
(
proJyP = Po + proJsPoP = Po + (Y I Y ) YI + (Y2 - Y I Y2 - YI )(Y2 - YI)'
I I I
La geometrie analytique euclidienne traite les problemes de la geornetrie
(
euclidienne (distance. orthogonalite, angles....) par des calculs dans JR'. Dans les ce qui nous permet de calculer les coordonnees de projyP. soit 1, ;-t, 3. 2.
exemples suivants.I'espace affine euclidien est suppose muni d'un repere orthonor­ (
La distance de P a .Y est egale a la norme du vecteur P(projyP). c'est-a-dire
mal.
(1) Determiner la distance du point P(O, I. -1.2) a I'hyperplan 5i' d'i:qua­
a JI3/2. <
tion (5) Trouver l'equation du lieu geornetrique des points equidistanta des (
XI - x 2 + 3xJ + x 4 = 2. points PI(I. O. 2. -I) et P2(0 . I. -I. 1). (
(. .,
(

(
82 Espaces vectoriels euclidiens et espaces affines euclidiens Exercices 83
(
(
Solution. Un point P(x" X2' X3' X4) est situe a egale distance de PI et de P2 2.9 EXERCICES
(
si et seulement si
( (x, - 1)2 + ~ + (x 3 - 2)2 + (x 4 + 1)2
2.9.1 Lesquelles des operations definies ci-dessous sont des produits scalai­
( = x7
+ (x2 - 1)2 + (x 3 + 1)2 + (x 4 - 1)2.
res dans R 3?
( En developpant les cartes, on voit aisement que cette equation se reduit a (a) (x I y) = xLY. + x2Y2 + x2Y3 + -"3Y2 + 2X3YJ.
2x 1 - 2x2 + 6X3 - 4x 4 = 3. (b) (x I y) = xIY. + X2Yz - 3X2Y3 + x 3Yz + X3YJ.
(c) (x I y) = xIY, + X2Y2 + xiYz-
C'est l'equation d'un hyperplan, appele hyperplan mediateur du segment de
droite P 1P2• Meme question rapportee aux espaces vectoriels respectifs CI_1. II ' CIO. » )
et CIR :
(6) Determiner l'equation du cone de revolution de sommet P(3, 0, 3) et
dont I'intersection avec le plan !/ d'equation (d) (f I g) = j rf(t)g{t)dt.
-I
2x 1 - x2 + 2x 3 = 3 (e) (f1 g) = Stf2(t)g{t)dt .·

est un cercle de rayon 3. o

Solution. En appliquant la formule (2.56) a P(3, 0, 3), Po(O, - 3,0) et (I) (f I g) = Se-'f(t)g(t)dt.
0(2, -1,2), nous obtenons -»
m •
dist(P, Y ) = I ~91 = 3. 2.9.2 Pour tout couple de polynomes p(t) =:E a/ et q(t) =:E P/, posons
i .. O i .. O

min(m •• )
La tangente de I'angle () des generatrices et l'axe du cone est done
(
(P I q) = :E a /Pi'
i -O
3
tg(}=-=I (a) Montrer que l'operation ainsi definie est un produit scalaire dans I'espace
3 '
vectoriel des polynomes,
ce qui entraine () =~ . Soit Q(x., x2' x 3) un point quelconque du cone dis­ (b) Exhiber. une famille infinie de polynomes orthonormale pour ce produit sea­
laire .
tinct de P. L'angle du vecteur directeur 0(2, -1,2) de I'axe du cone et

PQ(x. - 3, x 2, X3 - 3) etant ~ ou 3;, il s'ensuit, grace a (2.23), que


2.9.3 Montrer que pour tout couple (x, y) de vecteurs d'un espace vectoriel
, J2 euclidier;,
( 2(x, - 3) - x 2 + 2(x 3 - 3) = «XI - 3)2 + ~ + (x3 - 3i)'I··3·(±-).
2
11 2 + 211 Y11 2 (identiti' du parallelogramme).
( II On notera que les coordonnees de P verifient egalement cette equation. 11 ne reste
" x + Y,,2 + II x - y "z = 2" X

( :1 aloes plus qu 'a elever les deux membres au carte et a developper ces cartes pour
obtenir l'equation dernandee: 2.9.4 Montrer que dans un espace vectoriel euclidien la somme et la diffe­
( rence de deux vecteurs de rnerne norme sont orthogonales.
(
x7 + 7x~ + ~ + 8x1X2 - 16x1x3 + 8X2X3 + 42x, - 48x 2 + 42x3 = 126.

( 2.9.5 Par Ie precede de Gram-Schmidt, orthogonaliser Ie triplet de vecteurs


( de R 4
I 0 o
( o 0 3
2' I" -II).
(
o -I o
\.
t I
\

(
85
84 Espaces vectoriels euclidiens et espaces affines euclidiens Exercices
<"
(
/
2)1.6 Soit (e., ~, eJ' e4) une base orthonormale d'un espace vectoriel euc1i­ 2.9.13 Soit S Ie sous-espace vectoriel de C[_~. ~J forme de tous les polynomes (
dien de dimension 4. Par Ie precede de Gram-Schmidt, orthogonaliser Ie triplet trigonornetriques.
II ' (a) A I'aide de (2.34), montrer que SJ. = {O}. (prendre un f de SJ. et s'assurer que
(
de vecteurs (x., x z, x J), ou XI = e l + e2 + eJ + e4' Xz = e2 + eJ + e4 et
1: xJ = e J + e4• fA: = 0.) <
(b) En deduire que S n'adrnet aucun complementaire orthogonal dans C[-~.~J
// (autrement dit, que S $ SJ. i' C[_x.~I)·
~ A I'aide de l'inegalite de Cauchy-Schwarz, montrer que (

I ' .j5
SJf+7dl <-. 2.9.14 Soit E un espace vectoriel euc1idien, oriente et de dimension 3. A
0 _ 2
quelle condition doivent satisfaire deux vecteurs donnes y et z de E, pour que
l'equation vectorielle x x y = z ait au moins une solution Xo dans E? Quel est (
alors l'ensemble des solutions?
(

L
p
2.9.. Exprimer 10 "''''''-<010000 [-:] sous I, forme d'une combinai­

son lineaire des vecteurs-colonnes 2.9.15 Soit E comme dans I'exercice precedent. Dernontrer les identites
(
vectorielles suivantes:

i!r
j
II·
J3 _~ , J2 ~ , J6 =~
I [ I] I [I] I [ I']
. (a) (x x (y x z) + (y x (z x x» + (z x (x x y» = O. (Utiliser"(2.50).)
(b) (x x y I (y x z) x (z x xj) = [x, y, zf. (Utiliser (2.51) ou (2.52).)
lv, y, z] [x, v, z] [x, y, v] ([ U .. )
"(

I; t
' (c) v = -I--]x + - - ] y + - - ] z x, y, z] i' 0). ( tiliser (2.52).
! ~.
x,y,z [x,y,z Ix,Y,z /
q 2.9.9 Soit (e l , ez, ..., eA:) une famille orthonormale de vecteurs d'un espace
Exercices sur les espacesaffines euclidiens

i, vectoriel euc1idien E. Montrer que pour tout vecteur x de E,


A:

Dans les exercices suivants, lorsqu'il est sous-entendu que l'espace affine
euc1idien est muni d'un repere, celui-ci est suppose orthonormal.
(

(
~ 2
I
!

L (x I e;i
;=1

II x 11 •

! Dans quel cas les deux membres sont-il~..~g~ux? 2.9.16 Calculer la distance du point P(O, I, -1,2) a I'hyperplan d'equation
~~
, XI - Xz + 3xJ + x 4 = 2. (

(
2.9.10 Soit E un espace vectoriel euc1idien de dimension 4, muni d'une base
2.9.17 Trouver l'equation de l'hyperplan mediateur du segment d'extrerni­
orthonormale. Determiner la projection orthogonale du vecteur x(3, 2, -2, -I) (
tes N3, -2, 5, -I) et P2(- 3, 1,2,4).
sur Ie pf~n vectoriel de E engendre par les vecteurs vl (1, 0, -I, I) et v2(1, 0, 0, I). (
(
2.9.18 Trouver les equations pararnetriques des bissectrices des deux droites
2:9.11 Soit E un espace vectoriel euc1idien de dimension 4, muni d'une base passant par Ie point Po(-I , 2, 1,3), de vecteurs directeurs respectifs v(l, -3,2,2) (
orthoriormale, Soit S Ie sous-espace vectoriel de E engendre par les vecteurs et v'(4, 0, I, I). (
VIO, I, I, I) V2( -3, I, I, I) et V3(0, -2, I, I). Determiner Ie cornplementaire
orthogonal de S dans E. (
2.9.19 Determiner la projection orthogonale du point P(-I , I, I, I) sur Ie (
plan passant par Ie point Po(O, 1,2, -I), de vecteurs directeurs vl(-l, 0, 2, I) et
viO, I, I, -I). Calculer en outre la distance de Pace plan.
(
2.9.12 Calculer la meilleure approximation de la fonction f(t) == r2 de
Cl- u l par des polynomes trigonornetriques d'ordre inferieur ou egal a k . (
(
;
(
87
l 86 Espaces vectoriels cuclidiens et espaces affincs cuclidicns
Excrciccs

(
( 2.9.20 Dans un espace affine euclidien, oriente et de dimension 3,on consi­
2.9.27 Les quatre sommets d'un tetraedre sont p.(l, I, I), P 2(- I, 2, I),
dere un point Pet la droite 9 passant par Ie point Po et de vecteur directeur Y.
P 2, 3) et P • Trouver les coordonnees du point P4 , sachant qu'il appartient a
( 4
Montrer que
la3(5,
dro ite passant par Po(I, 0, I), de vecteur directeurv(-2, -1,3), et que Ie volume
~ du tetraedre est 5.
dist(P g ) = II P;P x Y II.
, II Y II
"

(
( 2.9.21 Determiner la perpendiculaire commune et la distance des deux

droites d'equations pararnetriques respectives

(
XI = a XI = a'

x2 = I x2 = I - a'

x) = -I + a x) = 0

x 4 = 2 - a, X4 =- 1 + 2cx' .

2.9.22 Calculer l'angle de la droite passant par Ie point Po(l, I, I, I), de


vecteur directeur Y(O, I, -1,0), et Ie plan passant par Ie point Qo(l,O, -I, I),
de vecteurs directeurs YI(I, 1,0,0) et Y2(O , I, I, -I).

2.9.23 Determiner I'angle que forment la droite et l'hyperplan de l'exer­


cice 1.12.18.

2.9.24 Determiner l'angle des deux hyperplans d'equations respectives


XI - 3x2 + x) - 2x 4 - Xs = 2 et 2x I- 2x 2 - 3x) + 2X4 + 2x s = - I.
~

2.9.25 Soit tff un espace affine euclidien de dimension finie superieure Ii I.


(a) Montrer que les equations des hyperplans bissecteurs des deux hyperplans
de if d'equations respectives (01 I x) = c:5 1 et (021 x) = c:52 sont donnees par

(0Il x) - c:5 1 = +.:...(°..:.2.:...


' x...:.)_-_c:5..:2

I
'l?
II II - II

i
01 0211 •

(b) Appliquer ce resultat Ii °1(1, -1 ,3,1,2), °2(- 1, 2, 4, 0, -2), c:5. = -I et


( c:5 2 = 2.

( '~
'I!'
-:/,
( 2.9.26 Dans un espace affine euclidien, oriente et de dimension 3, on consi­
~~
dere .trois points PI' P 2, p) non alignes et on pose O. = pi'IP2' O2 = P/'2P) et ~..
(
0) = p/')p r- A I'aide du produit vectoriel, demontrer que .....-,'
( " I"

sinO I sin O2 sinO)

c:5(P , P ) (theoreme du sinus).

( c:5(P2, r, c:5(P I , r, I 2

<.
\
(
(
(
(
CHAPITRE 3
I
(
-

(
' .. ,
Systemes lineaires (
I

.1
(
I

-f",
(
3.1 DEFINITIONS ET EXEMPLES

I 3.1.1 Introduction

Nous avons deja eu 'l'occasion de constater que la resolution de certains


(

problemes lies aux notions de sous-espace vectoriel et de sous-espace affine se


reduit Ii la recherche des solutions d'un systeme d'equations lineaires, D 'un point
de vue plus general. on voit souvent que des problemes d'origines les plus diverses

,I se traduisent en tennes d'equations lineaires. Le present chapitre exposera les


principaux resultats de la theorie des systemes d'equations lineaires. L'idee Ii la
base de notre etude est simple: par une succession d'operations elementalres sur

-(

J
t les equations. Ie systerne est transforme en un systeme echelonne equivalent que

'ifr I'on peut resoudre facilement. Le precede de transformation est connu sous Ie nom

de methode de Gauss ou methode d'elimination des inconnues.

;;.
..
3.1.2 Systemes Iineaires (
~

i
On appelle systeme lineaire, ou simplement systeme, toute famille d'equa­ (
tions de la forme
(
allx l + a l2x2 + + a••x. = b,
(
.~ a2l x, + anX2 + + a~x. = b2
(3.1)

I
(
amlx. + am2x2 + ... + anurX. = bm•
(
~L
ou all' au, .... a"", sont des nombres appeles coefficients du systeme, bl' b1, .... bm
(
des nombres appeles coefficients du second membre et XI' X2' ...• x. des nombres
inconnus appeles inconnues du systerne, Si les coefficients du second membre sont (
tous nuls, on dit que Ie systeme est homogene. On appelle systeme homogeneassocie
(
au systeme (3.1) Ie systeme que I'on obtient de (3.1) en substituant des zeros aux

coefficients du second membre. (

(
3.1.3 Ecriture abregee
(
~~
'9i On ecrit souvent Ie systeme (3.1) sous la forme abregee suivante :
.~
(
-;;
• (
1 ~ ai;-"j = b., i = 1,2...., m. (3.2) ,
;~ 1

( )
(

( 91
90 Systemes linealres Definitions ct exemples
(
(
Une ecriture encore plus condensee sera introduite dans I'exemple (5) A I'aide de la premiere equation. exprimons x I en fonction de X2 et xl:
( de 4.1.7 . (3.4)
XI = t(-I + 3X2 + 2x l ) ·
(
Substituons ensuite l'expression ainsi obtenue Ii XI dans les deux autres equations
( 3.1.4 Solutions d'un systeme de (3.3):
( On appelle solution du systeme (3.1) tout n-uplet de nombres (x1. x~, ...• x~ !(-I + 3X2 + 2xl) - x 2 + 3Xl = -I

( tel que -t(-I + 3x2 + 2x l ) + 4X2 + 3x 3 = 3.

• En multi pliant chaque membre par 3 et en groupant les termes, no us obtenons


( r.a;;cJ = b., i= 1.2• ...• m.
(
j-I
9X2 + 17xl = I (3.5)
Resoudre un systerne signifie trouver I'ensemble des solutions de ce systeme. Deux 6X2 + 5xl = 7.
(
systemes Ii n inconnues sont dits equivalents si toute solution de I'un est solution
A I'aide de la premiere de ces deux equations, exprimons Ii present X2 en fonetion
de l'autre, autrement dit, s'ils admettent Ie meme ensemble de solutions. On dit
de Xl et substituons l'expression obtenue Ii X2 dans la deuxieme equation. Apres
parfois que les equations d'un systeme sont compatibles ou incompatibles, suivant
simplification, il reste
que ce systeme admet au moins une solution ou n'en admet aucune.
(3.6)
Xl = -I
Par substitution de cette valeur Ii Xl dans l'une des deux equations (3.5). nous
3.1.5 Interpretation geometrique determinons la valeur de X2' soit X2 = 2. Nous calculons finalement la valeur de
XI par (3.4). ce qui nous donne XI = 1. Le systerne (3.3) admet done I'unique
Supposons que les premiers membres des equations du systeme (3.1) soient
solution XI = I. X 2 = 2. xl = -I.
non nuls. D 'apres 1.11.8, chacune de ces equations represente alors un hyperplan
Les deux equations (3.5) s'obtiennent plus rapidement en soustrayant la
d'un espace affine de dimension n. Par consequent. l'ensemble des solutions du
premiere equation de (3.3) multipliee par 4 de la deuxieme multipliee par 3 et en
systeme, regarde eomme ensemble de n-uplets de coordonnees, represente une
additionnant la meme equation multipliee par 2 Ii la troisierne multipliee par 3. De
intersection finie d'hyperplans, Selon 1.10.7, une telle intersection est un sous­
meme, nous obtenons l'equation (3.6) en soustrayant la premiere equation de (3.5)
espace affine ou I'ensemble vide. Du point de vue geometrique, resoudre un
multipliee par 2 de la deuxieme multipliee par 3, puis en divisant les deux membres
systeme admettant au moins une solution revient Ii chercher les equations parame­
par - 19. Ces operations reduisent Ie systeme (3.3) au systeme equivalent
triques (1.19) de ce sous-espace affine.
3xI - 3x2 - 2x 3 = - I
9X2 + 17xl = I
(3.7)
Xl = -I

3.1.6 Exemples
que l'on resout par substitution. comme il a ete indique ci-dessus. Par la suite, c'est
(I) Le systeme
cette variante de la methode d'elimination des inconnues qui retiendra notre
XI + x2 = I attention.
XI + x2 = 0
(3) Nous allons main tenant resoudre Ie systeme
(
n'admet aueune solution. car les deux equations se contredisent I'une I'autre. Ces
( equations representent deux droites paralleles, xI - x2 + 2x l = 0 (3.8)
3x I + 2x 2 - 3Xl = 2.
( (2) Nous nous proposons de resoudre Ie systeme
Eliminons I'inconnue XI de la deuxieme equation en soustrayant la premiere
( I 3xI - 3X2 - 2x 3 = -I equation multipliee par 3 de la deuxieme. Cette operation reduit Ie systerne (3.8)
4x I - x 2 + 3X3 = -I (3.3) au systerne equivalent
( i
- 2x I + 4x 2 + 3X3 = 3
( \
XI - x 2 + 2x) = 0 (3.9)
par la methode d'elirninaticn des inconnues. 5x2 - 9xl = 2.
( \

( I
~

(
92 Systemes lineaires Existence et unicite des solutions 93 (
(

Pour resoudre ce systeme, nous assignons aXl une valeur arbitraire c, exprimons 3.2.2 Notation (
x2 a a
en fonction de (X l'aide de la deuxieme equation, puis XI l'a ide de la premiere
Nous assignerons aux matrices des symboles propres, a savoir les lettres (
equation . II en resulte que les solutions du systeme (3.8) sont les triplets de nombres
latines majuscules imprimees en caractere gras: A, B, ... . Toutefois, les matrices­
de la fonne (
colonnes seront egalernent designees par les symboles reserves aux vecteurs: a, b,

... ; nous les appellerons d'ailleurs indifferemrnent matrices-colonnes ou vecteurs­ (

XI = ! -!a colonnes.

X2 = ! + ja (3.10) (
Xl = (X,
(
3.2.3 Matrices nuUes et matrices-unites
ou (X parcourt JR. L'ensernble des solutions represente done une droite.
On appelle matrice nulle, et on note 0 , toute matrice dont chaque tenne est (
nul. Les matrices-colonnes nulles sont egalement designees par Ie symbole
(
vectoriel O.
On appelle matrice-unite d'ordre n, et on note In ou simplement I, la matrice (
3.2 EXISTENCE ET UNICITE DES SOLUTIONS carree d'ordre n
(
10 0
'(
oI 0
(3.12)
3,2.1 Matrices ,(
00 .. . I
On appelle matrice a.m
lignes et n colonnes, ou matrice de type m x n, tout
Nous verrons au chapitre suivant que 0 joue Ie role d'elernent neutre de
tableau rectangulaire de nombres
I'addition matricielle et I d'element neutre de la multiplication matricielle.

all a l2 alj a'n


a2l an a"1j am

ail ai2 . . . aij .. am I­ (3.11)


3.2.4 Rang d'une matrice

Soit ai ' a2' ..., an les colonnes d'une matrice A. On appelle rang de A, et on
.. . . . . (
note rgA, Ie rang de la famille (a:, a 2, . .. . a.) (cr. 1.8.2).
I am' am2 .. . amj .. aIM Par exemple, Ie rang de 0 est 0 et Ie rang de I. est n; les rangs des matrices
I (
I

~] , [-~ I 00-63]
I On designe souvent une matrice de type m x n plus brievement par 2 5 (
I 2I -25) '
II
(aij)'" i",m ou simplement par (aij)'
l"j"n
Le nombre aij est appele terme d'indices i.]. L'indice i est appele indice de
[i 3 -I
o 4 -I
3
-2
[ I 0 3
(

(
ligne et l'indice j indice de colonne . sont respectivement 3, 2 et I.
Lorsque m = n, on dit que (aij) est une matrice carree d'ordre n. Dans ce (
cas, les tennes all' a22, ... , ann sont appeles termes diagonaux.
(
a
On appelle une matrice une seule ligne matrice-ligne et une matrice une a 3.2.5 Matrices associees :i un systeme lineaire
seule colonne matrice-colonne. II est clair qu 'une matrice-colonne n'est rien d'autre (
qu'un vecteur-colonne. Par la suite, les lignes d'une matrice seront assimilees des a On appelle matrice associee au systeme (3.1) la matrice (3.11), c'est-a-dire
(
a
matrices-lignes et les colonnes des matrices-colonnes. la matrice A dont les termes sont les coefficients du systeme. On appelle matrice
a
L'interet de la notion de matrice apparaitra tout au long de ce livre, partir du secondmembre du systeme (3.1), ou simplement second membre du systeme (3.1), (
de cette section, mais la raison d'etre immedia te de cette notion est simplement de la matrice-colonne b = (b,.) dont les tennes.sont les coefficients du second membre
(
pennettre a certaines families finies de nombres d'etre concues sous la forme d'un de ce systeme. On appelle matrice augmentee associee au systeme (3.1) la matrice

1 tableau rectangulaire. obtenue de A en y ajoutant b comme (n + lj-ieme colonne. (


(
(
(

( 94 Systemes lineaires Matrices echclonnees 9S

(
(
(
Nous venons de definir les differentes matrices associees a un systeme, mais
il est egalernent utile de pouvoir parler du systerne hornogene associe a une matrice
donnee ou du systeme associe a une matrice augmentee donnee. Cette terminologie [-~
-3
-I
4
-2
3
3
-I]

-I
3
3L 2 - 4L I
3L J + 2L 1
(3.14)

(
s'explique d'elle -meme et nous ne nous attarderons done pas a la preciser davan­
tage.
[
3
0
0
-3
9
6
-2
17
5
-I]

~ -n(3LJ - 2LJ
(

(
3.2.6 Ecriture vecterielle d'un systeme IIneaire

Considerons un systeme de matrice associee A et de second membre b. [


3 -3
0
0
9
0
-2
17
I -I
I . -I] (3.15)
Designons par a •• a 2.... , a. les colonnes de A. Le systerne s'ecrit alors de rnaniere
equivalente sous la forme d'une equation vectorielle lineaire:
Le systeme associe a la matrice augrnentee (3.15) est Ie systeme (3.7). Suivant
xla l + x2a2 + ... + x.a. = b. (3.13) l'expression que nous allons introduire dans 3.3.5, la matrice (3.14) a ete reduite
En effet, les deux membres de cette equation sont les vecteurs-colonnes dont les
a la forme echelon nee (3.15) par des operations elementaires sur les \ignes. II est
peut-etre superflu de preciser que Ie symbole Lj utilise ci-dessus designe la i-ieme
i-iemes termes sont les deux membres de la i-ieme' equation du systerne.
ligne de la matrice contigue et que la formule suivant la i-ieme ligne indique les
D'apres la proposition 1.8.4. l'equation (3.13) admet au moins une solution
operations a elfectuer pour obtenir la i-ieme \igne de la matrice successive.
(x~. x~, .... x~ si et seulement si Ie rang de la famille (ai' a 2..... a.) est ega I au rang
de la famille augmentee (a•• a 2•• ••• a•• b). Selon la proposition 1.5.6. cette solution
est unique si et seulement si Ie rang de la famille (a •• a2. .... a.) est n.
A I'aide de la definition 3.2.4. nos conclusions se resurnent de la rnaniere 3.3.2 Matrices echelonnees
suivante:
On dit qu'une matrice est echelonnee si ses \ignes satisfont aux deux condi­
tions suivantes:
(a) Toute ligne nulle n'est suivie que de lignes nulles.
3.2.7 Proposition. Existence et unicite des solutions d'uR systeme llneaire
(b) L'indice de colonne du premier terme non nul de toute Iigne non nulle est
I Pour qu 'un systeme lineaire de rna/rice associee A et de second membre b superieur a I'indice de colonne du premier terme non nul de la ligne qui la
I
admette au moins une solution, if faut et if suffit que Ie rang de A soit egal au rang precede.
I de la matrice augmentee (A ib). Si cette condition est remplie.Ie systeme admet une Une matrice echelonnee non nulle est done de la forme
seule solution si et seulement si le rang de A est ega! au nombre d'inconnues,
al •
!.~!!. I·"·:· ":"":·1~Y.L.:....:...:.
\
autrement dit , les colonnes de A sont lineairement independantes.
aln
l
(3.16)

< I
o \ ~~!r. . . .:.. :. .:.. ~~.
< 3.3 MATRICES ECHELONNEES
( ouil < l: < ... < l, et aliI ' a2;2' .... a'i, sont des termes non nuls. Bien entendu, les
lignes nulles terminales peuvent manquer.
( 3.3.1 Exemple Les matrices nulles et les matrices-unites I. sont des matrices echelonnees,
( Deux autres exemples de matrices eehelonnees sont les suivants:
La methode employee pour reduire les systernes (3.3) et (3.8) aux systemes
( equivalents (3.7) et (3.9) est. en fait. un precede d'annulation de certains termes 2 o -2 1 2· -I

[~ ~]
2 -3 I
de la matrice associee au systeme par des operations sur les lignes de la mat rice o o 0 4 3 0
o 0-1
( augmentee, Voici, indiquee acote de cette mat rice, la suite des operations que nous o o 0 o 4 2 1,
000
( avons effectuees pour aboutir au systerne (3.7): o o 0 o o 0
(
97
96 Systemes lineaires
Matrices echelonnees (
(

3.3.3 Rang d'une matrice eehelonnee ia'2h


a;' (
(
Les colonnes d·indiceJ,h• ...•J,de la matrice (3.16) sont c1airement lineaire­ o
I
ment independantes, Envisagees comme des vecteurs-colonnes de R,'. elles forment (
I done une base de cet espace vectoriel. En considerant les autres colonnes egalement ja;'j2 a;""
i (
i comme des vecteurs-colonnes de R,'. nous en deduisons qu 'elles sont combinaison
I lineaire de celles d·indiceJI.h• .... J, et donc que Ie rang de la matrice (3.16) est r. foumit une matrice A(2). puis une matrice A()) et, ainsi de suite, jusqu'a A(m) ou (
i On notera que r est le nombre de lignes non nulles de la matrice (3.16) et jusqu'a ce que la seule Iigne non nulle d'une matrice A(') soit la premiere. A ce point,
I \
I
egalement le rang de la famille des lignes de cette rnatrice, puisque les lignes non
nulles sont manifestement lineairement independantes,
1a matrice transformee est de la forme

: (I) •• a(Inl )
~·~ ~!.1...·:·" ·"·"·1.~y.~i. : a(2)
2n

\
3.3.4 Operations elementaires sur les lignes d'une matrice
(3.17)

On appelle operationeJementaire sur les /ignes d'une matrice toute operation


o ·......1 a( ~ ) d:')
de I'un des trois types suivants :
........................
: 'Jr • • • ..........

rn

,(
Type I: echanger deux lignes.

\;i
I
Type 2: additionner a une ligne un multiple d'une autre ligne.

Type 3: multiplier une ligne par un nombre non nul.


,\

3.3.6 Pivots
Les termes a\}~, ag~, ..., a~J~ de la matrice (3.17) sont appeles pivots. Dans les
3.3.5 Reduction Ii la fonne echelonnee operations de reduction. les pivots servent a annuler certains termes des colonnes
dont ils font partie. Par extension, on appelle pivot d'une matrice echelonnee non
Toute matrice peut etre transformee en une matrice echelonnee par une suite
nulle tout premier terme non nul d'une ligne non nulle . Les pivots de la matrice
finie d'operations de type I et 2. On dit egalement que toute matrice peut etre
(3.16) sont donc alii' a'!j2' .... a,j, D'apres 3.3.3, Ie rang d'une matrice echelonnee
reduite alaforme echelonnee par une telle suite d'operations, Soit en effet A = (aij)
est egal au nombre de pivots qu'elle comprend.
une matrice de type m x n non nulle . Si m = I. A est echelonnee, Si m > I,
designons par J. Ie plus petit indice de colonne non nulle. En echangeant deux (
lignes, si necessaire, nous transformons A en une matrice A(I ) = (a~l) dont Ie terme
a\}: est non nul. En additionnant ensuite a chaque ligne d'indice i ~ 2 la premiere (
ligne multipliee par -aW/aU:. no us voyons que All ) se reduit soit a une matrice
3.3.7 Reduction a la fonne echelonnee simplifiee
(
de la forme Le precede employe pour parvenir a la mat rice echelonnee (3.17) peut etre
poursuivi. Plus precisement, chaque pivot peut etre utilise pour annuler tous les
' a (l) a(InI , autres tennes de la colonne dont il fait partie. Par exemple, nous annulons Ie terme (
:·..y !.....·......···] h
a2 a;' a\}~ en additionnant ala premiere ligne la deuxierne multipliee par ­ a\~/a~~. Apres
cette suite d' ope rations, nous divisons encore chaque ligne non nulle par son pivot.
(
o Nous obtenons ainsi une matrice echelonnee dont les pivots sont des 1 et les (
colonnes dont ils font partie des vecteurs-colonnes de la base canonique de R,m.
Une telle matrice est appelee matrice echelannee simplifiee. Ainsi, to ute matrice non
(
fa;"h . .. a:n,. nulle peut etre transformeeen une matrice echelonnee simplijiee par une suite finie (
d'operations elementaires sur les lignes. On dit egalement que toute matrice non
ou les termes a2h , ajh' ..., a;'j2 ne sont pas tous nuls, soit a une matrice dont les (
nulle peut etre reduite a laforme echelonnee simplifiee par une telle suite d'opera­
lignes d'indice i ~ 2 sont nulles. Dans Ie deuxieme cas, la matrice est echelonnee.
Dans Ie premier cas. Ie merne precede de reduction applique a la matrice tions . (
( .,
(

( I 98 Systemcs IinCaires
Matrices echclonnees 99

(
Voici deux exempl es de matrices echelonnees simplifiees :
( 3.3.9 Remarques

[~
I 2 0 3 0
_2J ( I) D'apres 3.3.5, la reduc tion d'une matrice a la forme echelonnee peut se

[~
( 0 0
(

(
0
0
0
0
0
0
I
0
0
-2
0
0
0
I
0
-I
1 •
0
1
0
0
"I -:) faire sans I'emploi d'operations de type 3. En pratique. toutefois, il est souvent plus
commode d'utiliser egalement ce type d'operation , notamment pour eviler l'intro­
duction de fractions, lorsque les termes de la ma trice sont des entiers (cf. exemple
3.3.1).
(
(2) Le lecteur aura note que la suite d'operations reduisant la mat rice (3.18)
3.3.8 Exemple de reduction
a la forme echelonnee (3. 19) n'est pas celie qui est exposee dans 3.3.5. Des
modifications du mecanisme de reduction analogues a celles que nous avons
(I) Nous allons redu ire la matrice suivante a la forme echelonnee: operees sont souvent avantageuses et va rient de cas en cas. Notre but evident eta it
d'eviter I'apparition de fractions .

[-~
10
.- 6
11
-7
-I
I -I
1 -41
27
OJ LL, - 2L.
o (3) Lorsqu'une ligne a ete modifiee, il faut se garder d'utilise r encore sa
2+L(
12 14 -2 2 -52 (3.18) forme non modifiee. Celli peut entrainer de graves erreurs, coinme Ie montre
6 L J - 3L(
4 5 -I 1 -19 3 l'exemple simple suivant:

h
2
-2
0
4
-2
1

- I
5 -I
I
0
I
-I
0
-I
I
-3
8
5
-19
-l .
-3
3

3
L 2 + L)

L( - 2L t
[~ -n L, + L2
L2 + L I [~ 2)2 L
L
L
L)
1 -
2 -
2
[~ ~) .

1 2 I I -I -3
0 0 -I I -I _6J 3.3.10 Conservation du rang

[ 0
0
0
0
-I
3 -3
1 -I
3
5
5
-13
-3
-3
IS
L J - L2 puis echanger
L( + 3L 2 L J et L(
Les operations elementaires sur les lignes d'une matrice ne modifient pas son
rang. En effet, si at, a2' .... an sont les colonnes d'une matrice A et ai. a2' .... a~ celles
de la matrice A' deduite de A par une operation de type I. 2 ou 3. alors to ute
I 2 I I -I -3 rela tion de la forme

[ 0
0
0
0
0
0
-I
0
0
I
0
0
-I
0
0
5
2
0
-6
-3
J
6 .
0
(3.19) cxlajt + CX2aj2 + ... + cxkajk = 0
impl ique la relat ion

cxlajl + cx2aj2 + ... + cx~jk = 0


(2) Pour reduire la mat rice (3. 18) a la forme echelonnee simplifiee, nous
multiplions d'abord la deuxieme ligne de (3. 19) par - I et divisons la trois ieme par et inversement, ce qui prouve qu 'a to ute famille libre de colonnes de A correspond
2; ensuite no us procedons ainsi: une famille libre de colonnes de A: et inversement, done que rgA = rgA:.
II est d'autre part evident que les operations elementaires sur les lignes d'une
I
0
2
0
I
I -I
I -I -3 -63J LL, +- L,5L - 2L, matrice ne modifien t pas Ie rang de la famille des lignes de cette matrice . Or, nous

(
[ 0
0
0
0
0
0
0
0
0
0
I -5

0
I 3
0
2 J avons observe dan s 3.3.3 que Ie rang de la famille des lignes d'une matrice
echelonnee est egal au rang de la famille des colonnes, c'est-a-d ire au rang de cette
matrice. Compte tenu de 3.3.5, nous en concluons que Ie rang de n'importe quelle
( matrice est egalemem Ie rang de la famille des /ignes de cette matrice.
I 2 0 2 - 2 0
( Comme corollaire de cette conclusion. il apparait que
0 0 I -I
(
I
I
[ 0
0
0
0
0
0
0
0
I
0
0
0
I
0
18
-"J

3 .
0
(3.20) rgA ~ min(m. n).

ou A est une matrice de type m x n.


(3.21)

(
100 Systemes lineaires Methode de resolution de Gauss 101 (
(
3.3.11 Reduction d'une matrice carree d'ordre n et de rang n 3.4.2 Resolution d'un systeme lineaire admettant exactement une solution (

Le rang etant conserve par les operations elernentaires sur les lignes, la forme Considerons un systeme de m equations a n inconnues, de matrice associee (
echelonnee sirnplifiee de toute matrice carree d'ordre n et de rang nest la matrice­ A = (a;) et de second membre b = (h;). Supposons que ce systerne admette une (
unite In. solution unique. Nous allons determiner cette solution par Ie precede de reduction.
D'apres la proposition 3.2.7, n = rgA = rg(A ib). On notera, au passage, que n (
~
est, dans ce cas, inferieur ou egal a m, par (3.21). D'apres 3.3.5, la matrice (
augrnentee (A ib) peut etre reduite a la forme echelonnee par des operations
3.3.12 Calcul du rang d'une matrice elementaires sur les !ignes. Puisqu'en vertu de 3.3.10 les rangs de A et de (A ib) ne (

Le rang d'une matrice peut etre determine par reduction la forme echelon­ a sont pas modifies par les operations de reduction, la matrice echelonnee aura la (
nee. Tres souvent, cependant, ce rang peut etre trouve avant que la forme echelon­ forme 'a'n . . . b;, (
nee ne soit atteinte. Voici un exemple :
!.~~. :....:..... . . . h2 (
I -I 2 -I I -I 2 -1
3 I 4 3 L 2 ­ 3L 1 0 4 -2 6 o
-5 -3 -6 -7 L) + 5L. 0 -8 4 -12
-2 2 -4 2 L4 + 2L, 0 0 0 0 1. ~~. . ~.;. - (
-1 1 1 I t, + L I 0 0 3 0
ou all' a22' ..., a;'" sont les pivots. Le systeme associe a cette matrice augrnentee
Le rang de la famille des !ignes et done de la matrice est visiblement 3. s'ecrit
al Jx. + al2x2 + + a1n-"n = hI
.... ~~ >:. a22-"2 + + a2n-"n = h2 (3.22)
:."7:'

. ', ~
W~
--J ....
a;",x. = h~.

..~.) fj~ METHODE DE RESOLUTION DE GAUSS D'apres 3.4.1, ce systerne est equivalent au systerne initial. Les inconnues x.' x 2'
..' ..... ."":
.:" ...., ..., x. peuvent etre determinees dans l'ordre inverse, en resolvant les equations
. r~-~~~~ successivernent de la derniere a la premiere, par substitution.
" ' " . ;.~ .: .' 3.... f Operations elementaires sur les equations d'un systeme Iineaire A titre d'exemple, nous allons resoudre Ie systeme
(
Effectuees sur les lignes de la matrice augmentee associee a un systeme, les X, + X2 + 2x) - 3x 4 = (
operations de type I, 2 et 3 sont l'expression d'operations sur les equations de ce 2x, + 3x 2 + 6x) - 5x 4 = 2
systeme. Ces operations transforment Ie systeme en un systeme equivalent. En 3x I - X2 + 2x) - 7x4 = 5 (
effet, echanger deux equations ou multiplier une equation par un nombre non nul XI + 2X2 + 3x) - X4 = - I . (
ne change en rien l'ensemble des solutions. D'autre part, toute solution d'un couple
d'equations de la forme Reduisons d'abord la matrice augmentee a la forme echelonnee : (
1 2 -3 1 1 1 2 -3 I
ajJx, + ai2-"2 + + a;n-"n = b, (
2 3 6 -5 2 L2 - 2L, 0 1 2 I 0
a/lx, + a12-"2 + + al"."n = hi
3 -I 2 -7 5 L) - 3LI o -4 -4 2 2 j t(L) + 4L 2) (
est solution du couple d'equations 1 2 3 -1 -1 L 4 - L J 0 1 I 2 -2 L4 - L 2 (
(a;1 + cxa/.)xl + (a'2 + cwn)x 2 + ... + (ain + aalJx. = b, + ab,
(
1 1 2 -3 I 1 I 2 -3 1
a/lx 1 + a12x2 + ... + al".". = hi
0 1 2 I 0 0 1 2 I 0 (
et inversement, ce qui montre que l'addition a une equation d'un multiple d'une 0 0 2 3 1 0 0 2 3 I
autre equation laisse I'ensemble des solutions inchange, 0 o -1 I -2 2L4 + LJ 0 0 0 5 -3 (
(
Methode de resolution de Gauss 103
102 Systemes lineaires

Le systeme associe Ii cette matrice augmentee s'ecrit dans Ie second mernbre, no us obtenons un systeme de r equations Ii r inconnues
(appelees inconnues principa/es) que nous resolvons comme il est indique dans
XI + X2 + 2x 3 - 3x 4 = I 3.4.2. La solution s'exprimera en fonction des valeurs aj • ces valeurs jouant Ie role
X2 + 2x3 + X4 = 0 de parametres.

i 2x 3 + 3x 4 = I Resolvons, par exemple, Ie systeme

,I 5X4 = -3 .

i
La derniere equation determine X4' puis la troisieme x3 et ainsi de suite . L'unique 5xI + IOx2 + IIx3 - X4 + Xs - 41x6 = 0
-3x. - 6X2 - 7x3 + X4 - Xs + 27x6 = 0
solution du systeme est I 6x I + 12x2 + 14x3 - 2x4 + 2xs - 6
52x 6 =
(3.25)

II 2xI + 4x z + 5X3 - x 4 +
XI
7
= -S · x2 = -5' X3 = S·
7
X4 = -s3 Xs - 19x6 = 3.

La matrice augmentee associee Ii ce systeme est la matrice (3.18). Par des opera­
tions elementaires sur les lignes, cette matrice a ete reduite Ii la forme echelonnee
3.4.3 Resolution d'un systeme Iineaire dans Ie cas general (3.19). Le systerne associe a la matrice sous cette forme s'ecrit

Considerons Ii nouveau un systeme de m equations Ii n inconnues, de matrice XI + 2x2 + x3 + X4 - Xs - 3x 6 = -6


associee A = (a;) et de second membre b = (bJ. Si la mat rice A est nulle, ce -X3 + X4 - Xs + 5x 6 = -3 (3.26)
systeme n'admet de solutions qu'a la condition que b aussi soit nul. Sous cette 2."C6 = 6.
condition. I'ensemble des solutions est manifestement JR". Si la matrice A est non Posons
nulle, nous transfonnons la matrice augmentee (A ib) en une matrice echelonnee,
X2 = a.. x. = a 2• Xs = a 3• (3.27)
selon ce qui a ete etabli dans 3.3.5. Le resultat de cette transformation est soit une
matrice de la forme

II
oti a •• a2 et a3 sont des nombres arbitraires. Le systeme

!.~i!" ,..:,..,~...:. i,~!~,...:....~,..:.


ai. bi XI + x3 - 3x6 =-6 - 2al - az + a3
a;" bz -x3 + -3 - a 2 + a 3
5x 6 =
2x6 = 6

"
(3.23) ~I
peut alors etre resolu, par substitution. de la derniere Ii la premiere equation. La
o ! a,i
......
~r.
a;. b;. solution generate est

I
. :
XI = -15 - 2a. - 2a 2 + 2a 3
oti aiiJ' a~2' ...• a;j,sont les pivots, soit une matrice de cette meme forme, mais avec x2 = a l
un pivot supplementaire b;+ I dans la derniere colo nne. Dans Ie deuxieme cas. Ie .' ", x 3 = 18 + a2 - a3 (3.28)
.~
systeme n'admet aucune solution. car la derniere colonne n'est pas combinaison
~
X4 = az
lineaire des autres colonnes. Dans Ie premier cas. Ie rang de la matrice associee au X s = (X3

systeme est egal au rang de la matrice augmentee, done Ie systeme admet au moins X6 = 3.

une solution. d'apres la proposition 3.2.7. Pour trouver I'ensemble des solutions.
DOUS ecrivons d'abord Ie systeme reduit equivalent au systeme initial:

( aiiJxiJ + ... ... + ai.x. = bi

a2j2xjz + .., ... + a'z.x. = b'z


3.4.4 Utilisation de la forme ecbeloooee simplifiee
( (3.24)
Lorsque Ie systeme Ii resoudre admet plus d'une solution. il est souvent plus
( a;j,Xj, + ... + a;.x. = b;. 'v commode de poursuivre la reduction jusqu'a la forme echelonnee simplifiee. On
( Nous attribuons ensuite des valeurs arbitraires ai' a 2. .... a._, aux n - r inconnues peut alors resoudre Ie systeme reduit, comme dans 3.4.3. en attribuant des valeurs
' .~ arbitraires aux inconnues dont l'indice n'est pas I'indice de colonne d'un pivot et
d'indice j different de l ••l» ....l- (s'il n'y a pas de telles inconnues, Ie systeme se ' ,~
( ;r'£ en exprimant les autres inconnues en fonction des valeurs attribuees,
reduit au systeme (3.22». En groupant alors les termes contenant les valeurs aj ~i
(
(
\

(
104 Systemes lineaires Structure et dimension de I"ensemble des solutions 105
(

Par exemple, Ie systeme (3.25) est equ ivalent au systeme assode a la matrice f
'f. 3.4.6 Choix du pivot
(

augrnentee (3.20) (obtenue par reduction de la matrice (3.18) a la forme echelonnee l, (


Lorsqu'on resout un systerne par reduction a la forme echelon nee en calcu­
simplifiee):
~ "
.;'' C:
lant avec un nombre limite de chiffres significatifs, on amoindrit les erreurs (
x, + 2x 2 + 2x 4 - 2x s = -IS i d'arrondi en choisissant, parmi les coefficients pouvant jouer Ie role de pivot, Ie (
XJ - X4 + Xs = 18 ~ plus grand en valeur absolue. Le choix d'un pivot petit en valeur absolue diminue
x6 = 3. j la precision des calculs . Les erreurs proviennent, en effet, de I'addition acertains (

On resout ce systeme en posant x 2 = ai' X 4 = a 2, X s = a J et en ecrivant, san s plus ~ coefficients de multiples d'autres coefficients divises par un pivot. Ces erreurs (
aucun calcul, XI' XJ' X 6 en fonction de ai ' a 2' a J. Le resultat est la solution (3.28).
'i seront d'autant plus petites que Ie pivot est grand en valeur absolue.
: '~ (
'~
"J
t (

3.4.5 Resolution simultanee de plusieurs systemes Uneaires

Pour resoudre plusieurs systemes associes a une meme matrice A = (aij) et


dont les seconds membres sont b = (bi ) , C = (cj ) , d = (dJ, ..., i1 a avantage y a
.,.
IF

'/if
3.4.7 Nombre d'operations

Le nombre d'operations necessa ires pour resoudre un systerne de n equa­


tions a n inconnues par reduction de la matrice augmentee associee a la forme
(

effectuer les operations de reduction une seule fois sur la matrice A augmentee des echelonnee est, pour n grand. de I'ordre de n J • La preuve de cette assertion est
colonnes b, c, d. .... .i laissee comme exercice.
Par exemple, pour resoudre les deux systernes

XI
3x I
+ x2 +
+ 2x 2 +
2xJ = I
3xJ = 4
XI
3x I
+ x 2 + 2xJ =
+ 2~2 + 3xJ =
3
-3

j )

~
5x 1 + 4x 2 + 7xJ = 6, 5x t + 4x 2 + 7xJ = 3.

3.5 STRUCTURE ET DIMENSION DE L'ENSEMBLE


on reduit la mat rice associee, augmentee des deux seconds membres, a la forme DES SOLUTIONS
echelonnee simplifiee: ' , .~

I 2 I
-i]-L' + JL,
:1 3.5.1 Introduction
[i 2 3 4
.~

[i
I
I
- I
4

2
3
-3
7

-I
6

12
I -12 L J
r-
3 L J - 5L I

+
L
, L2
i
, ,~.

,~
't!
<~
Pour etudier I'ensemble des solutions d'un systerne, il est utile de considerer
toute solution comme un vecteur-colonne de IRn• ou n est Ie nombre d'inconnues
de ce systerne. L'ensemble des solutions est alors un sous-ensernble de R n dont
nous allons examiner la structure.
(
(

[i
0
I
-I
3
2
-I -9]
I~ .
, ~;
~.
.y.:
3.5.2 Systemes linealres homogenes

Considerons un systerne hornogene de m equations a n inconnues et de


0 0 0
matrice associee A = (aij)' II est clair que 0 est une solution (appelee solution nulle
Les deux systemes reduits s'ecrivent alors ou triviale). En outre, toute combinaiso n lineaire a1x, + a 2x 2 = (alxJ + a.2xJ) de \
XI - xJ = 2 XI - x J = -9 solutions XI = (x) et x 2 = (xJ) est egalement une solution, car (
x 2 + 3xJ = - I , x2 + 3xJ = 12. n n
L ay(a1xJ + a2X;) = a l L aijxJ +- a 2 L aijxJ = 0, i = 1,2, .... m. (
On obtient les solutions en attribuant une valeur arbitraire a aI'inconnue xJ et en j=1 j- I j -I
exprimant les deux autres inconnues en fonction de a : (
Cela montre que I'ensemble des solutions est un sous-espace vectoriel de IRn • Si
XI = 2 + a XI = -9 + a
A est la matrice nul1e, il est evident que ce sous-espace est IRn lui-rneme. Ecartons (
x 2 = -I - 3a X2 = 12 - 3a
ce cas et reduisons A a la forme echelonnee simplifiee, Supposons, pour alleger (
xJ = a, x J = a .
I'exposition, que la mat rice reduite soit de la forme particuliere
(
(,

(
Structure et dimens ion de I'ensemble dcs solu tions 107
106 Systemcs lineaires
(
(
I a lz 0 a l• 0 a l6 a l7
, "
( LaiJ(yj - xJ> = LaijYj - La0J = b, - bi = O. i = 1,2• ...• m.
0 0 I a2. 0 a26 a27 . j-I j- I j- I
1 (3.29)
( 0 0 0 0 I a36a37 ce qui .m ontre que y - Xo = (yj - xJ> est une solution du systeme homogene
tr
0 0 0 0 0 0 0 associe et done que toute solution du systeme s'obtient en additionnant aXo une
(

(
En procedant comme it est indique dans 3.4.4. c'est-a-dire en attribuant aux
inconnues x z• x•• x 6• X 7 des va leurs arbitraires a l• a z. a l • a •• nous voyons que la
ij;
.~
solution du systeme hornogene associe. Compte tenu de la proposition 3.5.3, la
solution generale s'ecrit done sous la forme
( solution generaIe du systeme s'exprime par 'l' X = Xo + alx . + a zxz + ... + a, _,x,_, . (3.31)

XI -a1z -at. -a16 -at7 ~j ou aI' a z..... a, _, sont des nombres arbitraires et
XI ' x z• ...• x, _, fonnent une base
Xz I 0 0 0 ~ du sous-espace vectoriel des solutions du systeme hornogene associe (si r = n, la
xl
X. = a.
0
0 + az
-a2.
I + al
-a 26
0 + a.
-a27
0 I. (3.30)
i solution Xo est unique). II en resulte que I'ensemble des solutions du systeme est
un sous-espace affine de JR'. plus exactement Ie sous-espace affine
x, 0 0 -a36 -a37 .1 (3.32)
X6
X7
0
0
0
0
I
0
0
I
!j Xo + S.
ou S designe Ie sous-espace vectoriel des solutions du systeme hornogene associe
j'
Designons les quatre vecteurs-colonnes du second membre de (3.30) par xI' X Z• xl f:
.( (cf. exemples (3) et (4) de 1.9.7).
Les resultats obtenus sont resumes dans les paragraphes 3.5.6 3.5.9. a
et x•. Ces vecteurs sont des solutions du systerne (Xi s'obtient en posant a t = I et
a j = 0 pourj #- I) et, de plus . its sont lineairement independants. En outre. d'apres I
(3.30). toute solution du systerne est combinaison lineaire de ces quatre vecteurs.
lis fonnent done une base du sous-espace vectoriel des solutions. ce sous-espace i 3.5.6 Proposition
etant par consequent de dimension 4. On remarquera que 4 est egal au nombre
d'inconnues moins Ie rang de A. Le raisonnement dans Ie cas general est Ie rneme t
~
Toute solution d'un systeme lineaire admettant au moins une solution Xo
s 'obtient en additionnant Ii Xo une solution du systeme homogene associe.
et entraine la proposition 3.5.3.
1.'
-s
3.5.3 Proposition :> 3.5.7 Proposition
';
Les solutions d'un systeme lineaire homogene Ii n inconnues forment un L 'ensemble des solutions d 'un systeme lineaire Ii n inconnues admettant au
sous-espacevectoriel de JR' de dimension n - r, ou r est le rang de la matrice associee moins une solution est un sous-espace affine de R' de dimension n - r, ou r est le
au systeme. r
;;
rang de la matrice associee au systeme.
,i.'.
Le corollaire suivant derive egalement de la proposition 3.2.7. D'apres cette proposition, un systeme lineaire dont Ie nombre d'equations
..i
:j

m est inferieur au nombre d'inconnues n n'admet en aucun cas une seule solution.
car n - r > m - r ;;l: O.
3.5.4 CoroUaire
if
Pour qu 'un systeme lineaire homogene Ii n inconnues n 'admette que la solution
nulle, ilfaut et iI suffit que r = n, ou r est le rang de la matrice associee au systeme. :,
" J.

3.5.8 Corollaire
En raison de (3.21). un systerne homogene dont Ie nombre d'equations est
j Pour qu'un systeme lineaire admette une solution unique, il [aut et il suffit qu'il
( ...
inferieur au nombre d'inconnues admet done toujours des solutions non nulles . "
:j admette au mains une solution et que le systeme homogene associe n 'ait que la
(
solut ion nu//e.
(

(
(
(
3.5.5 Systemes lineaires dont Ie second membre o'est pas nul

a
Considerons un systerne de m equations n inconnues, de matrice associee
A = (Pij) et de second membre b = (bJ. Supposons que ce systeme admette au
mo ins une solution X o = (xJ>. Si y = (Yj) est aussi une solution, alors
I .,
'.'
Si Ie nombre d'equations m. Ie nombre d'inconnues net Ie rang r sont egaux.
Ie rang de la matrice augmentee associee au systeme ne peut etre superieur r .
Dans ce cas. la proposition suivante peut etre consideree comme corollaire de la
proposition 3.2.7.
a

(
\

(
108 SystCmcs lincaires Exereices 109
(
(
3.5.9 Proposition 3.6.6 Soit aI' a2' ...• an des nombres distincts et k un entier positif inferieur
(
Un systeme lineaire de n equations Ii n inconnues admet une solution unique
a n. Montrer que Ie rang de la matrice
si et seulement si Ie rang de la matrice associee au systeme est n.
(
a l of tI.
a2 ~ tIz (
(
(
3.6 EXERCICES an cl. . .. ~
\
est egal a k+ I.
3.6.1 A quelle condition doit satisfaire Ie coefficienta, pour que Ie systeme
3.6.7 A quelle condition doivent satisfaire bl' b2 et bJ pour que Ie systeme
+ xJ
x2 = b,

XI + xJ = b2
XI + 2x 2 - 3xJ == b l

x, + x2 + aXJ = bJ
2x I +
6x 2 - II xJ = b I

xI - 2x I + 7x J = bJ

admette au moins une solution quel que soit Iechoix de bl , b2 et bJ ? Cette condition
etant remplie, ce systerne a-t-il plus d'une solution? admette au moins une solution?

3.6.2 Dans chacun des cas suivants, dire, sans Ie resoudre, si Ie systeme n'a
3.6.8 Dans un espace affine de dimension 4 muni d'un repere, on considere
aucune solution, une seule solution, plus d'une solution:
-\
les deux plans d'equations pararnetriques respectives
(a) 2x1 - 2X2 + 4xJ = I (b) 5xI - 3X2 xJ + 4x 4 = 6 + + 2a:2

-
X, = I + al + 2a 2 XI = 2 al
-3x l + 3x 2 - 6x J = 2 -XI + 2X2 + XJ - x 4 = -2
XI = -I - a l X2 = - 2 + 2a:2

X2 + 2.'CJ = I. 2x 2 2x J + 3x 4 = 3.
5 + a l - 5a2

XI - -
x J = 2 + 3a l - al xJ =
(c) 2.\:1 + x 2 + 5x J3 = X4 = I + al + aI' x4 = 2 + 2a l + 3a 2.

x, - 2X2 - 2x J = - I
Trouver l'intersection de ces deux plans.
-3x l + 2x 2 + x J = -I
~
3xI - 3x 2 - 2xJ = O. i
;:;
3.6.9 Reduire la matrice augmentee associee au systerne (
3.6.3 Determiner Iepolynome p de degre 3 qui satisfait al'equation differen­ 3x I - h I - xJ + 2 X4 - 9x s = 13 (
tielle p(t) + p(t) - p(t) + t - t J == 0, ou Ie point designe la derivation par rap­
x \ - XI + 2x J - X4 - 6xs = -6
port a t. f

x\ - x2 + x J + X4 - 6.'Cs = I
3.6.4 Reduire les matrices suivantes a Ia forme echelonnee:
- XI + x2 - xJ - 2x4 + tx s = -3 (

2 a la forme echelonnee, puis en tirer la solution generale du systerne. (

-~J
5 -I 2
2 -I -I 4-1
-I 2 3 -3 - 3 2 I -3 2

H -2
3 - I
2
I
I
4 1,
2
[ 4
5
3
I
-4
0
2
-3
3.6.5 Deerire I'ensemble des triplets (a, b, c) rendant Ie rang de la matrice
0
4
5 .
- 2
3.6.10 Resoudre Ie systerne

aXI
aIx I
+
+
b''C2
b2x 2
+
+
eXJ = I
2xJ = I
(

(
(
aJx l + bJX2 + ~xJ = I.
I I a (
ou a, b et c sont des nombres distincts et non nuls.
[
-I 2
2 -I
b
c :] 3.6.11 Par reduction simultanee, resoudre les deux systernes associes a la

(
egal a 2. ".
:1 matrice (
(
(
( 110 SystCmcs IinCai=
(
(
5
(
( H 2
4 :).
:1
CHAPITRE 4

:1
m" UJ.
( dont les seconds membres respectifs sont
~
Algebre matricielle
(
4
3.6.12 Resoudre Ie systerne
!
XI = bX2 +1
x2 = aX I + bX3 +1
"
4.1 OPERATIONS SUR LES MATRICES
x3 = aX 2 + bX4 +1

4.1.1 Introduction
Xn _ = aXn _ 2
1 + bx; + Definies dans Ie chapitre precedent en vue de faciliter l'etude des systemes
xn aX n _ 1 + I, lineaires, les matrices deviendront, des maintenant, des objets pouvant se lier les
uns aux autres, en accord avec des regles que nous etablirons.
ou a et b sont des nombres distincts non nuls dont la somme est I.
(poser X o = x n + 1 = 0, introduire de nouvelles inconnues Yj = x _ x _ ,
j j I
j = 1,2, ..., n + I, et resoudre recursivernent.)

4.1.2 Addition de matrices

Soit A = (a;} et B = (b;) des matrices de type m x n. On appelle somme de


A et B, et on note A + B, la matrice C = (c;} de type m x n dont les termes sont
definis par la relation
~
Cij = aij + bij'

L'operation qui associe Ii tout couple de matrices du meme type leur somme est
appelee addition matricielle. Exemple :
i
a ll 012 0 13) + [b ll b l2 b13) = [all + b ll 0 12 + b l2 013 + b13) •
(0
21 0 22 0 23 b21 bn b23 0 21 + b21 an + b22 0 23 + b23
De toute evidence , l'operation d'addition matricielle est associative et com­
mutative:
(A + B) + C = A + (B + C), A + B = B + A.
L'element neutre est la matrice nulle et la matrice opposee de A = (aij) est la
matrice -A = (-aij)'
( Si A et B sont des matrices du meme type, la matrice A + (- B) est notee
plus simplement A - Bet appelee difference de A et B. L'operation qui associe Ii
(
tout couple de matrices du meme type leur difference est appelee soustraction
( matricielle.
L'addition matricielle s'etend de maniere evidente au cas d'une famille finie
(
quelconque de matrices du meme type.
(
(
(
(
112 AIgc!bre matricielle Operations sur les matrices 113
(
(
4.1.3 Multiplication d'une matrice par un scalaire
al I[bl b2 •• • bn ] a,b l a\b2 albn (
On appelle produit du nombre a par la matrice A la matrice, notee aA, dont a2 a2bl a2b2 a2bn
(
les termes sont ceux de A multiplies par a. L'operation consistant a effectuer Ie
produit d'un nombre par une mat rice est appelee multiplication par un scalaire. (
Exemple:
a [all al2 a 13] = [aall
a21 a22 a23
aa l2
aa 21 aqu
aa lJ ]
aa2J
. 1
i
an anb J anb2 ••• anbn
(

On retiendra que Ie produit AB n'est defini que si Ie nombre de colonnes de

Les proprietes suivantes decoulent irnmediatement des definitions: I A est egal au nombre de lignes de B. Schematiquernent, cela peut s'exprimer ainsi:

(a) (a + /I)A = aA + pA. i, C


P

mt +-+ = mt -
A nt
­
B,
n P

(b) a(A + B) = aA + aB . ~
(c) a(ftA) = (afJ)A.
(d) (-I)A = -A, OA = 0, aO = O.
i ou encore
~I m x p = (m x n)'(n x p).
En particulier, la multiplication est toujours possible entre matrices carrees du
rneme ordre.
4.1.4 Espaces vectoriels de matrices
Le terme d'indices i, k du produit AD est, selon (4.1), Ie produit scalaire de -(
Muni des operations d'addition et de multiplication par un scalaire, l'ensern­
la i-ieme ligne de A par la k-ieme colonne de B, to utes deux considerees comme
ble des matrices de type m x n devient un espace vectoriel de dimension mn. Les
des vecteurs de IRn •
a
matrices dont un des termes est egal I et les autres sont nuls forrnent une base

de cet espace appelee base canonique.


lf
~
La multiplication matricielle n'est pas une operation commutative. En fait,
Ie produit BA n'est pas necessairement defini lorsque AB l'est. D'autre part, les
produits AB et BA peuvent etre definis et ne pas etre du meme type. Mais rneme

4.1.5 Multiplication de matrices


f lorsqu'ils sont du meme type, ils sont generalement differents, comme Ie montre
l'exernple simple suivant:

Soit A = (a if) une mat rice de type m x n et B = (bjk) une matrice de type
n x p. On appelle produit de A et B, et on note AB, la matrice C = (CiA:) de type
j [~ ~][~ ~] [~ ~], = [~~)[~ ~]=[~ ~).
m x p dont les termes sont definis par la relation i ~
f
En revanche, Ia mult iplication matricielle est une operation associat ive et
distributive. Plus precisement, chacune des egalites suivantes est vraie , a Ia seule
C;k = ailblk + a/Jill + ... + a;"hnk = raijk'
j -I
(4.1)
t..
,'
condition que l'un de ses deux membres soit defini (I'autre l'est alors egalement) : (

L'operation qui associe atout couple de matrices leur produit (lorsque celui-ci est (a) A(BC) = (AB)C (associativite), (
defini) est appelee multiplication matricielle. Exemples: (b) A(B + C) = AB + AC (di ib ' , ') (
(c) (A + B)C = AC + BC rstn unvrte),
all a12] ll (b
b l2 b lJ ] = [a l ibll + al2b21 allbl2 + al2bU
[a21 au b21 bu b2J
allblJ + a12b23] -r
II est' en outre evident qu'a la merne condition,
(
a21bll + aUb 21 a21bl2 + a22bu a21bl3+ aUb 23 ' (
(d) (aA)(ftB) = (a/I)AB.
tal a2 ' " I
an] b,

A titre d'exernple, dernontrons (a). Soit A = (aij)' B = (bjk) et C = (CkJ des


(
b2
(
matrices respectivement de type In X n, n x p et p x q. Le terme d'indices i, I de

[atbl + aIJ2 + .., + anbn], A(BC) est (

';"
(
bn i a;(£b
j = I V k= I J
1c Ck' )
(
(
(

(
114 Operations sur les matrices 1\5
Algebrc matricielle
(

(
et Ie terme de memes indices de (AB)C est
( (A + 8)k = ,~J~)A'8k-' (formule du binome), (4.3)

( f (i arb.k)ck,.
k-I '_ 1 V J
ou k designe un entier positif.
( S'agissant de sommes finies, l'ordre des sommations sur jet sur k peut etre inverse,
(3) II est evident que A8 = 0 si A = 0 ou 8 = O. Mais Ie produit AD peut
ce qui montre l'egalite des deux expressions.
etre nul sans que A ou 8 soient des matrices nulles, comme Ie montre l'exemple
simple suivant :
4.1.6 Produits de plusieurs facteurs et puissances

On definit un produit matriciel de plusieurs facteurs par une succession de [~ : )[ ~ ~) = [~ ~) .


produits de deux facteurs. Grace a l'associativite, un tel produit peut s'ecrire sans
II est done aussi possible que
parentheses. Par exemple, A8CD designe la succession de produits «AB)C)D.
Si A est une matrice carree, Ie produit AA ... A (k facteurs) est designe par AD = AC,
Ak et appele puissance k-ieme de A. Par convention, AO = I. II est evident que
sans que A =0 = C.
ou que 8
AkA' = Ak +! et (A")' = Ak', (4.2)
(4) En posant a=d=I et b = c = 0 dans l'exemple ci-dessus, no us
ou k et I sont des entiers non negatifs. voyons que le carre d'une matrice non nulle peut etre nul. A l'aide de la multiplica­
tion par blocs, no us verrons que la puissance n-ieme de toute matrice carree de la
4,1.7 Exemples et remarques forme

(1) Voici deux exemples de multiplication par la rnatrice-unite I J : 0 al2 all ·.. aln
·.. a20

II
0 0 aZJ
all al2 a lJ ) [I 0 0] = (all a l2 all), .... .. I.
( a 21 a22 a2J 0 I 0
o 0 I
a21 a22 a2J A. = I (4.4)

0 0 0 ·.. an -l,n
.. 0
I 0I 00] [alla21 a12 all] [all al2 a lJ ]
0 0 0 ·

[oo an a2J = a21 a22 a2J .


0 I aJI an aJJ a JI an aJJ

D'une maniere generale, on constate aisement que la matrice-unite joue Ie role 1 est la matrice nulle.
D'une rnaniere generale, on appelle matrice nilpotente toute matrice carree
A telle que Ak = 0 pour un entier positif k.
d'element neutre de la multiplication matricielle, autrement dit que
AI. = A et I",A = A,
pour toute matrice A de type m x n. Grace a la propriete (d) de 4.1.5, il s'ensuit
I
.~.
(5) L'operation de multiplication matricielle perrnet d'exprimer lout sys­
teme lineaire sous la forme d'une equation matricielle. En effet, resoudre un
systerne de matrice associee A = (aij) et de second membre b = (bi) revient a

(
que
A(aIn ) = cxA et (cxlm)A = cxA.
i chercher les matrices-colonnes x = (x) telles que

Ax = b,
(2) On dit que deux matrices carrees du meme ordre A et 8 commutent, ou
ou encore,
que I'une des deux commute avec l'autre, si AB = 8A. Nous venons de voir que
les matrices cxIn commutent avec toutes les matrices carrees d'ordre n. Ces matrices all
a21
al2
a!2
aln
a20
IlxX2 l b,
b2
( sont d'ailleurs les seules quijouissent de cette propriete (cf. exercice 4.7.5). A noter
que si A et 8 cornrnutent,
( . . .. ..

(A + 8)2 = A2 + A8 + 8A + 8 2 = A2 + 2A8 + 8 2•
(
Plus generalement, so us la meme hypothese, il est facile de cons tater, par recur­
ami am! ... aIM
bm
( X.
rence sur k, que --' .'

,~,

(
(
... (
117
116 Aigebre matricielle Operations sur Ies matrices (
(

(6) Soit A une matrice de type m x n. Si Ax = 0 pour tout vecteur-colonne D'une maniere generate, si A est la matrice (4.6) et (
n,
x de R alors A est la matrice nulle. Cela decoule immed ia tement de la proposition Bit
B I I BIZ (
3.5.3, mais se demontre egalement en observant qu~ Ax est la j-ierne colonne de BZI Bn BlJ
A si x est le j-ierne vecteur-colonne de la base canonique de R n. (
L'assertion suivante en est un corollaire : ~
.~
B=I . .. .. . (
Soit A et B des matrices de type m x n. Si Ax = Bx pour tout vecteur­ .~
colonne x de )tn, alors A = B. ~

Br) Br! . .. B"


(7) On appelle trace d'une matrice carree A. et on note tr A, la somme des so us reserve que les produits A;)Jjk soient definis pour tout choix des indices i.], k,
termes diagonaux de A.

Si A = (ai}) et B = (bi}) sont deux matrices carrees d'ordre n.

f
.~ CII CIZ . . . Cit]
tr(AB) = tr(BA). (4.5)
i­ AB = I
CZ1
.C~. : : . ~ ,
En effet, c, CqZ • • • CqJ

ou
tr(AB) = i f r.a/jbji) = i(r.bjjai}) = tr(BA). CiA: = AIIBl k + AilBl l + ... + A)lrk' (4.7)
1- 11v- 1 j-I i -I

.;; En vue d'applications ulterieures, nous allons utiliser la multiplication par

~~~
blocs pour calculer Ie produit AB. so us l'hypothese que Best partagee en vecteurs­
colonnes. II vient: ,(
4.1.8 Multiplication matricielle par blocs
(
On dit qu'une matrice A est partagee en sous-matrices si elle est de la forme
It

A =
All AIZ . . . Air

A ~~Z. '. : : Au I,
ZI

(4.6)
f:
A I bl bz ... bn Ab l Ab z 1'" Abn (4.8)

Aql Aqz • • • Aqr

1.
'(" I l
Comme deuxieme application, no us nous proposons de demontrer. par
ou Ai} est, pour i = I. 2, ...• q etj = I, 2, .... r, une matrice dont Ie nombre de lignes
est independant de j et Ie nombre de colonnes independant de i.
~,'t. I recurrence sur n, que la puissance n-ieme de la matrice (4.4) est la matrice nulle .

On peut multiplier des matrices partagees en so us-matrices. en operant


.";,;. , a
Pour n = I il n'y a rien demontrer. Supposons que A: =: = 0 et partageons An
i'". de la maniere suivante:
comme si chaque sous-matrice etait un terme ordinaire d'une matrice. La seule
condition que doivent remplir les partitions est que les produits matriciels entrant
,
.... , '
a1n (
enjeu soient definis, On appelle ce mode de multiplication multiplication matr icielle oj
f ·. Ao _ 1
par blocs. An =
~..
Voici un exemple :
i a.. l ..
---
fl.,
p p p" p p' p" :~! : 0..0·..·:....·:·..·:....0'"["·..·0·..· (

·~· i

..
(

I ·1 I B II BIZ BI] AIIB II AIIB IZ i AliBI] ~. i


En multipliant par blocs. nous voyons aisernent que
(

I
.~
.I
,
I'
• A" Au m
+ + :i +
1 -:'~ -1:: -::

~~ .

AIZB z1 Alz8i2 ! A12B!3 ~:. \ (


x
---1 A:- 1 ­ 1
Ao0-1

·l~::r -~: --
A~ = A~ _I , " 0' (
";\;';8;';"";\;';8;;'"i'X;';8;';" ix
+ + i + lX (
O..O·..·:·..·:....·:·..O·t..O·
1
m'

i AnBn O..O'..·:....:··..·:....i:i't··(j'
AnBz l AnBn (
(
(
(
118 Algebre matricielle Matrices inversibles 119
(

(
ou les croix occupent la place de tennes numeriques qu'il n'est pas necessaire de En particulier, lorsque A est une matrice carree (et k un entier positil),
(
specifier. Mais alors
(I) '(A~ = ('At
al•
IX
A: = A:-1A. = o = 0, 4.1.10 Rang d'une matrice transposee
A, _I
Pour toute matrice A
j x ! a•.I ..
O···O····:····:·····:···O·t"O· 0··"0"···:····:·····:··..0''[ ..·.. 0·..· rg 'A = rgA, (4.10)

Ii
ce qui acheve la demonstration. car la famille des lignes et celle des colonnes d'une meme matrice ont Ie merne rang
(cf. 3.3.10).

4.1.9 Transposition d'une matrice

On appelle transposee d'une matrice A = (alj)' et on note 'A = (aif) la 4.2 MATRICES INVERSIBLES
matrice dont les lignes sont les colonnes de A (et, par consequent.Ies colonnes sont !
les lignes de A). Entre les tennes de 'A et ceux de A il y a done la relation

aif = aj ; . (4.9) I 4.2.1 Introduction

En outre, 'A est de type n x m si A est de type m x n.


Voici un exemple de transposition:
t On sait que tout nombre non nul a admet un inverse unique, c'est-a-dire un
nombre, note a-I, tel que aa- I = 1. En est-il de merne pour les matrices? La

t a
reponse cette question est negative. Par exemple, Ie produit de la matrice

(~ ~)
a ll a21] "I.
A = [all a l2 a lJ),
a21 a22 a2l
'A =
[
a l2 a22 •
t A =

*1
alJ a23
par une matrice quelconque
On notera que l'operation de transposition laisse toute matrice de type
I x I inchangee, transfonne les matrices-lignes en matrices-colonnes et les rnatri­
ces-colonnes en matrices-lignes.
.i'
't
B=[; . ~)
. (~
Chacune des egalites suivantes est vraie chaque fois que I'un de ses deux ~. n' est jamais 12, car
membres est defini (l'autre I'est alors egalement): I.>; i
I 00) [ac db) = (a0 Ob) ·
(0
(a) '(A + B) = 'A
(b) '(aA) = a'A.
+ 'R. 1JI
~.~
Dans cette section, nous no us proposons d'etudier les matrices qui admet­

(
(c) 'eA) = A.
(d) '(AB) = 'R'A.
tl
.~ .
tent un inverse et d'exposer une methode de calcul de cet inverse.

(
La seule qui ne soit pas evidente est la derniere, En voici la preuve. Soit
.~
( A = (alj) une matrice de type m x n et B = (bjk ) une matrice de type n x p. Le
. ~, 4.2.2 Matrices inversibles
On dit qu'une matrice carree A est inversible ou reguliere s'il existe une
( tenne d'indices k, i de '(AB) est Ie tenne d'indices i, k de AB, c'est-a-dire .L aAk' ~;
,~ , .
matrice B (necessairement carree et du merne ordre que A) telle que
• j-I -r
i!·
( Le tenne d'indices k , i de 'R'A est L btjaji" L'egalite a done bien lieu en vertu de
AD = BA = I. (4.11)
j -I .. co·
( (4.9). , \~ On notera que si AB = I et B'A = I, alors B = B', car B' = B'(AB) =
(
L'extension de (d) a une famille finie quelconque de matrices est immediate: (8' A)B = B. Lorsque A est inversible, la matrice B de la relation (4.11) est done
(e) '(A IA2 .. . A k ) = IAk'A k_ 1 ••• 'A I• uniq ue. Elle est appelee matrice inverse de A et notee A-I.
(
(
(
i (

i
120 Algebre matricielJe Matrices inversibles 121 (

4.2.3 Proposition i
'~ ou XI' X2' ... , x. sont les colonnes de X et e l , e2' ..., ell celles de I. Les equations (4.13)
(
(
Soit A une matrice carree. S 'il existe une matrice B inecessairement carree sont l'expression matricielle de n systemes de matrice associee commune A et de
et du meme ordre que A) telle que AB = I ou BA = I, alors B verlfie (4.11), t
i
seconds membres e l , e2, . .. , e•. Suivant 3.4.5, ces systemes peuvent etre resolus (
autrement dit, A est inversible et B = A-I . l simultanement en reduisant la matrice augmentee n fois (
:;;

~
(
DEMONSTRAnON

II suffit de montrer que AB = I entraine BA = I. Soit n I'ordre de A et de


[ A e e.] = [A I] (
B. Le systerne homogene de matrice associee B n'admet que la solution triviale,
(
car si x est une solution,

a la forme echelonnee simplifiee, Compte tenu de 3.3.11, Ie resultat de cette

reduction est une matrice de la forme (

x = ABx = A(8x) = AO = O. .. (
~ b" b l2 bl"
II s'ensuit, d'apres Ie corollaire 3.5.4, que Ie rang de Best n. Soit maintenant x un '. b21 b 22 b211 (
vecteur-colonne quelconque de IR". En vertu de la proposition 3.5.9, Ie systeme !
:t (4.14) (
de matrice associee B et de second membre x admet une solution (unique) y. Par .~

consequent, "
;~I.

BAx = BA(Hy) = B(AB)y = By = x. .~. b. 1 b. 2 • • • b""


f
Comme x est arbitraire, la remarque (6) de 4.1.7 nous permet de conclure que
Posons B = (b i) et designons par bl' b2, ... , b, les colonnes de B. Les solutions des
.(
BA = I.
n systemes reduits associes a la matrice augmentee (4.14) sont
1:",;
...
~.
XI = bl' X2 = b2, .. ., X. = b•.
~ -. (
Par consequent, Best une solution de l'equation (4.12). La proposition 4.2.3 nous
4.2.4 Proposition. Rang d'une matrice inversible .~ permet alors de conclure que A est inversible et que B = A-I . (

Une matrice carrie A d'ordre nest inversible si et seulementsi son rang est n. (
Une methode de calcul de la matrice inverse faisant appel aux determinants
DEMONSTRATION sera presentee dans 5.3.6. (
~;
~:,
(
Supposons que A soit inversible. Alors A-IA = I, donc Ie rang de A est n,

~; ~
4.2.6 Proposition. Proprietes de l'operatien d'inversion
d'apres ce qui a ete etabli dans la premiere partie de la demonstration precedente, (
Reciproquement, supposons que Ie rang de A soit n. Le precede expose dans Ie
Soit A et B des matrices carries du meme ordre. (
paragraphe su ivant demontre l'existence d'une matrice B telle que AB = I.
(a) Si A est inversible, A-I er 'A Iesont egalement et (A -1) -1 = A, ('A)-I = '(A -I).
D'apres la proposition 4.2.3, A est done inversible.
(b) Si A et B sont inversibles, le produit AB l'est egalement et (AB)-I = B-1A- 1. (
.. ~. (c) Si Ie produit AB est inversible, A et B Ie sont egalement. (
. ..
4.2.5 CalcuI de la matrice inverse DEMONSTRAnON (

v, Assertion (a). Par definition de l'inverse, A est la matrice inverse de A-I. (


Soit A une matrice carree d 'ordre n et de rang n. Nous nous proposons de
resoudre l'equation matricielle :~
.~~
D'autre part, en vertu de (d) de 4.1.9, 'A'(A-I) = '(A-IA) = 'I = I, done, par la (
'~'. : proposition 4.2.3, '(A-I) est la matrice inverse de 'A.
AX = I , .i · (
(4.12) o j.
Assertion (b). La conclusion precede encore de la proposition 4.2.3, car
ou X est une matrice carree inconnue. En vertu de (4.8), cette equation s'exprime, (AB)(8-IA- I) = A(BB-1)A- 1 = I. (
de maniere equivalente, par les n equations matricielles Assertion (c). On peut ecrire A(8(AB)-I) = (AB)(AB)-I = I, amsi que
, «AB)-IA)B = (AB)-I(AB) = I, d'ou la conclusion s'ensuit, grace a la proposi­ (
AXI = e l , AX2 = e2, .. . , Ax. = e., (4.13) tion 4.2.3. (
( ,
Matrices inversibJes 123
122 AJgebre matricieJle
(

( La matrice inverse est done


4.2.7 CoroDaire. Inversion d'un produit de plusieurs facteurs et d'une puissance
(
Si AI' A 2, •••, A k sont des matrices inversibles du meme ordre, Ie produit - 14 8 4]
( A-I=i 3 -1 -1.
A IA2···Ak est une matrice inversible et (A1A2 ••• Ak ) - 1 = AkIA;~I ...AII. En parti­ [ -5 3 1
( culier, si A est une matrice inversible, la matrice A k l'est egalement pour tout entier
positif k et (A k ) -I = (A -1)*. (4) Nous nous proposons de calculer la matrice inverse de
(

A _ rb
'"a -ba
-c
d-c
-d]
- c -d a b'
4.2.8 Remarques
d c -b a
(1) On designe la matrice (A-I)k plus simplement par A~k. La notion de
puissance est ainsi etendue aux exposants en tiers negatifs, A noter que lorsque A ou a, b, c et d sont des nombres non tous nuls. Les colonnes de A sont orthogonales
est inversible, les relations (4.2) soot vraies pour tous les entiers k et I; en outre, a
deux deux et de meme nonne. Cela entraine aussitot que
a a
grace (a) de la proposition 4.2.6, la relation (I) de 4.1.9 s'etend tous les entiers k. tAA = (al + b2 + c? + tP)14 •
(2) La somme de deux matrices inversibles n'est en general pas inversible. II en resulte que
Par exemple, si A est inversible, -A l'est egalement, mais A + (-A) = 0 ne I'est
pas. A-I _ 1 ~
- a2 + b2 + c2 + d2 •

(5) Soit A une matrice inversible d'ordre m, B une matrice inversible d'ordre
n et C une matrice de type m x n. Considerons l'equation matricielle
4.2.9 Exemples

(I) La matrice-unite I est inversible et I-I = I.


(oA B
C) O
(X YZ) = (10 0)
In '
m

(2) On constate facilement que


OU X, Y et Z sont des matrices inconnues. En multipliant par blocs et en egalant
3 0 0j-I [3 -I 0 1 0] a
les sous-matrices du produit ainsi obtenu celles du second membre, ROllS voyons
o 2 0 = 0 2- 0 . que
[o 0 -4 0 0 _4- 1
AX = 1m, BY = In' AZ + CY = O.
Cet exemple sera generalise dans la section suivante.
Les solutions de ces equations sont
(3) Nous allons calculer la matrice inverse de
X = A-I, Y = B- 1, Z = _A-lCD-I.
2 -2]
11 3-1 Ainsi,
A=
[2 1-5 A C)-I = (~-I -A-ICB- I) (4.15)
par reduction de (A~I) a la forme echelonnee simplifiee, Voici la suite des transfor­ (o B O B -I .

mations:

2 -2 1 0
o0]
L., - LI
[Io 2-2 I 0] L 2L 0 1­ 2

~ L+ 3L
3 -I 0 1 1 1-1 I
[; 1 -5 0 0 1 L3 - 2LI o -3 -I -2 0 3 2

o -4 0] L. 2L ° -7 4 2]
[~ [~
3 -2 + J 0
1 1 -I 1 o 2L2 - L3 2 o 3 -1 -I iL 2
0 2 -5 3 1 0 2 -5 3 1 iL3
,
(

{\
I
i(
(
(
124 AlgCbre matricielle Matrices carrees particulieres 125
(
(
4.3 MATRICES CARREES PARTICULIERES La formule (4.16) s'etend, de maniere evidente, au cas d'une famille finie (
quelconque de matrices diagonales. En particulier,
(
4.3.1 Matrices de type I x I (diag(a l • az• ..., a.»k = diag(cr!, t4, .... ~. (4.17)
(
Effectuees sur les matrices de type I x I (c'est-a-dire les matrices a un seul ou k est un entier quelconque ou un entier non negatif suivant que
terme), les operations definies dans 4.1.2. 4.1.3. 4.1.5 et 4.2.2 se confondent avec diag(a l • a2' ..., a.) est inversible ou non .
les operations ordinaires sur les nombres. C'est pourquoi nous identifierons les Plus generalement, l'effet de la multiplication d'une matrice (non necessaire­ (
matrices de ce type aux nombres. ment carree) par une matrice diagonale est Ie suivant:
(
Grace a cette ident ification nous pourrons, par exemple, ecrire Ie produit
scalaire canonique dans JR. et la norme correspondante sous la forme L
..................! ..
............?.!~ !.. .
(

(x I Y) = 'xY. II x II = ./XX. diag(al' a2' ..., aJ


(

·..........·.. ..·..·..·....

L~· ·. ·. . ·. . . . ·.·
a~i:
(

4.3.2 Matrices scalaires

On appelle malrice scalaire toute matrice de la forme

a 0 0 . (,
bl b. diag(a l, az• ..., a.) alb l ... ,a.b., .
o a 0
,(
aI =

o 0 ... a

Nous avons deja constate que la multiplication d'une matrice scalaire aI par
une matrice A est equivalente a la multiplication du nombre a par A: 4.3.4 Matrices triangulaires
~t :
(al)A = aA. A(al) = aA. On appelle matrice triangulaire superieure toute matrice de la forme
f
.e
all alz a l•
4.3.3 Matrices diagonales o a22 a2n
(
On appelle matrice diagonale, et on note diag(a l , az• ..., aJ. toute matrice de
la forme (
al 0 0 o 0 . . . aM ~
o az 0
On appelle matrice triangulaire inferieure la transposee d'une matrice triangulaire (

superieure. (
o 0 . . . a. Pour qu'une mat rice triangulaire superieure (inferieure) A soit inversible it
faut et it suffit que ses termes diagonaux all ' a 22, ..., alJll soient to us non nuls. Cette (
Un calcul facile montre que
.
.. condition etant remplie , A-I est encore une matrice triangulaire superieure (infe­
diag(al' az, .... a.)diag(b l • bz• .... b.) = diag(a.b l , azhz• .... a.bJ. (4.16) rieure); en outre. les termes diagonaux de A-I sont ajjl. aiil, ..., a;,l . Pour <
dernontrer ces assertions, il suffit d'observer l'effet des operations elementaires sur (
D'apres la proposition 4.2.4. une matrice diagonale est inversible si et
la matrice (A :1), lorsqu'on la transforme en une matrice echelonnee simplifiee. On {
seulement si ses termes diagonaux sont to us non nuls. Si cette condition est
remplie, il decoule de (4.16) que peut egalement proceder par recurrence sur n en s'appuyant sur la formule (4.15).
;\ (
(dilag (aI' az• ..:.jJ. »-1 = d lag
' (-I
a l , az- I. .... a.- I) .
't (
(
(
127
( Algcbn: raatricielle Retour aUJ< operations clcmentaircs
126

( 1
( Type I : Iii (i #- l) se deduit de I par echange de la i-ieme et la l-ieme ligne; par
4.3.5 Matrices symetriques ! exernple, si i < I,
On appelle matrice symetrique toute matrice egale asa transposee. Entre les ·'1i
<'
tennes alj d'une matrice symetrique il y a done la relation , 0 0 0
,
~

(
alj = aj i • (4.18) •
~ 0 0 I o!.. . i-ieme
(
Toute matrice diagonale est evidemment symetrique . Voici un exemple de

j Iii = I. 0 . 0 I .....l-ieme
0 1
(
matrice symetrique non diagonale:

1
,
-I 2 5]
I
0 0 0
(
(
[ 2
5
0
-I
-I .
3
t t
i-ieme l-ieme
i
(
L'inverse d'une matrice symetrique inversible est encore une matrice syme­ e) Type 2: lu (i #- l) se deduit de I par addition a la i-ieme ligne du produit de la
trique, car, d'apres (a) de la proposition 4.2.6, l-ieme ligne par Ie nombre a; par exemple, si i < I,
1
(

(
'(A-I) = ('A)-t = A-I .

Si A et B sont des matrices symetriques du meme ordre,le produit AD n'est


,!
.i
0
0

1
0

a
0

I.. .
o i-ieme
symetrique que si A et B commutent. En effet, d'apres la propriete (d) de 4.1.9,
lu = I .
( '(AD) = 'B'A = BA. 1 0 0 1 o!.. . l-ieme e

(
(
tf o 0 .. 0
t T
4.3.6 Remarque i-ieme l-ieme
(

(
L'addition et la multiplication par un scalaire de matrices de I'une quelcon­ f
(; If se deduit de I par multiplication de la i-ieme ligne par Ie nombre a;
que des classes presentees dans cette section est une matrice de la meme c1asse. En
)
Type 3:
d'autres tennes, les matrices d'ordre n de chaque c1asse forment un sous-espace t autrement dit,

o
vectoriel de I'espace vectoriel des matrices carrees d'ordre n.
i 1 0

oI o
( i
(
t~
I~ = a .....i-ieme
t
( i
( 4.4 RETOUR AUX OPERATIONS ELEMENTAIRES .~ 00 . . . . .

(
i
~ 4.4.2 Elfet de la multiplication par une matrice elementaire
( 4.4.1 Matrices elementaires 1
( On appelle matrice elementaire toute matrice pouvant se deduire de la t L'interet des matrices elementaires vient du fait qu'elles permettent d'expri­
mer les operations de reduction d'une matrice par des multiplications matricielles.
matrice-unite par I'une des operations elementaires definies dans 3.3.4. Toute Supposons que Iii> I et I~ soient d'ordre 11. Alors, pour toute matrice A an lignes:
u
( matrice carree d'ordre I est done une matrice elementaire et toute matrice elemen­
( taire d'ordre superieur a I est de l'un des trois types suivants: (a) IuA se deduit de A par echange de la i-ieme et la l-ieme ligne.
~ (b) 1;jA se deduit de A par addition a la i-ieme ligne du produit de la l-ieme ligne
(
[" par a.
( (c) I:A se deduit de A par multiplication de la i-ieme ligne par a.
~

(
(
129 (
128 Aigebre rnatricielle Fonctions malricielles

(
2 (
4.4.3 Transposee et inverse d'une matrice elementaire converge (absolument) si chacun des n tennes de la matrice
I (
La transposee et I'inverse d'une matrice elementaire sont encore des matrices

elementaires. Plus precisement:

:E Cl~k
k -O (
converge (absolument) quand I tend vers l'infini. Cette condition etant remplie,
(a) 'Iii = Iii> Iii = Ii/' oj!
(
it' nous appellerons somme de la serie (4.20) la matrice formee des termes-limites.
(b) '(IY) = Ii:. (Iy)-I = Iii a •
(c) '(I:') = I~. (1;')-1 = li la (a "" 0).
Cette somme est encore designee par ['expression (4.20). (
A noter que si la matrice A est nilpotente. la serie (4.20) se reduit a une
somme finie, car Ak = 0 pour tout entier k assez grand.
.1l
4.4.4 Matrices inversibles com me produits de matrices elementalres Supposons qu 'une fonction reelle j'solt defin ie par une serie entiere dans un
-~
voisinage de 0:
Selon 3.3.5. 3.3.7 et 4.4.2 . to ute matrice peut etre transformee en une matrice

echelonnee ou en une matrice echelonnee simplifiee au moyen d'une suite finie de

j{x) =
'" Cl~. I x I <
:E r.
(4.21)
('
multiplications par une matrice elementalre. En particulier, pour toute matrice
k -O .
inversible A. iI existe, vu 3.3.11. des matrices elementaires MI ' M 2, .... M k telles
La serie (4.20) converge alors absolument pour toute matrice carree A d'ordre n
que telle que II A II < r (cf. exercices 4.7.19 et 4.7.18). ou (
M IM2 ... MkA = I.
n n )Y. (4.22) (
En multipliant les deux membres par (MIM2 ... Mk)-I. nous en concluons, grace II A II = ( j~lj~l~ .
au corollaire 4.2.7, que Ii .{

A = (M IM2 ... M k) - 1 = MkIMk~I ... MII , •


~
Pour une telle matrice A no us poserons
eo (4.23)
(

ce qui atteste que toute mat rice inversible est un produit de matrices elementaires.
I~ j{A ) = :E ClkA k •

k -O

Dans Ie cas ou A est diagonale, cette definition def(A) se reduit, grace a (4.17). a
(4.24)
(

'. f(diag(a, . a2' ...• an» = diag(f(al),J(a0• ... ,J(a.».


I
4.5 FONCTIONS MATRICIELLES
i
~ 4.5.3 Derivation de ronctions matricieUes
4.5.1 Polynomes matriciels ~ On dit qu 'une matrice dependant d'un parametre reel t est derivable si to us
(
Si A est une matrice carree etj{x) = Cl o + Cl,X + ... + Clk.-I' un polynorne, ~
~~ ses tennes sont derivables, Soit A(t) = (aij(t» une matrice derivable. On appelle (
nous poserons ~~
derivee de A(t) la matrice A(t) = (a lJ.(t», ou a.(t) designe la derivee de ali(t).
'J (
~
7

j{A) = CloI + ClIA + ... + ClkAk. (4.19) Les seules matrices derivables qui no us interessent se deduisent de (4.23) par
f substitution de tA a A: (
La fonction qui associe a toute matrice carree A la matrice j{A) est appelee t oc (

~~ I
polynome matriciel.
j{tA) = :E ClJAk.

k -O
(
D 'apres ce qui a ete dit dans 4.5.2, cette serie converge absolument pour tout t tel
4.5.2 Fonctions matricielles (
~ que
Nous pouvons definir des fonctions matricielles plus generales que les r (
a
polynomes l'aide de series matricielles. Soit A une matrice carree d'ordre n. Nous
I t I <IIAII'

(
dirons qu 'une serie ou rest la borne apparaissant dans (4.21) (par convention riO = (0) . En outre.
(
Xl
f{tA) est derivable et
:E ClkAk (4.20)
(
k -O
(f(/A»' = A,!(tA) , (4.25)
( .
(
130 Algebre matricielle
( Matrices de transition 131

(
ou le point dans Ie premier membre indique la derivation par rapport a t de la probabilites appelees probabilitesde transition. La suite des etats successifs occupes
(
mat rice entre parentheses etjdans Ie second membre designe la derivee de! Dans par la particule au cours du temps constitue ce que l'on appelle un processus
( Ie cas ou/est un polynorne, cette relation resulte descalculs suivants: stochastique. Si la probabilite de transition d'un etat i a un etat j ne depend que
(lttA»" = (aol + altA + a 2rA2 + '" + akIA")' de i et dej. et non pas d'autres etats ou de I'instant auquelle changement d'etat
= alA + 2a 2tA 2 + + kakl-IAk a lieu. on dit que Ie processus stochastique est une chaine de Markov homogene ou
= A(aII + 2a 2tA + + kakl-1Ak- l ) = Aj(tA). simplement une chaine de Markov.
( Le cas general s'ensuit par passage a la limite.
4.6.2 Matrices de transition
4.5.4 Exponentielle d'une matrice
Etant donne une chaine de Markov. designons par aij la probabilite de
L'exponentie//e d'une matrice carree A s'obtient a partir de (4.21) en posant transition de l'etat i a l'etatj' en une unite de temps. On appelle la matrice A = (aij)
ak = Ilk! (dans ce cas. r = 00): matrice de transition de la chaine. Cette matrice satisfait aux conditions suivantes :
00 I
exp(A) = ~ _Ak • o~ aij ~ I . i.] = 1.2. .... n.

(4.26)
k=ok! ail + ai2 + ... + ain = I. i = 1.2• ...• n.

II est evident que exp(O) = let exp(aI) = e"I. En outre. si A et H comrnu­ La premiere condition exprime simplement Ie fait qu'une probabilite se mesure par
tent
un nombre compris entre 0 et I ; la deuxieme que la chaine passe. avec certitude.
exp(A + H) = exp(A)exp(H). (4.27) de i a un des etats I. 2..... n.
En effet, compte tenu de (4.3).

exp(A)exp(H) = ( i ..!..Ak)(i
k-o k!
.!.H /) = i
1-0 I!
(r.I
1-0 k-O k!(i-k)!
A~/-k) 4.6.3 Loi initiaIe

Supposons que l'etat initial de la chaine ne soit pas fixe. mais gouverne, lui
00 I
= 1-0~ -I,(A + H)' = exp(A + H). aussi, par des probabilites : pJOl est la probabilite qu'a l'instant 0 la chaine occupe
.
l'etat j , Ces probabilites satisfont aux conditions suivantes:
En particulier,

exp(A)exp(-A) = exp(A - A) = exp(O) = I.


o ~ pJOl ~ I . j = 1.2•. ..• n.

pf' + p~Ol + ... + p~Ol = I.

d'ou il resulte que exp(A) est inversible et


On appelle la matrice-ligne
(exp(AW I = exp(-A). (4.28) rR(Ol p(Ol
L (O) = [YI p(Ol]
2 ' " •
Appliquee a la fonction exponentielle, la relation (4.25) devient
loi initiale de la chaine.
(exp(tA»' = Aexp(tA).
(4.29)

4.6.4 Loi i I'imtant k


(
La loi initiale et la rnatrice de transition d'une chaine de Markov determi­
\ 4.6 MATRICES DE TRANSITION
nent la probabilite de tout evenement lie a cette chaine. Par exernple, designons
( par py) la probabilite qu'a I'instant k la chaine occupe l'etat j . On appelle la
matrice-ligne
<­ 4.6.1 Cbaines de Markoy tinies
L(kl = [p\kl p~kl . . . p~kll
( Imaginons qu'une particule occupe une parmi n positions possibles. desi­
( gnees par I. 2• ...• n et appelees etats, Supposons qu'aux instants O. I. 2• ... la loi de la chaine Ii l'instant k. II est intuitivement clair que
particule change d'etat de maniere aleatoire. Ce changement est gouverne par des pJIl = p\Olalj + p~Ola Zj + ... + p~Ola.j
(
(
132 Algebre matricielle Exercices 133 (
(

et, plus generalement, pour tout instant positif k, que 4.7 EXERCICES (
pJk) = p\k-I)a lj + p~k-l)a2j + ... + p~k-I)anj ' (
En termes matriciels cette relation s'ecrit 4.7.1 Soit (
~:~
'j
L(k) = L(k-I)A. (
~

'i 2
A= ( 3
_I [-I
2 _I,B= _:
3) I 4]
~ -~ ,C=~ . [I]
Par recurrence, il s'ensuit que
L(k) = L (O)Ak • (4.30)
~
Nous voyons ainsi que la loi initiale et la matrice de transition permettent de
calculer la loi de la chaine a n'importe quel instant.
It Calculer, !orsque la multiplication est possible, les produits AA, BB, AB, AC, BC,

'CA, 'CB, 'CC, cc. \

4.7.2 Soit 8 1, 8 2, .. . , 8 n les colonnes d'une matrice A de type m x n et B I , (


.~

4.6.5 Exemple
:i B 2, ... , B, les lignes d'une matrice B de type n x p. Montrer que
AB = alBI + 8 2B2 + ... + a"Bn '
Un magasin vend deux marques m, et m2 d'un certain produit et un client
habituel de la maison achete m l avec probabilite 0,7 si son dernier achat etait m l
i
. ,~
4.7.3 Par reduction simultanee, trouver I'ensemble des solutions de l'equa­
tion matricielle AX = B, ou
.~ -{
et avec probabilite 0,4 si son dernier achat etait m 2• Nous allons calculer les

~ ~ ~]
:Jj I
probabilites d'achat de m l et de m2 lors du sixieme achat (l'achat initial est fait a
a a
l'instant 0). Nous avons faire une chaine de Markov deux etats, l'etat I a
-Il
<'[
7: . A [:
° °
1
:] otB [: J
.~
I
designant la marque m l et l'etat 2 la marque m 2• La matrice de transition de cette
chaine est ~
°
~~ 4.7.4 Ecrire la matrice
A = [0,7 0,3) . ':?
0,4 0,6 ~ I 2 3]

A=
[° I 2
Supposons, par exemple, que la loi initiale soit
L(O) = [t 1].
~.

~~
"
I ° °
sous la forme I + Bet calculer Ak , pour tout nombre entier positif k, a l'aide de
.f.
La loi a I'instant 5 est alors, d'apres (4.30), :oJ
: :, la formule du binorne.
:/;, (
L(S) = L(O)A S ;;; [t t] [0,57247
0,57004
0,42753)
0,42996 ;;; [0,57084 0,42914]. '1:
.;~ . ~
4.7.5 Montrer que les seules matrices qui commutent avec la matrice
(

Lors du sixierne achat, les probabilites d'achat de m, et de m2 sont done respective­ ij ° oI I


o °
al a2 a 3
al a2
an
a".t (

.i" ~. I·
ment 0,57084 et 0,42914. at • a".2 (
On peut se demander si I'influence du choix initial tend a disparaitre apres A sont celles de la forme
~
a
un grand nombre d'achats. Nous repondrons cette question plus loin, lorsque
f (
nous disposerons des moyens necessaires pour etudier Ie comportement asympto­ 41
o
1
° (
tique des puissances de certaines matrices (cf. 8.4.5). :~ l at
:>./,. .
} "~ ~
)~ - '
°
En deduire que les matrices qui commutent avec A et 'A sont de la forme aI.
(

'4' : (
Relever, au passage, que si deux matrices commutent, aucune des deux, en general,

:~ti. ne commute avec la transpo see de I'autre. (

~~~ (
; .;.i. .
4.7.6 Par recurrence sur k, dernontrer que la formule du binome (4.3)
s'applique a tout couple (A, B) de matrices carrees qui commutent. (
(
134 Aigebre rnatricielle Exerciccs 13S
(
(
Z
4.7.7 Soit A une matrice de type m x net de rang n. 4.7.13 Soit A une matrice carree telle que A3 - A + 2A - 31 = O. Mon­
(
(a) Montrer que Ie rang de 'AA est n. (Multiplier les deux membres de l'equation
trer que A est inversible et exprimer A-I sous la forme d'une combinaison lineaire .
( 'AAx = 0 pat 'x, en deduire que Ax = 0 et appliquer Ie corollaire 3.5.4.)
de puissances entieres non negatives de A. (Appliquer la proposition 4.2.3.)
(b) En deduire que la seule solution de toute equation de la forme AX = 0 est

X = O.
4.7.14 Soit A une matrice inversible d'ordre m. 8 une matrice inversible
4.7.8 Methode des moindres cartes. Soit PI(a\ . hi)' Pz(a z• h~ • ...• P.(a•• h.)
d'ordre n et C une matrice de type m x n. Montrer que
(
(
n points de IR tels que a, '" aJ si i '" j. Soit k un entier positif inferieur a n, Pour

tout polynorne p de degre inferieur ou egal a k, on pose

c
[8
A)-I=
0
[0 A-I -A- 1C8
8-
1

-
)
1 •

( oZ(p) = (hi - p(al»z + (hz - p(a~)Z + ... + (h. _ p(a.»z. A I'aide de cette formule, calculer la matrice inverse de
Le but de cet exercice est de trouver Ie polynome p(t) == a o + alt + ... + akt* qui - I I I o
I minimise o(P). On designe par p Ie vecteur-colonne forme des coefficients inconnus
ao.
1 -I o I
I al • ...• ak et on pose - I
I
I
1
o
o
o
o
I· a\ a7 ~ hi
I az ~ t4 hz
i
4.7.15 Calculer la mat rice inverse de
A = I I. b =
I -I 2 0
2 0 2 3
I a. tl. .. . tI.) l h. 2 -5 1 0
Les assertions suivantes sont a demontrer : . 1 - 2 -2 2
(a) o(P) = II b - Ap II.
(b) o(P) est minimal lorsque Ap est la projection orthogonale de b sur Ie sous­
4.7.16 On appelle matrice antisymetrique toute matrice egale a sa transposee
espace vectoriel forme des vecteurs-colonnes Ax. x parcourant JRk +l.
rnultipliee par - I.
(c) Ap est cette projection lorsque pest I'unique solution de l'equation (a) Montrer que pour toute matrice carree A. A + 'A est une matrice symetrique
et A - 'A une matrice antisyrnetrique.
'AAp = 'Ab.
(b) Montrer que I'ensemble des matrices syrnetriques d'ordre n et celui des matrices
(Poser que b - Ap est orthogonal a Ax pour tout x de JRk+ I; utiliser les antisymetriques d'ordre n sont des sous-espaces complernentaires dans I'espace
exerc ices 3.6.6 et 4.7.7 pour prouver l'unicite de la solution.) vectoriel des matrices carrees d'ordre n.
Application numerique: etant donne PI(O. I). Pz(l . 2). P3(2.4). P4(3 . 8). trouver (c) Trouver la dimension de ces deux sous -espaces et verifier la relation (1.12).
Ie polynome p de degre inferieur ou egal a 2 qui minimise o(P).
4.7.17 Soit 0 une matrice diagonale d'ordre n dont les tennes diagonaux
4.7.9 Montrer que si A est une matrice inversible , aA I'est egalement pour

sont distincts. Demontrer que toute mat rice diagonale d'ordre n s'ecrit de maniere
I
1
tout nombre a non nul et (aA)-1 = -A-I . unique sous la forme d'une combinaison lineaire des matrices I, O. Oz. .... 0-- •
a
<" (Utiliser I'exercice 3.6.6.)
( 4.7.10 Montrer que si deux matrices inversibles A et 8 commutent, alors
A-I et 8 - 1 commutent egalement. ., 1 4.7.18 Dans I'espace vectoriel des matrices carrees d'ordre n. on considere
(
l'operation ( ·1 .) definie par la fonnule
4.7.11 Montrer que si une matrice inversible A commute avec une mat rice
( 8 . alors A- I commute avec 8. (A 1 8) = tr('AB).
( (a) Montrer que cette operation est un produit scalaire.
4.7.12 Soit A une matrice carree, Soit 8 et C des matrices invers ibles du
~~
( meme ordre que A telles que '(8A)8 - 1(C8 - 1)- 1 = I. Montrer que A est inversible (b) Montrer que la nonne associee ace produit scalaire est celie qui est definie dans
:{~
et exprimer A-I en fonction de 8 et C. (Appliquer la proposition 4.2.3.) -, , (4.22).
(
(
• .)u Algebre matricielle
(
(
(c) Montrer que CHAPITRE 5
(
II AD II.,;; I A 1111 811 ·
(
(d) Montrer que si x est un vecteur-colonne de R',
Determinants
(
II Ax II .,;; IIAllllxll·
(
4.7.19 Montrer que la serie (4.20) converge absolument si II A II < r. <11). r
est la borne qui apparait sous (4.21). . (

4.7.20 Soit A une matrice carree tel1e que II A II < L Montrer que (

.f:
5.1 DEFINITION

eo
:;.~
ET PROPRIETES DES DETERMINANTS

(J - A)-I = ~ Ak •
k -O
' :~
r.
(Utiliser I'exercice precedent.)
:{
" 5.1.1 Introduction
4.7.21 Montrer que si

(0-1] ., ~ La notion de determinant est apparue en relation avec la resolution de


A = I 0' alors exp(tA) = ( cost
. -sint] . certains systemes lineaires. El1e est egalement liee a l'idee de volume, comme Ie
smr cost ·r montrent les conclusions de 2.7.14 et 2.7.15. Dans cette section. nous nous propo­
~ (
(Utiliser les developpements en serie de Taylor des fonctions cos et sin.) ~ sons d'exposer et de commenter les proprietes principales derivant de la definition
de cette nouvelle notion. ainsi que d'etendre Ie concept de volume a un parallelepi­ «

pede n-dimensionnel. Dans la section 5.3. nous etudierons les developpements et


-,
\I
appliquerons les resultats obtenus a la resolution de certains systemes lineaires,
;
i ~~ I ainsi qu'au calcul de I'inverse d'une matrice.

\ <~ ~ I
t2 I
'": .

\ ~r
!,~~ 5.1.2 Notation
!
Le determinant d'une matrice carree A = (aij) est un nombre associe a A que
nous nous appretons a definir et noterons
,', t (
,';'.: all a l2 a l• (
a 21 a22 a2n
:.:. .: (

IAI ou (

a. 1 a.2 ... ann (

ou aussi (

det(a l , a2' ..., a.), (

lorsque la dependance de A est exprimee au moyen de ses colonnes at, a 2, .... a•. (
En accord avec ce dernier symbole, Ie determinant est egalement appele determi­ (
nant des vecteurs-colonnes a l • a 2, .... a•.
(
(
138 Determinants. lt Definition et proprietes des determinants 139

..'
':..;.
(
Par la suite, il sera souvent question de colonnes ou de Iignes d'un determi­ (2) Determinant d 'une matrice diagonale. Par application repetee de (5.1),
( j
nant . II est entendu que ces colonnes ou ces !ignes sont celles de la matrice a '<
nous obtenons:
(
(
laquelle Ie determinant est assode.
Si A est une matrice carree d'ordre n superieur a I, nous designerons par ?, a\ 0
:1 a2 0 ., . 0
o aJ . .. 0
Aij la matrice carree d'ordre n - I obtenue en supprimant la i-ieme ligne et la o a2
{ j-ieme colonne de A.
al . . . .. . I = ... = a la2'" a• . (5.2)

( o 0 . . . a.
(
o 0 a·1
~.
5.1.3 Detenninant d'ordre n t:,
En part iculier,
On appelle determinant d'ordre n la fonction qui assode a to ute matrice -: (5.3)
Ial.1 = 0".
carree d'ordre n son determinant, Nous definissons cette fonction par recurrence ~
..i.,
\
(3) Determinant d'une matrice triangulaire. Par appl ication repetee de (5.1),
sur n:
f nous obtenons:
• Ie determinant d'une matrice carree A = (a) d'ordre I est a;
\ • supposons que Ie determ inant d'ordre n - I ait ete defini pour un entier all a.2 a l.
I j a22 a2J a2n
i n superieur a I ; Ie determinant d'une matrice carree A = (a;) d'ordre nest alors o o a33 aJ.
i! Ie nombre t~.
a22 a2n
all ... = a lla22 ... ann ' (5.4)
~
IA I = alii All I - a2d A211+ .., + (-I)· +lanl i AnI I ~~
o 0 . . . a..
• (5.1) .J'
o 0 . . . a.. ,
= I (-li+laill A;.! . "-; .
I- I ."
Nous verrons dans la proposition 5.1.8 que Ie determinant d'une matrice
On notera que pour n = 2 et n = 3, notre definition coincide avec celie .~ carree A est egal au determinant de sa transposee 'A. Nous en deduisons que Ie
.":­
introduite dans 2.7.2: -<i
determinant d'une matrice triangulaire inferieure est aussi egal au produit des
:!
tennes diagonaux.
n = 2: I A I = all 1(a22) 1- a2d(a I2)1= a lla22 - a21 a12 ;

I
n = 3'. I A I -- all a22 a2J
a32 aJJ
I I - a21 al2
a32
al J
aJJ
I I
+ l
aJI a 2
a22
13
aa23 /
.'
5.1.5 Theoreme. Proprietes fondamentales du determinant d'ordre n
Le determinant d'ordre n jouit des proprietes suivantes:
alla22 a33 + a2la32al3 + aJl al 2a23 -;
(a) det(a., , aj , , at> ..., a.) = -det(a. , , at, ..., aj ' ..., a.) (n> I,j <.k).
- a lla32a2J - a 21al2aJJ ­ aJl anOl3'
~!;
(b) det(a. , , aaj , , a.) = adet (a., ..., aj ' , a.) .
(c) det(a l, , aj + aj, ..., a.) = detfa. , ..., aj' ... , a.) + det(al' ..., aj, ..., a.).
.'~
:~ (d) deue. , e2' ..., e.) = I, ou (e l, e2' ..., e.) est la base canonique de lR· .
5.1.4 Exemples \";'
En d'autres tennes, Ie determinant est mult iplie par - I si deux de ses
(I) Exemple de calcul d'un determinant : .~ colonnes sont echang ees, il est multiplie par a si une de ses colonnes est multipliee
~ par a , il est additif en chacune de ses colonnes et attribue la valeur I a la
~.
0 I I 2 matrice -unite.
I I 2 I I 2
2 0 I

I~
( = -3 I 2 4 - 2 2 0 I L'union des proprietes (a), (b) et (c) s'enonce en disant que Ie determinant
I 2 4
3 2 0 I 2 4 f d'ordre nest une forme n-lineaire alternee dans R' (cf. 6.4.3).
( 3 2 0
i~. Le determinant d'ordre n n'est pas additif (sauf si n = I) ; autrement dit,
(
(
= - 3(11~ ~I - II~ ~I + - -
31~ ~I) 2(11~ ~I 21~ ~I + II~ ~I) 1
\.~;
I A + 8 I n'est en general pas egal a I A I + I 8 I. Par exemple,

I~ ~I # I~ ~I + I~ ~I·
( = - 3(- 8 + 4 + 0) - 2(-2 - 0 + I) = 14.

(
(
\
(
140 Determinants Definition et propnetes des determinants 141
(
(
Nous verrons dans 5.2.4 que les proprietes (a}-(d) caracterisent Ie determi­ pour toute matrice elementaire M et toute matrice carree B du rneme ordre que M. (
nant d'ordre n. Ces proprietes en entrainent d'autres, que nous enoncerons dans De (5.6) et des relations (a). (b) et (c) de 4.4.3 , il resulte en outre que
les deux propositions suivantes et demontrerons, avec Ie theoreme 5.1.5. dans la (
section 5.2.
I'M I = I M I (5.8)
(
On remarquera d'ores et deja que Ie determinant est nul si deux de ses pour toute matrice elementaire M .
colonnes sont egales ou si I'une d'entre elles est nulle . En effet, un echange de deux Les proprietes (5.7) et (5.8) serviront a demontrer leur generalisation que (
colonnes egales laisse Ie determinant inchange et , d'apres (a). change en meme voici : (
temps ce determinant en son oppose. ce qui demontre la premiere assertion ; quant
a la seconde, il suffit de poser a = 0 dans (b). (
;:
On notera en outre que f 5.1.8 Proposition. Autres proprietes du determinant d'ordre n

laAI = an I AI (5.5) Si A et B sont des matrices carries d'ordre n, alors (


pour toute matrice carree A d 'ordre n. En effet, cela resulte de (b) appliquee a (a) I AB I = I A II B I; (
chaque colonne de A. (b) ItA I = I A I.
En d'autres termes, Ie determinant du produit de deux matrices carrees du
~. meme ordre est egal au produit de leurs determinants et Ie determinant de la
transposee d'une matrice carree est egal au determinant de cette matrice.
5.1.6 Proposition. Proprietes du determinant d'ordre n II resulte aussitot de (a) que
,(
Le determinant d 'ordre n jouit des proprietes suivantes: (5.9)
I Ak I = I A Ik
(a) det(a t , ... , aj + aak' a,,) = det(a" , aj • •••, a,.) (n > I, j ¢ k). OU, plus (
pour tout entier positif k ,
generalement, det(a l , aj + I akak a,,) = det(a l, .... aj' ..., a,,).
k :ky,j
(b) det(al ' a2' ..., a,.) ¢ 0 si et seulement si les vecteurs-colonnes a l• a2' ..., an sont (
lineairement independents. 5.1.9 Determinant comme fonction des !ignes

En d'autres termes, Ie determinant reste inchange lorsqu'on additionne a Le determinant peut etre concu com me fonction de la famille des Iignes
~
I'une de ses colonnes un multiple d 'une autre colonne ou une combinaison lineaire ~ d'une matrice . Grace a (b) de la proposition 5.1.8, cette fonct ion jouit des proprie­
des autres colonnes: en outre. vu la proposition 4.2.4, Ie determinant d'une matrice
est non nul si et seulement si cette matrice est inversible (ou nul si et seulement I'! tes enoncees dans Ie theoreme 5.1.5 et dans la proposition 5.1.6. a savoir : elle est
une forme n-lineaire alternee, e1le attribue la valeur I a la famille des \ignes de la
(
si cette matrice n'est pas inversible).
; matrice-unite, sa valeur ne change pas lorsqu'on additionne a une Iigne un multiple
d'une autre Iigne et cette valeur est non nulle si et seulement si les Iignes sont (
~,'"
;v lineairement independantes.
.~ (
:'i~

5.1.7 Determinant d'une matrice elementaire (


5.1.10 Determinant de Plnverse d'une matrice
Le determinant d'une matrice elementaire se calcule par application repetee (
Soit A une matrice inversible. D'apres (d) du theoreme 5.1.5 et (a) de la
de (5.1) (I 171 et I lil I avec i < I sont des cas particuliers de (5.4». II peut egalement (
etre deduit de (d) du theoreme 5.1.5 et (a) ou (b) du rneme theoreme, ou (a) de la proposition 5.1.8,
proposition 5.1.6. Le resultat est Ie suivant : I = III = IAA-tl = lAllA-II, (

I Iii I = -I , I lil I = I , 1171 = a. (5.6) (


d'ou no us deduisons que
Vu l'effet de la multiplication par une matrice elernentaire (cf. 4.4.2), il IA-11=IAI- I . (5.10) (
s'ensuit, grace a (a) et (b) du theoreme 5.1.5 et a (a) de la proposition 5.1.6, que (
II en decoule aussitot que dans Ie cas ou A est inversible, la relation (5.9)
IMBI = IMIIBI (5.7) est vraie pour tout entier k . (
(
(

142 Determinants Demonstration des proprii:ti:s des determinants 143


(
(
5.1.11 Proposition. Rang d'une matrice par les determinants Dans Ie cas ou n = 2, un parallelepipedeest appele parallelogrammeet son
(
volume aire. D'apres (5.12)
Le rang d'une matrice A (non necessalrement carree) est le plus grand entier
(

{
k tel que l'on puisseextraire de A une sous-matricecarreed'ordre k et de determinant
non nul. aire(Po, PI' PJ = Idetfa., aJ I = II all
a21
a,211 =
au
I allau - a21 a121 .

( Montrons que Ie dernier membre est bien I'aire ordinaire du parallelograrnme


DEMONSTRAnON
construit sur Po' PI' P2. Le carre de cel1e-ci est ega I a
Soit r ce plus grand entier et m Ie nombre de lignes de A = (a i) . Designons
parjl ,j2' ... .i. les indices de colonne d'une sous-matrice carree de A de determinant II P;;P; 11 211M 211 2 2
112sinz(PIPoP2) = II a l 11 a 2 11 - II al 11 II a2 11

2cos2(PIPoPJ

non nul. D'apres (b) de la proposition 5.1.6, les colonnes et done les lignes de cette = II a l 11 211 a 2 11 2
- (a, I aJ2 = (allau - a21 a 1J2,
sous-matrice sont lineairernent independantes, II s'ensuit que Ie rang de la matrice ce qui demontre l'assertion si PI et P2 sont distincts de Po; autrement, elle est
,
evidente.
i a~

~~
a~ a~

~
Compte tenu de 2.7..14 et de 2.7.15, nous voyons egalement que

all a l2 all

vol(Po, PI' Pz, P3) = I det(a l , a2' a3) I = II a21 au a23


a31 a32 a33

ami! amj2 . . . amj, represente Ie volume ordinaire du parallelepipede construit sur Po, PI ' P2, P3•
Nous montrerons dans 7.1.12 que la definition de volume (5.12) est indepen­
est r, car r de ses lignes sont lineairement independantes, Par consequent, rgA ~ r. dante du choix du repere orthonormal. De ' ce fait, Ie volume d'un cube-unite,
D'autre part, r' etant Ie rang de A, nous pouvons extraire de A r' colonnes c'est-a-dire d'un parallelepipede tel que les vecteurs ~, M, ...,
p;;P" sont
lineairement independantes formant une sous-rnatrice A' de rang r ', En prenant orthogonaux deux a deux et unitaires, est egal a 1, car dans Ie repere (Po; ~,
alors r' lignes lineairement independantes de A', nous constituons une sous-matrice p;;p,,)
"'Ji;P;, ..., ce volume s'ecrit
carree de A d'ordre r' et de rang r', D'apres (b) de la proposition 5.1.6, Ie
determinant de cette sous-matrice est non nul. Par consequent, r' = rgA ~ r . vol(Po, PI' ...• p.) = I detfe., e 2, .., eJ I
Nous en concluons que rgA = r, ce qu'il fal1ait dernontrer. et vaut done I, par la propriete (d) du theorerne 5.1.5.
A titre d'exercice, Ie lecteur pourra ecrire les proprietes du volume qui
decoulent de cel1es du determinant et ilIustrer ces proprietes, a I'aide d'une figure,
5.1.12 Volume d'un paralleleplpede dans Ie cas de I'aire et du volume ordinaires.

Soit if un espace affine euclidien de dimension finie non nul1e n. On appel1e


parallelepipede construit sur les points Po, PI' ..., P; de ff' le so us-ensemble de (£

(

~ ajPOP
{P: -PoP = ~ ----+
j' 0 ~ aj ~ I,J = 1,2•. .., n .
• }
(5.11) 5.2 DEMONSTRAnONS DES PROPRIETES
j -I
<' DES DETERMINANTS
( M unissons if' d'un repere orthonormal et designons par aj Ie vecteur­
colonne de R· forme des composantes du vecteur ~. On appel1e volume du
( 5.2.1 Demonstration du theoreme 5.1.5
parallelepipeds (5.11), et on note vol(Po, PI' ..., Pn ) , la valeur absolue du determi­
( nant des vecteurs-colonnes ai' a2' ..., a.: Propriete (a). Cette propriete est evidente si n = 2. Supposons qu'el1e soit
verifee par Ie determinant d'ordre n - 1, netant superieur a2. En vertu de (5.1),
( vol(Po, PI' ..., p.) = I det(a l , a 2, ..., aJ I. (5.12) elle est alors verifiee par Ie determinant d'ordre n dans Ie cas ou 1 < j < k. Le cas
( Dans Ie cas ou n = I, un parallelepipede est un interval1e et son volume est ouj = I et k > 2 se reduit acelui ouj = I et k = 2 par un triple echange : d'abord
la longueur. de a2 et at , ensuite de a l et at et finalement de a l et 82 ' Le premier et Ie troisieme
(

c.
\

(
144 qeterminants
Demonstration des proprietes des determinants 145
(
(
echange transfonnent chacun la valeur du determinant en sa valeur opposee, par II s'ensuit, grace a la propriete (a) deja etablie, que
ce que nous venons de constater. Le deuxierne echange en fait autant, en vertu de (
ce que nous allons dernontrer. Pour tout couple (i, I) tel que i i' I, designons par
..~
det(a" ..., aj , .. ., a,J = det(a" ..., aj - ~ a,tllk' ..., a,J
k :k"j (
Ai/.1 2 la matrice carree d'ordre n - 2 deduite de A par suppression de la i-ieme et = det(a l, ..., 0, ..., an) = O.
la l-ieme ligne , ainsi que des deux premieres colonnes. D'apres (5. I),
¥
"'~'.
(
'~j Inversement, supposons que les vecteurs-colonnes a" a2' ..., an soient lineairernent
i -I II
.~ independants, Selon la proposition 4.2.4 , la matrice A de colonnes ai ' a2' ..., an est (
I Ail I = ~ (- li+ la 12 1A'I.I2~ _~~(=1)~I2J AiI.121, _ alors inversible. -D'apres-(d) ~du-theoreme~ 5.1;5 -et ~ (a)- de- Ia -p roposition 5.1.8
- -- - - -- - - - /- 1- - - - l - i+1
(demontree ci-dessous),

ou il est entendu que Ie second membre se reduit a la deuxieme somme si i = I f.


. ::~ ~

I = I I I = I AA-I I = I A II A-I I,
et a la premiere si i = n. Substituons ce second membre a I Ail I dans (5. I). II vient : -·~t: j

ce qui entraine que I A I = detfa] , a 2, ..., an) est non nul.


:.1t.
~.

f1'1
" i -I II_I II

~ ~ (- li+ ilal2l Ai/.121 - ~ ~ (- li+ 1aila 12 1 Ai/.121


1a
IAI
i -2/- 1 i -I/- i+' 5.2.3 Demonstration de la proposition 5.1.8
(5.13)
~ (-I)i+lailaI2IA il,l2l- ~ (-li+lailaI2IA il,l2l, ~' i
(i.J)·<l1 (i.I)'<l2 Propriete (a) . Si A n'est pas inversible, Ie produit AB ne l'est pas non plus,
'.~; ~ selon (c) de la proposition 4.2.6. Or, nous venons d'etablir que Ie determinant

OU 4, = (U, I) : 2 ~ i ~ n, I ~ I ~ i-I} et 4 2 = {(i, l) : I ~ i ~ 1- I, k d'une matrice non inversible (c'est-a-dire dont les colonnes sont lineairernent

2 ~ I ~ n}. Si nous echangeons la premiere et la deuxieme colonne de A, les ~' :

~ dependantes) est nul. L'egalite I ~B I = I A II B I est done vraie dans ce cas. Si A

matrices Aa.12 ne subissent aucune modification. En revanche, aila 12 change en i est inversible, il existe, d'apres 4.4.4 , des matrices elementaires M I , M 2, ..., Mk telles
. (.
a/la 12, pour tout couple (i, l). Nous voyons ainsi que la deuxieme somme du dernier
membre de (5.13) devient la premiere et, inversement, la premiere devient la
i
" ' ~R

i
que A = M,M2 ... M k • Compte tenu de (5.7), nous pouvons done ecrire

~. I AB I = I M IM2 ... MkB I = I M, II M 2 ... MkB I = ...


deuxieme, L'echange de la premiere et la deuxieme colonne a done pour seul effet
de multiplier Ie determinant de A par - I, ce qu'il faIlait demontrer,
-: = IM.lIM2 1.. · I M k ll B I = IM 1M2 ... M kIIBI = IAIIBI,
'i ce qui etabl it la propriete (a).
Proprietes (b) et (c). Vu la propriete (a), nous pouvons admettre quej = I.
les conclusions decoulent alors directement de (5. I). Propriete (b). Si A n'est pas inversible, 'A ne I'est pas non plus, d'apres (a)
de 4.2.6, done I A I = I'A I = 0, d'apres (b) de la proposition 5.1.6. Si A est
Propriete (d) . II suffit de poser a = I dans (5.3).
inversible, A = M IM2 . .. M k , OU M I , M 2, ..., M k sont des matrices elementaires. i
Dans ce cas, grace a la relation (e) de 4. I.9, a la propriete (a) demontree ci-dessus
et a (5.8), nous pouvons ecrire (
5.2.2 Demonstration de la proposition 5.1.6
ItAI = I 'Mk'M k_I ..· 'MIl = I 'M k II 'Mk_11 ... I'M,I (
Propriete (a) . En vertu de (a) du theoreme 5. I .5, nous pouvons admettre que = IMIII M 2 1·.. IM k l = IM IM2 ..·Mk , = IAI, (
j = I. D'apres (b) et (c) du meme theorerne,
ce qui etablit la propriete (b).
(
det(a, + aak' a 2, •••, a,J = det(a l, a2' ..., an) + adet(ak' a 2, ... , a,J .
(
Puisque k est different dej = I par hypothese, Ie vecteur-colonne a k apparait deux
S.2.4 Caracterisation du determinant d'ordre n
fois dans Ie dernier determinant. Celui-ci est done nul, d'apres ce qui a ete (
rernarque dans 5. I.5. La formulation generale s'ensuit par iteration. Le determinant d'ordre nest la seule fonction reelle definie dans l'ensemble
(
des matrices carrees d'ordre n verifiant les proprietes (a)-(d) enoncees dans Ie
Propriete (b). Supposons que les vecteurs-colonnes ai ' a 2, ..., an soient
theoreme 5.1.5. En elfet, nous avons demontre qu'une telle fonction, tout com me (
lineairement dependants. En vertu de la proposition 1.5.5, un de ces vecteurs, par
Ie determinant d'ordre n, attribue a A la valeur 0 si A est une matrice non invers ible
exemple aj , est combinaison lineaire des autres : (
et la valeur I M I II M 2 1... I M k I si A est un produit de matrices elementaires M"

8j = ~ a,tllk'
M 2, .... M k • Toute matrice carree etant de I'une de ces deux sortes, I'assertion est (

k :k"j

dernontree.

(
(
DCveloppem enlS. ronnule de Cramer 147
146 Determinen ts
(
(
( 5.3 DEVELOPPEMENTS, FORMULE DE CRAMER 5.3.3 Mineurs, cofacteurs
j
On appelle I A ij I m ineur d'indices i, j et (-1)i+ I A ij I cofa cteur de aij' Le signe
( j
(-1)i+ varie selon Ie tableau suivant:
( 5.3.1 DeYeloppement d'un determinant suivaot uoe colonne
+ - +
( Soit A = (ai) une matrice ca rree d'ordre n > 1 et ai ' a2' ..., an ses colonnes. +
Fixons j > I et designons par A' = (aij) la matrice obtenue a partir de A en + - +
echangeant success ivement aj et aj-I ' aj et aj _ 2' •. •, aj et a, . Les colonnes de A'
(ecrites dans I'ordre) etant~, ai ' ..., aj-I' aj+" ...,
an' it est clair que , pour tout ind ice +
de ligne i, +
ai, = aij et Ail = Aij'
Ainsi, d'apres (5.16) et (5.18), Ie determinant d'une matrice carree est egal
\
D'apres (5.1), Ie determinant de A' s'ecrit done sous la forme ala somme des termes d'une colonne ou d'une ligne mult iplies par leurs cofacteurs
n respectifs.
I, IA'I = L(-li+ laijIAijl. (5.14) -:1'- ,
:. -1

'J~."~

i- I

I
!
D'autre part, puisque A' est deduite de A par j - I echanges de colonnes, la
propriete (a) du theoreme 5.1.5 entraine 5.3.4 Exemple d'apptication

I A' I = (- 1);-1 I A I. (5.15) '&) Les developpements s'emploient avantageusement pour calculer Ie determi­
r,', nant d'une matrice do nt plusieurs termes sont nuls. Dans I'exemple suivant, la
En comparant (5.14) a (5.15), il resulte que £"
fteche indique la ligne ou la colonne suivant laquelle Ie determinant est developpe :
n
j
'·:t .
IAI = L(-I)i+ aijIA ijl, j = 1,2, ..., n . (5.16) '{
i- I .­ 0 -3 0 7 2
1 0 -3 7 2
On appelle Ie second membre de (5.16) developpement du determinant de A .( II - 3 2 I 10 -2
0 0 1 6
0
suivantla j-ieme colonne. On remarquera que (5.1) est un cas particulier de (5.16),
0 1 0 6 0

a savoir Ie cas ou j = 1. .>


0
= 5 1 4 -9 6
5 1 4 0 - 9 6
0
0 0 0 2
0 0 2 0
5.3.2 Develeppement d'uo determinant suiYant one tigoe 0 0
-3 o -10 4
T
Soit A = (aij) une matrice carree d'ordre n > 1. D 'apres (5.16), Ie develop­ -3 o -10 0 4
pement de la matrice IA = (aiJ suivant la i-ieme colonne s'ecrit T
n 2
-3 7
I IAI = L(-li+jai;l('A)jil. (5.17) I -3 2
j- I
0 1 6 0
Comme = -21 0 1 0
0 0 2 o ...
ai; = aij et ('A )ji = '(A ij)' 1-3 -10
- 3 -10 4

it s'ensuit, vu la propriete (b) de la proposition 5.1.8, que


n 1 2

IAI = L(-I)i+JoijIAijl, i = 1, 2, ...,n. (5.18) I = -2 '7 = - 14.


( _21
j -I -3
( On appelle Ie second membre de (5.18) develappement du determinant de A
suivant la i-ieme ligne .
(
(
148 Determ inants
,'. ;i1
, I, .

"l;l ~
·t;
-

Developpernents, fonnule de Cramer 149


"

(
(
(
(
5.3.5 Formule de Cramer ·f:
'i~,;
5.3.6 Calcul de la matrice inverse par la methode des cofacteurs
(
Considerons un systerne de n equations Ii n inconnues, de matrice associee ~f~ . Soit A = (aij) une matrice carree d'ordre n et de determinant non nul.
A = (aij) et de second membre b = (bJ. Supposons que Ie determinant de A soit ~l" D'apres (b) de la proposition 5.1.6 et la proposition 4.2.4. A est inversible. Les (
non nul. D'apres la proposition 3.5.9. ce systeme admet une solution unique colonnes de la matrice inverse A-I sont les solutions des n equations matricieIles
(
Xo = (xJ>. Nous aIlons exposer une methode de calcul de Xo s'appuyant sur les (4.13):
proprietes des determinants. Designons par a l • a2•...• an les colonnes de A. Par
Xljl 10 (
hypothese.
x2j (
x?al + x~a2 + ... + x~an = b. A I· 1=1'1. j = 1.2•.. .• n.

Substituons Ie premier membre de cette egalite Ii b dans Ie determinant


.'''' . I . I 10 .
... j-ieme
"(
det(a l •. . . • aj _ l• b, aj + I' ...• aJ. x nj
(
D'apres (a) de la proposition 5.1.6. ce determinant est egal Ii Ces equations sont l'expression matricielle de n systemes lineaires que nous resol­
(
vons Ii I'aide de la formule de Cramer (5.19). La solution unique duj-ieme systeme
detta, •..., aj _ l• xJaj • aj+ I ' .. .• aJ = xJdet(a l • a2' .... aJ.
s'ecrit <­
II s'ensuit que all .. , 0 . . al n -(

all . bl · al n .(
I
a 21 • b2 • a2n i = 1.2• ...• n,
1
0 __
xij = jAII ajl . , . I . . apr (
xj - IAI , j = 1.2• ...• n. (5.19)
(
ani' •• 0 . . alllf
T (
ani ' • . b; . . alllf
i-ieme
T (
j-ieme ou encore. apres developpernent du demier determinant suivant la i-ieme colonne.
(
Cette relation est connue sous Ie nom de formule de Cramer pour la resolu­ _(-I)i+jIAjil_cofaji ' - 1 2
x ij - IA I - I A I ' 1- • , n. (5.20)
tion d'un systeme lineaire. .... (
Resolvons, par exemple, Ie systeme lineaire
ou cofaj i designe Ie cofacteur de aji. Posons A= (oij)' OU oij = cofaj l • La matrice (
3x, + 2x2 +
6xJ = 5
inverse de A s'ecrit alors sous la forme (
2x1 + 3x 2 +
3xJ = 2

rr\ .L od1 R
2x1
Selon (5.19).
- 2X2 - 4xJ = I.
A-I = _I_A.
I AI \f\' (5.21) (
(
En d'autres terrnes, A-I est egale Ii la matrice des cofacteurs transposee divisee par
5 2 6 3 5 6 3 2 5 (
Ie determinant de A.
2 3 3 2 2 3 2 3 2 On notera Ie cas part iculier ou n = 2: (
1 -2-4 2 1-4 2 -2 1
XI = = I . x2 = -to xJ = t· A-I = 1 [a
22 -a I2 ) • (5.22) (
326 326 326 allan - a21 a12 -a21 all
(
233 233 233 Calculons, par exemple, la mat rice inverse de
2 -2-4 2 -2-4 2 -2-4 (

A =
3 1 2] (
[-I0 II 0I . (
(
(
(
ISO Determinants Exemples et remarques diverses lSI
(
(
En developpant Ie determinant de A suivant la troisieme tigne, nous voyons
Ensuite, it convient de soustraire de la premiere tigne deux fois la deuxieme et une
( aisement que I A I = -2. O'autre part,
fois la quatrieme:
(
(
cofall = /: ~I = -I, cofa l2 = -I_~ ~I = -I,
-2
I
0
I
0
0
0
0
41 I = 4·(-2) = -8 .
,'4­ I - I I 0
(
cofal) = 1_ ~ :I = I, cofa21 = -I: o21 -- 2, ..., j' I - I 1 I
( ~! (2) Pour calculer Ie determinant
( A = '[-I2 -I
2
I]
-4 . '1
....1
/ a ~
( -I -3 3 :~ I b 2
b I'
( D'apres (5.21), nous concluons que ·*1
.~ j e c2
( - I
A-I=-t -: 2 -3 .
2-I] 'l j on peut soustraire la deuxierne ligne de la premiere et la troisieme de la deuxierne:
( [
o
(
-4 3 '*. 1
:' ,
'~. !
a-b ~_b2

..~;; ! o b-e b2- c2 = (a-b)(b-e) 1 . : = (a -b)(b -e)(e-a).


( 1 b+e
":":1
; e c2
1

( ~ !
(3) On notera, a titre d'exemple, que
( ". !
.. , 2 - 3 I
(
5.4 EXEMPLES ET REMARQUES DIVERSES .i
I
2 3 - 21 = 0, car la troisieme ligne est la somme des deux premieres.
,I 4 0-1
( I

(
i (4) Le determinant

I+a I I I
( 5.4.1 Quelques exemples de calcul d'un determinant
I I+b I I
( Le calcul d'un determinant est d'ordinaire precede d'un travail de simplifica­ I 1 I+e I
tion fait principalement a I'aide de (a) de la proposition 5.1.6 ou de la propriete I 1 I I+d
(
correspondante relative aux lignes.
peut etre calcule en appliquant (c) du theoreme 5.1.5 et (a) de la proposition 5.1.6.
(
(I) Pour calculer Ie determinant A cet effet, posons
( 0 0
I I I
a 0
( I -I -I
0 b 0 0
v = b = c= , d=
(
- I I -II ,
I . I, a = 1
0 ' o' e 0
-I I I
,0 0 0 d
(
on peut commencer par additionner la premiere colonne a la troisieme et a la Alors Ie determinant s'ecrit :
( quatrieme et appliquer (b) du theoreme 5.1.5 a ces deux colonnes: det(v + a, v + b, v + c, v + d)
( = det(v, v + b, v + c, v + d) + det(a, v + b, v + c, v + d)
I 2 2 I I I
= det(v, b, c, d) + det(a, Y, v + e, v + d) + det(a, b, v + c, v + d)
( I o o I o o = bed + det(a, v, c, d) + det(a, b, v, v + d) + det(a, b, c, v + d)
-I 2 0' = 4 - I I o
( = bed + acd + det(a, b, v, d) + det(a, b, c, v) + det(a, b, c, d)
-I 2 2 -I I I
= bed + aed + abd + abc + abed.
I
(
(

I
(
152 Determinants 153
Exemples et remarques diverses (
,.'it!'
ii, (
(5) Nous vous proposons de calculer Ie determinant de la matrice carree
d'ordre n l,i On notera cependant que si A. B. C et D sont des matrices carrees du meme
ordre, en general
(
2 100 0 :'f;'. (
I 2 I 0 0
;;(.­
-,::.;~
I~ ~I #IAIIBI-IDIICI· (
o I 2 I 0 ,i
~: Pour s'en rendre compte. iI suffit de prendre A = B = al2 et C = D = cI2, a # c (
A• = ';; - . (cf. exercice 5.5.11). (
~"
o . . . . I 2 I (~, l; (
5.4.3 Retour au volume d'un parallelepipede
o . . . . 0 I 2 , ~:
(
Supposons n > 2 et developpons I A.I suivant la premiere Iigne: ,~', I Considerons Ii nouveau Ie parallelepipede defini par (5.11). Munissons
(
l'espace affine euclidien i6 d'un repere orthonormal et designons par Xjl' xJ1' ••••
I I 0 . . . 0 xi' les coordonnees de Pj' qiJ j = O. I• ...• n. Le volume vol(Po• PI' ...• P.> de ce
o r····························· (
parallelepipede est alors la valeur absolue du determinant
(
I A.I = 21 A._II -
I A'_ 2
= 21 A, _I I -IA._ 2 1. X OI

XII
X 02

XI2
• XOn

. X,. l
01 .\ (5.25)
(
Vu que I AI I = 2 et I A z / = 3. cette formule nous permet de calculer I A.I par !
J
recurrence. Le resultat est I A.I = n + I. I I x. 1 x. 2 •• • x". (

Pour etablir cela, il suffit de soustraire la premiere ligne de to utes les aut res et (
5.4.2 Determinant d'une matrice partagee en sous-matrices
d'appliquer (5. I). Compte tenu de (b) de la proposition 5.1.8, Ie resultat de ces
(
Cornmencons par observer que. pour toute matrice carree A d'ordre m et operations est Ie determinant det(a l, a2' .... a.) dont la valeur absolue est. selon

toute matrice C de type m x n fa definition (5.12). Ie volume du parallelepipede, (

I. : 0
· · · ~· · ·· r · · ·· · ·· · · ~· ··· ·· · ·· A C 5.4.4 Equation cartesienne d'un hyperplan
(
(
= IAI· (5.23)
•• ••• • •• •• ••• • •••• • •• • y •• •• • •• ••• Soit rf un espace affine de dimension finie non nulle n et PI' P2• •••• P; (
O il. n points de rf engendrant un hyperplan. Supposons que if soit muni d'un repere
et designons par Xii' xJ1 • .••• xi.les coordonnees de Pj' oiJj = 1.2. ..., n. L'equation (
Pour s'en rendre compte. iI suffit de developper Ie premier (deuxierne) determinant
cartesienne de cet hyperplan peut alors s'ecrire sous la forme (
n fois suivant la premiere (derniere) ligne.
Soit main tenant A et B des matrices carrees respectivement d'ordre m et n X, x2 . X. (
et C une matrice de type m x n. En vertu de (4.7). XII xI2 . XI.
(
[oAC] [1 0] [A IC].l
BOB
= M

0
= O. (5.26)
(
II s'ensuit, grace Ii (a) de la proposition 5.1.8 et Ii (5.23). que (
I x"' X. 2 •• . x".
(

A I
....................................
C
= IAIIBI . (5.24)
En effet, en developpant Ie determinant suivant la premiere ligne , nous obtenons
une equation de la forme (1.21). En outre. chaque po int Pjappartient Ii I'hyperplan
defini par cette equation. car en substituant les coordonnees Xj l' xJ1 • •••• Xi_ de Pj
(

aux inconnues x" X 2• •••• X•• no us voyons que Ie determinant a deux lignes egales

(
o B
et done qu 'il est nul. (

<.
(
.i)
(
I
( 154 Determinants .~
~,
Exercices ISS

( jt;
( 5.5 EXERCICES j 5.5.6 Montrer que pour toute famille de nombres (a l • a2• .. . . a.) (n > I).

(
5.5.1 Montrer que ::
al cr. a'j-I I ~ s" I

d:- 1 '7 -'-- -' -----,-,


( a2 ~
I I 3 0 2 2 == .n (a; - aj ) . ')
( 3 I 0 I 2
t »] /
'--- .-/
0 I 3 0
(
4 -2 3 I
21 = 60.
0
a. a: ... 0:;-'
5 I 0 0 6 Ce determinant est appele determinant de Vandermonde.
5.5.2 Calculer Ie determinant de la matrice

a I -I I

A=I
-I a -I -I l r:
.
' "
... . I

I I a -I 5.5.8 Calculer la matrice inverse de /)


( (. "
, / (/
-I I I a I 2 -2]

(a) d'une maniere directe,


(b) en effectuant, au prealable, Ie produit A'A.
[I
2
3 -I
I -5

par la methode des cofacteurs.


5.5.3 A I'aide du theoreme 5.1.5 et de la proposition 5.1.6. montrer que

aa.+b, ab,+c, acl+a, al bl c. Jf 5.5.9 Soit A = (aij) une matrice carree d'ordre n > 1.
aa2+ b2 ab2+c2 aC2+a2 = (a J + I) a2 b2 C2 (a) Montrer que !l~;1 . = }Jl/ A;l - ,
aaJ+b J abJ+c J aCJ+aJ aJ bJ cJ AA = IAI I.. :- I /~ 1A tl7- A rv

5.5.4 Quel est Ie degre du polynome p defini par (Appliquer (5.16) Ii la matrice deduite de A en remplacant sa j-ierne colonne
(
I all +t a12+t ... a,.+t
par sa k-ieme.)
(b) Dans I'hypothese que I A I '" O. en deduire la fonnule d'inversion (5.21), ainsi
a2' + t a22+ t . .. a2o+ t que la relation
I . . .... . I?
p(t) == IAI=IAI·- I .
(Utiliser (a) de la proposition 5.1.8 et (5.3).)
a., +1 a. 2+t . .. a..+1
( 5.5.5 Soit (XI ' X2' ... . xk) une famille de vecteurs d'un espace vectoriel \ 5.5.10 Dernontrer, par recurrence sur Ie nombre n de lignes, que
( euclidien. Demontrer que cette famille est liee si et seulement si son determinant
de Gram ('. ',) 2cosO
(
I XI) (x, I Xk) 2cosO o
(XI •.. sin«n+ 1)0) si 0 '" kn,
( 2cosO sinO
(
n+ l si 0 = Lkn;
( o
(-I)·(n + I) si 0 = (2k + I)n.
( (x, I x,) .. . (x, I xk)

est nul. (Utiliser la proposition 1.5.5 et les proprietes du determinant.) 2cosO


(
(
(
(
156
Delenninants
(
(
5.5.11 Soit A une matrice inversible d'ordre m, B une matrice carree d'ordre
(
n, C une matrice de type m x n et Dune matrice de type n x m.
(a) Montrer que (
Index
I~ ~I
(
=/AI/B-DA-IC/.
(
(Verifier que
Les nombres en caractere romain renvoient aux pages du tome I (
[DA BC] =
[1DA-
m
I ~][~ o
B - DA-IC
] [I0 A-IC]
I.

Les nombres en caractere italique renvoient aux pages du tome 2

et appliquer (5.24).)
\
(
(b) En deduire que si A et B sont du meme ordre et A et D commutent addition bijective. 9

+ I~ ~I ~IAB-DCI d'applications, 10. /8


matricielle, III
vectorielle, 8, II
composee, 9
constante, 7. 34
duale,44
(

5.5.12 Soit PI(al' aJ. Pib l, bJ et P3(cl• cJ trois points non alignes d'un adjointe identique, 7
plan affine euclidien, muni d'un repere orthonormal. Montrer que d'une application lineaire , /58 injective. 9 .(
d'une mat rice. /52 inverse. 9
~+~ x2
XI
affine nulle, /2 J
er.+~ al a2 application -, 32 surjective, 9 l
=0
bhbi bl b2 dilatation - . 35 application lineaire, lO
droite -, plan -, hyperplan -. 36 adjointe, /58
t'T+ci ci c2
espace - . 3 / associee Ii une matrice, 22
est l'equation du cercle passant par PI' P2 et PJ' projection -. symetrie -, 35 composee, /9
sous-espace -. 34 diagonalisable, 77
5.5.13 Dans un espace affine euclidien if de dimension finie n superieura
affinite, 37 nilpotente, /08 l
Ii 2 et muni d'un repere orthonormal, on considere un hyperplan .9' dont lej-ieme
aire, 143 approximation. meilleure -. 64
vecteur directeur a pour composantes les termes de laj-ieme colonne de la matrice (
alternee, forme n-lineaire - . 139 asymptote, cone -. /46
VII VI2 vl ... _ 1 angle(s) auto-adjointe, transformation -. /55 (
V21 V22 vl..- _ I de deux vecteurs, 47, 59 axe(s)
(
de deux hyperplans, 79 de rotation. 56. 58. 62

determine par trois points. 78 de symetrie, 55

V=
d'Euler, 66

(
d'une droite et un sous-espace barycentre, 45
affine, 79 base. 22 (
V.I V.2 ' " v.... _ 1 oriente d'un couple de vecteurs, 53 canonique,23
(
oriente d'une rotation. 54, 56, 58, changement de -, 27
(a) Soit VI (i = I, 2•...• n) la matrice obtenue en supprimant la i-ieme ligne de V.
62,63 directe ou positivement orientee, (
Montrer que Ie vecteur D de composantes
antilineaire, forme -, /6/ 67,29
vl=(-I)i+",Vil, i=I.2, ...• n,
(
antisymetrique duale.20
forme bilineaire -, //3 indirecte ou negativement orientee, (
est normal Ii .9'. (Appliquer (a) de l'exercice 5.5.9 Ii la matrice A = (Via), ou
a est un vecteur-colonne quelconque de R".) matrice -. I35 67.29 (
·i orthonormale, 49. 60
(b) Interpreter ce resultat dans Ie cas ou n = 3. ~\ application, 7
.., bijective, application -. 9 (
affine, 32

<.
(,
\

(
158 Index Index 159
(
(
bilineaire, forme -, / /3
composee
diagonal(e) de deux points, 74
( d'un point a un sous-espace affine,
binome, fonnule du -, 115
d'applications, 9
matrice - , 124
( blocs,
d'applications lineaires, /9
par blocs, 44 75
multiplication par -, 116
cone
tenne - ,92 droite,36

( diagonale par -, 44
affine, 36

du second degre, /35


diagonalisable(s)
( asymptote. /46
application lineaire -, 77 vectorielle, 17

caracteristique
coniques, 134
matrice -, 83 dual(e)

(
equation -, 79, 80
conjuguee d'une matrice, /52
simultanement, /24, /64 application -, 44

polynorne -, 79
conservation
diagonalisation, 83 base -,20

Cauchy-Schwarz, inegalite de - , 57 de la nonne, 47, /54


d'une matrice nonnale, /6/ espace - , 20

centrage, /32 des angles, 48


d'une mat rice symetrique, 96
centre des barycentres, 45
d'une transformation hennitienne, echelonnee

de grav ite, 45
du produit scalaire, 47, /54
/56 matrice - , 95

de rotation, 62
convergence en nonne, 65
d'une lransfonnation nonnale, matrice - simplifiee, 97

d'une homothetie affine, 35


coordonnees, 37
/60 element, fixe, invariant, 8
d'une quadrique, /3/
cosinus, theoreme du -, 59, 78
d'une transformation symetrique, elementaires

d'une symetrie centrale, 35


couple, 2
94 matrices - , 126

changement
Cramer, formule de -, 148
difference operations - , 96

de base, 27
cylindres, 135, 139
de deux vecteurs, 11 elimination, methode d' - , 89
de repere, 37
de deux matrices, 111 ellipse, 134
Chasles, relation de -, 31 decomposition
dilatation, 13 ellipsoide, /35
coefficients suivant une base, 22
affine, 35 engendre
d'une forme lineaire ou quadrati­ spectrale, 77
affine orthogonale, 36 sous-espace affine -, 36
que, //4
definie non negative, positive
orthogonale, 13 sous-espace vectoriel -, 17
d'un systeme lineaire, 89
fonne bilineaire symetrique - , //9
dimension ensemble

d'un systeme differentiel , 98


forme sesquilineaire hennitienne - ,
d'un espace affine, 32 de depart. d'arrivee, 7

cofacteurs(s), 147 /63


d'un espace vectoriel, 26 d'indices, 2

methode des -, 149 matrice hennitienne -, /63


finie et infinie, 24 equatioms)
colonne matrice symetrique - , / /9
direct(e) caracteristique, 79
d'une matrice, 92 dependance lineaire, 20
base -, 67, 29 d'une droite, d'un plan, 39
matrice- -, 92 derivee d'une matrice, 129
repere - , 29 d'un hyperplan, 39, 153
vecteur- - , 13 determinant
somme -, 29, 30 matricielle d'une application affine,
combinaison de Gram, 154 directeur(s) 37
( convexe, 15 de passage, 67, 28 vecteurs -, 38 matricielle d'une application
lineaire, lineaire triviale, 15 de Vandennonde, 155 espace -, 31, 35 lineaire , 24
( commutent d'ordre 2 et 3, 66 direction(s) parametriques, 38
>,

( applications lineaire qui - , 44 d'ordre n, 138 d'affinite, 37 equilatere, hyperbole -, /34


matrices qui - , 114 d'une application lineaire, 3/ d'une dilatation, 13, 36 equivalents, systemes lineaires -, 90
( compatible, incompatible, 90 d'une famille de vecteurs-colonnes, d'un espace affine, 31 espace(s)
( complementaire 137
d'un sous-espace affine, 35 affine, 31

orthogonal, 62 d'une matrice , 137


principales d'une quadrique, /34 , affine euclidien, 73

( sous-espace -, 29 d'une matrice orthogonale, 5/


/38 affine oriente, 29

( completion des carres, /17, /26 d'une matrice unitaire, /54


distance directeur, 31, 35

composantes, 22 developpernent d'un determ inant, 146 de deux droites gauches, 77 dual, 20

(
(
l . ..
(

160 Index (
Index 161
(
vectoriel, 10 sesquilineaire hermitienne reduite, (
image Lagrange, fonnule de -, 18
vectoriel complexe, /49 163 d'un element, 7 Legendre, systerne de -, 57 (
vectoriel euclidien, 51 fonction,7 d'un sous-ensemble, 8 Iibre,20
vectoriels fonctionnels, 14, 149 matricielle, 128 (
d'un sous-espace vectoriel, 15 liee, 20
vectoriel geometrique, 10 fonnule d'une application, 8 ligne(s) (
vectoriel hennitien, 151 de Cramer, 148 d'une famille, 8 d'une matrice, 92
vectoriel oriente, 67, 29 de Lagrange, 18 (
·..:'1 d'un parallelepipede, 40 rnatrice- - , 92
Euclide, postulat d' -, 37 du binome, 115 reciproque d'un sous-ensemble, 8 operations elementaires sur les -, 96
euclidien reciproque d'un sous-espace vecto­ lineaire
espace vectoriel -, 51 Gauss, methode de -, 100 riel, 15 application -, 10
espace affine -, 73 generateurs, 17 inconnues combinaison - , 15
Euler, angles d' - , 66 generatrice, famille -, 17 d'un systeme Iineaire, 89 ' dependance - , independance -, 20 (
exponentielle d'une matrice, 130 Gram, determinant de - , 154 principales, 103 forme -,19
extremums d'une fonction, 122 Gram-Schmidt, precede d'ortho­ independance lineaire, 20 systeme -, 89 (
gonalisation de -, 55 indices, ensemble d' -, 2 linearite

I
(
indirect(e) a gauche et a droite, 51, 69, 72
famille -(
base, 67, 29 au centre, 72
finie, I hennitien(ne) .... repere,29 loi d'inertie de Sylvester, 127
,<
~
infinie, 2 espace -, 151 inegalite
generatrice, 17 forme quadratique -, 162 l

!
de Cauchy-Schwarz, 57
libre, liee, 20 fonne sesquilineaire -, 162 triangulaire, 58, 74 matrice(s)
orthogonale, orthononnale, 53 matrice -, 153 <
.:~ inertie, loi d' - , 127 adjointe, 152

]It· a m Iignes et n colonnes, 92


fixe, element - , 8 produit scalaire -, 151 injective, application - , 9 (
forme transformation -, 155 intersection de sous-espaces vecto­ antisymetrique, 135 (
antilineaire, 161 homogene riels, 17 associee a un systerne lineaire, 93
bilineaire, 113 systeme differentiel -, 99 ~~ invariant(s) augmentee, 93 (
bilineaire associee a une matrice, systeme differentiel - associe, 100 e.... element - , 8 carree,92 (
JJ5
bilineaire syrnetrique, JJ3
systeme lineaire - , 89
systerne lineaire - associe, 89
·i ·
·' 1
points -,34 conjuguee, 152
(
~;.
~~ ' I
so us-ensemble - , 8 de passage, 27
bilineaire symetrique definie, 119 homothetie, 12 ~~~ sous-espace - d'une dilatation, 14, de type I x I, 124 (
bilineaire symetrique reduite, 116 affine, 35 : '.I:~ 36 de type m x n, 92
;t" (
diagonale, 82 hyperbole, 134 -, inverse de transition, 131
echelonnee, 96 hyperboloide, a une nappe, a deux .~:~ d'une application, 9 diagonale, 124 (
echelonnee simplifiee, 97 nappes, 135 1.. d'une application lineaire, 19 diagonalisable, 83
lineaire, 19 hyperplan, 36 (
d'une matrice, 119 d'une application lineaire, 21. 22
n-lineaire altemee, 139 affine, 36 ';;'i inversible, matrice -, 119 d'une forme bilineaire, 114 (
' , o ..lo

nonnale, 134, 138 d'affinite, 37 isometrie,61 d'une forme quadratique, 115


., (
quadratique, 113 polaire, /47 , ./
.~
a deux dimensions, 62 d'une forme sesquilineaire, 162
quadratique hennitienne, 162 tangent, 130
.";
a trois dimensions, 63 echelonnee, 95 (
semi-lineaire, 161 vectoriel, 29 isomorphisrne, 18 elementaire, 126
sesquilineaire, 162
:..1 (
.;
" ~
de E dans R~, 27, 61 hermitienne, 153
sesquilineaire hermitienne, 162 identitets) de E dans (C~, 152 hennitienne definie, 163 (
sesquilineaire hennitienne definie, du parallelogramme, 83 hessienne, 122
163 vectorielles. 72. 85 inversible, Ill)
(
Kr-r. Iii
(
(.

(
I 162 Index Index 163
(
( )
-ligne, -eolonne, 92
orientation
affine, 36
a centre, 133

( nilpotente, 115
d'un espace vectoriel, 67,.29
vectoriel, 17
sans centre, 137

( nonnale, /53
d'un espace affine, 29
point, 31

nulle,93
orienteje)
invariant, 34
racine carree d'une matrice, /28
( orthogonale, 50
base -, 67, 29
pivot, 97
rang
( reguliere, 119
repere -,29
polaire
d'une application lineaire, 16
scalaire, 124
origine
hyperplan -, 147
d'une famille de vecteurs, 27
( semblables, 30
d'un repere, 37
representation - , 166
d'une matrice, 93
symetrique, 126
d'un vectorialise, 32
polynome
d'une matrice echelonnee, 96
symetrique definie, 119
orthogonal(e) rapport

caracteristique, 79, 80

transposee , 118
complernentaire -, 62 d'affinite, 37

matriciel, 128

ii triangulaire, 125
famille -, 53 trigonometrique, 65
de dilatation, 13, 36

-unite, 93
matrice -, 50
I positif, I d'hornothetie, 12,35

unitaire, 154

I
I
meilleure approximation, 64

projection -, 13
symetrie -, 13
positivement orientee, base -, 67, 29
probleme aux valeurs initiales, 99
reduction
ala forme echelonnee, 96
i methode de Gauss, 100
transfonnation -, 49 precede d'orthogonalisation, 55 ala forme diagonale, 82, 155
mineur(s), 147
orthogonalisation, precede d' -, 55 produit a la forme triangulaire, 89, 155
principaux, 120 orthogonaux de matrices, 112
d'une forme bilineaire syrnetrique,
moindres carres, methode des -, 134 sous-espaces affines -, 74 lJ6
d'une application par un scalaire,

multiplication matricielle, 112 sous-espaces vectoriels -, 54 d'une forme sesquilineaire hermi­


10, 18
par blocs, 116 ',f;
vecteurs -, 48, 53 \~ d'une matrice par un scalaire, 112 tienne,163
multiplication par un scalaire
orthononnal(e) ~ d'un vecteur par un scalaire, 9, 11 simultanee, 123, /64

d'une application, 10
base, famille, 53 ~;, mixte,71 regie du parallelogramme, 32

d'une application lineaire, 18


repere, 80 .~~
. . .:.
. ,; .. scalaire, 48, 50 repere

d'une mat rice, 112


' --: ~~
~ . ~.~; scalaire canonique, 52, /51 direct, indirect, 29

d'un vecteur, 10, 11

' ~~f scalaire defini par une base, 61 orthonormal, 80

multiplicits d'une valeur propre, 81 parabole, 138 scalaire hermitien, 151 changement de -, 38

paraboloides, 139 ,{': representation parametrique, 38, /42


";1 vectoriel, 68
negatif, 1 parallelisme, 36 projection revolution, surface de - , /43
negativement orientee, base -, 67, 29 parallelogramme, 143 affine, 35 rotation, 54, 56
nilpotente, matrice -, 115 identite du - , 83 affine orthogonale, 36 affine, 62, 63
non negatif, I regie du -, 32 orthogonale
nonnal(e) parallelepipede, 142 sur une droite vectorielle, 48, 55
matrice -, /53 parametrique(s)
( sur un sous-espace affine, 74, 36 scalaire,9

transfonnation -, 159 representation - , 38, 142 sur un sous-espace vectoriel, 62, section d'une quadrique, 146

( vecteur -, 63, 74 equations -, 38, 14j 13 semblables, matrices -, 30

nonne, 47, 51 parametres, 38


( propre serni-lineaire, forme - , 161

noyau, /6 passage valeur -, vecteur -, 74, 77 sesquilineaire, forme -, 162

( n-uplet, 1 determinant de -, 67, 28 sous-espace -, 74, 77 similitude, 64

( matrice de -, 27 puissance d'une matrice, 114, 85 simple, valeur propre -, 81

operations elementaires, 96 permutation cyclique, 68 Pythagore, theoreme de -, 55 ,78 somme

( opposete) perpendiculaire, 75 d'applications, 10, 18


matrice -, III perpendiculaire commune, 76
( quadratique, forme -, Jl3, 162 de matrices, III
vecteur -, 11 plan, 36 quadrique, 130 de sous-espaces vectoriels, 17
(
t')
(

(
Index 165 (
164
Index

(
normal, 63, 74
droite -, 17
(
de vecteurs, II
theoreme

oppose, II
espace -, 10

directe, 29, 30
de Pythagore, 55, 78
(
orthogonaux, 48, 53
hyperplan -, 29

sous-espace
de Thales, 46

affine, 34
unitaire, 47,51
plan -, 17
(
du cosinus, 59, 78

: :J~ vecteur propre


produit -, 68

complernentaire, 29
du sinus, 86
(

;1
:f-; ~
d'une application lineaire, 74, 154
sous-espace -, 16

invariant d'une dilatation, 14, 36


spectral, 77

propre, 74, 77
d'une matrice, 77, 154
vectorialise, 12, 32
(
trace d'une matrice, 116

vectoriel(le) volume, 142, 153

stable, 76
transformation
(
vectoriel, 16

~l
hermitienne ou auto-adjointe, 155,

soustraction
(
158

matricielle, III
normale, 159
:~' i
(
vectorielle, 9, II

spectre

orthogonale, 49
' :~: l
(
symetrique, 93

;,i..
Z.,'/
d'une application lineaire, 74
unitaire, 154
(
.~ ;
d'une matrice, 78

spectrale, decomposition - , 77

translation, 34

transposee d'une matrice, 118

%:/ (
stable

so us-ensemble, 8

sous-espace, 76

transvection, 43

affine, 45
~.j
-." !
'(

,(
triangulaire
:·;:" 1

surjective, application - , 9
inegalite -, 58
, (
, ",' I

Sylvester, loi d'inertie de - , 127


matrice -, 125
£.
..': 1 (
symetrie, 13
trigonalisable

affine, 35
application lineaire - , 89
1
(
affine orthogonale, 36
matrice -, 90
(
axiale,55
triplet, 2

centrale, 12,35
(
orthogonale, 13
unitaire
(
symetrique
matrice -, 154

I matrice -, 126
transformation -, 154
(
transformation -, 93
vecteur - , 47, 51
(
systemets)
valeur(s) propre(s)
I
I

de Legendre, 57
calcul de la - maximale par itera­ (
differentiel, 98

lineaire, 89

tion, 111

d'une application lineaire, 74

(
(
lineaires equivalents, 90
d'une rnatrice, 77
i

trigonometrique, 53
extremes, 96, 128
'I I

(
simple , double, triple, 81
i

(
Vandermonde, determinant de -, 155

tangent, hyperplan - , 130


variation de la constante, 102
(
terme(s)
vecteur(s), 7, 10

diagonaux, 92
-colonne, 13

(
d'une famille, 2
directeurs, 38
(
d'une matrice, 92
lineairernent dependants, indepen­

d'un vecteur-colonne, 13
dants. 20

(
(,
(

~,
j
(
( . .,

. ,

(
( --ll
'\ 1
~I

;~·. : l·

(
Bibliographie
(
;',

( :: j M. Berger, Geometrie , Cedic/Fernand Nathan, Paris, 1977.


( , A. Calame, Mathematiques modernes, Editions du Griffon, Neuchatel, 1968.
" I
( L. Chambadal, J. L. Ovaert, Algebre lineaire et algebre tensorielle, Dunod, Paris,
( 1968.

(
-; i J. Dieudonne, Algebre lineaire et geom etrie elementaire, Hermann, Paris, 1964.
J. Frenkel, Geometrie pour I'eleve-professeur, Hermann, Paris, 1973.
( F. R. Gantmacher, The theory of matrices, Chelsea Publishing Company, New
,.;
York,1977.
( R.J . Goult, Applied linear algebra, Ellis Horwood Ltd ., Chichester, 1978.
( W. Greub, Linear algebra, Springer-Verlag, New York , 1981.
P. R. Halmos, Finite-dimensional vector spaces, Van Nostrand, New York , 1958.
( K. Hoffman, R. Kunze, Linear algebra, Prentice-Han, Englewood Cliffs, New
( Jersey, 1961.
M. Jeger, B. Eckmann, Eirifiihrung in die vektorielle Geometrie und lineare Algebra,
( Birkh iiuser Verlag, Basel, 1967.
( H.-J. Kowalsky, Lineare Algebra, W. de Gruyter, Berlin, 1970.
P. Lancaster, M. Tismenetsky, The theory of matrices, Academic Press, Orlando,
(
Florida, 1985.
( S. Lang , Aig ebre lineaire, Inter Edit ions, Paris, 1976.
H. Liebeck, Algebra for scientists & engineers, J. Wiley & Sons, London, New
(
York,1969.
( S. Mac Lane, G. Birkhoff, Algebre, Gauthier-Villars, Paris, 1971.
B. Noble , Applied linear algebra, Prentice-Han, Englewood Cliffs, New Jersey,
(
1969.
( E. Ramis, C. Deschamps, J. Odoux, Cours de mathematiques speciales, Masson ,
Paris , 1977.
(
E. Snapper, R.J. Troyer, Metric affine geometry, Academic Press, New York,
( London, 1971.
E. Sperner, Einfiihrung in die Analytische Geometrie und Algebra, Vandenhoeck &
(
Ruprecht, Gottingen, 1957.
( C. Tisseron, Geometries affine. projective et euclidienne, Hermann, Paris, 1983.

(
(
(
(
(
r
\

Vous aimerez peut-être aussi