Vous êtes sur la page 1sur 115

Table des mati`res e

Chapitre I. Syst`mes linaires et matrices e e 1. Syst`mes dquations algbriques linaires e e e e 2. Matrices Chapitre II. Espaces vectoriels 3. Notions fondamentales 4. Bases et dimension 5. Bases de sous-espaces Chapitre III. Rang et dterminant e 6. Rang de matrices 7. Dterminant des matrices carres e e Chapitre IV. Applications linaires e 8. Notions fondamentales 9. Construction dapplications linaires e Chapitre V. Espaces euclidiens 10. Produits scalaires 11. Projections orthogonales Chapitre VI. Oprateurs linaires e e 12. Proprits caractristiques ee e 13. Thorie spectrale e Chapitre VII. Formes quadratiques 14. Classication des formes quadratiques relles e 15. Espaces quadratiques Appendice : Rappels et complments e 1 1 8 19 19 25 29 37 37 42 53 53 59 69 69 73 81 81 91 97 97 106 112

CHAPITRE I

Syst`mes linaires et matrices e e


1. Syst`mes dquations algbriques linaires e e e e
Soit un syst`me de m quations en n inconnues x1 , . . . , xn : e e a11 x1 + + a1n xn = b1 . . . am1 x1 + + amn xn = bm o` les coecients aij pour i = 1, . . . , m et j = 1, . . . , n, et les termes indpendants bi pour i = 1, . . . , m u e sont des nombres rels ou complexes, ou plus gnralement des lments dun corps1 (commutatif) e e e ee arbitraire K. Rsoudre ce syst`me consiste ` trouver dans K des valeurs des inconnues x1 , . . . , xn pour e e a lesquelles ces quations sont satisfaites. Dans cette premi`re section, on se propose de mettre au point e e des techniques permettant de reconna si un tel syst`me admet une solution et, dans larmative, tre e de trouver toutes les solutions (en fonction dun certain nombre de param`tres). e 1.1. Oprations lmentaires e ee Les techniques que lon utilise pour rsoudre les syst`mes dquations algbriques linaires se e e e e e fondent sur trois types doprations sur les quations dun syst`me : e e e I) Dans un syst`me dquations, on peut remplacer une des quations par la somme de celle-ci e e e et dun multiple dune autre quation du syst`me sans modier lensemble des solutions. En e e eet, les syst`mes e P1 (x1 , . . . , xn ) = b1 . . . Pi (x1 , . . . , xn ) = bi . . . Pj (x1 , . . . , xn ) = bj . . . Pm (x1 , . . . , xn ) = bm et P1 (x1 , . . . , xn ) Pi (x1 , . . . , xn ) + Pj (x1 , . . . , xn ) ont les mmes solutions. e
1 Voir

= . . . = . . . = . . . =

b1 bi + bj bj bm

Pj (x1 , . . . , xn ) Pm (x1 , . . . , xn )

lAppendice pour une dnition de la notion de corps. e


1

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

II) Dans un syst`me dquations, on peut changer e e e solutions. En eet, il est clair que les syst`mes e P1 (x1 , . . . , xn ) = b1 . . . Pi (x1 , . . . , xn ) = bi . . et . Pj (x1 , . . . , xn ) = bj . . . Pm (x1 , . . . , xn ) = bm admettent les mmes solutions. e

deux quations sans modier lensemble des e P1 (x1 , . . . , xn ) Pj (x1 , . . . , xn ) Pi (x1 , . . . , xn ) Pm (x1 , . . . , xn ) = b1 . . . = bj . . . = bi . . . = bm

III) Dans un syst`me dquations, on peut multiplier les deux membres dune quation par un e e e lment non nul du corps de base K sans modier lensemble des solutions. En eet, les syst`mes ee e P1 (x1 , . . . , xn ) = b1 P1 (x1 , . . . , xn ) = b1 . . . . . . Pi (x1 , . . . , xn ) = bi Pi (x1 , . . . , xn ) = bi et . . . . . . Pm (x1 , . . . , xn ) = bm Pm (x1 , . . . , xn ) = bm admettent les mmes solutions si = 0. e Les oprations indiques ci-dessus sont appeles oprations lmentaires (sur les quations dun e e e e ee e syst`me). Dans le cas dune opration lmentaire de type III, llment K par lequel on multiplie e e ee ee une des quations est appel facteur de lopration lmentaire. e e e ee 1.2. Notation matricielle Pour faire apprcier la porte des oprations lmentaires dans la rsolution dun syst`me dquae e e ee e e e tions algbriques linaires, il est commode dadopter la notation suivante : a un syst`me arbitraire de e e ` e m quations a n inconnues e ` a11 x1 + + a1n xn = b1 . . . am1 x1 + + amn xn = bm on associe le tableau des coecients a11 . . . am1 ... a1n . . . amn

que lon appelle matrice (des coecients) du syst`me ; cest un tableau ` m lignes et n colonnes, e a ou simplechaque ligne correspondant a une quation du syst`me. On note cette matrice (aij ) ` e e
1 i m 1 j n

e ment (aij )i,j lorsque le nombre de lignes et le nombre de colonnes sont indiqus par le contexte. Par convention, le premier indice est toujours celui des lignes et le second celui des colonnes. Lentre aij e est donc celle qui est situe ` lintersection de la i-`me ligne et de la j-`me colonne. e a e e On consid`re aussi le tableau e a11 a1n b1 . . . . . . . . . am1 amn bm appele matrice compl`te du syst`me, obtenue en adjoignant a la matrice des coecients du syst`me e e e ` e la colonne des termes indpendants. e

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

Comme les quations du syst`me correspondent aux lignes de la matrice compl`te, les oprations e e e e lmentaires dcrites prcdemment correspondent ` des oprations sur les lignes de la matrice ee e e e a e compl`te ; ` savoir : e a I) remplacer une ligne par la somme de celle-ci et dun multiple dune autre ligne de la matrice compl`te ; e II) changer deux lignes de la matrice compl`te ; e e III) multiplier une ligne par un lment non nul du corps de base K (appel facteur de lopration ee e e lmentaire). ee 1.3. Echelonnement 1.1. Thor`me. Par une suite doprations lmentaires sur les lignes, on peut transformer toute e e e ee possdant la proprit suivante : le nombre dentres nulles e ee e matrice en une matrice U = (uij )
1 i m 1 j n

au dbut de chaque ligne augmente ` chaque ligne, laugmentation tant stricte pour les lignes qui e a e a e suivent une ligne non nulle2 ; cest-`-dire que pour i = 1, . . . , m 1 et k N xs, si uij = 0 pour tout j k alors ui+1,j = 0 pour tout j k + 1. Une matrice U possdant la proprit ci-dessus est appele matrice a lignes chelonnes. Si une e ee e ` e e ligne dune telle matrice est nulle, la condition entra que toutes les lignes suivantes sont nulles. ne Dans une ligne non nulle, la premi`re entre non nulle est appele pivot de la ligne. Par exemple, la e e e matrice suivante est a lignes chelonnes : ` e e 0 1 2 3 4 5 0 0 0 6 7 8 = 0 0 0 0 9 10 ; (aij ) 1 i 5 0 0 0 0 0 0 1 j 6 0 0 0 0 0 0 les pivots (des lignes non nulles) sont a12 = 1, nest pas ` lignes chelonnes : a e e 0 0 0 0 a24 = 6 et a35 = 9. En revanche, la matrice suivante 0 0 0 0 1 0 0 0 2 3 . 4 0
1 i m 1 j n

Dmonstration du thor`me : Soit A = (aij ) e e e

une matrice arbitraire. La stratgie de e

la dmonstration consiste a faire appara des entres nulles successivement en dessous des premi`res e ` tre e e entres non nulles de chaque ligne. e Si la premi`re colonne est nulle, elle le reste lorsque lon eectue des oprations lmentaires sur e e ee les lignes de la matrice. On peut donc la supprimer (mentalement) et porter son attention sur la deuxi`me colonne. Bien entendu, si toutes les colonnes de la matrice sont nulles cest-`-dire si la e a matrice est nulle alors la matrice est a lignes chelonnes. ` e e ee Si la premi`re colonne nest pas nulle, on choisit3 un lment non nul de cette colonne, qui e deviendra le premier pivot de la matrice a lignes chelonnes. Supposons avoir choisi lentre de la ` e e e e tre ` k-`me ligne : ak1 = 0. Par des oprations de type I sur les lignes, on peut faire appara des 0 a la e place de toutes les autres entres de la premi`re colonne : en eet, si lon remplace la -`me ligne L e e e (pour = k) par la somme de celle-ci et de la k-`me ligne Lk multiplie par a 1 a1 , on transforme e e k1 la matrice A en la matrice A = (aij )i,j telle que a
2 car 3 Dans

= a j + akj (a 1 a1 ) pour j = 1, . . . , n k1

la ligne qui suit une ligne nulle ne peut videmment contenir plus de n entres ! e e les calculs numriques, il y a avantage ` choisir lentre la plus grande en valeur absolue, an de minimiser e a e leet des erreurs darrondi.

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

et aij = aij En particulier, a


1

pour i =

et j = 1, . . . , n. . . . 0 . . . . . . . . . . . . . . . . . .

=0:

a1 . A= . . ak1 . . .

. . .

. . . . . . . . .

. . . . . .

;L Lk
a 1 ak1

L . . .

ak1 . . .

=A. . . .

Apr`s avoir ainsi opr sur toutes les lignes autres que la k-`me, on obtient une matrice dont la e ee e a e premi`re colonne ne contient quun seul lment non nul, a savoir ak1 ` la k-`me ligne : e ee ` 0 . . . . . . . . . ak1 . . . . . . . . . . 0 Pour faire appara cette entre ` la premi`re ligne (si elle ny est pas dj`), il sut dchanger la tre e a e ea e premi`re et la k-`me ligne. e e Apr`s ces oprations, on obtient une matrice A dont la premi`re colonne est conforme a ce que e e e ` lon attend dune matrice a lignes chelonnes, puisque toutes les entres de la premi`re colonne sont ` e e e e nulles ` lexception de la premi`re : a e 0 A A = . . . . . . . . . . 0 Pour poursuivre lchelonnement, on na plus besoin de faire intervenir la premi`re ligne ; on peut e e donc la supprimer mentalement, ainsi que la premi`re colonne puisque ce quil en reste apr`s avoir e e retir la premi`re ligne est constitu de 0 : e e e 0 0 A = . . . . = . . . . . . . . . B 0 0 On est ainsi ramen ` une matrice B plus petite, sur les lignes de laquelle on reprend les oprations lea e ee mentaires. Bien entendu, les oprations lmentaires sur les lignes de B correspondent ` des oprations e ee a e lmentaires sur les lignes de A puisque les lignes de B deviennent des lignes de A lorsquon les fait ee prcder dun 0. En poursuivant ainsi de suite, supprimant a chaque fois une colonne et une ligne (ou e e ` seulement une colonne dans le cas o` la premi`re colonne a considrer est nulle) jusqu` ce quil nen u e ` e a reste plus, on obtient nalement une matrice a lignes chelonnes. ` e e 2 La matrice ` lignes chelonnes produite par le procd indiqu dans la dmonstration nest nullement a e e e e e e dtermine de mani`re unique ; elle dpend (notamment) du choix des pivots, comme le montrent les e e e e exemples suivants (o` le pivot est encadr) : u e 1 1 0 1 1 0 1 1 0 0 2 1 1 1 1 1 1 0 0 1 0 1 0 1 1 0 0 1 2 1 0 1 1 0 0 0

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

et

1 2 1 1

0 1 0 2 1 1 0 0 1 2 1 0 2 3/2 1/2 0 1/2 1/2 0 1/2 1/2 3/2 3/2 0

1/2 1/2 1 1 1/2 1/2 3/2 3/2 2 0 0 0

2 3/2 1/2 L1 ;L1 +L2 2 1 1 L2 ;L2 L1 0 1/2 1/2 0 3/2 3/2 3/2 1/2 2 3/2 1/2 0 0 0 3/2 3/2 . 0 0 0 0 0 3/2 3/2 0 0 0

En revanche, on montre au 6 que le nombre de lignes non nulles de la matrice a lignes chelonnes ` e e est un invariant de la matrice donne (cest son rang). e Apr`s avoir chelonn les lignes dune matrice, on peut encore poursuivre les oprations lmene e e e ee taires pour annuler les entres situes au-dessus des pivots. En utilisant les oprations de type III qui e e e consistent ` multiplier chaque ligne non nulle par linverse de son pivot, on parvient nalement a une a ` matrice a lignes chelonnes dont tous les pivots sont gaux a 1 et toutes les entres situes au-dessus4 ` e e e ` e e dun pivot sont nulles : 0 0 1 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 . Une telle matrice est dite sous forme rduite de GaussJordan. e On a ainsi prouv un rsultat plus prcis : e e e 1.2. Corollaire. Par une suite doprations lmentaires sur les lignes, on peut transformer e ee toute matrice en une matrice sous forme rduite de GaussJordan. e On peut prouver que la matrice sous forme rduite obtenue ` partir dune matrice A donne est e a e dtermine de mani`re unique par A. Comme ce rsultat nest pas indispensable pour la suite, sa e e e e dmonstration est laisse ` la sagacit du lecteur5 . e e a e 1.4. Solution de syst`mes dquations algbriques linaires e e e e Revenons au probl`me initial, qui consiste ` rsoudre un syst`me de m quations en n inconnues e a e e e a11 x1 + + a1n xn = b1 . . . am1 x1 + + amn xn = bm . Par des oprations lmentaires sur les quations de ce syst`me ou, ce qui revient au mme, sur les e ee e e e lignes de la matrice compl`te, on obtient un syst`me qui a les mmes solutions et dont la matrice e e e compl`te est sous forme rduite de GaussJordan. Il est facile de reconna si un tel syst`me admet e e tre e des solutions6 : les lignes nulles de la matrice compl`te correspondent ` des quations e a e 0x1 + + 0xn = 0; on peut donc les ngliger et ne sintresser quaux lignes non nulles. Soit r le nombre de ces e e lignes ;
qui sont situes en dessous dun pivot sont nulles par dnition dune matrice ` lignes chelonnes. e e a e e est toutefois conseill de chercher linspiration dans le 6. e 6 En pratique, il nest dailleurs pas ncessaire de poursuivre les oprations lmentaires au-del` du moment o` la e e ee a u matrice du syst`me est ` lignes chelonnes. e a e e
5 Il 4 Celles

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

si le dernier pivot (cest-`-dire le r-`me) est dans la derni`re colonne (cest-`-dire la n + 1-`me), a e e a e qui est la colonne des termes indpendants, alors la derni`re quation non triviale est e e e 0x1 + + 0xn = 1; le syst`me nadmet donc pas de solution ; e si le dernier pivot nest pas dans la derni`re colonne : soient j1 , . . . , jr les indices des colonnes e e de pivots, de sorte que 1 j1 < j2 < < jr n et que la matrice compl`te soit du type j2 j3 jr j1 0 0 1 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1 0 . 0 0 0 0 0 0 0 0 0 0 0 1 En faisant passer dans les membres de droite des quations correspondantes les variables dine e dice = j1 , . . . , jr , on met le syst`me sous la forme xj1 = j=j1 ,... ,jr a1j xj + b1 x = a x +b
j2

xjr

. . . =

j=j1 ,... ,jr

2j j

j=j1 ,... ,jr

arj xj + br .

Cest un syst`me qui donne les valeurs des variables xj1 , . . . , xjr en fonction des autres. Les e solutions sobtiennent en donnant aux variables dindice = j1 , . . . , jr des valeurs arbitraires et e e aux variables xj1 , . . . , xjr les valeurs donnes par le syst`me ci-dessus. En particulier, si r = n, la matrice compl`te e 1 0 . . . et la solution est unique : sous forme rduite de GaussJordan est de la forme e 0 0 b1 1 0 b2 . .. . . . . . . . . . 1 b1 br . br

0 0 x1 xr = . . . =

Syst`mes homog`nes. Un syst`me dquations algbriques linaires est dit homog`ne si les seconds e e e e e e e e membres b1 , . . . , bm sont tous nuls. Un tel syst`me est donc de la forme a11 x1 + + a1n xn = 0 . . . am1 x1 + + amn xn = 0. e Il admet toujours la solution triviale x1 = = xn = 0. Pour dterminer sil en existe dautres, on proc`de comme pour les autres syst`mes dquations algbriques linaires. La derni`re colonne de la e e e e e e matrice compl`te est nulle, et elle reste nulle lorsque lon eectue des oprations lmentaires sur les e e ee lignes. Le syst`me rduit est donc de la forme e e xj1 = j=j1 ,... ,jr a1j xj x = a x
j2

xjr

. . . =

j=j1 ,... ,jr

2j j

j=j1 ,... ,jr

arj xj

o` r est le nombre de pivots (ou, ce qui revient au mme, le nombre de lignes non nulles de la matrice u e sous forme rduite de GaussJordan). Si r = n, la solution est unique (et est triviale). Si r < n, il e

` 1. SYSTEMES DEQUATIONS ALGEBRIQUES LINEAIRES

y a des solutions non triviales, qui sobtiennent en donnant aux variables dindice = j1 , . . . , jr des e e valeurs arbitraires (non toutes nulles) et aux variables xj1 , . . . , xjr les valeurs donnes par le syst`me ci-dessus. La suite du cours a pour objectif de mettre au point et de dvelopper le cadre thorique dans lequel e e sins`rent naturellement les rsultats prcdents. En particulier, on verra que le nombre r dquations e e e e e non nulles du syst`me rduit ne dpend pas de la mani`re dont la rduction a t eectue et quil e e e e e ee e admet une interprtation gomtrique susceptible de sappliquer ` des situations tr`s diverses. e e e a e Exercices On trouvera un choix dexercices a la n de chaque section. Certains de ces exercices sont nots ` e prrequis. Cela signie quils sont dun niveau tr`s lmentaire ; ne pas tre capable de les rsoudre e e ee e e ` doit tre considr comme une sonnette dalarme. A loppos, dautres exercices sont nots pour e e e e e aller plus loin. Ceux-l` sont plus intressants car moins routiniers. Mais ils peuvent poser dicult a e e car ils mettent en jeu des objets plus abstraits, et/ou que leur rsolution est plus astucieuse. Il ne faut e pas sinquiter si lon est incapable de les rsoudre. e e (1.1) Trouvez les solutions relles du syst`me dquations suivant : e e e x1 2x2 3x3 + 4x4 x1 + 2x2 + 2x3 x1 + x2 x1 x + iy + (1 + i)z t x+y (1 + i)x + (i 1)z it x y + 2z 2x + y z 3x + z 5x + y = = = = 1 6 3 2.

(1.2) Trouvez les solutions complexes du syst`me dquations suivant : e e = 1 = 0 = 1.

(1.3) Trouvez les solutions relles du syst`me dquations suivant : e e e = = = = 1 0 1 1.

(1.4) Trouvez les solutions relles du syst`me dquations suivant : e e e x + 2y 3z x + y + z 4x 2y + z = 0 = 0 = 0.

(1.5) Trouvez les solutions relles du syst`me dquations suivant : e e e 3x1 + 2x2 + x3 x4 x5 x1 x2 x3 x4 + 2x5 x1 + 2x2 + 3x3 + x4 x5 = = = 0 0 0.

(1.6) Quel est lensemble des polynmes P tels que (X 2 + X + 1) P = 2X 4 + 3X 3 + 6X 2 + 4X + 3 ? o (1.7) Notons N le nombre de solutions dun syst`me de n quations linaires ` m inconnues. On sait e e e a que N {0, 1, }. Quelles sont les valeurs possibles de N si n < m ? si n = m ? si n > m ? Dans les trois cas, donner un exemple de syst`me dquations ayant N solutions pour chaque valeur e e possible de N , et si certaines valeurs de N sont impossibles, justiez-le.

2. MATRICES

(1.8) Discutez, en fonction de la valeur du rel k, le nombre de solutions relles du syst`me dquations e e e e suivant : x + 2y z 2x + 5y + z x + 3y + (k 2 + 1)z = = = 4 k 5k.

Mme question pour le nombre de solutions complexes, k pouvant prendre des valeurs complexes. e (1.9) Grard Mambont sest entra e ` eectuer plusieurs oprations lmentaires simultanment e n a e ee e pour rsoudre plus vite les syst`mes dquations. Il transforme le syst`me e e e e I x1 + 2x2 x3 + x4 x1 x2 + x3 + x4 = = 1 0

e en remplaant la premi`re ligne L1 par L1 L2 et la ligne L2 par L2 L1 . Il obtient le syst`me c e II 3x2 2x3 3x2 + 2x3 = = 1 1,

u dont les solutions sont tous les quadruplets (x1 , 1 (1 + 2x3 ), x3 , x4) o` x1 , x3 , x4 sont arbitraires. Sa 3 copine Jenny Croix-Guerre lui fait remarquer que (1, 1, 1, 0) est solution du syst`me II mais non de e I. O` est lerreur ? u (1.10) (pour aller plus loin) Soit un syst`me dquations linaires ` coecients rels. Prouvez que e e e a e si ce syst`me na pas de solutions relles, alors il na pas non plus de solutions complexes. e e

2. Matrices
Les oprations lmentaires dont il a t question dans la premi`re section admettent une ine ee ee e terprtation tr`s simple en termes de multiplication matricielle. Pour la donner, on commence par e e rappeler les dnitions fondamentales. e Soit K un corps commutatif arbitraire. On note K mn lensemble des matrices mn (ou de genre (m, n)) sur K, cest-`-dire lensemble des tableaux rectangulaires a m lignes et n colonnes dont les a ` et B = (bij ) dans entres sont des lments de K. Lgalit de deux matrices A = (aij ) e ee e e
1 i m 1 j n 1 i m 1 j n

mn

revient ` lgalit de chacune de leurs entres : a e e e A=B si et seulement si aij = bij pour tout i = 1, . . . , m et tout j = 1, . . . , n.

Les matrices qui nont quune seule ligne (resp. colonne) sont appeles matrices-lignes (resp. matricese colonnes). Les matrices dont le nombre de lignes est gal au nombre de colonnes sont appeles matrices e e carres. Lordre dune matrice carre est le nombre de ses lignes ou de ses colonnes. La diagonale prine e cipale dune matrice carre est forme des entres dont les indices sont gaux. Une matrice diagonale e e e e est une matrice carre dont toutes les entres hors de la diagonale principale sont nulles. e e Matrices particuli`res : e e 0m,n est la matrice nulle de genre (m, n), dont toutes les entres sont nulles. e e In est la matrice unit dordre n, dnie par In = (ij )1 o` u ij = 0 1 si i = j si i = j.
i,j n

e e La fonction ij ainsi dnie est appele symbole de Kronecker.

2. MATRICES

2.1. Oprations matricielles e La somme de deux matrices m n est dnie par e (aij )i,j + (bij )i,j = (aij + bij )i,j . Le produit dune matrice m n par un lment de K est dni par ee e (aij )i,j = (aij )i,j . Le produit dune matrice m n et dune matrice n p est une matrice m p dnie par e (aij ) o` u cij =
k=1 1 i m 1 j n

(bij )

1 i n 1 j p

= (cij )

1 i m 1 j p

aik bkj

pour i = 1, . . . , m et j = 1, . . . , p.

Les proprits suivantes stablissent par des vrications directes : ee e e 1. Proprits de laddition : pour A, B, C K mn , ee (A + B) + C = A + (B + C) A+B = B+A A + 0m,n = A = 0m,n + A A + (1)A = 0m,n = (1)A + A 2. Proprits de la multiplication par un lment de K : pour A, B K mn et , K, ee ee (A + B) = A + B ( + ) A = A + A () A = ( A) 1A = A 3. Proprits de la multiplication matricielle : pour A K mn , B K np et C K pq , ee (AB)C = A(BC) A In = A = Im A 4. Proprits mixtes : pour A, A K mn , B, B K np et K, ee (A + A ) B = AB + A B A (B + B ) = AB + AB ( A) B = (A B) = A ( B). En revanche, le produit des matrices nest pas commutatif : en gnral, AB = BA (dailleurs, si e e e e e A K mn et B K np , le produit BA nest dni que si p = m). Cependant, dapr`s la derni`re des proprits nonces ci-dessus, les matrices de la forme In pour K, que lon appelle matrices ee e e scalaires, commutent avec toutes les matrices carres dordre n : pour A K nn et K, e ( In )A = A = A ( In ). Il faut remarquer de plus que les matrices nadmettent pas toutes un inverse pour la multiplication (voir la section 2.4 ci-dessous) et quun produit matriciel peut tre nul sans quaucun des facteurs ne e soit nul ; par exemple, 0 1 0 1 0 0 = . 0 0 0 0 0 0

2. MATRICES

10

La multiplication matricielle permet de noter sous une syst`mes dquations algbriques linaires. En eet, le syst`me e e e e e a11 x1 + + a1n xn = . . . am1 x1 + + amn xn = scrit simplement e AX = b o` u a11 . A= . . am1 est la matrice des coecients du syst`me, e

forme particuli`rement compacte les e de m quations a n inconnues e ` b1 bm

a1n . . . amn

x1 . X= . . xn b1 . b= . . bm

est la matrice-colonne des inconnues, et

est la matrice-colonne des termes indpendants. e 2.2. Oprations par blocs e Si les entiers m et n sont dcomposs en sommes dentiers strictement positifs e e m = m1 + + mr n = n1 + + ns toute matrice de genre (m, n) peut tre considre comme une matrice r s dont lentre dindices e ee e i, j est une matrice de genre (mi , nj ) que lon appelle bloc. Ainsi, par exemple, pour m = 4 et n = 6, aux dcompositions e 4 =1+2+1 6 =2+4 correspond la dcomposition suivante e a11 a12 a21 a22 A= a31 a32 a41 a42 o` u A11 = A21 = A31 = a11 a21 a31 a41 a12 a22 a32 a42 A12 = A22 = A32 = a13 a23 a33 a43 a14 a24 a34 a44 a15 a25 a35 a45 a16 a26 a36 a46 . dune matrice arbitraire A de genre (4, 6) : a13 a14 a15 a16 A12 A a23 a24 a25 a26 11 = A21 A22 a33 a34 a35 a36 A31 A32 a43 a44 a45 a46

Les dcompositions les plus frquemment utilises sont la e e e a11 a12 a1n a21 a22 a2n A= . . . . . . . . . am1 am2 amn

dcomposition par lignes : e a1 a2 = . . . am

2. MATRICES

11

o` ai = u

ai1

ai2

o` aj = u

a1j a2j . . . amj

ain dsigne la i-`me ligne de A, et la dcomposition par colonnes : e e e a11 a12 a1n a21 a22 a2n A= . . . = a1 a2 an . . . . . . am1 am2 amn

e e dsigne la j-`me colonne de A.

2.1. Proposition. Le rsultat doprations eectues sur des matrices dcomposes en blocs peut e e e e e sobtenir en appliquant les r`gles habituelles du calcul matriciel a ces blocs comme sils taient les e ` e lments des matrices (pour autant, videmment, que les oprations requises sur les blocs aient un ee e e sens). Dmonstration. La proposition tant vidente pour les multiplications par des lments de K e e e ee et pour les additions matricielles, il sut de la prouver pour les multiplications matricielles. Soient A = (aij )
1 i m 1 j n

et

B = (bij )

1 i n 1 j p

deux matrices, de genres (m, n) et (n, p) respectivement, de sorte que le produit AB soit dni. e Considrons des dcompositions e e m = m1 + + mr n = n1 + + ns p = p1 + + pt

et les dcompositions correspondantes de A et B en blocs : e A = (A ) Il faut prouver :


s 1 r 1 s

B = (B )

1 s 1 t

AB =
=1

A B

1 r 1 t

Or, llment dindices i, j de AB est ee


n n1

n k=1 aik bkj , n1 +n2

que lon peut dcomposer en somme de s termes : e


n

aik bkj =
k=1 k=1

aik bkj +
k=1+n1

aik bkj + +
k=1+n1 ++ns1

aik bkj

et lon reconna dans le membre de droite llment i, j de la matrice dcompose en blocs : t ee e e


s

A B
=1

1 r 1 t

. 2

En particulier, dans un produit de deux matrices, on peut dcomposer le facteur de droite en colonnes e ou le facteur de gauche en lignes pour faire appara les colonnes ou les lignes du produit comme tre des produits matriciels : pour A K mn et B K np , on a AB = A et aussi b1 bp = A b1 A bp

a1 B a1 . . . AB = . B = . . am am B

2. MATRICES

12

et encore

a1 . AB = . . am

b1

bp

a1 b1 . . = . am b1

a1 bp . . . . am bp

2.3. Transposition Pour A = (aij )


1 i m 1 j n

K mn , on pose At = (aij ) K nm ,

1 i n 1 j m

o` u pour i = 1, . . . , n et j = 1, . . . , m. aij = aji e e e La matrice A est appele transpose de la matrice A ; elle est obtenue en crivant en colonnes les lignes de A (ou vice-versa).
t

2.2. Proposition.

1. Pour A, B K mn et , K, ( A + B)t = At + B t .

2. Pour A K mn et B K np , (A B)t = B t At . 3. Pour A K mn , (At )t = A.

Les dmonstrations de ces proprits sont de simples vrications laisses au lecteur. e ee e e 2.4. Inversion ` a Une matrice A K mn est dite inversible a gauche (resp. ` droite) sil existe une matrice B K nm telle que B A = In (resp. A B = Im ). Toute matrice B satisfaisant cette condition est appele inverse a gauche (resp. inverse a droite) de A. e ` ` Par exemple, toute matrice-ligne non nulle est inversible ` droite. En eet, si a1 , . . . , an K a ne sont pas tous nuls, on peut trouver (en gnral de plusieurs mani`res) b1 , . . . , bn K tels que e e e a a1 b1 + + an bn = 1, ce qui revient ` dire b1 . a1 an . = (1) = I1 . . bn De mme, toute matrice-colonne non nulle est inversible ` gauche ; cet exemple montre que linverse e a a ` gauche ou a droite dune matrice nest gnralement pas unique. ` e e 2.3. Proposition. Si une matrice est inversible ` gauche et a droite, alors elle admet un unique a ` inverse a gauche, qui est aussi lunique inverse a droite. ` ` ` ` ` Demonstration. Soit A K mn une matrice inversible a la fois a gauche et a droite. Supposons que B soit un inverse a gauche et que C soit un inverse a droite de A, de sorte que ` ` BA = In et AC = Im . Il sagit de prouver : B = C. On consid`re pour cela le produit BAC. Dapr`s les facteurs que lon e e multiplie en premier, on a BAC = B(AC) = BIm = B ou BAC = (BA)C = In C = C; donc B = C. Cela prouve que tout inverse a gauche de A est gal ` C et que tout inverse ` droite de ` e a a A est gal a B ; il y a donc un seul inverse a gauche, qui est aussi lunique inverse a droite. e ` ` ` 2

2. MATRICES

13

Si une matrice A satisfait la condition de la proposition, on dit quelle est inversible et on dsigne e a ` par A1 son unique inverse (` gauche et a droite). On verra plus loin (Corollaire 6.6, page 39) que seules les matrices carres peuvent tre inversibles, ce qui nest pas vident a priori. Par ailleurs, on e e e montre dans la section suivante (voir le Thor`me 2.8) que pour une matrice carre, linversibilit ` e e e ea gauche est quivalente ` linversibilit ` droite (et donc aussi a linversibilit), et on donne un procd e a ea ` e e e explicite pour calculer linverse au moyen doprations lmentaires sur les lignes. e ee 2.4. Proposition. 1. Linverse de toute matrice inversible est inversible : si A K mn est 1 inversible, alors A K nm est inversible et (A1 )1 = A. 2. Le produit de deux matrices inversibles est inversible : si A K mn et B K np sont inversibles, alors le produit A B K mp est inversible et (A B)1 = B 1 A1 . 3. La transpose de toute matrice inversible est inversible : si A K mn est inversible, alors e At K nm est inversible et (At )1 = (A1 )t . a Demonstration. 1. Dire que A1 est linverse de A revient ` dire () A A1 = Im et A1 A = In .

Ces mmes relations montrent que A est linverse de A1 . e 2. On a (A B) (B 1 A1 ) = A (B B 1 ) A1 = A In A1 = A A1 = Im et (B 1 A1 ) (A B) = B 1 (A1 A) B = B 1 In B = B 1 B = Ip , donc A B est bien inversible, dinverse B 1 A1 . 3. Cette relation sobtient en transposant les relations (). 2

2.5. Matrices lmentaires ee Une matrice lmentaire de type I est une matrice qui ne di`re dune matrice unit que par une ee e e seule entre situe hors de la diagonale principale. Une telle matrice est donc carre, et de la forme e e e 1 1 .. E= . 1 1 o` lentre est non nulle et dindices i, j avec i = j, les autres entres hors de la diagonale principale u e e tant nulles. e De mani`re quivalente, une matrice lmentaire de type I est une matrice obtenue en eectuant e e ee une opration lmentaire de type I sur les lignes ou sur les colonnes de la matrice unit. Lentre e ee e e tant situe ` lintersection de la i-`me ligne et de la j-`me colonne, on peut en eet obtenir la e e a e e matrice E ci-dessus en remplaant la i-`me ligne de la matrice unit par la somme de cette ligne et de c e e la j-`me ligne multiplie par ou, si lon prf`re, en remplaant la j-`me colonne de la matrice unit e e ee c e e par la somme de celle-ci et de la i-`me colonne multiplie par . e e De la mme mani`re, en eectuant des oprations lmentaires de type II ou III sur les lignes ou e e e ee les colonnes de la matrice unit, on peut dnir des matrices lmentaires de type II ou III, qui sont e e ee

2. MATRICES

14

de la forme

P =

1 .. . 1 0 1 .. 1 . 1 0 1 .. M = . 1 1

ou

1 .. . 1 1 .. .

1 avec = 0. (Llment K est appel facteur de la matrice lmentaire de type III.) ee e ee Dapr`s la forme des matrices ainsi dnies, il est clair que la transpose de toute matrice lmene e e ee taire est une matrice lmentaire du mme type (et de mme facteur, en ce qui concerne le type III). ee e e 2.5. Proposition. Toute matrice lmentaire est inversible, et son inverse est une matrice lee ee mentaire du mme type (et de facteur inverse, en ce qui concerne le type III). e Dmonstration. Considrons dabord la matrice E dnie ci-dessus. Un calcul direct montre e e e que la matrice 1 1 .. E = , . 1 1 o` lentre occupe la mme place que lentre dans E, est un inverse ` gauche et a droite de E. u e e e a ` e e On a donc E 1 = E . Pour les matrices P et M , on vrie de mme : P 1 = P et 1 .. . 1 1 1 . M = 1 .. . 1 2 2.6. Proposition. Eectuer une opration lmentaire sur les lignes dune matrice revient a e ee ` multiplier cette matrice ` gauche par une matrice lmentaire. Plus prcisment, soit A K mn une a ee e e e ee matrice arbitraire et A K mn la matrice obtenue en eectuant une certaine opration lmentaire e e sur les lignes de A. Soit encore E K mm la matrice obtenue en eectuant la mme opration lmentaire sur les lignes de la matrice unit Im ; alors ee e A = E A.

2. MATRICES

15

Dmonstration. Soit e

E =

1 1 .. . 1

1 lentre tant situe ` lintersection de la i-`me ligne et de la j-`me colonne. On calcule le produit e e e a e e E A en dcomposant A par lignes : e 1 a1 a1 . . .. . . . . . aj aj 1 . . .. . E A = . . = . . . ai ai + aj 1 . . .. . . . . . am am 1 La vrication est pareille pour les oprations lmentaires de type II ou III. e e ee 2

e e Remarque : Le fait que la matrice E dnie dans la dmonstration de la Proposition 2.5 est linverse de E rsulte facilement aussi de la proposition prcdente. e e e 2.7. Corollaire. Soit A K mn une matrice arbitraire et soit U K mn une matrice sous forme rduite de GaussJordan obtenue en eectuant des oprations lmentaires sur les lignes de A e e ee (voir le Corollaire 1.2, p. 5). Il existe une suite de matrices lmentaires E1 , . . . , Er telles que ee A = E1 Er U. Dmonstration. Vu la proposition prcdente, chacune des oprations lmentaires revient ` la e e e e ee a multiplication a gauche par une matrice lmentaire ; on peut donc trouver des matrices lmentaires ` ee ee F1 , . . . , Fr telles que () Fr F1 A = U. ee Dapr`s la Proposition 2.5, chaque matrice Fi est inversible, et son inverse est aussi lmentaire. e e Notons Ei = Fi1 . En multipliant les deux membres de lquation () ci-dessus successivement par les 1 1 matrices Fr = Er , . . . , F1 = E1 , on obtient
1 1 A = F1 Fr U = E1 Er U.

2 Jusqu` la n de cette section, on consid`re le cas particulier des matrices carres. Soit A K nn a e e et soit U K nn une matrice sous forme rduite de GaussJordan obtenue en eectuant des oprations e e lmentaires sur les lignes de A. Comme U est carre, on a lalternative : ee e soit le nombre de pivots de U est n, et alors U = In ; soit le nombre de pivots de U est < n, et alors la derni`re ligne de U est nulle. e e 2.8. Thor`me. Soit A K nn une matrice carre arbitraire. Les conditions suivantes sont e e quivalentes : e (a) A est inversible ; (b) A est inversible a gauche ; ` (c) A est inversible a droite ; ` (d) A est un produit de matrices lmentaires ; ee (e) toute matrice U sous forme rduite de GaussJordan obtenue en eectuant des oprations e e lmentaires sur les lignes de A est la matrice unit In ; ee e e e ee (f) la matrice In peut tre obtenue en eectuant des oprations lmentaires sur les lignes de A ;

2. MATRICES

16

(g) le syst`me homog`ne A X = 0 nadmet que la solution triviale ; e e e (h) pour tout b K n , le syst`me A X = b admet une et une seule solution. Une matrice carre satisfaisant les conditions quivalentes ci-dessus est qualie de rguli`re. Les e e e e e matrices non rguli`res sont appeles singuli`res. e e e e Dmonstration. Il sut de dmontrer les implications e e (a) (b) (g) (e) (f) (d) (a) pour prouver lquivalence des conditions (a), (b), (d), (e), (f) et (g). On montrera ensuite e (a) (h) (g), ce qui prouvera encore lquivalence de (h) avec les conditions examines prcdemment, et enn on e e e e tablira e (a) (c) (a). (a) (b) : Cest clair par dnition de matrice inversible. e (b) (g) : Soit B un inverse ` gauche de A. En multipliant les deux membres de A X = 0 ` gauche a a par B, on trouve X = B 0 = 0. (g) (e) : Supposons que la condition (e) ne soit pas satisfaite. Soit U = In une matrice sous forme rduite de GaussJordan obtenue en eectuant des oprations lmentaires sur les lignes de A ; alors e e ee le nombre de pivots de U est < n, donc le syst`me homog`ne A X = 0 admet une solution non e e triviale, dapr`s ce qui a t dit dans la section 1.4. e ee (e) (f) : Cest clair. (f) (d) : Cela rsulte du Corollaire 2.7. e u ee e (d) (a) : Soit A = E1 Er , o` E1 , . . . , Er sont des matrices lmentaires. Dapr`s la Proposition 2.5, toute matrice lmentaire est inversible. Comme tout produit de matrices inversibles est inee 1 1 versible (voir la Proposition 2.4, p. 13), on en dduit que A est inversible (et que A1 = Er E1 ). e 1 (a) (h) : Si A est inversible, le syst`me A X = b admet X = A b pour unique solution. e (h) (g) : Cest clair, puisque (g) est un cas particulier de (h) (vu que tout syst`me homog`ne admet e e au moins la solution triviale). (a) (c) : Cela rsulte directement de la dnition de matrice inversible. e e ` (c) (a) : Soit B un inverse ` droite de A. La relation AB = In montre que A est un inverse a gauche a de B. Or, dapr`s les implications (b) (g) (e) (f) (d) (a) dmontres ci-dessus, on sait e e e que toute matrice carre inversible ` gauche est inversible. D`s lors B est inversible et la matrice A, e a e qui est inverse ` gauche de B, est aussi inverse ` droite de B. On a donc BA = In , ce qui montre que a a B est un inverse a gauche de A. La matrice A est donc inversible. ` 2 Application au calcul de linverse. La relation entre linversibilit de A et la forme de U tablie e e dans le thor`me prcdent sugg`re une mani`re pratique de dterminer linverse de A (si elle existe) : e e e e e e e on forme une matrice n 2n en juxtaposant A et la matrice unit : e A In , puis on eectue sur les lignes de cette matrice les mmes oprations lmentaires que pour rduire A e e ee e a ` la forme de GaussJordan : A In A1 A1 Ar Ar U B . Chaque `che reprsente une transformation par une opration lmentaire sur les lignes ou, de e e e ee mani`re quivalente, la multiplication a gauche par une matrice lmentaire ; pour tout i = 0, . . . , r, e e ` ee il existe donc une matrice lmentaire Ei telle que ee Ai+1 Ai+1 U = Ei B Ai Ai = Ei Ai A In , Ei Ai . (On pose A0 = A, A0 = In , Ar+1 = U et Ar+1 = B). On a donc = Er E0 si bien que B = Er E0 et U = B A.

2. MATRICES

17

Si U = In , alors le Thor`me 2.8 montre que A nest pas inversible. En revanche, si U = In , alors e e B est un inverse a gauche de A. Or, le Thor`me 2.8 montre que A est inversible, donc B = A1 . ` e e Remarque : Le rle des oprations lmentaires sur les lignes a t privilgi dans cette section ` cause o e ee ee e e a des applications aux syst`mes dquations algbriques linaires. Cependant, la Proposition 2.6 et le e e e e Corollaire 2.7 admettent une variante o` le rle des lignes est jou par les colonnes. La multiplication u o e a ` gauche par des matrices lmentaires est alors remplac par la multiplication ` droite. On peut ee e a obtenir ces variantes soit par un raisonnement direct, en adaptant les arguments utiliss dans les e dmonstrations de la Proposition 2.6 et du Corollaire 2.7, soit en transposant leurs noncs. e e e Exercices (2.1) (prrequis) Que signie la phrase les deux matrices A et B commutent ? Quest-ce quune e matrice diagonale ? (2.2) Soit un corps K, A K nn , K et D une 0 0 ... D= . . . 0 ... Dmontrez que D A = A D. e 1 (2.3) Calculez A4 si A = 0 0 0 0 2 0 . 0 3 matrice diagonale de la forme ... 0 . . . . .. . 0 0

(2.4) On consid`re un corps K et trois matrices A, B, C K nn . e e Supposons que B soit inversible et que BAB 1 = C. Dmontrez par induction sur k que, pour tout k N, Ak = B 1 C k B. En gnralisant lexercice 2.3, expliquez pourquoi ce rsultat est intressant si C est une matrice e e e e diagonale. (2.5) Prouvez que multiplier une matrice a droite par une matrice-colonne revient a ` ` combinaison linaire de ses colonnes ; cest-`-dire, prouvez que e a a12 a1m x1 a11 a11 . . . a1m . . . = . x + . x ++ . . . . 1 . 2 . . . . . . . . an1 ... anm xm an1 an2 anm eectuer une xm .

De mme, prouvez que multiplier une matrice a gauche par une matrice-ligne revient a eectuer une e ` ` combinaison linaire de ses lignes : e a11 . . . a1m . . = x (a . (x1 . . . xn ) . 1 11 . . . a1m ) + + xn (an1 . . . anm ). . . an1 ... anm c1l . , . . cnl (2.6) Soit un corps K et A K nm . c11 . . . b11 . . . b1l . . = . . . Prouvez que A . . . . bm1 . . . bml cn1 . . . b11 c12 b12 c11 . . . . o` . = A . , . = A . u . . . . cn1 bm1 cn2 bm2 Prouvez un rsultat analogue pour les lignes. e

c1l b1l . . , . . . , . = A . . . . cnl bml

2. MATRICES

18

(2.7) Soit K un corps, A, B K nn . Prouvez que (A + B)2 = A2 + 2AB + B 2 (2.8) Soit K un corps, A K
nm

si et seulement si AB = BA. . Prouvez que (AB)t = B t At .

et B K

mp

e ee (2.9) Soit K un corps, A K nn . On dnit la trace de A comme la somme des lments se trouvant n sur sa diagonale (principale) : tr(A) = i=1 Aii . Prouvez que si B K nn , alors tr(AB) = tr(BA). Dduisez-en que, si C K nn est inversible, alors tr(CAC 1 ) = tr(A). e (pour aller plus loin) Trouvez trois matrices carres A, B, C telles que tr(ABC) = tr(CBA). e i 3 i (2.10) Calculez linverse de 0 2i 1 . i 0 i 1 0 0 0 0 2 0 0 (2.11) Calculez linverse de la matrice 0 0 3 0 . 0 0 0 4 (2.12) Dterminez pour quelles valeurs de R la e 0 1 1 0 Pour ces valeurs, calculez son inverse. (2.13) Soit M une matrice carre. Dmontrez que M est inversible si et seulement si M t est inversible. e e Dmontrez galement que si M est inversible alors (M t )1 = (M 1 )t . e e e (2.14) Si M est une matrice carre telle que M 2 M + I = 0, dmontrez que M est inversible et e dterminez son inverse (I est une matrice unit et 0 une matrice nulle, toutes deux de mme ordre e e e que M ). (2.15) Expliquez la remarque qui suit la Proposition 2.6, ` la page 14. a (2.16) (pour aller plus loin) Si M et N sont des matrices carres relles de mme ordre, dmontrez e e e e que M et N sont inversibles si et seulement si M N est inversible. Calculez linverse de M et linverse de N en fonction de M , N et (M N )1 . (2.17) (pour aller plus loin) Dveloppez la remarque de la page 17 : dmontrez que lon peut e e dterminer si une matrice est inversible et, le cas chant, calculer son inverse, en faisant des oprations e e e e lmentaires sur les colonnes plutt que sur les lignes. ee o Pourrait-on aussi faire des oprations lmentaires ` la fois sur les lignes et sur les colonnes ? e ee a (2.18) (pour aller plus loin) Est-il possible quune matrice carre relle ait un inverse complexe e e mais pas dinverse rel ? e ` (2.19) (pour aller plus loin) A partir dune matrice quelconque A K mn , on forme une matrice nm en faisant des oprations lmentaires sur les lignes de A et en transposant le rsultat e ee e A K obtenu. e ee Peut-on obtenir la matrice A en faisant des oprations lmentaires sur les lignes de la matrice transpose At ? e e ee Peut-on obtenir la matrice A en faisant des oprations lmentaires sur les colonnes de At ? matrice suivante est inversible : 0 . 1

CHAPITRE II

Espaces vectoriels
3. Notions fondamentales
3.1. La notion despace vectoriel Dnition. Soit K un corps (commutatif) et soit E un ensemble muni de deux lois de composition, e lune interne et note additivement : e + lautre externe et note multiplicativement : e . : EK E (x, ) x. : E E E (x, y) x + y

On dit que E est un espace vectoriel sur K si les conditions suivantes sont satisfaites : A) E est un groupe commutatif pour +. B) Pour x, y E et , K, x( + ) = x + x x + y (x) x. (x + y) = x() = x.1 =

Les lments de E sont alors appels vecteurs et ceux de K sont appels scalaires. Dans les ee e e applications, les scalaires sont le plus souvent des nombres rels (K = R) ou, plus gnralement, des e e e nombres complexes (K = C). On parle alors despace vectoriel rel ou complexe, respectivement. e Le rsultat de la multiplication dun vecteur x et dun scalaire est ici not conventionnellement e e x. Il est cependant indirent de noter x pour x. La notation x est plus habituelle dans certains e exemples mais la notation x conduit a des formules plus lgantes, notamment lors de changements ` ee de base. e Soient v1 , . . . , vn un nombre ni de vecteurs dun espace vectoriel E. Une combinaison linaire e (ou combili ) de v1 , . . . , vn est un vecteur x E qui admet une dcomposition comme somme de multiples de v1 , . . . , vn : x = v1 1 + + vn n pour certains coecients 1 , . . . , n K. Exemples. A) ee 1. Pour tout corps K, lensemble K n des n-uples dlments de K est un espace vectoriel sur K, laddition vectorielle et la multiplication scalaire tant dnies respectivement e e par : (x1 , . . . , xn) + (y1 , . . . , yn ) = (x1 , . . . , xn ) = (x1 + y1 , . . . , xn + yn ) (x1 , . . . , xn ).

2. Lensemble K mn des matrices de genre (m, n) sur le corps K est un espace vectoriel sur K, laddition vectorielle et la multiplication scalaire tant dnies comme dans la e e section 2.1.
19

3. NOTIONS FONDAMENTALES

20

B) Pour tout ensemble X et tout espace vectoriel E sur un corps K, lensemble F (X; E) de toutes les fonctions de X vers E est un espace vectoriel sur K, laddition vectorielle et la multiplication scalaire tant dnies respectivement par : e e (f + g)(x) (f)(x) = = f(x) + g(x) f(x).

C) Pour tout corps K, lensemble K[X] des polynmes en une indtermine X ` coecients dans o e e a K est un espace vectoriel sur K, laddition des polynmes et le produit dun polynme par un o o lment de K tant dnis de la mani`re usuelle. ee e e e o e e Plus gnralement, lensemble K[X1 , . . . , Xn ] des polynmes en n indtermines X1 , . . . , e e a e Xn ` coecients dans K est un espace vectoriel sur K pour les oprations usuelles. D) Lensemble EO des vecteurs de lespace usuel ayant pour origine un point O arbitrairement choisi est un espace vectoriel rel, laddition tant dnie par la r`gle du paralllogramme et e e e e e la multiplication scalaire tant dnie de mani`re vidente. Le point O tant x, on identie e e e e e e a ` souvent EO ` lensemble des points de lespace usuel en faisant correspondre a tout vecteur dorigine O son extrmit. e e 3.2. La notion de sous-espace vectoriel Dnition. Une partie V dun espace vectoriel E sur un corps K est un sous-espace vectoriel si les e conditions suivantes sont satisfaites : 1. 0 V . 2. Pour x, y V , on a x + y V . 3. Pour x V et K, on a x V . De mani`re quivalente, un sous-espace vectoriel de E est une partie non vide de E qui est stable par e e combinaisons linaires : pour v1 , . . . , vn V et pour 1 , . . . , n K, e v1 1 + + vn n V. Une vrication directe montre que tout sous-espace vectoriel est lui-mme un espace vectoriel. e e Exemples. A) Lensemble des solutions dun syst`me de m quations linaires homog`nes en n indtermines e e e e e e est un sous-espace vectoriel de K n . B) 1. Lensemble C ]a, b[; R des fonctions continues sur un intervalle ]a, b[ a valeurs dans R ` est un sous-espace vectoriel de lespace F ]a, b[; R de toutes les fonctions de ]a, b[ dans R. e 2. Pour tout entier i 0, lensemble C i ]a, b[; R des fonctions drivables i fois sur lintervalle ]a, b[ et dont la drive i-`me est continue est un sous-espace vectoriel de lespace e e e F ]a, b[; R de toutes les fonctions de ]a, b[ dans R. 3. Lensemble des solutions dune quation direntielle linaire homog`ne est un souse e e e espace vectoriel de lespace F ]a, b[; R de toutes les fonctions de ]a, b[ dans R. o e o C) Pour tout entier d, lensemble K[X] d des polynmes de degr au plus d (y compris le polynme nul) est un sous-espace vectoriel de lespace vectoriel K[X] de tous les polynmes ` coecients o a dans K. D) Dans lespace usuel EO , tout plan et toute droite passant par O est un sous-espace vectoriel. Les droites et les plans ne passant pas par O ne sont pas des sous-espaces vectoriels. Oprations sur les sous-espaces vectoriels. A. Intersection e Si V1 , . . . , Vn sont des sous-espaces vectoriels dun espace vectoriel E, lintersection V1 . . . Vn est un sous-espace vectoriel de E.

3. NOTIONS FONDAMENTALES

21

B. Somme e Si V1 , . . . , Vn sont des sous-espaces vectoriels dun espace vectoriel E, on dnit la somme de V1 , . . . , Vn par : V1 + + Vn = {v1 + + vn | v1 V1 , . . . , vn Vn }. Une vrication directe montre que cet ensemble est un sous-espace vectoriel de E. e On dit que la somme V1 + + Vn est directe si la condition suivante est satisfaite : Pour v1 V1 , . . . ,vn Vn , v1 + + vn = 0 v1 = = vn = 0. e La somme V1 + + Vn est alors note V1 Vn . e e Lorsque la condition ci-dessus est satisfaite, tout vecteur x V1 Vn scrit de mani`re unique comme somme de vecteurs de V1 , . . . , Vn . Supposons en eet x = v1 + + vn = v1 + + vn , e e e o` v1 , v1 V1 , . . . ,vn , vn Vn . La derni`re galit donne, en rassemblant tous les termes dans un u membre : (v1 v1 ) + + (vn vn ) = 0. ne Comme vi vi Vi pour tout i, la condition de somme directe entra alors : v1 v1 = = vn vn = 0, cest-`-dire : vi = vi pour tout i. a Lorsquil ny a que deux termes, la condition de somme directe se simplie : la somme V + W est directe si et seulement si V W = {0}. (On dit alors que V et W sont des sous-espaces disjoints). En eet, supposons dabord V W = {0}. Toute relation v+w =0 v V, w W entra v = w, donc v V W = {0} et par consquent v = w = 0, ce qui prouve que la somme ne e V + W est directe. Rciproquement, si la somme est directe et si x V W , alors dans lquation e e x + (x) = 0 on peut considrer le premier terme comme un lment de V et le second comme un lment de W ; e ee ee la condition de somme directe entra alors : x = x = 0, ce qui prouve : V W = {0}. ne Exemples : 1. Dans lespace usuel EO , la somme de deux droites distinctes passant par O est directe ; la somme de trois droites par O est directe si et seulement si les trois droites ne sont pas dans un mme plan. e e e 2. Une matrice carre A = (aij )1 i,j n Rnn est dite symtrique (resp. anti-symtrique) si e elle est gale (resp. oppose) ` sa transpose : A = At (resp. A = At ). On dit quelle est e e a e triangulaire suprieure (resp. triangulaire infrieure, resp. diagonale) si aij = 0 pour i > j e e (resp. pour i < j, resp. pour i = j). Lensemble S des matrices symtriques et lensemble T des matrices anti-symtriques de e e genre (n, n) sont des sous-espaces vectoriels de Rnn dont la somme est directe : on a S T = Rnn . Lensemble U des matrices triangulaires suprieures, lensemble L des matrices triangulaires e infrieures et lensemble D des matrices diagonales de genre (n, n) sont galement des souse e espaces vectoriels de Rnn . On a Rnn = L + U, mais la somme nest pas directe car L U = D = {0}.

3. NOTIONS FONDAMENTALES

22

Sous-espace vectoriel engendr. Pour tout vecteur v dun espace vectoriel E, lensemble des e multiples scalaires de v : vK = {v | K} est un sous-espace vectoriel de E. Cest mme le plus petit sous-espace vectoriel de E contenant v, e puisque tout sous-espace qui contient v doit aussi contenir ses multiples ; cest pourquoi on lappelle sous-espace vectoriel engendr par v. e e Plus gnralement, pour v1 , . . . , vn E, lensemble C des combinaisons linaires de v1 , . . . , vn : e e C = {v1 1 + + vn n | 1 , . . . , n K} est le plus petit sous-espace vectoriel de E contenant v1 , . . . , vn , puisque tout sous-espace contenant e e v1 , . . . , vn contient aussi les combinaisons linaires de ces vecteurs. Le sous-espace C est appel souse e espace vectoriel engendr par v1 , . . . , vn et not sev v1 , . . . , vn . Vu la dnition de somme de souse espaces vectoriels, on a sev v1 , . . . , vn = v1 K + + vn K. Comme sev v1 , . . . , vn est le plus petit sous-espace vectoriel contenant v1 , . . . , vn , on a pour tout sous-espace vectoriel V E : sev v1 , . . . , vn V si et seulement si v1 , . . . , vn V.

3.1. Proposition. Si v1 , . . . , vn et w1 , . . . , wm sont deux familles de vecteurs de E, on a sev v1 , . . . , vn sev w1 , . . . , wm e e si et seulement si v1 , . . . , vn sont combinaisons linaires de w1 , . . . , wm , et par consquent sev v1 , . . . , vn = sev w1 , . . . , wm e si et seulement si v1 , . . . , vn sont combinaisons linaires de w1 , . . . , wm et w1 , . . . , wm combinaisons linaires de v1 , . . . , vn . e Dmonstration. Cette proposition dcoule directement de lobservation prcdente ; en eet, e e e e on a sev v1 , . . . , vn sev w1 , . . . , wm a si et seulement si v1 , . . . , vn sev w1 , . . . , wm , ce qui revient ` dire que v1 , . . . , vn sont combinaisons 2 linaires de w1 , . . . , wm. e

Exercices (3.1) (prrequis) Dcrivez la structure habituelle despace vectoriel rel de Rn , R[X], Rnm , F (R; R) e e e (lensemble des fonctions de R dans R). Dcrivez la structure habituelle despace vectoriel de Cn , dune part sur R et dautre part sur C. e (3.2) (pour aller plus loin) Voici trois dnitions doprations : R2 R2 R2 et e e est-elle un espace vectoriel sur R ? R2 . Dans quel(s) cas la structure R2 , , (x1 , y1 ) (x2 , y2 ) = ( 3 x1 + 3 x2 )3 , ( 5 y1 + 5 y2 )5 (x, y) = (x3 , y5 ) ; (x1 , y1 ) (x2 , y2 ) = (x1 + x2 , 0) (x, y) = (x, 0) ; (x1 , y1 ) (x2 , y2 ) = (y1 + y2 , x1 + x2 ) (x, y) = (y, x). e a (3.3) C2 , avec les oprations usuelles, est ` la fois un espace vectoriel sur C et un espace vectoriel sur R. Tout espace vectoriel complexe peut-il tre considr comme un espace vectoriel rel ? e ee e : R2 R

3. NOTIONS FONDAMENTALES

23

(3.4) (pour aller plus loin) Soit E, +E , E , un espace vectoriel sur un corps K. Considrons un e ensemble A tel quil existe une bijection f : A E. Si a, b A et K, on dnit e ab a Dmontrez que A, , e = f 1 f(a) +E f(b) = f 1 f(a) E .

est un espace vectoriel sur K.

e (3.5) Soient (E1 , +E1 , E1 ) et (E2 , +E2 , E2 ) deux espaces vectoriels sur un corps K. On dnit des e oprations : (E1 E2 ) (E1 E2 ) (E1 E2 ) et : (E1 E2 ) K (E1 E2 ) de la mani`re e suivante : (x1 , x2 ) (y1 , y2 ) = (x1 +E1 y1 , x2 +E2 y2 ) ; (x1 , x2 ) = (x1 E1 , x2 E2 ). Dmontrez que (E1 E2 , , ) est un espace vectoriel sur K. e (3.6) Dmontrez quun sous-espace vectoriel est un espace vectoriel. e (3.7) Soit E un espace vectoriel sur un corps K et V E. Dmontrez que e V est un sous-espace vectoriel de E ssi V = et (x, y V )( K)(x + y V et x V ) ; V est un sous-espace vectoriel de E ssi 0 V et (x, y V )(, K)(x + y V ). (3.8) Soit E un espace vectoriel sur un corps K et V E. Parmi les armations suivantes, lesquelles sont vraies ? Justiez : quand une armation est vraie, prouvez-la, et quand elle fausse, trouvez un contre-exemple (le plus simple possible !) montrant quelle est fausse. 1. Si V nest pas un sous-espace vectoriel de E, alors 0 V . 2. Si 0 V , alors V nest pas un sous-espace vectoriel de E. 3. Si V = et que V nest pas un sous-espace vectoriel de E, alors pour tous x, y V et pour tous , K, x + y V . 4. Si V nest pas un sous-espace vectoriel de E, alors on peut trouver x, y V et , K tels que x + y V . 5. Si on peut trouver x, y V et , K tels que x + y V , alors V nest pas un sous-espace vectoriel de E. (3.9) On donne ci-dessous quelques exemples despaces vectoriels E sur un corps K, ainsi que des e e vecteurs v, v1 , . . . , vn E. Dterminez dans chaque cas sil est possible dcrire v comme combili de a v1 , . . . , vn , cest-`-dire si v = v1 1 + + vn n , pour certains 1 , . . . , n K. 1. E = R3 , K = R, v = (2, 4, 6), v1 = (1, 2, 3), v2 = (4, 5, 6), v3 = (7, 8, 9). 2. E = R[X], K = R, v = 2 + 3X + 4X 2 , v1 = 1 + X, v2 = X + X 2 , v3 = X 2 + X 3 . 3. E = R22 , K = R, v = v1 = 1 1 0 0 , v2 = 0 1 1 0 2 3 4 0 , 0 0 1 1 .

, v3 =

4. E = C2 , K = C, v = (1 + 2i, 3 4i), v1 = (i, 0), v2 = (0, i). 5. E = C2 , K = R, v = (1 + 2i, 3 4i), v1 = (i, 0), v2 = (0, i). (3.10) Parmi les ensembles suivants, lesquels sont des sous-espaces vectoriels de R3 ? A = {(0, y, 0) | y R}. B = {(1, y, 0) | y R}. C = {(x, y, x + y) | x, y R}. D = {(x, y, x + 1) | x, y R}.

3. NOTIONS FONDAMENTALES

24

E = {(x, x2, x3 ) | x R}. F = {(x, y, z) R3 | x + 2y z = 0}. G = {(x, y, z) R3 | x y = 2y + 3 = z 1}. H = {(x, y, z) R3 | x2 + y2 + z 2 = 0}. I = {(x, y, z) R3 | x2 + y2 + z 2 = 1}. J = {(x + y, z, u + t) R3 | x u = z + t = 2y t = 0}. (3.11) Parmi les ensembles suivants, lesquels sont des sous-espaces vectoriels de lespace F (R; R) des fonctions de R dans R ? A = {f : R R | x R f(x) 0}. B = {f : R R | f est croissante ou f est dcroissante}, e o` f est croissante ssi (x, y R)(x y f(x) f(y)) et u f est dcroissante ssi (x, y R)(x y f(x) f(y)). e C = {f : R R | f(0) = 0}. D = {f : R R | f(a) = b} (discutez en fonction des valeurs de a et de b). (3.12) Parmi les ensembles suivants, lesquels sont des sous-espaces vectoriels de lespace vectoriel complexe C[X] ? A = {P C[X]
2

| P (0) = 0}.

B = {P C[X] | P (0) = 2P (1)}. (3.13) (prrequis) Quand une matrice est-elle (1) symtrique ; (2) antisymtrique ? e e e (3.14) Parmi les ensembles suivants, lesquels sont des sous-espaces vectoriels de R22 ? e A = {M R22 | M est symtrique}. B = {M R22 | M est inversible}. C = {M R22 | M1,1 = a} (discutez en fonction de la valeur de a). (3.15) Soit S = {(x, y, z) R3 | x + y + z = 0 x + 52y + 37z = 0 31x + 1287y + 389z = 0}. S est-il un sous-espace vectoriel de R3 ? En est-il de mme pour lensemble des solutions (1) de nimporte quel syst`me homog`ne ? (2) de e e e nimporte quel syst`me non-homog`ne ? e e u (3.16) (pour aller plus loin) Soit F = {f | f est une fonction R R+ } (o` R+ = {x R | x > 0}). On dnit f g : R R+ : x f(x).g(x) e f : R R+ : x (f(x)) o` f, g F et R. Dmontrez que ces oprations font de F un espace vectoriel sur R. F est-il un u e e sous-espace vectoriel de F (R; R) (muni des oprations usuelles) ? e (3.17) On sait que C[X] est ` la fois un espace vectoriel sur C et un espace vectoriel sur R. a R[X] est-il un sous-espace vectoriel rel de C[X] ? Est-il aussi un sous-espace vectoriel complexe de e C[X] ? (3.18) (pour aller plus loin) Dmontrez que V = {(a + bi, b ai) | a, b R} est un sous-espace e ee e vectoriel de C2 considr comme espace vectoriel rel, mais que ce nest pas un sous-espace vectoriel ee de C2 considr comme espace vectoriel complexe. (3.19) Dmontrez que lintersection de deux sous-espaces vectoriels est encore un sous-espace vectoriel. e (3.20) La runion de deux sous-espaces vectoriels est-elle toujours un sous-espace vectoriel ? Si oui, e prouvez-le. Si non, la runion de deux sous-espaces vectoriels nest-elle jamais un sous-espace vectoriel, e ou existe-t-il des sous-espaces vectoriels dont la runion soit un sous-espace vectoriel et dautres dont e la runion nen soit pas un ? e

4. BASES ET DIMENSION

25

(3.21) Expliquez lexemple 1 de la page 21 : montrez que la somme de trois droites passant par O est directe ssi les trois droites ne sont pas dans un mme plan. e (3.22) (pour aller plus loin) Montrez par induction sur k quune somme V1 + + Vk de sousespaces vectoriels est directe ssi (V1 + + Vi1 ) Vi = {0}, pour tous les i {2, . . . , k}. (3.23) (prrequis) Quest-ce que le sous-espace vectoriel engendr par un ensemble de vecteurs e e e v1 , . . . , vn ? Dmontrez que cest le plus petit sous-espace vectoriel contenant v1 , . . . , vn .

4. Bases et dimension
4.1. Bases Soit (e1 , . . . , en ) une suite de vecteurs dun espace vectoriel E sur un corps K. e e e On dit que la suite (e1 , . . . , en ) est une suite gnratrice de E si le sous-espace vectoriel engendr par les vecteurs de cette suite est E tout entier : sev e1 , . . . , en = E, ce qui revient ` dire que tout vecteur x E est combinaison linaire de e1 , . . . , en : a e x = e1 1 + + en n pour certains scalaires 1 , . . . , n K. e e On dit que la suite (e1 , . . . , en ) est libre (ou que les vecteurs e1 , . . . , en sont linairement indpendants) sil nest pas possible de trouver des scalaires 1 , . . . , n non tous nuls tels que e1 1 + + e en n = 0 ; en dautres termes, la seule combinaison linaire nulle de cette suite est celle dont tous les coecients sont nuls : ne e1 1 + + en n = 0 entra 1 = = n = 0. Par convention, la suite vide () est aussi considre comme libre, et on convient que le sous-espace ee vectoriel engendr par cette suite est {0} (qui est en eet le plus petit de tous les sous-espaces). e a e e Enn, on dit que la suite (e1 , . . . , en ) est une base de E si elle est ` la fois libre et gnratrice. Par exemple, la suite vide () est une base de lespace nul {0}, par convention. Nous limiterons notre discussion de la notion de base et de dimension au cas o` lespace E admet u e une suite gnratrice nie1 . Un tel espace est dit niment engendr. e e e 4.1. Theor`me. Tout espace vectoriel niment engendr admet une base. e Dmonstration. Lespace nul admet comme base la suite vide, comme observ ci-dessus. On e e peut donc se limiter dans la suite de la dmonstration a considrer des espaces vectoriels E = {0}. Soit e ` e e e (e1 , . . . , en ) une suite gnratrice de lespace E. Si lun des vecteurs de cette suite (par exemple en ) est combinaison linaire des autres, la suite obtenue en retirant ce vecteur est galement gnratrice : e e e e lgalit e e sev e1 , . . . , en1 = sev e1 , . . . , en (= E) ` dcoule en eet de la Proposition 3.1 (p. 22). A partir de la suite gnratrice donne, on peut donc e e e e obtenir une nouvelle suite gnratrice plus courte en supprimant tous les vecteurs qui sont combinaie e sons linaires des autres. Pour la commodit des notations, supposons que lon ait limin les derniers e e e e vecteurs de la suite donne, de sorte que la nouvelle suite gnratrice soit (e1 , . . . , em ) pour un certain e e e m n. On va prouver que cette derni`re suite est une base. Comme elle est gnratrice, il sut de e e e prouver que cette suite est libre. Supposons avoir une relation de dpendance linaire e e e1 1 + + em m = 0, e e avec 1 , . . . , m non tous nuls. Supposons par exemple m = 0. En divisant la relation prcdente par m et en isolant em , on obtient alors em = e1 (1 1 ) + + em1 (m1 1 ). m m
1 De toute mani`re, si lespace ne contient pas de suite gnratrice nie, il ne contient pas non plus de base nie e e e puisque les bases sont des suites gnratrices particuli`res. Les bases innies ne prsentent pas le mme caract`re dutilit e e e e e e e que les bases nies, et ne seront pas utilises dans ce cours. Voir lAppendice pour quelques remarques sur les espaces e non niment engendrs. e

4. BASES ET DIMENSION

26

Cest une contradiction, puisque, par construction, aucun des vecteurs e1 , . . . , em nest combinaison linaire des autres. e 2 Cette dmonstration montre de plus que de toute suite gnratrice dun espace vectoriel on peut e e e extraire une base. e Si e = (e1 , . . . , en ) est une base de E(= {0}), alors tout vecteur de E scrit dune et dune seule mani`re comme combinaison linaire de e. En eet, tout vecteur x E scrit comme combinaison e e e linaire de cette suite car elle est gnratrice ; de plus, lexpression est unique, car si e e e x = e1 1 + + en n = e1 1 + + en n , alors, en faisant passer le troisi`me membre dans le deuxi`me, on trouve e e x1 . do` 1 1 = = n n = 0 car la suite e est libre. Lunique colonne de scalaires . K n u . xn telle que x = e1 x1 + + en xn est appele suite des coordonnes 2 de x par rapport a la base e. On e e ` la note e (x). Lapplication
e :

e1 (1 1 ) + + en (n n ) = 0,

E Kn = e (x)

dnie par e
e (x) n ` est bijective, puisquelle admet une application inverse K E, a savoir lapplication qui envoie 1 . . K n sur e1 1 + + en n E. De plus, on a pour x, y E et , K : .

n
e (x

+ y ) = e (x) + e (y) ,

car si x = e1 x1 + + en xn et y = e1 y1 + + en yn , alors x + y = e1 (x1 + y1 ) + + en (xn + yn ). On traduit ces proprits en disant que e est ee ce qui signie que e permet didentier E et E = K 22 , la suite 1 0 0 e= , 0 0 0 un isomorphisme despaces vectoriels de E vers K n , K n en tant quespaces vectoriels. Par exemple, dans 1 0 , 0 1 0 0 , 0 0 0 1

e est une base de E ; lisomorphisme correspondant e : K 22 K 4 est dni par a b a b = e c ; c d d il permet didentier K 22 et K 4 en tant quespaces vectoriels, mais on dispose en plus dun produit ` e sur K 22 , a savoir le produit matriciel, alors que lon na pas dni de produit sur K 4 . Les applications entre espaces vectoriels seront tudies de mani`re dtaille dans le chapitre e e e e e suivant.
2 Les coordonnes dun vecteur sont donc toujours des matrices-colonnes. Par abus de notation, on note K n pour e K n1 .

4. BASES ET DIMENSION

27

4.2. Dimension La dimension dun espace vectoriel niment engendr est le nombre dlments dune base quele ee conque. Pour justier cette dnition, il faut prouver que toutes les bases dun espace vectoriel niment e engendr ont le mme nombre dlments ; cest ce que lon se propose de faire dans cette section. e e ee Le principal outil technique est la proprit suivante, connue sous le nom de lemme dchange : ee e 4.2. Lemme. Soient e1 , . . . , er , x, y des vecteurs dun espace vectoriel E. Supposons que y e sev e1 , . . . , er , x et que le coecient de x dans une expression de y comme combinaison linaire de e1 , . . . , er , x soit non nul : () y = e1 1 + + er r + x avec = 0;

alors x sev e1 , . . . , er , y et sev e1 , . . . , er , x = sev e1 , . . . , er , y . Dmonstration. En divisant les deux membres de la relation () par et en isolant x dans un e membre, on obtient x = e1 (1 1 ) + + er (r 1 ) + y 1 , ce qui prouve la premi`re armation. La seconde en dcoule par la Proposition 3.1. e e 2

e e 4.3. Proposition. Soit g = (g1 , . . . , gn) une suite gnratrice dun espace vectoriel E et = ( 1 , . . . , m ) une suite libre de E. On peut remplacer m vecteurs de la suite g par les vecteurs de sans que la suite cesse dtre gnratrice. En particulier, n m. e e e Dmonstration. Le principe de la dmonstration est le suivant : a laide du lemme prcdent, e e ` e e on change successivement m vecteurs de la suite g contre les vecteurs de la suite sans changer le e sous-espace engendr, cest-`-dire en conservant une suite gnratrice. e a e e e e Considrons dabord 1 . Comme la suite g est gnratrice, on a e
1

= g1 1 + + gn n

pour certains coecients 1 , . . . , n K. Si 1 = = n = 0, alors 1 = 0 et la suite nest pas libre, contrairement a lhypoth`se. Lun des coecients est donc non nul ; quitte a changer la ` e ` e e numrotation de g1 , . . . , gn , on peut supposer 1 = 0. Dapr`s le lemme dchange on a alors e sev
1 , g2 , . . .

, gn = sev g1 , . . . , gn ,

e e donc la suite ( 1 , g2 , . . . , gn ) est aussi gnratrice. On rp`te le mme raisonnement successivement pour 2 , 3 , . . . . Supposons par exemple avoir e e e e e tabli que la suite ( 1 , . . . , i , gi+1 , . . . , gn ) est gnratrice. Alors i+1 est combili de cette suite : e
i+1

1 1

+ + i i + gi+1 i+1 + + gn n

pour certains 1 , . . . , i , i+1 , . . . , n K. Si les coecients i+1 , . . . , n sont tous nuls, alors la suite nest pas libre car
1 1

+ + i i +

i+1 (1)

i+2 0

++

m0

= 0.

` e (Le coecient de i+1 est non nul !) Quitte a changer la numrotation de gi+1 , . . . , gn , on peut donc e e e e supposer i+1 = 0. Dapr`s le lemme dchange, on peut alors, dans la suite gnratrice ( 1 , . . . , i , e gi+1 , . . . , gn ), changer gi+1 contre i+1 pour conclure que la suite ( 1 , . . . , i+1 , gi+2 , . . . , gn ) est gnratrice. e e Si m > n, alors apr`s avoir appliqu n fois le raisonnement prcdent on voit que la suite e e e e e e e ( 1 , . . . , n ) est gnratrice. Le vecteur n+1 est donc combinaison linaire de cette suite, ce qui contredit comme prcdemment lhypoth`se que la suite est libre. On a donc m e e e n et apr`s m e e e itrations les arguments ci-dessus montrent que la suite ( 1 , . . . , m , gm+1 , . . . , gn) est gnratrice e (mais la numrotation des vecteurs de la suite g peut avoir chang !) e e 2

4. BASES ET DIMENSION

28

4.4. Thor`me. Toutes les bases dun espace vectoriel niment engendr ont le mme nombre e e e e dlments. ee Dmonstration. Soient (e1 , . . . , en ) et (f1 , . . . , fm ) deux bases dun espace vectoriel E. Comme e e e e e (e1 , . . . , en ) est une suite gnratrice et (f1 , . . . , fm ) une suite libre, la proposition prcdente montre que lon a m n. Par ailleurs, on peut changer les rles des suites (e1 , . . . , en ) et (f1 , . . . , fm ) : e o e e e e comme (f1 , . . . , fm ) est gnratrice et que (e1 , . . . , en ) est libre, la proposition prcdente montre que n m. Ainsi, n = m et toutes les bases de E ont donc le mme nombre dlments. e ee 2 Si un espace E est niment engendr, on appelle dimension de E le nombre dlments dune quele ee conque de ses bases. Ce nombre entier est not dim E. Dans le cas contraire, on dit quil est de e dimension innie et lon note dim E = . Notons encore les consquences suivantes des rsultats prcdents : e e e e 4.5. Corollaire. Dans un espace vectoriel E de dimension nie n, 1. de toute suite gnratrice on peut extraire une base ; e e 2. toute suite gnratrice de n lments est une base ; e e ee 3. toute suite libre peut tre prolonge en base ; e e 4. toute suite libre de n lments est une base. ee Dmonstration. La premi`re proprit a t observe dans la dmonstration du Thor`me 4.1. e e ee ee e e e e La deuxi`me proprit sen dduit, car la base extraite de la suite gnratrice doit avoir le mme e ee e e e e nombre dlments que celle-ci. La troisi`me proprit rsulte de la Proposition 4.3 et de la proprit ee e ee e ee prcdente : si un espace E admet une suite libre (x1 , . . . , xm ) et une base (g1 , . . . , gn ), alors la e e e e ee Proposition 4.3 montre que lon peut prolonger (x1 , . . . , xm) en une suite gnratrice de n lments. Cette suite gnratrice est une base, dapr`s la proprit prcdente. Enn, la quatri`me proprit e e e ee e e e ee se dduit de la prcdente car la base prolongeant la suite libre donne doit avoir le mme nombre e e e e e dlments que celle-ci. ee 2 Exemples : e A) Lespace vectoriel K n sur un corps K admet une base (c1 , . . . , cn ) appele base canonique (ou standard), dont le i-`me vecteur est e ci = (0, . . . , 0, 1 , 0, . . . , 0). i On a donc dim K n = n. o e B) Lespace vectoriel K[X] n des polynmes de degr au plus n admet pour base la suite (1, X, X 2 , . . . , X n ). On a donc dim K[X] n = n + 1. En revanche, lespace K[X] de tous les polynmes est de dimension innie. En eet, si o o (P1 , . . . , Pm ) est une suite nie de polynmes, on peut trouver un entier d strictement plus o e e grand que les degrs de P1 , . . . ,Pm. Un polynme de degr d nest donc pas combinaison linaire e e u de (P1 , . . . , Pm). Lespace K[X] nest donc pas niment engendr, do` dim K[X] = . u ee C) Dans lespace usuel EO (o` lon a choisi arbitrairement un point de rfrence O), une suite de vecteurs (e1 , e2 , e3 ) est une base si et seulement si ces vecteurs ne sont pas contenus dans un mme plan. On a donc dim EO = 3. e D) La suite vide () est la seule base de lespace vectoriel {0}. On a donc dim{0} = 0. Exercices (4.1) (prrequis) Soit E un espace vectoriel sur un corps K et e1 , . . . , en E. Ecrivez des formules e mathmatiques qui signient : e la suite (e1 , . . . , en ) est libre ; la suite (e1 , . . . , en ) nest pas libre ; e e la suite (e1 , . . . , en ) est gnratrice.

5. BASES DE SOUS-ESPACES

29

(4.2) Soit E un espace vectoriel sur un corps K et e1 , . . . , en E (n 2). Montrez que la suite (e1 , . . . , en ) est libre ssi pour chaque i {1, . . . , n}, ei nest pas combili de e1 , . . . , ei1 , ei+1 , . . . , en . (4.3) Soit E un espace vectoriel sur un corps K et e1 , . . . , en E. ee e e Prouvez que (e1 , . . . , en ) est une base ssi tout lment de E scrit de mani`re unique comme combili de e1 , . . . , en . e (4.4) Soit E un espace vectoriel sur un corps K, e une base de E et x, y, v, v1 , . . . , vn E. Dmontrez e ` les armations suivantes (la fonction e est dnie a la page 26) : Si v est combili de x et de y, alors e (v) est combili de e (x) et de e (y). Si (v1 , . . . , vn ) est une suite libre, alors Si (v1 , . . . , vn ) est une base de E, alors Dmontrez galement les trois rciproques. e e e (4.5) (prrequis) Quelles sont les bases usuelles de Rn , Rnm et R[X] e habituelles despace vectoriel sur R ?
n, e (v1 ), . . . e (v1 ), . . .

, e (vn ) est libre. , e (vn ) est une base de K n .

munis des structures

(4.6) Donnez une base de C muni de la structure habituelle despace vectoriel sur R. (4.7) Si E et F sont des espaces vectoriels de dimension nie sur un corps K, donnez une base de lespace vectoriel E F (voir lexercice 3.5, page 23, pour la dnition de E F ). e (4.8) Donnez une base des sous-espaces vectoriels suivants : A = {P R[X] B=
4

| P (2) = P (3) = P (1)} 0 1 1 0 = 0 1

(sous-espace rel de R[X] e 1 0 M

4 ).

M R22 | M

(sous-espace rel de R22 ). e

e (4.9) La suite b = (1, 0, 2), (2, 5, 4), (2, 1, 0) est une base de R3 (vous pouvez le vrier). Trouvez les coordonnes de (17, 26, 18) dans b. Trouvez les coordonnes dans b dun lment (x, y, z) quelconque e e ee de R3 . (4.10) En utilisant les armations de lexercice 4.4 et les calculs de lexercice 4.9, montrez que b = 1 + 2X 2 , 2 + 5X + 4X 2 , 2 + X est une base de R[X]
2; 2.

trouvez les coordonnes dans b dun polynme quelconque a0 + a1 X + a2 X 2 de R[X] e o


22

qui commutent avec toutes (4.11) (pour aller plus loin) Quel est lensemble des matrices de R les matrices de R22 ? Montrez que cet ensemble est un sous-espace vectoriel de R22 . Trouvez-en une base.

5. Bases de sous-espaces
Dans cette section, on se propose de donner des indications gnrales sur les dimensions de souse e espaces dun espace vectoriel x et de mettre au point diverses techniques permettant de trouver des e bases de sous-espaces. 5.1. Sous-espaces donns par une suite gnratrice e e e Le rsultat technique suivant est souvent utile pour prouver lindpendance linaire dune suite e e e de vecteurs : 5.1. Lemme. Soit V un sous-espace vectoriel dun espace vectoriel E sur un corps K et soit (v1 , . . . , vm ) une suite libre de V . Si u est un vecteur de E qui nest pas dans V : uE alors la suite (v1 , . . . , vm , u) est une suite libre de E. V,

5. BASES DE SOUS-ESPACES

30

Dmonstration. Soit e () v1 1 + + vm m + u = 0 une relation de dpendance linaire. Il faut prouver 1 = = m = = 0. Si = 0, alors on peut e e diviser les deux membres de lquation ci-dessus par et isoler u dans un membre : e u = v1 (1 /) + + vm (m /). a e D`s lors u est une combinaison linaire de v1 , . . . , vm et il est donc dans V contrairement ` lhypoth`se. e e On doit donc avoir = 0 ; alors la relation () ci-dessus entra 1 = = m = 0 puisque v1 , . . . , vm ne sont linairement indpendants. e e 2 5.2. Proposition. Soit V un sous-espace vectoriel dun espace vectoriel E de dimension n (nie). 1. V admet une suite gnratrice dont le nombre de vecteurs est au plus n. En particulier, e e dim V n. 2. Si dim V = n, alors V = E. 3. Toute base de V peut tre prolonge en base de E. e e Dmonstration. 1. Supposons au contraire que V nadmette pas de suite gnratrice de moins e e e de n + 1 vecteurs. Pour toute suite (v1 , . . . , vm ) de vecteurs de V , on a donc linclusion stricte sev v1 , . . . , vm V tant que m n. On construit alors dans V une suite libre de n + 1 vecteurs, de la mani`re suivante : Soit v1 un vecteur e sev v1 . Le lemme prcdent (appliqu au sous-espace sev v1 e e e V) non nul de V et soit v2 V montre que la suite (v1 , v2 ) est libre. Si n 2, choisissons encore v3 V sev v1 , v2 , puis (si n 3) sev v1 , v2 , v3 et ainsi de suite. Le lemme prcdent montre successivement que les suites e e v4 V (v1 , v2 , v3 ), (v1 , v2 , v3 , v4 ), etc. sont libres. On peut de la sorte construire une suite libre (v1 , . . . , vn+1 ) de V donc aussi de E. Cela contredit la Proposition 4.3 (p. 27) ; il est donc absurde de supposer que V nadmet pas de suite gnratrice dau plus n vecteurs.3 e e 2. Si dim V = n, alors toute base de V est une suite libre de E dont le nombre dlments est gal a ee e ` la dimension de E ; cest donc une base de E, dapr`s le Corollaire 4.5 (p. 28). Lespace engendr par e e cette suite est donc V = E. 3. Cela rsulte directement du Corollaire 4.5, car les bases de V sont des suites libres de E. e 2 Les oprations lmentaires dont il a t question dans la section 1.1 livrent un algorithme pere ee ee mettant de dterminer une base dun sous-espace vectoriel dont on conna une suite gnratrice. e t e e Remarquons dabord que ces oprations peuvent aussi tre utilises sur les suites de vecteurs : une e e e opration lmentaire de type I consiste a remplacer un des vecteurs de la suite par la somme de ce e ee ` mme vecteur et dun multiple dun autre vecteur de la suite ; une opration lmentaire de type II e e ee consiste ` changer deux vecteurs de la suite, et une opration lmentaire de type III ` multiplier un ae e ee a vecteur par un scalaire non nul, appel facteur de lopration lmentaire. e e ee 5.3. Proposition. On ne modie pas le sous-espace vectoriel engendr par une suite de vecteurs e quand on eectue sur celle-ci une ou plusieurs oprations lmentaires. e ee Dmonstration. Cela est clair pour les oprations de type II ou III. Pour les oprations le e e ee mentaires de type I, il sagit de prouver : sev x1 , . . . , xn = sev x1 , . . . , xi1 , xi + xj , xi+1 , . . . , xn (o` i = j et est un scalaire arbitraire). Or, la forme des vecteurs de la suite de droite montre u que chacun de ceux-ci est combinaison linaire de ceux de gauche. Inversement, montrons que chaque e vecteur de gauche est combinaison linaire de ceux de droite : il sut de le vrier pour xi , puisque e e tous les autres appara ssent aussi a droite ; pour xi , on a ` xi = (xi + xj ) xj .
3 Cela ne veut pas dire que toutes les suites gnratrices de V ont au plus n vecteurs. Au contraire, on peut former e e des suites gnratrices dont le nombre de vecteurs est arbitrairement grand en ajoutant des vecteurs nuls ` une suite e e a gnratrice quelconque. e e

5. BASES DE SOUS-ESPACES

31

Lgalit des sous-espaces engendrs rsulte a prsent de la Proposition 3.1 (p. 22). e e e e ` e Supposons a prsent que les vecteurs donns soient dans lespace K n : soit ` e e v1 , . . . , vm K n . Chacun des vecteurs vi est donc un n-uple : vi = (vi1 , . . . , vin ).

e e e On dit que la suite (v1 , . . . , vm ) est chelonne si le nombre de composantes nulles au dbut de chaque e vi augmente avec lindice i, laugmentation tant stricte tant que vi = 0 : si vij = 0 pour j k, alors vi+1,j = 0 pour j k + 1.

e e En dautres termes, la suite (v1 , . . . , vm ) est chelonne si et seulement si la matrice de genre (m, n) v1 . . . vm ` e e dont les lignes sont v1 , . . . , vm est une matrice a lignes chelonnes. 5.4. Proposition. Toute suite chelonne de vecteurs non nuls de K n est libre. e e e e Demonstration. Soit (v1 , . . . , vm ) une suite chelonne de vecteurs non nuls de K n . Supposons avoir trouv 1 , . . . , m K tels que e () v1 1 + + vm m = 0. Il faut prouver : 1 = = m = 0. e e Soit j1 le plus petit indice tel que v1j1 = 0. Comme la suite (v1 , . . . , vm ) est chelonne, on a e e e vij1 = 0 pour tout i > 1. D`s lors, la composante dindice j1 des deux membres de lgalit () est v1j1 1 + 02 + + 0m = 0. e e ee On en dduit 1 = 0. Lgalit () peut alors se rcrire e v2 2 + + vm m = 0. Soit j2 le plus petit indice tel que v2j2 = 0. En comparant les composantes dindice j2 dans les deux membres de lgalit prcdente, on obtient de mme e e e e e 2 = 0, et on continue ainsi de suite. Le raisonnement sapplique pour tout i = 1, . . . , m, puisque chacun des e 2 vecteurs v1 , . . . , vm poss`de une composante non nulle. e ee Soit (v1 , . . . , vm ) une suite nie quelconque de vecteurs de K n . Par des oprations lmentaires sur les lignes de la matrice v1 . A = . K mn . vm dont les lignes sont v1 , . . . , vm , on peut obtenir une matrice a lignes chelonnes, dapr`s le Thor`me 1.1. ` e e e e e Soit w1 . A = . K mn . wm une telle matrice. La Proposition 5.3 montre que le sous-espace de K n engendr par les lignes de A e est le mme que celui qui est engendr par les lignes de A : e e sev v1 , . . . , vm = sev w1 , . . . , wm .

5. BASES DE SOUS-ESPACES

32

Comme la suite (w1 , . . . , wm ) est chelonne, les vecteurs non nuls de cette suite sont situs au dbut ; e e e e e soit (w1 , . . . , wr ) la sous-suite des vecteurs non nuls. Cette suite est libre dapr`s la Proposition 5.4, et lon a sev w1 , . . . , wm = sev w1 , . . . , wr e puisque wr+1 = = wm = 0. D`s lors, (w1 , . . . , wr ) est une base de sev v1 , . . . , vm . Le procd prcdent sapplique galement aux sous-espaces V dun espace arbitraire E de die e e e e e mension nie, moyennant le choix dune base e = (e1 , . . . , en ) de E. Une telle base dtermine en eet a un isomorphisme e : E K n qui permet didentier V ` un sous-espace de K n . 5.2. Sous-espaces donns par des quations e e Comme indiqu dans la section 3.2, lensemble des solutions dun syst`me homog`ne dquations e e e e e e algbriques linaires en n indtermines est un sous-espace vectoriel de K n . La mani`re de rsoudre e e e e de tels syst`mes a par ailleurs t dtaille dans la section 1.4. Le but de la prsente section est de e ee e e e complter cette information en indiquant comment dterminer une base dun sous-espace (et donc sa e e dimension) a partir des solutions trouves par la mthode de la section 1.4. ` e e Soit un syst`me homog`ne arbitraire de m quations en n inconnues e e e a11 x1 + + a1n xn = 0 . . . am1 x1 + + amn xn = 0 dont on note V lensemble des solutions. Lensemble V est donc un sous-espace vectoriel de K n : n aij xj = 0 pour i = 1, . . . , m . V = (x1 , . . . , xn) K n
j=1

Le syst`me tant homog`ne, la derni`re colonne de la matrice compl`te est nulle. Il sut donc de e e e e e considrer la matrice des coecients. Suivant la mthode de la section 1.4, on eectue des oprations e e e lmentaires sur les lignes de cette matrice pour obtenir une matrice sous forme rduite de Gauss ee e Jordan qui est la matrice des coecients dun syst`me dont lensemble des solutions est encore V . On e peut ngliger les lignes nulles de cette matrice, puisquelles correspondent a des quations triviales e ` e 0 x1 + + 0 xn = 0. Supposons quil reste r lignes non nulles ; soient j1 , . . . , jr les indices des colonnes de pivots, de sorte e que 1 j1 < j2 < < jr n et que la matrice des coecients du syst`me soit du type j1 0 1 0 0 0 0 0 0 0 0 0 j2 0 0 1 0 0 0 0 0 0 j3 0 0 0 1 0 0 0 jr 0 0 0 0 1

0 0 0 0

e Pour la commodit des notations, on suppose de plus jk = k pour k = 1, . . . , r. Cette hypoth`se ne e restreint pas la gnralit, car on peut toujours se ramener a cette situation en permutant les compoe e e ` santes des n-uples, ce qui revient ` renumroter les inconnues x1 , . . . , xn . La matrice des coecients a e du syst`me est alors de la forme e 1 0 0 a1,r+1 a1,r+2 a1n 0 1 0 a2,r+1 a2,r+2 a2n . . .. . . . . . . . . . . . . . . . . . 0 0 1 ar,r+1 ar,r+2 arn

5. BASES DE SOUS-ESPACES

33

et le syst`me peut se mettre sous la forme e x1 = (a1,r+1 xr+1 + a1,r+2 xr+2 + + a1n xn ) x2 = (a2,r+1 xr+1 + a2,r+2 xr+2 + + a2n xn ) . . . xr = (ar,r+1 xr+1 + ar,r+2 xr+2 + + arn xn ) Ses solutions sont n V = arj xj , xr+1 , . . . , xn xr+1 , . . . , xn K .

a1,j xj ,
j=r+1

a2,j xj , . . . ,
j=r+1

j=r+1

Considrons les solutions particuli`res suivantes obtenues en donnant a lune des variables xr+1 , . . . , xn e e ` la valeur 1 et aux autres la valeur 0 : er+1 er+2 = = . . . = (a1,r+1 , a2,r+1 , . . . , ar,r+1 , 1, 0, . . . , 0) (a1,r+2 , a2,r+2 , . . . , ar,r+2 , 0, 1, . . . , 0) (a1n , a2n , . . . , arn , 0, 0, . . . , 1); arj xj , xr+1 , . . . , xn = er+1 xr+1 + er+2 xr+2 + + en xn , ce qui montre que V = sev er+1 , . . . , en . Par ailleurs, pour r+1 , . . . , n K, er+1 r+1 + + en n = (, . . . , , r+1 , . . . , n ), donc le membre de gauche ne peut tre nul que si r+1 = = n = 0. Cela prouve que la suite e e (er+1 , . . . , en ) est libre ; cest donc une base de V , et par consquent dim V = n r. On a ainsi prouv : e 5.5. Proposition. La dimension de lespace des solutions dun syst`me dquations linaires hoe e e mog`nes en n inconnues est n r o` r est le nombre de lignes non nulles dune matrice sous forme e u rduite de GaussJordan obtenue en eectuant des oprations lmentaires sur les lignes de la matrice e e ee des coecients du syst`me. e On pourrait voir que lentier r qui intervient dans cet nonc est aussi le nombre de lignes non e e nulles de toute matrice a lignes chelonnes obtenue en eectuant des oprations lmentaires sur les ` e e e ee lignes de la matrice des coecients. (Voir aussi la Proposition 6.9, p. 41.) 5.3. Dimension dune somme de sous-espaces 5.6. Proposition. Si V1 , . . . , Vn sont des sous-espaces dun espace vectoriel E, alors une suite e e gnratrice de V1 + + Vn sobtient en juxtaposant des suites gnratrices de V1 , . . . , Vn . Si de plus e e la somme V1 + + Vn est directe, alors une base de V1 Vn sobtient en juxtaposant des bases e de V1 , . . . , Vn ; par consquent, dim(V1 Vn ) = dim V1 + + dim Vn .

en alors

a1,j xj ,
j=r+1

a2,j xj , . . . ,
j=r+1

j=r+1

5. BASES DE SOUS-ESPACES

34

Dmonstration. Soient e e e (e1 , . . . , er ) une suite gnratrice de V1 , e e (f1 , . . . , fs ) une suite gnratrice de V2 , e e (g1 , . . . , gt ) une suite gnratrice de Vn . Il faut prouver que la suite u = (e1 , . . . , er , f1 , . . . , fs , . . . , g1 , . . . , gt ) engendre V1 + + Vn . Tout vecteur de cette somme scrit e x = v1 + + vn o` v1 V1 , v2 V2 , . . . , vn Vn . En dcomposant chaque vi comme combinaison linaire de la suite u e e gnratrice donne de Vi , on obtient e e e v1 = e1 1 + + er r , v2 = f1 1 + + fs s , vn = g1 1 + + gt t ; do` , en additionnant, u x = e1 1 + + er r + f1 1 + + fs s + + g1 1 + + gt t . e e e Cela montre que la suite u engendre V1 + + Vn et prouve la premi`re partie de lnonc. Pour prouver la seconde partie, supposons que la somme V1 + + Vn soit directe et que les suites gnratrices choisies dans V1 , . . . , Vn soient des bases, et montrons que la suite u est une base e e de V1 Vn . Il sut de prouver quelle est libre, puisque lon vient de prouver quelle engendre V1 Vn . Supposons () e1 1 + + er r + f1 1 + + fs s + + g1 1 + + gt t = 0. (e1 1 + + er r ) + (f1 1 + + fs s ) + + (g1 1 + + gt t ) = 0.
V1 V2 Vn

En rassemblant les termes, on fait appara des vecteurs de V1 , . . . , Vn dont la somme est nulle : tre

ne Comme la somme de V1 , . . . , Vn est directe, cette relation entra e1 1 + + er r = 0, f1 1 + + fs s = 0, g1 1 + + gt t = 0. Comme par ailleurs les suites (e1 , . . . , er ), (f1 , . . . , fs ), . . . , (g1 , . . . , gt ) sont libres (puisque ce sont e des bases de V1 , V2 , . . . , Vn respectivement), on en dduit 1 = = r = 0, 1 = = s = 0, 1 = = t = 0. Tous les coecients de la relation de dpendance linaire () sont donc nuls, et la suite u est libre. e e 2 Cest donc bien une base de V1 Vn . Lorsque la somme V1 + + Vn nest pas directe, il est plus dicile den trouver une base. Voici cependant une indication utile concernant les sommes de deux sous-espaces : 5.7. Proposition. Si V et W sont deux sous-espaces de dimension nie dun espace vectoriel E, alors V + W est de dimension nie et dim(V + W ) + dim(V W ) = dim V + dim W.

5. BASES DE SOUS-ESPACES

35

Dmonstration. Soit (z1 , . . . , zr ) une base de V W . On prolonge cette suite dune part en e base de V , soit (z1 , . . . , zr , v1 , . . . , vs ), dautre part en base (z1 , . . . , zr , w1 , . . . , wt ) de W . On a donc dim(V W ) = r, dim V = r + s et dim W = r + t. On se propose de prouver que la suite e (z1 , . . . , zr , v1 , . . . , vs , w1 , . . . , wt ) est une base de V + W . Il en rsultera que V + W est de dimension nie et dim(V + W ) = r + s + t = (r + s) + (r + t) r = dim V + dim W dim(V W ), comme annonc. e Montrons dabord que la suite ci-dessus engendre V + W . Dapr`s la Proposition 5.6, la suite e (z1 , . . . , zr , v1 , . . . , vs , z1 , . . . , zr , w1 , . . . , wt ), obtenue en juxtaposant des bases de V et de W , engendre V + W . Or, on a videmment e sev z1 , . . . , zr , v1 , . . . , vs , z1 , . . . , zr , w1, . . . , wt = sev z1 , . . . , zr , v1 , . . . , vs , w1 , . . . , wt , donc la suite (z1 , . . . , zr , v1 , . . . , vs , w1 , . . . , wt ) engendre V + W . Montrons pour terminer que cette suite est libre. Supposons avoir trouv une relation de dpene e dance linaire e z1 1 + + zr r + v1 1 + + vs s + w1 1 + + wt t = 0. Il sagit de prouver que tous les coecients i , j , k sont nuls. Pour cela, on fait passer dans le second membre les derniers termes de lgalit prcdente : e e e e z1 1 + + zr r + v1 1 + + vs s = (w1 1 + + wt t ). e e Comme les vecteurs zi sont dans V W et les vj dans V , le premier membre de cette derni`re quation e est dans V ; cependant, le second membre est dans W puisque les vecteurs wk sont dans W . D`s lors, les deux membres sont dans V W , et lon peut crire le second membre comme combinaison linaire e e de la base (z1 , . . . , zr ) de V W : (w1 1 + + wt t ) = z1 1 + + zr r pour certains scalaires 1 , . . . , r . En rassemblant tous les termes dans un membre, on obtient z1 1 + + zr r + w1 1 + + wt t = 0, et lon en tire 1 = = r = 1 = = t = 0, car (z1 , . . . , zr , w1 , . . . , wt) est une suite libre (cest mme une base de W ). En revenant a la relation de dpendance linaire dont on est parti, et en tenant e ` e e compte de ce que les coecients k sont nuls, on a z1 1 + + zr r + v1 1 + + vs s = 0. e e Comme (z1 , . . . , zr , v1 , . . . , vs ) est une suite libre (cest mme une base de V ), on en dduit : 1 = 2 = r = 1 = = s = 0. Exercices (5.1) Soit V = sev (1, 2, 0, 3), (2, 3, 0, 1), (2, 1, 2, 1) R4 . Trouvez une base de V . e (5.2) Soit e1 = (1, 2, 3, 4), e2 = (2, 5, 10, 13), e3 = (1, 4, 11, 18) et e4 = (0, 1, 4, 7). Considrons ee V = sev e1 , e2 , e3 , e4 R4 . Sachant que dim V = 3, trouvez une base de V dont les lments ee soient parmi e1 , e2 , e3 , e4 . A priori, sut-il de prendre 3 lments ei au hasard sans eectuer aucune vrication ? e (5.3) Considrons un espace vectoriel E de dimension n sur un corps K et V un sous-espace vectoriel e de E, de dimension k < n. Soient b = (e1 , . . . , ek ) et b = (e1 , . . . , ek ) deux bases de V . On prolonge b en une base (e1 , . . . , ek , ek+1 , . . . , en ) de E. La suite (e1 , . . . , ek , ek+1 , . . . , en ) obtenue en prolongeant e ee e b au moyen des mmes lments est-elle galement une base de E ? (5.4) Soit E un espace vectoriel. Considrons trois vecteurs e1 , e2 , e3 tels que e dim sev e1 , e2 , e3 = 2. Est-il vrai quil existe i, j {1, 2, 3} tels que (ei , ej ) soit une base de sev e1 , e2 , e3 ?

5. BASES DE SOUS-ESPACES

36

Est-il vrai que, quels que soient i, j {1, 2, 3}, (ei , ej ) est une base de sev e1 , e2 , e3 ? (5.5) On consid`re les matrices e M = 1 i 3 i , N = i 0 2 i , L= 1 1 0 2i .

e Trouvez une base de V = sev M, N, L C22 et compltez-la en une base de C22 . (5.6) Soit E, un espace vectoriel et V, W E, des sous-espaces vectoriels. Dmontrez que si dim V + e dim W > dim E, alors V W = {0}. (5.7) On consid`re V et W , deux sous-espaces vectoriels dun espace vectoriel E. Soit (e1 , . . . , en ), e une base de V et (f1 , . . . , fm ), une base de W . e e Dmontrez que (e1 , . . . , en , f1 , . . . , fm ) est une suite gnratrice de V + W . e Dmontrez que si V W = {0}, e alors (e1 , . . . , en , f1 , . . . , fm ) est une base de V W . Dmontrez que si (e1 , . . . , en , f1 , . . . , fm ) est une base de V + W , e alors V W = {0}. e Trouvez un contre-exemple montrant que (e1 , . . . , en , f1 , . . . , fm ) nest pas ncessairement une base de V + W . Une suite dont les lments sont ceux de lensemble {e1 , . . . , en } {f1 , . . . , fm } est-elle une ee base de V W ? Si non, une telle suite peut-elle tre prolonge en une base de V W ? e e (5.8) Soient V1 = sev (1, 2, 3), (4, 5, 6) R3 V2 = sev (0, 3, 6), (0, 9, 12) R3 V3 = sev (0, 3, 6), (10, 11, 12) R3 . e a e a Quelles sont les dimensions de V1 , V2 , V3 ? V1 est-il gal ` V2 ? V1 est-il gal ` V3 ? Quelle est la dimension de V1 V2 ? Donnez une base de V1 + V3 et de V2 V3 . (Essayez de faire le moins de calculs possible, en utilisant des arguments de dimension.) u (5.9) Donnez une base de V1 V2 et de V1 + V2 , o` V1 et V2 sont les deux sous-espaces complexes de C[X] 3 suivants : V1 V2 = = {P C[X] {P C[X]
3 3

| P (0) = 2P (1)} | P (0) = P (1)}.

u e (5.10) Donnez une base de V1 V2 et de V1 + V2 , o` V1 et V2 sont les deux sous-espaces rels de R22 suivants : e V1 = {M R22 | M est antisymtrique} V2 = sev 1 2 3 4 , 1 1 4 4 , 3 5 10 12 .

CHAPITRE III

Rang et dterminant e
6. Rang de matrices
6.1. Espace des lignes et espace des colonnes a11 a1n . . K mn une matrice quelconque de genre (m, n) sur un corps K, . Soit A = . . . am1 amn que lon dcompose par lignes : e a1 . A= . . am

et par colonnes : Chacune des lignes ai par ces lignes. Soit A = a1 an . est un n-uple : ai K n , et on peut considrer le sous-espace de K n engendr e e

L(A) = sev a1 , . . . , am K n ce sous-espace, que lon appelle espace des lignes de A. De mme, on peut considrer lespace des e e colonnes de A, dni par e C(A) = sev a1 , . . . , an K m . Le rsultat principal de cette section (Thor`me 6.3) indique que ces sous-espaces ont la mme dimene e e e sion. Nous commenons par quelques observations prliminaires qui seront aussi utilises pour tablir c e e e un crit`re dinversibilit dans la section suivante. e e 6.1. Proposition. Soient A, B, C des matrices sur un corps K telles que A = BC; alors C(A) C(B) et L(A) L(C). Dmonstration. Soient B K mn et C K np , de sorte que A K mp . Si lon eectue le e produit BC en dcomposant B par colonnes, on obtient la matrice A dcompose par colonnes : e e e c11 c1p . . . . a1 ap = b1 bn . . . cn1 Cette galit donne e e
n

cnp

aj =
i=1

bi cij

pour j = 1, . . . , p,

ce qui montre que les colonnes de A sont des combinaisons linaires des colonnes de B et par consquent e e C(A) C(B). Si lon eectue le produit BC en dcomposant C par lignes, on obtient de mme e e b11 b1n c1 a1 . . . . . . . = . . . . . am bm1
37

bmn

cn

6. RANG DE MATRICES

38

do` u ai =

bij cj
j=1

pour i = 1, . . . , m,

e ce qui montre que les lignes a1, . . . , am de A sont des combinaisons linaires des lignes c1 , . . . , cn de C dans lespace vectoriel K p , donc L(A) L(C). 2 Cette proposition admet une sorte de rciproque : e 6.2. Proposition. Soient A, B1 , C2 des matrices sur un corps K. On suppose que A est de genre (m, p), que B1 est de genre (m, n) et que C2 est de genre (n, p) (pour certains entiers m, n, p). 1. Si C(A) C(B1 ), alors il existe une matrice C1 K np telle que A = B1 C1 . 2. Si L(A) L(C2 ), alors il existe une matrice B2 K mn telle que A = B2 C2 . Dmonstration. Il sut de parcourir les mmes tapes que dans la dmonstration prcdente e e e e e e e en sens inverse : si C(A) C(B1 ), alors les colonnes a1 , . . . , ap de A sont combinaisons linaires des colonnes b1 , . . . , bn de B1 (dans lespace vectoriel K m ), donc on a des relations du type
n

aj =
i=1

bi cij

pour j = 1, . . . , p

pour certains scalaires cij (i = 1, . . . , n ; j = 1, . . . , p). En posant C1 = (cij ) on a donc a1 cest-`-dire a A = B1 C1 . La deuxi`me partie se dmontre de mani`re analogue. e e e 2 ap = b1 bn C1
1 i n 1 j p

6.3. Thor`me. Soit A une matrice de genre (m, n) sur un corps K. La dimension du souse e e e ` espace vectoriel de K m engendr par les n colonnes de A est gale a la dimension du sous-espace e vectoriel de K n engendr par les m lignes de A : dim C(A) = dim L(A). Dmonstration. Soit = dim L(A) et c = dim C(A). Il sagit de prouver : = c. Il sut pour e cela de prouver : c et c. Considrons dabord une matrice B1 K mc dont les c colonnes forment une base de C(A) ; alors e e e C(A) = C(B1 ), donc la proposition prcdente livre une matrice C1 K cn telle que A = B1 C1 . dim L(C1 ). Comme la matrice C1 na La Proposition 6.1 montre alors que L(A) L(C1 ), donc e e e e que c lignes, on a forcment dim L(C1 ) c et en combinant les deux ingalits prcdentes on obtient e c. Pour dmontrer lingalit rciproque, on consid`re une matrice C2 K e e e e e une base de L(A). Comme prcdemment, on a alors e e A = B2 C2 pour une certaine matrice B2 K dduit e
m n

dont les

lignes forment

, do` C(A) C(B2 ). Comme B2 na que u c .

colonnes, on en

6. RANG DE MATRICES

39

On appelle rang dune matrice A K mn la dimension du sous-espace vectoriel C(A) de K m engendr par les n colonnes de A ou, ce qui revient au mme dapr`s le thor`me prcdent, la e e e e e e e e e e dimension du sous-espace vectoriel L(A) de K n engendr par les m lignes de A. Dapr`s cette dnition, on a clairement rang A min(m, n) et rang A = rang At . Comme les oprations lmentaires sur une suite de vecteurs ne modient pas le sous-espace engendr e ee e (Proposition 5.3, p. 30), les oprations lmentaires sur les lignes ou les colonnes dune matrice ne e ee modient pas son rang. Par ailleurs, si une matrice est a lignes (resp. colonnes) chelonnes, alors ses ` e e lignes (resp. colonnes) non nulles sont linairement indpendantes, dapr`s la Proposition 5.4 (p. 31), e e e et forment donc une base de lespace des lignes (resp. colonnes). Le rang dune telle matrice est donc le nombre de ses lignes (resp. colonnes) non nulles. En pratique, il sut donc dchelonner les lignes e (ou les colonnes) dune matrice par des oprations lmentaires pour dterminer son rang. e ee e 6.4. Proposition. Soient A, B, C des matrices sur un corps K telles que A = BC ; alors rang A min(rang B, rang C). Dmonstration. La Proposition 6.1 indique que C(A) C(B), donc e rang A rang B puisque rang A = dim C(A) et rang B = dim C(B). De mme, la Proposition 6.1 indique que L(A) L(C), donc e rang A rang C. 2 6.2. Rang et inversibilit e ` ` 6.5. Proposition. Une matrice A K mn est inversible a gauche (resp. a droite) si et seulement si rang A = n (resp. rang A = m). Dmonstration. Supposons dabord que A soit inversible ` gauche. Il existe alors une matrice e a B K nm telle que BA = In . Il rsulte alors de la Proposition 6.1 (p. 37) que L(In ) L(A). Comme les lignes de In forment la e e base canonique de K n , lespace engendr par les lignes de A est K n tout entier, donc la dimension de cet espace est n : rang A = n. rang A, do` u (De mani`re quivalente, on peut utiliser la Proposition 6.4 pour obtenir rang In e e e rang A = n puisque rang In = n et rang A n.) Rciproquement, si rang A = n, alors les lignes de A e forment une suite gnratrice de K n , donc L(In ) L(A). Dapr`s la Proposition 6.2 (p. 38), on peut e e alors trouver une matrice B K nm telle que BA = In . Pour prouver que A est inversible ` droite si et seulement si rang A = m, on utilise les mmes arguments a e que ci-dessus, mais on raisonne sur les colonnes au lieu des lignes et avec K m au lieu de K n . On peut aussi dduire la condition dinversibilit ` droite de la condition dinversibilit ` gauche, en utilisant la e ea ea ` proprit (AB)t = B t At pour montrer dabord quune matrice est inversible a droite si et seulement ee si sa transpose est inversible ` gauche. Les dtails de cette dmonstration sont laisss au lecteur. 2 e a e e e 6.6. Corollaire. Toute matrice inversible est carre. De plus, pour toute matrice carre A e e dordre n, les conditions quivalentes du Thor`me 2.8 sont quivalentes a e e e e ` rang A = n; cest-`-dire quune matrice carre est rguli`re si et seulement si son rang est gal a son ordre. a e e e e `

6. RANG DE MATRICES

40

Dmonstration. Si une matrice A K mn est inversible, alors elle est inversible ` gauche et a e a ` droite, et la proposition prcdente montre que e e rang A = m et rang A = n, do` m = n et A est donc carre. De plus, une matrice carre dordre n est inversible si et seulement u e e si son rang est n. 2 6.7. Corollaire. Le rang dune matrice A K mn est lordre de la plus grande sous-matrice (carre) rguli`re de A. e e e Dmonstration. Soit r = rang A ; on peut donc trouver r lignes de A linairement indpene e e e e dantes. La sous-matrice A de A forme de ces r lignes est alors de genre (r, n) et de rang r. Dapr`s e e la dnition du rang dune matrice, on peut trouver r colonnes de A linairement indpendantes ; la e e e sous-matrice A de A forme de ces r colonnes est une sous-matrice carre dordre r de A qui est rguli`re puisque son rang est r ; cela prouve que la plus grande sous-matrice rguli`re de A est dordre e e e e au moins gal au rang de A. e e e Inversement, si A est une sous-matrice rguli`re dordre s de A, alors les lignes et les colonnes e e de A sont linairement indpendantes. Soit A la sous-matrice de genre (s, n) de A qui contient A . a (La matrice A est donc obtenue ` partir de A en lui adjoignant les colonnes de A qui lui manquent). e e a Comme la matrice A contient s colonnes linairement indpendantes (` savoir celles de A ), son rang est s. Ses s lignes sont donc linairement indpendantes et comme les lignes de A sont des lignes de e e A, la matrice A est de rang au moins gal ` s. Cela montre que le rang de A est au moins gal ` e a e a lordre de la plus grande sous-matrice rguli`re, et ach`ve la dmonstration. e e e e 2 6.3. Rang et syst`mes dquations linaires e e e Soit a11 x1 + + a1n xn = . . . b1

am1 x1 + + amn xn = bm un syst`me de m quations linaires en n inconnues, que lon peut aussi mettre sous la forme e e e AX = b o` u a1n . K mn . . amn x1 . est la matrice des coecients du syst`me, X = . est la colonne des indtermines et b = e e e . a11 . A= . . am1

xn b1 . e e e . est la colonne des termes indpendants. Rappelons encore que la matrice compl`te du syst`me . bm est a11 a1n b1 . . . K m(n+1) . . . (A|b) = . . . . am1 amn bm 6.8. Proposition. Les conditions suivantes sont quivalentes : e (a) le syst`me A X = b admet une solution ; e (b) rang(A|b) = rang A ; (c) b C(A).

6. RANG DE MATRICES

41

En supposant ces conditions satisfaites, la solution du syst`me A X = b est unique si et seulement si e rang A = n, si et seulement si les colonnes de A sont linairement indpendantes. e e e Dmonstration. (a) (b) : Soit (A |b ) une matrice sous forme rduite de GaussJordan e obtenue par des oprations lmentaires sur les lignes de (A|b). On a vu dans la section 1.4 que la e ee condition ncessaire et susante pour que le syst`me AX = b admette une solution est que la matrice e e e a (A |b ) ne contienne pas de pivot dans la derni`re colonne. Cela revient ` dire que le nombre de lignes e e ` non nulles de (A |b ) doit tre le mme que celui de A . Comme les matrices A et (A |b ) sont a lignes chelonnes, le nombre de lignes non nulles de ces matrices est leur rang. Par ailleurs, on a e e () rang(A |b ) = rang(A|b) et rang A = rang A

puisque les oprations lmentaires sur les lignes dune matrice ne modient pas son rang. D`s lors, e ee e une condition ncessaire et susante pour que le syst`me A X = b admette une solution est : e e rang(A|b) = rang A. (a) (c) : En dcomposant A par colonnes : A = a1 e forme A X = a1 x1 + + an xn . an , le produit A X prend la

e D`s lors, il existe x1 , . . . , xn K tels que A X = b si et seulement si b est combinaison linaire de e a a1 , . . . , an , cest-`-dire b sev a1 , . . . , an = C(A). Bien que cela ne soit pas indispensable du point de vue logique, on peut aussi dmontrer facilement e lquivalence (b) (c) : en eet, vu linclusion C(A) C(A|b), la condition (b) est quivalente a : e e ` C(A) = C(A|b). La Proposition 3.1 montre que cette galit a lieu si et seulement si b C(A). e e Supposons a prsent les conditions (a), (b), (c) satisfaites. Comme au dbut de la dmonstration, ` e e e e e ee soit (A |b ) une matrice sous forme rduite de GaussJordan obtenue par des oprations lmentaires sur les lignes de (A|b). Dapr`s la section 1.4, la solution du syst`me AX = b est unique si et seulement e e si la matrice (A |b ) est du type 1 0 0 0 1 0 . . .. . . . . . . . . . . . 0 0 1 0 0 0 0 . . . . . . . . . . . . 0 0 0 0 ce qui revient ` dire : a rang(A |b ) = rang A = n. D`s lors, vu les galits (), la solution du syst`me est unique si et seulement si rang(A) = n. Comme e e e e n est le nombre de colonnes de A, cette galit vaut si et seulement si les colonnes de A forment une e e base de C(A), cest-`-dire si et seulement si les colonnes de A sont linairement indpendantes. a e e 2 Syst`mes homog`nes. e e e e 6.9. Proposition. Soit A K mn . Lensemble des solutions du syst`me homog`ne A X = 0 est un sous-espace vectoriel de K n de dimension n rang A. Dmonstration. La Proposition 5.5 (p. 33) montre que la dimension de lespace des solutions e de A X = 0 est n r, o` r est le nombre de lignes non nulles dune matrice U sous forme rduite u e de GaussJordan obtenue en eectuant des oprations lmentaires sur les lignes de A. Comme la e ee matrice U est ` lignes chelonnes, on a r = rang U , et comme les oprations lmentaires sur les a e e e ee lignes dune matrice ne modient pas son rang, on a rang A = rang U . 2

7. DETERMINANT DES MATRICES CARREES

42

Exercices (6.1) Calculez le rang de la matrice suivante : A= (6.2) Calculez le rang de la matrice 1 2 A= 1 0 2 3 4 5 10 13 . 4 11 14 1 4 9 soit gal au rang de A. e 1 0 0 1 0 0 0 0 0 0 1 0 0 0 2 0 0 1 1 0 0 0 0 0 . 2 3 5 1 4 5 1 3 4 . 2 8 6 3 5 2

Trouvez une sous-matrice de A, carre et rguli`re, et dont lordre e e e Mmes questions pour les matrices e 0 0 1 0 1 i 3 i 0 1 i B= i 0 2 et C= 0 0 1 0 1 2i 0 0 0 0

(6.3) Calculez le rang de la matrice suivante, en fonction de la valeur de m R : 2 m 2 3/2 1 . A = m2 2m 2(m + 1) m + 1 (6.4) (pour aller plus loin) Soient A K mn et B K nk . Montrez que si A B = 0, alors rang A + rang B n. (Indication : inspirez-vous de la proposition 6.9, page 41.)

7. Dterminant des matrices carres e e


` A chaque matrice carre A sur un corps K, on se propose dassocier un lment de K, appel e ee e dterminant de A et not dt A. Il est facile de dnir le dterminant des matrices dordre 1 ou 2 : on e e e e e pose dt (a) = a e et dt e a c b d = ad bc pour a, b, c, d K; pour a K

mais les formules explicites qui permettent de dnir le dterminant dune matrice dordre n dee e viennent rapidement tr`s compliques lorsque n augmente. Cependant, le dterminant poss`de un e e e e certain nombre de proprits remarquables qui sont indpendantes de lordre des matrices considres, ee e ee et qui font son importance. Un petit nombre (en fait, trois) de ces proprits permettent mme de ee e caractriser le dterminant. D`s lors, nous proc`derons comme suit : e e e e 1. nous dnirons le dterminant par ses proprits caractristiques ; e e ee e 2. nous montrerons lunicit de la fonction satisfaisant ces proprits (en supposant quil en existe e ee une) ; 3. nous tablirons lexistence dune telle fonction. e

7. DETERMINANT DES MATRICES CARREES

43

7.1. Proprits e e Soit n un entier 1 et K un corps quelconque. Dans cette section, les matrices carres dordre e e n sont systmatiquement dcomposes par lignes : pour A = (aij )1 i,j n, on consid`re A comme un e e e n-uple de lignes : a1 . A= . . an o` ai = u ai1 ain pour i = 1, . . . , n.

Le dterminant est lunique application e dt : K nn K e possdant les proprits suivantes : e ee (dt.1): Pour tout i = 1, . . . , n et pour a1, . . . , ai1, ai+1, . . . , an, x, y K n et , K, e dt e a1 . . . ai1 ai1 x + y = dt x + dt e e ai+1 ai+1 . . . . . . an an a1 . . . a1 . . . ai1 y ai+1 . . . an .

On exprime cette proprit en disant que dt est une fonction linaire (ou quil dpend de ee e e e mani`re linaire) des lignes de la matrice. e e (dt.2): dt est une fonction alterne des lignes, cest-`-dire que le dterminant dune matrice e e e a e ayant deux lignes identiques est nul : si ai = aj pour certains indices i = j, alors a1 . . . ai . dt . = 0. e . aj . . . an (dt.3): e dt In = 1. e Ni lexistence, ni lunicit dune telle application ne sont videntes pour n e e 2. An den prparer e la dmonstration, on peut dj` observer que les proprits ci-dessus susent ` dterminer le come ea ee a e portement du dterminant lorsque la matrice est transforme par des oprations lmentaires sur les e e e ee lignes. e ee 7.1. Proposition. Supposons quil existe une application : K nn K possdant les proprits (dt.1) et (dt.2) ci-dessus. e e

7. DETERMINANT DES MATRICES CARREES

44

(I) La valeur de ne change pas lorsquon remplace une ligne par la somme de celle-ci et dun multiple dune autre ligne : a1 a1 . . . . . . ai ai + aj . . . = . . . . aj aj . . . . . . an an

(II) La valeur de change de signe lorsquon change deux lignes : e a1 a1 . . . . . . aj ai . . . = . . . . ai aj . . . . . . an an (III) La valeur de est multiplie par K lorsquon e a1 . . . ai = . . . an multiplie une ligne par : a1 . . . ai . . . . an

Dmonstration. (I) : En utilisant la linarit de suivant la i-`me ligne, on trouve e e e e a1 a1 a1 . . . . . . . . . ai aj ai + aj . . . . = . + . . . . . aj aj aj . . . . . . . . . an an an t Le deuxi`me terme du second membre est nul vu que la ligne aj y appara deux fois. e (II) : Comme est une fonction alterne des lignes, la matrice dont la i-`me et la j-`me lignes sont e e e gales ` ai + aj annule : e a a1 . . . ai + aj . . = 0. . ai + aj . . . an

7. DETERMINANT DES MATRICES CARREES

45

On peut utiliser la linarit de suivant la i-`me et la j-`me ligne pour dvelopper le premier membre : e e e e e a1 a1 a1 a1 a1 . . . . . . . . . . . . . . . ai ai aj aj ai + aj . . . . . . = . + . + . + . . . . . . . ai aj ai aj ai + aj . . . . . . . . . . . . . . . an an an an an Dans le membre de droite, les deux termes extrmes sont nuls car est une fonction alterne. En e e faisant dispara les termes nuls, il reste tre a1 a1 . . . . . . aj ai . . 0 = . + . , . . ai aj . . . . . . an an 2 ce qui tablit la proprit (II). e ee Enn, la proprit (III) rsulte directement de la linarit de suivant la i-`me ligne. ee e e e e On peut a prsent dmontrer lunicit du dterminant : ` e e e e ee e 7.2. Proposition. Si , : K nn K sont deux applications satisfaisant les proprits (dt.1), (dt.2) et (dt.3), alors = . e e e Demonstration. Soit A K nn et soit U K nn une matrice sous forme rduite de Gauss Jordan obtenue par des oprations lmentaires sur les lignes de A. Supposons avoir fait, pour passer e ee de A ` U , un nombre r doprations lmentaires de type II et un nombre s doprations lmentaires a e ee e ee e ee e de type III, de facteurs 1 , . . . ,s (et un certain nombre doprations lmentaires de type I). Dapr`s la Proposition 7.1, on a alors () (U ) = (1)r 1 . . . s (A) et (U ) = (1)r 1 . . . s (A).

Or, la matrice U est une matrice carre sous forme rduite de GaussJordan. Comme observ prcdeme e e e e ment (juste avant le Thor`me 2.8), on a alors lalternative e e soit U = In , soit la derni`re ligne de U est nulle. e e ee e u e Dans le premier cas, on a (U ) = 1 = (U ) dapr`s la proprit (dt.3), do` , vu les quations (), (A) = (1)r (1 . . . s )1 = (A). e Dans le second cas, on a (U ) = 0 = (U ) dapr`s la Proposition 7.1 (utiliser la partie (III) avec = 0). Les quations () donnent alors e (A) = 0 = (A). Dans tous les cas, on a bien (A) = (A). 2

La proposition prcdente montre que les conditions (dt.1), (dt.2) et (dt.3) susent ` caractriser e e e e e a e de mani`re unique le dterminant. Cependant, a ce stade, il nest pas clair que le dterminant existe, e e ` e cest-`-dire quil y a bien une fonction satisfaisant les conditions (dt.1), (dt.2) et (dt.3) (sauf pour a e e e n = 1 ou 2, o` lon a donn une formule explicite). Nous dirons la dmonstration de lexistence du u e e e dterminant ` la section suivante. Nous la supposons acquise pour la suite de la prsente section, o` e a e u nous nous proposons de tirer des consquences de lunicit prouve ci-dessus. e e e

7. DETERMINANT DES MATRICES CARREES

46

Pour commencer, remarquons que la dmonstration prcdente donne une mani`re explicite de e e e e calculer dt A. Comme le rang dune matrice ne change pas lorsque lon eectue des oprations e e a u lmentaires, on a rang A = rang U , donc le cas U = In correspond ` : rang A = n et le cas o` ee la derni`re ligne de U est nulle est celui o` rang A < n. Avec les notations prcdentes, on a donc e u e e dt A = e (1)r (1 . . . s )1 (= 0) 0 si rang A = n si rang A < n.

Cette formule ne peut cependant pas servir de dnition au dterminant de A, car les oprations e e e e e e lmentaires qui permettent de transformer A en U (= In ) ne sont pas dtermines de mani`re unique. ee 7.3. Proposition. Pour A, B K nn , 1. dt A = 0 si et seulement si A est rguli`re. e e e 2. dt (AB) = dt A dt B. e e e e 3. dt At = dt A. e Dmonstration. La premi`re partie dcoule des remarques ci-dessus sur la mani`re de calculer e e e e le dterminant. e (2). Si rang A < n, alors la Proposition 6.4 montre que rang(AB) < n. Dans ce cas, on a donc dt A = dt (AB) = 0, e e et la relation dt (AB) = dt A dt B est satisfaite. e e e Supposons rang A = n. La matrice rduite de GaussJordan U obtenue par des oprations e e ee lmentaires sur les lignes de A est alors In . Soient E1 , . . . , E les matrices lmentaires corresponee dantes, parmi lesquelles on compte r matrices lmentaires de type II et s matrices lmentaires de ee ee e type III, de facteurs 1 , . . . , s . On a, dapr`s la Proposition 2.6, E . . . E1 A = U = In donc () et
1 A = E1 . . . E 1

1 AB = E1 . . . E 1 B. Comme linverse dune matrice lmentaire est une matrice lmentaire de mme type (mais de facteur ee ee e inverse, en ce qui concerne le type III), lgalit prcdente montre que la matrice AB est obtenue en e e e e 1 eectuant les oprations lmentaires qui correspondent ` E 1 , . . . , E1 sur les lignes de B. Parmi e ee a ces oprations lmentaires, on compte r oprations de type II et s oprations de type III, de facteurs e ee e e e ee e 1 , . . . , 1 (et un certain nombre doprations lmentaires de type I). Comme leet dune opration 1 s lmentaire sur le dterminant a t dtermin dans la Proposition 7.1, on en dduit ee e ee e e e

e dt (AB) = (1)r 1 . . . 1 dt B. e s 1 Or, les observations prcdentes sur le calcul de dt A donnent e e e dt A = (1)r 1 . . . 1 . e s 1 La relation (2) est donc dmontre. e e (3). Si rang A < n, alors rang At < n puisque rang At = rang A. Dans ce cas, on a dt A = 0 = dt At . e e Si rang A = n, alors dapr`s le Thor`me 2.8 ou lquation () ci-dessus, A est un produit de matrices e e e e lmentaires. Soit ee A = F1 . . . F o` F1 , . . . , F sont des matrices lmentaires. En transposant les deux membres de cette galit, on u ee e e trouve t At = F t . . . F1 . La proprit de multiplicativit du dterminant (cest-`-dire la deuxi`me partie de lnonc) dmontre ee e e a e e e e e ci-dessus donne alors e dt A = dt F1 . . . dt F e e et dt At = dt F t . . . dt F1 . e e e t

7. DETERMINANT DES MATRICES CARREES

47

Il sut donc dtablir : dt Fi = dt Fit pour tout i. Rappelons pour cela que toute matrice lmentaire e e e ee est obtenue en eectuant une opration lmentaire sur les lignes de la matrice unit. Comme la matrice e ee e unit est de dterminant 1, on dduit de la Proposition 7.1 (p. 43) e e e 1 si Fi est de type I, dt Fi = 1 si Fi est de type II, e si Fi est de type III, de facteur . Or, la transpose dune matrice lmentaire est une matrice lmentaire de mme type (et de mme e ee ee e e e 2 facteur, en ce qui concerne le type III), donc dt Fi = dt Fit pour tout i. e Comme le dterminant dune matrice est gal au dterminant de sa transpose, toute proprit du e e e e ee dterminant tablie pour les lignes des matrices vaut galement pour les colonnes ; en particulier, les e e e proprits (dt.1) et (dt.2) sont galement vraies pour les colonnes. ee e e e e e 7.4. Corollaire. Pour A, B K nn avec A rguli`re, 1 1 e 1. dt (A ) = (dt A) . e e 2. dt (ABA1 ) = dt B. e Demonstration. Dapr`s la multiplicativit du dterminant dmontre ci-dessus, on a e e e e e e e dt A dt (A1 ) = dt (AA1 ) = dt In = 1, e e ce qui prouve la premi`re partie. De mme, on a e e e e e dt (ABA1 ) = dt A dt B (dt A)1 . e Comme les dterminants sont des lments de K, leur produit est commutatif, donc on peut simplier e ee le premier facteur du second membre avec le dernier. 2 7.2. Existence du dterminant e Dveloppement en mineurs. Dmontrer lexistence du dterminant consiste ` prouver lexistence e e e a e e pour tout entier n 1 dune fonction de K nn vers K satisfaisant les conditions (dt.1), (dt.2) et (dt.3). Dans cette section, on dnit une telle fonction1 par induction sur n : on suppose que le e e dterminant des matrices dordre n 1 est dnie et on lutilise pour dnir le dterminant des e e e e matrices dordre n. Comme pour les matrices dordre 1 le dterminant est dni : e e dt (a) = a, e la dnition ci-dessous donne successivement le dterminant des matrices dordre 2,3,4, etc. e e Fixons A K nn obtenue en Pour k un entier n 2 et supposons avoir dni le dterminant des matrices dordre n 1. Soit e e une matrice carre dordre n. Pour i, j = 1, . . . , n, on note Aij la matrice dordre n 1 e supprimant la i-`me ligne et la j-`me colonne de A. e e = 1, . . . , n, on pose
n

k (A) =
=1

(1)

+k

a k dt A k . e

7.5. Proposition. Pour k = 1, . . . , n, les fonctions k : K nn K satisfont les conditions (dt.1), (dt.2) et (dt.3). Ces fonctions sont donc toutes gales et dnissent le dterminant des e e e e e e matrices dordre n. e e e Dmonstration. (dt.1) : Montrons que k est linaire suivant la i-`me ligne de A. Considrons e e pour cela tous les termes e (1) +k a k dt A k . e e e e Si i = , alors a k ne dpend pas de la i-`me ligne, et dt A k est linaire suivant cette ligne. Si i = , e e e e e alors a k dpend linairement de la i-`me ligne et dt A k nen dpend pas. Dans tous les cas le produit e e e e e (1) +k a k dt A k dpend linairement de la i-`me ligne de A ; il en est donc de mme de k .
1 En fait, on en dnit n. Dapr`s lunicit du dterminant dmontre dans la section prcdente, toutes ces fonctions e e e e e e e e sont gales. e

7. DETERMINANT DES MATRICES CARREES

48

(dt.2) : Montrons dabord que k (A) = 0 si A contient deux lignes conscutives identiques, soit e e ai = ai+1 . Les matrices A k contiennent alors deux lignes identiques pour = i, i + 1, donc les termes dindice = i, i + 1 sont nuls. Il reste e e k (A) = (1)i+k aik dt Aik + (1)i+k+1 ai+1,k dt Ai+1,k . Comme la i-`me et la (i + 1)-`me lignes de A sont identiques, on a aik = ai+1,k et Aik = Ai+1,k , donc e e les deux termes du second membre sannulent et k (A) = 0. Le mme raisonnement que dans la Proposition 7.1 montre alors que k change de signe quand e on permute deux lignes conscutives de A. e Supposons enn que A contienne deux lignes identiques : ai = am pour certains indices i = m. Par des changes de lignes conscutives, on peut amener les lignes identiques a tre conscutives ; alors e e `e e e e k sannule, comme on la vu ci-dessus. Or, des changes de lignes conscutives ne changent au plus que le signe de k , donc k (A) = 0. e e a (dt.3) : Comme toutes les entres de la k-`me colonne de In sont nulles sauf la k-`me qui est gale ` e e e 1, seul le terme dindice k de la somme k (In ) subsiste : e k (In ) = (1)k+k 1 dt In1 = 1. 2 7.6. Corollaire. Soit A = (aij )1
i,j n

K nn .

1. Dveloppement du dterminant suivant la j-`me colonne : e e e pour tout j = 1, . . . , n,


n

dt A = e
=1

(1)

+j

a j dt A j . e

2. Dveloppement du dterminant suivant la i-`me ligne : e e e pour tout i = 1, . . . , n,


n

dt A = e 3. Pour i, j = 1, . . . , n avec i = j,
n

(1)i+k aik dt Aik . e


k=1

0=
k=1

(1)j+k aik dt Ajk . e

4. Pour i, j = 1, . . . , n avec i = j,
n

0=

(1)k+i akj dt Aki . e


k=1

e Dmonstration. (1). Le second membre est j (A). La relation (1) est donc une consquence e directe de la proposition prcdente. e e e ee (2). Le second membre est i (At ). La relation (2) rsulte donc de la relation (1) et de la proprit dt A = dt At . e e c e e (3). Soit A K nn la matrice obtenue en remplaant dans A la j-`me ligne par la i-`me : a1 a1 . . . . . . ai ai . . si A = . , alors A = . . . . ai aj . . . . . . an an

7. DETERMINANT DES MATRICES CARREES

49

Comme la matrice A a deux lignes identiques, son dterminant est nul. Cependant, en appliquant la e formule de dveloppement du dterminant suivant la j-`me ligne on trouve e e e
n

dt A = e

(1)j+k ajk dt Ajk . e


k=1

u Or, ajk = aik et Ajk = Ajk , do` la formule (3). e La formule (4) stablit en appliquant la formule (3) a la matrice transpose At ou en dveloppant e ` e suivant la i-`me colonne le dterminant de la matrice obtenue en remplaant la i-`me colonne de A e e c e par la j-`me. e 2 e t e e e Lexpression (1)i+j dt Aij qui appara dans les dveloppements du dterminant est appele cofacteur dindices i, j de la matrice A. La matrice e cof A = (1)i+j dt Aij est appele matrice des cofacteurs de A. e 7.7. Corollaire. Pour toute matrice A K nn , e A (cof A)t = (cof A)t A = dt A In . Demonstration. Llment dindices i, j de la matrice produit A (cof A)t est ee
n 1 i,j n

aik (1)j+k dt Ajk . e


k=1

Si i = j cette somme est nulle dapr`s la troisi`me formule ci-dessus ; si i = j elle vaut dt A dapr`s e e e e le dveloppement du dterminant de A suivant la i-`me ligne. D`s lors, le produit A (cof A)t est une e e e e matrice diagonale, tous les lments diagonaux tant gaux a dt A : ee e e ` e e A (cof A)t = dt A In . e e On raisonne de mme pour tablir lgalit (cof A)t A = dt A In , en utilisant la quatri`me formule e e e e du corollaire prcdent et le dveloppement de dt A suivant la j-`me colonne. e e e e e 2 Dapr`s ce corollaire, linverse de toute matrice carre rguli`re est donn par e e e e e e A1 = (dt A)1 (cof A)t . Etant donn le nombre doprations ncessaires pour calculer le dterminant dune matrice, cette e e e e formule nest cependant utile que dun point de vue thorique, ou pour calculer linverse dune matrice e dordre petit ou ayant des proprits particuli`res. ee e On peut aussi lutiliser pour obtenir une formule donnant la solution dun syst`me de n quations e e en n inconnues, lorsque la matrice des coecients est rguli`re : e e 7.8. Corollaire (Cramer). Soit A X = b un syst`me de n quations algbriques linaires en n e e e e e c inconnues. Pour i = 1, . . . , n, on dsigne par Bi la matrice carre dordre n obtenue en remplaant e la i-`me colonne de A par la colonne b des termes indpendants. Si A est rguli`re, alors la valeur de e e e e e la i-`me inconnue xi est donne par e dt Bi e . xi = dt A e e Dmonstration. En dveloppant dt Bi suivant la i-`me colonne, on trouve e e e
n

dt Bi e

=
k=1 n

(1)i+k bk dt (Bi )ki e (1)i+k bk dt Aki . e


k=1

e Ce calcul montre que dt Bi est aussi la i-`me ligne de la matrice-colonne (cof A)t b. Or, si A est e rguli`re, on tire de A X = b e e e X = A1 b = (dt A)1 (cof A)t b. 2

7. DETERMINANT DES MATRICES CARREES

50

Formule explicite. En utilisant systmatiquement la proprit de linarit du dterminant suivant e ee e e e chaque ligne, on se propose de donner une formule explicite pour le dterminant dune matrice carre e e dordre n. Soit A = (aij )1
i,j n

K nn une matrice carre dordre n, que lon dcompose par lignes : e e a1 . A = . . . an

Dcomposons la premi`re ligne comme combinaison linaire de la base canonique (c1 , . . . , cn ) de K n : e e e a1 = a11 a1n = a11 c1 + + a1n cn . cn a2 . . . an Comme le dterminant est linaire suivant la premi`re ligne, on en dduit e e e e c1 c2 a2 a2 e e e dt A = a11 dt . + a12 dt . + + a1n dt e . . . . an an ci 1 n a2 a1i1 dt . . e = . . i1 =1 an Dcomposons ensuite la deuxi`me ligne : e e
n

a2 = a21 c1 + + a2n cn =
i2 =1

a2i2 ci2 .

Comme le dterminant est linaire suivant la deuxi`me ligne, on obtient e e e ci 1 ci 1 ci 2 n a2 a2i2 dt a3 , e dt . = e . . . i2 =1 . . an an do` u
n

a1i1 a2i2 dt e dt A = e i1 ,i2 =1

ci 1 ci 2 a3 . . . an

En dcomposant de mme chaque ligne de A, on obtient e e


n

()

ci 1 . a1i1 . . . anin dt . . e dt A = e . i1 ,... ,in =1 ci n

e Si deux des indices i1 , . . . , in prennent la mme valeur, alors la suite ci1 , . . . , cin contient deux fois le mme vecteur, donc e ci 1 . dt . = 0. e . ci n e Si tous les indices i1 , . . . , in prennent des valeurs direntes, alors {i1 , . . . , in } = {1, . . . , n}

7. DETERMINANT DES MATRICES CARREES

51

et la suite i = (i1 , . . . , in ) est une permutation de (1, . . . , n). Par un certain nombre s doprations e e e de type II (changes de deux vecteurs), les vecteurs de la suite (ci1 , . . . , cin ) peuvent tre rangs dans e e lordre naturel (c1 , . . . , cn ). Dapr`s la Proposition 7.1, on a alors c1 ci 1 . . e dt . = (1)s dt . e . . ci n et comme c1 . . = . cn 1 0 0 1 . . . . . . 0 0 .. . 0 0 . . . 1 cn = In ,

ci 1 . dt . = (1)s . e . ci n e Le nombre (1)s est appel signature de la permutation i = (i1 , . . . , in ) ; on le note sgn i. On a donc e e sgn i = 1, et plus prcisment sgn i = 1 (resp. sgn i = 1) si la suite (i1 , . . . , in ) peut tre range e e dans lordre naturel par un nombre pair (resp. impair ) dchanges de deux lments. Par exemple, e ee sgn(1, . . . , n) = 1 puisque (1, . . . , n) est dans lordre naturel. En revenant a la relation (), on obtient la formule explicite suivante pour le dterminant de A : ` e dt A = e
i

on en dduit e

sgn i a1i1 . . . anin

o` i = (i1 , . . . , in ) parcourt lensemble des permutations de (1, . . . , n). u Cette formule est surtout utilisable pour n = 2 ou 3. Pour n = 2, on a sgn(1, 2) = 1 et sgn(2, 1) = 1 car il sut dchanger 1 et 2 pour revenir a lordre naturel. D`s lors, e ` e dt A = a11 a22 a12 a21 . e Pour n = 3 on a sgn(2, 1, 3) = sgn(3, 2, 1) = sgn(1, 3, 2) = 1 et sgn(2, 3, 1) = 1 car pour passer de (2, 3, 1) a (1, 2, 3) il sut de deux changes : par exemple, on change dabord 1 et ` e e 2, puis 2 et 3. De mme, e sgn(3, 1, 2) = 1; donc dt A e = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a12 a21 a33 a13 a22 a31 a11 a23 a32 .

Exercices (7.1) (prrequis) Dmontrez que le dterminant dune matrice est nul si au moins une de ses lignes e e e est nulle. (7.2) Calculez le dterminant e 2 3 A= 1 0 2 1 de 5 1 0 0 1+i 0 B = 1i 1 2i 2 + 3i 1 + 2i 2 3i . 0

Quel est le dterminant de A B et celui de A ? Apr`s avoir calcul ces deux dterminants, vous y e e e e prendriez-vous de la mme mani`re pour calculer le dterminant de A+A et le dterminant de A+B ? e e e e

7. DETERMINANT DES MATRICES CARREES

52

(7.3) Calculez le dterminant des deux matrices suivantes, en e 1 1 a b+c a 2 1 b c+a A= B = a 1 c a+b a3

eectuant le moins de calculs possible : 1 1 1 b c d . b 2 c2 d 2 b 3 c3 d 3

(7.4) Dmontrez que le dterminant de toute matrice complexe antisymtrique dordre impair est nul. e e e (7.5) On consid`re une matrice A K nn telle que aij = 0 si j n i. Cela signie que A est de la e forme 0 ... 0 a1,n 0 ... 0 a2,n1 a2,n . . . . . . . 0 an1,2 ... an1,n an,1 ... an,n Quel est le dterminant de A ? e

CHAPITRE IV

Applications linaires e
8. Notions fondamentales
8.1. Dnition e Soient E et F deux espaces vectoriels sur un mme corps K. Une application A : E F est dite e linaire si les conditions suivantes sont satisfaites : e 1. A(x + y) = A(x) + A(y) pour x, y E. 2. A(x) = A(x) pour x E et K. De mani`re quivalente, lapplication A est linaire si e e e A(x + y) = A(x) + A(y) pour x, y E et , K. Plus gnralement, on a alors A( iI xi i ) = iI A(xi )i pour tout e e ensemble ni dindices I. Une vrication directe montre que lensemble des applications linaires de E dans F est un souse e espace vectoriel de lespace de toutes les applications de E dans F et que, de plus, la compose de e deux applications linaires est linaire. e e Une terminologie particuli`re sattache a certains types dapplications linaires : les applications e ` e linaires A : E E sont appeles oprateurs linaires sur E, ou parfois aussi endomorphismes de E. e e e e Les applications linaires injectives (resp. surjectives) sont parfois appeles monomorphismes (resp. e e pimorphismes) et les applications linaires bijectives sont appeles isomorphismes (despaces vectoe e e riels). Enn, les endomorphismes bijectifs sont appels automorphismes. e La notion suivante est troitement lie ` celle dapplication linaire : une quation linaire est une e e a e e e quation de la forme e A(X) = b o` A : E F est une application linaire entre deux espaces vectoriels E et F , et b F . Rsoudre cette u e e quation consiste a trouver tous les vecteurs x E qui sont envoys sur b par A. Une telle quation e ` e e satisfait le principe de superposition des solutions : si x1 , x2 E sont solutions de A(X) = b1 et A(X) = b2 respectivement, alors pour 1 , 2 K le vecteur 1 x1 + 2 x2 E est solution de A(X) = 1 b1 + 2 b2 . Ce principe de superposition des solutions nest en eet quune reformulation de lhypoth`se que A est linaire. e e 8.2. Exemples A) Toute matrice A de genre (m, n) sur un corps K dnit une application linaire A : K n K m e e m par A(x) = A x. Pour b K , le syst`me dquations algbriques linaires e e e e AX = b peut alors aussi scrire e A(X) = b; cest donc un cas particulier dquation linaire. e e B) La drivation est une application linaire D : C i ]a, b[; R C i1 ]a, b[; R . e e Plus gnralement, si a1 , . . . , an C ]a, b[; R sont des applications continues sur un ine e tervalle ]a, b[ R, on peut dnir une application linaire e e A : C n ]a, b[; R C ]a, b[; R
53

8. NOTIONS FONDAMENTALES

54

par A = Dn + a1 Dn1 + + an1 D + an I, cest-`-dire a pour y C n A(y) = y(n) + a1 y(n1) + + an1 y + an y ]a, b[; R . Pour toute fonction f C ]a, b[; R , lquation diffrentielle ordinaire e e y(n) + a1 y(n1) + + an1 y + an y = f est donc un exemple dquation linaire. e e C) Lvaluation des polynmes en un point a K est une application linaire va : K[X] K e o e dnie par va (P ) = P (a) pour P K[X]. e e Plus gnralement, tant donns n lments a1 , . . . , an K, on peut dnir une application e e e e ee linaire A : K[X] K n par e A(P ) = (P (a1 ), . . . , P (an)). a e o Rsoudre lquation linaire A(P ) = (b1 , . . . , bn ) revient ` dterminer tous les polynmes P e e e K[X] qui prennent en chaque ai la valeur bi . e ` ` D) Dans lespace usuel EO , les transformations de symtrie par rapport a O ou par rapport a un plan passant par O, les projections sur un plan passant par O parall`lement ` une direction e a donne, les rotations dont laxe passe par O sont des transformations linaires. Par contre, les e e transformations de symtrie par rapport a un point autre que O, les rotations dont laxe ne e ` passe pas par O ne sont pas linaires. e En relation avec le premier exemple ci-dessus, on peut dterminer toutes les applications linaires de e e K n vers K m : 8.1. Proposition. Toute application linaire L : K n K m est de la forme L = A pour une e mn . certaine matrice A K ` Dmonstration. A toute application linaire L : K n K m , on associe la matrice A K mn e e dont les colonnes sont les images des vecteurs de la base canonique de K n : Si L(cj ) = a1j . . . amj A = L(c1 ), . . . x1 . , alors pour tout x = . . xn , L(cn ) K mn . = c1 x1 + + cn xn K n , on a

a11 a1n . . L(x) = L(c1 )x1 + + L(cn )xn = . x1 + + . xn = A x. . . am1 amn D`s lors, lapplication linaire A associe ` la matrice A est bien la mme que L. e e e a e 8.3. Noyau et image ` A toute application linaire A : E F , on fait correspondre un sous-espace vectoriel de E appel e e noyau de A, dni par e Ker A = {x E | A(x) = 0} et un sous-espace vectoriel de F appel image de A, dni par e e Im A = {A(x) F | x E} ou, de mani`re quivalente, par e e Im A = {y F | x E tel que A(x) = y}. Le fait que ces ensembles sont bien des sous-espaces vectoriels de E et de F respectivement rsulte e dune simple vrication. (Pour voir que 0 Ker A, cest-`-dire que A(0) = 0, il sut de remplacer e a par 0 dans la relation A(x) = A(x).) 2

8. NOTIONS FONDAMENTALES

55

8.2. Proposition. Une application A : E F est injective si et seulement si Ker A = {0} ; elle est surjective si et seulement si Im A = F . Dmonstration. Si A est injective, alors seul le vecteur nul de E peut tre envoy sur le vecteur e e e nul de F , donc Ker A = {0}. Rciproquement, supposons que Ker A = {0} et que x1 , x2 E ont la e mme image dans F : e A(x1 ) = A(x2 ); ne alors A(x1 x2 ) = 0, donc x1 x2 Ker A. Comme Ker A = {0}, cela entra x1 x2 = 0, donc e e e e e 2 x1 = x2 . La deuxi`me partie de lnonc rsulte directement des dnitions. Le noyau et limage ont une interprtation naturelle en termes dquations linaires. En eet, e e e Ker A est lensemble des solutions de lquation linaire homog`ne A(x) = 0, tandis que Im A est e e e lensemble des seconds membres b F pour lesquels lquation A(X) = b admet une solution. En e particulier, lquation A(X) = b admet une solution si et seulement si b Im A. La structure de e lensemble des solutions est donne par la proposition suivante : e 8.3. Proposition. Soit A : E F une application linaire et b F . Supposons que lquation e e linaire A(X) = b admette u E comme solution. Lensemble des solutions de cette quation est alors e e lensemble u + Ker A = {u + v | v Ker A}. Dmonstration. Pour tout v Ker A, on a A(u + v) = A(u) + A(v) = b + 0, donc tout lment e ee de u + Ker A est solution de A(X) = b. Inversement, si s est solution de A(X) = b, alors A(s) = b = A(u), donc s u Ker A et s = u + (s u) u + Ker A. 2

Etant donn une solution particuli`re u E de lquation A(X) = b, on obtient donc la solution e e e gnrale de cette quation sous la forme e e e u + t1 1 + + tn n , e o` t1 , . . . , tn est une base de Ker A (suppos de dimension nie) et 1 , . . . , n sont des scalaires u arbitraires. En particulier, si A est injective, alors toute quation A(X) = b admet au plus une e solution. (Elle en admet exactement une lorsque b Im A, elle nen admet pas si b Im A.) Pour faire le lien entre le point de vue abstrait des applications linaires et les rsultats des e e premiers chapitres, considrons le cas particulier o` lapplication linaire est associe ` une matrice : e u e e a e e soit A K mn et A: K n K m lapplication linaire dnie par A(x) = A x. Par dnition, e Ker A = {x K n | A x = 0}, donc le noyau de A est lespace des solutions du syst`me dquations linaires homog`nes e e e e A X = 0. De mme, par dnition, e e Im A = {b K m | x K n tel que A x = b}, e e donc limage de A est lensemble des seconds membres b K m pour lesquels le syst`me dquations AX = b admet une solution. En eectuant le produit A X apr`s avoir dcompos A par colonnes, on obtient e e e x1 . A X = a1 an . = a1 x1 + + an xn , . xn donc Im A = sev a1 , . . . , an = C(A)

8. NOTIONS FONDAMENTALES

56

est lespace des colonnes de A. (Voir la Proposition 6.8, p. 40). On a donc rang A = dim Im A. La Proposition 6.9 tablit une relation entre la dimension de Ker A et celle de Im A. Notre prochain e objectif est dobtenir une relation du mme type pour des applications linaires gnrales. e e e e 8.4. Rang et nullit e Le rang dune application linaire A : E F est la dimension de limage de A : e rang A = dim Im A. La nullit de A est la dimension du noyau de A : e null A = dim Ker A. e 8.4. Theor`me. rang A + null A = dim E.

Dmonstration. Quoique lnonc soit vrai galement pour les espaces de dimension innie, e e e e nous supposerons dans cette dmonstration que la dimension de E est nie. e Soit (e1 , . . . , em ) une base de Ker A, que lon prolonge en base de E, soit (e1 , . . . , en ). On a donc null A = m et dim E = n. Pour tablir le thor`me, on va prouver que A(em+1 ), . . . , A(en ) est une e e e base de Im A. Il en rsultera rang A = n m = dim E null A, comme annonc. e e Montrons dabord que la suite A(em+1 ), . . . , A(en ) engendre Im A. Comme cette famille est constitue dlments de Im A, il sut de prouver que tout vecteur de Im A en est une combinaison e ee linaire. Soit y Im A ; on a donc y = A(x) pour un certain vecteur x E. Exprimons x comme e combinaison linaire de la base de E ci-dessus : e x = e1 1 + + en n . En appliquant A aux deux membres de cette galit, et en tenant compte de ce que A(e1 ) = = e e A(em ) = 0, puisque e1 , . . . , em sont dans le noyau de A, on obtient y = A(x) = A(em+1 )m+1 + + A(en )n , ce qui montre que tout vecteur de Im A est bien combinaison linaire de la suite A(em+1 ), . . . , A(en ) . e Montrons enn que cette suite est libre. Soit A(em+1 )m+1 + + A(en )n = 0 une relation de dpendance linaire entre les vecteurs de la suite. Il sagit de prouver que tous les e e e e e coecients i sont nuls. Vu la linarit de A, la relation ci-dessus peut aussi scrire A(em+1 m+1 + + en n ) = 0; elle montre alors que le vecteur em+1 m+1 + + en n est dans le noyau de A. On peut donc exprimer ce vecteur comme combinaison linaire de la base (e1 , . . . , em ) de Ker A : e em+1 m+1 + + en n = e1 1 + + em m pour certains scalaires 1 , . . . , m . En rassemblant tous les termes dans un membre, on trouve e1 (1 ) + + em (m ) + em+1 m+1 + + en n = 0. e e e Comme (e1 , . . . , en ) est une suite libre (cest mme une base de E), on tire de la relation prcdente 1 = = m = m+1 = = n = 0. 2

8. NOTIONS FONDAMENTALES

57

8.5. Corollaire. Soit A : E F une application linaire. On suppose dim E = n et dim F = m e (avec m, n nis). Les conditions (1) ` (3) sont quivalentes et, de mme, les conditions (1) ` (3) a e e a sont quivalentes : e (1) A est injective (2) null A = 0 (3) rang A = n (1) A est surjective (2) null A = n m (3) rang A = m

En particulier, si n = m, alors toutes les conditions ci-dessus sont quivalentes, et sont encore e quivalentes a : A est bijective. e ` Demonstration. Du thor`me prcdent, on dduit tout de suite la relation e e e e e rang A + null A = n, qui tablit lquivalence de (2) et (3) dune part et celle de (2) et (3) dautre part. e e Dapr`s la Proposition 8.2, la condition (1) est quivalente ` Ker A = {0}, et cette derni`re e e a e condition est quivalente ` (2). De mme, la condition (1) est quivalente ` Im A = F . Cette derni`re e a e e a e condition est encore quivalente ` rang A = dim F , cest-`-dire a (3), par la Proposition 5.2 (p. 30). 2 e a a ` Exercices (8.1) (prrequis) Soient E et F deux espaces vectoriels sur un corps K et A : E F une application e linaire. Prouvez que A(0) = 0. e (8.2) (prrequis) Soient E et F deux espaces vectoriels sur un corps K et A : E F une e 1 que application linaire. Si x1 , . . . , xn E et 1 , . . . , n K, prouvez par induction sur n e n n A ( i=1 xi i ) = i=1 A(xi )i . (8.3) Soit une application linaire A : R3 R4 telle que A(1, 1, 1) = (1, 1, 1, 3), A(1, 1, 0) = (1, 1, 1, 2) e et A(1, 0, 0) = (1, 1, 1, 1). Que vaut A(3, 2, 1) ? Que vaut A(x, y, z) pour un lment (x, y, z) quelconque ee de R3 ? (8.4) Soit une application linaire B : R3 C[X] 2 telle que B(1, 0, 0) = (1 + i) + (2 i)X + iX 2 , e ee B(0, 1, 0) = i + (1 + i)X + X 2 et B(0, 0, 1) = X + (1 + i)X 2 . Que vaut B(a, b, c) pour un lment (a, b, c) quelconque de R3 ? (8.5) Soient E et F deux espaces vectoriels sur un corps K. Prouvez que L(E, F ), lensemble des application linaires E F est un sous-espace vectoriel de lespace F (E; F ) de toutes les fonctions e E F. (8.6) Soit une application linaire C : R2 L(R2 , R) telle que e C(1, 0) (1, 0) = 2 C(0, 1) (1, 1) = 6 C(1, 0) (0, 1) = 10 C(0, 1) (0, 1) = 5.

Dcrire limage par C dun lment (x, y) quelconque de R2 . e ee (8.7) Dmontrez que la compose de deux applications linaires est encore une application linaire. e e e e (8.8) (pour aller plus loin) On consid`re un espace vectoriel E et une application linaire A : e e E E. On suppose que pour un certain n N, An = 0 tandis que An1 = 0 (An = A A . . . A).
n fois

e e Dmontrez que A0 = I, A, . . . , An1 sont linairement indpendants dans lespace L(E, E). e e (8.9) Vriez que loprateur de drivation C i ]a, b[; R C i1 ]a, b[; R est une application linaire. e e e e (8.10) Soient un corps K et a1 , . . . , an K. Dmontrez que la fonction A : K[X] K n : P P (a1 ), . . . , P (an ) est une application linaire. (Vous pouvez donner une dmonstration directe, ou utiliser une gnralie e e e sation de lexercice 8.17).

8. NOTIONS FONDAMENTALES

58

(8.11) Soient E, F, G, H, quatre espaces vectoriels sur un corps K. Dmontrez que si A : E F et e B : G H sont des applications linaires, alors lapplication e C : E G F H : (e, g) (A(e), B(g)) est une application linaire (pour la dnition de , voir exercice 3.5). e e (8.12) Montrez que loprateur de conjugaison C C : z z est une application linaire si C est e e considr comme un espace vectoriel sur R, mais quelle ne lest plus si C est considr comme ee ee un espace vectoriel sur C. z e e Montrez que lapplication A : C2 C2 : (z1 , z2 ) (1 +iz2 , z1 z2 ) est linaire si lon consid`re e C2 comme espace vectoriel sur R, mais quelle ne lest plus si lon consid`re C2 comme espace vectoriel sur C. e e Si F : Cn Cm est une application linaire lorsque lon consid`re Cn et Cm comme espaces vectoriels sur C, alors F sera-t-elle encore linaire si lon consid`re Cn et Cm comme espaces e e vectoriels sur R ? Et si lon consid`re Cn comme espace vectoriel sur C et Cm comme espace e vectoriel sur R ? (8.13) (prrequis) Soient A et B, deux ensembles quelconques et f : A B, une fonction ; on e suppose que le domaine de f est A (tout point de A a une image). Ecrire des formules mathmatiques e qui signient que (1) f est injective, (2) f est surjective, (3) f est bijective, (4) f nest pas injective, (5) f nest pas surjective. Quest-ce que limage de f ? (8.14) (pour aller plus loin) Soient A et B, deux ensembles quelconques, et f : A B, une fonction. u Dmontrez que si f est injective alors il existe une fonction g : B A telle que g f = idA (o` e e idA est la fonction identit A A : x x). Dmontrez que si f est surjective alors il existe une fonction g : B A telle que f g = idB . e (8.15) Voici quelques fonctions entre des espaces vectoriels rels. Montrez que ces fonctions sont e linaires. Calculez-en le noyau et limage. e A : F (R; R) R : f f(a), o` a est un rel x ; u e e B : R4 R2 : (x1 , x2 , x3 , x4 ) (x1 , x3 ) ;
1

C : C [0, 1]; R R : f
0

f(x)dx ;

u D : C [1, 1]; R C [1, 1]; R : f g, o` (x [1, 1])(g(x) = xf (x)) ; E : F (R; R) F(R; R) : f g, o` (x R)(g(x) = 1 (f(x) f(x))) ; u 2 F : R4 C (R; R) : (x1 , x2 , x3 , x4 ) f, o` (t R)(f(t) = x1 et+1 + x2 et t + x3 (t + 1)et + x4 et+2 ). u (8.16) Les applications suivantes, entre espaces vectoriels rels, sont-elles linaires ? Lorsque cest le e e cas, donnez-en le noyau, limage et le rang. A : R[X] B : R[X] C : R[X]
2 2 2

R[X] R[X] R[X]

3 2 4

: P Q, o` (x R)(Q(x) = x.P (x)) ; u : P Q, o` (x R)(Q(x) = P (x + 1)) ; u : P Q, o` (x R)(Q(x) = x2 .P (x) P (x)) ; u

D : R2 R2 : (x, y) (x + 1, y + 1) ; E : R2 R2 : (x, y) (3(x + 1) 2(y + 2) + 1, (y 3) + 3(x + 2) 3) ; F : R2 R2 : (x, y) (x2 , y2 ) ; G : R2 R2 : (x, y) (ex , ey ) ; H : F (R; R) I : R[X]
2 2

F(R; R) : (f, g) f.g ;

R3 : P (P (1), P (2), P (3)) ;

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

59

J : R[X]

R3 : P (P (1), P (1), P (0));

K = L D, o` L : R2 R2 : (x, y) (x + y 2, 2x + y 3). u (8.17) Soient E, F, G, des espaces vectoriels sur un corps K, et A : E F et B : E G des applications linaires. Montrez que lapplication C : E F G : x (A(x), B(x)) est linaire. e e Dterminez Ker C et Im C. e (8.18) Soient un espace vectoriel E et deux sous-espaces vectoriels V et W . Si E = V W , tout x E scrit de mani`re unique comme somme dun vecteur pV (x) V et dun vecteur pW (x) W . e e e Montrez que les applications pV : E V et pW : E W sont linaires et surjectives. Montrez que Im pV = Ker pW = V et que Im pW = Ker pV = W . (8.19) (pour aller plus loin) Appliquez lexercice 8.18 pour dmontrer la proprit suivante e ee (rciproque de lexercice 8.17). Soient E, F, G, trois espaces vectoriels sur un corps K et C : E e e F G, une application linaire. Si x E, notons C(x) = (ax , bx). Dmontrez que les fonctions e e A : E F : x ax et B : E G : x bx sont des applications linaires. (8.20) Avec les notations de la proposition 8.3, page 55, lensemble u + Ker A est-il un sous-espace vectoriel de E ? (8.21) Donnez une autre preuve pour lexercice 6.4, page 42, en considrant A et B comme des e matrices reprsentant des applications linaires. e e (8.22) Soient deux espaces vectoriels E et F sur un corps K, et une application linaire A : E F . e Dmontrez les armations suivantes : e A est injective ssi limage par A de nimporte quelle suite libre est encore une suite libre. A est surjective ssi limage par A de nimporte quelle suite gnratrice de E est une suite e e gnratrice de F . e e

9. Construction dapplications linaires e


9.1. Principe de construction Soient E et F deux espaces vectoriels sur un mme corps K. On suppose que E est de dimension e nie. 9.1. Thor`me. Soit (e1 , . . . , en ) une base de E et soit (v1 , . . . , vn ) une suite quelconque de e e vecteurs de F . Il existe une et une seule application linaire A : E F telle que A(ei ) = vi pour tout e i = 1, . . . , n. Cette application satisfait Im A = sev v1 , . . . , vn et Ker A = {e1 x1 + + en xn | v1 x1 + + vn xn = 0}. De plus, lapplication A est injective si et seulement si (v1 , . . . , vn ) est une suite libre ; elle est surjective e e e si et seulement si (v1 , . . . , vn ) est une suite gnratrice et, par consquent, elle est bijective si et seulement si la suite (v1 , . . . , vn ) est une base de F . Dmonstration. Existence de A : Tout x E scrit dune et dune seule mani`re comme e e e combinaison linaire de la base (e1 , . . . , en ) ; soit e x = e1 x1 + + en xn . On dnit une application A : E F en posant e A(x) = v1 x1 + + vn xn . Il est clair que pour lapplication A ainsi dnie, on a bien A(ei ) = vi pour tout i = 1, . . . , n. Il sut e donc de prouver que A est linaire. Soient e x = e1 x1 + + en xn et y = e1 y1 + + en yn

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

60

des vecteurs de E. On a alors, par dnition de A, e A(x) = v1 x1 + + vn xn et, par ailleurs, pour , K, x + y = e1 (x1 + y1 ) + + en (xn + yn ), do`, toujours par dnition de A, u e A(x + y) = v1 (x1 + y1 ) + + vn (xn + yn ). Comme v1 (x1 + y1 ) + + vn (xn + yn ) = (v1 x1 + + vn xn ) + (v1 y1 + + vn yn ) = A(x) + A(y), et A(y) = v1 y1 + + vn yn

on a bien A(x+y) = A(x)+A(y), comme annonc. Les descriptions de Im A et de Ker A rsultent e e directement de la dnition de A. e Unicit de A : Si B : E F est une application linaire telle que B(ei ) = vi pour tout i = e e 1, . . . , n, alors pour tout x = e1 x1 + + en xn E on a B(x) = B(e1 )x1 + + B(en )xn = v1 x1 + + vn xn . En comparant avec la dnition de lapplication A ci-dessus, on voit que B(x) = A(x) pour tout e x E, donc B = A. Injectivit de A : Dapr`s la description de Ker A, on voit tout de suite que A est injective si la e e ne suite (v1 , . . . , vn ) est libre, puisqualors la relation v1 x1 + + vn xn = 0 entra x1 = = xn = 0. Inversement, si la suite (v1 , . . . , vn ) nest pas libre, soit v1 1 + + vn n = 0, e les scalaires 1 , . . . , n ntant pas tous nuls ; alors e1 1 + + en n est un vecteur non nul du noyau de A, donc A nest pas injective. Surjectivit de A : Comme Im A = sev v1 , . . . , vn , on a Im A = F si et seulement si (v1 , . . . , vn ) e est une suite gnratrice de F . e e 2 9.2. Inversibilit des applications linaires e e Le principe de construction de la section prcdente permet en particulier de construire des inverses e e a ` gauche ou a droite de certaines applications linaires. ` e Une application linaire A : E F est inversible a gauche (resp. inversible a droite) sil existe e ` ` une application linaire B : F E, appele inverse de A ` gauche (resp. inverse de A ` droite), telle e e a a e que B A = IE (resp. A B = IF ). Lapplication A est inversible sil existe une application linaire B : F E, appele inverse de A, telle que B A = IE et A B = IF . e Bien entendu, si une application linaire est inversible, elle est ` la fois inversible a gauche et e a ` inversible ` droite. Rciproquement, si une application linaire A est inversible a gauche et a droite, a e e ` ` alors elle est inversible, et elle admet un unique inverse ` gauche, qui est aussi lunique inverse a droite a ` et donc lunique inverse. En eet, si lon a B A = IE et A B = IF , alors on peut calculer la e e compose B A B de deux mani`res direntes : e (B A) B = IE B = B et B (A B ) = B IF = B e donc B = B . Linverse dune application A (inversible !) est note A1 . 9.2. Proposition. Pour quune application linaire soit inversible a gauche (resp. a droite), il e ` ` faut et il sut quelle soit injective (resp. surjective) ; pour quune application linaire soit inversible, e il faut et il sut quelle soit bijective. Dmonstration. Pour la dmonstration, nous supposerons que les espaces de dpart et darrive e e e e sont de dimension nie, quoique lnonc soit vrai sans cette hypoth`se. Soit A : E F une application e e e linaire, soit (e1 , . . . , en ) une base de E et soit vi = A(ei ) pour tout i = 1, . . . , n. e

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

61

Si A est inversible a gauche, soit B un inverse ` gauche de A. Si x, x E sont tels que A(x) = ` a A(x ), alors en appliquant B aux deux membres, on trouve B A(x) = B A(x ) et comme B A = IE on en dduit x = x , donc A est injective. e Rciproquement, si A est injective, alors dapr`s le thor`me prcdent la suite (v1 , . . . , vn ) est e e e e e e e e libre. Soit (v1 , . . . , vm ) (m n) une base de F qui prolonge cette suite libre. Le Thor`me 9.1 montre quil existe une application linaire B : F E telle que B(vi ) = ei pour i = 1, . . . , n et B(vi ) = 0 e pour i = n + 1, . . . , m. On a alors B A(ei ) = ei = IE (ei ) pour tout i = 1, . . . , n.

Comme une application linaire est dtermine de mani`re unique par les images des vecteurs dune e e e e base, dapr`s le Thor`me 9.1, on a donc B A = IE . e e e Si A est inversible a droite, soit B un inverse de A ` droite. Pour tout y F , on peut trouver ` a x E tel que A(x) = y : il sut en eet de choisir x = B(y), car alors A(x) = A B(y) = IF (y) = y; cela montre que A est surjective. Rciproquement, si A est surjective, alors le Thor`me 9.1 montre que la suite (v1 , . . . , vn ) est e e e gnratrice ; on peut donc en extraire une base de F . Pour la commodit des notations, supposons e e e n). Le quune telle base est forme des premiers vecteurs de la suite, soit (v1 , . . . , vm ) (avec m e Thor`me 9.1 montre quil existe une application linaire B : F E telle que B(vi ) = ei pour tout e e e i = 1, . . . , m. On a alors A B(vi ) = vi = IF (vi ) pour tout i = 1, . . . , m, do` on conclut comme prcdemment que A B = IF . u e e 2

Remarquons que la construction des applications inverses a gauche ou a droite ci-dessus fait intervenir ` ` e le choix dune base de F qui est extraite ou qui prolonge la suite (v1 , . . . , vn ). Ce choix ntant gnralement pas unique, linverse ` gauche ou a droite dune application linaire nest pas unique, en e e a ` e gnral. e e Nous pouvons a prsent complter le Corollaire 8.5 (p. 57) de la mani`re suivante : ` e e e 9.3. Corollaire. Soit A : E F une application linaire. On suppose dim E = n et dim F = m e (avec m, n nis). Les conditions (1) ` (4) sont quivalentes et, de mme, les conditions (1) ` (4) a e e a sont quivalentes : e (1) (2) (3) (4) A est injective A est inversible a gauche ` null A = 0 rang A = n (1) (2) (3) (4) A est surjective A est inversible a droite ` null A = n m rang A = m

En particulier, si n = m, alors toutes les conditions ci-dessus sont quivalentes entre elles, et sont e encore quivalentes ` : A est inversible et a : A est bijective. e a ` 9.4. Corollaire. Soient E, F deux espaces vectoriels de dimension nie. Sil existe un isomorphisme A : E F, alors dim E = dim F . Rciproquement, si dim E = dim F , alors il existe un isomorphisme A : E F . e Dmonstration. Soit dim E = n et dim F = m, comme dans lnonc prcdent. Sil existe un e e e e e isomorphisme A : E F , alors de linjectivit de A il dcoule : rang A = n et de la surjectivit de A e e e on tire rang A = m, donc n = m. Rciproquement, si n = m, soit e = (e1 , . . . , en ) et f = (f1 , . . . , fn ) des bases de E et F respectie vement. Le principe de construction (Thor`me 9.1) montre lexistence dune application A : E F e e e e e e telle que A(ei ) = fi pour tout i = 1, . . . , n. Comme f est une base, le mme thor`me tablit la bijectivit de A, donc A est un isomorphisme. e 2

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

62

9.3. Reprsentation matricielle des applications linaires e e Soient E et F deux espaces vectoriels de dimension nie sur un mme corps K. Soit e = e ` e (e1 , . . . , en ) une base de E et f = (f1 , . . . , fm ) une base de F . A toute application linaire A : E F , on associe une matrice f (A)e K mn par
m mn = (ai,j ) f (A)e K 1 i m 1 j n

si A(ej ) =
i=1

fi ai,j .

e e ` La j-`me colonne de la matrice f (A)e est donc forme des coordonnes par rapport a la base f de e e e e e A(ej ), limage par A du j-`me vecteur de la base e. Comme une application linaire est dtermine de mani`re unique par les images des vecteurs dune base, lapplication linaire A est dtermine de e e e e e e mani`re unique par la matrice f (A)e (les bases e et f tant xes). e Cette matrice permet de calculer les coordonnes de limage dun vecteur quelconque de E. En e n n u eet, si x = j=1 ej xj , alors en appliquant A on obtient A(x) = j=1 A(ej )xj , do`, en substituant m A(ej ) = i=1 fi ai,j , fi ai,j xj A(x) =
1 i m 1 j n

ou encore
m

fi

ai,j xj .
n j=1 ai,j xj .

A(x) =
i=1

j=1

La i-`me coordonne de A(x) par rapport a la base f est donc e e ` on a donc


n

En posant y = A(x) F ,

yi =
j=1

ai,j xj

pour i = 1, . . . , m. x1 . . . . xn

Cette formule peut aussi sexprimer par un produit matriciel : a1,1 a1,n y1 . . . . . = . . . . ym am,1 am,n

e ` En dsignant par e (x) (resp. f (y)) la matrice-colonne des coordonnes de x par rapport a la base e e (resp. de y par rapport a la base f), on a donc `
f (y)

= f (A)e e (x)

o` y = A(x). u

9.5. Proposition.

1. Pour tout scalaire ,


f (A)e

= f (A)e .

2. Si A et B sont deux applications linaires de E vers F , e


f (A

+ B)e = f (A)e + f (B)e .

e 3. Soit g = (g1 , . . . , g ) une base dun troisi`me espace vectoriel G. Si A : E F et B : F G sont des applications linaires, e
g (B

A)e = g (B)f f (A)e .

Dmonstration. Vrions seulement la derni`re proprit (les deux autres se vrient de mae e e ee e ni`re semblable, quoique plus simple). Soient e
f (A)e

= (ai,j )

1 i m 1 j n

et

g (B)f

= (bi,j )

1 i 1 j m

les matrices de A et de B respectivement, de sorte que


m

()

A(ej ) =
i=1

fi ai,j

et

B(fj ) =
i=1

gi bi,j .

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

63

En appliquant B aux deux membres de la premi`re galit, et en remplaant lindice de sommation i e e e c par k, on trouve
m

B A(ej ) =
k=1

B(fk )ak,j .

e e e En substituant dans le second membre lexpression de B(fk ) que donne la deuxi`me galit (), on obtient
m

B A(ej ) =
1 i 1 k m

gi bi,k ak,j =
i=1

gi
k=1

bi,k ak,j

Cette derni`re galit montre que la matrice de B A par rapport aux bases e et g est e e e
m g (B A)e = k=1

bi,k ak,j

On reconna dans le deuxi`me membre lexpression de la matrice produit des matrices g (B)f = (bi,j ) t e e e 2 et f (A)e = (ai,j ), et la dmonstration est donc acheve. Variante : On peut aussi dmontrer la troisi`me proprit ci-dessus en utilisant la multiplication par e e ee e blocs : comme les colonnes de la matrice f (A)e sont les coordonnes de A(e1 ), . . . , A(en ) par rapport a ` la base f, la dcomposition de f (A)e par colonnes est e
f (A)e

f (A(e1 ))

f (A(en ))

. f (A(en )) .

D`s lors, le produit de g (B)f et f (A)e peut se calculer par blocs : e


g (B)f

f (A)e =

g (B)f

f (A(e1 ))

g (B)f

Or, la formule encadre ci-dessus montre que pour tout i = 1, . . . , n, e


g (B)f

f (A(ei )) = g (B A(ei )).

e D`s lors, les colonnes de la matrice produit g (B)f f (A)e sont les coordonnes de BA(e1 ), . . . , BA(en ) e 2 par rapport a la base g ; cette matrice est donc g (B A)e . ` Montrons pour terminer que le calcul du rang (ou, ce qui revient au mme, de la nullit) dune e e application linaire peut se faire par lintermdiaire de la matrice de lapplication par rapport a e e ` nimporte quelles bases : 9.6. Proposition. Soient e et f des bases despaces vectoriels E et F respectivement. Pour toute application linaire A : E F , e rang A = rang f (A)e . ee Dmonstration. Comme e = (e1 , . . . , en ) est une base de E, les lments de limage de A sont e de la forme A(x) = A(e1 x1 + + en xn ) = A(e1 )x1 + + A(en )xn , donc Im A = sev A(e1 ), . . . , A(en ) . (Cela rsulte aussi du Thor`me 9.1). Soit f : F K m lisomorphisme qui envoie tout vecteur de F e e e sur ses coordonnes par rapport a la base f. On a e `
f (Im A)

= sev

f (A(e1 )), . . .

, f (A(en )) ; .

` or, les coordonnes de A(e1 ), . . . , A(en ) par rapport a la base f sont les colonnes de f (A)e , donc e
f (Im A)

=C

f (A)e

e D`s lors, f tablit un isomorphisme entre Im A et lespace des colonnes de f (A)e . Les dimensions de e ces deux espaces sont donc gales, dapr`s le Corollaire 9.4 : e e dim Im A = dim C
f (A)e

ce qui tablit lgalit du rang de A et du rang de la matrice f (A)e (vu comme dimension de lespace e e e engendr par les colonnes). e 2

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

64

9.4. Changements de base Il est important de remarquer que ce qui prc`de sapplique galement dans le cas o` F = E, et e e e u e e o` A = IE est lidentit sur E. Si les bases e et f sont les mmes, alors un simple calcul montre que u lon obtient la matrice unit : e e (IE )e = In ; e e cependant, si f = e, alors la matrice f (IE )e nest pas la matrice unit ; cest la matrice dont la j-`me ` colonne est forme des coordonnes du vecteur ej (= IE (ej )) par rapport a la base f. Cette matrice e e e permet de contrler les changements de base, de la mani`re suivante : si f (x) et e (x) dsignent les o e matrices-colonnes des coordonnes dun mme vecteur x E par rapport aux bases f et e respectivee e ment, alors la formule encadre plus haut (p. 62) donne (dans le cas particulier o` A = IE ) e u
f (x)

= f (IE )e e (x)

pour tout x E.

Par ailleurs, si A : E F est une application linaire et si e, e dsignent deux bases de E et f, f e e deux bases de F , alors les matrices de A par rapport aux bases e et f dune part, e et f dautre part sont lies par la formule e f (A)e = f (IF )f f (A)e e (IE )e . Cette formule se dduit en appliquant la Proposition 9.5(3) au cas o` lapplication compose est e u e A = IF A IE . e e Remarquons pour terminer que toute matrice de changement de base e (IE )e est rguli`re : 9.7. Proposition. Soient e et e deux bases dun espace vectoriel E de dimension n (nie). La e e matrice de changement de base e (IE )e est rguli`re, et
1 e (IE )e

= e (IE )e .

De plus, pour toute matrice rguli`re P K nn il existe des bases f et f de E telles que e e P = e (IE )f e (IE )e = e (IE )e = In et P = f (IE )e . (IE )e e (IE )e = e (IE )e = In .

Demonstration. La Proposition 9.5(3) donne


e (IE )e

et

Cela tablit la premi`re partie de lnonc. e e e e e e e Soit P = (pij )1 i,j n K nn une matrice rguli`re. On dnit une suite f = (f1 , . . . , fn ) par
n

()

fj =
i=1

ei pij

pour j = 1, . . . , n.

Montrons que la suite f est libre : si f1 1 + + fn n = 0 pour certains scalaires 1 , . . . , n K, alors


n n

ei pij
j=1 i=1

j = 0,

ce que lon peut rcrire ee


n

ei

pij j = 0.

i=1

j=1

Comme la suite e est libre (puisque cest une base de E), cette relation entra ne
n

pij j = 0
j=1

pour tout i = 1, . . . , n,

donc

1 . P . = 0. . n

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

65

Comme P est rguli`re, on en dduit 1 = = n = 0. La suite f est donc libre ; comme dim E = n, e e e cest une base de E. Par ailleurs, la relation () montre que lon a P = e (IE )f . De la mme mani`re, on peut trouver une base f de E telle que e e P 1 = e (IE )f . En inversant les deux membres, on obtient P = f (IE )e . 2

Dterminant dun oprateur linaire. Les formules de changement de base rendent possible la e e e dnition du dterminant dun oprateur linaire sur un espace de dimension nie. e e e e Soit A : E E un oprateur linaire sur un espace de dimension nie et soient e, e deux bases e e de E. Dapr`s la formule de changement de base et la proposition prcdente on a alors e e e
e

(A)e

= =

e e

(IE )e e (A)e e (IE )e (IE )e e (A)e e (IE )1 . e

Dapr`s le corollaire 7.4, on a donc e e dt e (A)e = dt e (A)e , e ce qui montre que le dterminant de la matrice de A par rapport a une base de E ne dpend pas du e ` e choix de la base. On peut donc poser dt A = dt e (A)e , e e o` e est une base quelconque de E. u 9.8. Proposition. Soit E un espace vectoriel de dimension nie. 1. Pour A, B : E E deux oprateurs linaires sur E, e e dt A B = dt A dt B. e e e 2. dt IE = 1. e 3. Un oprateur linaire A : E E est inversible si et seulement si dt A = 0. e e e Dmonstration. Soit e = (e1 , . . . , en ) une base de E. e 1. Comme la compose des applications linaires correspond au produit des matrices qui les repre e e sentent (Proposition 9.5(3)), on a
e (A

B)e = e (A)e e (B)e .

Vu la multiplicativit du dterminant, la proprit sen dduit en prenant le dterminant des deux e e ee e e membres. e 2. Cela rsulte des galits e (IE )e = In et dt In = 1. e e e 3. Dapr`s le Corollaire 9.3, loprateur A est bijectif si et seulement si rang A = n. Or, rang A = e e rang e (A)e par la Proposition 9.6, et la Proposition 7.3 (p. 46) montre que rang e (A)e = n si et 2 seulement si dt e (A)e = 0. e

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

66

Exercices (9.1) Avec les notations du thor`me 9.1, page 59, que peut-on dire, dune part, de lexistence de A e e et, dautre part, de son unicit, si e e e e la suite (e1 , . . . , en ) est libre mais peut-tre pas gnratrice ; e e e la suite (e1 , . . . , en ) est gnratrice mais peut-tre pas libre. (9.2) Soit L : E F une application linaire entre deux espaces vectoriels E et F . Peut-on dterminer e e limage de nimporte quel x E si lon conna t u 1. L(e1 ), . . . , L(en ), o` (e1 , . . . , en ) est une base ? u e e 2. L(e1 ), . . . , L(en ), o` (e1 , . . . , en ) est une suite gnratrice ? u 3. L(e1 ), . . . , L(en ), o` (e1 , . . . , en ) est une suite libre ? (9.3) Existe-t-il une application linaire A : R3 R4 telle que A(1, 1, 3) = (1, 1, 1, 1), A(1, 1, 2) = e (1, 1, 1, 0) et A(1, 1, 1) = (1, 1, 0, 0) ? Existe-t-il une application linaire A : R3 R4 telle que A(1, 1, 3) = (1, 1, 1, 1) et A(1, 1, 2) = e (1, 1, 1, 0) ? Existe-t-il une application linaire A : R3 R4 telle que A(1, 1, 3) = (1, 1, 1, 1), A(1, 1, 2) = e (1, 1, 1, 0) et A(1, 0, 0) = (1, 1, 0, 0) ? e (9.4) L(R2 , R3 ), lensemble des applications linaires R2 R3 est un espace vectoriel. Donnez-en une base. (9.5) Dans la deuxi`me partie de la dmonstration de la proposition 9.2, aurait-on pu choisir une e e autre valeur que 0 pour les B(vi ) tels que i {n + 1, . . . , m} ? (9.6) Les applications A, B et C des exercices 8.3, 8.4 et 8.6 (page 57) sont-elles inversibles ` gauche ? a Sont-elle inversibles ` droite ? Dnissez explicitement de tels inverses, lorsquils existent. a e (9.7) (pour aller plus loin) Soient deux espaces vectoriels E et F de dimension nie sur un corps K, et une application linaire A : E F . Dmontrez les armations suivantes : e e Si dim E > 0 et que A poss`de un unique inverse ` gauche, alors elle est bijective. e a Si dim F > 0 et que A poss`de un unique inverse a droite, alors elle est bijective. e ` (9.8) (prrequis) Soient E et F deux espaces vectoriels de dimension nie sur un mme corps K, e e e une base de E et f une base de F . Si A : E F est une application linaire, comment construit-on e e e la matrice f (A)e qui reprsente A dans les bases e et f ? Pourquoi dit-on que f (A)e reprsente A ? Justiez la construction de f (A)e . (9.9) Soit A : R3 R[X]
1,

lapplication linaire dnie par sa matrice e e


u (A)c

1 2 0 1

0 3

a par rapport a la base usuelle u de R[X] 1 et ` la base canonique c de R3 . ` Que vaut A(x, y, z), pour un lment quelconque (x, y, z) R3 ? ee (9.10) Soit A : R[X]
2

R2 , lapplication linaire dnie par sa matrice e e


f (A)e

1 2 0 0 1 3

a par rapport a la base e = (1, 1 + X, X + X 2 ) de R[X] 2 et ` la base f = ((2, 0), (0, 1)) de R2 . ` ee Que vaut A(a0 + a1 X + a2 X 2 ), pour un lment quelconque a0 + a1 X + a2 X 2 R[X] 2 ?

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

67

(9.11) Soit A : C3 C3 , lapplication linaire dnie e e 2i i e (A)f = i

par sa matrice i i 0 0 1 0

par rapport aux bases e = (1, 0, 0), (1, 1, 0), (1, 1, 1) et f = (i, 1, 1), (1, 1, 0), (i, 0, 0) de C3 (comme espace vectoriel complexe). ee Que vaut A(z1 , z2 , z3 ), pour un lment quelconque (z1 , z2 , z3 ) C3 ? (9.12) Voici quelques applications linaires entre des espaces vectoriels rels. Donnez-en les reprsene e e tations matricielles par rapport aux bases usuelles de ces espaces vectoriels. A : R3 R2 : (x, y, z) (3x 2y + z, x + 3y) ; B : R2 R3 : (x, y) (x y, x + y, 2x) ; C: D: E: F: R3 R : (x, y, z) x y + z ; R R3 : x (3x, x, 2x) ; C C: z z; R[X] 4 R[X] 3 : P P ;
4

G : R[X]

R[X]

:P P ; a b c d a+b b+c c+d d+a ;

H : R22 R22 : I : R[X] J : R[X] K : R[X] L : R[X] de R.


2 3 2 2

R[X]

: P X 2 .P P ;
2 0

R:P

P (x)dx ;

R[X] 2 : P Q, o` (x R)(Q(x) = P (x + 1)). u 3 R : P (P (a1 ), P (a2 ), P (a3)), o` a1 , a2 et a3 sont trois lments quelconques u ee

(9.13) Soit E un espace vectoriel rel de dimension n, e une base de E, et c la base canonique de e e ` a Rn . Quelle est la matrice c (e )e qui reprsente e : E Rn : x e (x) par rapport a la base e et ` la base c ? u (9.14) Donnez la matrice qui reprsente, dans la base canonique de R3 , lapplication B A, o` A et e B sont dnies dans lexercice 9.12. Calculez cette matrice de deux mani`res direntes. e e e (9.15) Soit A : C2 C2 : (z1 , z2 ) (z1 + iz2 , z1 iz2 ). u ee Calculez c (A)c , o` c est la base canonique de C2 , considr comme espace vectoriel complexe. u ee e Calculez u (A)u , o` u est la base usuelle de C2 , considr comme espace vectoriel rel. e e (9.16) Soit A : R22 R2 , lapplication linaire dnie par A A 1 0 0 0 1 1 0 2 = (2, 3) = (0, 0) A A 0 1 0 0 0 3 2 1 = (1, 4) = (2, 2).

u Calculez c (A)u , o` c est la base canonique de R2 et u la base usuelle de R22 . a b Que vaut A(M ), o` M = u est une matrice quelconque de R22 ? c d e (9.17) Soit E un espace vectoriel et e = (e1 , e2 , e3 , e4 ) une base de E. On consid`re lapplication linaire A : E E dnie par e e A(e1 ) = e1 + e2 , A(e2 ) = 2e2 + e3 , A(e3 ) = 3e3 + e4 , A(e4 ) = 4e4 . Montrez que A(e) = A(e1 ), A(e2 ), A(e3 ), A(e4 ) est une base de E. Calculez e (A)e et
A(e) (A)A(e) .

Pourquoi ces deux matrices sont-elles identiques ?

9. CONSTRUCTION DAPPLICATIONS LINEAIRES

68

(9.18) (pour aller plus loin) Soit A : R[X] A(X 2 ) =

R22 , lapplication linaire dnie par e e

0 1 1 0 , A(X 3 ) = , 1 0 0 1 Ker A = {a0 + a1 X + a2 X 2 + a3 X 3 | a0 a1 a2 = 0 et a0 a3 = 0}. u Calculez u (A)u , o` u est la base usuelle de R22 et u celle de R[X]
3.

(9.19) (pour aller plus loin) Soit E un espace vectoriel de dimension nie et A : E E une application linaire telle que Im f Ker f. e Montrez que rangf
1 2

dim E. telle que e (A)e soit une matrice de la forme 0 a1k . . . a1n . . . . . . . . . 0 alk . . . aln . ... 0 . . . ... 0

Montrez quil existe une base e de E 0 ... . . . 0 ... 0 . . . 0

(9.20) Dans R2 , on consid`re la base canonique c et la base e = (1, 1), (1, 1) . Calculez la matrice e u de changement de coordonnes e (IR2 )c . Calculez e (A)e , o` A : R2 R2 : (x, y) (4x 2y, 2x + 4y). e e (9.21) Dans R3 , on consid`re la base canonique c, ainsi que les bases f et g suivantes : f = (1, 1, 1), (1, 1, 0), (1, 0, 0) g = (1, 1, 0), (2, 1, 2), (1, 1, 2) . Calculez les matrices de changements de coordonnes f (IR3 )c et f (IR3 )g . e Si A : R3 R3 : (x, y, z) (3x 2y + z, x + 3y, x y + z), calculez c (A)f et f (A)g . ee (9.22) Soient f et g les deux bases suivantes de C22 , considr comme espace vectoriel complexe : f= g= 1 0 0 1 i 0 0 0 , , 1 0 1 0 0 1 1 0 , , 0 0 1 1 , , 1 0 1 0 .

0 0 i 0

0 0 0 1

Calculez la matrice de changement de coordonnes f (IC22 )g . e

CHAPITRE V

Espaces euclidiens
Dans certains espaces vectoriels, tels que lespace usuel, il est possible de calculer la longueur dun vecteur ou langle entre deux vecteurs au moyen dun produit scalaire. Cette notion, dj` aborde dans ea e e le cours danalyse MATH11401, fait lobjet du prsent chapitre. Insistons cependant sur le fait que la notion centrale est ici celle de produit scalaire, alors que dans le cours danalyse la notion fondamentale est celle de norme, et quil existe sur des espaces vectoriels des normes qui ne se dduisent pas dun e produit scalaire (comme par exemple les normes | |1 et | | sur Rn ).

10. Produits scalaires


10.1. Dnitions e Une forme bilinaire symtrique sur un espace vectoriel E sur le corps R est une application e e (|) : E E R satisfaisant les conditions suivantes : 1. Bilinarit : pour x, y, z E et , R, e e (x + y|z) (z|x + y) 2. Symtrie : pour x, y E, e (y|x) = (x|y). Un produit scalaire est une forme bilinaire symtrique qui poss`de de plus la proprit suivante : e e e ee 3. Dnie positivit : pour x E, x = 0, e e (x|x) > 0. La bilinarit entra par ailleurs e e ne (0|0) = 0. Un espace muni dun produit scalaire est appel espace euclidien. e Dautres notations sont parfois utilises pour le produit scalaire (x|y), comme par exemple e xy ou (x, y) ou x, y ou x|y . = (x|z) + (y|z). = (z|x) + (z|y) .

Exemples. e A. Le produit scalaire usuel sur Rn est dni par (x1 , . . . , xn ) | (y1 , . . . , yn ) = x1 y1 + + xn yn . (Voir [An, p.24]). Dautres formes bilinaires symtriques peuvent tre dnies de la mani`re e e e e e e a suivante : soit A Rn une matrice symtrique, cest-` dire telle que At = A. On note les lments de Rn en colonnes et on pose, pour x, y Rn = Rn1 , ee (x|y)A = xt A y. e ee e La bilinarit de (|)A rsulte des proprits du produit matriciel et lhypoth`se que A est e e symtrique assure e pour x, y Rn . (y|x)A = (x|y)A
1 Les rfrences a louvrage Analyse Fondements, techniques, volution (2e dition) de Jean Mawhin (De ee ` e e Boeck-Universit, Paris-Bruxelles, 1997) seront indiques par [An]. e e

69

10. PRODUITS SCALAIRES

70

Pour certains choix de A, la forme (|)A est en outre dnie positive et dnit d`s lors un e e e e e e e produit scalaire sur Rn , dirent du produit scalaire usuel. Des crit`res de dnie positivit sont tablis dans le chapitre VII. e u ee B. Dans lespace usuel EO (o` lon a choisi un point de rfrence O), on note dun vecteur x. Le produit scalaire canonique est dni par e (x|y) = x y cos = 1 ( x + y 2
2

la longueur

),

o` est langle entre les vecteurs x et y. u e e e e C. Soient a1 , . . . , an R des scalaires xs. On peut dnir une forme bilinaire symtrique sur lespace R[X] en posant
n

(P |Q) =
i=1

P (ai )Q(ai )

pour P, Q R[X].

` Nous laissons au lecteur le soin de montrer que si a1 , . . . , an sont distincts deux a deux, la o e restriction de cette forme au sous-espace R[X] n1 des polynmes de degr au plus n 1 est un produit scalaire. D. Sur lensemble C [0, 1]; R des fonctions continues sur lintervalle [0, 1], on peut dnir un e produit scalaire par
1

(f|g) =
0

f(x)g(x) dx.

Normes et distances. Dans un espace euclidien E, on dnit la norme dun vecteur x par e x = (x|x) R.

10.1. Proposition. Lapplication : E R satisfait les conditions qui dnissent une norme e (abstraite) au sens de lanalyse [An, p.20], a savoir : ` (i) (ii) (iii) (iv) x 0 pour tout x E. x pour x E et R. x + y pour x, y E. x = 0 entrane x = 0. x = || x+y

(Comparer ` la Proposition de [An, p.22]). a Dmonstration. La proprit (i) est claire, la proprit (ii) dcoule directement de la dnie e ee ee e e positivit du produit scalaire et la proprit (iii) rsulte de sa linarit. Pour tablir la proprit (iv) e ee e e e e ee (connue sous le nom dingalit triangulaire ou de Minkowski ), nous utiliserons le lemme suivant : e e 10.2. Lemme (Ingalit de Cauchy-Schwarz). Pour x, y E, e e |(x|y)| x y . Dmonstration. Considrons le vecteur tx +y E, o` t R est un param`tre variable. Dapr`s e e u e e la dnie positivit du produit scalaire, on doit avoir e e () (tx + y|tx + y) 0 quel que soit t.

Or, la bilinarit du produit scalaire permet de rcrire le membre de gauche sous la forme dun e e ee trinme du second degr en t : o e (tx + y|tx + y) = t2 (x|x) + 2t(x|y) + (y|y). Lingalit () montre que ce trinme en t ne peut pas avoir deux racines distinctes, donc son discrie e o minant est ngatif ou nul. Cela donne e (x|y)2 (x|x) (y|y) 0. 2

10. PRODUITS SCALAIRES

71

(De mani`re quivalente, on peut considrer le vecteur z = (x|x)y (x|y)x et calculer e e e (z|z) = (x|x) [(x|x) (y|y) (x|y)2 ]. Lingalit de Cauchy-Schwarz est claire si x = 0 et rsulte de (z|z) e e e 0 si x = 0.) On peut a prsent complter la dmonstration de la Proposition 10.1 en dmontrant la pro` e e e e prit (iv) : par dnition, on a ee e x+y
2

= (x + y|x + y) = (x|x) + 2(x|y) + (y|y). |(x|y)|

Or, par lingalit de Cauchy-Schwarz, e e (x|y) donc x+y


2

y ,
2

+2 x

y + y

= ( x + y )2 . 2

Vu la Proposition 10.1, on peut dnir une distance (vectorielle) entre deux vecteurs x, y E en e posant d(x, y) = x y R. (Voir [An, Proposition, p.678]). 10.2. Bases orthonormes e Dans lexemple B de la section prcdente, nous voyons que si deux vecteurs x et y sont orthogoe e naux au sens gomtrique du terme, alors leur produit scalaire est nul. Nous allons gnraliser cette e e e e notion a des espaces vectoriels plus abstraits par la dnition suivante : deux vecteurs x, y dun espace ` e euclidien E sont dits orthogonaux si (x|y) = 0. Comme (y|x) = (x|y), cette relation est symtrique. e Une base e = (e1 , . . . , en ) dun espace euclidien E est dite orthogonale si les vecteurs de base sont orthogonaux deux a deux2 : ` si i = j. (ei |ej ) = 0 Elle est dite orthonorme si de plus e ei = 1 pour tout i = 1, . . . , n.

e Si e = (e1 , . . . , en ) est une base orthogonale, alors la suite e = (e1 , . . . , en ) dnie par ei ei = ei est une base orthonorme. e Le lemme suivant montre que les produits scalaires sexpriment de mani`re particuli`rement simple e e en fonction des coordonnes par rapport a une base orthonorme. e ` e 10.3. Lemme. Soit e une base orthonorme dun espace euclidien E. Pour x, y E, e (x|y) = e (x)t e (y). Dmonstration. Soit x = e
n i=1 ei xi n i=1 ej yj ,

x1 . e (x) = . . xn

et y = et

de sorte que y1 . e (y) = . . . yn

En utilisant la bilinarit du produit scalaire, on trouve e e (x|y) =


n n

ei xi
i=1 j=1

ej yj =

xi (ei |ej )yj .


i,j=1

2 En

particulier, toute base rduite ` un lment est considre comme orthogonale. e a ee e e

10. PRODUITS SCALAIRES

72

Or, comme la base e est orthonorme, on a (ei |ej ) = ij (symbole de Kronecker), donc e y1 n . xi yi = x1 xn . . (x|y) = .
i=1

yn 2

Le principal rsultat de cette section est le suivant : e e 10.4. Theor`me. Tout espace euclidien de dimension nie non nulle admet une base orthonorme. e Dmonstration. Comme on peut toujours normer les vecteurs dune base en les divisant par e leur norme, il sut de prouver lexistence dune base orthogonale. Si lespace est de dimension 1, le thor`me est clair puisque toute base contient un seul vecteur et est donc orthogonale. On peut donc e e supposer dim E 2 et raisonner par induction, cest-`-dire supposer de plus que lnonc est vrai a e e pour les espaces euclidiens de dimension < dim E. Soit (e1 , . . . , en ) une base quelconque de E. Pour i = 2, . . . , n, posons (e1 |ei ) . (e1 |e1 ) Ces vecteurs sont dnis de mani`re ` tre orthogonaux a e1 . En eet, pour i = 2, . . . , n, on a e e ae ` (e1 |ei ) = 0. (e1 |ei ) = (e1 |ei ) (e1 |e1 ) (e1 |e1 ) ei = ei e1 ` e Par ailleurs, la suite (e1 , e2 , . . . , en ) est obtenue a partir de la suite (e1 , . . . , en ) par des oprations lmentaires (de type I) ; elle engendre donc aussi lespace E et est par consquent une base de E. ee e Par hypoth`se dinduction, le sous-espace V = sev e2 , . . . , en admet une base orthogonale e (e2 , . . . , en ), puisquil est de dimension n 1. Tout vecteur de E est somme dun multiple de e1 et dun vecteur de V , car (e1 , e2 , . . . , en ) est une base de E. D`s lors la suite (e1 , e2 , . . . , en ) engendre e E ; cest donc une base de E. On va prouver que cette base est orthogonale. ` Comme les vecteurs ei sont combilis de e2 , . . . , en , ils sont orthogonaux a e1 ; en eet, si ei = n j=2 ej j , alors
n

(e1 |ei ) =
j=2

(e1 |ej )j = 0

puisque (e1 |ej ) = 0 pour j = 2, . . . , n. (Voir aussi le Lemme 11.1 ci-dessous.) De plus, les vec` teurs e2 , . . . , en sont orthogonaux deux a deux par construction, donc (e1 , e2 , . . . , en ) est une base orthogonale de E. 2 Remarquons pour terminer que si e est une base orthonorme dun espace euclidien E de dimension e ` e ` n, alors lisomorphisme e : E Rn qui a tout vecteur de E associe ses coordonnes par rapport a e e est une isomtrie despaces euclidiens (Rn tant muni du produit scalaire usuel), dans le sens que e le produit scalaire de deux vecteurs x, y E est gal au produit scalaire usuel de leurs coordonnes e e e e (x), e (y). En eet, comme la base e est orthonorme, le Lemme 10.3 donne (x|y) = e (x)t e (y) Exercices (10.1) Prouvez que les applications suivantes sont des produits scalaires. (|)1 : Rn Rn R : (x1 , . . . , xn ), (y1 , . . . , yn ) (|)2 : R[X] n1 R[X] n1 R : (P, Q) xs, deux ` deux distincts. e a (|)3 : C [0, 1]; R C [0, 1]; R R : (f, g)
0 n i=1 1 n k=1

pour x, y E.

kxk yk .

P (ai )Q(ai ), o` a1 , . . . , an sont des rels u e

f(x)g(x)dx.

11. PROJECTIONS ORTHOGONALES

73

(10.2) Prouvez que (|) : Rnn Rnn R : (A, B) tr(At .B) est un produit scalaire (tr(M ) = n i=1 Mii ). e e (10.3) Soit S le sous-espace vectoriel de Rnn form des matrices symtriques. Prouvez que (|) : S S R : (A, B) tr(A.B) est un produit scalaire. Peut-on dduire ceci de lexercice 10.2 ? e e (10.4) Obtient-on encore un produit scalaire si lon remplace At par A dans la dnition de (|) dans lexercice 10.2 ? (10.5) On consid`re lapplication e (|) : C(R; R) C(R; R) R : (f, g) f()g() + f(/2)g(/2) + f(0)g(0). Montrez que (|) nest pas un produit scalaire. Soit V le sous-espace vectoriel de C(R; R) engendr par la fonction constante 1, la fonction sin e ` et la fonction cos. Montrez que la restriction (|)|V de (|) a V est un produit scalaire. e (10.6) Dans R22 muni du produit scalaire (|) dni par (A|B) = tr(At .B), quel est lorthogonal du sous-espace form des matrices symtriques ? e e (10.7) Prouvez que
n

(|) : R[X]
(i)

n R[X] (i)

R : (P, Q)
i=0

1 (i) P (0).Q(i)(0) i!

e e e est un produit scalaire (P et Q dsignent respectivement les drives dordre i de P et de Q). Pour n = 3, calculez lorthogonal du sous-espace vectoriel form des polynmes P tels que P (0) = 0 e o et P (0) = 0. (10.8) Dans R[X]
2,

muni du produit scalaire dni par e (P |Q) = P (1)Q(1) + P (0)Q(0) + P (1)Q(1), | P (1) = 0} ?

quel est lorthogonal du sous-espace V = {P R[X]

11. Projections orthogonales


Dans cette section, nous ne nous intressons qu` des espaces euclidiens de dimension nie. Nous e a allons dnir la projection orthogonale dun vecteur sur un sous-espace et montrer que cette noe tion permet de construire des bases orthonormes ` partir dune base quelconque et de rsoudre des e a e probl`mes dapproximation. e 11.1. Dnition e Soit E un espace euclidien de dimension nie. Pour toute partie V E, lorthogonal V est lensemble des vecteurs orthogonaux ` tous les vecteurs de V : a V = {x E | (x|v) = 0 pour tout v V }. Cet ensemble est un sous-espace vectoriel de E. 11.1. Lemme. Si V est un sous-espace vectoriel de base (e1 , . . . , em ), alors V = {x E | (e1 |x) = = (em |x) = 0}. Demonstration. Linclusion de V dans le membre de droite est claire, car tout vecteur x V est orthogonal a e1 , . . . , em puisque ces vecteurs sont dans V . Rciproquement, si x E est orthogonal ` e a ` e1 , . . . , em et si v V , soit v = e1 v1 + + em vm , alors (v|x) = v1 (e1 |x) + + vm (em |x) = 0, 2 donc x V .

11. PROJECTIONS ORTHOGONALES

74

La projection orthogonale dun vecteur sur un sous-espace est dnie par la proposition suivante : e 11.2. Proposition. Soit V un sous-espace dun espace euclidien E. Pour tout x E, il existe e un et un seul vecteur p V tel que x p V . De plus, si (e1 , . . . , er ) est une base orthonorme de V , alors
r

p=
i=1

ei (ei |x).

Le vecteur p est appel projection orthogonale du vecteur x sur le sous-espace V . e Dmonstration. Le vecteur p dni par la formule ci-dessus est dans V puisquil est combinaison e e e linaire de la base (e1 , . . . , er ) de V . Pour prouver que x p V , il sut, dapr`s le Lemme 11.1, e de montrer que (ej |x p) = 0 pour j = 1, . . . , r. Or,
r r

(ej |x p) =

ej x
i=1

ei (ei |x)

= (ej |x)
i=1

(ej |ei )(ei |x).

Comme la base (e1 , . . . , er ) est orthogonale, tous les termes de la somme du membre de droite sont nuls, sauf peut-tre celui o` lindice i est gal ` j : e u e a
r

(ej |x)
i=1

(ej |ei )(ei |x) = (ej |x) (ej |ej )(ej |x) = 0.

On a donc (ej |x p) = 0

pour j = 1, . . . , r,

e e e ee ce qui montre que xp V et ach`ve de dmontrer lexistence dun vecteur p possdant les proprits de lnonc. e e Pour prouver lunicit de ce vecteur p, supposons avoir trouv deux vecteurs p, p V tels que e e x p, x p V . Alors p p V , mais p p = (x p ) (x p) V , ` e donc p p V V . En particulier, le vecteur p p est orthogonal a lui-mme : (p p |p p ) = p p donc p p = 0 et p = p . Il est maintenant facile de dterminer la dimension de lorthogonal dun sous-espace : e 11.3. Corollaire. Pour tout sous-espace vectoriel V dun espace euclidien E de dimension nie, E = V V , donc dim V = dim E dim V. De plus, (V ) = V. Dmonstration. Pour tout vecteur x E, la projection orthogonale p de x sur V satisfait : e e p V et x p V . Par consquent, x = p + (x p) est une dcomposition de x en somme dun vecteur de V et dun vecteur de V . Cela prouve : e E = V + V . Par ailleurs, V V = {0} puisque les vecteurs de cette intersection sont orthogonaux a ` eux-mmes. On a donc bien e E = V V , e et la formule pour dim V sen dduit. On peut appliquer cette formule deux fois de suite pour trouver la dimension de (V ) : dim(V ) = dim E dim V = dim E (dim E dim V ) = dim V.
2

= 0, 2

11. PROJECTIONS ORTHOGONALES

75

Or, par dnition de lorthogonal dun sous-espace, on a immdiatement e e V (V ) . Comme ces deux sous-espaces ont la mme dimension, il sont gaux. e e 2

11.2. Procd dorthogonalisation de GramSchmidt e e La technique des projections orthogonales permet de construire systmatiquement une base ore thogonale a partir dune base quelconque. ` Soit e = (e1 , . . . , en ) une base dun espace euclidien E et soit Vk = sev e1 , . . . , ek pour k = 1, . . . , n,

de sorte que Vn = E. On peut projeter tout vecteur de E orthogonalement sur tout sous-espace Vk . Pour k = 2, . . . , n, soit pk Vk1 la projection orthogonale de ek sur Vk1 et soit uk = ek pk . On pose aussi u1 = e1 . e 11.4. Theor`me. La suite u = (u1 , u2 , . . . , un ) est une base orthogonale de E. Demonstration. On prouve, par rcurrence sur k, que la suite e u(k) = (u1 , u2 , . . . , uk ) e e e est une base orthogonale de Vk pour k = 1, . . . , n. Comme Vn = E, cela tablira lnonc. e Pour k = 1, on a u(1) = (e1 ) ; cest une base de V1 , par dnition de ce sous-espace, et elle est orthogonale car elle na quun seul lment. ee Supposons ensuite avoir prouv que u(k 1) est une base orthogonale de Vk1 . Comme pk est la e projection orthogonale de ek sur Vk1 , on a
uk = ek pk Vk1 .

` e Si uk Vk1 , alors uk = 0 puisque seul le vecteur nul est orthogonal a lui-mme. Alors ek = e e pk Vk1 = sev e1 , . . . , ek1 , ce qui est en contradiction avec lindpendance linaire de la suite e (e1 , . . . , ek ). D`s lors, on a uk Vk1 et il rsulte alors du Lemme 5.1 (p. 29) que la suite u(k) est libre. Elle est contenue dans Vk car e pk Vk1 Vk et ek Vk . Par ailleurs, dim Vk = k puisque Vk = sev e1 , . . . , ek ; donc la suite u(k) est une base de Vk , par le Corollaire 4.5 (p. 28). Comme u(k 1) est une base orthogonale de Vk1 et 2 que uk Vk1 , cette base est orthogonale. Un aspect important du thor`me prcdent est quil peut tre mis en uvre en pratique pour e e e e e obtenir une base orthonorme dun espace a partir dune base quelconque. En eet, pour obtenir le e ` dernier vecteur de la base orthogonale u(k) de Vk , il sut de calculer la projection orthogonale pk de ek sur Vk1 . Or, au moment de calculer cette projection, on conna dj` une base orthogonale de t e a a ` ` Vk1 , ` savoir u(k 1). Quitte a normer cette base, on peut donc calculer cette projection a laide de

11. PROJECTIONS ORTHOGONALES

76

la formule de la Proposition 11.2. Explicitement, on dnit successivement e u1 q1 u2 q2 u3 q3 = e1 , u1 , = u1 = e2 q1 (q1 |e2 ), u2 , = u2 = e3 q1 (q1 |e3 ) q2 (q2 |e3 ), u3 , = u3 . . . = ek q1 (q1 |ek ) q2 (q2 |ek ) qk1 (qk1|ek ), uk . = uk

uk qk

En isolant dans le membre de droite le vecteur ek , on obtient une expression de ce vecteur comme combinaison linaire de q1 , . . . , qk1, uk : e e1 e2 e3 = = = = = = . . . = = u1 q 1 u1 , q1 (q1 |e2 ) + u2 q1 (q1 |e2 ) + q2 u2 , q1 (q1 |e3 ) + q2 (q2 |e3 ) + u3 q1 (q1 |e3 ) + q2 (q2 |e3 ) + q3 u3 , q1 (q1 |ek ) + + qk1(qk1 |ek ) + uk q1 (q1 |ek ) + + qk1(qk1 |ek ) + qk uk .

ek

e La matrice de changement de base q (IE )e sen dduit : 11.5. Corollaire. Soit q la base orthonorme obtenue en appliquant le procd de GramSchmidt e e e a ` une base e dun espace euclidien E. La matrice de changement de base q (IE )e est triangulaire suprieure avec des entres diagonales non nulles. e e Demonstration. Les calculs prcdents montrent que e e (q1 |e2 ) (q1 |e3 ) u1 0 (q2 |e3 ) u2 0 0 u3 q (IE )e = . . . . . . . . . 0 0 0 la matrice q (IE )e est (q1 |en ) (q2 |en ) (q3 |en ) . . .. . . . un 2 11.3. Probl`mes dapproximation e Les projections orthogonales satisfont la proprit dapproximation suivante : ee 11.6. Proposition. Soit E un espace euclidien et V E un sous-espace. Pour tout x E, la projection orthogonale p de x sur V est un vecteur de V dont la distance ` x est minimale. De plus, a pour tout vecteur v V autre que p, on a d(x, v) > d(x, p).

11. PROJECTIONS ORTHOGONALES

77

Dmonstration. Pour montrer la premi`re partie de lnonc, il sagit de prouver : e e e e d(x, p) ou, de mani`re quivalente, e e xp
2

d(x, y)

pour tout y V,

xy

pour tout y V.

On dcompose pour cela : (x y) = (x p) + (p y), et on calcule e (x y|x y) = (x p|x p) + (x p|p y) + (p y|x p) + (p y|p y), cest-`-dire a xy
2

= xp

+(x p|p y) + (p y|x p)+ p y

Comme x p V et p y V , on a (x p|p y) = (p y|x p) = 0, et lgalit prcdente entra e e e e ne xy


2

= xp

+ py

xp

On voit dailleurs que lgalit x y = x p (avec y V ) ne peut tre satisfaite que si py = 0, e e e cest-`-dire si y = p. a 2

Un exemple typique dapplication de cette proprit dapproximation concerne les syst`mes dquaee e e e tions linaires : soit A Rmn et b Rm . Pour que le syst`me e AX = b e admette une solution, il faut et il sut que b soit dans le sous-espace C(A) Rm engendr par les colonnes de A, puisquen dcomposant A par colonnes lquation prcdente scrit e e e e e a1 x1 + + an xn = b. Si b C(A), on peut cependant envisager de trouver une solution approche du syst`me A X = b en e e remplaant b par le vecteur b C(A) qui est le plus proche de b (au sens de la distance euclidienne c e e e usuelle sur Rm , induite par le produit scalaire usuel). Toute solution du syst`me dquations linaires AX = b o` b est la projection orthogonale de b sur C(A) est appele solution approche de A X = b au sens u e e des moindres carrs. e Le procd de GramSchmidt permet de trouver une base orthonorme de C(A), a laide de laquelle e e e ` a u e la projection orthogonale b est facile ` calculer. Dans le cas o` les colonnes de A sont linairement indpendantes, les calculs peuvent sorganiser de mani`re particuli`rement simple, et prennent la forme e e e dune factorisation matricielle : 11.7. Proposition. Pour toute matrice A Rmn de rang n, il existe une matrice Q Rmn telle que Qt Q = In et une matrice R Rnn triangulaire suprieure dont toutes les entres diagonales e e sont non nulles telles que A = Q R. De plus, pour tout y Rm , le vecteur Q Qt y Rm est la projection orthogonale de y sur C(A). ne La condition Qt Q = In entra que Qt = Q1 si m = n ; la matrice Q nest cependant pas inversible ` droite si m > n. a

11. PROJECTIONS ORTHOGONALES

78

Dmonstration. Soit a = (a1 , . . . , an ) la suite des colonnes de A. Comme rang A = n, la e suite a est libre ; cest donc une base de C(A). En appliquant le procd de GramSchmidt a la e e ` suite a, on obtient une base orthogonale de C(A), que lon norme pour former une base orthonorme e q = (q1 , . . . , qn ). Le Corollaire 11.5 montre que la matrice de changement de base q (IC(A) )a est triangulaire ; on la note R = (rij )1 i,j n. On a donc a1 a2 an = = . . . = Q= q1 r11 q1 r12 + q2 r22 q1 r1n + q2 r2n + + qn rnn q1 qn Rmn

et les entres diagonales rii sont non nulles. Si lon note e la matrice dont les colonnes sont q1 , . . . , qn, les galits ci-dessus montrent que lon a e e r11 r12 r1n 0 r22 r2n a1 an = q1 qn . . . .. . . . . . . . 0 0 rnn cest-`-dire a A = Q R. e Comme (q1 , . . . , qn) est une base orthonorme de C(A) pour le produit scalaire usuel de Rm , on a
t qi qj =

0 si i = j 1 si i = j,

t t t q1 q1 q1 q1 qn . . . . . Qt Q = . q 1 q n = = In . . . . t t t qn q1 qn qn qn e Par ailleurs, comme (q1 , . . . , qn ) est une base orthonorme de C(A), la Proposition 11.2 montre que e la projection orthogonale sur C(A) dun vecteur y Rm est donne par donc p = = =
t t q1 (q1 y) + + qn (qn y) t q1 . q1 qn . y . t qn

Q Qt y. 2

11.8. Corollaire. Soit A Rmn une matrice de rang n, et soit A = Q R la factorisation e matricielle obtenue dans la proposition prcdente. Pour tout b Rm , le syst`me A X = b admet une e e et une seule solution exacte (si b C(A)) ou approche au sens des moindres carrs (si b C(A)), e e qui est aussi lunique solution du syst`me e R X = Qt b. Dmonstration. Soit b la projection orthogonale de b sur C(A), de sorte que b = b si b C(A). e e Dapr`s la proposition prcdente, on a b = Q Qt b ; toute solution (exacte ou approche au sens e e e des moindres carrs) de A X = b est donc solution (exacte) de e Q R X = Q Qt b. En multipliant les deux membres par la gauche par Qt , et en tenant compte de ce que Qt Q = In , on voit que lquation prcdente est quivalente ` e e e e a R X = Qt b.

11. PROJECTIONS ORTHOGONALES

79

Comme la matrice R est rguli`re, ce syst`me dquations admet une et une seule solution. e e e e

Lorsque lon dispose de la factorisation A = Q R, le corollaire prcdent donne une mani`re partie e e culi`rement simple de rsoudre toute quation A X = b (de mani`re exacte ou approche), puisque la e e e e e matrice R est triangulaire avec des entres diagonales non nulles. Le syst`me R X = Qt b est donc e e chelonn. e e Exercices (11.1) (prrequis) Soit E un espace euclidien et V un sous-espace de E. Si v E et que pv est la e projection de v sur V , dmontrez que, alors, v pv est la projection de v sur V . e (11.2) On consid`re R3 muni du produit scalaire usuel. e u e e Soit V = {(x, y, z) R3 | ax + by + cz = 0}, o` a, b, c sont trois rels xs. Calculez V . Soit W = sev (k, l, m) , o` (k, l, m) est un lment x de R3 . Calculez W . u ee e (11.3) Si E est un espace euclidien et V et W des sous-espaces de E, est-il vrai que (V + W ) (V W ) = = V W ? V + W ?

(11.4) On consid`re R3 muni du produit scalaire usuel. e En appliquant le procd de GramSchmidt a la base (1, 0, 0), (1, 1, 0), (1, 1, 1) , trouvez une e e ` base orthonorme de R3 . e Mme question en partant de la base (1, 1, 0), (2, 1, 0), (1, 1, 1) . e e Trouvez les coordonnes dun lment quelconque de R3 dans les deux bases orthonormes ainsi e ee obtenues. (11.5) Construire une base orthonorme de e e V = {M R22 | M est symtrique}, pour le produit scalaire (|) dni par (A|B) = tr(A.B). e e (11.6) Dans C 2 [, ]; R , on dnit un produit scalaire (|) par

(f|g) =

f(x)g(x)dx.

Donnez une base orthonorme de V = sev 1, sin x, cos x, sin 5x, cos 10x . e e (11.7) Dans R3 muni du produit scalaire usuel, dterminez la projection orthogonale du vecteur (1, 0, 8) sur le sous-espace engendr par les vecteurs (1, 0, 1) et (0, 1, 1). e (11.8) Dans lespace vectoriel rel C [1, 1]; R , avec le produit scalaire (|) dni par e e
1

(f|g) =
1

f(x)g(x)dx,

e trouvez le polynme du premier degr P le plus proche de f(x) = ex . Layant trouv, donnez sa o e distance a f(x). ` (11.9) Dans lespace vectoriel rel C [0, 2]; R , avec le produit scalaire (|) dni par e e
2

(f|g) =
0

f(x)g(x)dx,

trouvez la projection orthogonale de la fonction f : R R : x x sur le sous-espace V engendr par e les fonctions 1, cos et sin.

11. PROJECTIONS ORTHOGONALES

80

(11.10) On consid`re R[X] 2 muni du produit scalaire dni dans lexercice 10.8, ainsi que le souse e espace V dni dans ce mme exercice. e e Trouvez une base orthonorme de V . e Calculez les projections orthogonales du polynme X sur V et sur V . o (Conseil : relire lexercice 11.1, page 79.) (11.11) Soient u et v deux vecteurs non nuls xs dans un espace euclidien E. Trouvez le vecteur le e plus court qui soit de la forme u + v ( R) et montrez quil est orthogonal a v. ` u (11.12) Mettez les matrices Ai Rmn suivantes sous la forme dun produit Q R o` Q Rmn est e e telle que Qt Q = In et R Rnn est triangulaire suprieure avec toutes ses entres diagonales non nulles. 0 0 1 1 2 3 0 A2 = A3 = 0 1 1 A1 = 4 5 3 2 3 1 1 1 2 1 1 1 1 1 3 0 A5 = . A6 = A4 = 1 1 1 4 0 1 0 1. (11.13) Rsolvez e (i) x y x y les syst`mes dquations linaires suivants au sens des moindres carrs. e e e e (iii) 3x = 2 = 1 (ii) x + y = 3 (iv) 2x + y = 0 x = 1 4x = 11 x+y = 2 x y = 1 x + y y = = = = 1 1 3 1.

(11.14) Trouvez la solution, au sens des moindres carrs, du syst`me e e x = b1 x = b2 . . . x = bn . Calculez ensuite la distance entre le second membre du syst`me original et celui du syst`me utilis e e e pour calculer la solution au sens des moindres carrs. e

CHAPITRE VI

Oprateurs linaires e e
Un oprateur linaire est une application linaire dun espace vectoriel dans lui-mme. On peut e e e e donc considrer un oprateur linaire sur un espace comme une transformation de cet espace, et e e e envisager de trouver les vecteurs xes sous cette transformation, ou les vecteurs transforms en leurs e opposs, ou dune mani`re gnrale les vecteurs dont limage est un multiple deux-mmes, que lon e e e e e appelle vecteurs propres de loprateur. e La mthode permettant de dterminer les vecteurs propres dun oprateur linaire sur un espace de e e e e dimension nie, ainsi que les formes particuli`res que peut prendre la matrice dun tel oprateur, sont e e indiques dans la premi`re section. Dans la deuxi`me section, on consid`re les oprateurs linaires e e e e e e sur des espaces euclidiens, o` le produit scalaire permet dassocier a chaque oprateur linaire un u ` e e oprateur adjoint. Laboutissement de cette section est le thor`me spectral, qui donne une condition e e e ncessaire et susante pour quil existe une base orthonorme constitue de vecteurs propres. e e e Toutes les notions concernant les oprateurs linaires admettent un analogue matriciel, obtenu par e e e e la correspondance qui a chaque matrice carre A K nn associe loprateur linaire A sur K n qui ` e n n e ee envoie x K sur A(x) = Ax, le n-uple x tant considr comme une colonne : x K = K n1 . Dans tout le chapitre, on passe constamment des oprateurs linaires aux matrices carres et vice-versa, e e e suivant que les proprits en vue sont plus faciles ` tablir pour les matrices ou pour les oprateurs ee ae e linaires. e

12. Proprits caractristiques e e e


12.1. Valeurs propres et vecteurs propres Soit A : E E un oprateur linaire sur un espace vectoriel E sur un corps arbitraire K. Un e e vecteur propre de A est un vecteur v E non nul tel que A(v) = v pour un certain K.

Le scalaire est appel valeur propre de A associe ` v ; on dit aussi que v est un vecteur propre de e e a A de valeur propre . Lquation A(v) = v peut aussi scrire e e (IE A)(v) = 0, donc les vecteurs propres de valeur propre sont les vecteurs non nuls de Ker(IE A). Pour tout K, on appelle espace propre de valeur propre le sous-espace dni par e E() = Ker(IE A). Avec cette dnition, on peut dire que est valeur propre de A si et seulement si E() = {0} ou, ce e qui revient au mme, si et seulement si loprateur IE A nest pas injectif. e e Supposons a partir dici que lespace E est de dimension nie non nulle. Dapr`s la Proposition 9.8 ` e e a e (p. 65), la condition que IE A nest pas injectif est encore quivalente ` : dt (IE A) = 0. On appelle polynme caractristique dun oprateur linaire A sur un espace E de dimension nie o e e e le polynme o e PcA (X) = dt (X IE A). La formule explicite du dterminant donne dans la section 7.2 (p. 51) montre que le membre de droite e e dnit bien un polynme en X ; de plus, ce polynme est unitaire, cest-`-dire que le coecient du e o o a
81

12. PROPRIETES CARACTERISTIQUES

82

terme de plus haut degr est 1, et son degr est gal a la dimension de E : e e e ` deg PcA = dim E. 12.1. Proposition. Les valeurs propres dun oprateur linaire sur un espace vectoriel de dimene e sion nie sont les racines du polynme caractristique de cet oprateur. Le nombre de valeurs propres o e e dun oprateur linaire est donc au plus gal a la dimension de lespace. e e e ` Dmonstration. On a vu ci-dessus que K est valeur propre de A si et seulement si dt (IE e e A) = 0. 2 Pour K = C, le thor`me fondamental de lalg`bre arme que tout polynme non constant se e e e o dcompose en produit de polynmes du premier degr, et admet par consquent au moins une rae o e e cine. Tout oprateur linaire sur un espace complexe admet donc au moins une valeur propre, do` e e u aussi un vecteur propre. En revanche, si K = R, certains oprateurs linaires peuvent ne pas admettre e e de valeur propre : par exemple, dans le plan usuel, une rotation dangle = 0, autour du point de rfrence O na pas de vecteur propre (ni par consquent de valeur propre). ee e En utilisant dune part le polynme caractristique, dautre part les espaces propres, on peut o e associer ` chaque valeur propre dun oprateur linaire A sur un espace E de dimension nie deux a e e types de muliplicits : on appelle multiplicit algbrique de et on note ma () lexposant de X e e e e dans la dcomposition de PcA en produit de facteurs irrductibles ; en dautres termes, ma () est e lexposant de la plus haute puissance de X qui divise PcA : ma () = m si PcA (X) = (X )m Q(X) o` Q(X) est un polynme tel que Q() = 0. u o On appelle multiplicit gomtrique de et on note mg () la dimension de lespace propre E() : e e e mg () = dim E(). e e e Comme E() = Ker(IE A), on a aussi, dapr`s le Thor`me 8.4 (p. 56), mg () = dim E rang(IE A). 12.2. Proposition. Pour toute valeur propre dun oprateur linaire A sur un espace E de e e dimension nie, ma () mg () 1. Dmonstration. Soit (e1 , . . . , er ) une base de E(), que lon prolonge en une base e = (e1 , . . . , e e er , . . . , en ) de E. On a donc pos : mg () = r, dim E = n. Comme e1 , . . . , er sont des vecteurs propres de A de valeur propre , on a A(ei ) = ei pour i = 1, . . . , r, donc la matrice de A par rapport a la base e est de la forme `
e (A)e

Ir 0nr,r

U V

e e e o` U K r(nr) et V K (nr)(nr). En dveloppant le dterminant suivant la premi`re colonne u et en raisonnant par induction sur r, on obtient e PcA (X) = (X )r dt (X Inr V ). Cela montre que PcA est divisible par (X )r , donc r puisque r = mg (). ma (), ce qui ach`ve la dmonstration e e 2

Traduction matricielle. Les notions dnies ci-dessus se transposent immdiatement aux matrices e e e e par lintermdiaire de loprateur linaire associ. Pour A K nn , loprateur associ A : K n K n e e e e n est dni par A(x) = A x pour x K . (On abuse des notations en notant les lments de K n en e ee colonnes : K n = K n1 ). Un vecteur propre de A K nn est donc un vecteur non nul x K n tel que A x = x pour un certain K.

12. PROPRIETES CARACTERISTIQUES

83

Le scalaire est appel valeur propre de A associe au vecteur propre x. Le polynme caractristique e e o e o e e de A K nn est le polynme caractristique de loprateur A. Comme la matrice de A par rapport a ` la base canonique de K n est A, on a donc e PcA (X) = dt (X In A). Ce polynme est unitaire de degr n et ses racines sont les valeurs propres de A. o e e e 12.3. Proposition. Soient A, P K nn . Si la matrice P est rguli`re, les matrices A et P 1 A P ont le mme polynme caractristique : e o e PcA = PcP 1 AP . Demonstration. Dapr`s la multiplicativit du dterminant, on a e e e e dt (X In P 1 A P ) = dt [P 1 (X In A) P ] e e e = (dt P )1 dt (X In A) dt P e = dt (X In A). e 2 Remarques : 1. Il y a aussi une relation entre les vecteurs propres de A et ceux de P 1 A P : si x est un vecteur propre de A de valeur propre , alors A x = x ; en multipliant les deux membres par P 1 , on obtient P 1 A x = P 1 x , (P 1 A P ) (P 1 x) = (P 1 x) , donc P 1 x est un vecteur propre de P 1 A P de valeur propre . Inversement, si x est un vecteur propre de P 1 A P de valeur propre , alors P x est un vecteur propre de A de valeur propre . 2. Dun point de vue heuristique, il est clair a priori que les valeurs propres de A et de P 1 A P sont les mmes, puisque ces deux matrices reprsentent le mme oprateur linaire par rapport a des e e e e e ` bases direntes. e 12.2. Triangularisation e 12.4. Proposition. Pour une matrice carre A K nn , les conditions suivantes sont quivae lentes : (a) Le polynme caractristique se dcompose en produit de facteurs linaires, cest-`-dire quil o e e e a nadmet pas de facteur irrductible de degr > 1. e e (b) Il existe une matrice rguli`re P K nn telle que la matrice P 1 A P soit triangulaire e e suprieure. e Si ces conditions sont satisfaites, les valeurs propres de A sont les entres diagonales de la matrice e P 1 A P . Demonstration. (b) (a) : Soit 1 .. . n cest-`-dire a

P 1 A P =

o Dapr`s la Proposition 12.3, on a PcA = PcP 1 AP , et ce polynme est e X 1 .. e dt (X In P 1 A P ) = dt e .

0
=

X n

(X 1 ) . . . (X n ).

12. PROPRIETES CARACTERISTIQUES

84

Il se dcompose donc en produit de facteurs linaires. On voit de plus que les valeurs propres de A e e sont les entres diagonales de P 1 A P . e (a) (b) : On raisonne par induction sur n. Si n = 1, on peut choisir P = I1 puisque toute matrice dordre 1 est triangulaire suprieure. Pour la suite de la dmonstration, on peut supposer que lnonc e e e e e e est vrai pour les matrices dordre n 1. Comme PcA se dcompose en produit de facteurs linaires, ce polynme admet (au moins) une racine. Soit K une valeur propre de A et soit v K n un o vecteur propre correspondant. On a v = 0, donc (v) est une suite libre de K n , et lon peut trouver des vecteurs v2 , . . . , vn K n tels que la suite (v, v2 , . . . , vn ) soit une base de K n . Soit P1 = v v2 vn K nn

la matrice dont les colonnes sont v, v2 , . . . , vn . Comme la suite (v, v2 , . . . , vn ) est une base de K n , a lespace engendr par les colonnes de P1 est K n cest-`-dire que C(P1 ) = K n , donc rang P1 = n et la e 1 e matrice P1 est inversible. Calculons le produit P1 A P en dcomposant P1 par colonnes :
1 P1 A P1

= =

1 P1 A v

1 P1 A v2

1 P1 A vn 1 P1 A vn

1 1 P1 v P1 A v2

Comme v est la premi`re colonne de P1 , on a e

v = P1 1 donc P1 v = 0 . . . 0 1 P1 A P1 = 0 . . . 0

0 . . . 0

1 . La matrice P1 A P1 a donc la forme suivante u B

e e pour une certaine ligne u K 1(n1) et une certaine matrice carre B K (n1)(n1). Dapr`s la Proposition 12.3, on a PcA = PcP 1 AP1 ; donc 1 u X 0 e PcA (X) = dt . . . . X In1 B 0 En dveloppant le dterminant suivant la premi`re colonne, on obtient e e e PcA (X) = (X ) PcB (X), e e o donc tout facteur irrductible de PcB divise aussi PcA . Dapr`s lhypoth`se sur PcA , le polynme e e e e caractristique PcB nadmet donc pas de facteur irrductible de degr > 1. On peut d`s lors utiliser e lhypoth`se dinduction pour trouver une matrice rguli`re Q dordre n 1 telle que Q1 B Q soit e e e triangulaire suprieure. On pose alors e 1 0 0 0 P2 = . K nn . . . Q 0

12. PROPRIETES CARACTERISTIQUES

85

Un calcul direct donne 1 0 0 . . . Q 0

1 0 0 . . . Q1 0

1 0 0 . . . Q Q1 0 .

= In ,

e e donc la matrice P2 est rguli`re et

1 P2 = On a

1 0 0 . . . Q1 0

1 1 P2 P1 A P1 P2 = 1 0 0 0 0 = . . 1 . . . . Q 0 0 uQ 0 = . . . Q1 B Q

u B .

1 0 0 . . . 0

0
1 1 e e Or, la matrice Q1 B Q est triangulaire suprieure ; il en est donc de mme de P2 P1 A P1 P2 , 2 et la condition (b) est satisfaite avec P = P1 P2 .

e e 12.5. Corollaire. Pour toute matrice A Cnn , il existe une matrice rguli`re P Cnn telle e que P 1 A P est triangulaire suprieure. Dmonstration. Le thor`me fondamental de lalg`bre indique que tout polynme irrduce e e e o e tible de C[X] est de degr 1. Par consquent, la condition (a) (et donc aussi la condition (b)) de la e e proposition prcdente est satisfaite pour toute matrice carre complexe. e e e 2 En utilisant la rduction a la forme triangulaire, on peut donner une preuve lmentaire dun e ` ee thor`me fondamental sur les polynmes matriciels. Si e e o f(X) = a0 + a1 X + + am X m K[X] et A K nn , on note f(A) = a0 In + a1 A + + am Am K nn . Remarquons que pour toute matrice rguli`re P K nn et tout entier k > 0 e e (P 1 A P )k = (P 1 A P ) (P 1 A P ) (P 1 A P )
k

= P 1 A A P
k

= P donc f(P 1 A P ) = = =

A P,
k

a0 In + a1 P 1 A P + + am (P 1 A P )m P 1 (a0 In + a1 A + + am Am ) P P 1 f(A) P.

12. PROPRIETES CARACTERISTIQUES

86

12.6. Thor`me (CayleyHamilton). Pour toute matrice carre A Cnn , e e e PcA (A) = 0. Demonstration. Dapr`s le Corollaire 12.5, on peut trouver une matrice rguli`re P Cnn e e e telle que P 1 A P soit triangulaire suprieure. Or, e PcA (P 1 A P ) = P 1 PcA (A) P, e et PcA = PcP 1 AP dapr`s la Proposition 12.3. Il sut donc de prouver : PcP 1 AP (P 1 A P ) = 0, cest-`-dire quil sut de prouver le thor`me pour les matrices triangulaires suprieures. a e e e Pour cela, on raisonne par induction sur lordre n des matrices. Si T = (a) C11 , alors PcT (X) = X a et PcT (T ) = (a a) = 0 C11 , ce qui prouve le thor`me pour les matrices dordre 1. e e Supposons le thor`me vrai pour les matrices triangulaires dordre n 1 et soit T Cnn une e e matrice triangulaire suprieure dordre n. On dcompose e e u 0 T = . . . T 0 e e o` u C1(n1) et T est une matrice triangulaire suprieure dordre n 1. Comme dans la dmonu stration de la Proposition 12.4, on a alors PcT (X) = (X ) PcT (X), do` u PcT (T ) = (T In ) PcT (T ). Or, T In = et PcT (T ) = 0 0 . . . 0 PcT () 0 . . . 0 e pour une certaine ligne u C1(n1). Lhypoth`se dinduction indique que PcT (T ) = 0, donc les e n 1 derni`res lignes de la matrice PcT (T ) sont nulles. D`s lors, e u u 0 PcT () 0 0 PcT (T ) = . = 0. . . . . . T In1 0 0 0 2 u PcT (T ) u T In1

12. PROPRIETES CARACTERISTIQUES

87

12.3. Diagonalisation Dans ce numro, A dsigne un oprateur linaire sur un espace E de dimension nie sur un corps e e e e K. On dit que loprateur A est diagonalisable sil existe une base e de E par rapport a laquelle la e ` e tre e matrice e (A)e est diagonale. Lobjectif est dobtenir un crit`re permettant de reconna les oprateurs diagonalisables. ` 12.7. Lemme. Soient 1 , . . . , s K des scalaires distincts deux a deux. La somme des espaces propres E(1 ) + + E(s ) est directe. Dmonstration. On raisonne par induction sur s. Si s = 1, il ny a rien a prouver ; on peut e ` donc supposer que toute somme dau plus s 1 espaces propres est directe. Soit () x1 + + xs = 0 avec xi E(i ) pour i = 1, . . . , s.

En appliquant A aux deux membres de cette galit, on obtient e e x1 1 + + xs s = 0, e e puisque A(xi ) = xi i . Par ailleurs, en multipliant par s les deux membres de lgalit (), on obtient x1 s + + xs s = 0. En soustrayant membre a membre les deux derni`res galits, il vient ` e e e x1 (1 s ) + + xs1 (s1 s ) = 0. e e Comme xi (i s ) E(i ), on en dduit par lhypoth`se dinduction xi (i s ) = 0 pour i = 1, . . . , s 1, ` e e do` xi = 0 pour i = 1, . . . , s1 car i s = 0. En revenant a lgalit (), on obtient aussi xs = 0. 2 u 12.8. Proposition. Pour un oprateur linaire A sur un espace E de dimension nie, les condie e tions suivantes sont quivalentes : e (a) A est diagonalisable. (b) Il existe une base de E constitue de vecteurs propres de A. e e (c) Si 1 , . . . , r sont les direntes valeurs propres de A, E = E(1 ) E(r ). e (d) Tous les facteurs irrductibles du polynme caractristique PcA sont du premier degr, et pour e o e toute valeur propre de A, ma () = mg (). Demonstration. On va prouver : (a) (b) (d) (c) (b). e La dmonstration montrera de plus que pour une base e = (e1 , . . . , en ) donne, la matrice e (A)e est e e e diagonale si et seulement si les vecteurs e1 , . . . , en sont propres. La i-`me entre diagonale i est alors la valeur propre associe ` ei . e a (a) (b) : Supposons que e = (e1 , . . . , en ) soit une base de E telle que e (A)e soit diagonale : 1 0 .. . e (A)e = .

` Comme les colonnes de cette matrice sont les coordonnes de A(e1 ), . . . , A(en ) par rapport a la base e e, on a pour i = 1, . . . , n A(ei ) = e1 0 + + ei i + + en 0 = ei i . Cette relation montre que ei est vecteur propre de A de valeur propre i .

12. PROPRIETES CARACTERISTIQUES

88

Rciproquement, si e = (e1 , . . . , en ) est une base de E dont les lments sont des vecteurs propres e ee c e ` de A, soit A(ei ) = ei i , alors en plaant en colonnes les coordonnes par rapport a la base e des vecteurs A(e1 ), . . . , A(en ) on trouve une matrice diagonale : 1 0 .. . e (A)e = .

(b) (d) : Soit e une base de A constitue de vecteurs propres de A. Soient 1 , . . . , r K les e direntes valeurs propres des vecteurs de la base e. Quitte a changer la numrotation des vecteurs e ` e de base, on peut rassembler les vecteurs propres de mme valeur propre et supposer e e = (e11 , . . . , e1m1 , e21 , . . . , e2m2 , . . . , er1 , . . . , ermr ) o` pour tout i = 1, . . . , r les vecteurs ei1 , . . . , eimi sont des vecteurs propres de valeur propre i : u A(eij ) = eij i La matrice e (A)e est alors de la forme
e (A)e

pour j = 1, . . . , mi . .

1 Im1 0m2 ,m1 . . . 0mr ,m1

0m1 ,m2 2 Im2 . . . 0mr ,m2

.. .

0m1 ,mr 0m2 ,mr . . . r Imr

Son polynme caractristique est facile a calculer : o e ` e PcA (X) = dt (X In e (A)e ) = (X 1 )m1 (X r )mr . e Cette galit prouve que tout facteur irrductible de PcA est de degr 1 et que A na pas dautre e e e valeur propre que 1 , . . . , r . On voit de plus ma (i ) = mi pour tout i = 1, . . . , r.

e e Comme ei1 , . . . , eimi sont linairement indpendants et sont des vecteurs propres de valeur propre i , e a la dimension de lespace propre E(i ) est au moins gale ` mi : mg (i ) mi = ma (i ) pour tout i = 1, . . . , r.

Or, la Proposition 12.2 montre que la multiplicit gomtrique dune valeur propre ne peut dpasser e e e e la multiplicit algbrique, donc e e ma (i ) = mg (i ) pour tout i = 1, . . . , r,

ce qui tablit la condition (d). e (d) (c) : Dapr`s le Lemme 12.7, la somme E(1 ) + + E(r ) est directe. On a donc e dim(E(1 ) E(r )) = dim E(1 ) + + dim E(r ) = mg (1 ) + + mg (r ), et il sut pour tablir (c) de prouver : e mg (1 ) + + mg (r ) = dim E. Dapr`s (d), on a e PcA (X) = (X 1 )m1 (X r )mr et mg (i ) = ma (i ) = mi pour tout i = 1, . . . , r. Comme le degr du polynme caractristique est e o e gal a la dimension de lespace, on a e ` dim E = m1 + + mr = mg (1 ) + + mg (r ). (c) (b) : Cela rsulte immdiatement de la Proposition 5.6, p. 33. e e 2

12. PROPRIETES CARACTERISTIQUES

89

12.9. Corollaire. Si le polynme caractristique dun oprateur linaire se dcompose en produit o e e e e de facteurs linaires distincts, alors loprateur est diagonalisable. e e Dmonstration. Lhypoth`se signie que tous les facteurs irrductibles du polynme caracte e e o e ristique sont de degr 1 et que de plus ma () = 1 pour toute valeur propre . La suite de relations e 1 = ma () mg () 1 qui se dduit de la Proposition 12.2 indique qualors e ma () = mg () = 1 pour toute valeur propre , donc la condition (d) de la proposition prcdente est satisfaite, et e e loprateur est diagonalisable. e 2 Traduction matricielle. Le rsultat suivant indique comment traduire en termes matriciels lexise tence dune base de vecteurs propres : e e 12.10. Lemme. Soient A, P K nn . On suppose que P est rguli`re. Pour que la matrice P 1 e A P soit diagonale, il faut et il sut que les colonnes de P forment une base de K n constitue de vecteurs propres de A. Les entres diagonales de P 1 A P sont alors les valeurs propres de A. e Dmonstration. Remarquons dabord que P est rguli`re si et seulement si son rang est n, ce e e e qui revient a dire que les n colonnes de P forment une suite gnratrice et donc une base de K n . Soit ` e e P = p1 pn la dcomposition de P en colonnes. La condition e A pi = pi i e a (avec i K) est quivalente ` AP = p1 1 pn n . Or, le membre de droite de cette derni`re quation est le produit matriciel P o` e e u 1 0 .. = . . 0 n Comme lgalit A P = P revient ` e e a P 1 A P = , le lemme est dmontr. e e 2 pour i = 1, . . . , n

Voici la traduction matricielle du crit`re permettant de reconna e tre les oprateurs diagonalisables e (Proposition 12.8) : e 12.11. Proposition. Pour une matrice carre A K nn , les conditions suivantes sont quivae lentes : (a) Il existe une matrice rguli`re P K nn telle que P 1 A P soit une matrice diagonale. e e e (b) Il existe une base de K n constitue de vecteurs propres de A. e (c) Tous les facteurs irrductibles du polynme caractristique PcA sont du premier degr, et pour e o e toute valeur propre de A, ma () = mg (). Dmonstration. (a) (b) : Cela rsulte du lemme prcdent. e e e e e e e a (b) (c) : Soit c la base canonique de K n et soit A : K n K n loprateur linaire associ ` A. e e e On a donc c (A)c = A. Lquivalence de (b) et (c) rsulte de la Proposition 12.8, car, par dnition, loprateur A et la matrice A ont le mme polynme caractristique, les mmes valeurs propres et les e e o e e mmes vecteurs propres. e 2

12. PROPRIETES CARACTERISTIQUES

90

12.12. Corollaire. Si le polynme caractristique dune matrice A K nn se dcompose en o e e produit de facteurs linaires distincts, alors il existe une matrice rguli`re P K nn telle que la e e e matrice P 1 A P soit diagonale. Dmonstration. Comme dans la dmonstration du Corollaire 12.9, lhypoth`se sur le polynme e e e o caractristique entra e ne ma () = mg () = 1 pour toute valeur propre de A ; le corollaire dcoule alors de limplication (c) (a) de la proposition e prcdente. e e 2 Exercices (12.1) (prrequis) Sans eectuer aucun calcul, e (a) Citez toutes les valeurs propres des matrices relles suivantes : e 0 0 0 5 7 14 8 1 0 0 3 2 0 0 B = A= 0 0 0 0 2 0 2 0 0 0 7 3 0 0

0 0 . 0 0

Citez galement un vecteur propre de ces matrices et dterminez si elles sont diagonalisables. e e (b) Citez une valeur propre et un vecteur propre des matrices complexes suivantes : 4i 9 0 0 1 0 . 0 A = 0 2 8 + 4i B = i 1 + i 0 i 7 2 2i 2 + 3i (12.2) Soit A un oprateur linaire sur un espace de dimension n (nie). e e e (a) Montrez que le terme constant du polynme caractristique de PcA est (1)n dt A. o e (b) Montrez que 0 est valeur propre de A si et seulement si A est non inversible. e (c) Montrez que A et At ont les mmes valeurs propres. e (12.3) Trouvez les valeurs propres et vecteurs propres des oprateurs linaires suivants sur R3 . Dtere e minez lesquels sont diagonalisables. (a) A(x, y, z) = (2x + y + z, 2x + 3y + 4z, x y 2z). (b) A(x, y, z) = (2x y + z, 3y z, 2x + y + 3z). (c) A(x, y, z) = (2x + y + z, 2x + 3y + 2z, 3x + 3y + 4z). (12.4) Pour chacune des matrices A suivantes, trouvez les valeurs propres relles, une base de chaque e sous-espace propre, et, lorsque cela est possible, une matrice relle P telle que P 1 AP soit diagonale. e 0 1 0 0 2 2 1 0 7 6 0 1 0 1 0 (a) 1 4 0 (b) 2 1 2 (c) 0 0 0 1 3 1 2 2 0 2 2 6 17 17 7 2 2 0 2i 0 i 1+i 0 (d) 2 2 0 (e) 0 0 0 1 i 0 2i (12.5) Cherchez les valeurs propres et les vecteurs propres des matrices A suivantes. Si possible, trouvez une matrice P telle que P 1 A P soit diagonale. 1 0 0 1 1 0 1 1 0 1 0 0 (a) 0 1 0 (b) 0 1 0 (c) 0 1 1 (d) 0 1 0 0 0 1 0 0 1 0 0 1 0 0 1 1 0 1 1 2 3 1 0 0 (e) 0 1 0 (f) 0 1 2 (g) 0 1 1 0 0 1 0 0 2 0 0 1

13. THEORIE SPECTRALE

91

(12.6) Pour chacune des matrices A suivantes, trouvez une matrice rguli`re P telle que P 1 A P e e soit triangulaire. 0 1 0 1 2 2 3 2 (a) (b) 0 0 1 (c) 0 2 1 2 1 1 3 3 1 2 2 (12.7) Soit 2 A = 0 0 o` est un param`tre rel. u e e e e 1. En discutant sur la valeur de , trouvez les valeurs propres de A et leur multiplicit algbrique, les vecteurs propres de A et une base des sous-espaces propres. 2. Trouvez lensemble des valeurs de pour lesquelles A est diagonalisable. 1 2 0 0

13. Thorie spectrale e


Dans cette section, on sintresse ` des oprateurs linaires sur des espaces euclidiens de dimension e a e e nie non nulle. Le corps des scalaires est donc R et les espaces considrs sont munis dun produit ee scalaire. 13.1. Oprateur adjoint e 13.1. Proposition. Soit A : E F une application linaire entre deux espaces euclidiens de e dimension nie, dont les produits scalaires sont nots respectivement (|)E et (|)F . Il existe une et e une seule application linaire A : F E telle que e () (A(x)|y)F = (x|A (y))E
e (A )f

pour tout x E et tout y F. = f (A)t . e

De plus, si e est une base orthonorme de E et f une base orthonorme de F , alors e e e e Lapplication A est appele adjointe de lapplication linaire A. Dmonstration. Existence : Fixons une base orthonorme e de E et une base orthonorme f e e e e de F , et montrons que lapplication A dont la matrice par rapport aux bases e et f est la transpose de celle de A : t e (A )f = f (A)e satisfait la proprit (). ee e Soient x E et y F , de coordonnes e (x) et f (y). Les coordonnes de A(x) et de A (y) sont e alors f (A(x)) = f (A)e e (x) et
e (A (y))

= e (A )f f (y) = f (A)t f (y). e = = [f (A)e e (x)] f (y)


t e (x) t

Comme les bases e et f sont orthonormes, on a dapr`s le Lemme 10.3, p. 71, e e (A(x)|y)F et, de mme, e (x|A (y))E La proprit () est donc tablie. ee e = =
t e (x) t e (x)

f (A)t f (y) e e (A (y)) f (A)t f (y). e

13. THEORIE SPECTRALE

92

Unicit : Supposons que B, C : F E soient deux applications linaires satisfaisant la proprit (). e e ee Alors pour tout x E et tout y F , (x|B(y))E = (A(x)|y)F = (x|C(y))E , donc la dirence entre le membre de gauche et le membre de droite est nulle : e (x|B(y) C(y))E = 0 En particulier, pour x = B(y) C(y) on trouve B(y) C(y) donc B(y) C(y) = 0 ce qui signie : B = C. pour tout y F, 2
2

pour tout x E et tout y F. = 0,

Comme, en termes de matrices par rapport a des bases orthonormes, ladjonction des applications ` e linaires se ram`ne ` la transposition des matrices, on peut tablir pour les applications adjointes des e e a e proprits analogues ` celles des matrices transposes : ee a e Proprits. e e 1. Pour A, B : E F et , R, (A + B) = A + B . 2. Pour A : E F et B : F G, (B A) = A B . 3. Pour A : E F , (A ) = A.

Ces proprits se dmontrent soit en comparant les matrices par rapport a des bases orthonormes ee e ` e soit en revenant ` la proprit caractristique () des applications adjointes. Montrons par exemple a ee e la proprit 3 : si e et f sont des bases orthonormes de E et F respectivement, on a ee e
f ((A ) )e

= e (A )t = (f (A)t )t = f (A)e ; f e

e e donc (A ) et A ont la mme matrice par rapport aux bases e et f, et par consquent (A ) = A. On e peut aussi raisonner comme suit : par dnition, (A ) est lunique application linaire (A ) : E F e telle que pour tout x E et tout y F , (A (y)|x)E = (y|(A ) (x))F . Or, lapplication A poss`de cette proprit puisque, dapr`s (), e ee e (y|A(x))F = (A(x)|y)F = (x|A (y))E = (A (y)|x)E . On doit donc avoir (A ) = A. 13.2. Thor`me spectral e e Le thor`me spectral indique que les oprateurs pour lesquels il existe une base orthonorme de e e e e vecteurs propres sont exactement les oprateurs qui sont leur propre adjoint. Nous commenons par e c montrer que le polynme caractristique dun oprateur auto-adjoint na pas de facteur irrductible o e e e de degr 2. e Pour toute matrice complexe A = (aij )
1 i m 1 j n

Cmn , on note A la matrice dont les entres sont e

les nombres complexes conjugus des entres de A : e e A = (aij )


1 i m 1 j n

Cmn .

En particulier, si A est une matrice relle, alors A = A. e

13. THEORIE SPECTRALE

93

13.2. Lemme. Soit A Cnn . Si A = At , alors toutes les valeurs propres de A sont relles ; en e particulier, toutes les valeurs propres dans C dune matrice symtrique relle sont relles, donc son e e e polynme caractristique na pas de facteur irrductible de degr 2 dans R[X]. o e e e Demonstration. Soit x Cn = Cn1 un vecteur propre de A de valeur propre : A x = x . En multipliant a gauche par xt , on obtient ` xt A x = xt x . En transposant et en conjuguant les deux membres, on obtient par ailleurs xt A x = xt x , donc, comme A = A, () x1 . Or, si x = . , alors . xn xt x = xt x .
t t

xt x = x1 x1 + + xn xn = |x1 |2 + + |xn |2 , en notant |z| le module dun nombre complexe z. Comme x = 0 puisque x est un vecteur propre, on e e ne a xt x = 0, donc lgalit () entra = . 2 13.3. Thor`me spectral. Pour un oprateur linaire A sur un espace euclidien E de dimene e e e sion nie, les conditions suivantes sont quivalentes : e (a) Il existe une base orthonorme e de E telle que la matrice e (A)e soit diagonale. e (b) Il existe une base orthonorme e de E constitue de vecteurs propres de A. e e e e (c) Si 1 , . . . , r sont les direntes valeurs propres de A, lespace E se dcompose en somme directe orthogonale : E = E(1 ) E(r ), cest-`-dire que a E = E(1 ) E(r ) a et que de plus pour i = j tout vecteur de E(i ) est orthogonal ` tout vecteur de E(j ). (d) Loprateur A est auto-adjoint : e A = A.

Dmonstration. (a) (b) : Les arguments utiliss dans la dmonstration de lquivalence e e e e (a) (b) de la Proposition 12.8 sappliquent ici. Ils montrent quune base e de E est constitue e de vecteurs propres de A si et seulement si la matrice e (A)e est diagonale. (a) (d) : Comme e est une base orthonorme, on a e (A )e = e (A)t . Comme de plus la matrice e (A)e e e est diagonale, on en dduit e e (A )e = e (A)e , e e e e e donc A = A puisquun oprateur linaire est dtermin de mani`re unique par sa matrice par rapport a ` la base e. (d) (b) : On raisonne par induction sur la dimension de E. Si dim E = 1, il ny a rien a prouver ` puisque tous les vecteurs non nuls de E sont propres. Supposons dim E = n > 1. Vu le Lemme 13.2, on peut trouver dans E un vecteur propre de A. Quitte a le diviser par sa norme, on peut supposer ` e que ce vecteur est norm. Notons-le e1 , et considrons son orthogonal dans E : e V = sev e1

13. THEORIE SPECTRALE

94

Cest un sous-espace de dimension n 1 (voir le Corollaire 11.3, p. 74). Pour appliquer lhypoth`se e dinduction, on va prouver que la restriction de A ` V : a A|V : V E x A(x) est en fait un oprateur linaire sur V , cest-`-dire que A(V ) V . e e a Soit A(e1 ) = e1 1 . Comme A est auto-adjoint, on a pour x E e1 |A(x) = A(e1 )|x = 1 (e1 |x). a D`s lors, e1 |A(x) = 0 si (e1 |x) = 0, cest-`-dire si x V . On a donc bien A(V ) V . e Dire que A est auto-adjoint revient a dire que A(x)|y = x|A(y) pour x, y E. Si cette ` e condition est satisfaite pour x, y E, elle lest a fortiori pour x, y V , donc A|V est un oprateur auto-adjoint sur V . Par hypoth`se dinduction, il existe une base orthonorme (e2 , . . . , en ) de V e e constitue de vecteurs propres de A|V , donc de A. Comme E = sev e1 V (voir le Corollaire 11.3, e ` e p. 74) et que e1 est orthogonal a tout vecteur de V , la suite (e1 , e2 , . . . , en ) est une base orthonorme de E constitue de vecteurs propres de A. e (b) (c) : Vu la Proposition 12.8, la condition (b) entra ne E = E(1 ) E(r ) e a o` 1 , . . . , r sont les direntes valeurs propres de A. Il ne reste donc plus qu` prouver u (x|y) = 0 si x E(i ) et y E(j ) avec i = j. Calculons pour cela (A(x)|y). Comme x E(i ), on a A(x) = xi , donc () (A(x)|y) = i (x|y).

ea e ne Par ailleurs, on a (A(x)|y) = (x|A (y)). Comme on a dj` prouv que la condition (b) entra A = A, e et comme A(y) = yj puisque y E(j ), on en dduit () (A(x)|y) = (x|y) j .

e e nent (x|y) = 0. Si i = j, alors i = j et les galits () et () entra (c) (b) : En juxtaposant des bases orthonormes de E(1 ), . . . , E(r ), on obtient une base orthoe norme de E constitue de vecteurs propres de A. e e 2 Traduction matricielle. Pour traduire le thor`me 13.3 en termes de matrices, on passe, comme e e dans la section 12.3, par lintermdiaire de loprateur linaire associ ` une matrice carre. e e e ea e e e e Soit A Rnn et soit A : Rn Rn loprateur linaire associ. On munit Rn du produit scalaire usuel, pour lequel la base canonique c est orthonorme. Comme A est la matrice de A par rapport a e ` la base canonique, on a, par la Proposition 13.1, () c (A )c = At ,

donc A est auto-adjoint si et seulement si A = At . Pour traduire en termes matriciels les changements de bases orthonormes de Rn , on utilise le e rsultat suivant : e e 13.4. Lemme. Les colonnes dune matrice carre Q Rnn forment une base orthonorme de e R si et seulement si la matrice Q est inversible et Q1 = Qt .
n

Les matrices qui poss`dent les proprits de lnonc sont appeles matrices orthogonales.1 e ee e e e Dmonstration. On sait que Q est inversible si et seulement si rang Q = n (voir le Corole laire 6.6). Comme le rang dune matrice est la dimension de lespace engendr par ses colonnes, cette e e condition est ralise si et seulement si les colonnes de Q forment une base de Rn . Pour tablir que e e

de

R!
n

1 Pour

quune matrice de

nn

soit orthogonale, il ne sut donc pas que ses colonnes forment une base orthogonale

13. THEORIE SPECTRALE

95

cette base est orthonorme si et seulement si Qt = Q1 , on calcule le produit Qt Q en dcomposant e e Q par colonnes. Soit Q = q1 qn ; alors t t t q1 q1 q1 q1 qn . . . . . Qt Q = . q1 qn = . . . . t t t qn q1 qn qn qn
t ` On a donc Qt Q = In si et seulement si qi qj = ij , ce qui revient a dire que la base (q1 , . . . , qn) t e est orthonorme, puisque qi qj = (qi |qj ). Comme la matrice Q est carre, la condition Qt Q = In e est quivalente ` Qt = Q1 par le Thor`me 2.8. e a e e 2

Voici ` prsent la version matricielle du thor`me spectral : a e e e 13.5. Thor`me spectral. Pour une matrice relle A Rnn , les conditions suivantes sont e e e quivalentes : e (a) Il existe une matrice orthogonale Q Rnn telle que Q1 A Q soit une matrice diagonale. e (b) Il existe une base orthonorme de Rn pour le produit scalaire usuel constitue de vecteurs e propres de A. (c) La matrice A est symtrique : e At = A. De plus, les matrices orthogonales Q satisfaisant la condition (a) sont les matrices dont les colonnes e e forment une base orthonorme de Rn constitue de vecteurs propres de A et les entres diagonales de e Q1 A Q sont les valeurs propres de A. Dmonstration. (a) (b) : Cela rsulte des Lemmes 12.10 et 13.4. e e ea (a) (c) : Cela dcoule du Thor`me 13.3, appliqu ` loprateur A : Rn Rn associ ` A. En e e e ea e eet, cet oprateur est auto-adjoint si et seulement si A est symtrique, vu la relation (). e e 2 Remarque : On peut aussi donner une dmonstration directe de lquivalence (b) (c). Vu le e e e e Lemme 13.2, le polynme caractristique PcA (X) R[X] se dcompose en produit de facteurs rels o e de degr 1. La Proposition 12.4 livre alors une matrice rguli`re P Rnn telle que P 1 A P soit e e e triangulaire suprieure ; soit e ( ) P 1 A P = T. P = QR est une matrice orthogonale et R Rnn est une matrice triangulaire suprieure dont e o` Q R u les entres diagonales sont non nulles. De lquation ( ) on tire alors e e
nn

Dapr`s la Proposition 11.7 (p. 77), on peut factoriser e

Q1 A Q = R T R1 . Or, linverse dune matrice triangulaire suprieure est une matrice triangulaire suprieure et tout e e produit de matrices triangulaires suprieures est une matrice triangulaire suprieure, donc Q1 A Q e e est une matrice triangulaire suprieure. e e e Par ailleurs, comme A est symtrique, un calcul montre que Q1 A Q est aussi symtrique. D`s e ` e e lors, Q1 A Q est diagonale puisquelle est a la fois triangulaire suprieure et symtrique. Pour tablir la rciproque, il sut de remarquer que les matrices diagonales sont symtriques et e e e e e que si Q1 A Q est symtrique pour une matrice Q orthogonale, alors A est symtrique. Exercices (13.1) Pour chacune des matrices A suivantes, trouvez une matrice orthogonale P telle que P 1 A P soit diagonale : 2 0 1 3 2 2 (a) 0 2 0 (b) 2 2 0 1 0 2 2 0 4

13. THEORIE SPECTRALE

96

(13.2) Soit A un oprateur sur un espace E de dimension nie. Dmontrez : Ker A = (Im A) et e e Im A = (Ker A) . (13.3) Soit Q Rnn . Montrer que Q est orthogonale si et seulement si Qt est orthogonale. En dduire quune matrice est orthogonale si et seulement si ses lignes forment une base orthonorme de e e vecteurs propres de Rn (pour le produit scalaire usuel). (13.4) Soit P : E E un oprateur linaire sur un espace euclidien de dimension nie. Montrer que e e P est une projection orthogonale sur un sous-espace de E si et seulement si P est auto-adjoint et P2 = P. e e (13.5) Soient P , P des oprateurs linaires sur un espace euclidien E de dimension nie. On suppose que P est la projection orthogonale sur un sous-espace V E et que P est la projection orthogonale sur un sous-espace V E. Montrer que V et V sont orthogonaux si et seulement si P P = P P = 0. (13.6) (pour aller plus loin) En utilisant les deux exercices prcdents, montrer que lon peut e e exprimer le thor`me spectral sous la forme suivante : pour tout oprateur auto-adjoint A sur un e e e e espace euclidien E de dimension nie, il existe des oprateurs P1 , . . . , Pr et des nombres rels 1 , e ` . . . , r distincts deux a deux tels que Pi Pj = 0 pour i = j, Pi2 = Pi = Pi, P1 + + Pr = IE et A = 1 P1 + + R Pr .

CHAPITRE VII

Formes quadratiques
Une forme quadratique relle en n indtermines x1 , . . . , xn est un polynme homog`ne de degr 2 e e e o e e a ` coecients dans R. Un tel polynme scrit sous la forme o e q(x1 , . . . , xn ) =
1 i j n

aij xi xj .

e e e Deux formes quadratiques q(x1 , . . . , xn ) et q (x1 , . . . , xn ) sont dclares quivalentes si lon peut passer de lune a lautre par un changement linaire de variables, cest-`-dire par un changement de ` e a variables du type
n n

xi =
j=1

pij xj

xi =
j=1

pij xj

pour certains coecients pij , pij R. Le premier objectif de ce chapitre est de classier les formes quadratiques relles ` un changement e a linaire de variables pr`s. Dans la deuxi`me partie, on dveloppe un point de vue plus gomtrique en e e e e e e montrant que les formes quadratiques correspondent ` des produits scalaires gnraliss. a e e e

14. Classication des formes quadratiques relles e


` A toute forme quadratique q(x1 , . . . , xn ) =
1 i j n

aij xi xj R[x1 , . . . , xn] ,

on associe la matrice symtrique e

A=

a11
a12 2

a12 2 a22

. . .

. . .
a2n 2

.. .

a1n 2 a2n 2

. . .

a1n 2

ann x1 . A . . . xn

qui est la seule matrice symtrique telle que e q(x1 , . . . , xn ) = Cette derni`re galit se note simplement e e e q(X) = X t A X x1 xn

x1 . o` X = . . u . xn

Pour prciser quelle relation sur les matrices de coecients correspond ` lquivalence des formes e a e quadratiques, considrons une autre forme quadratique e q (x1 , . . . , xn ) =
1 i j n

aij xi xj ,

de matrice symtrique associe A , de sorte que e e q(X ) = X A X .


97 t

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

98

Un changement linaire de variables sexprime sous la forme e X = P X,


nn

X =P X

o` P , P R u . Ces relations indiquent que P P = P P = In , donc P et P sont deux matrices inverses lune de lautre. La condition que le changement de variables transforme la forme q (X ) en q(X) sexprime comme suit : q (P X) = q(X) cest-`-dire a (P X)t A P X = X t A X. Comme une forme quadratique dtermine de mani`re unique la matrice symtrique associe, lgalit e e e e e e Xt P t A P X = Xt A X e ` ne peut avoir lieu que si P t A P = A. Lquivalence des formes quadratiques revient donc a lquivalence des matrices symtriques associes sous la relation suivante : les matrices symtriques A e e e e e e et A sont congruentes sil existe une matrice rguli`re P telle que A = P t A P. On peut d`s lors utiliser les rsultats des chapitres prcdents sur les matrices symtriques pour obtenir e e e e e des informations concernant les formes quadratiques. 14.1. Diagonalisation 14.1. Proposition. Toute forme quadratique relle en n indtermines est quivalente a une e e e e ` forme diagonale a1 x 2 + + an x 2 1 n pour certains scalaires a1 , . . . , an R. e e Demonstration. Soit q(X) = X t A X une forme quadratique en n indtermines, de matrice symtrique associe A. Dapr`s le thor`me spectral 13.5, on peut trouver une matrice orthogonale Q e e e e e telle que Q1 A Q soit diagonale ; soit Q1 A Q = , les entres diagonales de tant les valeurs propres 1 , . . . , n de A. Comme Qt = Q1 , le changement e e de variables X =QX X = Qt X transforme la forme quadratique q(X) en q (X ) = q(Q X ) = X Qt A Q X = X X ; donc q(X) est quivalente ` la forme e a q (X ) = 1 x 1 + + n x n . 2 Techniques de diagonalisation. Plusieurs mthodes permettent de rduire une forme quadratique e e e e e e ` relle q(X) = X t A X en n indtermines, de matrice symtrique associe A Rnn , a la forme e diagonale. 1. La mthode la moins conomique est celle utilise dans la dmonstration de la Proposition 14.1. e e e e e Elle consiste ` trouver une base orthonorme de Rn constitue de vecteurs propres de A. Si Q est la a e matrice dont les colonnes sont les vecteurs de cette base orthonorme, alors le changement de variables e e ` X = Q X rduit la forme quadratique q(X) a la forme diagonale q (X ) = 1 x 1 + + n x n o` 1 , . . . , n sont les valeurs propres de A. u
2 2 2 2 t t

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

99

2. On peut utiliser les oprations lmentaires sur la matrice A, a condition de faire suivre chaque e ee ` opration lmentaire sur les lignes par la mme opration lmentaire sur les colonnes. Cela revient e ee e e ee en eet ` multiplier la matrice A ` gauche par une matrice lmentaire E et ` droite par sa transpose a a ee a e ` E t . On obtient ainsi une nouvelle matrice A = E A E t qui est congruente a la matrice A ; la forme quadratique correspondante est donc quivalente ` la forme quadratique donne. e a e 3. Un procd particuli`rement conomique est la mthode de compltion des carrs. Il sagit dune e e e e e e e suite de changements de variables par lesquels les termes rectangles xi xj (avec i = j) sont successivement limins. e e Supposons dabord que les coecients des termes carrs x2 ne soient pas tous nuls. Soit par e i e exemple a2 = 0. Ecrivons alors la forme quadratique donne en rassemblant tous les termes qui ne 11 contiennent pas x1 : q(x1 , . . . , xn) = a11 x2 + (a12 x1 x2 + + a1n x1 xn ) + q1 (x2 , . . . , xn ). 1 Comme on a suppos a11 = 0, on peut poser e x1 = x1 + de sorte que x1 = x2 + 1 alors q(x1 , . . . , xn) = a11 x1 + q1 (x2 , . . . , xn ) En posant q2 (x2 , . . . , xn ) = q1 (x2 , . . . , xn)
1 (a12 x2 4a11 2 2 2

a12 a1n x2 + + xn , 2a11 2a11


2

1 (a12 x1 x2 + + a1n x1 xn ) + a11

a12 a1n x2 + + xn 2a11 2a11

1 (a12 x2 + + a1n xn )2 . 4a11

+ + a1n xn )2 , on a donc

q(x1 , . . . , xn) = a11 x1 + q2 (x2 , . . . , xn ), et lon peut envisager de rpter lopration prcdente sur la forme quadratique q2 (x2 , . . . , xn ), dont e e e e e le nombre de variables est n 1. Cela nest possible a priori que si les coecients des termes carrs de q2 ne sont pas tous nuls. e Cependant, il est possible de modier la procdure ci-dessus pour faire face a la situation o` les e ` u coecients des termes carrs sont tous nuls. e Supposons par exemple a11 = a22 = 0 et a12 = 0. Le changement de variables x1 x2 fait alors appara les termes carrs tre e a12 x1 a12 x2 et ram`ne ` la forme prcdente. e a e e On peut formaliser cette mthode tout en explicitant la condition pour quil ne soit pas ncessaire e e de recourir a la modication ci-dessus : ` 14.2. Proposition. Soit A = (aij )1 on consid`re la sous-matrice symtrique e e
i,j n 2 2

= =

x1 + x2 x1 x2

Rnn une matrice symtrique. Pour k = 1, . . . , n, e


i,j k

Ak = (aij )1 et on pose e k = dt Ak Soit aussi 0 = 1.

pour k = 1, . . . , n.

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

100

Si k = 0 pour k = 1, . . . , n, alors il existe une matrice triangulaire suprieure R Rnn dont toutes e les entres diagonales sont gales a 1 telle que e e ` 1 /0 0 2 /1 Rt A R = . .. . 0 n /n1 En particulier, la matrice R est rguli`re et le changement de variables X = R X transforme la e e forme quadratique q(X) = X t A X en q (X ) = 1 2 n 2 x 1 ++ x n. 0 n1

Dmonstration. On raisonne par induction sur n. Si n = 1, il sut de prendre R = (1). e Supposons donc la proprit tablie pour les matrices dordre n 1. On peut lappliquer a An1 pour eee ` e e a trouver une matrice triangulaire Rn1 dont toutes les entres diagonales sont gales ` 1 et telle que 1 /0 0 .. Rt An1 Rn1 = . . n1

0
Posons R= Rn1 0 v 1

n1 /n2

o` v Rn1 est un vecteur que lon se propose de dterminer de telle sorte que les conditions requises u e soient satisfaites. Quel que soit v, la matrice R est triangulaire suprieure avec des 1 sur la diagonale. e e Pour dterminer sous quelle condition la matrice Rt A R est diagonale, dcomposons la matrice A e de mani`re semblable ` R : e a u An1 . A= ut ann Un calcul par blocs donne () Rt A R = Rt An1 Rn1 n1 (vt An1 + ut ) Rn1 Rt (An1 v + u) n1 x

o` x = vt An1 v + vt u + ut v + ann . Comme par hypoth`se la matrice An1 est rguli`re, le u e e e syst`me linaire e e An1 X + u = 0 admet une solution. Si lon choisit pour v cette solution, alors le coin suprieur droit de Rt A R e dans la dcomposition () est nul. Le coin infrieur gauche lest aussi, puisque la matrice Rt A R est e e e symtrique. Comme la matrice Rt An1 Rn1 est diagonale, il en est de mme de Rt A R ; soit e n1 1 /0 0 .. t . () R AR = . n1 /n2 0 x Pour achever la dmonstration, il sut de prouver que x = n /n1 . e Comparons pour cela les dterminants des deux membres de (). Comme R est une matrice e triangulaire avec des 1 sur la diagonale, on a dt R = 1, donc e 1 2 n1 x. dt A = dt (Rt A R) = e e 0 1 n2 e e Comme dt A = n et 0 = 1, cette derni`re relation peut scrire n = n1 x, donc e x= n n1 . 2

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

101

14.2. Invariants Lobjectif de cette section est de dgager des invariants de formes quadratiques relles qui pere e mettent de classier celles-ci ` quivalence pr`s. Le premier de ces invariants utilise une notion connue : ae e Rang. 14.3. Proposition. Le rang de la matrice symtrique associe a une forme quadratique ne varie e e ` pas par changement de variables. Dmonstration. Il sut de prouver que des matrices congruentes ont le mme rang. Soit e e A = Pt A P o` P est une matrice rguli`re. Comme le rang dun produit de matrices est major par le rang de u e e e chacun des facteurs, on a rang A. rang A Cependant, comme P est rguli`re, on a aussi e e (P t )1 A P 1 = A et le mme argument donne e rang A On a donc bien rang A = rang A. 2 Le rang de la matrice symtrique associe ` une forme quadratique est donc un invariant de la forme a e e a ` quivalence pr`s. En abusant lg`rement de la terminologie, on lappelle rang de la forme quadratique ; e e e e si A est la matrice symtrique telle que q(X) = X t A X, on pose donc e rang q = rang A. Indices. Deux autres invariants peuvent tre dnis a partir dune diagonalisation quelconque : e e ` 14.4. Thor`me (Loi dinertie de Sylvester). Soit q une forme quadratique relle en n indtere e e e mines et soit e d(x1 , . . . , xn ) = a1 x2 + + an x2 1 n une forme quadratique diagonale quivalente ` q. Soit encore r (resp. s, resp. t) le nombre de coee a cients ai > 0 (resp. ai < 0, resp. ai = 0), de sorte que r + s + t = n. Les entiers r, s et t ne dpendent que de la forme quadratique q et non du choix de la forme diagonale e d quivalente ` q, et e a rang q = r + s. Dmonstration. Supposons que e d (x1 , . . . , xn) = a1 x1 + + an xn
2 2

rang A.

soit une autre forme quadratique diagonale quivalente a q. Quitte a changer la numrotation des e ` ` e indtermines, on peut supposer e e ai > 0 ai < 0 ai = 0 De mme, supposons e ai > 0 ai < 0 ai = 0 pour i = 1, . . . , r pour i = r + 1, . . . , r + s pour i = r + s + 1, . . . , r + s + t = n. pour i = 1, . . . , r pour i = r + 1, . . . , r + s pour i = r + s + 1, . . . , r + s + t = n.

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

102

Il sagit de prouver r=r et () r + s = rang q = r + s . q(X) = X t A X e et soient D et D les matrices diagonales dont les entres diagonales sont respectivement a1 , . . . , an et a1 , . . . , an : a1 a1 0 0 .. .. D = D= . . . 0 an 0 an Par hypoth`se, ces matrices sont congruentes ` A ; il existe donc des matrices rguli`res (de changement e a e e de variables) P et P telles que Pt A P = D Dapr`s la Proposition 14.3, on a e rang D = rang A = rang D , ce qui tablit la relation (). On en dduit e e t = n (r + s) = n (r + s ) = t . Pour conclure la dmonstration, il sut a prsent de prouver r = r car alors e ` e s = (rang q) r = (rang q) r = s . e e e e Soit V R le sous-espace engendr par les r premi`res colonnes de P . Comme P est rguli`re, ses colonnes sont linairement indpendantes, donc e e
n

s=s

t=t

Soit A la matrice symtrique associe ` q : e e a

P AP =D .

dim V = r. Par ailleurs, les vecteurs de V scrivent tous sous la forme e x1 . . . x v = P r 0 . . . 0 pour certains x1 , . . . , xr R, et x1 . . . x D r 0 . . . 0 = a1 x 2 1 + + ar x 2 . r 0 pour tout v V , et lgalit q(v) = 0 na lieu que si e e Comme a1 , . . . , ar > 0, on voit que q(v) a x1 = = xr = 0, cest-`-dire si v = 0. e e Considrons par ailleurs le sous-espace W Rn engendr par les s + t derni`res colonnes de P . e On a dim W = s + t = n r

q(v)

vt A v =

x1

xr

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

103

et tout vecteur de W scrit e

0 w=P xr+1 . . . xn pour certains xr+1 , . . . , xn R. Pour un tel w, on a


2

0 . . .

q(w) = ar+1 xr+1 + + an xn donc q(w) puisque ar+1 , . . . , an D`s lors, e 0. 0

V W = {0} car si lintersection V W contenait un vecteur u = 0 on devrait avoir dune part q(u) > 0 car u V , u = 0, dautre part q(u) 0 car u W . Par la relation qui lie dim(V + W ) et dim(V W ) (Proposition 5.7, p. 34), on en dduit e dim(V + W ) = dim V + dim W = r + (n r ). Or, V + W R , donc
n

dim(V + W ) dim Rn = n. En combinant les deux derni`res relations, on obtient r + n r e r r donc r=r. r. r, e En changeant les rles de D et D , on obtiendrait de mme e o

n, cest-`-dire a

2 Le nombre de coecients > 0 dans une diagonalisation quelconque dune forme quadratique q e est appel indice de positivit de q et not ind+ q. De mme, le nombre de coecients < 0 dans une e e e diagonalisation quelconque de q est appel indice de ngativit de q et not ind q. Comme on la e e e e observ dans le thor`me prcdent, e e e e e ind+ q + ind q = rang q. Les indices permettent de dtecter certaines proprits des formes quadratiques : une forme quadrae ee tique relle q en n indtermines est dite dnie positive si e e e e q(x1 , . . . , xn ) > 0 elle est dite semi-dnie positive si e q(x1 , . . . , xn ) On dit aussi que q est dnie ngative si e e q(x1 , . . . , xn ) < 0 et quelle est semi-dnie ngative si e e q(x1 , . . . , xn ) 0 pour tout (x1 , . . . , xn ) Rn . pour tout (x1 , . . . , xn) Rn {(0, . . . , 0)} 0 pour tout (x1 , . . . , xn ) Rn . pour tout (x1 , . . . , xn ) Rn {(0, . . . , 0)};

14.5. Proposition. Soit q une forme quadratique relle en n indtermines. La forme q est e e e dnie positive (resp. dnie ngative) si et seulement si ind+ q = n (resp. ind q = n). Elle est e e e semi-dnie positive (resp. semi-dnie ngative) si et seulement si ind q = 0 (resp. ind+ q = 0). e e e

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

104

Dmonstration. Soit e d(x1 , . . . , xn ) = a1 x2 + + an x2 1 n une forme quadratique diagonale quivalente a q. Si A est la matrice symtrique associe ` q, on a e ` e e a donc a1 0 t .. P AP = .

0 an e pour une certaine matrice rguli`re P . En particulier, si pi est la i-`me colonne de P , alors e e
q(pi ) = pt A pi = ai . i e e D`s lors, si q est dnie positive on a ai > 0 pour tout i, donc ind+ q = n. De mme, si q est semi-dnie e e positive on a ai 0 pour tout i, donc ind q = 0. Rciproquement, si ind+ q = n, alors ai > 0 pour tout i, donc e d(x1 , . . . , xn ) > 0 et si ind q = 0, alors ai d(x1 , . . . , xn ) pour tout (x1 , . . . , xn ) Rn 0 {(0, . . . , 0)} 0 pour tout i, donc pour tout (x1 , . . . , xn ) Rn .

e Or, pour X Rn on a q(X) = d(P 1 X), donc q est dnie positive si et seulement si d lest. La dmonstration est semblable pour les conditions de dnie ngativit et de semi-dnie ngativit. 2 e e e e e e e e e e 14.6. Corollaire. Soit q(X) = X t A X une forme quadratique relle en n indtermines, de e matrice symtrique associe A. Si q est dnie positive, alors1 dt A > 0. e e e Dmonstration. Comme dans la proposition prcdente, on peut trouver une matrice inversible e e e e e P telle que la matrice P t A P est diagonale, toutes ses entres diagonales tant strictement positives. On a alors dt (P t A P ) > 0, donc e e e e e dt P t dt A dt P = dt A (dt P )2 > 0, e ce qui entra dt A > 0. ne e 2

Les techniques de diagonalisation indiques au numro prcdent permettent de dterminer les invae e e e e riants des formes quadratiques : e e e 14.7. Proposition. Soit q(X) = X t A X une forme quadratique relle en n indtermines, de matrice symtrique associe A = (aij )1 i,j n. e e 1. Lindice de positivit (resp. de ngativit) de q est le nombre de valeurs propres strictement e e e positives (resp. strictement ngatives) de A. e Pour k = 1, . . . , n, soit Ak = (aij )1 Soit aussi 0 = 1. e e e e 2. Si k = 0 pour k = 1, . . . , n, lindice de positivit (resp. de ngativit) de q est le nombre de rels strictement positifs (resp. strictement ngatifs) parmi les quotients k /k1 pour k = 1, . . . , n. e 3. La forme q est dnie positive si et seulement si k > 0 pour tout k = 1, . . . , n. e Dmonstration. 1. La diagonalisation de q obtenue par une base orthonorme de vecteurs e e propres de A est 1 x2 + + n x2 1 n o` 1 , . . . , n sont les valeurs propres de A. Cela prouve la premi`re partie. u e 2. Si k = 0 pour tout k = 1, . . . , n, alors la Proposition 14.2 produit la diagonalisation suivante de q: n 2 1 2 2 2 x1 + x2 + + x . 0 1 n1 n La deuxi`me partie en dcoule. e e
1 La

i,j k

et

k = dt Ak . e

rciproque nest pas vraie ; voir la Proposition 14.7 ci-dessous. e

14. CLASSIFICATION DES FORMES QUADRATIQUES REELLES

105

3. Si k > 0 pour tout k = 1, . . . , n, alors la deuxi`me partie montre que ind+ q = n, donc q est e dnie positive. Rciproquement, il est clair que si q est dnie positive, alors pour tout k = 1, . . . , e e e n la forme quadratique en n variables qk (x1 , . . . , xk ) = q(x1 , . . . , xk , 0, . . . , 0) est dnie positive. Comme la matrice associe ` la forme quadratique qk est Ak , le Corollaire 14.6 e e a 2 montre que k > 0. La proposition suivante indique que les indices de positivit et de ngativit dune forme quadratique e e e susent ` la dterminer de mani`re unique a quivalence pr`s : a e e `e e 14.8. Proposition. Toute forme quadratique relle en n indtermines dindice de positivit r e e e e et dindice de ngativit s est quivalente ` la forme e e e a x2 + + x2 x2 x2 . 1 r r+1 r+s En particulier, toute forme quadratique relle dnie positive en n indtermines est quivalente ` la e e e e e a forme x2 + + x2 . 1 n Demonstration. Par hypoth`se, la forme quadratique q est quivalente ` une forme diagonale e e a
2 2 d(y1 , . . . , yn ) = a1 y1 + + an yn

dont le nombre de coecients ai > 0 est r et dont le nombre de coecients ai < 0 est s (et donc le ` e e e nombre de coecients ai = 0 est n (r + s)). Quitte a changer la numrotation des indtermines, on peut supposer ai ai ai > < = 0 0 0 pour i = 1, . . . , r pour i = r + 1, . . . , r + s pour i = r + s + 1, . . . , n.

On eectue alors le changement de variables suivant : yi yi = = (ai )1/2 xi (ai )1/2 xi pour i = 1, . . . , r pour i = r + 1, . . . , r + s

et la forme quadratique d(y1 , . . . , yn ) devient x2 + + x2 x2 x2 . 1 r r+1 r+s 2 Exercices (14.1) (prrequis) Donnez un exemple de forme quadratique relle en trois variables dont le rang e e est 3 et dont lindice de positivit est 1. e (14.2) Lindice de positivit dune forme quadratique peut-il tre strictement plus grand que son e e rang ? (14.3) Pour chacune des formes quadratiques q ci-dessous, (a) donnez la matrice symtrique A associe ; e e (b) cherchez les valeurs propres et vecteurs propres de A ; (c) trouvez une matrice orthogonale P telle que P t A P soit diagonale ; (d) rduisez q ` une forme diagonale par la mthode de compltion des carrs, et dterminez la e a e e e e matrice de changement de variables correspondante ; (e) dterminez le rang, lindice de positivit et lindice de ngativit de q. e e e e

15. ESPACES QUADRATIQUES

106

1. 3x2 + 2x1 x2 + x2 . 1 2 2. 2x2 + x1 x2 3x2 . 1 2 3. 5x2 + 3(x2 x2 ) 4x2 x3 . 1 2 3 4. 7x2 + 25x2 + 7x2 48x1 x3 . 1 2 3 5. x2 + x2 + x2 2x1 x2 2x1 x3 2x2 x3 . 1 2 3 6. x2 x2 + 6x2 + 4x1 x2 . 1 3 2 7. 2x2 4x1 x2 + 2x1 x3 + x2 2x2 x3 + 1 x2 . 1 2 2 3 8. 4x1 x2 + 2x1 x3 + x2 + 2x2 x3 . 3 9. x2 + 2x1 x3 + 2x2 + x2 x3 . 1 3 u e e 10. x2 + x2 + x2 + 2x1 x3 + x2 x4 , o` est un param`tre rel. 1 2 3 (14.4) Dterminez le rang, lindice de positivit et lindice de ngativit de la forme quadratique e e e e suivante dapr`s la valeur du param`tre rel : e e e x2 2x1 x2 + 2x1 x3 + 2x2 + 8x2 . 1 2 3 (14.5) Soit A une matrice symtrique relle dordre n. Montrez que la forme quadratique q(X) = e e e e e X t A X est dnie positive si et seulement si A = P t P pour une certaine matrice rguli`re P . Dterminez une matrice P telle que e 1 1 = P t P. 1 2 (14.6) Deux matrices symtriques congruentes ont-elles le mme dterminant ? Ont-elles les mmes e e e e valeurs propres ? Ont-elles le mme rang ? Si oui, justiez ; si non, donnez un contre-exemple. e (14.7) Montrez que le signe (> 0, < 0 ou = 0) du dterminant de la matrice symtrique associe ` e e e a une forme quadratique relle est un invariant de la forme. e (14.8) (pour aller plus loin) Soit q une forme quadratique relle en n variables. Prouvez que si e lquation q(x1 , . . . , xn) = 0 na pas dautre solution que la solution triviale x1 = = xn = 0, alors e la forme q est dnie positive ou dnie ngative. e e e

15. Espaces quadratiques


15.1. Formes bilinaires symtriques e e Soit E un espace vectoriel rel. Une forme bilinaire symtrique sur E est une application e e e b: E E R satisfaisant les conditions suivantes : 1. Bilinarit : pour x, y, z E et , R, e e b(x + y, z) b(z, x + y) 2. Symtrie : pour x, y E, e b(y, x) = b(x, y). Les produits scalaires sur E sont donc des formes bilinaires symtriques ; ce sont les formes bilinaires e e e symtriques qui satisfont de plus la condition e b(x, x) > 0 pour tout x = 0. = = b(x, z) + b(y, z). b(z, x) + b(z, y) .

Il est important de remarquer que cette condition nest pas impose ici. Lespace E peut donc contenir e des vecteurs non nuls x tels que b(x, x) = 0 ou mme b(x, x) < 0. e Un espace muni dune forme bilinaire symtrique est appel espace quadratique. Les espaces e e e euclidiens sont donc des espaces quadratiques particuliers.

15. ESPACES QUADRATIQUES

107

Exemple : Formes bilinaires symtriques sur Rn . e e e associe une forme bilinaire bA sur Rn dnie par e bA (x, y) = xt A y Comme xt A y R11 , on a

` A toute matrice symtrique A Rnn on e

pour x, y Rn (= Rn1 ).

xt A y = (xt A y)t = yt A x. Or, At = A, donc xt A y = yt A x, e et la forme bilinaire bA est donc symtrique. e e Inversement, ` toute forme bilinaire symtrique b sur Rn on associe la matrice Ab Rnn dnie a e e par Ab = (b(ci , cj ))1 i,j n o` (c1 , . . . , cn ) est la base canonique de Rn . Comme b(cj , ci ) = b(ci , cj ), la matrice Ab est symtrique. u e e e 15.1. Proposition. Les applications A bA et b Ab dnissent des bijections rciproques entre lensemble des matrices symtriques relles dordre n et lensemble des formes bilinaires syme e e e triques sur Rn . Dmonstration. Il sut de prouver que pour toute matrice symtrique A et pour toute forme e e bilinaire symtrique b, e e et bAb = b. AbA = A Or, si A = (aij )1 i,j n, alors bA (ci , cj ) = ct A cj = aij , i donc AbA = (bA (ci , cj ))1 i,j n = (aij )1 i,j n = A. Dautre part, si b est une forme bilinaire symtrique sur Rn , alors pour x, y Rn , e e bAb (x, y) = = =
i,j=1

xt Ab y xt (b(ci , cj ))1
n

i,j n

xi b(ci , cj ) yj b(x, y) 2

= donc bAb = b.

Cette proposition montre que les formes bilinaires symtriques sur Rn sont en correspondance bie e univoque avec les matrices symtriques relles dordre n. Comme celles-ci correspondent aux formes e e quadratiques relles en n variables, comme on la vu au dbut de la section prcdente, on peut e e e e e conclure que les formes bilinaires symtriques sur Rn et les formes quadratiques relles en n variables e e ` e se correspondent bijectivement : la forme quadratique q(X) = X t AX correspond a la forme bilinaire e e b(X, Y ) = X t A Y (par lintermdiaire de la matrice symtrique A Rnn ). Le point de vue des espaces quadratiques donne cependant un clairage plus gomtrique sur la e e e thorie des formes quadratiques, comme on se propose de le faire voir dans les sections suivantes. e 15.2. Reprsentation matricielle e ` e Soit e = (e1 , . . . , en ) une base dun espace E de dimension nie. A toute forme bilinaire e symtrique b sur E on fait correspondre une matrice (b)e Rnn dnie par e (b)e = (b(ei , ej ))1 b(ej , ei ) = b(ei , ej ) cette matrice est symtrique. e
i,j n.

Cette matrice est appele matrice de Gram de la forme b par rapport a la base e. Comme e ` pour i, j = 1, . . . , n,

15. ESPACES QUADRATIQUES

108

Par exemple, si A est une matrice symtrique dordre n et si bA est la forme bilinaire symtrique e e e e e correspondante sur Rn (voir lexemple de la section prcdente), alors la Proposition 15.1 montre que, par rapport a la base canonique c, ` (bA )c = A. Proprits. e e 1. Pour x, y E, b(x, y) = e (x)t (b)e e (y). (b)f = e (IE )t (b)e e (IF )f . f Dmonstration. 1. Soient x = e
n i=1 ei xi

2. Si f est une autre base de E, alors


n j=1 ej yj ,

x1 . e (x) = . . xn
n

et y = et

de sorte que y1 . e (y) = . . . yn

En utilisant la bilinarit de la forme b, on obtient e e b(x, y) =


i,j=1

xi b(ei , ej ) yj . y1 . , . . yn

Le membre de droite est aussi le rsultat de la multiplication matricielle e b(e1 , e1 ) b(e1 , en ) . . . . x1 xn . . b(en , e1 ) ce qui prouve la premi`re partie. e 2. Soit f = (f1 , . . . , fn ) et
n

b(en , en )

fj =
i=1

ei aij

pour j = 1, . . . , n,

de sorte que e (IE )f = (aij )1

i,j n.

En utilisant la bilinarit de b, on obtient e e


n n

b(fi , fj ) = =

b
k=1 n

ek aki ,
=1

ea

aki b(ek , e ) a j .
k, =1

Le membre de droite est lentre dindices i, j du produit matriciel e a11 b(e1 , e1 ) b(e1 , en ) a11 an1 . . . . . . . . . . . . . . . a1n ann an1 b(en , e1 ) b(en , en ) =
t e (IE )f

a1n . . . ann 2

(b)e e (IE )f .

La deuxi`me proprit ci-dessus montre que les matrices de Gram associes ` une mme forme bie ee e a e linaire symtrique par rapport a des bases direntes sont congruentes. e e ` e On peut aussi dcrire cette situation de la mani`re suivante : ` toute base e dun espace quadratique e e a E, on peut associer une forme quadratique qe (X) = X t (b)e X qui donne lexpression du produit dun vecteur par lui-mme par rapport a la base e : e ` qe (x1 , . . . , xn ) = b(e1 x1 + + en xn , e1 x1 + + en xn ).

15. ESPACES QUADRATIQUES

109

La deuxi`me proprit ci-dessus montre que les formes quadratiques qe et qe associes ` deux bases e ee e a direntes sont quivalentes. Inversement, si une forme quadratique q est quivalente a la forme qe , e e e ` soit q(X) = X t A X o` la matrice A est congruente a la matrice (b)e de la forme qe : u ` A = P t (b)e P pour une certaine matrice rguli`re P , alors dapr`s la Proposition 9.7 il existe une base f de E telle e e e e e ee que P = e (IE )f . Dapr`s la deuxi`me proprit ci-dessus, on a (b)f = e (IE )t (b)e e (IE )f = A, f e a donc la forme quadratique q donne est la mme que la forme qf associe ` la base f : e e q = qf . En conclusion, un espace quadratique correspond a une classe dquivalence de formes quadratiques : la ` e donne dune base de lespace dtermine une forme quadratique, et un changement de base fait passer e e dune forme quadratique a une forme quivalente. D`s lors, les invariants des formes quadratiques a ` e e ` quivalence pr`s doivent pouvoir tre dnis de mani`re gomtrique en termes despaces quadratiques. e e e e e e e Cest ce que lon se propose dillustrer dans la section suivante. 15.3. Invariants Rang. Soit E un espace quadratique muni dune forme bilinaire symtrique b. On dnit le radical e e e de b par rad b = {x E | b(x, y) = 0 pour tout y E}. On dit que la forme bilinaire b (ou lespace quadratique E) est rguli`re (ou non dgnre) si e e e e e e e rad b = {0}. 15.2. Proposition. Soit dim E = n et soit e = (e1 , . . . , en ) une base de E. Le radical de b est ` lensemble des vecteurs x E dont les coordonnes e (x) par rapport a la base e sont solutions du e syst`me e (b)e e (x) = 0. En particulier, dim rad b = n rang(b)e . Dmonstration. Pour x, y E, on a e b(y, x) = e (y)t (b)e e (x); donc si (b)e e (x) = 0, alors b(y, x) = 0 pour tout y E supposons x rad b et 1 . (b)e e (x) = . . n Pour i = 1, . . . , n, on a b(ei , x) = 0 car x rad b et i 0 1 1 . . = i , . n et par consquent x rad b. Inversement, e .

t e (ei )

(b)e e (x) =

e donc i = 0. D`s lors, (b)e e (x) = 0 si x rad b. e Lisomorphisme e qui envoie tout vecteur x E sur ses coordonnes e (x) Rn met donc en bijection rad b et lensemble des solutions du syst`me homog`ne e e (b)e X = 0. Dapr`s la Proposition 6.9 (page 41), cet ensemble est un sous-espace vectoriel de Rn de dimension e 2 n rang(b)e .

15. ESPACES QUADRATIQUES

110

Cette proposition montre que rang(b)e est un invariant de lespace quadratique E : il ne dpend que de e la forme b et non de la base e. Cest une mani`re gomtrique de prouver la Proposition 14.3 (p. 101). e e e Indice. Un sous-espace V E est dit dni positif si e b(v, v) > 0 pour tout v V, v = 0.

On dnit lindice de positivit de lespace quadratique E par e e e ind+ E = max{dim V | V E sous-espace dni positif}. e ` 15.3. Proposition. Pour toute base e de E, la forme quadratique qe associe a e par la formule qe (x1 , . . . , xn ) = b(e1 x1 + + en xn , e1 x1 + + en xn ) a le mme indice de positivit que lespace quadratique E : e e ind+ E = ind+ qe . ` Dmonstration. Soit q une forme quadratique diagonale quivalente a qe . Quitte a changer e e ` lordre des variables, on peut supposer q(x1 , . . . , xn) = a1 x2 + + an x2 1 n avec a1 , . . . , ar > 0 et ar+1 , . . . , an 0, de sorte que ind+ qe = r. Comme q est quivalente ` qe , on peut trouver une base f = (f1 , . . . , fn ) de E telle que q = qf , comme e a on la vu a la n de la section prcdente. ` e e Soit V = sev f1 , . . . , fr . Pour v V , soit v = f1 1 + + fr r , on a b(v, v) = = = b(f1 1 + + fr r , f1 1 + + fr r ) qf (1 , . . . , r , 0, . . . , 0) a 1 2 + + ar 2 . 1 r

e Comme a1 , . . . , ar > 0, on a donc b(v, v) > 0 si v = 0, ce qui montre que V est dni positif. Comme e ind+ E est la plus grande dimension dun sous-espace dni positif, on doit avoir ind+ E dim V = ind+ qe .

e e e Considrons par ailleurs W = sev fr+1 , . . . , fn . Le mme calcul que prcdemment montre que pour e w W , soit w = fr+1 r+1 + + fn n , on a
2 2 b(w, w) = ar+1 r+1 + + an n

0.

D`s lors, lintersection de W avec tout sous-espace dni positif doit tre rduite a {0}. Si U est un e e e e ` sous-espace dni positif de dimension maximale : dim U = ind+ E, alors de la relation U W = {0} e on dduit e dim U + W = dim U + dim W par la Proposition 5.7, donc dim E dim U + dim W. e Comme dim W = n r = dim E ind+ qe et dim U = ind+ E, on en dduit ind+ qe ind+ E. 2 Cette proposition est une version gomtrique de la loi dinertie de Sylvester. e e

15. ESPACES QUADRATIQUES

111

Exercices e (15.1) (prrequis) On consid`re lapplication b : R4 R4 R dnie par e e b (x1 , x2 , x3, x4 ), (y1 , y2 , y3 , y4 ) = x1 y1 + x2 y2 . (a) Vriez que b est une forme bilinaire symtrique. e e e (b) Donnez la matrice reprsentant b par rapport a la base canonique de R4 . e ` (c) Dterminez le radical rad b. e e (d) Trouvez un sous-espace de R4 dni positif de dimension maximale. 2 5 e a . Ecrivez la forme bilinaire bA sur R2 associe ` la matrice e 5 1 ` A. Ecrivez la matrice de Gram de la forme bA par rapport a la base e = ((1, 1), (1, 1)) de R2 . Ecrivez a la forme quadratique associe ` la forme bilinaire bA et ` la base e. e a e (15.2) (prrequis) Soit A = e (15.3) Soit b une forme bilinaire sur un espace E et soit e une base de E. Dmontrez que la forme e e b est non dgnre si et seulement si dt (b)e = 0. e e ee e (15.4) Sur lespace R[X]
2

on dnit une forme bilinaire symtrique par e e e


1

b(P, Q) =
0

P (x)Q(x) dx.

(a) Donnez la matrice reprsentant b par rapport a la base usuelle u = (1, X, X 2 ). e ` (b) Montrez que b est un produit scalaire. (c) Trouvez une base orthonorme de R[X] e (15.5) Sur lespace R[X]
2 2

pour ce produit scalaire.


5

on dnit une forme bilinaire symtrique par e e e b(P, Q) =


i=1

P (ai )Q(ai ),

o` a1 = 2, a2 = 1, a3 = 0, a4 = 1, a5 = 2. u (a) Donnez la matrice reprsentant b par rapport a la base usuelle u = (1, X, X 2 ). e ` (b) Montrez que b est un produit scalaire. (c) Trouvez une base orthonorme de R[X] e
2

pour ce produit scalaire.

(15.6) Montrez que tout espace quadratique admet une base orthogonale, cest-`-dire une base a (e1 , . . . , en ) telle que b(ei , ej ) = 0 pour i = j. e (15.7) Soit b la forme bilinaire sur R3 dnie par e 1 x1 y2 + x1 y3 + x2 y1 + x2 y3 + x3 y1 + x3 y2 . b (x1 , x2, x3 ), (y1 , y2 , y3 ) = 2 e Trouvez une base orthogonale de R3 pour cette forme bilinaire. Trouvez la dimension du radical de b et son indice de positivit. e e (15.8) Soit b le produit scalaire sur R3 dont une base orthonorme est e = ((1, 1, 1), (0, 1, 1), (0, 0, 1)). Trouvez la matrice de b par rapport a la base canonique de R3 . `

Appendice : Rappels et complments e


A.1 Nombres complexes Un nombre complexe est une expression de la forme a + bi o` a, b R et i est une indtermine. Tout nombre rel a R est identi au nombre complexe a + 0i, u e e e e et on note simplement bi pour 0 + bi et i pour 1i. Sur lensemble C des nombres complexes, on dnit une addition et une multiplication qui proe longent les oprations correspondantes de R en posant, pour a, a , b, b R : e (a + bi) + (a + b i) = (a + a ) + (b + b )i et (a + bi) (a + b i) = (aa bb ) + (ab + ba )i. e On a donc i2 = 1 et le nombre complexe bi est bien, comme la notation le sugg`re, le produit de b R et de i. Laddition et la multiplication des nombres complexes sont donc dnies comme laddition et la e multiplication des polynmes en i, en tenant compte de la relation supplmentaire i2 = 1. o e On dnit le conjugu du nombre complexe a + bi (o` a, b R) par e e u a + bi = a bi et sa norme par N (a + bi) = (a + bi)(a + bi) = a2 + b2 . La norme de tout nombre complexe est donc un nombre rel positif, qui nest nul que si le nombre e complexe est nul. Pour z C, z = 0, on a donc z (N (z)1 z) = 1, ce qui montre que tout nombre complexe non nul est inversible. Une vrication directe montre que e pour z, z C, z +z =z +z , et par consquent e N (z z ) = N (z) N (z ). On dnit aussi le module dun nombre complexe z C comme la racine carre de sa norme ; on e e le note |z| : |z| = N (z). Si z R, alors z = z, donc N (z) = z 2 et le module de z est sa valeur absolue, ce qui justie lutilisation de la mme notation pour le module dun nombre complexe que pour la valeur absolue dun nombre e rel. e
112

zz =zz

APPENDICE : RAPPELS ET COMPLEMENTS

113

A.2 Structures algbriques e Un groupe est un ensemble G muni dune loi de composition : G G G (x, y) x y soumise aux conditions suivantes : associativit : pour x, y, z G, e (x y) z = x (y z) existence dun lment neutre : il existe e G tel que pour tout x G, ee xe=x=ex inversibilit : pour tout x G il existe un lment x G tel que e ee x x = e = x x. Si de plus x y = y x pour x, y G, le groupe est dit commutatif. Tout groupe contient un seul lment neutre : en eet, si e et e G sont deux neutres, alors ee e e = e car e est un neutre, et e e = e car e est un neutre, donc e = e . Les notations usuelles sont la notation additive, o` la loi de composition est note +, le neutre u e 0 et linverse de x est not x ; et la notation multiplicative o` est not , le neutre 1 et linverse de e u e x est not x1 . e Un corps (commutatif) est un ensemble K muni de deux lois de composition, lune note additie vement, lautre multiplicativement, qui satisfont les conditions suivantes : 1. K est un groupe commutatif pour laddition ; 2. K {0} est un groupe commutatif pour la multiplication ; (x + y)z = xz + yz. Par exemple, C, R et lensemble Q des nombres rationnels sont des corps. Dautres exemples peuvent tre construits de la mani`re suivante : si K est un corps, lensemble des fractions rationnelles en une e e indtermine X ` coecients dans K est lensemble des quotients de polynmes : e e a o K(X) = P (X) Q(X) P (X), Q(X) K[X], Q(X) = 0 . 3. pour x, y, z K,

Cet ensemble est un corps pour les oprations usuelles. e Il y a aussi des corps qui nont quun nombre ni dlments, comme par exemple ee F2 = {0, 1}, les tables daddition et de multiplication tant donnes par e e + 0 1 0 1 0 1 1 0 0 1 0 0 0 1 0 1

e e e On a donc 1 + 1 = 0 dans F2 . Ce corps est souvent utilis en mathmatiques discr`tes.

APPENDICE : RAPPELS ET COMPLEMENTS

114

A.3 Espaces vectoriels ` gauche et a droite a ` Les espaces vectoriels dnis en (3.1) sont plus prcisment appels espaces vectoriels a droite car e e e e ` la notation x a t utilise pour le produit dun vecteur x et dun scalaire . On dnit de mme la ee e e e notion despace vectoriel a gauche : un groupe additif E est appel espace vectoriel ` gauche sur un ` e a corps K sil est muni dune opration e . : KE E (, x) x = = = x + x x + y (x) x.

satisfaisant les conditions suivantes : pour x, y E and , K, ( + )x (x + y) ()x

1.x =

Le corps K tant commutatif, tout espace vectoriel a gauche sur K admet aussi une structure despace e ` vectoriel ` droite sur K (et rciproquement) : il sut de dnir une multiplication scalaire a droite a e e ` en posant x = x pour x E et K. La commutativit de K intervient pour tablir la condition x() = (x) pour x E et , K. e e En eet, dapr`s la dnition ci-dessus de la multiplication scalaire a droite, on a x() = ()x e e ` tandis que (x) = (x). A.4 Espaces vectoriels non niment engendrs e La notion de combinaison linaire dune suite de vecteurs v1 , . . . , vn dun espace vectoriel E sur e un corps K peut stendre aux suites innies : si (vi )iI est une famille quelconque de vecteurs de E, e e o` I est un ensemble dindices arbitraire, une combinaison linaire de (vi )iI est, par dnition, un u e vecteur x E qui peut scrire sous la forme e x=
iI0

vi i

pour certains scalaires i K et un certain sous-ensemble ni I0 I. Il faut en eet garder a lesprit ` que la somme dun nombre inni de termes nest pas dnie ! e Lensemble des combinaisons linaires de la famille (vi )iI est un sous-espace de E que lon note e e sev (vi )iI et que lon appelle sous-espace vectoriel engendr par (vi )iI . On peut de mme tendre les notions de suite gnratrice, de suite libre et de base, et montrer e e e e que tout espace vectoriel admet une base. La notion de dimension peut elle aussi tre gnralise, car e e e e e on peut prouver que si (vi )iI et (wj )jJ sont deux bases dun mme espace vectoriel E, alors les ensembles dindices I et J sont en bijection. Les dmonstrations de ces noncs utilisent des notions e e e non lmentaires de thorie des ensembles qui sortent du cadre de ce cours. ee e

Vous aimerez peut-être aussi