Vous êtes sur la page 1sur 21

Chapitre V Valeurs et Vecteurs Propres

Les premiers vecteurs et valeurs propres viennent des equations diff´ rentielles (Lagrange 1759, ´ e dans le but de calculer les perturbations th´ orie du son ; Lagrange 1781, des matrices e s´ culaires des orbites des 6 plan` tes connues a l’´ poque, Oeuvres V, p. 125-490). Aujourd’hui, e e ` e le calcul des valeurs et vecteurs propres est indispensable dans toutes les branches de la science, en particulier pour la solution des syst` mes des equations diff´ rentielles lin´ aires, en th´ orie e ´ e e e de stabilit´ , pour les questions de convergence de processus it´ ratifs, et en physique et chimie e e (m´ canique, circuits, cin´ tique chimique, equation de Schr¨ dinger). e e ´ o

F IG . V.1: Une application lin´ aire comme champ de vecteurs (` gauche) ; transform´ e sur la base e a e des vecteurs propres (` droite). a Observons en figure V.1 (` gauche) le champ de vecteurs d’une equation diff´ rentielle a ´ e . Deux directions sautent aux yeux : ce sont les directions o` le vecteur u prend la mˆ me direction e que le vecteur , i.e., o` u ou (0.1) Si cette equation est v´ rifi´ e, ´ e e s’appelle valeur propre de la matrice et ( ) est le vecteur propre correspondant. L’´ quation (0.1) poss` de une solution non nulle si et seulement e e si (0.2) Le polynˆ me o est le polynˆ me caract´ ristique de la matrice o e sont alors les z´ ros du polynˆ me caract´ ristique. e o e . Les valeurs propres de

!

¤! §¥ #"¨¤

© A$ 962$ @§ 8 5 7 4 

¤ ©© 

!

$ #!

$

©©   

! 

§ 0( 3© 21$)&

§¥ ¨¤ 

§ 0( © RD&

  ¡ £¢  !'

! ' QPIG#E& ' DB HF §0 C

57 4 62& $& § $ £%#! 

©   ¤ ©  ©  

0 C E& ' EB

§¥ ¨¦¤ $

114 Bibliographie sur ce chapitre

Valeurs et Vecteurs Propres

B.N. Parlett (1980): The Symmetric Eigenvalue Problem. Prentice-Hall, Englewood Cliffs, NJ. B.T. Smith, J.M. Boyle, Y. Ikebe, V.C. Klema & C.B. Moler (1970): Matrix Eigensystem Routines: EISPACK Guide. 2nd ed., Springer-Verlag, New York. J.H. Wilkinson (1965): The Algebraic Eigenvalue Problem. Clarendon Press. [MA 65/72] J.H. Wilkinson & C. Reinsch (1971): Handbook for Automatic Computation, Volume II, Linear Algebra. Springer-Verlag, New York.

V.1 La condition du calcul des valeurs propres
A cause des erreurs d’arrondi, les el´ ments d’une matrice , pour laquelle on cherche les valeurs ´e propres, ne sont pas exacts. Ils sont plutˆ t egaux a o ´ ` avec eps (eps, la pr´ cision de l’ordinateur, est suppos´ e etre tr` s petite). Il est alors tr` s important d’´ tudier e e ˆ e e e l’influence de ces perturbations sur les valeurs propres et sur les vecteurs propres de la matrice. Pour montrer ceci, consid´ rons la famille de matrices e

(souvent, la derni` re hypoth` se va etre remplac´ e par e e ˆ e

).

(avec des el´ ments dans Th´ or` me 1.1 (Gershgorine) Soit une matrice e e ´e a) Si est une valeur propre de , alors il existe un indice tel que

ou dans

(1.2)

c.-` -d. que toutes les valeurs propres de a l’union des disques

se trouvent dans

1 vp
1 2

2 vp
3 4

1 vp
5

0

consiste de b) Si une composante connexe de disques, elle contient exactement valeurs propres de .

D´ monstration. Soit e un vecteur propre et choisissons l’indice tel que tout . La ligne de l’´ quation e donne

pour

En divisant par

et en utilisant l’in´ galit´ de triangle, on obtient e e

L’affirmation (b) est vraie si est une matrice diagonale. Le cas g´ n´ ral est obtenu par un e e argument de continuit´ en faisant tendre les el´ ments en dehors de la diagonale vers z´ ro (voir le e ´e e cours “Analyse II” concernant la d´ pendance continue de racinces d’un polynˆ me en fonction d’un e o param` tre). e

57

d •d rW $ d –”U $ d

(y

d U d fd U rXWVuTtsrXWqpid

o` u

eps

et

fgYWeU b d d

U 0 XWU ca YXWVT § XWVT b ` ' U !

€

! U …‚ d U dYXWVuTd sƒW f UW $ ghXWUVT sƒW § fXUVT & d U U …‚ $ U$  U $e0 eUUdT & ' § W $ XWVT s”W U U …‚ € $& § $ ™"%˜! © @§ £$ “ „ “ ! U ¨’‚8U  ƒYXWVuTd sƒW YXUVT & d "§ U ‘ d‡ U U …‚ f d U ‰ &ˆ

U …‚ sƒW ! u†rXWVpTd ¨ƒW YXUVT & d d U „‚ fd U 8 € ! x ¡ x ! v ! twv 7 v v f

f Yd b d 

SS

Tous les livres cit´ s dans le chapitre IV, et en plus e

b ! § 7 h` "#0 b ' !

(1.1)

).

‡

&

—

Soit e le th´ or` me des fonctions implicites garantie l’existence d’une fonction diff´ rentiable e e e (mˆ me e analytique). e . . Si la matrice est sym´ trique ( est orthogonale).5) En multipliant cette relation par . il existe avec . on obtient et d´ montre la formule (1. L’in´ galit´ de triangle donne alors e e (condition de ).4) par rapport a et poser ensuite e e ` .Valeurs et Vecteurs Propres Th´ or` me 1. Alors. Nous transformons la matrice e forme sous forme diagonale : Si l’on d´ note par e les el´ ments de ´e d’un indice tel que ce qui d´ montre l’affirmation du th´ or` me.3). Comme et § ' $ '  ”0 b ‡„ ¦“’0 b ‡„ $ © § 0 C D& ' EB   & § ‚„ „ "†! ‚„ ' 0 b S„ & i rSv „ j }sS%}v #0 isDq iv rv i § ' r †9S2}vkSv v r i v g d f r v rv i r iv g d d U W 7 Sv „ j }Dpd b t~S2i 7 „ j }Dpd b tf YeWuyd d U U …‚ d f U YeWuyd sƒW d tYd eUy b i b 7 „ j i0 h`  i 7 „ j i x` 0 8 & † SS ”„ & ' YnmIw§ i 0 b '  † o lF b © ‘0 b ‡„ $ @§ ' b   © § „ e$0”0 © ' „ ™& ' ‚„  ( ¥ ‚„  s© § „ e$ƒ0 © ' „ ¥ & 7 7 ' ` 0 © ' „¥ 1$( „ & ! ' 0( 0 0 © ' „ •& ' ¥ 0 b S„ $ ( ' ƒ0 b S„ & 7 ~` ! b  x  s© §#0 b ‡„ $ (”0 b ‡„ & 0 b ' ! ' ' © #0 b † 0 b S„ & ‰ˆ „ £R0 © ‡„ & § ' ' & § ' © R0 © q„ & ‰ˆ †© @§ 90 © †ƒ„ & ' &ˆ  § † '  0( D& 7 x` ! ' QPIG#E& ' ŽsŒEB §R0 b † & ‰ˆ HF § 0 ‹C Š ' b v  v § ‡„ v § ‡„ $ v „  „ $ „ £§  „ ˜! & $ „ „  ' 0 „…b ' ƒh` „ $ $ ‚ „ g bh` „ &£§#0 b p„ & 7‚ ' 0 b S„ & b ! § ' „ &7 w` €0 b ! i { zg |m U spd d f d b tYU & 0 b ' & d U € & ' 0 b ' & d eWy U !„ j i ! b ! § 7 h` "#0 b ' ! ! „& d bd i . Ceci donne (1. i. par la mˆ me matrice. tel que et . qui transe ! . Ceci montre que les autres composantes sont des fonctions rationnelles des el´ ments ´e de la matrice et donc diff´ rentiables. observons qu’on obtient seulement une estimation pour l’erreur absolue et non pour l’erreur relative.. Th´ or` me 1. nous pouvons d´ river l’´ quation (1. une racine simple de .3) ). Apr` s la normalisation a e e ` .2 Soit e e et soit 115 une matrice diagonalisable.4) . il existe un D´ monstration. Il existe donc un vecteur tel que La matrice dans (1.3 (diff´ rentiabilit´ des valeurs propres) Soit e e e e Alors. la matrice poss` de une valeur propre unique e proche de . La fonction est diff´ rentiable (mˆ me analytique) et on a e e o` est le vecteur propre a droite ( u ` On peut supposer que D´ monstration. pour chaque valeur propre de . car e e e La condition du calcul des valeurs propres depend de la condition de la matrice de transformation . 0 © ' „ ™& ¥ ' 0 b S„ & © §b „$ (1. le th´ or` me de Gershgorine implique l’existence e e .4) etant de rang ´ . la fonction reste diff´ rentiable. le probl` me est bien conditionn´ . on peut fixer une composante a et appliquer la r` gle ` e de Cramer. e Pour calculer . pour suffisamment petit. (1. ce qui permet de calculer b ! § 7 v` u90 b ' !  Sv 7 Dg 0 tis)pd b tYU & 0 b ' & d r v ' rqg d fd U ' '   † o &l F j 0b ! i 0b & 0 8 & † SS ƒ„ & ' YnmIG§ i ! „ ki avec ) et est le vecteur propre a gauche ( ` .e. e e e Toutefois.

Les valeurs (1. e e . le calcul de (valeur propre simple) peut etre e mal conditionn´ . La d´ monstration du e u th´ or` me sur la diff´ rentiabilit´ des valeurs propres montre (voir formule (1.6) . Les el´ ments de la matrice sont des ´e nombres al´ atoires dans l’intervalle e ..116 Valeurs et Vecteurs Propres Cons´ quences. nous exprimons dans la base des vecteurs propres (de droite) „ 8 •g b i  0 d & „ & Eg b ' d „ ' ' 0 „ b ' ™` 0 „ „ i – ˜„p1i™g b § „ & 0 b S„ & ƒ  – „ –xh —  † © „ ` §„  § $  i 8 œ„ 0 „ 8 g b ' b x ! „&  . Pour etudier la condition e ´ du calcul des vecteurs propres. le calcul de la valeur propre de cette matrice est tr` s mal conditionn´ .4)) que les vecteurs e e e e propres normalis´ s e de sont des fonctions diff´ rentiables de .3) du th´ r` me pr´ c´ dent montre que le plus le vecteur propre de e oe e e droite est parall` le au vecteur propre de gauche.6) avec e e et .-` -d.1  x i 8 œ„ 0 „ 8 Yg b ' † © § „ 8 g b g 8 0  ' 8 D& „ & ' i & š 0 ` „ £›& b 7 x` ! © „ 8 i d 0 d & „ & )g b ' ƒ 0 b„ ' ƒ @§ § 0( PH ƒh` 0 …„b ' x` „ 8 g b g 8 0  ' 8 0D& „ & ' RD& 7 h` ! ' }¦F ƒ i b b 7 x` ! „& „  U ¨‚U § $ U – R0 © ' „¥ $ 8 0 © ' „¥ $ §b „j© š 7 b ` ! † ž Ÿ |  7 „&  „& § †! – ' b 7 ¤` ! 0 b ƒU $  x  § x ¢ £„ j ©  §   ¢ j © † ¡ Yj © j b ©  † SS p„† Yj ©   ‡š Yj ©  §  b  £„  © –  § ~!  § x  §„&  §„& et le calcul (1. e e ˆ Si la matrice n’est pas sym´ trique (ou normale). e Exemple 1. La formule (1. Le dessin ci-contre montre les valeurs propres de pour . Consid´ rons par exemple la matrice e e o` u Dans cette situation.9 Condition du calcul des vecteurs propres e Consid´ rons la situation o` toutes les valeurs propres de sont distinctes.1 −.1 (1. les termes et sont n´ gligeables par rapport a e ` propres de sont alors approximativement donn´ es par les racines de e c. e Exp´ rience num´ rique. ce qui correspond a la ` formule (1. . pour les matrices sym´ triques les deux vecteurs sont identiques) . Prenons la matrice (1.3) nous donne de est mal conditionn´ si est grand.. le plus la valeur propre est mal conditionn´ e..7) 1.4 Consid´ rons la matrice (boˆte de Jordan) e ı Le polynˆ me caract´ ristique de o e satisfait Si .7) pour . a (observer que donne valeurs complexes distinctes – multiples des racines de l’unit´ ).8) . . . Cons´ quence. le mieux la valeur propre correspondante est bien e conditionn´ e (par exemple. la formule (1. L’erreur est pour et pour . Si la dimension d’une boˆte de Jordan e ı est plus grande que . le e e plus ils se rapprochent de l’orthogonalit´ .

cet algorithme peut donner des mauvaises surprises. on obtient pour la relation De cette formule.3)) et aussi de la distance entre et les autres valeurs propres de .11) (1. simple pr´ cision) sont dessin´ s dans la figure V. Eviter le calcul des coefficients du polynˆ me caract´ ristique.9)   †   † s † G§ x  ª  § x ª "§ x U– (1. si l’on fait le calcul e ˆ e en virgule flottante.12). Cette perturbation dans les coefficients provoque une grande erreur dans les z´ ros de (1. Les r´ sultats num´ riques pour e e e (avec eps . Par contre. La normalisation donne (en la d´ rivant) e et on en d´ duit que e . Consid´ rons.Valeurs et Vecteurs Propres La formule (1. e e Conclusion. Si l’on ins` re les e formules pour dans (1. on obtient (pour ) de la relation .12) avec des coefficients perturb´ s e e '  § „„ — v 0 b S„ € $ v @§ !  ¨x f 0 C E& ' DB ! „$ U U  U „ ' „ ’‚U  0 b„ ' h` 0 U $ ‚„ $ „ $ U $ ' $ ‚ „ 0 $ & U  & h` „ §˜0 b ‡„ $ $ § ' ƒ 8 b 7‚ ' ƒ © ' „¥ b „ $ § S„ ' U– U 0 „ b h` 0 $ h` §˜0 b $ § ¥ ‚$ „ $ U – „ ‚’8U © § „ „ – U  U U  U „ U ' © s0 © ' „•$ ‚„ $  ¦€ • § $ 7‚  ` $‚ –0 & & © § W  ‚$ U ‚U ‚ „ ƒW  © § „ ¥$”0 © ' „ ¥ & 7 ' ` W $ W – 0 „ & W & ' 0( 8 « Yj ©  g   fd ˜”U d 'U U 0 U b ` ”dT § dT  ‡T ` & •T ` pS `#„ j b & „ j 8 T ©j g & „ j 8 T & 0 £ „  tx8 Eg Sp g `D„& w ' E& 9`  ' 8 E& 8  '  0 8 0 0 0 D& x  0 q† SS †  †  †  ' snm¦"†! o lF §  s § x  § x ! ' § §0 C  ' RE& ' EB š (1.2: Z´ ros de (1. par exemple. le probl` me de calculer les valeurs propres de la matrice diagonale e e dont le polynˆ me caract´ ristique est o e Les coefficients calcul´ s satisfont e avec eps. Si la dimension de est tr` s petite (disons e o e ) ou si l’on fait le calcul en arithm´ tique exacte. V.5) donne alors 117 En multipliant (1.9) par le vecteur propre de gauche (observer que pour ).10) „ U $ ‚U & (1. on voit que la condition du calcul du vecteur propre d´ pend de la grandeur e (comme c’est le cas pour la valeur propre. cet algorithme peut etre tr` s utile. voir la formule (1.8). e 2 0 −2 2 0 −2 F IG .2.12) . Un tel algorithme est o e num´ riquement instable. Un algorithme dangereux La premi` re m´ thode (d´ j` utilis´ e par Lagrange) pour calculer les valeurs propres d’une matrice e e ea e est la suivante: calculer d’abord les coefficients du polynˆ me caract´ ristique o e et d´ terminer e ensuite les z´ ros de ce polynˆ me.

on voit que e dans la base des vecteur propres.3) est une cons´ quence de e Pour une matrice normale. le deuxi` me terme dans les formules (2. les vecteurs de l’it´ ration (2. on d´ montre que u e e e la puissance) tend vers un vecteur propre de et que le quotient de Rayleigh approximation d’une valeur propre de .3) est .7) . Quelques it´ rations de la m´ thode de la puise e et une premi` re approximation de e est obtenue par ¬¤ ‚ ¬ ® ¤ ‚ ¬ ¤ £­d¤¬ #! £¤ as¤ ¬! § ¬ ¶  „ ¤„ ¤ „ ¤„ ¤    · s ¶  š ®s § „ ¤ ‚‚„ ¤ § „ ˜!‚ „ ¤     ¤ „&‚ ’0 ©  † ¶  † © ' § „ ¤ † ’0  † ¶ † ' § „ ¤ † ’0  †  † ' § £ ¤  ª sssY   s   ¶  ¶  aƒsr­ µ' spv˜ '  § „ & ©·   š 00¶ ´³² `   © § ©    G! d & d d & d 0 ¬ „ V„ Y­ „ & ”' ƒ 0 ¬ ‡„ s­ „ & ”' ƒ 0 ¬  q0 d & d ƒ ' d d d „ ¬ S„ s­ „ & ”' hh g Eg ¬ „ ‡„ d & Dg d „ V•d uTd „ § ¤ ‚ ¬ ¤ '` ¬¤ 0 d d ƒ0 ‡„ & ƒ' ƒ ` ¨±„ g ‡„ Eg ‡•pTd #! ‚ ¬ ¤ ¬ s­ „ & xh & ¬ „ & „ © @ § •T „  W $ ‚ U $ W & U deTVT s’…‚U ` „ ƒU & d „ fVpTd ¨’‚U ‘¤ ‚ ¬ ¤ W U W d dU „ § ¬ ¬ ¬ ¬& W „8 W U s’…‚U d d U ¨’‚U ¬ ¤ § ¬ ¤ ‚$ U $ „ ¬W & ¬U & WdeTVT ` U & ¬ „ ƒU & d „ fVpTd 8 § „ ‹ ¤ ‚ ¬ x‘s˜! ‚ ¬ ¤ ‹ † U $ „ & UVT „ ’‚U „ •T „ & U U VT ¨’‚U £ ! § ¬ „ U „ ¬ U & 8 ` $ ¬ G§ $ ¬ & 8 § ¤ ¬ "‘s¤ U $ VT ¨’‚8U § £ ¤ U „ £¤ d d 0 V„ & ƒ' ¬ „ s­ „ & ƒ ! ¬  „ & ƒ „ & s¤ ‚ ¬ ¤ ¬¤ ¬ „ & h` "§ ˜! ‚ ¬ ¤ © @ § •T „ U $ dT U § £ ¤ U „ •T 0q0 ¬ d‡„ Y­ „ & ”' ƒh` „ $ „1T' „ ¬ "‘s¤ & d & § ¬ d 8 t• SS sd ™& tYd „ uY‡„ d d  • ° d • d ¯d ¬ s¤  † v & 8 $ † & SS ƒ„ $ &  § „ fU $ v !  † 8 & † pS ƒ„ & ! est bas´ sur l’it´ ration e e (2.1 Soit une matrice diagonalisable de valeurs propres e e et de vecteurs propres (normalis´ s par e ).7) et dans (2.-` -d. on d´ duit que e e Si . la formule (2. Le quotient de Rayleigh satisfait (si a Si est une matrice normale (c.5) et (2.2 Consid´ rons la matrice e dont la valeur propre la plus grande est sance nous donnent . De cette relation. que les vecteurs propres sont orthogonaux). Th´ or` me 2. Dans le th´ or` me suivant.2 La m´ thode de la puissance e Un algorithme simple pour calculer les valeurs propres d’une matrice o` est un vecteur arbitraire.118 Valeurs et Vecteurs Propres V. Exemple 2. Par r´ currence.4) (2. Exprimons le vecteur de d´ part e e . Si .-` -d.3) (le nombre est d´ fini par e ).6) (2.6) est absent et l’expression e peut etre remplac´ e par ˆ e dans (2. l’erreur dans (2.2) ) (2. a ce qui d´ montre la formule (2. D´ monstration.3).1) v´ rifient e e (2..1) ! ¬¤ ! ¬ #£§ „ ‹ ¤ ! £¤ (m´ thode de e est une (2. c.5) (2.2).

M´ thode de la puissance inverse de Wielandt e Supposons qu’on connaisse une approximation de la valeur propre cherch´ e e (il n’est pas n´ cessaire de supposer que e soit la plus grande valeur propre de ). on utilise des m´ thodes encore plus sophistiqu´ es. En pratique. voir V. c.3.8) premiers . . on calcule chiffres sont corrects.6). Si est proche de . on peut egalement appliquer la m´ thode de e ´ e bissection (voir V. Sinon. Il est alors recomRemarques. Si est proche de . La situation id´ ale serait trouv´ e si e e devenait diagonale ou triangulaire – mais une telle transformation n´ cessiterait d´ j` la connaissance des valeurs propres. de remplacer e e a par .1).3 Pour la matrice de l’exemple pr´ c´ dent. Pour acc´ l´ rer la e ee convergence. Si l’on veut calculer toutes les valeurs propres d’une matrice. on a pour Apr` s avoir calcul´ la d´ composition LR de la matrice e e e plus cher qu’une de (2. Les el´ ments du vecteur ´e mand´ de normaliser e apr` s chaque it´ ration. on utilise la modification suivante. la convergence est tr` s lente. si est sym´ trique).Valeurs et Vecteurs Propres 119 croissent exponentiellement avec . e e Exemple 2. La m´ thode de la puissance (et celle de Wielandt) est importante pour la compr´ hension e e d’autres algorithmes. V. e on cherche telle que devienne une matrice de Hessenberg (ou une matrice tridiagonale. L’it´ ration devient alors ˆ e e . choisissons Deux it´ rations de (2.4).8) ne coˆ te pas e u et . Le but de ce paragraphe est de trouver une matrice telle que devienne “plus simple”. ` si est une matrice tridiagonale et sym´ trique. on proc` de de la mani` re suivante: e e e e on distingue les cas: sym´ trique ou quelconque. e ea ! U$ i i !„ j i   £§  i ! „ j i & i Avec la transformation  · ssssY   „ & h „    s   ¶  ¶   „ „  ··©· · „ „ ª   ¶ YssssYssss š „ ¤¤ ‚‚„ ¤¤ § „ ¤ „ j ( ¤¸ ‚ ¤ ! ' ‚„ ¤ š  ¶  & 0   s© Y©  ©    sss ¶     s ·  © ¶sYsªsEsYª  Ys   · „  ©    s  ·Y   ¶  ¶   ·  † s   s sY¶  ss „    ¶ s © ¶ Y© ª E  Yª   ¶ ©  ª  § ¤   ª  sss Yss ª    s § ¤  · ª ¶ ª¶ ¶   “’0  † ¶   †  ' § £ ¤  ¶  § ¸ ! et on obtient l’approximation (o` u est une matrice inversible) le probl` me e (¸ ! ¬¤ ¬ 0 »§ „ ‹ e¤( ¸ et la convergence va etre tr` s rapide.3 Transformation sous forme de Hessenberg (ou tridiagonale) devient Donc. Les „ j0 ¸ U &' „& v ¬s¤ v Ys¤ ¤ ­¬ “ ¬ ¬ 0 ¤ „ j ( ¸ ! ' § „ ¤ ¬  ¦€ ‹ • ! ¸ d g¸ U & d ºg¸ „ & d ¹d   0 „ j ( ¸ „ ! ' &  ½ U i § U$ i !„ j i ! $ &"§%$  ˜i! § %$ ! ½ t§ i ! „ j i !' ¬ s¤ d & ‡„ s­ „ & d ! ¬ ¤ ! i „& ½ i !„ j i ¼ ¼ ¼ ¼ ¸ ou (2.1) a la matrice e ` . e on applique l’algorithme QR a la matrice (voir V. Les valeurs propres de cette matrice sont . L’id´ e est d’appliquer e l’it´ ration (2. une it´ ration de (2. on risque un “overflow”.8) nous donnent e et on obtient De cette relation.-` -d. les valeurs propres de et de sont les mˆ mes et les vecteurs propres e de se transforment par .

telle que . on a aussi pour et le premier pas est termin´ . . .. . . ..120 Valeurs et Vecteurs Propres tel que c. on cherche i ! „ ¾i j soit sous forme de Hessenberg (3. et ainsi de . . e l’´ limination de Gauss (donc e Exemple. nous consid´ rons deux algorithmes. cet algorithme coˆ te deux fois plus cher que u suite..... . . . . Pour la matrice et on obtient Cet exemple montre un d´ savantage de cet algorithme : si l’on part avec une matrice sym´ trique e e .1). il faut egalement permuter les colonnes et (ceci correspond ´ au calcul de car et donc ).. nous choisissons tel que pour et nous permutons les lignes et ... A cause des multiplications a droite avec ` op´ rations). n’est plus sym´ trique en g´ n´ ral.. . e e e  ­  puis  G§ ½  ©  ­  ­ © ¶Ysª   ­­   © on prend À  „8 À T 8 „ ¥¥ T © § ’„U¥ T   SS SS  SS   SS x “   — • À © © „˜„ À T „ „ T „ „ ¥¥ T ˜„„ ¥¥ T © U ±Â © § „ ¥„ T © À À † À À À   À À À SS SS À À . on d´ finit e . .. . . nous formons a o` est une matrice de permutation convenable. Sinon.-` -d. . . c. . .-` -d. . . . . ` e ´e a) A l’aide des transformations el´ mentaires Comme pour l’´ limination de Gauss. . Pour arriver a ce but. a pour . . Si . .. d„W d •d p”VuTts‡„ ¬ pTd ­ x š ° „ jU  ¥ „ j „  ¦! „  ¥ ¦! „    © SS „ 8 Ç © „ ° Ç © § „ j„  ©  © §¥ !„  § „ j„  ! „  § „ j „ ¾Ä § Ä   Ä Ä  Ó ! •  § ½ ¿"§ i ! „ j i „ ¥„ T ­ ’„U¥ T § „ U Ç  Ç  © SS „ 8 w © Ç  „°È © § „   ©   ¦€ • (Ƨ „ Ä „ jÅÄ ! Ä §#¥¦! “  †          ­    — ¯ £` §¦€ ½ ­ ©    § h! © § XW™Á U § ~! „  ! i Alors. On r´ p` te la mˆ me proc´ dure avec la sous-matrice de e e e e de dimension .. . Pour u ne pas changer les valeurs propres. . .1) . . Pour ceci. obtenue par cet algorithme. Une multiplication a droite avec ` .. nous utilisons les transformations pour faire apparaˆtre les e ı z´ ros – colonne par colonne – dans (3. . ne change pas la premi` re colonne de e . nous d´ terminons e e . . . . . e Dans un premier pas. . la matrice de Hessenberg .

. que e e e pour Pour cette matrice.-` -d. En posant et . † 0E& ' „ j ™ˆ 0 ' j U 0 U § 0 'U „U y E& S„ ™ˆ E& U Ï ' RE& 'ƒ™ˆ & „ Ï RE& SEˆ §0 „ §0 '£  RE& ™sˆ 0( D& U ! ' }Iwn§#E& ”ˆ PH F Š 0 'U † „ „y „ yÏ „ Ï § „ ! † 0 „ Ï ' § „ ! 0 D& ' 8 ˆ 0 E& ' 8 ˆ °y °y „ „y „ yÏ „ Ï i § „ ¾i j U y T À © ˜°° T „ ° ¾„ ° T Í ÎÌ T À „ ° „ T ˜„„ ¾„ „ T !g „ Ê „ „ „ „T „ „ •T¾˜„•–T ° •T „ •¾˜„•T      ( ’„ „ © ˧ „ É Ê  É   0’ „ É † © ' § „ É  § „ v „ v ’„ „   ( § „ É Ê i ! „ ¾i j § †! © @ § y U .3).. qui ensemble fournissent les valeurs propres de . etc. ee e Commencons par une r´ flexion pour les coordonn´ es ¸ e e laissant fixe la premi` re coore donn´ e : e ( ) tel que o` u .. les z´ ros de a e ) de la mani` re suivante : chercher un intervalle o` e u change de signe et localiser une racine de par bissection.. la matrice est d´ j` d´ compos´ e en deux ´e ea e e sous-matrices du mˆ me type. on applique la mˆ me proc´ dure a la sous-matrice de dimension e e ` Finalement. et donc tridiagonale. Nous avons un double avantage avec cet algorithme : il ne faut pas faire une recherche de pivot .1) (4.2) du polynˆ me caract´ ristique sans o e (4. . Mais il ` existe une astuce interessante qui permet d’am´ liorer cet algorithme..Valeurs et Vecteurs Propres 121 b) A l’aide des transformations orthogonales Il est souvent pr´ f´ rable de travailler avec des r´ flexions de Householder (voir le paragraphe IV. © #E& ' 8 ˆ §0 ¼ ¼ (4.-` -d.. . a ).7). il est possible de calculer la valeur connaˆtre ses coefficients. si l’on pose ı et si l’on d´ finit e . ` e En principe. on peut maintenant calculer les valeurs propres de (c. si A est sym´ trique. on arrive a la forme de Hessenberg (3. e 0 E& ' 8 ˆ ( D& U ! ’  g „ Ê g Sp Œ„ j 8 Ê § „ j i  x © À  À À Í Î À À „ À „ Ê g ! Ìg „ Ê „– „ À À ˜„•T ° •T „ Ê § ’„ Ê § „ j „ Ê „ T  † „ ! Ê 0’ „ 8 S† SS ”„ „ eT' § „ É ! Vy q„† S– S † §  „ É ! „ É Ê x   Sp !  q† SS †  § € x  y † ° ° yÏ „ ° „ y § ° „ yÏ „ Ï g¦! 0 D& '  q† SS † EB § € x  C ! ! 8Ï 8y  8y . En effet. Les evaluations de ´ sont faites a l’aide de la formule (4.3) . La multiplication a droite avec ` e ´e ` ne change pas cette colonne : Dans le pas suivant.. . .1) avec la tranformation ` qui est une matrice orthogonale (c. e V.3) est obtenue en d´ veloppant le d´ terminant de la matrice e e e par rapport a la derni` re ligne (ou colonne). . la matrice contient des z´ ros dans la premi` re e e colonne a partir du troisi` me el´ ment. e On peut donc supposer.4 M´ thode de bissection pour des matrices tridiagonales e Consid´ rons une matrice sym´ trique tridiagonale e e On observe tout d’abord que si un el´ ment est nul. sans restreindre la g´ n´ ralit´ . on obtient La formule de r´ currence dans (4.. alors e est aussi sym´ trique.

4). V.122 Th´ or` me 4.2) est v´ rifi´ . simples et s´ par´ es par celles de e e e Ò …†U s† SS † „ †ƒ„ ' „ † ÒÓ ' '  0 SS&  & 0 & ' U 0 & ' U 0E& S„ ˆ § 0 ' U W 0 ' § W S„ ˆ ` „ U & „ U 0  ' ÃD& j S„ ™ˆ Ò ` Ó0 Ó S›j 0 ˆ & ‹ § ' U § Ò '„ U „ ‹ W 0  ‹ ' Å0 W & S„ ™ˆ ‹ j‹ 0 ' E& S„ Uˆ 0 U &  ‹ D& '”™ˆ U GÐ pS Ð „ &  ~` € €  § € j 0 ' U D& S„ ™ˆ 0 'U E& ƒ™ˆ '£ •ˆ € ‘ E& ƒ#Eˆ & U§ 0 0 ' ™ˆ © f ' j ' U 0 & p„ '™UU ˆ 0ˆ p„ ™ˆ © E%E& ƒ™E& ‹ x  ˆ q† SS †  Æ4 € § 0 Il n’y a rien a d´ montrer pour ` e . Supposons la propri´ t´ vraie pour et montrons qu’elle est ee encore vraie pour .2 (suite de Sturm) Une suite e de polynˆ mes a coefficients r´ elles o e ` 1 s’appelle une suite de Sturm . L’affirmation (a) est maintenant une cons´ quence de (b) et de (4.3: Suite de Sturm D´ finition 4. on d´ duit de (b) que e sign . Valeurs et Vecteurs Propres D´ monstration.3) satisfont e . . voir la figure V. la formule de r´ currence (4.6) ). (c) du Th´ or` me 4. e pour un . © ¾E& ƒ™ˆ § 0 'U .1 Si (4. n´ le 29 septembre 1803 a Gen` ve. si pour un ne change pas de signe sur .4) (4. on d´ finit sign e sign D´ monstration. e F IG .1. Comme les z´ ros e de sont s´ par´ s par ceux de e e et comme .3. Si l’on d´ finit e nombre de changements de signes de alors le polynˆ me o poss` de exactement e z´ ros dans l’intervalle e (si . si elle v´ rifie les conditions (a). (4. Alors. L’affirmation (c) est triviale. Si deux valeurs cons´ cutives de la suite e sont nulles. ¸ e ` e © § 'U R0E& ”ˆ © jU ' U §¾0E& 'S„ ˆ 0E& S„ ‹ ˆ  ' † 0 ‘ D& ' 8 ˆ}† SS † 0E& p„Eˆq† 0E& '•ˆ ˆ £ ˆ  †„ ˆ†£ 0 8 q† SS ƒEq‡tˆ' 0 'W D& Y™ˆ j 0 ' U D& S„ ™ˆ ¢ 0 E& ' ¡ ˆ 0E& ' ˆ 0E& ' ° ˆ 0E& ' „ ˆ 0 '„ E& ‡Eˆ ‘ § 0 'U #E& ”ˆ (y 0 'j £ D& ™ˆ © § 0 'U  xq† SS †  Ñ4 € ˆ #¨& ”™ˆ © ˜¨& S„ ™jU ˆ D& S„ ™ˆ Ð0 ' 0 ' U y Ñ2& © RD& ' 8 ˆ © #D& S„‹ 8 ˆ ¨& ' 8¥ ˆ ( 4 §0 Ð0 ' 0 ˆ  †„ ˆ†£ 0 8 q† SS ƒEq‡tˆ' b 0 eT' Ô 0 eÕ' Ô ‘ ' 0E& •£ˆ 0 E& ' Ô ‘ © #D& ”™ˆ § 0 'U  ˆ xq† SS †  Ö4 € Ն 0 S™uTž 0 D& ' 8 ˆ §0 RE& ' Ô 0 'U D& ™ˆ 0 'U E& ƒ™ˆ d´ finis par (4. Pour d´ montrer (b). Ceci et le fait que montrent que poss` de un z´ ro r´ el dans chacun des intervalles ouverts e e e .3) donne l’in´ galit´ e e e Si . Par continuit´ . l’entier e e peut changer sa valeur seulement si une valeur des fonctions devient nulle. Supposons alors que pour un . Nous d´ montrons par r´ currence que e e toutes les racines de sont r´ elles. la formule de r´ currence montre que e pour tout . La fonction ne change pas de signe. e e e Th´ or` me 4. nous avons sign . (b).3 Consid´ rons une suite de Sturm e e e .5) (4. il suffit d’exclure le cas e . La condition (b) et la continuit´ de e montrent que seulement les deux situations suivantes sont possibles ( petit): 1 Jacques Charles Francois Sturm (1803 – 1855). . les polynˆ mes e e e e o a) b) c) si ( ). ce qui contredit .

on remplace cette valeur par eps.7) et utiliser le fait que nombre d’´ l´ ments n´ gatifs parmi ee e (attention: si est z´ ro. en appli- si si . ´e e Pour une programmation de l’algorithme. Les diff´ rences e et sont dans et combien sont dans on continue a diviser les intervalles qui contiennent au moins une valeur propre de . ! Ն i† 0 S|uiž 0 S™uTž 0 ei' Ô 0 eÕ' Ô 0 eT' Ô 0 ei' Ô x R0 eÕ' Ô © R0 eT' Ô § § on cherche un intervalle qui contienne toutes les valeurs propres de quant le th´ or` me de Gershgorin). Si e (c. on pose e . Pour eviter un “overflow” dans le calcul de ´ avec (si et sont grands). Si l’on applique ce th´ or` me a la suite (4. (4.9) ©` ` & 0 E& ' Ô × ' U 0D& ‡'„ ™ˆ 0 D& ™jU ‹ ˆ 0 ' U D& ‡„ ™ˆ ! 0 1i' Ô 0b &  Ô § b  G` 0 b & ' x#0 »` & ' Ô © 0 ` D' & ' j8 ˆ 0 ` ` ` D& S„ 8 ˆ b x` & & b & 0 'W D& d™ˆ 0 '  ‘  D& qÔx † SS †  Ñ4 € E& ƒ™ˆ ˆ 0 'U & ' GȨ& ' wg0 ~` & ' Ô Ô §0 Ô § b ' U 0 & ‡'„ ™ˆ Ø © × DD& ™‹U j ˆ 0 0 ' U ` ` ` D& ‡„ ™ˆ b h` & & b & Ն Ÿ p•pTž  ƒ0 Õ ` eT' § i ­ ! ¼ ¼ ¼ .ex.. On obtient toutes les valeurs egale au nombre de valeurs propres de (4. (p. il vaut mieux travailler (4. cette valeur compte pour un el´ ment n´ gatif). ` On peut facilement modifier cet algorithme pour calculer la valeur propre la plus petite ou la eme ` plus grande valeur propre.Valeurs et Vecteurs Propres 123 M´ thode de bissection. La propri´ t´ (a) ee on a seulement les deux possibilit´ s suivantes: e & b x` & & b & Ø` traverse . Ceci correspond a ajouter la perturbation ` eps a ` . a et augmente de sa valeur si . etc. 0 1T' Ô 0 1Õ' Ô  „ jU gdU p”uyd © Ï ¤E& p„ j ™ˆ gdU sfpyd § 0 ' U © © @§ 0 ' j ' j §™0E& S„ U †D& ‡„ U Ù Ù j © dU ”uyd §0 ' #E S„ U © aE&& S„ j U Ù 0 S„ j U ­ U y & U Ï RE& U Ù §0 ' ' @§ 0 ' Ù E& Ù ­ „ & „ Ï RE& ‡„ Ù §0 ' j Ò Ó §0 ' RD& U Ù 0 ' U E& S„ ™ˆ  0 ' ‘0 E& ' 8 Ù † SS † D& ‡„ Ù ˆ §0 RE& ' Ô j  xq† pS † 0 ' U ­0 'U Š 0 ' E& S„ ˆ ”E& ƒ™ˆ §RD& U Ù  §€ & x D& ' 8 ˆ 0 ! Ն 0 S™pTž '8ˆ c.-` -d.. on utilise la r´ currence e eps La formule pour le cas est une cons´ quence de (4. a ).8) (4.3).1) dans l’intervalle ´ propres de de la mani` re suivante: e on pose et on calcule indiquent combien de valeurs propres de .-` -d. la diff´ rence e e e ` e est . 0 E& 0 E& ' Ô 0 E& ' j8 ˆ ` © 0 ' E& S„ 8 ˆ b h` & & b & est constante par morceaux 0 D& ' 8 ˆ Chaque fois. On a donc que e e et . on a un z´ ro de e pour Il reste a etudier la fonction ` ´ implique que pour les signes de et la valeur de ne change pas si ..3). dans un voisinage d’un z´ ro de e . Ceci d´ montre que la fonction e traverse un z´ ro de e .

1) (5. on voit que .2) e e e ) valeurs propres dominantes en mˆ me temps. les vecteurs deviennent (5. nous prenons deux vecteurs et satisfaisant e et nous consid´ rons l’it´ ration e e o` u Ceci signifie que le calcul de correspond a la m´ thode de la puissance appliqu´ e a .2) ¬ s¤ ‹¬ (5.4) .4) d’orthogonalit´ implique que e est dominant . nous allons supposer que et obtient  0 d „ Y‡•& ”' h` 0 d‡„ s­ „ & ƒ' ƒx` „ $ ‚„ $ „ ”0 „ T ¬ Ñ „ eՇ•TÉ § 0 ‡„ s­ „ & ƒ' xR „ ”0 •T ¬ ¨ |eՇ•TÉ Þ '„ d d d d ƒ ` & „ Þ „ '„ ¬ &­° ƒ ¬ & ¬& ¬ & ¬ © „ „É Մ „ @ § |Õ „ T „ ”•T © @ § •T „T ­ ®Õ & š¬ Þ „¬ ¬Þ  § — § € „‚ „ W W Þ ' U ¨ƒW ¨’‚U $ ‚ U $ ¬W & ¬U É& 0 VT ¬ Ñ QW1ՔVTÉ 8 8 (5. En divisant (5. Cette e afin de pouvoir calculer les deux (trois.6) . e En exprimant les vecteurs initiaux dans la base de vecteurs propres de la matrice (on suppose ). le terme Comme nous l’avons constat´ dans le paragraphe V. com` e e ` bin´ e avec une orthogonalisation (projection de e sur le compl´ ment orthogonal de ). Consid´ rons une matrice dont les valeurs propres satisfont e La m´ thode de la puissance est bas´ e sur l’it´ ration e e e (voir (2. .6) par ! £¬ ”Ü s¤ „ Ò Í “ „ $ „$ & „•T ¬ „ ¨‚U U $ ¬U ”0 dT ¬ Ñ QUeÕ' ‘¬ Ü &U Þ § 8  © § †…U $ U & VT U ¬ „¨’‚U § ¬ ‘¤ 8 v  § „ U $ v ¬ ©Ü Ü ¬ ¬ S† ¤ „ @ § •T „ Ý o` u est d´ termin´ par la condition e e . Pour calculer (en mˆ me ` e temps) la deuxi` me valeur propre .3) ¬Þ (5.2. g´ n´ ralisation motivera l’it´ ration QR qui constitue l’algorithme le plus important pour le calcul e e e des valeurs propres d’une matrice. G´ n´ ralisation de la m´ thode de la puissance (pour calculer les deux valeurs propres domie e e nantes).5) . Comme le terme avec e Par la suite. Que peut-on Cette relation d´ finit .5 L’it´ ration orthogonale e Dans ce paragraphe.124 Valeurs et Vecteurs Propres V. Par induction. nous allons g´ n´ raliser la m´ thode de la puissance (voir le paragraphe V. pour e dans (si ) et on obtient une approximation du premier vecteur propre dire pour la suite ? La condition (5. on voit que est tel que © § ”Ü ‚ £ ¤ £ „ „ …†U ¨’‚U £ …†U U ¨’‚U $ QUÕ § ”Ü $ VT § £ ¤ 8 8  † 8 $ † pS ƒ„ $ £ ”Ü ¬! ‘¬Üˆ  § © ‘¬ Ü ‚ ¬ ¤ ¬¤ Þ £ ! § ¬ Ñ ”Ü "¬ Ü £ ¤ ¬ "‘¤ ¬! § ¬ © § „ ¬ Ü „ ‚¬ ¤ Ý „ ¬ „ Ñ Ü ‹ ! ‹„ Ü ‹ ¤ ‹ ¬ ¬¬ ¤ !£§ ¬¬ #£§ „ ‹‹ ¤ £”Ü £ ¤ „ „&& ¬ s¤˜! § „ ¬ ‹ ¤   d ¯ d ¯d 8 & Û¯ SS Yd „ & ÚY‡„ & d d  SS ! (5. on est dominant.1)) et nous permet d’obtenir une approximation de a l’aide du quotient de Rayleigh.

7).8)  „ &£§ d „ d„ „ „ $ ‚„ d $ d '  „ § „ 0 „g $ „ g „ „ $ „ ‚„ $ „„ $ ' „ ‚ 0 ' „ $ „g „ g $ ‚„ „ $ „ „ $ ' „ ' Í ¬Ü Ü ‚ ¬ ¬Ü Ü 0 „ $‚ $  & 0 $ $‚ $ & $ & ‚0 $ $‚ $ $ ¬ !‚ „& £à £Ü† ”p‡£ ¤ v v v Üv ¬ „ V„ $ g „ $ „ $ „ $ Dg „ V„ $ v Í „ v ¬ pDg „ v s¤ v  „ d „ $ ‚„ $ d  „ $ ‚„ $e0 „ & „ & ' § 0 „ $ g „ $ ‚„ ‚ $ „ & „ $ „ & ' ‚„ $ ¬ Ü ! ‚¬ ¤ ¬ à ! ‚¬ à v v v v Ü „ v ¬ ¤ Dg „ v pv  s© „ V„ Dg „ V„ g „ „ „ v § „ $ $ „ & 0 „ $ g $ „ $ „ $ ‚$ $ „ $ ' $ Í ss˜! ¬ Ü ¬ ¬¤ ‚ ‚ ‚ satisfait qui est triangulaire sup´ rieure. L’´ l´ ment (1.5) et on en d´ duit e e 125 s’approche (pour Visiblement. on ´ a choisit vecteurs orthogonaux (les colonnes de ) qui jouent le rˆ le de o . © @ § |Õ „ T „ Մ „ „ ƒ•T © @ § •T end Si (5. Th´ or` me 5. e e Remarque. c. Avec la notation (5.Valeurs et Vecteurs Propres Maintenant. on peut ins´ rer cette formule dans (5.8).1) ¸ ee Finalement.1) est v´ rifi´ .1 Consid´ rons les vecteurs e e e (observer que D´ monstration. Si (5.3) qui converge vers . qui est la . on a le r´ sultat e donn´ s par (5. La g´ n´ ralisation de l’algorithme pr´ c´ dent au cas o` l’on veut calculer toutes les e e e e u valeurs propres d’une matrice est evidente: on choisit une matrice orthogonale .2) satisfait ee De facon similaire.2) peut etre ecrite sous la forme e ˆ ´ o` u est une matrice M´ thode de la puissance (pour le calcul de toutes les valeurs propres) ou simplement it´ ration e e orthogonale.2) et notons e (5.. En utilisant (5. Puis.1) est v´ rifi´ et si la matrice e e est bien choisie ( g´ n´ ralisation du th´ or` me pr´ c´ dent donne la convergence de e e e e e e „ „$ Ò Í º$ „ $ g „ $ ‚„ $ „ $ “ß ¬Ü  &­° d ƒ d & d ƒ Þ & § 0 ¬ d „ sS•& ”' h` 0 ¬ ‡„ s­ „ & ”' h` „ $ g „ $ ‚„ $ „ $ 0 „ T ¬ Ñ „ 1Õ' ¬„ £‘¬ Ü ).7) ) d’un multiple de .2) de ee Cette expression est en g´ n´ ral non nulle. le vecteur projection orthogonale de a l’hyperplan ` suivant.9) (5. on a que e e (5.1) de la matrice e ee est le quotient de Rayleigh (2. l’´ l´ ment (1. e  †Ò Í “ Ü 0 „ v ¬ pv ­Y¬ ÜΆ „ v ¬¤ v rs¤ ' ‘¬ à ­¬ § Ü ¬ ¬ S† ¤ „ ¬ „ § ‹ ”y ‹ ¬ à 3¬ à ! ¬ à ! ‚ ¬ à §‘¬ i Š ¬ à ! ‚¬ à £à „& © À „& pour £à Í ¬ à ! ‚¬ à  ¡  § ¬y „ j¬ á 3”Y¬ à S¬ Sà † "‘¬ § á “  ! † § ( § "‘¬ à ‚ ¬ à (5.-` -d.11) . on effectue l’it´ ration e for (d´ composition QR) e . etc. une (5. etc).10) x „ ”y ‹¬ . on obtient pour l’´ l´ ment (2. Concernant les valeurs propres. l’it´ ration (5. on voit que l’´ l´ ment (2.

12) nous permettent d’´ crire l’algorithme pr´ c´ dent comme suit: e e e for (d´ composition QR) e end Les qui sont les mˆ mes que dans le paragraphe V. and it forms the backbone of the most effective algorithm for computing the Schur decomposition. D’une part.G. e Cet algorithme important a et´ d´ velopp´ ind´ pendamment par J. convergent (en g´ n´ ral) vers une matrice e e e triangulaire. van Loan 1989) La version simple du c´ l` bre algorithme QR n’est rien d’autre que la m´ thode du paragraphe ee e et si l’on commence l’it´ ration avec e .126 Valeurs et Vecteurs Propres vers une matrice triangulaire dont les el´ ments de la diagonale sont les valeurs propres de . Francis (1961) et par ´e e e e V.N. on d´ duit de (5. Pour etudier la convergence vers une matrice triangulaire.2) ¬i ¬i ( 㧠£ à ! „j¬i !  d¬ à „ j ‚ ¬ à ' ”£‘¬ à „ 0 ¬y §  ”ƒr¬ à „ j ‚ ¬ à ' ¬ y0 ! â⠁â   ¶ © ©   ¶  © ¶    ©  U& „ U š ‹ &  xq† SS †  ¬i „j i j¬ j § § ‚ ¬ à „ ¬ à ! ‚ ¬ à ¬ à ! ‚ ¬ à ‘¬ i j j j § „ ¬ à ! „ ‚¬ à § „ ¬ i U Qç„ ®ä åU æ U Qç„S‹¬ å U ä æ„ ‹ ‹¬ å U § € U Qç„ ‡‹¬ ®ä æ j ¬ à „ ‚ ¬ à %¬ Ê § § †! ! ¬i ¬ yG§ i „ j ¬¬ i Ê ”3¬”3¬ ¬ Ê y  SS † §  † r  § “ )i ! "§ £ ! â⠁â ¬i (6.10) que e (5.11) directement a partir de e e ` .F. Ciarlet 1982) the QR iteration. toutes les matrices sont aussi sous forme de Hessenberg. pour une matrice de Hessenberg . e ´e Exemple num´ rique. Rutishauser (1958). Golub & C.N. On ´e a donc transform´ en forme triangulaire a l’aide d’une matrice orthogonale (d´ composition de e ` e Schur). il ´ suffit alors de consid´ rer les el´ ments e ´e ( ) de la sous-diagonale. Ceci nous permet d’obtenir toutes les valeurs propres de la matrice car les ont les mˆ mes valeurs propres que (voir (5.12b) On calcule la d´ composition QR de la matrice e d´ composition pour obtenir . si l’on pose e e formules (5.5. e et on echange les deux matrices de cette ´ V. Kublanovskaya (1961).F.1) . Il y a une possibilit´ int´ ressante pour calculer de (5. Appliquons la m´ thode QR a la matrice e e ` On peut montrer (voir exercice 14) que. Un algorithme similaire.11) et (5. on a (5. qui utilise la d´ composition LR a la place e ` de la d´ composition QR. a et´ introduit par H.11)). les pr´ c´ dent.F.12a) D’autre part. En effet.H. Francis et a V. Kublanovskaya.6 L’ algorithme QR La m´ thode QR.G.C. (G. est la m´ thode la plus courame ` ` e ment utilis´ e pour le calcul de l’ensemble des valeurs propres e (P. On constate que (6. due a J.

Rien ne nous empˆ che d’am´ liorer l’approximation apr` s e e e e chaque it´ ration. e ˆ „ j 8 ç å8 ä æ ‡¬ U Qç„ å U ä ¬i d U Qç„ å U ä d æ ‡‹¬ ( . on applique l’algorithme QR uniquement aux matrices de Hessenberg. V. (a) Comme le calcul de la d´ composition QR d’une matrice pleine est tr` s coˆ teux e e u ( op´ rations).4) .1) est viol´ e). lin´ airement vers e en fonction du nombre de l’it´ ration).3) (ˆ ! (6. L’algorithme QR produit une suite de matrices e e qui sont toutes r´ elles. ee (c) Consid´ rons la situation o` est une matrice r´ elle qui poss` de des valeurs propres come u e e plexes (l’hypoth` se (5. Une id´ e g´ niale e e La convergence vers z´ ro de cet el´ ment ne va etre rapide que si e ´e ˆ est d’appliquer l’algorithme QR a la matrice ` o` u . nous savons que e . e ). L’algorithme QR avec “shift” devient alors: e for d´ terminer le param` tre e e (d´ composition QR) e end Les matrices de cette it´ ration satisfont e Ceci implique que. les el´ ments ´e con(voir la figure V. Pour rendre efficace cet e e e e algorithme. Dans e cette situation une it´ ration n´ cessite seulement e e op´ rations. e e Acc´ l´ ration de la convergence ee D’apr` s l’observation (6. e (b) La convergence est tr` s lente en g´ n´ ral (seulement lin´ aire). Dans cette situation. o` les valeurs u sont dessin´ es e æ S‹¬ x   q† SS †  d S„ j 8 & d ™d 8 & d è ¬ˆ ! £ "§ ºi ¬i ¬ˆ  ¬ i §Ó( „ j ¬ ˆ ` ¬ Ê ¬”y£‘¬ Ê ( „ j ¬ ˆ ` ”yY¬ Ê ' ‚ ¬ Ê §3¬ Ê „ j ¬ i ‚ ¬ Ê § 0 ¬ ¬i „j ˆ y G§ i „ (j ˆ ¬ „ ` j ¬¬ i Ê ¬”3¬”3¬ ¬ Ê § r y „j ( ¬ ¬ˆ  SS †  †  § “ )i ! "§ £ d &  Ð U s­ „ ‹ U & d d èd § € –ˆ U & d Y–ˆ 8 & d 8 &€š ˆ ( ˆ ! j  d j & d 0 ¬ p„ 8 s­ 8 & ƒ' ƒ § „ S8æ ç ¬ å 8 ä ¡ °ä 50 10−2 0 „ x' ƒ     „„ä ¬i !   0 ° x' ƒ “ © Ò Í “ ¡ ©  š & Y· ¾•&   · š „ &  ¶  š „ & š °  „°ä ˆ U& (6. .4: Convergence de la m´ thode QR (sans shift) e Remarques. . vergent. on obtient egalement des approximations des valeurs propres. ind´ pendamment de la suite .2). il faut absolument trouver un moyen pour acc´ l´ rer la convergence. Pour d´ crire compl` tement l’algorithme QR avec shift. Comme la dimension des blocs dans la e ´ diagonale vaut en g´ n´ ral ou . mais deviennent triangulaires par blocs (sans d´ monstration).Valeurs et Vecteurs Propres 127 100 10−4 10−6 0 10 20 30 40 F IG . Comme . les e ne convergent pas vers une matrice triangulaire. pour . on a la propri´ t´ ee pour et l’´ l´ ment ee va converger rapidement vers z´ ro. il faut encore discuter le choix du e e e e e param` tre et il faut donner un crit` re pour arrˆ ter l’it´ ration. Comme les valeurs propres de sont .4. les matrices e ont toutes les mˆ mes valeurs e propres que .

on accepte les deux valeurs propres de (6. on arrˆ te l’it´ ration quand e e e e eps pour ou Si (6. on accepte comme approximation de et on continue l’it´ ration avec la matrice e .5: Convergence de la m´ thode QR (avec shift) e Le “double shift” de Francis Dans la situation o` est une matrice r´ elle ayant des valeurs propres complexes. it´ rations ont donn´ toutes les valeurs propres avec une pr´ cision de e e e chiffres. La convergence de vers z´ ro est illustr´ e dans la figure V. on peut choisir les soit r´ elle. L’observation suivante permet d’´ viter e e e e ceci.5) comme approxet et on continue l’it´ ration avec la matrice e . Il ne reste plus que it´ rations a faire pour la matrice de dimension pour avoir e ` . imations de Exemple num´ rique. Une application directe de l’algorithme e e pr´ c´ dent n´ cessite un calcul avec des matrices complexes.4 nous montre que la convergence est beaucoup plus rapide (convergence quadratique). et soit suff- (6. Crit` re pour arrˆ ter l’it´ ration. En tout. Apr` s it´ rations.5) sont r´ elles.6) est v´ rifi´ pour e e .128 Valeurs et Vecteurs Propres Choix du “shift”-param` tre.1) avec le shift e e ` . on choisit pour celle qui est la plus proche de e Si elles sont de la forme avec (donc complexes). L’id´ e est d’it´ rer jusqu’` ce que e e e e e a isamment petit. e e on consid` re la matrice e Si les valeurs propres de (6. Une comparaison avec la e e figure V. Alors.5) . Encore it´ rations pour la matrice de dimension donnent e . Lemme 6. on prend d’abord pour l’it´ ration suivante e . Nous avons appliqu´ l’algorithme QR a la matrice (6. On a plusieurs possibilit´ s: e e : ce choix marche tr` s bien si les valeurs propres de la matrice sont r´ elles. 100 10−3 10−9 10−12 10−15 0 5 10 F IG .6) est v´ rifi´ pour e e . V. e „„ä 10−6  8&  x § Ç „ j 8 Qç„ j å 8 ä „ j 8 ç å 8 ä æ ‡¬ æ ‡¬ ݀ ` § ˆ 8 ç å 8 ä é– ¬ æ ‡¬ ou § k¬ ˆ   ë „ j 8 ”W ¥çU XWå U tä' „ i €Ý – ‹ § ¬ „ ¬ ˆ ‹ 0 S¬ æ x § Ç © @§ Ý ¬ˆ j  8 ç å8 ä „ 8 ç å8 ä 8 Qç‡„æ ¬ j å 8 ä „ j 8 Qç‡„æ ¬ j å 8 ä æ ‡¬ æ ‡¬ „°ä Ý € 2– Ó¬ ˆ ` § ¶ x Ç „ ë 8j ”W ¥çU 0 XWå§U ä' æ x § ‡¬ Ç 8 ç å8 ä 懬 j jå d ' åê 0 d ‡êæ ç ¬ ®ä d ` d „ ê Qç„ ‡¬ ®ä ”Eg æ ê ¬ˆ ݀ – „ ˆ Ý §€ × ‹ ¬ – ¡ °ä   ¡ „¢ j ©  fYd ‡° ¬ å ä d æ U Qç„ å U ä æ ‡‹¬ „j8& 8& ! f åê Yd „ j ê ç ®ä d æ ‡¬ ¬i ¢ j© ¢ „„ j ©  8 på 8 ä ˆ ¼ æ § ‡¬ ‘¬ ¼ ¼ ¼ (6. il est recomu e mand´ de choisir un shift-param` tre qui soit complexe.1 Soit une matrice r´ elle. Plus pr´ cis´ ment. Si (6.5. e et d´ compositions dans l’algorithme QR de mani` re a ce que e e ` . on a e e .6) f sd „ å „ ä d f)d 懄 ¬ å ä d  懬 ° 8 på 8 ä æ ‡¬ .

c. . e ee o` est orthogonale et est sous forme de Hessenberg satisfaisant u pour Alors. La formule (6. 0( ™d¬ ˆ ¬ i' 0 „ ¬ ˆ „ ì”( „ ¬ ˆ r¬ ‹ ˆ ` ‹¬ y0 ‹ ( y Ê 0 „ x' ƒ ¬ ˆ' ` „ ™r¬ ˆ 0( „ ¬ Ê „ #”y p„ ¬ ' ‹ ‹¬ ‹ „ ¬ ʄ ¬ Ê ‹ ‹  0 „ ‹ ¬ ʄ ‹ ¬ Ê' ¬ i‚0 „ ‹ ¬ ʄ ‹ ¬ Ê' § „ ‹ ¬ i  † o lF d 0 8 Ï † SS ƒ„ Ï ' smIG§  § U Ï d ¬i í ¬ i' Ê §„ „ ¬i ¬i ‹ 0 ° x' ƒ „ ¬i í ¬i ‹ „‹¬i „ ¬ „ ” „ „ ¬ ‹ ”y „ ‹ ”yy „ ‹ ¬ ”Ê y ‹ ¬ Ê ‹¬ ‹¬ í  IÓÅ( „ ¬ ˆ ¬ ˆ ` íŠ § § „ ”y „ ¬ Ê ‹ 0 „ ¬ ˆ ¬ ' ¬ y ‹ 0 „ ‹ ˆ „ ‹ tiS„ ‹ ””( ‹ ¬ ‹ ¬ ¬ i 0 „ ¬ ˆ ` ¬ ˆ' „ ¬ i § ¬ ˆ' ‹ ` ¬ ˜„ „ 0 „ ‹ ”„y „ ‹ ¬ „ Ê ' § „ ¬ ¬ ‹ ¬ Ê § ‹ ”y ‹ ìy ‹ ¬ Ê ‹ ¬ Ê ¬i ‡ „¬ i 0‘y „ j ' 0 Ê ' ‡ ‡ „Ï Ê î Ê „ Sð Ê par (6. la premi` re colonne de e (formule (6.8)). Notons les colonnes de e est de type Hessenberg avec une matrice o` u avec . Si. e Une possibilit´ de calculer e a partir de est de calculer de (6. a cause de l’unicit´ de la e ` e d´ composition QR.9) implique Si est fix´ . Elle est e bas´ e sur la propri´ t´ suivante. Cet algorithme n’est pas pratique car ` le calcul de n´ cessite e op´ rations. transformer sous forme de Hessenberg a l’aide de matrices de Householder ` (voir le paragraphe V. et sont d´ termin´ es de mani` re “unique” par la premi` re colonne de . d´ terminer une matrice de Householder e telle que . les valeurs e sont d´ termin´ es et est un multiple de e e . on peut calculer la matrice r´ elle e e e e e e op´ rations de la mani` re suivante: e e calculer .Valeurs et Vecteurs Propres Remarque. en „ð  „ j 8 g SS g „ ½ „ £€½ Y¬ i %½ ½ § ½ ’  pS † „ ½ ½ „ § „ ' Vy – R0 Vy í S„ ½ x  q† SS †  § € Ê © @ § „ j U ’ç|ï U „ i d  § U Ï d ‹¬  eU|ï U ð W †W W „ ‚ Uð fƒeð…Ufï ¨”W q¾i § ƒÅi ‚ W ð „ U § ‹ U qð Ê  „ Vy Ê § Vy Ê „ 0 8 Ï † pS †ƒ„ Ï ' oYnmlIFG§ Ê § Ê ‡ Ê i ‡‚ Ê ° Sð„ ”˜„dï SÅi ð „ „ð ï „ï† ˜„„ p† „ dS”„ „ ï „ð î £§ Ê i ‚ Ê „ ½ í „j8 ½ „ d¬ i ’%½ ½ „ ¼ ¼ „ Vy í ¼ 0 „ x' ƒ „ð ð „ ð ˜„„ ï S”„ „ ï „ Åi ˜„dï „ î i Th´ or` me 6. alors. la relation (6. on e e obtient de la premi` re formule de (6. Alors. alors D´ monstration.. On a “unicit´ ” dans le sens suivant: si e orthogonale satisfaisant .-` -d.2 Soit e e une matrice donn´ e et supposons que e (6. est une matrice r´ elle.8).7). dans l’algorithme QR. e e e e Remarque. la d´ composition est choisie de mani` re e e e a ce que les el´ ments diagonaux de ` ´e et soient r´ els.9) .7) (6. la valeur e est donn´ e par la deuxi` me formule de (6. D´ monstration.3). Une manipulation a l’aide de formules e ` On a donc trouv´ une d´ composition QR de la matrice e e qui.10). Avec cette valeur.8) (6.10) que est un multiple de e .10) . par . Si les hypoth` ses du lemme pr´ c´ dent sont v´ rifi´ es. Il y a une astuce int´ ressante pour obtenir e a partir de ` en op´ rations. etc. calculer a o` u . La d´ composition QR d’une matrice est unique sauf qu’on peut remplacer e o` u avec . mˆ me si e e est sous forme de Hessenberg. en cons´ quence des hypoth` ses du e e lemme.4) montre que e 129 Il suffit alors de d´ montrer que le produit e pour donne est r´ el. Maintenant. les matrices e et sont r´ elles. de faire une d´ compo` e sition QR (r´ elle) de e et de calculer a l’aide de (6. Ceci d´ termine e a une unit´ ` e pr` s.

e Ces propri´ t´ s restent vraies pour des matrices g´ n´ rales (sans d´ monstration). Indication.ex. Calculer les valeurs propres de la matrice tridiagonale (dimension . . e a n’est pas sym´ trique (p. Avec le choix u pour le shift-param` tre.. .8). . .. la premi` re colonne de est un multiple de celle de e Comme (observer que ). ee e e e V..130 Valeurs et Vecteurs Propres pour . on a et la matrice obtenue par cet algorithme est egale a ´ ` (voir (6. Etude de la convergence Supposons d’ˆ tre d´ j` proche de la limite et consid´ rons. la premi` re colonne de e est aussi un multiple de . on obtient e si si est sym´ trique (c. . e 2. ù ø ÷ö »R‡ºõ ô â ù   ˜ý  â   „ 21ý 1  1  6 5 7  1  õ ÷ ü õ ÷ õ ÷ü ü  ö È „ j 8 ç å8 ä  § T æ„ j ƒ § „ æ8 ç „ å8 ä b § T § „ Ê „ £Å( ˆ hi y § £ „ et ) on a . V´ rifier que e finies avec R´ sultat.7)). pour un bon choix des d´ compositions e e et . la matrice e ea e o` est un nombre petit.7 Exercices 1. Par cons´ quent. par exemple. donc convergence cubique. Consid´ rer la matrice e D’apr` s le th´ or` me 1.-` -d.3 cette matrice poss` de une valeur propre de la forme e e e e 1   2  5 Calculer et dessiner la tangente a la courbe ` ù    û   21ý ú  ù 1  ≠ÿô â ÿ  ÿ 0û ' ÿ   ô %$#Œ”õ   ü û W  ââ  & " ö ÷ ! ( )' â £û „ „ „   ÿ õ÷ û „ ö „  ÿ ÷  û „  „    8 ü  ‹ ù   W„  ¡8 „ Wÿþ ⠁Vâýâ ºÿö ©„¨ §”ôÿþ¦ „¥þ£û W þ ¤ ¢ý û „‹8þ û £þ ’  satisfont une equation aux diff´ rences ´ e o` u au point . . ) on a „ i „ ¬ „ ‹¬ „ „ ‹ ¬”y ‹ ¬ Ê „ ¬ ‹ ”„ y ¬ ‹ ¬Ê Ê ‹ Ê ‹ ) „ „ y„  ñ Ê § “òs ‹ ó ó „ ñ ˜òs‹  ½ 0 „b' ƒ § 0 °b'  À ó„ À ˜òsò  ‹ À © „ hh — b ` T b „ „ ˜òs ñ “òs‹ „ ñ   „‹ „ ˜òs ñ “òs‹„ ñ   ‹ £  § ˆ § ! £ †£§ )i ý 1 2  3 4   û ý  û Ñú „ ¬ ‹ „ ½ ’„ x  q† SS †  § €  § %V½„ y © § T b § £ £ Ó( ˆ ºi ÊV„ y ‹ ¬ Ê €½ „ í § „ § V…yU ½ ! ! b í ¼ ¼ . Les composants du vecteur propre . donc convergence quadratique. Par la formule (6. ..

sance a la matrice ` 4. e (b) En utilisant une suite de Sturm. montrer que toutes les valeurs propres sont positives et qu’une valeur propre est plus petite que 0. . Montrer que pour chaque valeur propre e de telle que existe une valeur propre þ  úý„ j  U …‚ ⠄ H XWU ü H s”W   E  úý „ j  Q Q Q þ úý û þ ⠄ Q E  ú RPH F   Q I U V3 D Indication. (a) Calculer par la m´ thode de la puissance. Trouver diag telle que „j Dú ú B I TH WU  Montrer que. appliquer la m´ thode de la puise e e avec un choix intelligent de . toutes les valeurs propres de soit sym´ trique. Consid´ rons la matrice tridiagonale e . Appliquer l’exercice 5 avec une 7. e (a) Transformer en une matrice tridiagonale ayant les mˆ mes valeurs propres. â U d þ þ  ¬ ` ’¬ ` ` ` ¬ ’¬ ¬ ú ’¬ þ  ¬ þ ú ’¬ p e i e  ge h   i e ge h f e  ú ge h f e  e  ÿ  d û ¨ú ` ` ¬ þ ’¬ þ  ¬ ` ’¬ ` ¬ þ ú ’¬ þ  ¬ ú ’¬ ú a (o` u et ) permet de calculer la valeur propre et le vecteur propre correspondant. Montrer l’existence d’un vecteur tel que . e ú ⠄ „ ÷ „ õü „ ü „÷ „õ   YB   W UeU ü E CH  E ú C ââ ÿ 5 D   C8 5 ÿ â ”„ ý ââ  û ÷ ÿô â ÿ £–3 ù û ø U ‡ö U ü F     û Ñú  H ú B WU XB  W ú ý RSQ   Q I @ (c) Avec quel choix de obtient-on la valeur propre la plus petite? â sont r´ elles. Soit une matrice sym´ trique et quelconque. On obtient alors e e e 8. Montrer que l’it´ ration e 3 E  F   Indication.001. e de il 9 8 @ ù ù ‡ù   8 8 ù û ™ú B @ CA ú E  ú úý„ j  U WU F   ú  a cbW   ú ý RI Q ú ú  . ¬ „ þ ¬ þ` û „ ‹ ¬¬ ` ‹ U V3   une matrice r´ elle avec pour valeur propre e . Indication. Soit une matrice sym´ trique. En d´ duire que e E F G 5. Consid´ rons la matrice de Hilbert.Valeurs et Vecteurs Propres 3. Soit convenable. la plus grande valeur propre de la matrice e 131 (b) Pour acc´ lerer consid´ rablement la vitesse de convergence. Montrer que pour chaque indice il existe une valeur e propre de telle que Indication.. . 1909). 6. si pour . (Schur. Consid´ rer les parties r´ elles et complexes de l’it´ ration de Wielandt. (c) Calculer approximativement la condition de pour la norme Euclidienne.

La m´ thode de Jacobi (1846) pour le calcul des valeurs propres d’une matrice sym´ trique: e e i) on choisit ( ) tel que ii) on d´ termine e comme dans l’exercice 11. ê ’¬ ˆ ú ê ¬ ˆ û ¥ ú q ' ‘ 4 q' ‘ 4 ' 3 q ‰ ' ‘ ‰ 4' . La matrice . La formule de r´ currence e Valeurs et Vecteurs Propres pour les polynˆ mes de Legendre (voir aussi (I. si si et si et sinon. Montrer que 13. si on r´ p` te cette proc´ dure. dont les e e e el´ ments sont les valeurs propres de . Pour un donn´ notons e et . Pour le polynˆ me o . e est une suite de Sturm. ctg . . e (b) Faire une it´ ration de l’algorithme QR avec shift. e e (b) Combien de racines sont complexes? (c) Combien de racines sont r´ elles et positives? e si . ´e Indication.5)) ressemble a o ` pour les polynˆ mes o . D´ montrer que o e e la suite d´ finie par l’algorithme d’Euclid. e 9 ùù ⠇‡tù‡ù ⠇ù  — û Ñú i W W „ H ê ¬ ü H  „ H eWU ü H YV–U û „ H XWU¥ ü H YV–U H XWU ü H YV–U h”£û H ê ¬ ü H W •“ ’   ú ‘ ƒ  Resultat. On consid` re la matrice e dont on cherche a calculer les valeurs propres. de dimension 10.132 9.4. Trouver une matrice tridiagonale valeurs propres de sont les racines de . ƒ e e b) Soit une matrice sym´ trique. d´ finie par e ô ú ââ û ÿ ÿô â ÿ  –3 ââ ÿ  ÿ â ÿ ô û s   2 telle que les ý ƒ„ j ¬ r q 3 ê¬    2 r s   q  s  ÿ    ý „ j U @ U„ t 9  s   s  s  ¡ s  ¢ s   2ý @ „ f ° f i û s @  ÿ   s2ý „ j U ‚„U A   j 2sý „ j U @   2s Uý £û   2s Uý @ s s € s   2ý ¥ @y û   s2ý „ 8 @ ÿ   2ý @ û   2ý 8 @ ô s   2ý r 8 ýwv ú   B   U ú ®xPu ý „ j U @     U 5ý û    Uý @     ý¬ ý ý û   2s”„ ‹ ¬ r   û q   û÷ ý s   2 @ ú ý . Montrer que. (a) d´ terminer le nombre de racines r´ elles. o` u û – û û ‘ ÿq ‘ û û 4–3 û q –3 û û ' –3 û ' –3 û ˆ û ƒ … ‡† ‚& ¦  ê ¬ ü  ý e   êê ü  ”¬ ü ý û ¬ ÷ ¦  ù ¦ ƒ & $ „%" û XWU   ê ¬ ˆý ¥ ø q ú ê ¬ ü ƒ 11. Soit un polynˆ me de degr´ et supposons que toutes les racines soient simples. tel que le ( )-i` me el´ ment de e ´e . a) Montrer qu’elle est orthogonale. ` (a) Faire une it´ ration de l’algorithme QR sans shift. D´ terminer s’annule. s’appelle rotation de Givens. 12. on a convergence vers une matrice diagonale.

. 15.Valeurs et Vecteurs Propres (c) Estimer la position des valeurs propres de (d) Calculer les valeurs propres de 133 a l’aide du polynˆ me caract´ ristique. Soit une matrice de Hessenberg dont tous les el´ ments de la sous-diagonale sont non-nuls. construites par l’algorithme sont egalement des matrices de Hessenberg (tridiago´ nales). Donner une estimation grossi` re du nombre d’op´ rations qui sont n´ cessaires pour effectuer la d´ composition e e e e QR d’une matrice de Hessenberg et pour calculer ensuite le produit RQ. Montrer que si la matrice est une matrice de Hessenberg (ou tridiagonale). ` o e 14. Expliquer. 16. une it´ ration de l’algorithme QR avec shift donne . alors les matrices . Montrer ´e e que. Laissez-vous inspirer par le “double shift” algorithme de Francis. comment le calcul de a partir de ` . B„ j @ ¬ „j¬@  ¬ d¬ e û ¬ B ˜ ˜ @ ÿ B „ j ¬ g „ j ¬ ˜ û ¬ e ¬ ˜ 17. peut etre effectu´ sans soustraire (et additionner) explicitement la matrice ˆ e Indication. j û „ æ8 ç „ å8 ¨ £@ „j¬ ú a l’aide du Th´ or` me de Gershgorine. ` e e e fd ú £˜ ¬ ú »û £ ˜ d  £@ ™ 4q £˜ ¬ ù ˜ . si est une valeur propre de .