Vous êtes sur la page 1sur 12

1 INTRODUCTION Chapitre 9 VALEURS PROPRES, VECTEURS PROPRES

Introduction

Du point de vue thorique, le problme de la dtermination des vecteurs propres et valeurs propres dune matrice est presque aussi bien connu que la rsolution des systmes linaires. La physique fournit un grand nombre de problmes quivalents la diagonalisation dune matrice symtrique ou hermitique. Je me limiterai essentiellement au cas des matrices relles symtriques. Rappelons quelques proprits des lments propres dune telle matrice. Jappelle valeurs propres de la matrice carre symtrique A les solutions de lquation en : det(A I ) = 0 si I est la matrice identit. Si A et I sont de taille n n, les valeurs propres sont donc solutions de lquation polynmiale de degr n : (1)n (n Cn1 n1 + C1 C0 ) = 0 appele quation (ou polynme) caractristique. Dans le cas dune matrice symtrique n n, lquation (2) admet n racines relles, distinctes ou non. Un certain nombre de mthodes anciennes (Leverrier, Krylov) forment le polynme caractristique et dterminent ses zros. Ces mthodes sont abandonnes, car, en labsence dhypothses supplmentaires sur A, elles sont lentes (calcul des Ci ) et instables (recherche des racines). Par contre, ces deux oprations sont rapides pour une matrice tridiagonale. Vous verrez que lune des mthodes les plus performantes consiste tridiagonaliser A en conservant ses lments propres, puis calculer les racines de son polynme caractristique. tant donn une matrice M orthogonale, je dis que la matrice A est semblable A si A = M T AM . On a le thorme : A et A ont mmes valeurs propres. Le vecteur propre u associ la valeur propre est dni par la relation : Au = u Dans le cas particulier dune matrice symtrique, les vecteurs propres (au nombre de n) peuvent tre choisis comme orthonorms : ils forment une base complte. Soit U la matrice dont les colonnes sont les vecteurs propres. Les lectrices vrieront sans peine que lensemble des n quations du type (3) peut scrire : AU = U si dsigne une matrice diagonale dont les seuls lments non nuls sont les valeurs propres. De par sa dnition, U est orthogonale, U T = U 1 . En eet, llment i, j du produit U T U est le j produit scalaire de la ligne i de U T , soit le vecteur ligne uT i , par la colonne j de U , soit u . Comme T les vecteurs propres sont orthonorms, jai (U U )i,j = i,j ; autrement dit, ce produit de matrices se rduit la matrice unit. Finalement : = U T AU ce qui traduit le thorme suivant. Une matrice symtrique peut toujours tre diagonalise au moyen dune similitude ; la matrice de transformation est orthogonale et ses colonnes forment un jeu complet de vecteurs propres.

2 MTHODE DE LA PUISSANCE N-IME ET MTHODES DRIVES

2
2.1

Mthode de la puissance n-ime et mthodes drives


Puissance n-ime

Il arrive parfois que lon recherche uniquement la plus grande des valeurs propres. La mthode de la puissance n-ime rpond bien ce besoin. Lalgorithme est trs simple. Ayant fait choix dun vecteur initial x(0) , je forme par rcurrence : x(n) = Axn1 = An x(0) . Le vecteur x(n) tend vers le vecteur propre associ la plus grande valeur propre (en module) ; (n) (n1) appelons-la 1 . Le rapport de deux composantes homologues de x(n) et x(n1) , soit xk /xk , tend vers 1 . La dmonstration est facile dans le cas dune matrice symtrique, bien que la mthode qui vient dtre expose soit plus gnrale. Soient u(i) , i les lments propres de A. Je peux dvelopper x(0) sur la base des u(i) : x(0) =
i

ci u(i)

Appliquons A : x(1) = Ax(0) =


i

ci Au(i) =
i

ci i u(i)

puis A : x(2) = Ax(1) =


i ( i) ci 2 iu .

Il est facile dcrire le cas gnral si lon se souvient de ce que Ak admet les mmes vecteurs propres que A et les k i comme valeurs propres : x(k) =
i (1) (i) + 1 = k ci k 1 c1 u iu (k) i=2

ci (i /1 )k u(i) .

Comme i /1 < 1, la proprit est dmontre. Exemple. Cherchons la plus grande valeur propre de A= 2 1 1 2

partir du vecteur [1, 0]T . La suite des vecteurs itrs et les valeurs approches de la valeur propre, calcules partir de la deuxime composante, sont : k x(k) (k) 1 2 1 2 5 4 2,5 3 14 13 2,8 4 41 40 2,93 5 122 121 2,98 6 365 364 2,99

Comme le montre lexemple, il arrive que certaines composantes de u(i) deviennent trs grandes (ou trs petites) au cours du calcul. Pour viter tout problme de dpassement de capacit, on peut (i) normaliser x(i) de telle faon que supm |xm | = 1, avant de calculer x(i+1) (normalisation au sens de la norme innie).

2 MTHODE DE LA PUISSANCE N-IME ET MTHODES DRIVES

2.2

Puissance n-ime avec dcalage

La rapidit de convergence de lalgorithme prcdent dpend des rapports i /1 . La convergence sera lente sil existe une autre valeur propre proche de 1 . Il est possible dacclrer la convergence, en augmentant les dirences entre valeurs propres. Il sut de remarquer que A et A = A sI ont mmes vecteurs propres (ces matrices commutent) et que leurs valeurs propres dirent par une translation. Si u et sont lments propres de A, alors : (A sI )u = Au sIu = ( s)u Ce procd est utile dans le cas 1 = 2 ; aprs changement dorigine, 1 pourra tre trs dirent de 2 .

2.3

Puissance n-ime de linverse

Je peux, en principe, obtenir une estimation de la plus petite valeur propre de A, en module, en multipliant n fois le vecteur x(0) par la matrice A1 . Je vous laisse les lecteurs dmontrer ce rsultat. Dans la pratique, on ne calcule pas x(n) = A1 x(n1) , mais on rsout le systme linaire Ax(n) = x(n1) , ce que lon peut faire rapidement en formant une fois pour toute la dcomposition LU de A. Cette mthode a pour mrite principal de servir dintroduction lalgorithme suivant, plus utile.

2.4

Puissance n-ime de linverse avec dcalage

Considrons la matrice B = (A sI )1 ; quels sont ses lments propres ? Si s ne concide pas avec lune des valeurs propres de A, B est rgulire et commute avec A. Elle admet donc les mmes vecteurs propres. Soit u lun de ces vecteurs ; il obit la relation Au = u, ou encore u = A1 u, ce qui montre que 1/ est valeur propre de A1 ; en combinant ce rsultat avec les proprits de A sI , je vois que 1/( s) est valeur propre de B . tant donn un vecteur initial x(0) , je forme par rcurrence : x(k) = Bx(k1) = B k x(0) = (A sI )k x(0) . Dveloppons x(0) selon les vecteurs propres de A, en appelant m la valeur propre la plus proche de s : k ci cm m s um + ci x(k) = u = ui k i k ( s ) ( s ) i s i m i
i= m

Comme |m s| < |i s|, le vecteur x(k) converge vers un vecteur proportionnel u(m) . Ici encore, il ne faut pas calculer les inverses des matrices, mais rsoudre des systmes linaires, comme (A sI )x(k) = x(k1) . Cet algorithme peut me permettre de calculer toutes les valeurs propres de A. Il sut de balayer, laide du paramtre s, lintervalle o doivent se trouver les valeurs propres. Pour chaque valeur de s, litration sur x converge vers le vecteur propre appartenant la valeur propre la plus proche de s ; par ailleurs, le rapport de deux coordonnes permet le calcul de cette valeur propre : (k) (k1) xj /xj = 1/(j s). En fait, la mthode savre peu pratique pour la recherche systmatique des valeurs propres ; elle est au contraire trs commode pour dterminer les vecteurs propres, connaissant des valeurs

3 MTHODE DE JACOBI

approches des i . Supposons en eet quune autre mthode, dirente, mait fourni un nombre , valeur approche au millime de m . Si je choisis s = , lalgorithme prcdent va converger en quelques itrations vers le vecteur propre associ m , condition que toutes les autres valeurs propres dirent de m par plus de quelques millimes. Exemple. Au 2.1, jai trouv une valeur approche de la plus grande valeur propre dune matrice A, soit s = 2, 99. Cherchons le vecteur propre correspondant partir de x(0) = (1, 0)T . Il me faut rsoudre le systme : 1, 01u + v = 1, u 1, 01v = 0, dont la solution est [50, 2487; 49, 7512]T ou [1; 0, 990099]T aprs normalisation. Une autre itration donnerait le vecteur [1; 0, 99995]T exact 5 105 prs.

Mthode de Jacobi

Contrairement aux algorithmes prcdents, la mthode de Jacobi permet le calcul de tous les lments propres simultanment. Il sagit deectuer une srie de similitudes qui vont amener la matrice carre symtrique A progressivement la forme diagonale, tout en prservant ses valeurs propres.

3.1

Principe

Le principe de la mthode est facile comprendre sur le cas deux dimensions, et cest par l que je commence. Soit la matrice : a11 a12 A= a12 a22 que je souhaite diagonaliser par une similitude A = RT AR, o R est une matrice orthogonale qui scrit : c s cos sin . = R= s c sin cos Un calcul lmentaire montre que : A = a11 c2 2a12 sc + a22 s2 a12 (c2 s2 ) + (a22 a11 )cs a12 (c2 s2 ) + (a22 a11 )cs a11 s2 + 2a12 cs + a22 c2 .

Je peux alors diagonaliser A en choisissant selon la relation : tg2 = 2a12 /(a22 a11 ). de Ces petits calculs admettent une interprtation gomtrique simple. Soit x = (x1 , x2 ) un vecteur 2 ; la matrice A, jassocie la forme quadratique xT Ax et lquation :
2 xT Ax = 1 = a11 x2 1 + (a12 + a21 )x1 x2 + a22 x2

qui reprsente une conique ; je suppose, pour xer les ides, que cette courbe est une ellipse. Jeectue maintenant le changement de repre dni par : x = Ry .

3 MTHODE DE JACOBI

Il sagit dune rotation des axes dangle . Je fais le changement de variables dans lquation de lellipse : (Ry )T ARy = yRT ARy = yA y = 1 La nouvelle quation de la conique est dnie par la nouvelle matrice. Si A est diagonale parce que jai fait un bon choix pour , lquation scrit :
2 2 a11 y1 + a22 y2 = 1.

On dit que la conique a t ramene ses axes principaux ; les axes principaux sont aussi les axes de symtrie de lellipse. Les termes croiss ou rectangles ont disparu. La gnralisation de ce procd n dimensions constitue lalgorithme de Jacobi.

3.2
(n)

Mthode de Jacobi

Je vais appliquer la matrice A une suite de similitudes A A(1) 1 A(2) 2 1 (i1) A , avec A(i) = Ri A Ri de telle manire que A(n) tende vers une matrice diagonale D dlments diagonaux i . Il est facile de comprendre pourquoi la diagonalisation nest quapproche. A laide dune rotation des axes du plan (x1 , x2 ), je peux annuler llment a12 comme au paragraphe prcdent. Mais, lorsque que japplique une nouvelle similitude pour faire disparatre a13 , tous les lments de la ligne 1, en particulier le zro que je viens de crer en a12 , sont modis. Ce nest que progressivement que la "substance" de la matrice va se concentrer sur la diagonale. A est symtrique, relle. Le passage de A(i) (lments ars ) A(i+1) (dlments ars ) fait intervenir la matrice orthogonale Rjk qui vaut (en posant c = cos jk et s = sin jk ) : 1 0 0 . 0 .. 0 . . 0 1 . . . . . . c s . Rj,k = . . . . . 1 . . . . . s c . . .. 0 . 0 0 1 Rjk reprsente une rotation des axes dans le sous-espace (j, k ). Seules les colonnes j et k et les lignes j et k de A(i+1) dirent de celles de A(i) . En calculant dabord AR, puis RT AR, vous montrerez que les quations de transformation scrivent : ars = ars , r, s = j, k, arj = ajr = carj sark , r = j, k, ark = akr = sarj + cark , r = j, k, ajj = c2 ajj + s2 akk 2csajk , ajk = akj = cs(ajj akk ) + (c2 s2 )ajk , akk = s2 ajj + c2 akk + 2csajk .

3 MTHODE DE JACOBI Langle de rotation est dni par la condition ajk = 0 tg 2jk = (akk ajj )/(2ajk ).

En pratique, on eectue les calculs sur une moiti de la matrice, puisque la similitude respecte la symtrie. On ne calcule pas non plus ajk , dont on sait quil est nul. Je peux donner une indication sur la convergence de la mthode. Nous dnissons les normes extradiagonales de A et de A par les relations : S2 =
j =k

|ajk |2 ; S 2 =
j =k

|ajk |2 .

En remplaant les ajk par leurs expressions, on montre que S < S , si bien que la suite des S (A(j ) ), positive dcroissante, converge. Il est un peu plus dicile de montrer que les S (A(j ) ) tendent vers zro, condition que les lments liminer soient choisis dans lordre "lexicographique" a12 , a13 , . . . , a1n , a23 , . . . , a2n , . . . On arrte le calcul quand sup |aij | < seuil. Lorsque la convergence est atteinte, la matrice est rpute diagonale et QT AQ = D , avec R1 R2 Rn = Q. Les colonnes de Q sont les vecteurs propres et nous intressent. Il serait ruineux de conserver les matrices Ri pour les multiplier la n. Je procde en fait par rcurrence, en posant Qk = R1 R2 Rk , k < n et Qk+1 = Qk Rk+1 . Chaque fois que je dnis les lments dune matrice R, jen prote pour former la matrice Qk+1 (lments qrs ) partir de Qk (lments qrs ) : qrs = qrs , r, s = j, k, qrj = cqrj + sqrk , r = j, k, qrk = sqrj + cqrk , r = j, k ; Ds que lordre de la matrice dpasse une dizaine, la mthode de Jacobi est moins rapide que la rduction de la matrice la forme tridiagonale, suivie dun calcul de valeurs propres. Cette remarque est dautant plus pertinente que A a la forme dune matrice bande plus ramasse : la mthode de Jacobi dtruit cette structure. Exemple. Je me propose de diagonaliser la matrice symtrique 1.0 1. 0.5 A = A0 = 1.0 1. 0.25 0.5 0.25 2.0 Je calcule dabord le carr de la norme diagonale -->sum(A.*A) = 8.625 et le carr de la norme complte de A : -->trace(A.*A) = 6.0 Pour annuler llment a12 , il faut eectuer une premire rotation dans le sous-espace (1,2). Comme a22 = a11 , jai 2 = /2, = /4, si bien que .7071068 .7071068 0. R1 = .7071068 .7071068 0. 0. 0. 1.

3 MTHODE DE JACOBI et

0. T 0. A1 = R 1 AR1 = .1767767

0. .1767767 2. .5303301 .5303301 2.

La norme au carr reste constante, sum(A1.*A1) = 8.625, alors que la somme des carrs des lments diagonaux augmente : trace(A1.*A1) = 8. La deuxime rotation, destine annuler le plus grand lment extradiagonal, soit a1 23 , est encore particulire, = /4 et 1. 0. 0. R2 = 0. .7071068 .7071068 0. .7071068 .7071068 0. .125 .125 T 1.4696699 2.220E 16 A2 = R2 A1 R2 = .125 .125 2.220E 16 2.5303301
2 Les tous petits nombres a2 23 = a32 sont ds des erreurs darrondi ; je fait le mnage pour les faire disparatre

A2 = clean(A2) = ! 0. ! - .125 ! .125

.125 1.4696699 0.

.125 ! 0. ! 2.5303301 !

Je surveille le carr de la norme complte, sum(A2.*A2) = 8.625 et le carr de la norme diagonale, trace(A2.*A2) = 8.5625. Vous remarquez que les lments prcdemment annuls ont tendance repousser, bien que moins vigoureusement. 2 2 La troisime rotation, dans le sous-espace (1,2), vise liminer a2 12 . Je trouve tg 2 = 2a12 /(a22 2 a11 ) = 0.1701062, do la matrice de rotation .9964533 .0841471 0. R3 = .0841471 .9964533 0. 0. 0. 1. et la matrice A3 , dbarrasse dlments infrieurs 1016 : .0105558 0. .1245567 3 0. 1.4802257 .0105184 A = .1245567 .0105184 2.5303301 Les lments diagonaux se renforcent : trace(A3.*A3) = 8.59375. La quatrime rotation aura lieu dans le sous-espace (1,3), avec tg 2 = 0.0980419 ou = 0.0488648 rd. La matrice de rotation scrit .9988064 0. .0488453 0. 1. 0. R4 = .0488453 0. .9988064 et permet dobtenir .0166471 A4 = .0005138 0. .0005138 1.4802257 .0105058 0. .0105058 2.5364214

4 RDUCTION LA FORME TRIDIAGONALE

Mon critre de convergence est atteint : jarrte litration. Le carr de la norme diagonale vaut maintenant 8.6247788 ( 3 104 du total). Les vecteurs propres sont les colonnes de la matrice de similitude globale ; comme je nai manipuler que 4 petites matrices, je forme R directement .7213585 .4387257 .5358747 R = R1 R2 R3 R4 = .6861572 .5577276 .4670419 .0939688 .7045989 .7033564 Cette matrice est orthogonale aux erreurs darrondi prs, comme vous le vrierez en formant RT R. Je vous recommande aussi deectuer le produit de A par une colonne de R, pour vrier que lon obtient bien un vecteur proportionnel cette colonne et la valeur propre correspondante. Enn, je peux demander Scilab de faire les calculs directement, avec une tolrance de lordre de 1016 : -->[D,X] = bdiag(A) X = ! .7212071 - .5314834 ! - .6863493 - .4614734 ! - .0937280 - .7103293 D = ! - .0166473 0. ! 0. 2.5365259 ! 0. 0.

.4442811 ! .5621094 ! .6976011 ! 0. ! 0. ! 1.4801214 !

Lerreur encourue sur les valeurs propres aprs 4 itrations de lalgorithme de Jacobi nexcde pas 104 . Les vecteurs propres sont nettement moins prcis. Cest toujours le cas pour lalgorithme de Jacobi. Une dernire remarque : lordre dans lequel apparaissent les valeurs propres et les vecteurs propres associs est arbitraire, de mme que le signe des vecteurs propres.

Rduction la forme tridiagonale

Il est avantageux dabandonner lobjectif de lalgorithme de Jacobi (diagonaliser une matrice symtrique par une suite convergente de similitudes) pour un objectif plus restreint : amener la matrice relle symtrique A la forme tridiagonale. En eet, la dtermination des lments propres dune matrice tridiagonale est trs rapide. Dautre part, la transformation de A en matrice tridiagonale ncessite, grce lalgorithme de Householder, un nombre ni doprations.

4.1

Matrice de Householder

Lalgorithme de Householder se comprend facilement partir de sa reprsentation gomtrique dans lespace trois dimensions. Soient un point M et un plan (P), contenant lorigine (mais pas M) et normal au vecteur unitaire n . Je cherche construire le point M qui se dduit de M par une symtrie orthogonale par rapport (P). La droite passant par M et perpendiculaire (P) perce ce plan en K ; elle passe aussi par M. Le vecteur KM est parallle n ; sa longueur est celle de la projection orthogonale de OM sur n ; autrement dit, KM = (n OM )n . Par symtrie, KM est OM )n loppos de KM . Je peux relier M M par OM = OM +M M = OM 2KM = OM 2(n . Il est clair que OM = OM , la symtrie prservant les longueurs.

4 RDUCTION LA FORME TRIDIAGONALE

Lorsque je reprsente les vecteurs par des matrices colonne, les relations prcdentes deviennent OM = x, OM = x et x = x 2(n T x)n = x 2n n T x = (I 2n n T )x, les dernires formes tant rendues possibles par lassociativit des produits. Ce raisonnement se gnralise sans peine lespace n dimensions, mme si la reprsentation gomtrique devient plus dicile. Soit w un vecteur unitaire de n : wT w = 1. Je dnis une matrice : P = 1 2wwT . Cette matrice est symtrique : P T = P parce que le transpos dun produit est gal au produit des transposes dans lordre inverse. Elle est aussi orthogonale : P T P = P P = (I 2wwT )(I 2wwT ) = I 2wwT 2wwT + 4wwT wwT = I . et donc idempotente P 2 = I . Si deux vecteurs x, y satisfont la relation : y = P x = x 2(wwT x), alors : y T y = xT P T P x = xT x.

Je mintresse maintenant la rciproque du cas prcdent :je voudrais dterminer un vecteur w (et donc une matrice P ) tel quun x donn soit transform par P en un vecteur donn lavance et mme, plus prcisment, en un multiple du premier vecteur de la base canonique P x = k e1 . Daprs les relations prcdentes, il apparat que |k |2 = x 2 = xT x L2 et k = L. De plus, daprs la dnition de P x, x k e1 = 2wwT x = 2(wT x)w : le vecteur w doit tre proportionnel x k e1 . Comme il doit tre en plus normalis, je peux crire w= De plus x k e1 x k e1

2 1 /2 . x k e1 = x Le1 = [(x1 L)2 + x2 2 + .... + xn ]

On montre quil vaut mieux choisir le signe moins (pour viter des erreurs darrondi), si bien que : |x1 k |2 = |x1 + L|2 = L2 + 2L|x1 | + x2 1. Il sen suit que : x k e1
2

= 2L2 + 2L|x1 |. On peut crire, sans normaliser le vecteur w : P = 1 uuT

avec : L = x , k = L, u = x k e1 = [x1 + L, x2 , . . . , xn ]T , = 1/L(L + x1 ). Exemple. Soit le vecteur x = [1, 2, 3, 1, 1]T dont la norme est L = 4. Le vecteur u vaut [5, 2, 3, 1, 1]T et = 1/20. On trouve alors : 5 10 15 5 5 10 16 6 2 2 1 15 6 11 3 3 P = 20 5 2 3 19 1 5 2 3 1 19 et on vrie que P x = [4, 0, 0, 0, 0]T .

4 RDUCTION LA FORME TRIDIAGONALE

10

4.2

Tridiagonalisation

Je vais utiliser des matrices de Householder comme P pour amener la matrice relle symtrique A la forme tridiagonale, laide dune srie de similitudes : A(i) = Q(i) A(i1) Qi . Le premier produit (prmultiplication qui agit sur les colonnes), QT A, doit laisser invariant a11 et doit transformer le vecteur [a21 , a31 , . . . , an1 ]T en [k, 0, 0, . . .]T , un multiple du premier vecteur de la base canonique de n1 . Il faut donc faire agir une matrice de Householder Pn1 de dimension n 1 ; celle-ci sera insre dans une matrice dordre n ayant la structure Q= 1 0 0...0 Pn1
T

Le deuxime produit (QT A)Q (postmultiplication agissant sur les lignes) fera de mme pour la premire ligne de A : a11 invariant et [a12 , a13 , . . . , a1n ] transform en [k, 0, . . . , 0]. Vous imaginez sans peine la suite de litration : laide dune matrice de Householder n 2 n 2, je forme une nouvelle matrice Q, dordre n 1, dont la mission sera dannuler les lments a42 , . . . , an2 et a24 , . . . , a2n (ce sont les mmes). Au bout de n 2 similitudes, la matrice sera exactement sous forme tridiagonale : cet algorithme est plus compliqu que celui de Jacobi, mais il aboutit au rsultat cherch en un nombre ni doprations. Il faudra, en principe, garder les matrices Qi pour le calcul des vecteurs propres. Si y est un vecteur propre de An2 , x = Q1 Q2 Qn2 y est vecteur propre de A. En pratique, le produit des Q est accumul au fur et mesure. Exemple. Je vais tridiagonaliser la matrice qui ma dj servi illustrer la mthode de Jacobi : 1. 1. .5 A = 1. 1. .25 .5 .25 2. Le bas de la premire colonne constitue le vecteur traiter xx = A(2 : 3, 1) = Je calcule successivement k 1. .5 .

= sqrt(x*x) = 1.118034, w = x k [10] = .1180340 .5 .2297529 .9732490 ,

que je normalise w = w/sqrt(w w) = Jen dduit P = eye(2, 2) 2 w w = Je vrie ce premier rsultat P A(2 : 3, 1) = P x = 1.118034 2.776E 16 . .

.8944272 .4472136 .4472136 .8944272

4 RDUCTION LA FORME TRIDIAGONALE Je construit la matrice Q avant de tridiagonaliser : Q = [1 0 0; 0 P (1, 1) P (1, 2); 0 1. 0. 0. P (2, 1) P (2, 2)] = 0. .8944272 .4472136 . 0. .4472136 .8944272

11

Pour une matrice 3 3, il ny a quune tape de tridiagonalisation : 1. 1.118034 0. 1.4 .55 . A1 = clean(A1) = 1.118034 0. .55 1.6 Quelques vrications lmentaires : trace(A1) = 4. = trace(A) et det(A1) = -.0625 = det(A).

4.3

Calcul des valeurs propres

Soit J une matrice tridiagonale symtrique relle dordre n : 1 2 0 0 2 2 3 0 J = 0 3 4 4 . . .. .. . . . . n n Nous supposons les i tous dirents de zro. Nous pouvons former facilement le polynme caractristique de J , en procdant par rcurrence. Dnissons en eet la matrice partielle : 1 2 0 2 1 3 Ji = i i i et pi (x) = det[Ji I ]. En dveloppant ce dterminant en fonction des lments de la dernire colonne, nous trouvons les relations : p0 (x) = 1; p1 (x) = 1 x;
2 pi (x) = (i x)pi1 (x) i pi2 (x).

Toute mthode ecace de recherche des zros dun polynme est maintenant applicable au calcul des valeurs propres (les racines de pn ) ; la mthode de bissection est stable et commode. On peut aussi utiliser lalgorithme de Newton, en calculant la drive de pn laide de la rcurrence : p0 (x) = 0; p1 (x) = 1,
2 pi (x) = pi1 (x) + (i x)pi1 (x) i pi2 (x).

5 MATRICES HERMITIQUES

12

Matrices hermitiques

On rencontre souvent , en physique, des matrices hermitiques : comment chercher leurs lments propres ? La mthode de Householder peut stendre des matrices complexes, mais la programmation en Pascal est pnible, puisque ce langage ignore le TYPE complexe et que lon est oblig de rcrire toutes les oprations arithmtiques (ce ne serait pas le cas en FORTRAN ou en C). Une autre mthode consiste sparer partie relle et partie imaginaire du problme de valeurs propres. Je cherche des solutions de : Ax = x, o A est hermitique et est rel. Je pose A = A + i , x = x + ix . Lhermiticit de A impose la symtrie de A et lantisymtrie de A ( A T = A ). En sparant partie relle et partie imaginaire : A x A x = x , A x + A x = x .

Ces relations peuvent tre considres comme le dveloppement par blocs de lquation : A A A A x x = x x .

Jai ainsi remplac un problme n n complexe en un problme 2n 2n rel. Le nombre de valeurs propres a-t-il doubl pour autant ?