Vous êtes sur la page 1sur 63

MACS1.

Cours d Analyse numrique

L. Halpern

24 septembre 2010
2
Table des matires

I Introduction gnrale 7

II Rsolution numrique de systmes linaires 11


1 Gnralits 13
1.1 Rappels sur les matrices . . . . . . . . . . . . . . . . . . . . . 13
1.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Cas particulier de matrices . . . . . . . . . . . . . . . . 15
1.1.3 Dterminants . . . . . . . . . . . . . . . . . . . . . . . 15
1.1.4 Produit de matrices par blocs . . . . . . . . . . . . . . 16
1.2 Rduction des matrices . . . . . . . . . . . . . . . . . . . . . . 17
1.3 Algorithme, complexit . . . . . . . . . . . . . . . . . . . . . . 18
1.4 Systmes linaires, dfinitions . . . . . . . . . . . . . . . . . . 19
1.5 Norme de vecteurs et de matrices . . . . . . . . . . . . . . . . 22
1.6 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.6.1 Erreur darrondi . . . . . . . . . . . . . . . . . . . . . . 25
1.6.2 Conditionnement dun problme . . . . . . . . . . . . . 26
1.6.3 Conditionnement dune matrice . . . . . . . . . . . . . 26
1.7 Notion de prconditionnement . . . . . . . . . . . . . . . . . . 29

2 Mthodes directes 31
2.1 Mthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . 31
2.1.1 Systmes triangulaires . . . . . . . . . . . . . . . . . . 31
2.1.2 Dcomposition LU : un rsultat thorique . . . . . . . 33
2.1.3 Dcomposition LU : mthode de Gauss . . . . . . . . 35
2.1.4 Mthode de Crout . . . . . . . . . . . . . . . . . . . . 39
2.1.5 Complexit de lalgorithme . . . . . . . . . . . . . . . . 40
2.1.6 mthode du pivot partiel . . . . . . . . . . . . . . . . . 41
2.2 Mthode de Cholewski . . . . . . . . . . . . . . . . . . . . . . 45

3
3 Mthodes itratives 47
3.1 Suite de vecteurs et de matrices . . . . . . . . . . . . . . . . . 47
3.2 Mthode de Jacobi, Gauss-Seidel, S.O.R. . . . . . . . . . . . . 48
3.3 Rsultats gnraux de convergence . . . . . . . . . . . . . . . 50
3.4 Cas des matrices hermitiennes . . . . . . . . . . . . . . . . . . 51
3.5 Cas des matrices tridiagonales . . . . . . . . . . . . . . . . . . 51
3.6 Matrices diagonale dominante . . . . . . . . . . . . . . . . . 51
3.7 La matrice du laplacien . . . . . . . . . . . . . . . . . . . . . . 52
3.8 Complexit . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

4 Calcul des valeurs propres et vecteurs propres 55


4.1 Gnralits, outils matriciels . . . . . . . . . . . . . . . . . . . 55
4.1.1 Matrices de Householder . . . . . . . . . . . . . . . . . 55
4.1.2 Quotients de Rayleigh . . . . . . . . . . . . . . . . . . 56
4.1.3 Conditionnement dun problme de valeurs propres . . 57
4.2 Dcompositions . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Dcomposition QR . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Tridiagonalisation dune matrice symtrique . . . . . . 59
4.3 Algorithmes pour le calcul de toutes les valeurs propres dune
matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.3.1 Mthode de Jacobi . . . . . . . . . . . . . . . . . . . . 59
4.3.2 Mthode de Givens ou bisection . . . . . . . . . . . . . 60
4.4 Mthode de la puissance itre . . . . . . . . . . . . . . . . . . 62

4
Bibliographie

[1] G. Allaire, S.M. Kaber, Algbre linaire numrique. Ellipses, 2002


[2] M. Schatzmann, Numerical Analysis, A Mathematical Introduc-
tion.Oxford University Press, 2002.
[3] P. Lascaux, R. Theodor,Analyse numrique matricielle applique lart
de lingnieur. Masson.
[4] E. Hairer : consulter la page http ://www.unige.ch/ hairer/polycop.html

5
6
Premire partie

Introduction gnrale

7
Le Calcul Scientifique se propose de mettre un problme issu de la phy-
sique, de lconomie, de la chimie, de lingnierie, en quations, cest ltape
de la modlisation, et de les rsoudre. Ces quations sont souvent trs com-
plexes, et font intervenir normment de paramtres. Elles sont en gnral
impossible rsoudre de faon exacte (comme le serait une quation diffren-
tielle du second degr par exemple, modlisant le mouvement dun pendule
de longueur l :
g
x + sinx = 0. (1)
l
Le problme linaris pour de petits mouvements du pendule scrit
g
x + x = 0 (2)
l
p p
peut se rsoudre sous la forme x = x0 cos gl t + x0 sin gl t. On peut alors
calculer x(t) pour tout temps de faon exacte (modulo les erreurs darrondi).
Par contre on ne connait pas de solution exacte de lquation (1). On est
donc amen en chercher une solution approche en un certain nombre de
points (cf cours de mise niveau) : On souhaite calculer x dans lintervalle
]0, T [, connaissant x(0) = x0 et x (0) = x0 . On se donne une suite dinstants
tn = nt, avec T = Nt, et on crit une approximation de la drive seconde
x(tn+1 ) 2x(tn ) + x(tn1 )
x (tn ) = + O(t2 ) (3)
t2
et on remplace lquation par
yn+1 2yn + yn1 g
+ sin(yn ) = 0. (4)
t2 l
Puisque lon a une quation de rcurrence 2 niveaux, il faut se donner y0
et y1 . Nous verrons plus tard comment calculer y1 . Lquation (4) est une
approximation de lquation (1). Il est souhaitable que
1. (4) ait une solution unique,
2. yn x(tn ), cest la consistance,
3. une erreur petite sur les donnes initiales y0 et y1 produise une erreur
faible sur yn : cest la stabilit.
Ce sont les 3 notions de base en Calcul Scientifique. Lquation (4) peut
aussi se mettre sous forme condense, F (Y ) = b, cest alors un systme non
linaire dont il faut trouver une solution.
Lapproximation par diffrences finies de (2) scrit
yn+1 2yn + yn1 g
+ yn = 0. (5)
t2 l

9
Elle peut se mettre sous forme dun systme linaire, cest--dire AY = b, o

1 0 y0
0 1 0 y0 y1

0 1 1 ..
,Y = . ,b = 0 ,

A=
.. .. .. ..
. . . 1 yN .
0 1 0
g
avec = 2 + t2 . De manire gnrale, toute quation issue de la modlisa-
l
tion est ensuite discrtise puis mise sous la forme dun systme, diffrentiel
ou non, linaire ou non. Tout commence par la rsolution des systmes li-
naires, puis des quations non linaires, puis des quations diffrentielles.
Nous verrons en deuxime anne les modles dquations aux drives par-
tielles.

10
Deuxime partie

Rsolution numrique de
systmes linaires

11
Chapitre 1

Gnralits

Sommaire
1.1 Rappels sur les matrices . . . . . . . . . . . . . . . 13
1.1.1 Dfinitions . . . . . . . . . . . . . . . . . . . . . . 13
1.1.2 Cas particulier de matrices . . . . . . . . . . . . . 15
1.1.3 Dterminants . . . . . . . . . . . . . . . . . . . . . 15
1.1.4 Produit de matrices par blocs . . . . . . . . . . . . 16
1.2 Rduction des matrices . . . . . . . . . . . . . . . . 17
1.3 Algorithme, complexit . . . . . . . . . . . . . . . . 18
1.4 Systmes linaires, dfinitions . . . . . . . . . . . . 19
1.5 Norme de vecteurs et de matrices . . . . . . . . . 22
1.6 Conditionnement . . . . . . . . . . . . . . . . . . . . 25
1.6.1 Erreur darrondi . . . . . . . . . . . . . . . . . . . 25
1.6.2 Conditionnement dun problme . . . . . . . . . . 26
1.6.3 Conditionnement dune matrice . . . . . . . . . . . 26
1.7 Notion de prconditionnement . . . . . . . . . . . 29

1.1 Rappels sur les matrices


1.1.1 Dfinitions
Une matrice (m, n) est un tableau m lignes et n colonnes

a11 a12 a1n
a21 a22 a2n

A = .. .. . . ..
. . . .
am1 am2 amn

13
Cest aussi la matrice dune application linaire A de K n dans K m o K est
R ou C : une base e1 , , en tant choisie dans K n , et une base f1 , , fm
dans K m , A est dfini par
n
X
1 j n, A(ej ) = aij fi
i=1

Le j-me vecteur colonne de A reprsente donc la dcomposition de A(ej )


dans la base f1 , , fm .
Dfinition 1.1 Lapplication linaire A est injective si

A(x) = 0 x = 0

Dfinition 1.2 Lapplication linaire A est surjective si pour tout b dans


K m , on peut trouver x dans K n tel que A(x) = b

Dfinition 1.3 Lapplication linaire A est bijective si elle est la fois in-
jective et surjective.

Si A est bijective , on a m = n, la matrice A est carre.


Oprations sur les matrices
1. Somme : On peut ajouter deux matrices de mme dimension (m, n) et

(A + B)ij = (A)ij + (B)ij

2. Produit par un scalaire : Pour dans K, on peut faire le produit A


et
(A)ij = (A)ij
3. Produit de 2 matrices : Pour A(m, n) et B(n, p) on peut faire le produit
AB, de dimension(m, p) et
n
X
(AB)ij = (A)ik (B)kj
k=1

4. Transpose dune matrice : Pour A(m, n) la transpose de A est de


dimension (n, m) et est dfinie par ( tA)ij = Aji .
5. Adjointe dune matrice : Pour A(m, n) ladjointe de A est de dimension
(n, m) et est dfinie par (A )ij = Aji.
6. Inverse dune matrice carre : on dit que la matrice carre A est in-
versible si il existe une matrice B telle que AB = BA = I. La matrice
B est appele linverse de A et note A1 .

14
1.1.2 Cas particulier de matrices
Toutes les matrice considres dans ce paragraphe sont carres.

1. Matrices symtriques : elles vrifient tA = A, ou encore aij = aji.


2. Matrices hermitiennes : elles vrifient A = A, ou encore a
ij = aji .
3. Matrices diagonales : elles vrifient aij = 0 pour i 6= j.
4. Matrices triangulaires infrieures : elles vrifient aij = 0 pour j > i, i.e.
elles ont la forme

0 0 0
0 0


A = .. 0 .
0

0

5. Matrices triangulaires suprieures : elles vrifient aij = 0 pour j < i,


i.e. elles ont la forme


0


A= 0 0 ..
.

0 0 0
0 0 0

Les matrices triangulaires sont importantes pour la rsolution numrique


des systmes car elles ont les proprits suivantes :
La transpose dune matrice triangulaire infrieure est triangulaire su-
prieure et rciproquement ;
Le produit de deux matrices triangulaires infrieures est triangulaire
infrieure et le produit de deux matrices triangulaires suprieures est
triangulaire suprieure.
Linverse dune matrice triangulaire infrieure est triangulaire infrieure
et linverse dune matrice triangulaire suprieure est triangulaire sup-
rieure.

1.1.3 Dterminants
Le dterminant dune matrice carre A se note det A, ou

15
a11 a12 a1n
a21 a22 a2n
det A = .. .. .. ..
. . . .
an1 an2 ann
Il obit la rgle de calcul de dveloppement par rapport une ligne ou une
colonne et a les proprits suivantes
1. det I = 1,
2. det tA = det A,
3. det A = det A,
4. pour tout scalaire (complexe ou rel) , det( A) = n det A,
5. det AB = det A det B,
1
6. Si A est inversible, det A1 = ,
det A
7. Le dterminant dune matrice triangulaire est gal au produit de ses
lments diagonaux.

1.1.4 Produit de matrices par blocs


On dcompose la matrice carre A de la faon suivante :

a11 a1J a1J+1 a1n
.. .. .. ..
. . . .

aI1 aIJ aIJ+1 aIn  



A11
(I,J) A21
(I,nJ)
A= =
A12 22
(nI,J) A(nI,nJ)

aI+11 aI+1J aI+1J+1 aI+1n
. .. .. ..
.. . . .
an1 anJ anJ+1 ann

a11 a1J
.. ..
La matrice A11
(I,J) = . . est de dimension(I, J),
aI1 aIJ

a1J+1 a1n
.. .. est de dimension(I, n J),
A21
(I,nJ) = . .
aIJ+1 aIn

16

aI+11 aI+1J
.. ..
A12
(nI,J) = . . est de dimension(n I, J),
a anJ
n1
aI+1J+1 aI+1n
.. ..
A21
(nI,nJ) = . . est de dimension(n I, n J).
anJ+1 ann
Si lon prend une matrice B partitionne de la faon suivante :
 11 21

B(J,K) B(J,nK)
B= 12 22 ,
B(nJ,K) B(nJ,nK)
alors on peut faire le produit AB comme si lon avait affaire des matrices
22 :
 
A11 B 11 + A12 B 21 A11 B 12 + A12 B 22
AB = ,
A21 B 11 + A22 B 21 A21 B 12 + A22 B 22

1.2 Rduction des matrices


Soit A une matrice carre n n, on dit que est valeur propre si il
existe un x 6= 0 tel que Ax = x. On dit alors que x est un vecteur propre
associ la valeur propre . Les valeurs propres sont les zros du polynme
caractristique p(x) = det(A xI). Lespace propre assoc la valeur propre
est E = Ker(A I). On appelle multiplicit de la valeur propre sa
multiplicit en tant que zro de p.
On dit que A est diagonalisable si il existe une base (f1 , , fn ) de Rn
constitue de vecteurs propres de A associs au valeurs propres 1 , , n
(comptes sans la multiplicit). On a alors pour tout i Afi = i fi . On pourra
crire matriciellement A = P P 1 o est la matrice diagonale des valeurs
propres de A, et P la matrice des vecteurs propres.

Thorme 1.1 La matrice A est diagonalisable sur R (resp. sur C) si et


seulement si
1. ses valeurs propres sont dans R (resp. sur C),
2. pour chaque valeur propre la dimension du sous-espace propre est gale
la multiplicit.

Corollaire 1.1 Une matrice dont toutes les valeurs propres sont simples est
diagonalisable.

17
Thorme 1.2 Une matrice symtrique est diagonalisable en base orthonor-
me.

Thorme 1.3 (Thorme de Schur) Pour toute matrice carre A, il existe


une matrice unitaire U telle que U AU est triangulaire. Si de plus A est
normale, il existe une matrice une matrice unitaire U telle que U AU est
diagonale.

1.3 Algorithme, complexit


Quest-ce quun algorithme ? Cest une suite doprations lmentaires
ncessaires pour raliser une tche donne. Quest-ce quune opration l-
mentaire ? Dans lalgorithme dEuclide par exemple pour trouver le pgcd de
2 polynmes a et b, une opration lmentaire est la division euclidienne :

a = bq0 + r0 , r0 = 0 ou dr0 < da,


b = r0 q1 + r1 , r1 = 0 ou dr1 < dr0
r0 = r1 q2 + r2 , r2 = 0 ou dr2 < dr1

on a alors a b = b r0 = = rn1 rn tant que rn 6= 0. La suite des drk


est une suite dentiers strictement dcroissante, il existe donc un n tel que
rn+1 = 0. On a alors a b = rn . Cest la forme que lon a apprise lcole.
On peut crire lalgorithme sous la forme
d1 = da; d2 = db ;
si d1 < d2 , p1 = b & p2 = a ;
sinon p1 = a & p2 = b ;
tant que p2 6= 0,
p1 = q p2 + r
si r = 0, pgcd = p2
sinon p1 = p2 ; p2 = r
et on normalise.
Les oprations lmentaires sont +, , , /. La complexit dun algorithme
est le nombre doprations lmentaires ncessaires la rsolution de lalgo-
rithme. Prenons lexemple du produit de deux matrices. Soit A une matrice
m n, B une matrice n p. Pour calculer le produit AB on a lalgorithme
avec des boucles
Donnes A,B
%Initialisation C=zeros(m, p) ;
Pour i = 1 : m ;
Pour j = 1 : p ;

18
Pour k = 1 : n ;
C(i, j) = C(i, j) + A(i, k) B(k, j) ;
Fin ;
Fin ;
Fin ;
Pour calculer chaque C(i, j) on a n multiplications et n 1 additions. Ce qui
fait nmp multiplications et (n 1)mp additions. Pour des matrices carres,
on obtient en tout, (2n1)n2 . On a longtemps travaill sur ces questions : cet
algorithme est-il optimal, cest--dire existe-t-il des algorithmes de calcul de
AB qui ncessitent moins doprations ? La rponse est oui : lalgorithme de
Strassen qui ncessite moins de nlog2 (7) oprations lmentaires avec log2 (7)
2.81. Voir [1].

1.4 Systmes linaires, dfinitions


Rsoudre un systme linaire de n quations m inconnues, cest trouver
m nombres, rels ou complexes, x1 , , xm , tels que

a x + a12 x2 + + a1m xm = b1
11 1

a21 x1 + a22 x2 + + a2m xm = b2
.. .. (1.1)


. . . . .
a x +a x ++a x = bn
n1 1 n2 2 nm m

Les donnes sont les coefficients aij , 1 i n, 1 j m et bj , 1 j n.


On appelle systme homogne associ le systme obtenu pour b = (0, , 0).
Il est quivalent de se donner la matrice A des coefficients aij et le vecteur b
des bj :

a11 a12 a1m b1
a21 a22 a2m b2

A = .. .. . . .. , b = ..
. . . . .
an1 an2 anm bn
et de chercher un vecteur

x1

x2

x= ..
.
xm
tel que

19
Ax = b
Il sera souvent utile dcrire (1.1) sous la forme


a11 a12 a1m b1

a21


a22


a2m
b2

x1 .. + x2 .. + + xm .. = .. (1.2)
. . . .
an1 an2 anm bn

a1j
(j) (j)

a2j

Soit, en notant a le j-me vecteur colonne de A, a = .. ,
.
anj

x1 a1 + x2 a2 + xm am = b

On en dduit un premier rsultat : le systme (1.1) admet une solution si


et seulement si b appartient au sous-espace vectoriel de Rn engendr par les
m vecteurs colonnes de A : L(a(1) , , a(m) ). On appelle rang du systme le
rang de la matrice A, cest la dimension de L(a(1) , , a(m) ). Cest aussi la
taille dun mineur de A dordre maximum non nul.
1. On sinteresse dabord aux systmes carrs, tels que m = n.
Thorme 1.4 Supposons m = n. Alors les proprits suivantes sont
quivalentes :
(i) A est inversible,
(ii) det(A) 6= 0,
(iii) pour tout b dans Rn , le systme (1.1) admet une solution et une
seule,
(iv) le systme homogne associ nadmet que la solution triviale x =
(0, , 0).
Remarquons que si A nest pas inversible, son noyau est de dimension
n r daprs le thorme du rang. Soit b est dans ImA, il existe une
solution X, et toutes les solutions sont obtenues en ajoutant X un
lment de KerA. Si b nest pas dans ImA, lensemble des solutions est
vide. Remarquons quil nest pas forcment vident de savoir si A est
inversible, cela vient en gnral avec ltude de la mthode numrique
dont le systme est issu.

20
2. Supposons maintenant que r = n < m. Il y a plus dinconnues que
dquations : le systme est sous-dtermin. Supposons, par un chan-
gement de numrotation, que le dterminant

a11 a12 a1n

a21 a22 a2r

.. .. . . ..
. . . .

an1 an2 ann

soit non nul. On dit que x1 , , xn sont les inconnues principales,


xr+1 , , xn sont les inconnues non principales. On rcrit le systme
sous la forme


a11 x1 + a12 x2 + + a1n xn = b1 (a1r+1 xr+1 + + a1m xm )

a21 x1 + a22 x2 + + a2n xn = b2 (a2r+1 xr+1 + + a2m xm )
. .
..
. . . ..

a x +a x ++a x
n1 1 n2 2 nn n = bn (anr+1 xr+1 + + anm xm )

Pour un second membre donn b, pour chaque choix de (xr+1 , , xn )


dans Rnr , il y a une seule solution x1 , , xr . Lensemble des solu-
tions est un espace affine de dimension n r. On dira quil y a une
indtermination dordre m n.
3. Cas o r < n. Alors on ne peut pas avoir une solution pour tout se-
cond membre b, puisque L(a(1) , , a(m) ) $ Rn . On a alors r quations
principales, supposons que ce soient les r premires. Nous raisonnons
maintenant sur les vecteurs lignes. Notons l(i) les vecteurs lignes de A.
Le systme se rcrit
(1)
l x = b1
(2)


l x = b2

. .
.
.
. . . ..
l(r) x = br
(r+1)


l x = br+1

.
.. ..



(n) . . . .
l x = bn

(l(1) , , l(r) ) forment un systme libre. Le systme constitu des r pre-


mires quations relvent donc de lanalyse 2. On peut alors exprimer
l(r+1) , , l(n) en fonction de (l(1) , , l(r) ) :

l(j) = j1l(1) + jr l(r)

21
Si lon fait une combinaison linaire des r premires lignes avec les
coefficients jk , on obtient

l(j) x = j1b1 + jr br

dune part, et bj daprs le systme. On a donc le


Thorme 1.5 Suppososns que les r premires lignes (l(1) , , l(r) )
sont indpendantes, et que les autres lignes vrifient

l(j) = j1l(1) + jr l(r) , r + 1 j n (1.3)

Alors toute solution du systme principal (systme des r premires


quations) est solution de (1.1) si et seulement si

bj = j1 b1 + jr br , r + 1 j n (1.4)

(1.4) constituent les conditions de compatibilit. Si elles ne sont pas


satisfaites, le systme est impossible. Si elles sont satisfaites, il y a une
indtermination dordre m-r comme en 2.

1.5 Norme de vecteurs et de matrices


Dfinition 1.4 Une norme sur un espace vectoriel V est une application
kk : V R+ qui vrifie les proprits suivantes
kvk = 0 v = 0,
kvk = || kvk, K, v V,
ku + vk kuk + kvk , (u, v) V 2 (ingalit triangulaire)
Une norme sur V est galement appele norme vectorielle . On appelle
espace vectoriel norm un espace vectoriel muni dune norme.

Les trois normes suivantes sont les plus couramment utilises sur Cn :
n
X
kvk1 = |vi |
i=1
n
!1/2
X
kvk2 = |vi |2
i=1
kvk = max |vi | .
i

n
La deuxime norme Pnest la norme euclidienne sur C . Elle drive du produit
scalaire (u, v)2 = i=1 uivi .

22
Thorme 1.6 Soit V un espace de dimension finie. Pour tout nombre rel
p 1, lapplication v 7 kvkp dfinie par

n
!1/p
X p
kvkp = |vi |
i=1

est une norme.


1 1
Rappel 1.1 Pour p > 1 et p
+ q
= 1, lingalit

n n
!1/p n
!1/q
X X X
kuvk1 = |ui vi | |ui |p |vi |q = kukp kvkq
i=1 i=1 i=1

sappelle lingalit de Hlder.

Dfinition 1.5 Deux normes kk et kk , dfinies sur un mme espace vec-


toriel V, sont quivalentes sil existe deux constantes C et C telles que

kvk C kvk et kvk C kvk pour tout v V.

Rappel 1.2 Sur un espace vectoriel de dimension finie toutes les normes
sont quivalentes.

Dfinition 1.6 Soit Mn lanneau des matrices dordre n, lments dans


le corps K. Une norme matricielle est une application kk : Mn R+
vrifiant
1. kAk = 0 A = 0,
2. kAk = || kAk, K, A Mn ,
3. kA+Bk kAk + kBk , (A, B) M2n (ingalit triangulaire)
4. kABk kAk kBk , (A, B) M2n

Rappel 1.3 Etant donn une norme vectorielle kk sur Kn , lapplication


kk : Mn (K) R+ dfinie par

kAvk
kAk = sup = sup kAvk = sup kAvk ,
vKn kvk vKn vKn
v6=0 kvk1 kvk=1

est une norme matricielle, appele norme matricielle subordonne ( la


norme vectorielle donne).

23
De plus
kAvk kAk kvk v Kn
et la norme kAk peut se dfinir aussi par

kAk = inf { R : kAvk kvk , v Kn } .

Il existe au moins un vecteur u tel que

u 6= 0 et kAuk = kAk kuk .

Enfin une norme subordonne vrifie toujours

kIk = 1

Thorme 1.7 Soit kAk = (aij ) une matrice carre. Alors

df. kAvk1 X
kAk1 = sup = max |aij |
vCn kvk1 j
i
v6=0

df. kAvk2 p p
kAk2 = sup = (A A) = (AA ) = kA k2
vCn kvk2
v6=0

df. kAvk X
kAk = sup = max |aij |
vCn kvk i
j
v6=0

La norme kk2 est invariante par transformation unitaire :

UU = I = kAk2 = kAUk2 = kUAk2 = kU AUk2 .

Par ailleurs, si la matrice A est normale :

AA = A A = kAk2 = (A) .

Remarque 1.1 1. Si une matrice A est hermitienne, ou symtrique (donc


normale), on a kAk2 = (A) .
2. Si une matrice A est unitaire ou orthogonale (donc normale), on a
kAk2 = 1.

Thorme 1.8 1. Soit A une matrice carre quelconque et kk une norme


matricielle subordonne ou non, quelconque. Alors

(A) kAk .

24
2. Etant donn une matrice A et un nombre > 0, il existe au moins une
norme matricielle subordonne telle que

kAk (A) + .

Thorme 1.9 Lapplication kkE : Mn R+ dfinie par


!1/2
X p
kAkE = |aij |2 = tr (A A),
i,j

pour toute matrice A = (aij ) dordre n, est une norme matricielle non subor-
donne (pour n 2), invariante par transformation unitaire :

UU = I = kAkE = kAUkE = kUAkE = kU AUkE

et qui vrifie
kAk2 kAkE n kAk2 , A Mn .

De plus kIkE = n.

1.6 Conditionnement
1.6.1 Erreur darrondi
Un nombre rel scrit de faon unique x = a10b , o a est la mantisse,
b lexposant, entier. a est un nombre rel tel que 0.1 a < 1. Larrondi de
x termes est not arr (x) = x et est gal a10b, avec a . par
= 0. |{z}

1
exemple = 3.141592653 scrit = 0. 31415926
| {z } 53 10 , et avec = 8,
8
1
on a | {z } 10 .
= 0. 31415927
8

Dfinition 1.7 La prcision de lordinateur est le plus petit eps tel que
arr (1 + eps) > 1.

x = 0. 10 0} 49 101 ,
| {z arr (x) = 1,

x = 0. 10 0} 50 101 ,
| {z arr (x) = 1. 10 0} 1 101 > 1,
| {z

On en dduit que eps = 510 . Si lon calcule en base 2, on aura 2l .

25

On a pour tout x 6= 0, xarr (x)

x < eps. En effet

x arr (x) ) 10b


(a a (a a
) 5101
= = = 510 = eps
x a 10b a 101
On peut crire aussi arr (x) = x(1 + ), avec || < eps.

1.6.2 Conditionnement dun problme


Soit P un problme, cest--dire une application de RN dans R. Par
exemple le produit de 2 nombres scrit

(x1 , x2 ) 7 x1 x2 .

Le conditionnement de P mesure linfluence dune perturbation de x sur la


solution du problme P (x) :

Dfinition 1.8 La condition K de P est le plus petit nombre tel que



x x
< eps P (x) P (
x)

< K eps

x P (x)

Si K est grand, le problme est mal conditionn, si K nest pas trop grand,
le problme est bien conditionn.

Exemple 1.1 : produit de 2 nombres. Soient xi = (1+i)xi , et = max(|i |).

x1 x2 x1 x2
= (1 + 1 )(1 + 2 ) 1 = 1 + 2 + 1 2 ,
x1 x2
do
x1 x2 x1 x2
2 + 2
x1 x2

Comme 2 est ngligeable devant , on a K 2.

1.6.3 Conditionnement dune matrice


On veut estimer x y, o x est solution du systme linaire, et y solution
du systme perturb

Axx = b,
(A + A) y = (bb + bb) .

26
Exemple de R.S. Wilson :

10 7 8 7 32
7 5 6 5 23
A= 8
, b=
33 ,

6 10 9
7 5 9 10 31

10 7 8, 1 7, 2 32, 01
7, 08 5, 04 6 5 , b + b = 22, 99 ,

A + A = 8 5, 98 9, 89 9 33, 01
6, 99 4, 99 9 9, 98 30, 99

0 0 0, 1 0, 2 0, 01
0, 08 0, 04 0 0 , b = 0, 01 .

A = 0 0, 02 0, 11 0 0, 01
0, 01 0, 01 0 0, 02 0, 01

1
1
Axx = b x = 1 ,

1

1, 82 0, 82
0, 36 1, 36
Auu = b + b u = 1, 35 , = x = u x = 0, 35

0, 79 0, 21

81 82
137 136
(A + A) v = b v = 34 , = x = v x = 35

22 21

Dfinition 1.9 Soit k.k une norme matricielle subordonne, le conditionne-


ment dune matrice rgulire A, associ cette norme, est le nombre

cond(A) = kAk A1 .

Nous noterons condp (A) = kAkp kA1 kp .

Thorme 1.10 Soit A une matrice inversible. Soient x et x + x les so-


lutions respectives de

Ax
x = b et A (x
x + x
x) = b + b
b.

27
Supposons b 6= 0 , alors lingalit
x
kx
xk b
kb
bk
cond(A)
xk
kx kbbk
est satisfaite, et cest la meilleure possible : pour une matrice A donne, on
peut trouver des vecteurs b 6= 0 et b 6= 0 tels quelle devienne une galit.

Dmonstration Il suffit de soustraire les 2 quations. x est solution du


systme linaire
Ax
x = b
do
b
kb
bk b
kb
bk
xk A1
x
kx kbbk A1 kAk kx
xk
kbbk kbbk

Thorme 1.11 Soit A une matrice inversible. Soient x et x + x les so-


lutions respectives de

Ax
x = b et (A + A) (x
x + x
x) = b.

Supposons b 6= 0 , alors lingalit


x
kx
xk kAk
cond(A) .
x + x
kx xk kAk
est satisfaite, et cest la meilleure possible : pour une matrice A donne, on
peut trouver un vecteur b 6= 0 et une matrice A 6= 0 tels quelle devienne
une galit.

Thorme 1.12 1. Pour toute une matrice inversible A,

cond(A) 1,
cond(A) = cond(A1 ),
cond(A) = cond(A), pour tout scalaire 6= 0

2. Pour toute matrice inversible A,


max
cond2 (A) =
min
o max et min sont respectivement la plus grande et la plus petite
valeur singulire de A.

28
3. Si A est une matrice normale,

max |i (A)|
i
cond2 (A) =
min |i (A)|
i

o les i (A) sont les valeurs propres de A.


4. Le conditionnement cond2 (A) dune matrice unitaire ou orthogonale
vaut 1.
5. Le conditionnement cond2 (A) est invariant par transformation unitaire

UU = I = cond2 (A) = cond2 (AU) = cond2 (UA) = cond2 (U AU).

Rappel 1.4 Les valeurs singulires dune matrice rectangulaire A sont les
racines carres positives des valeurs propres de A A.

1.7 Notion de prconditionnement


Lorsque lon veut rsoudre un systme linaire Ax = b avec une matrice
mal conditionne, il peut tre intressant de de multiplier gauche par une
matrice C telle CA soit mieux conditionne. Lexemple le plus simple est
le prconditionnement diagonal, o la matrice C est la matrice diagonale
constitue des inverses des lments diagonaux de A.

29
30
Chapitre 2

Mthodes directes

Sommaire
2.1 Mthode de Gauss . . . . . . . . . . . . . . . . . . . 31
2.1.1 Systmes triangulaires . . . . . . . . . . . . . . . . 31
2.1.2 Dcomposition LU : un rsultat thorique . . . . . 33
2.1.3 Dcomposition LU : mthode de Gauss . . . . . . 35
2.1.4 Mthode de Crout . . . . . . . . . . . . . . . . . . 39
2.1.5 Complexit de lalgorithme . . . . . . . . . . . . . 40
2.1.6 mthode du pivot partiel . . . . . . . . . . . . . . . 41
2.2 Mthode de Cholewski . . . . . . . . . . . . . . . . 45

2.1 Mthode de Gauss


2.1.1 Systmes triangulaires
Considrons un systme triangulaire (infrieur) du type :


a11 x1 = b1

a21 x1 + a22 x2 = b2
. .. ..


.
a x +a x ++a x = b
n1 1 n2 2 nn n n

cest--dire associ a une matrice triangulaire infrieure

31

a11 0 0 0

a21 a22 0 0


A= .. .. .. ..
. . . .

an1n1 0
an1 an1 ann

la rsolution est trs aise : on commence par rsoudre la premire qua-


tion :

Si a11 6= 0, x1 = b1 /a11
puis on reporte la valeur de x1 ainsi determine dans la deuxime quation
et on calcule x2 , etc. A ltape i on a :

Si aii 6= 0, xi = (bi ai1 x1 ai2 x2 aii1 xi1 )/aii .

ce qui ncessite 3 instructions pour limplmentation. Regardons la com-


plexit de lalgorithme, cest-a-dire le nombre doprations lmentaires pour
la rsolution du systme. Une opration lmentaire est une des 4 oprations
addition(+), soustraction(), multiplication() et division (/). En gnral
on les groupe en addition/soustraction et multiplication/division. On appelle
N + et N les nombres doprations correspondants.
On peut tablir le tableau suivant

ligne N+ N
1 0 1
.. .. ..
. . .
i i1 i
.. .. ..
. . .
n n1 n
Do le nombre total doprations en sommant sur i :
X n(n 1)
N+ = (i 1) =
i=1,n
2

X n(n + 1)
N = (i) =
i=1,n
2

La dmarche est la mme pour un systme triangulaire suprieur, i.e.

32


a11 x1 + a12 x2 + + a1n xn = b1

+ a22 x2 + a2n xn = b2
.. ..

. .

ann xn = bn
On le rsout en remontant :

Si ann 6= 0, xn = bn /ann

puis on reporte la valeur de xn ainsi dtermine dans la deuxime quation


et on calcule xn 1, etc. A letape i on a :

Si aii 6= 0, xi = (bi aii+1 xi+1 aii+2 xi+2 ain xn )/aii .

Le nombre doprations est le mme.

2.1.2 Dcomposition LU : un rsultat thorique


Le principe de la mthode est de se ramener deux systmes triangulaires.
1) On dcompose la matrice A en le produit de deux matrices

A = LU

o U est triangulaire suprieure, et L est triangulaire infrieure avec des 1


sur la diagonale. On a alors rsoudre le systme

LUx = b,

2) On rsout le systme triangulaire

Ly = b

dinconnue y,
3) On rsout le systme triangulaire

Ux = y

dinconnue x.
Reste maintenant savoir comment faire cette dcomposition LU.
Commenons par un rsultat thorique

33
Thorme 2.1 Soit A une matrice inversible dordre n dont les mineurs
principaux sont non nuls. Alors il existe une unique matrice L triangulaire
infrieure avec des 1 sur la diagonale, et une unique
Q matrice U triangulaire
suprieure telles que A = LU. De plus det (A) = ni=1 uii.

Rappelons que le mineur principal dordre i de A est le dterminant des i


premires lignes et premires colonnes :

a11 a12 a1i


a21 a22 a2i
(det A)i = .. .. .. ..
. . . .
ai1 ai2 aii
La dmonstration se fait par rcurrence sur n.
Etape 1 : le rsultat est videmment vrai pour n = 1.
Etape 2 : on suppose le rsultat vrai pour n 1. On dcompose la matrice
A par blocs sous la forme
 (n1) 
A c
A=
bT ann

o A(n1) est la matrice (n 1) (n 1) des (n 1) premires lignes et


colonnes de A, c et b sont des vecteurs colonnes donns par

a1n an1
c = ...
.
, b = ..


an1n ann1
La matrice A(n1) a les mmes mineurs principaux que A, on peut donc
lui appliquer lhypothese de rcurrence :il existe deux matrices L(n1) trian-
gulaire infrieure avec des 1 sur la diagonale, et U (n1) triangulaire suprieure
telles que A(n1) = L(n1) U (n1) . Cherchons alors L et U dcomposes par
blocs sous la forme
 (n1)   (n1) 
L 0 U u
L= t , U= ,
l 1 0 unn
En effectuant le produit par blocs et en identifiant a la dcomposition de A,
on obtient le systeme dquations

A(n1) = L(n1) U (n1)


t
b = tlU (n1)
c = L(n1) u
ann = tlu + unn

34
Ceci se rsout immdiatement par
t
l = tb(U (n1) )1
u = (L(n1) )1 c
unn = ann tb(A(n1) )1 c
La question de lunicit se rgle de la facon suivante. Supposons quil existe
2 couples de matrices (L(1) , U(1) ) et (L(2) , U(2) ) tels que

A = L(1) U(1) = L(2) U(2)


Puisque toutes ces matrices sont inversibles, on en dduit que

U(1) (U(2) )1 = (L(1) )1 L(2)


Dans le membre de gauche on a une matrice triangulaire suprieure, dans le
membre de droite on a une matrice triangulaire infrieure avec des 1 sur la
diagonale. Pour quelles coincident, il faut quelles soient gales a lidentit.

2.1.3 Dcomposition LU : mthode de Gauss


Pour construire les matrices L et U, on applique la mthode de Gauss qui
consiste trigonaliser le systme pas a pas. Reprenons le systme (1.2), et
notons Li la ime ligne du systme. En supposant le premier pivot a11 non
nul, soustrayons chaque ligne Li la premire ligne L1 divise par a11 et mul-
tiplie par ai1 : cette opration annule le coefficient de x1 dans les lignes 2 n.

L1 a11 x1 + a12 x2 + + a1n xn = b1


a21
L2 a11
a21 x1 + a22 x2 + + a2n xn = b2
.. .. ..
. . .
ai1
Li a11
ai1 x1 + ai2 x2 + + ain xn = bi
.. .. ..
. . .
an1
Ln a11
an1 x1 + an2 x2 + + ann xn = bn
On note mi1 = aa11
i1
pour 1 i n. On obtient alors le nouveau systme

a11 x1 + a12 x2 + + a1n xn = b1


(a22 m21 a12 )x2 + + (a2n m21 a1n )xn = b2 m21 b1
.. ..
. .
(ai2 mi1 a12 )x2 + + (ain mi1 a1n )xn = bi mi1 b1
.. ..
. .
(an2 mn1 a12 )x2 + + (ann mn1 a1n )xn = bn mn1 b1

35
ou encore


a11 a12 a1n x1 b1

0 a22 m21 a12 a2n m21 a1n
x2
b2 m21 b1

.. .. .. .. .. ..
. . . . . .
=
0 ai2 mi1 a12 ain mi1 a1n xi bi mi1 b1
.. .. .. .. .. ..
. . . . . .
0 an2 mn1 a12 ann mn1 a1n xn bn mn1 b1

La matrice du nouveau systme est



a11 a12 a1n
0 a22 m21 a12 a2n m21 a1n
. .. .. ..
.
(2) . . . .
A =
0 ai2 mi1 a12 ain mi1 a1n
. .. .. ..
.. . . .
0 an2 mn1 a12 ann mn1 a1n

et le second membre est



b1

b2 m21 b1

..
.
b(2)

=
bi mi1 b1
..
.
bn mn1 b1
Le nouveau systme secrit alors

A(2) x = b(2)
et il est quivalent au systme de dpart.
On introduit la matrice

1 0 0
m21 1 0 0
.. .. .. .. ..

. . . . .
M (1) =


mi1 0 1 0
.. .. .. .. ..
. . . . .
mn1 0 0 1

36
Il est facile de voir que A(2) = M (1) A et b(2) = M (1) b :les manipulations
sur les lignes reviennent multiplier la matrice et le second membre
du systme par la matrice M (1) . La matrice A(2) contient maintenant
uniquement des zeros sous la diagonale dans la premire colonne. Cest ce
processus que nous allons continuer : a ltape k nous avons la matriceA(k)
qui a la forme suivante

(k) (k) (k)



a11 a12 a1n
(k) (k)
0 a22 a2n
.. ..

. .

(k) (k) (k1)
A(k)

= 0 0 ak1k1 ak1k akn
. .. ..
.. . 0 .

.. .. .. .. ..
. . . . .
(k) (k)
0 0 0 ank ann

et le systme associ scrit

(k) (k) (k) (k)


a11 x1 + a12 x2 + + + a1n xn = b1
(k) (k) (k)
a22 x2 + + + a2n xn = b2
(k) (k) (k)
a33 x3 + + a3n xn = b3
..
.
(k) (k) (k)
akk xk + akn xn = bk
..
.
(k) (k) (k)
ank xk + ann xn = bn

soit sous forme compacte A(k) x = b(k) .

Il faut maintenant faire les manipulations sur les lignes adaptes. Suppo-
(k) (k)
sons que le k-me pivot akk est non nul, et notons Li la i-me ligne du
systme.

37
(k) (k) (k) (k)
L1 a11 x1 + + + + a1n xn = b1
(k) (k) (k) (k)
L2 a22 x2 + + + a2n xn = b2
.. .. .. ..
. . . .
(k) (k) (k) (k)
Lk akk xk + + akn xn = bk
(k)
(k) ak+1k (k) (k) (k) (k)
Lk+1 (k) Lk ak+1k xk + + ak+1n xn = bk+1
akk
(k)
(k)
aik (k) .. .. ..
Li (k) Lk . . .
akk
(k)
(k) ank (k) (k) (k) (k)
Ln (k) Lk ank xk + + ann xn = bn
akk

Cette opration annule les coefficients de xk dans les lignes k + 1 n. Nous


avons fait un pas de plus vers la trigonalisation de la matrice A. Notons
(k)
aik
maintenant mik = (k) pour k i n et introduisons la matrice
akk


1 0 0

0 1 0
..

. 0

M (k)

= 0 0 1 1 0
.. ..
. . 0 mk+1k 1
.. .. .. .. ..

. . . . 0 .

..
0 0 0 mnk . 1

Alors les manipulations sur les lignes reviennent multiplier la matrice


et le second membre du systme par la matrice M (k) . On obtient donc le
systme A(k+1) x = b(k+1) , avec A(k+1) = M (k) A(k) et b(k+1) = M (k) b(k) , et lon
a gagn une nouvelle colonne de zros. A ltape n, on obtient une matrice
A(n) qui est triangulaire suprieure, et le systme

A(n) x = b(n)

avec A(n) = M (n) M (1) A et b(n) = M (n) M (1) b.


Posons maintenant U = A(n) et L = (M (n) M (1) )1 , alors A = LU,
U est triangulaire suprieure et il est facile de voir que L est triangulaire
infrieure avec des 1 sur la diagonale. Ses coefficients sont les mik . Nous
avons ainsi obtenu pratiquement la dcomposition LU.

38
2.1.4 Mthode de Crout
Pour calculer explicitement les matrices L et U, on a intrt procder
par substitution : cest la mthode de Crout. Ecrivons le produit LU :


1 0 0 u11 u12 u1n

m21 1 0 0
0 u22

mi1 mi2 1 0 ..
LU = . 0 u33
.. .. .. ..


.. .. .. .. ..


. . . 1 . . . . . .
.
mn1 mn2 .. mnn1 1 0 0 0 0 0 unn

Ecrivons lgalit des coefficients ligne par ligne


Ligne 1
Pour j = 1, , n, a1j = u1j , ce qui permet de calculer

j = 1, , n, u1j = a1j

Ligne 2
Colonne 1 a21 = l21 u11 , et puisque u11 est maintenant connu, on en
dduit
a21
l21 =
u11
Colonne j, pour j 2, a2j = l21 u1j + u2j , et donc

j = 2, , n, u2j = a2j l21 u1j

Ligne i : supposons que nous avons t capable de calculer

u11 u12 u1n


l21 u22 u2n
..
.
..
.
li11 li1i2 ui1i1 ui1n
Colonne 1 : ai1 = li1 u11 , on en dduit li1 :
ai1
li1 =
u11
Colonne j < i : aij = li1 u1j + li2 u2j + + lij ujj , do
aij li1 u1j lij1 uj1j
j = 1, , j, lij =
ujj

39
Colonne j i :aij = li1 u1j + li2 u2j + + lii uij , do

j = i, , n, uij = aij li1 u1j lii1 ui1j

Remarquons qu la ligne i nous utilisons les valeurs de A a la ligne i et les


valeurs de L et U calcules prcdemment. Dun point de vue informatique,
on mettra L et U la place de A ligne par ligne.
Calculons le nombre doprations ncessaires la dcomposition LU.

2.1.5 Complexit de lalgorithme


Considrons lalgorithme de Crout. Avec les notations de la section 1.2.1,
reprenons notre tableau. La ligne 1 ncessite 0 oprations. A la ligne i, notons
Ni+ et Ni le nombre doprations lmentaires :

colonne
j<i j1 j

ji i1 i1

+
total Ni Ni
Pi1 Pi1 i(i1)
On a donc Ni = j=1 (j) + j=1 (i 1) = 2
+ (i 1)(n i + 1) et

Pn n(n2 1)
N = i=1 (Ni ) = 3
. On fait le mme calcul pour N + et on a

n(n2 1) n(n 1)(2n 1)


N = , N+ =
3 6
Exercice 2.1 Evaluer le cot de la dcomposition LU par la mthode dli-
mination de Gauss.

Ce calcul est surtout important lorsque lon rsout des gros systmes.
On a en rsum pour la rsolution dun systme linaire par la mthode de
Crout.
3
Dcomposition LU : 2n3 oprations lmentaires, Rsolution des 2 sys-
tmes triangulaires : 2n2 oprations lmentaires.
D
Comparons avec lutilisation des formules de Cramer : On crit xj = D0j o
chaque D reprsente un dterminant n n. Or le dterminant dune matrice
n n est calcul par
X n
Y
det = () ai,(i)
permutation de {1, ,n} i=1

40
Pour chaque permutation, il y a n 1 multiplications, et il y a n! permu-
tations. On a donc N = (n 1)n!, et N n! pour chaque dterminant.
Comme il y en a n + 1p calculer, on a N n2 n!. Daprs la formule de
Stirling, n! nn+1/2 en (2).
Ex (http ://clusters.top500.org) le 28calculateur CEA AlphaServer SC45,
1 GHz (2560 processeurs) est a 3980 GFlops, soit environ 41012 Flops. Pour
n = 100, on a N 10162 . il faudrait environ 2 10149 annes pour le rsoudre.
Rappelons que lunivers a 15 milliards dannes, i.e 15 109 . Remarquons
nanmoins que les formules de Cramer restent trs comptitives pour n = 3 !
Par la mthode LU, il faut environ 7 106 oprations, soit 1 millionnime
de seconde. Pour un systme 106 inconnues, il faut 61017 oprations, soit
105 secondes, soit 25h.
Rappelons la dfinition dun FLOPS : floating point operations per se-
cond. Les nombres sont en gnral stocks en flottant, cest--dire avec le
nombre de chiffres significatifs, le signe, la base.

2.1.6 mthode du pivot partiel


(k)
Il peut se passer dans la pratique que lun des pivots akk soit nul. Dautre
part, examinons le systme ci-dessous :

104 x + y = 1
x + y =2
et appliquons la mthode de Gauss avec comme pivot 104 . On obtient for-
mellement

(1 1/104 )y = 2 104
Ceci, calcul en virgule flottante avec 3 chiffres significatifs, (cf fichier MAPLE
joint) donne y = 1, puis x = 0, ce qui est notoirement faux.
Echangeons maintenant les deux lignes

x + y =2
104 x + y = 1

et prenons comme pivot 1 . On obtient maintenant

(1 104 )y = 1 2 104 .

Ceci, calcul en virgule flottante avec 3 chiffres significatifs, donne y = 1,


puis x = 1.
En fait la raison du problme est que le pivot 104 est trop petit .

41
> restart;
> Digits:=3;
> a1:=1-1/(10^(-4));
> a2:=2-1/(10^(-4));
> y:=evalf(a2/a1);
Digits := 3
a1 := -9999
a2 := -9998
y := 1.000
> x:=(1-y)/(10^(-4));
x := 0
>
> restart;
> Digits:=4;
> a1:=1-1/(10^(-4));
> a2:=2-1/(10^(-4));
> y:=evalf(a2/a1);
> x:=(1-y)/(10^(-4));
Digits := 4
a1 := -9999
a2 := -9998
y := .9999
x := 1.
>

Page 1

Fig. 2.1 pivot

42
Explicitons maintenant la mthode. Pour cela reprenons la matrice A(k)
(k) (k) (k)

a11 a12 a1n
(k) (k)
0 a22 a2n
.. .. (k)


. . ak1k1

(k) (k)
A(k)

= 0 0 0 akk akn
. .. ..
.. . .

.. .. .. .. ..
. . . . .
(k) (k)
0 0 0 ank ann

(k)
Si A est inversible, si akk = 0, il existe forcment un indice i suprieur
(k)
k tel que aik . En effet A est inversible si et seulement si A(k) lest, et le
dterminant de A(k) est gal :
(k) (k)
akk akn
..
(k) (k) .
det A(k) = a11 ak1k1 .. ..
. .
(k) (k)
ank ann

Donc si A est inversible, au moins un des lments de la premire colonne de


cette dernire matrice est non nul.
Soit i0 lindice du nombre le plus grand en module :
(k) (k)
|ai0 k | = max |aik |.
kin

La mthode du pivot partiel consiste changer la ligne k et la ligne i0 du


systme ; En fait cela revient multiplier gauche les deux membres du sys-
tme matriciel par une matrice de permutation : la matrice correspondant
la transposition k de {1, . . . , n} dfinie par

k (k) = i0 ,
k (i0 ) = k,
k (i) = i si i 6= k et i 6= i0 .
La matrice correspondante est dfinie par ses vecteurs colonnes

Pk (ej ) = ek (j) ,

ou encore par ses lments (Pk )ij = ik (j) .

43
On peut dfinir plus gnralement la matrice de permutation associe
une permutation de {1, . . . , n} par
P (ej ) = e(j) ,
ou encore par ses lments (P )ij = i(j) .

Ces matrices sont inversibles, leur dterminant est gal la signature de


la permutation, donc 1, et on a les rsultats suivants :
Multiplier la matrice A gauche par la matrice P revient effectuer la per-
mutation 1 sur les lignes de A,
Multiplier la matrice A droite par la matrice P revient effectuer la per-
mutation sur les colonnes de A.
Soient et deux permutations, P P = P .

Donc ltape k, on multiplie la matrice A(k) par une matrice de permu-


tation Pk , puis on fait la (k + 1) me tape de la rduction de Gauss sur la
matrice Pk A(k) . On obtient donc ainsi

U = M (n1) Pn1 M (1) P1 A.


Thorme 2.2 Soit A une matrice carre rgulire dordre n. Il existe une
matrice de permutation P et deux matrices L et U, L tant triangulaire
infrieure diagonale unit et U tant triangulaire suprieure, telles que
P A = LU
Dmonstration Il suffit de remarquer que pour toute permutation de
1, , n, pour toute matrice M, la matrice M = P 1 MP est obtenue en

effectuant la permuation sur les lignes et les colonnes de M. Si M est de
type M (k) et de type j avec j k, alors M a la mme forme que M. On
peut alors crire
U =M (n1) M
(1) P P A.
n1 1

Posons = n1 , alors
(n1) M
U =M (1) P A,
(n1) M
et lon conclut comme prcdemment avec L = (M (1) )1 .

Remarque 2.1 Pour calculer le dterminant dune matrice, les formules


Q de
Cramer sont prohiber. On utilise la dcomposition LU et D(A) = uii .
Remarque 2.2 On peut crire la dcomposition LU sous la forme LDV o
V est diagonale unit et D une matrice diagonale.

44
2.2 Mthode de Cholewski
Daprs la remarque 2.2, si A est une matrice symtrique, par lunicit
de la dcomposition, on peut crire A = LD tL.

Thorme 2.3 Soit A une matrice symtrique dfinie positive. Alors il existe
une unique matrice L triangulaire infrieure diagonale unit, et une unique
matrice diagonale D coefficients strictement positifs, telles que

A = LD tL

Dmonstration On applique la dcomposition LU, en vrifiant que si A


est symtrique dfinie positive, les mineurs principaux sont non nuls.

Une factorisation de Cholewski de A est une factorisation sous la forme


A = B tB, o B est une matrice triangulaire infrieure.

Thorme 2.4 Soit A une matrice symtrique dfinie positive. Alors il existe
une unique dcomposition de Cholewski de A sous la forme A = B tB, o B
est une matrice triangulaire infrieure coefficients diagonaux strictement
positifs.

Dmonstration Daprs le thorme prcdent, A scrit sous la forme


LD tL. Puisque D est diagonale lments strictement positifs, on peut d-
finir la matrice
racine carre de D commela matrice dont les lments dia-
gonaux sont dii . On dfinit alors B = L D. Lunicit se dmontre comme
pour la dcomposition LU.

45
46
Chapitre 3

Mthodes itratives

Sommaire
3.1 Suite de vecteurs et de matrices . . . . . . . . . . . 47
3.2 Mthode de Jacobi, Gauss-Seidel, S.O.R. . . . . . 48
3.3 Rsultats gnraux de convergence . . . . . . . . . 50
3.4 Cas des matrices hermitiennes . . . . . . . . . . . . 51
3.5 Cas des matrices tridiagonales . . . . . . . . . . . . 51
3.6 Matrices diagonale dominante . . . . . . . . . . . 51
3.7 La matrice du laplacien . . . . . . . . . . . . . . . . 52
3.8 Complexit . . . . . . . . . . . . . . . . . . . . . . . 52

3.1 Suite de vecteurs et de matrices


Dfinition 3.1 Soit V un espace vectoriel muni dune norme k.k, on dit
quune suite (vk ) dlments de V converge vers un lment v V , si

limk kvk vk = 0

et on crit
v = limk vk .

Remarque 3.1 Sur un espace vectoriel de dimension finie, toutes les normes
sont quivalentes. Donc vk tend vers v si et seuelement si kvk vk tend vers
0 pour une norme.

47
Thorme 3.1 1. Soit kk une norme matricielle subordonne, et B une
matrice vrifiant
kBk < 1.
Alors la matrice (I + B) est inversible, et

(I + B)1 1
.
1 kBk
2. Si une matrice de la forme (I + B) est singulire, alors ncessairement
kBk 1
pour toute norme matricielle, subordonne ou non.
Thorme 3.2 Soit B une matrice carre. Les conditions suivantes sont
quivalentes :
1. limk Bk = 0,
2. limk Bk v = 0 pour tout vecteur v,
3. (B) < 1,
4. kBk < 1 pour au moins une norme matricielle subordonne k.k.
P n
La dmonstration repose sur la srie de Neumann B .
Thorme 3.3 Soit B une matrice carre, et k.k une norme matricielle quel-
conque. Alors
limk kBk k1/k = (B).

3.2 Mthode de Jacobi, Gauss-Seidel, S.O.R.


Soit A Mn (K) une matrice rgulire et b Kn . Il sagit de rsoudre le
systme Ax x = b par une mthode itrative, cest--dire de crer une suite x k
qui converge vers x . On note D = diag(A), E la matrice triangulaire infrieure
vrifiant 
eij = 0, ij
eij = aij i > j
et F la matrice triangulaire suprieure vrifiant

fij = 0, ij
fij = aij i > j
On a alors
..
. F

A= D = DEF
..
E .

48
Mthode de Jacobi

n
!
(k+1) 1 X (k)
xi = bi aij xj i {1, . . . , n}
aii
j=1,j6=i

Mthode de Gauss-Seidel

i1 n
!
(k+1) 1 X (k+1)
X (k)
xi )= bi aij xj aij xj i {1, . . . , n}
aii j=1 j=i+1

Mthodes de relaxation

(k+1) (k+1) (k)


xi = xi + (1 )xi
(k+1)
o xi est obtenu partir de x(k) par lune des deux mthodes prcdentes.
Avec la mthode de Jacobi
n
!
(k+1) X (k) (k)
xi = bi aij xj + (1 )xi i {1, . . . , n}.
aii j=1,j6=i

Avec la mthode de Gauss-Seidel


i1 n
!
(k+1) X (k+1)
X (k) (k)
xi = bi aij xj aij xj + (1 )xi i {1, . . . , n}
aii j=1 j=i+1

Cette mthode de relaxation est appele mthode S.O.R. (successive over


relaxation) Toutes ces mthodes se mettent sous la forme

Mxk+1 = Nxk + b

avec

Jacobi M =D N =E+F
Gauss-Seidel M = DE N =F
1 1
SOR M= DE N= D+F

49
Programmation dune tape de lalgorithme de Jacobi :

Pour i=1:N
S:=B(i)
Pour j=1:I-1
S=S-A(i,j)*X(j)
Pour j=i+1:N
S=S-A(i,j)*X(j)
Y(i)=S/A(i,i)
Pour i=1:N
X(i):=Y(i)

Test darrt : on dfinit le rsidu ltape k comme r (k) = b Ax(k) . Le test


scrit : tant que kr (k) k > eps, on continue.

Exercice 3.1 Ecrire une tape de lalgorithme SOR.

3.3 Rsultats gnraux de convergence


Soit donc lalgorithme

Mxk+1 = Nxk + b (3.1)

avec M N = A. Si la suite converge, elle converge vers la solution x de


Ax = b, et lerreur e(k) = x(k) x est solution de Me(k+1) = Ne(k) . On note
B = M 1 N. Daprs le thorme 3.2, on a

Thorme 3.4 La suite x(k) converge pour toute donne initiale x0 si et


seulement si (B) < 1, si et seulement si kBk < 1 pour au moins une norme
matricielle subordonne k.k.

Il est dusage daffecter les noms suivants aux matrices des mthodes prc-
dentes
Jacobi J = D 1 (E + F )
1 1
SOR L = ( D E)1 ( D + F)

Lemme 3.1 Pour tout 6= 0, on a (L ) | 1|.

On en dduit par le thorme 3.4,

50
Thorme 3.5 Si la mthode de relaxation converge pour toute donne ini-
tiale, on a
0<<2
On dfinit le taux de convergence asymptotique par

R(B) = ln (B)

Thorme 3.6 Le nombre ditrations ncessaires pour rduire lerreur dun


ln
facteur est au moins gal K = .
R(B)

3.4 Cas des matrices hermitiennes


Thorme 3.7 Soit A une matrice hermitienne dfinie positive, A = M
N, o M est inversible. Si M + N (qui est toujours hermitienne), est dfinie
positive, la mthode itrative converge pour toute donne initiale.

Corollaire 3.1 Soit A une matrice hermitienne dfinie positive. Si ]0, 2[,
la mthode de relaxation converge pour toute donne initiale.

3.5 Cas des matrices tridiagonales


Thorme 3.8 Soit A une matrice tridiagonale. Alors (L1 ) = ((J))2 : les
mthodes de Jacobi et Gauss-Seidel convergent ou divergent simultanment.
Si elles convergent, la mthode de Gauss-Seidel est la plus rapide.

Thorme 3.9 Soit A une matrice tridiagonale telles que les valeurs propres
de J soient relles. Alors les mthodes de Jacobi et de relaxation convergent
ou divergent simultanment pour ]0, 2[ . Si elles convergent, la fonction
2
7 (L ) a lallure suivante : avec = p .
1 + 1 ((J))2

Remarque 3.2 On ne connat pas prcisment ce si on ne connat pas


(J). Dans ce cas, le graphe ci-dessus montre que quil vaut mieux choisir
trop grand que trop petit.

3.6 Matrices diagonale dominante


Thorme 3.10 Soit A une matrice diagonale strictement dominante ou
irrductible diagonale dominante. Alors la mthode de Jacobi converge.

51
|(L )|
1

1 2

Fig. 3.1 variations de (L ) en fonction de

Thorme 3.11 Soit A une matrice diagonale strictement dominante ou


irrductible diagonale dominante. Si 0 < 1, la mthode de relaxation
converge.

3.7 La matrice du laplacien



2 1 0
1 2 1


An = .. .. ..
. . .

1 2 1
0 1 2
On a
2 2
(J) = 1 2 + O(n ), (L1 ) = 1 2 + O(n4 ),
4
2n n
2
= 2(1 + O(n2 )), (L ) = 1 == 1 + O(n2 ).
n n
Pour n=100, pour obtenir une erreur de = 101 , on doit faire
9342 itrations de lalgorithme de Jacobi,
4671 itrations de lalgorithme de Gauss-Seidel,
75 itrations de lalgorithme de lalgorithme de relaxation optimale.

3.8 Complexit
Supposons la matrice A pleine. La complexit dune itration est denvi-
ron 2n2 . Si lon fait au moins n itrations, on a donc une complexit totale

52
de 2n3 , comparer aux 2n3 /3 de la mthode de Gauss.

Pour rsoudre un systme linaire, on prferera les mthodes directes dans


le cas des matrices pleines, et les mthodes itratives dans le cas des matrices
creuses.

53
54
Chapitre 4

Calcul des valeurs propres et


vecteurs propres

Sommaire
4.1 Gnralits, outils matriciels . . . . . . . . . . . . . 55
4.1.1 Matrices de Householder . . . . . . . . . . . . . . . 55
4.1.2 Quotients de Rayleigh . . . . . . . . . . . . . . . . 56
4.1.3 Conditionnement dun problme de valeurs propres 57
4.2 Dcompositions . . . . . . . . . . . . . . . . . . . . . 57
4.2.1 Dcomposition QR . . . . . . . . . . . . . . . . . . 57
4.2.2 Tridiagonalisation dune matrice symtrique . . . . 59
4.3 Algorithmes pour le calcul de toutes les valeurs
propres dune matrice . . . . . . . . . . . . . . . . . 59
4.3.1 Mthode de Jacobi . . . . . . . . . . . . . . . . . . 59
4.3.2 Mthode de Givens ou bisection . . . . . . . . . . . 60
4.4 Mthode de la puissance itre . . . . . . . . . . . 62

4.1 Gnralits, outils matriciels


4.1.1 Matrices de Householder
Pour tout vecteur v de Cn 0, on introduit la matrice de HouseholderH(v)
dfinie par
vv
H(v) = I 2 (4.1)
v v

55
H(v) est la matrice de la symtrie orthogonale par rapport lhyperplan de
Cn orthogonal v. La matrice H(v) est hermitienne et unitaire. Par abus de
langage, on considrera lidentit comme une matrice de Householder, et lon
crira I = H(0).

Lemme 4.1 Pour tout x dans Cn , on a (x H(v)x) (x + H(v)x) = 0.

Lemme 4.2 Soient x et y deux vecteurs linairement indpendants. Si v


est un vecteur de Cn 0, et un nombre complexe de module 1 tels que
y = H(v)x, alors il existe un nombre complexe tel que

y x = x y
v = (x y) et (4.2)

On en dduit :

Proposition 4.1 pour tout couple (x, y) dans Cn tel que kxk2 = kyk2, il
existe une matrice de Householder H(v) et un nombre complexe de module
1 tels que
H(v)x = y (4.3)

Daprs les lemmes on a v = (x y) et = ei o est largument


de x. v tant dfini une constante multiplicative prs, on peut le choisir
de sorte que kvk2 = 1. De plus le choix pratique du signe dans est gouvern
par des considrations de conditionnement. On choisira tel que kx yk2
est maximal.

4.1.2 Quotients de Rayleigh


Dfinition 4.1 Soit A une matrice hermitienne de dimension n. Pour x 6=
0, on pose
x Ax
rA (x) =
xx
rA est appel le quotient de Rayleigh associ A.

On ordonne les valeurs propres de A par ordre dcroissant 1 n .

Thorme 4.1 On a
n = inf rA (x), 1 = sup rA (x)
x6=0 x6=0

k = sup inf rA (x), k = inf sup rA (x), 1 k n


dim V =k xV 0 dim W =nk+1 xW 0

56
4.1.3 Conditionnement dun problme de valeurs propres
Thorme 4.2 Soient A et A deux matrices hermitiennes, et E = A A.
On note i et i les valeurs propres de A et A , i les valeurs propres de E,
toutes ordonnes dans lordre dcroissant. On a alors pour 1 k n,
i + n i i + 1 ,
|i i | kEk pour toute norme matricielle.

4.2 Dcompositions
4.2.1 Dcomposition QR
Thorme 4.3 Soit A Mn (C) (resp. Mn (R)). Alors il existe une matrice
Q unitaire (resp. orthogonale) et une matrice R triangulaire suprieure telles
que A = QR. De plus on peut assurer que Rii 0. Si A est inversible, la
dcomposition avec Rii > 0 est unique.
Lien avec la dcomposition de Gram-Schmidt Notons aj les colonnes de
A, q j les colonnes de Q. Q est unitaire si et seulement si les q j forment une
base orthonorme, et
X
A = QR j, aj = Rj q j
1j

ce qui se rcrit
a1 = R1,1 q 1
..
.
aj = Rj,j q j + Rj1,j q j1 + + R1,j q 1
..
.
an = Rn,n q n + Rn1,n q n1 + + R1,n q 1
Si A est inversible, le systme de ses vecteurs colonnes est un systme libre,
et on sait quon peut construire un systme orthonormal par le procd de
Gram-Schmidt : supposons connus q 1 , , q j1, et les coefficients Rk,i pour
1 i j 1 et k i. On calcule alors la ligne j les coefficients Rk,j par
Rj,j q j = aj Rj1,j q j1 R1,j q 1
On crit (q j , q k ) = 0, ce qui donne (aj , q k ) Rk,j = 0 pour k < j, puis
(q j , q j ) = 1 ce qui donne Rj,j = (aj , q j ) ou encore
X
Rj,j = kaj k22 (aj , q k )2
k<j

57
On peut compter le nombre doprations ncessit par ce procd. On a 2n3
oprations lmentaires + n extractions de racines carres. De plus ce procd
est peu stable numriquement. On prfere utiliser les matrices de Househol-
der.

Daprs la proposition 4.1, il existe une matrice de Householder H(v (1) )


et un nombre complexe 1 de module 1 tels que
H(v (1) ) a1 = 1 ka1 ke1 (4.4)
On note H (1) = H(v (1) ). La premire colonne de la matrice A(2) = H (1) A est
donc de la forme t (r1,1 , 0, , 0). Par rcurrence, on construit une suite de
matrices A(k) de la forme
(k) (k)

r1,1 r1,k1 a1,k a1,n
. .. .. ..

0L . . . . .
(k) (k)
(k)
r k1,k1 ak1,k ak1,n

A =


(k) (k)

ak,k ak,n
.. ..
0 . .
(k) (k)
an,k an,n
et une suite de matrices de HouseholderH (k) = H(v (k)), telles que
A(k+1) = H (k) A(k) , k = 1, , n. (4.5)
On cherche v (k) sous la forme t v (k) = (0,t v(k) ), et lon vrifie que
 
(k) Ik 0 (k)
H = (k) , avec H = Ink+1 2 v (k) t v(k)
0 H
On a donc
A(n) = H (n1) H (1) A
et la matrice A(n) est triangulaire suprieure. Si lon pose t Q = H (n1) H (1) ,
Q est une matrice orthogonale et A = tQ1 A(n) = QA(n) . On a ainsi construit
les matrices Q et R.
Remarque 4.1 1. Si A est relle, les H (k) sont relles, avec k = 1, Q
et R sont relles, et Q est orthogonale.
2. Le nombre doprations ncessaires pour calculer Q et R est de lordre
de 34 n3 + n racines carres. De plus cette mthode est beaucoup plus
stable que le procd de Gram-Schmidt.
3. Par contre ce nest pas une mthode comptitive pour rsoudre un sys-
tme linaire.

58
4.2.2 Tridiagonalisation dune matrice symtrique
Thorme 4.4 Soit A Mn (R) symtrique. Alors il existe une matrice P
orthogonale telle que tP AP soit tridiagonale.

La dmonstration est du mme type que pour la mthode QR. Ici on multiplie
droite et gauche par une matrice de Householder.

4.3 Algorithmes pour le calcul de toutes les va-


leurs propres dune matrice
4.3.1 Mthode de Jacobi
Soit A une matrice relle symtrique. On sait quil existe une matrice
orthogonale O telle que t OAO soit diagonale.

1
..
t . 0
OAO = = ..
0 .
n

La mthode de Jacobi consiste construire une suite de matrices de rotation


O (k) telles que la suite dfinie par A(k+1) = t O (k) A(k) O (k) converge vers .
Soit Rpq la matrice de rotation dans le plan (ep , eq ) dangle :

p q

1 0 0 0
.. .. ..
. . .

1 0 0
p
0 0 cos() 0 0 sin() 0 . . . 0

Rp,q () = 0 1 0
.
.. .. ..

. .

0 1 0

q
sin() 0 0 cos()

1

..
.
1

59
On pose B = tRp,q ()ARp,q (). Les bi,j sont alors donns par

bi,j = ai,j , i 6= p, q, j 6= p, q
bp,j = ap,j cos() aq,j sin(), j= 6 p, q
bq,j = ap,j sin() + aq,j cos(), j= 6 p, q
bp,p = ap,p cos2 () + aq,q sin2 () ap,q sin(2)
bq,q = ap,p sin2 () + aq,q cos2 () + ap,q sin(2)
ap,p aq,q
bp,q = ap,q cos(2) + sin(2)
2
bp,q = bq,p .

Thorme 4.5 Si ap,q 6= 0, il existe un unique dans ] 4 , 0[]0, 4 [ tel que


bp,q = 0. Cest lunique racine de lquation

aq,q ap,p
cotg 2 =
2ap,q

Etape 1. On choisit p1 et q1 tels que |ap1 ,q1 | = maxi6=j |ai,j |.On choisit 1
(1)
tel que A(1) = tRp1 ,q1 (1 )ARp1 ,q1 (1 ) vrifie ap1 ,q1 = 0.
(1) (1)
Etape 2. On choisit p2 et q2 tels que |ap2 ,q2 | = maxi6=j |ai,j |.On choisit
(2)
2 tel que A(2) = tRp2 ,q2 (2 )A(1) Rp2 ,q2 (2 ) vrifie ap2 ,q2 = 0. Puisque
(2)
p2 6= p1 , q1 , q2 6= p1 , q1 , on a aussi ap1 ,q1 = 0.
(k1) (k1)
Etape k. On choisit pk et qk tels que |apk ,qk | = maxi6=j |ai,j |.On choisit
(k)
k tel que A(k) = tRpk ,qk (k )A(k1) Rpk ,qk (k ) vrifie apk ,qk = 0. On a
(k) (k)
ap1 ,q1 = = apk ,qk = 0.
On vide ainsi la matrice de tous ses lments extradiagonaux.
(k)
Thorme 4.6 Chaque lment diagonal ai,i converge vers une valeur propre
de A quand k tend vers +.

On a ltape k, A(k) = tRpk ,qk (k ) tRp1 ,q1 (1 )ARp1 ,q1 Rpk ,qk (k ) =
t (k)
O AO (k), o O (k) est une matrice orthogonale. Lorsque k tend vers lin-
fini, O (k) tend donc vers la matrice des vecteurs propres de A. Pour calculer
les vecteurs propres de A, il suffit donc de calculer les matrices O (k) , ce qui
et nanmoins assez coteux.

4.3.2 Mthode de Givens ou bisection


Soit A une matrice symtrique relle. La mthode de bisection permet de
calculer toutes les valeurs propres de A. Le principe est le suivant.

60
Etape 1. On se ramne une matrice symtrique tridiagonale relle par la
mthode de Householder.La matrice

a1 b2 0 0
.. .
. ..

b2 a2 b3
.. ..
B= 0 b 3 . . 0

. .
. . . . . . . . bn

..
0 0 bn an
a les mmes valeurs propres que A.
Etape 2. On calcule les valeurs propres de B.
Ltape 1 a dj t dcrite, passons ltape 2. On suppose dabord tous
les ci non nuls, sinon on dcompose B par blocs qui ont les mmes valeurs
propres. On note pi le polynme caractristique de la matrice Ai dfinie pour
i 1 par

a1 b2 0 0
.. .
. ..

  b2 a2 b3
a1 b2 .. ..
A1 = (a1 ), A2 = , , Ai = 0 b . . 0 ,
b2 a2
. .
3
.. . .
. . . . . . bi

0 0 bi ai
On posera par convention p0 1. On a la relation de rcurrence

pi () = (ai )pi1 () b2i pi2 ()

Lemme 4.3 Les polynmes pi ont les proprits suivantes :


1. lim = +, 1 i n.

2. pi (0 ) = 0 pi1 (0 )pi+1 (0 ) < 0, 1 i n 1.
3. Le polynme pi possde i racines relles distinctes, qui sparent les
(i+1) racines du polynme pi+1 , 1 i n 1.

Thorme 4.7 Soit () le nombre de changements de signe de lensemble


{p0 (), , pn ()}. Alors pn possde (b) (a) racines dans lintervalle
[a, b[.

La mthode consiste alors en deux tapes.


Etape 1. On cherche un intervalle [a, b] qui contient toutes les valeurs
propres (par exemple lunion des disques de Gerschgrin D(ak , |bk | +
|bk+1 |). On a alors (a) = 0, (b) = n.

61
Etape 2. On applique une mthode de dichotomie. On calcule ( a+b 2
),
ce qui dtermine le nombre de racines dans les intervalles [a, a+b
2
[ et
[b, a+b
2
, [. On itre.

4.4 Mthode de la puissance itre


Elle permet le calcul de la valeur propre de plus grand module et dun
vecteur propre associ.

On choisit q (0) Cn tel que kq (0) k = 1.

Pour k = 1, 2, . . . on calcule :

x(k) = Aq (k1)

(k)
(k) xj
j = (k1) j = 1, . . . , n

qj

(k)
q (k)
= kxx(k) k
On fera lhypothse suivante :

(H) la valeur propre de plus grand module est unique.

On suppose que A est diagonalisable, et on note V lespace propre associ


1 .

Thorme 4.8 On suppose que A est diagonalisable et que lhypothse (H)


est vrifie. On suppose de plus que q0 nest pas orthogonal V . Alors on a
1. lim kAqk k2 = |1 |,
k
(k) (k)
2. lim j = 1 1 j n, si qj 6= 0,
k
 k
| 1 |
3. lim q (k) est un vecteur propre associ 1 .
k 1

Ak q0
On remarque que qk est galement dfini par qk = .
kAk q0 k2
La mthode de la puissance inverse permet de calculer la plus petite valeur
propre en module de A en appliquant la mthode de la puissance A1 .

62
63