Académique Documents
Professionnel Documents
Culture Documents
Parmi ces normes, les plus utilisées sont kxk , kxk et kxk . On les désigne souvent
respectivement sous les termes de normes l , l et l . Cette dernière représente la longueur
1 ∞ 2
Une norme de matrice peut être dénie à partir d'une norme pour les vecteurs (mais
cela n'est pas obligatoire). Soit A ∈ C une matrce. La quantité
n×m
kAxk
kAk = sup
x6=0 kxk
2 CHAPITRE 1. QUELQUES NOTIONS FONDAMMENTALES
est une norme pour la matrice A. Puisque l'on peut, dans cette dénition, remplacer x
par αx, où α est un scalaire, on peut toujours choisir x de norme 1 et l'on a également
kAk = sup kAxk.
kxk=1
Ces normes de matrices vérient les trois (3) propriétés des normes mais, en plus, il existe
deux autres propiétés qui serons très utiles par la suite
kAxk ≤ kAk.kxk
et
kABk ≤ kAk.kBk.
On appelle multiplicative toute norme vériant cette dernière inégalité.
Les normes de matrices les plus utilisées sont celles qui sont reliées à une norme de Hölder
pour les vecteurs c'est-à-dire
kAxkk
kAkk = sup
x6=0 kxkk
où k.k est une norme de vecteur de Hölder d'indice k.
Les normes de matrice semblent diciles à calculer en pratique puisqu'elle font intervenir
k
une borne supérieure. Cependant, on connait leurs expressions dans trois cas pour les
normes de Hölders :
la norme une
X n
kAk = max
1 |a |, ij
1≤j≤n
i=1
la norme innie
Xn
kAk∞ = max |aij |,
1≤i≤n
j=1
p
kAk = ρ(A A),
2
T la norme 2 ou la norme spectrale
où ρ(A A) désigne le rayon spectral de la matrice A A ∈ C , c'est-à-dire sa plus
T T m×m
grande valeurs propres. A A étant symétrique dénie positive, ses valeurs propres sont
T
par ! 1/2
n
X
2
kAkF = |aij | .
i,j=1
De plus
kAk2F = tr(AT A).
où tr désigne la trace d'une matrice c'est-à-dire la somme des éléments de sa diagonale.
1.2 Conditionnement d'une matrice
Soit A ∈ C . Pour toute norme de Hölder, on a
n×n
Or, la norme de la matrice identité est égale à 1 d'après la dénition. Il s'en suit que l'on
a l'inégalité
κ(A) = kAk.kA−1 k ≥ 1.
Le nombre κ(A) s'appelle le conditionnement de A.
On a les propriétés suivantes
1. κ(λA) = κ(A), ∀λ 6= 0,
2. κ(A ) = κ(A) puisque A et A jouent les rôles symétriques dans la dénition de
−1 −1
κ(A),
La notion de conditionnement d'une matrice est absolument fondamentale pour les mé-
thodes de résolution des systèmes d'équations linéaires. On dit que la matrice A est bien
conditionnée si κ(A) est voisin de 1. Cependant, si κ(A) est grand par rapport à 1,
on dit que A est mal conditionnée. Naturellement les adjectif voisin et grand sont
subjectifs. Si la précision de l'ordinateur avec lequel on travaille est de 10 , un condi-
−7
La matrice C est choisie de sorte que le conditionnement de CA soit plus petit que celui
de A.
1.3.1 Préconditionnement à gauche
On dit que M est une matrice de préconditionnement à gauche si le système (1.1)
original est transformé sous la forme
M −1 Ax = M −1 b.
2.1 Introduction
Les polynômes orthogonaux apparaissent très couramment en physique mathéma-
tique; en particulier, dans la résolution d'équation aux dérivées partielles (Laplace, Schrö-
dinger) par la méthode de séparation de variables. Certaines d'entre elles sont aussi très
utilisées en analyse numérique. Cependant, l'orthogonalité impose que ces polynömes or-
thogonaux aient en commun un certain nombre de propriétés, en particulier celles de
vérier une relation de récurrence à trois termes et d'obéir à une équation diérentielle
linéaire du second ordre.
2.2 Dénition, existence
Soient [a, b] un intervalle (appelé I dans la suite qui peut être ni ou inni) et w une
fonction strictement positive et intégrable sur cet intervalle.
on appelle polynômes ortogonaux sur I , par rapport à la "fonction de poids" w, une
suite de polynômes G (x), G (x), ...,G (x), ...(où G est le dégré k) tel que :
0 1 n k
si k 6= n. (2.1)
Z b
(Gk , Gn ) = w(x)Gk (x)Gn (x)dx = 0,
a
Le nombre
(2.2)
Z
(f, g) = f (x)g(x)w(x)dx
I
est souvent appelé "produit scalaire" de f par g. Lorsqu'il est nul, on dit que les
fonctions f et g sont "orthogonaux".
Remarque 2.1
on a
(2.3)
Z
2
kf k = (f, f ) = (f (f (x))2 w(x)dx
I
6 CHAPITRE 2. POLYNÔMES ORTHOGONAUX
(Inégalité de Cauchy-Schwartz) :
|(f, g)| ≤ kf k.kgk (2.4)
Les équations (2.1) et (2.2) ne dénissent pas entièrement les G ; il est donc
necessaire d'imposer les condions supplémentairesZ :
n
Z b b
(Gn , Gn ) = w(x) (Gn (x))2 dx = 1 ; xw(x)Gn (x)Gn+1 (x)dx > 0
a a
(2.5)
On a alors
(2.6)
Z b
(Gk , Gn ) = w(x)Gk (x)Gn (x)dx = δk,n .
Les polynômes sont ainsi orthonormés.
a
Pour prouver l'existence de ces polynômes, nous allons les construire en utilisant le procedé
d'orthogonalisation de Gram-Schmidt, appliqué à l'ensemble des puissances successives de
x.
◦ G est une constante positive, telle que
0
(G0 , G0 ) = 1,
g1 est une fonction linéaire défnie comme :
g1 = x − (x, G0 )G0
Ainsi, g est manifestement orthogonale à G .
G est dénie comme g normé
1 0
1 1
G1 = g1 /kg1 k.
◦ g2 est une fonction quadratique dénie par
g2 = x2 − (x2 , G0 )G0 − (x2 , G1 )G1 ,
et
G = g /kg k.
En formant le produit scalaire de g successivement par G et G , nous vérions
2 2 2
et nous choisissons les constantes a de telles façons que g soit orthogonal aux
k=1
an,j = −(xn , Gj ).
Il reste à normaliser ce polynôme :
gn
Gn = .
kgn k
Nous construisons ainsi la suite des polynômes G , à partir des nombres (x, G ), (x , G ),...,(x , G ),...
k 0
2
0
k
k
2.3. RELATION AVEC LES POLYNÔMES HABITUELS 7
Démonstraction
Nous avons construit les G comme combinaisons linéaires des x , p ≤ k ; de plus, le k
coecients de x dans G est non nul. Il en résulte que ces relations linéaires peuvent
k
k
Φ = a0 G0 + a1 G1 + · · · + an Gn .
La détermination des a est facile :
eectuons, en eet, le produit scalaire de l'égalité précédente par G .
i
(p ≤ n)
On a :
k
ap = (Φ, Gp ) , p = 0, 1, 2, ...., n.
Nous avons au contraire (Φ, G ) = 0, quelque soit Φ(x) de dégré n, puisque G est
orthogonal à tous G d'indice inférieur.
n+1 n+1
(xGn−1 , Gn ) = bn (Gn , Gn ) 6= 0.
Les zeros des polynômes successifs adoptent une disposition particulière, résumée par le
théorème ci-dessous
Théorème 2.3 Les zéros de G séparent ceux de G . k k+1
Démonstraction
En eet, ce résultat est vrai pour G et G ; il se démontre par récurrence dans le cas
général.
0 1
On peut dire aussi que la suite des G forme une suite de Sturn.n
8 CHAPITRE 2. POLYNÔMES ORTHOGONAUX
Posons
k
ak = ck+1 /ck .
Considérons le polynôme
F = Gn+1 − an xGn .
Il est de degré n au plus (à cause de la dénition de a ) et peut donc s'exprimer comme
une combinaison linéaire des G , i ≤ n.
n
i
n
X
F = bj Gj .
j=0
Considérons
(F, Gp ) = (Gn+1 , Gp ) − an (xGn , Gp ) = −an (xGn , Gp ),
à conditions que p < n + 1.
Or, l'examen de l'intégrale qui dénit (xG , G ) montre que : (xG , G ) = (G , xG ).
Comme xG est de degré p + 1 au plus, il est orthogonal à G tant que p < n − 1.
n p n p n p
si bien que
Gn+1 = (an x + bn )Gn + bn−1 Gn−1 . (2.8)
Cette relation est bien de la forme annoncée à condition de choisir α ,
= an β n = b n
et γ = b .
n
A(x)y” + B(x)y 0 + Cn y = 0
2.6. FONCTION GÉNÉRATRICES, FORMULE DE RODRIGUÉS ET IDENTITÉ DE DARBOUX CHRISTOFEL 9
où C est une constante (avec C 6= C si n 6= p), A(x) et B(x) deux fonctions régulières
de x. Supposons que l'équation admet une solution polynômiale y = G (x) de g de degré
n n p
On peut alors trouver un intervalle [a, b] et une fonction de poids w tels que la suite des
G soit orthogonale par rapport à ces éléments. En eet, G et G satisfont séparément
à l'équation proposée :
n n p
00
AG + BG + C G = 0 0
(2.9)
(2.10)
n n n n
00
AG + BG + C G = 0.
p
0
p p p (2.11)
En multipliant, la premier relation par wG et la seconde par wG et retranchant membre
à membre, il vient
p n
Ce qui signie que les polynômes G sont orthogonaux sur l'intervalle I par rapport à la
a
fonction de poids w.
n
les G étant des constantes et u une variable réelle auxiliaire. Si la fonction g a une forme
analytique "simple" par rapport à u et à x, on l'appelle génératrice de la suite des G .
k
k
N.B.: 2.1 La fonction gégératrice peut servir à dénir les G ; les propriétés de ces poly-
nômes se démontrent alors par manipulations de g.
k
10 CHAPITRE 2. POLYNÔMES ORTHOGONAUX
(2.14)
n
1 d
G (x) = n U (x). n n
w(x) dx
La quelle est solution d'un problème diérentielle
dn+1 1 dn Un
=0
dxn+1 w(x) dxn
avec les conditions aux limites
Un = Un0 = · · · = Un(n−1) = 0 en x=a et x = b.
souvent utilisée pour simplier des expressions impliquant les G (la constante a a deja
été dénie ci-dessus).
n n
P0 = 1 ; P1 (x) = x
P2 (x) = (3x2 − 1)/2 ;
P3 (x) = (5x3 − 3x)/2,
P4 (x) = (35x4 − 30x2 + 3)/8 ;
P5 (x) = (63x5 − 70x3 + 15x)/8.
1 dn 2
Pn (x) = (x − 1)
2n n! dxn
avec P (1) = 1.
n
2.7. POLYNÔMES PARTICULIERS CONNUS 11
et a l'équation diérentielle
Hn ” − 2xHn0 + 2nHn = 0.
(1 − x2 )Tn ” − xTn0 + n2 Tn = 0.
Ils sont orthogonaux sur l'intervalle [−1, 1] par rapport à la fonction de poids
1
w(x) = √
1 − x2
Leur fonction génératrice s'écrit
+∞
1 − ux X
g(x, u) = 2
= uk Tk (x).
1 − 2ux + u k=0
2.8. AUTRES POLYNÔMES CLASSIQUES 13
variable.
2. Démontrer la relation de récurrence
Tn+1 (x) = 2xTn (x) − Tn−1 (x).
on rencontre un zéros de T .
n
5. Vérier la relation
n
Z 1
Tk (x)Tl (x)
√ dx = 0 k 6= l.
1 − x2
Que vaut cette intégrale quand ?
−1
k=l
14 CHAPITRE 2. POLYNÔMES ORTHOGONAUX
T.
0 1 2 3 4
base des T :
n
i
n n
x
X xk x
X
e ' ≡ pn (x) ; e ' ak Tk (x) ≡ qn (x).
k=0
k! k=0
9.
5 5
Exercice 2.3 hh
Chapitre 3
Cours de Bézier et Polynômes de
Bernstein
3.1 Introduction
Dans les années 60, les ingénieurs Pierre BÉZIER et Paul DE CASTELIAU travaillant
respectivement chez Renault et Citröen, ont réfréchi au moyen de dénir de manière la
plus concise possible la forme d'une carroserie.
Le principe a été énoncé par BÉZIER mais l'algorithme de construction, lui, a été
énoncé par son collègue de la marque aux chevrons qui n'a d'ailleurs été dévoilé que
bien plus tard à cause de la loi du secret industriel qui a primé sur le développement
scientique.
Pierre BÉZIER (diplômé de l'ENSAM et de SUPELEC), à l'origine des prémières
machines à commandes numériques de la CAO à été mise à l'écart par sa direction. Il se
consacra alors presque exclusivement aux mathématiques et à la modélisation des surfaces
et obtient même un doctorat en 1977.
PAUL DE CASTELJAU était lui aussi un mathématicien d'origine, ainsi élève de la
Rue s'ULM a été un temps employé par l'industrie automobile.
Aujourd'hui, les courbes de Bézier (courbe paramétrique aux extrémités imposées avec
des points de contrôle qui dénissent les tangentes à cette courbe à des instants donnés)
sont très utilisées en informatique.
3.2 Quelques notions de base sur les courbes de Bézier :
Rappels sur la notion de barycentres
Dénition 3.1 (Barycentre des points pondérés) Soient A et B des points du plan.
Soient α et β des nombres réels tel que α+β 6= 0. Le barycentre des points pondérés (A, α),
(B, β) est l'unique point G du plan déni par l'égalité :
−→ −−→ →−
αGA + β GB = 0 .
16 CHAPITRE 3. COURS DE BÉZIER ET POLYNÔMES DE BERNSTEIN
est : −−→ β −→
AM = AB.
α+β
Cette dernière égalité dénit un unique point M dans le plan appartenant à la droite
(AB) lorsque A 6= B.
Dénition 3.2 (Barycentre dans le cas général) Soit n un nombre entier naturel
P 2. Soient A , A , ..., A des points du plan et λ , λ , ..., λ des nombres réels tels que
≥
λ = 0. Le barycentre des points pondérés (A , λ ), (A , λ ), ..., (A , λ ) est l'unique
1 2 n 1 2 n
n
n
X −−→ → −
λi GAi = 0
i=1
Démonstraction
On a : n n
X X n
Bi,n (t) = ti (1 − t)n−i = (t + 1 − t)n = 1
i
d'après la formule du binôme de Newton.
i=0 i=0
ainsi que :
et ∀i ≤ n − 1, B (1) = 0.
Bi,n (1) = 1 i,n
Pour tout n ≥ 1 :
B (0) = n et B 0
1,n (1) = −n. 0
n−1,n
courbe de Bézier piloté par les points P , P , ..., P , la courbe Γ décrite par les points
0,n 1,n n,n
(P0 , B0,n (t)), (P1 , B1,n (t)), ..., (Pn , Bn,n (t))
avec t ∈ [0, 1]. En d'autres termes :
( n
)
X −−−−→ → −
Γ= M (t) ∈ P, ∃t ∈ [0, 1], Bi,n (t)M (t)Pi = 0 .
i=0
2. on suppose que n ≥ 2 et que les points P , P , ..., P ne sont pas tous confondus.
Avec les notations de la dénition 3.5, on a :
0 1 n
(b) soit k le plus petit des nombres entiers i tels que P 6= P , alors −P−P→ dirige la
tangente à Γ en P ;
0 i 0 k
0
(c) soit p le plus grand des nombres entiers i tels que P 6= P , alors −P−−P→, dirige
la tangente à Γ en P .
n i p n
n
Les points P (t) et Q(t) parcourent les courbes de Bézier pilotées respectivemet par P , P , ..., P
et P , P , ..., P quand t parcourt [0, 1].
0 1 n−1
1 2 n
1. Alors, ∀t ∈ [0, 1], le point M (t), barycentre de (P (t), 1 − t) et (Q(t), t) est aussi le
barycentre de
(P0 , B0,n (t)), ..., (Pn , Bn,n (t)) ;
autrement dit : le barycentre M (t) de (P (t), 1 − t), (Q(t), t) parcourt la courbe de
Bézier Γ pilotée par les points P , P , ..., P quand t parcourt [0, 1].
0 1 n
2. On a : d −−−−→ −−−−−→
OM (t) = nP (t)Q(t).
dt
Donc, pour tout t ∈ [0, 1] tel que P (t) 6= Q(t), la droite (P (t), Q(t)) est tangente à
la courbe de Bézier Γ au point M (t).
Démonstraction
n−1
!
−−−−→ −−→ X n −−→ −−→
OM (t) =(1 − t)n OP0 + tk (1 − t)n−k OPk + tn OPn
k
k=1
n
X −−→
= Bk,n (t)OPk .
k=0
2. En écrivant , on obtient
n
−−−−→ X n k −−→
OM (t) = t (1 − t)n−k OPk
k
k=0
n
d −−−−→ X n −−→
OM (t) = ktk−1 (1 − t)n−k − (n − k)tk (1 − t)n−1−k OPk
dt k
k=0
n n−1
n k−1 n−k −−→ n k −−→
X X
= k t (1 − t) OPk t − (n − k) t (1 − t)n−1−k OPk
k k
k=1 k=0
n n−1
n − 1 k−1 n−1−(k−1) −−→ X n−1 k −−→
X
= n t (1 − t) OPk − n t (1 − t)n−1−k OPk
k−1 k
k=1 k=0
−−−→ −−−→ −−−−−→
=nOQ(t) − nOP (t) = nP (t)Q(t).
20 CHAPITRE 3. COURS DE BÉZIER ET POLYNÔMES DE BERNSTEIN
3.5 Exercices
Exercice 3.1 (Courbe de Bezier)
2. On pose t = 0, t = 1, t = 2, t = t = 3, t = 4, t = 5, t = 6 et t = 7.
Calculer B pour k ≤ 2 et 0 ≤ i ≤ 5, ainsi que B et B .
0 1 2 3 4 5 6 7 7
a) Soient les points P = (1, 1), P = (2, 3), P = (4, 3) et P = (3, 1). Donner
l'équation de la courbe de Bezier approximant ces points.
0 1 2 3
1. Montrer que la famille (P ) forme une base de l'espace vectoriel des polynômes
de dégré inférieur ou égal à n.
n,k k≤n
n,k
k=0
4. Montrer que .
Xn
kPn,k (x) = nx
k=0
n
X
(nx − k)2 Pn,k (x) = nx(1 − x).
k=0
X k X k
f (x) − Bn (f )(x) = f (x) − f ( ) + f (x) − f ( ) Pn,k (k).
n n
(3.3)
|x−k/n|≤δ |x−k/n|>δ
Une méthode itérative consiste à construire une suite de vecteurs qui, sous certaines
conditions converge vers la solution du système.
4.1 Convergence de matrices
La dénition principale est
Dénition 4.1 Soit (A ) une suite de matrices. On dit que (A ) converge vers A si
kA − Ak = 0.
k k
lim
On dit qu'une matrice carrée A est convergente si la suite de ses puissances converge
k→∞ k
J1
...
J2
J =
Jr
...
Jm =
1
λm
24 CHAPITRE 4. MÉTHODES ITÉRATIVES DE BASE
équivalent de chercher la condition nécessaire et susante pour que J tende vers 0 quand k
λ2m 2λm 1
λ2m 2λm
... ... ...
1
... ...
2
Jm =
...
1
2λm
λ2m
conséquent, lorsque k tend vers l'ini, J tend vers 0 si et seulement si |λ| < 1 pour
q
k
q
m = 1, ..., r.
m
Puisque ρ(A) = max |λ | (rayon spectral), nous acons le théorème suivant qui re-
groupe deux (2) propriétés importantes
m m
Théorème 4.1
1. Une condition nécessaire et susante pour que lim A = 0 est que ρ(A) < 1. k
Démonstraction
où p est la plus grande des dimensions des blocs J pour lesquels λ = ρ(A). De
plus, l'inégalité kA k ≤ kSk.kJ k.kS k.
m
k k −1
2. Supposons que ρ(A) < 1. Soit λ une valeur propre de A. Alors 1 − λ est valeur
propre de I − A. Puisque ρ(A) < 1, on a |λ| < 1 et donc 1 − λ 6= 0. Par conséquent,
la matrice I − A est régulière.
Posons S = I + A + · · · + A . Alors
k
k
(I − A)Sk = I − Ak+1
c'est-à-dire
Sk = (I − A)−1 (I − Ak+1 ).
On a donc
Sk − (I − A)−1 = −(I − A)−1 Ak+1
ce qui, en passant aux normes conduit à
kSk − (I − A)−1 k ≤ k(I − A)−1 k.kAk+1 k.
D'après le point 1., la suite (A ) converge vers zéro ce qui démontre que la suite
k
(S ) converge vers (I − A) . −1
Une telle méthode itérative s'appelle une méthode de relaxation. On la qualie souvent,
de méthode itérative stationnaire car la matrice M N est indépendante de k. On peut
−1
d'où
xk+1 = xk + M −1 (b − Axk ) = xk + M −1 rk(4.1)
avec r = b − Ax . La matrice M apparaît donc comme une approximation de A ,
−1 −1
Considérons l'erreur
e k = x − xk .
On a
ek = M −1 N ek−1 ,
d'où par récurrence,
ek = (M −1 N )k e0 .
D'autre part r k = Aek . Donc
rk =(M − N )M −1 N ek−1
=N (I − M −1 N )ek−1
=N M −1 (M − N )ek−1
=(N M −1 )rk−1 .
2. Une condition nécéssaire et susante pour que la suite (x ) converge vers x quelque
k 0
Plus ρ(M N ) < 1 est petit et plus la convergence de la méthode est rapide. Le choix
−1
µ = τ /(1 + τ ).
réciproquement, si µ est valeur propre de (I + G) G et si ν est le vecteur propre
−1
Dénition 4.2
M N ≥ 0.
−1
Nous avons les résultas de convergence suivants, dans des cas particuliers
Théorème 4.3
ρ(M −1 N ) =
ρ(A−1 N )
1 + ρ(A−1 N )
< 1. (4.2)
Donc, si A est régulière avec A ≥ 0, alors (x ) converge vers x quel que soit x .
−1
et si N ≥ N ≥ 0, alors
1 1 2 2
2 1
et si M ≥ N , alors
1 1 2 2
−1 −1
1 2
d'où
kx − xk k ≤ k(I − M −1 N )−1 k.kxk+1 − xk k.
Mais puisque kM −1
Nk < 1, on a
(I − M −1 N )−1 =I + (M −1 N ) + (M −1 N )2 + · · ·
1
k(I − M −1 N )−1 k ≤1 + kM −1 N k + kM −1 N k2 + · · · ≤
1 − kM −1 N k
.. .0. . . . .
a21
−E =
.. ... ...
an1 · · · · · · an,n−1 0
. . . . . . ..
−F =
0 ann
30 CHAPITRE 4. MÉTHODES ITÉRATIVES DE BASE
. . . . .
.. .. ..
a
M N = . .
22
−1
. . . . .
. . .
a n−1,n
−
a n−1,n−1
an1 an,n−1
− ··· ··· − 0
ann ann
ce qui nous donne les itérations suivantes
xk+1 = D−1 (E + F )xk + D−1 b (4.3)
qui correspond, pour les composantes x des vecteurs x , à
k,i k
(4.4)
n
!
1 X
xk+1,i = bi − aij xk,j , i = 1, 2, 3, ..., n.
aii j=1,j6=i
d'où
rk,i
xk+1,i =xk,i +
aii
n
X aij
rk+1,i = − rk,j .
j=1,j6=i
ajj
4.2. MÉTHODES DE RELAXATION 31
On a aussi M N = I − D A.
−1 −1
La méthode de Jacobi est vraiment la plus simple à laquelle on puisse penser. Cependant,
sa convergence peut être très lente. Si on l'applique, par exemple, à une matrice tridia-
gonale de dimension 100 avec des 2 sur la diagonale des −1 sur les diagonales inférieure
et supérieure et si le second membre est nul, alors, en partant d'un vecteur x aléatoire
entre 0 et 1, il faut de l'ordre de 28.000 itérations pour avoir une erreur de 10 .
0
−6
La méthode de Gauss-Seidel
Cette méthode est due à Gauss (1826) et à Seidel (1874). Elle consiste à prendre
M = D − E et N = F . D'où
M −1 N = (D − E)−1 F
il ne faut pas confondre ces éléments b avec les composantes b du second membre b).
J ij
BJ = D−1 (E + F ).
Comme nous l'avons vu, c'est une matrie à diagonale nulle, remarque qui aura son im-
portance par la suite. Nous la décomposons en une somme B = L + U où
la matrice L est srictement triangulaire inférieure (c'est-à-dire que sa diagonale
J
L1 = (D − E)−1 F = (I − F )−1 U.
32 CHAPITRE 4. MÉTHODES ITÉRATIVES DE BASE
Résultats préliminaires
Dénition 4.3 A est réductible s'il existe une matrice de permutation P telle que
T A11 A12
P AP =
0 A22
où les sous-matrices A et A sont carrées. Une matrice qui ne vérie pas cette propriété
est appélée irréductible.
11 22
1. ρ(B) = ρ(L ) = 0
2. 0 < ρ(L ) < ρ(B ) < 1
1
3. ρ(B ) = ρ(L ) = 1,
1 J
J 1
Démonstraction
Pour la démonstraction, voir [4]
Ainsi, sous les hypothèses du Théorème de Stein-Rosenberg, les matrices B et L
sont simultanément convergentes ou non.
J 1
Dans le cas de :
1. la convergence, la méthode de Gauss-Seidel converge plus vite que celle de Jacobi;
2. la divergence, la méthode de Gauss-Seidel diverge plus vite que celle de Jacobi.
4.2. MÉTHODES DE RELAXATION 33
Corollaire 4.1 Si la matrice non négative B est telle que 0 < ρ(B ) < 1, alors
J J
(4.8)
n
X
|aij | ≥ |aij |, i = 1, ..., n.
j=1,j6=i
1. A est régulière et A ≥ 0, −1
1. (Théorème de Reuch-Ostrowski) Soit B une matrice avec une diagonale nulle. Met-
tons B sous la forme B = L + U , L étant une matrice triangulaire strictement
inférieure et U une matrice triangualire supérieure.
Posons −1
L = (I − ωL) [(1 − ω)I + ωU ].
ω
Alors quels que soit ω réel, ρ(L ) ≥ |ω − 1|, l'égalité ne se produisant que si toutes
les valeurs propres de L sont de module |ω − 1|.
ω
3. Si A est hermitienne dénie positive, alors ρ(L ) < 1 si et seulement si 0 < ω < 2.
ω
Démonstraction
Pour les preuve, voir dans [4].
Remarque 4.3
les méthodes de Jacobi, Gauss-Seidel et SOR (avec 0 < ω < 2) convergent ou divergent
J
simultanément.
36 CHAPITRE 4. MÉTHODES ITÉRATIVES DE BASE
r = r − λ Ar .
k+1 k k k
Ces méthodes se distinguent par le choix du paramètre λ . Le choix le plus simple consiste
à prendre λ = λ.
k
1 1
xk+1 = I − A xk + b,
λ λ
il correspond à la décomposistion M = I/λ et N = I/λ − A.
Cette méthode converge donc si et seulement si ρ(I − λA) < 1. D'où le théorème suivant
4.5. PSEUDO-CODES ET CODES MATLAB 37
Démonstraction
pour la preuve, voir [4].
Ce théorème montre que plus κ (A) est voisin de 1 plus la convergence est rapide.
2
les composantes x du nouvel itéré x qui sont calculées à partir des composantes x de
1 n
l'ancien itéré x.
i j
4.6 Exercice
Exercice 4.1 On donne la matrice
2 −1 0 0
−1 2 −1 0
A=
0 −1 2 −1
0 0 −1 2
trice triangulaire inférieure dont les éléments diagonaux peuvent être quelconques.
Á l'aide de ce résultat, calculer à nouveau le déterminant D.
40 CHAPITRE 4. MÉTHODES ITÉRATIVES DE BASE
Chapitre 5
Calcul de valeurs propres
5.1 Introduction
Le calcul des valeurs propres de matrices internient dans de nombreux domaines des
mathématiques appliquées. Citons, par exemple, la résistence des matériaux et le calcul
des structures, l'analyse des phénomènes vibratoires, les chaînes de Markov et les moteurs
de recherche sur le Web, les modèles économiques, l'analyse des données, la physique et
la chimie quantique, etc. C'est donc un domaine particulièrement important à étudier.
Il existe deux grandes classes de méthodes itératives pour le calcul numérique des
valeurs propres d'une matrice :
1. Les méthodes qui permettent de ne calculer qu'une seule valeur propre à la fois (
en général celle de plus grand module).
2. les méthodes qui permettent de calculer simultanément toutes les valeurs propres.
Ces dernières ce divisent elles-mêmes en deux catégories :
(a) Les méthodes de détermination de polynôme caractéristique. Ce sont les moins
intéressantes (sauf dans certains cas particuliers) car il faut ensuite calculer les
racines du polynôme caractéristique,
(b) les méthodes de décomposition qui ont un caractère essentiellement itératif et
qui sont basée sur l'utilisation de transformations semblables.
Enn on verra l'intérêt que présente une classe de matrices spéciales : les matrices de la
forme de Hessenberg. Notons qu'l existe beaucoup d'autres méthode que celles décrites
dans ce Chapitre.
5.2 La méthode de la puissance
La méthode de puissance est généralement utilisée pour calculer la valeur propre de
plus grand module d'une matrice ainsi que le vecteur propre coreespondant. Dans certians
cas, et après avoir obtenu cette valeur propre et le vecteur propre correspondant, il est
possible de calculer la seconde valeur propre et ainsi de suite.
Cette méthode consiste à eectuer les itérations suivantes :
uk+1 = Auk , k = 0, 1, ...
42 CHAPITRE 5. CALCUL DE VALEURS PROPRES
Cas 1 :
Supposons que les valeurs popres de A forment une base et que
|λ1 | > |λ2 | ≥ ... ≥ |λm |.
correspondant à λ . Écrivons u dans la base formées par les vecteurs propres x , ..., x et
0 0 1 1
n
X
u0 = ai x i
i=1
n
X n
X
u1 =Au0 = ai Axi = ai λ i x i
..
i=0 i=1
n
X
k
uk =Auk−1 = A u0 = ai λ k x i
i=1
n
X
=a1 λk1 + λk1 ai (λi /λ1 )k xi .
i=2
Soit y un vecteur propre tel que (y, x ) 6= 0. Calculons le rapport S = (y, uk+1 )/(y, uk ) .
On obtient
1 k
P n k+1
a (y, x ) +
1 a (λ /λ ) (y, x )
1 i i 1 i
Sk = λ1 Pi=2
n k
.
a1 (y, x1 ) + i=2 ai (λi /λ1 ) (y, xi )
Or |λ /λ | < 1 pour i = 2, ..., n puisque |λ | > |λ |, i = 2, 3, ..., n , d'où lim k7→∞ (λi /λ1 )
k
=
0 pour tout i = 2, 3, ..., n et par conséquent
i 1 1 i
lim Sk = λ1 .
k7→∞
Sk = λ1 + O[(λ2 /λ1 )k ].
D'autre part
Sk uk+1 = Sk Auk
5.2. LA MÉTHODE DE LA PUISSANCE 43
plus satisfaites.
Cas 2 :
Supposnons toujours que x , x , ..., x forment une base et mais que
1 2 n
λ = λ = ··· = λ
1 2 et |λ | > |λ | ≥ · · · ≥ |λ |.
r r r+1 n
Cas 4 :
Considère maintenant le cas où λ est complexe. On a alors λ = λ1 et, comme
précédemment,
1 2
X n
uk = a1 λk1 x1 + a2 λk2 x2 + ai λki xi
i=3
(y, uk+1 ) (y, uk+2 )
0
(y, uk+2 ) (y, uk+3 )
Sk =
(y, uk ) (y, uk+1 )
(y, uk+1 ) (y, uk+2 )
44 CHAPITRE 5. CALCUL DE VALEURS PROPRES
avec |λ | > |λ | ≥ · · · ≥ |λ |.
Puisque les vecteurs propres ne forment plus une base, appelons x , ..., x les vecteurs de
1 2 n
Ax1 =λ1 x1 + x2
Ax2 =λ1 x2
Ax3 =λ3 x3
..
Axn =λn xn
On trouve
n
X
u1 =Au0 = a1 λ1 x1 + a1 x2 + a2 λ1 x2 + ai λ i x i
..
i=3
n
X
uk =Ak u0 = a1 λk1 x1 + a1 kλ1k−1 x2 + a2 λk1 x2 + a1 λk1 x1
i=3
n
X
=(a1 x1 + a2 x2 )λk1 + a1 kλ1k−1 x2 + ai λki xi
i=3
(4Sk )2
Tk = Sk − , k = 0, 2, ...,
42 Sk
avec
4Sk = Sk+1 − Sk
2
4 Sk =4Sk+1 − 4Sk .
Dans certains cas, (T ) converge plus vite que (S ) vers la même limite S, c'est-à-dire
k k
Tk − S
lim = 0.
k7→∞ Sk − S
D'après ce qui précède, la suite (S ) générée par la méthode de la puissance dans le cas 1
est de la forme
k
S = S + (b + ε )(S
k − S) k k−1
Dans le cas où |λ | > |λ | et où les vecteurs propres forment une base, nous avons vu que
k k
Il existe une généralisation du procédé 4 d'Aitken qui s'appelle l'ε-algorithme et qui est
2
La méthode des traces On rappelle que la trace d'une matrice est la somme de ses
éléments diagonaux et que cette trace est aussi égale à la somme de ses valeurs propres.
On a, si |λ | > |λ | pour i = 2, ..., n,
1 i
tra(Am ) =λm
1 + · · · + λn
m
" n
#1/m
m 1/m
X
m 1 m
[tra(A )] =λ1 1 + (λi /λ1 ) = λ1 + O (λ2 /λ1 )
i=2
m
d'où
lim [tr(Am )]1/m = λ1 .
m7→∞
La méthode du produit scalaire Elle consiste à générer les deux suites de vecteurs
u =A , u donnév k+1 = k A v , v , donné
0 k+1
T
k 0
a x et v =
X X n n
u = by 0 i i 0 i i
i=1 i=1
Or (y , x ) = 0 si λ 6= λ , d'où
i j i j
n
X
(uk , vk ) = ai bi λ2k
i (xi , yi ).
i=1
De même
(uk , vk−1 ) =(Ak u0 , (AT )k−1 v0 ) = (v0 , A2k−1 u0 )
n
X
= ai bi λi2k−1 (xi , yi ).
i=1
D'où, si |λ | > |λ |. 1 2
(uk , vk )
= λ1 + O (λ2 /λ1 )2k .
(uk , vk−1 )
Cette methode est partiellement bien adaptée au cas des matrices sumétriques car si
u = v alors, pour tout k , k = v .
0 0 k k
5.2. LA MÉTHODE DE LA PUISSANCE 47
férieur à |λ |.
1
que ses autres valeurs propres λ , ...., λ restent inchangées. C'est la défraction.
1
1. La λ-diérence :
On a X n
uk+1 − λ1 uk = a2 (λ2 − λ1 )λk2 x2 + ai (λi − λ1 )λki xi
i=3
2. La déation :
Soit x le vecteur propre de A correspondant à λ et y le vecteur propre de A T
dénie par
i i j i j 1
x1 y1T
A1 = A − λ1 .
(x1 y1 )
Cette matrice admet les valeurs propres 0, λ , ..., λ . En eet
2 n
x1 y1T x1
A1 x1 =Ax1 − λ1
(x1 , y1 )
(x1 , y1 )
=λ1 x1 − λ1 x1 =0
(x1 , y1 )
ce qui prouve que 0 est valeur propre de A avec x comme vecteur propre. De
même, pour i = 2, ..., n, on a
1 1
x1 y1T xi
A1 xi =Axi − λ1
(x1 , y1 )
=λi xi − λ1 x1
(xi , y1 )
(x1 , y1 )
= λ i xi , si λ 1 6= λi .
48 CHAPITRE 5. CALCUL DE VALEURS PROPRES
usage n'est donc pas recommandé. On utilise à la place une méthode de déaction
faisant appel à une transformation orthogonale (ou tout simplement semblable)
comme on va le voir maintenant.
Soit H une matrice non singulière quelconque telle que
Hx = λe , avec λ 6= 0.
1 1 (5.1)
Ax = λ x peut s'écrire HA(H H)x = λ Hx en multipliant à gauche par H .
−1
D'ou
1 1 1 1 1 1
−1
HAH e = λ e . 1 1 1
puissance à la matrice B .
1 2
1
à la matrice B ) et écrivons
1 2
1
α
y2 =
z2
où α ∈ R et z est un vecteur de B correspondant à la valeur propre λ . On a
2 1 2
λ1 bT1 α α
= λ2
0 B1 z2 z2
d'où
(λ1 − λ2 )α + (b1 , z2 ) = 0.
On a
HAH −1 y2 =λ2 y2
AH −1 y2 =λ2 H −1 y2
et par conséquent x 2 = H −1 y2 .
Construction de la matrice H
Elle s'eectue de la façon suivante (méthode de Householder [5] ). On peut dé-
montrer qu'il existe une matrice H orthogonale élémentaire qui satisfait 5.1 et qui
s'écrire sous la forme
H = I − 2uuT , u ∈ Rn , (u, u) = 1.
5.2. LA MÉTHODE DE LA PUISSANCE 49
On a
kHx1 k2 = kx1 k2
d'où
|λ| = kx1 k2 .
Posons µ = 2(u, x ). On a
1
et donc
µu = x1 − λe1 .
Multiplions scalairement 2x , on trouve µ = 2λ(λ − x ), où x est la première
2
peut aussi éliminer la racine dans le calcul de µ. Pour plus de détails, voir [5].
1,1 1 2
3. Le procédé 4 d'Aitken :
2
Dans ce qui précède, nous avions utilisé le procédé 4 d'Aitken pour accélérer la
2
converge vers λ .2
cela revient à calculer la valeur propre de plus grand module de A . Pour ce faite, on −1
utilise la méthode de la puissance inverse qui consiste à faire les itérations suivantes
uk+1 = A−1 uk , k = 0, 1, ...
uk+1 = U −1 (L−1 uk ).
On peut aussi adapter la méthode de la puissance au calcul de la valeur propre la plus
voisine d'un nombre donné σ. Ilsut, pour cela, d'appliquer la méthode
uk+1 = (A − σI)−1 uk = U −1 (L−1 uk )
avec A − σI = LU .
Cette méthode est dicilement applicable aux matrices de grande dimension.
5.3 Méthodes de décomposition
Nous allons maintenant étudier les méthodes de décomposistion qui fournissent simul-
tanément toutes les valeurs propres d'une matrice A.
Ces méthodes sont basées sur l'idée suivante :
La décomposistion de la matrice A en un produit de deux matrices A = BC . Si B est
inversible, on peut alors écrire que C = B A d'où
−1
CB = B −1 AB
ce qui montre que les matrices A = BC et CB sont semblables et donc qu'elles ont les
mêmes valeur propres. On peut de nouveau décomposer la matrice CB en un produit de
deux matrices à l'aide de la même décomposition et ainsi de suite.
On pose donc A = A et, dans une méthode de décomposistion, on construit la suite de
matrice (A ) par
0
k
A0 =B0 C0
A1 =C0 B0 = B1 C1
A2 =C1 B1 = B2 C2
..
Ak =Ck−1 Bk−1 = Bk Ck
Ak+1 =Ck Bk = Bk+1 Ck+1
..
où toutes les matrices B sont de même type (par exemple, toutes triangulaires inférieurs
à diagonale unité ou prthogonales) et toutes les matrices C aussi (par exemple, toutes
k
triangulaires supérieures).
k
Puisque A k = Bk Ck , on aura
A∞ = lim Bk Ck = lim Ck .
k→∞ k→∞
La décomposistion devra par conséquent être choisie de sorte que les valeurs propres
des matrices C soient simples à calculer : c'est le cas lorsque les matrices C sont des
matrices triangulaires supérieures, les valeurs propres sont alors sur la diagonale. Or nous
k k
n'est donc pas nécéssaire pour la mise en oeuvre d'une méthode de décomposition.
k+1 k k k k
−1
Pk Qk =Pk−1 Bk Ck Qk−1 = Pk−1 Ak Qk−1 = Pk−1 (Pk−1 APk−1 )Qk−1
=APk−1 Qk−1
=A2 Pk−2 Qk−2 = · · · = Ak+1 .
...
1
1
..
cos θ · · · ··· ··· − sin θ
.. ← p
.. 1
... ..
.. ..
Bk =
1
sin θ · · · ··· ··· cos θ ← q
...
1
1
↑ ↑
p q
Il est facile de vérier que B est une matrice orthogonale, c'est-à-dire que B = B et −1 T
que toutes les matrices A obtenues sont symétriques (et semblable à A).
k k k
Lorsque l'on passe de A à A , seuls sont modiés les éléments des lignes et des colonnes
k
a(k+1)
pq =(a(k) (k) (k) 2 2 (k+1)
qq − app ) sin θ cos θ + 2apq (cos θ − sin θ) = +aqp .
Ces relations montre que, si A est symétrique, alors A l'est aussi. L'angle θ est choisi
an d'annuler a et a , d'où
k k+1
(k+1) (k+1)
pq qp
(k) (k)
(a − a ) sin θ cos θ = a (cos − sin θ).
pp qq (5.3)
(k)
pq
2 2
pour obtenir un angle de rotation θ tel que |θ| < π/4, de choisir la plus petite racine de
l'équation t + 2µt − 1 = 0, c'est-à-dire
2
signe(µ)
t = tg θ = p ,
|µ| + 1 + µ2
et l'on a
c = cos θ = √
1
1 + t2
, et s = sin θ = cos θ tan θ = ct.
En utilisant les relations (5.2) et (5.3 et le fait qur a = 0, on obtient les nouvelles
(k+1)
a(k+1)
qq =a(k) (k)
qq − tapq ,
annulés lors de la (k−1)-ième itération ne seront plus obligatoirement nuls après la k-ièmes
pq qp
itération. Cependant en itérant le procédé pour tous les couples (p, q) avec p 6= q on arrive
peu à peu à annuler tous les éléments extradiagonaux. La matrice A convergera donc
vers une matrice diagonale semblable à A et les valeurs propres seront sur sa diagonale.
k
..
c ··· ··· ··· −s
.. ← p
.. 1
... ..
.. ..
Bk =
1
s ··· ··· ··· c ← q
...
1
1
↑ ↑
p q
avec c + s = 1 et c 6= 0. De nouveau, seuls sont modiés les éléments des lignes et des
2 2
colonnes p et q. On obtient
(k+1) (k) (k)
aip =caip + saiq , i 6= p, q
(k+1) (k) (k)
aiq = − saip + caiq , qquadi 6= p, q
(k+1) (k) (k)
apj =capj + saqj , qquadj 6= p, q
(k+1) (k) (k)
aqj = − sapj + caqj , qquadj 6= p, q
a(k+1)
pp =c2 a(k) (k)
pp + cs(apq + a(k)
qp ) + s2 a(k)
qq
a(k+1)
qq =c2 a(k) (k)
qq − cs(apq + a(k)
qp ) + s2 a(k)
pp
a(k+1)
pq =c2 a(k) (k)
pq + cs(aqq − a(k)
pp ) − s2 aqp
(k)
a(k+1)
qp =c2 a(k) (k)
qp + cs(aqq − a(k)
pp ) − s2 apq
(k)
.
On veut annuler a , d'où
(k+1)
qp
c =(1 + x2 )−1/2
s =(1 + x2 )−1/2 x
où x est l'une des deux racines
(k) (k)
4qp ± (42qp + aqp apq )1/2
x= (k)
apq
à condition que a (k)
pq 6= 0 .
5.3. MÉTHODES DE DÉCOMPOSITION 55
5.3.3 L'algoritme LR
Cet algorithme, formulé par Heinz Rutishauser en 1955 (voir [11]), s'applique à des
matrices quelconques. Il est basé su la méthode de Gauss pour résoudre les systèmes
d'équations linéaires (voir [5]), c'est-à-dire, pour des matrices B , on predra des matrices
triangulaires inférieures avec des 1 sur la diagonale ( elles sont notées L dans la termi-
k
A∞ = lim Rk .
k→∞
Ak =Lk LTk
Ak+1 =LTk Lk .
Si la méthode converge, on voit que l'on aboutira, par raison de symétrie, à une matrice
diagonale.
Le théorème ci-dessous regroupe quelques propriétés de convergence de l'algorithme
LR.
...
λ2
A∞ = .
λn
5.3.4 l'Agorithme QR
Cet algorithme a été trouvé indépendamment par J. F. G. Francis [6] et Vera Kubla-
novskaya en 1961 [9]. Il consite à prendre pour matrices B des matrices orthogonales
(notées Q dans la terminologie habituelle) et pour matrices C des matrices triangulaires
k
supérieures (notées R ).
k k
Pour ce faire, on utilise la décomposition de Householder pour résoudre les sytèmes d'équa-
k
tions linéaires. Nous avons déjà utilisé cette décomposition pour mettre une matrice sous
forme de Hessenberg supérieur [5]. la décomposition de Householder est eectuée à l'aide
de n−1 produits par des matrices orthogonales élémentaires (au lieu de n−2 pour obtenir
la forme Hessenberg).
Soit à décomposer A en A = Q R . On pose
k k k k
A(1) = Ak
et l'on eectue une succession de transformations orthogonales
A(r+1) = Hr A(r) , r = 1, ..., n − 1,
où A (r)
,r > 1, est de la forme
(2) (2) (2) (2)
a11 ··· ··· a1,r−1 a1r ··· a1n
(2) (2) (2) (2)
a22 · · ·
...
a2,r−1
.. a2r
.. ···
..
a2n
(2) (2) (2)
A(r) = ar−1,r−1 ar−1,r · · · ar−1,n
(2) (2)
.. ..
arr ··· arn
(2) (2)
anr ··· ann
c'est à dire, en l'écrvant sous une forme partitionnée en 4 blocs
!
(r) (r)
A11 A12
A(r) = (r)
0 A22
Les éléments de la première colonne de He A ne sont pas tous nuls. La matrice He sera
(r)
donc choisie à annuler tous les éléments de première collone de He A sauf un seul, le
r 22 r
(r)
r 22
5.3. MÉTHODES DE DÉCOMPOSITION 57
premier, ce qui correspond à annuler tous les éléments de la rième colonne de A , à partir (r)
Q =Q =Q .
k k n−1 1
−1 T
Comme dans la méthode de Householder pour triangulariser une matrice ( voir [?]),
k k k
!1/2
signe de a
n
X (r)
a(r+1)
rr =−( (r)
rr ) |air |2
i=r
(r)
v =a(r+1)
rr (a(r+1)
rr − a(r)
rr )
(r)
wi =0, i = 1, ..., r − 1
wr(r) =a(r) (r+1)
rr − arr
(r) (r)
wi =air , i = r + 1, ..., n
(k)
air =0, i = r + 1, ..., n
puis
n
X
(r) (r) (r)
βj = wi aij , j = r + 1, ..., n
i=r
(r) (r)
γj =βj /v (r) , j = r + 1, ..., n
(r+1) (r) (r) (r)
aij =aij − γj wi , i = r, ..., n; j = r + 1, ..., n,
où H = I − 2w w /v .
r
(r) (r)T (r)
boucle en p et en q), la rotation n'est eectuée que si la valeur de l'élément que l'on
droit annuler satisfait à la condition |a | > tolla où tolla = toll/(n − n). Les valeurs
p (k) 2
Les éléments de A sont détruits, et en sortie ses valeurs propres se trouvent sur sa diago-
pq i<j ij
nale. En entrée, on doit donner la valeur de toll(qui correspond à ε ) pour le test d'arrêt
5.4. PSEUDO-CODES ET CODES MATLAB 59
5.4.3 L'algorithme QR
Ce pseudo-code eectue l'algorithme QR (sans shift) sur une matrice A déja mise sous
forme de Hessenberg supérieure, voir [?].
La matrice A est détruite et, à la n des itérations, elle est remplacée par une matrice
triangulaire surpérieure semblable à la matrice de départ. Par conséquent, ses valeurs
propres se trouvent sur sa diagonale.
Puisque l'algorithme QR doit converger vers une matrice triangulaire supérieure, on
arrête les itérations lorsque les termes de la première sous-diagonale sont susamment
petits ou lorsque le nombre maximum d'itérationd k est atteint. En sortie, k donne le
max
60 CHAPITRE 5. CALCUL DE VALEURS PROPRES
5.5 Exercices
Exercice 5.1 Soient L et M deux matrices carrées triangulaires inférieures d'ordre N .
Montrer que le produit LM est également triangulaire inférieur. Déduire de ce résultat la
propriété : si A est une matrice régulière d'ordre N qui possède une décomposition LU
(avec l = 1, i = 1, 2, ..., N ), alors cette décomposition est unique.
ii
Exercice 5.2 (Calcul de valeurs propres,10 points) Étant donné un vecteur propre
réel non nul u et une matrice réelle symétrique d'ordre n A, on sait que le quotient de
Rayleigh Q(u) s'écrit
uT Au
Q(u) =
uT u
1. Si v un vecteur de A, associé à la valeur propre λ , calculer Q(v ) (1 ≤ i ≤ n).
i i i
(b) On suppose que les valeurs propres λ ont été numérotées en ordre décrois-
sant :λ > λ > · · · > λ . Montrer que, quel que soit u 6= 0, on a :
i
1 2 n
λ1 ≥ Q(u) ≥ λn .
5.5. EXERCICES 61