Vous êtes sur la page 1sur 136

Universit Aix Marseille

Licence de mathmatiques

Cours dAnalyse numrique

Raphale Herbin

8 octobre 2014
Table des matires

1 Systmes linaires 5
1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 Pourquoi et comment ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.1 Quelques rappels dalgbre linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Discrtisation de lquation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4 Suggestions pour les exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.2.5 Corrigs des exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.3 Les mthodes directes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.1 Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.2 Mthode de Gauss, mthode LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.3.3 Mthode de Choleski . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.4 Quelques proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.3.6 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.3.7 Corrigs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
1.4 Normes et conditionnement dune matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.4.1 Normes, rayon spectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
1.4.2 Le problme des erreurs darrondis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
1.4.3 Conditionnement et majoration de lerreur darrondi . . . . . . . . . . . . . . . . . . . . 56
1.4.4 Discrtisation dquations diffrentielles, conditionnement efficace" . . . . . . . . . . . 60
1.4.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.4.6 Suggestions pour les exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
1.4.7 Corrigs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
1.5 Mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1.5.1 Dfinition et proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1.5.2 Quelques exemples de mthodes itratives . . . . . . . . . . . . . . . . . . . . . . . . . . 78
1.5.3 Les mthodes par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
1.5.4 Exercices, noncs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
1.5.5 Exercices, suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
1.5.6 Exercices, corrigs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
1.6 Valeurs propres et vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
1.6.1 Mthode de la puissance et de la puissance inverse . . . . . . . . . . . . . . . . . . . . . 110
1.6.2 Mthode QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
1.6.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
1.6.4 Suggestions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
1.6.5 Corrigs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

1
TABLE DES MATIRES TABLE DES MATIRES

2 Systmes non linaires 122


2.1 Les mthodes de point fixe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2.1.1 Point fixe de contraction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
2.1.2 Point fixe de monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
2.1.3 Vitesse de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.1.4 Mthode de Newton dans IR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
2.1.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

Analyse numrique I, tl-enseignement, L3 2 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


Introduction

Lobjet de lanalyse numrique est de concevoir et dtudier des mthodes de rsolution de certains problmes
mathmatiques, en gnral issus de la modlisation de problmes rels", et dont on cherche calculer la solution
laide dun ordinateur.
Le cours est structur en quatre grands chapitres :
Systmes linaires
Systmes non linaires
Optimisation
Equations diffrentielles.
On pourra consulter les ouvrages suivants pour ces diffrentes parties (ceci est une liste non exhaustive !) :
A. Quarteroni, R. Sacco et F. Saleri, Mthodes Numriques : Algorithmes, Analyse et Applications, Sprin-
ger 2006.
P.G. Ciarlet, Introduction lanalyse numrique et loptimisation, Masson, 1982, (pour les chapitre 1 3
de ce polycopi).
M. Crouzeix, A.L. Mignot, Analyse numrique des quations diffrentielles, Collection mathmatiques
appliques pour la maitrise, Masson, (pour le chapitre 4 de ce polycopi).
J.P. Demailly, Analyse numrique et quations diffrentielles Collection Grenoble sciences Presses Univer-
sitaires de Grenoble
L. Dumas, Modlisation loral de lagrgation, calcul scientifique, Collection CAPES/Agrgation, El-
lipses, 1999.
E. Hairer, polycopi du cours "Analyse Numrique", http ://www.unige.ch/ hairer/polycop.html
J. Hubbard, B. West, Equations diffrentielles et systmes dynamiques, Cassini.
J. Hubbard et F. Hubert, Calcul Scientifique, Vuibert.
P. Lascaux et R. Thodor, Analyse numrique matricielle applique lart de lingnieur, tomes 1 et 2,
Masson, 1987
L. Sainsaulieu, Calcul scientifique cours et exercices corrigs pour le 2me cycle et les coles dingnieurs,
Enseignement des mathmatiques, Masson, 1996.
M. Schatzman, Analyse numrique, cours et exercices, (chapitres 1,2 et 4).
D. Serre, Les matrices, Masson, (2000). (chapitres 1,2 et 4).
P. Lascaux et R. Theodor, Analyse numrique sapplique aux sciences de lingnieur, Paris, (1994)
R. Temam, Analyse numrique, Collection SUP le mathmaticien, Presses Universitaires de France, 1970.
Et pour les anglophiles...
M. Braun, Differential Equations and their applications, Springer, New York, 1984 (chapitre 4).
G. Dahlquist and A. Bjrck, Numerical Methods, Prentice Hall, Series in Automatic Computation, 1974,
Englewood Cliffs, NJ.
R. Fletcher, Practical methods of optimization, J. Wiley, New York, 1980 (chapitre 3).
G. Golub and C. Van Loan, Matrix computations, The John Hopkins University Press, Baltimore (chapitre
1).
R.S. Varga, Matrix iterative analysis, Prentice Hall, Englewood Cliffs, NJ 1962.
Pour des rappels dalggre linaire :
Poly dalgbre linaire de premire anne, P. Bousquet, R. Herbin et F. Hubert, http ://www.cmi.univ-
mrs.fr/ herbin/PUBLI/L1alg.pdf

3
TABLE DES MATIRES TABLE DES MATIRES

Introduction to linear algebra, Gilbert Strang, Wellesley Cambridge Press, 2008

Ce cours a t rdig pour la licence de mathmatiques distance (tlenseignement) du CTES de luniversit


dAix-Marseille. Chaque chapitre est suivi dun certain nombre dexercices. On donne ensuite des suggestions
pour effectuer les exercices, puis des corrigs dtaills. Il est fortement conseill dessayer de faire les exercices
dabord sans ces indications, et de ne regarder les corrigs dtaills quune fois lexercice achev (mme si certaines
questions nont pas pu tre effectues), ceci pour se prparer aux conditions dexamen.

Analyse numrique I, tl-enseignement, L3 4 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


Chapitre 1

Systmes linaires

1.1 Objectifs
On note Mn (IR) lensemble des matrices carres dordre n. Soit A Mn (IR) une matrice inversible, et b IR n ,
on a comme objectif de rsoudre le systme linaire Ax = b, cest dire de trouver x solution de :

x IR n
(1.1)
Ax = b

Comme A est inversible, il existe un unique vecteur x IR n solution de (1.1). Nous allons tudier dans les deux
chapitres suivants des mthodes de calcul de ce vecteur x : la premire partie de ce chapitre sera consacre aux
mthodes directes" et la deuxime aux mthodes itratives". Nous aborderons ensuite en troisime partie les
mthodes de rsolution de problmes aux valeurs propres.
Un des points essentiels dans lefficacit des mthodes envisages concerne la taille des systmes rsoudre. La
taille de la mmoire des ordinateurs a augment de faon drastique de 1980 nos jours.
Le dveloppement des mthodes de rsolution de systmes linaires est lie lvolution des machines infor-
matiques. Cest un domaine de recherche trs actif que de concevoir des mthodes qui permettent de profiter au
mieux de larchitecture des machines (mthodes de dcomposition en sous domaines pour profiter des architectures
parallles, par exemple).
Dans la suite de ce chapitre, nous verrons deux types de mthodes pour rsoudre les systmes linaires : les
mthodes directes et les mthodes itratives. Pour faciliter la comprhension de leur tude, nous commenons par
quelques rappels dalgbre linaire.

1.2 Pourquoi et comment ?


Nous donnons dans ce paragraphe un exemple de problme dont la rsolution numrique recquiert la rsolution
dun systme linaire, et qui nous permet dintroduire des matrices que nous allons beaucoup tudier par la suite.
Nous commenons par donner ci-aprs aprs quelques rappels succincts dalgbre linaire, outil fondamental pour
la rsolution de ces systmes linaires.

1.2.1 Quelques rappels dalgbre linaire


Quelques notions de base
Ce paragraphe rappelle des notions fondamentales que vous devriez connatre lissue du cours dalgbre linaire
de premire anne. On va commencer par revisiter le produit matriciel, dont la vision combinaison linaire de
lignes est fondamentale pour bien comprendre la forme matricielle de la procdure dlimination de Gauss.

5
1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Soient A et B deux matrices carres dordre n, et M = AB. Prenons comme exemple dillustration
     
1 2 1 0 5 4
A= ,B = et M =
0 1 3 2 3 2
On note ai,j bi,j et mi,j , i, j = 1, . . . n les coefficients respectifs de A, B et M . Vous savez bien sr que
n
X
mi,j = ai,k bk,j . (1.2)
k=1

Si on crit les matrices A et B sous forme de lignes (notes i ) et colonnes (notes cj ) :



1 (A)  
A = . . . et B = c1 (B) . . . n (B)
n (A)
Dans nos exemples, on a donc
   
    1 0
1 (A) = 1 2 , 2 (A) = 0 1 , c1 (B) = c2 (B) = .
3 2
Lexpression (1.2) scrit encore
mi,j = i (A)cj (B),
qui est le produit dune matrice 1 n par une matrice n 1, quon peut aussi crire sous forme dun produit
scalaire :
mi,j = (i (A))t cj (B)
o (i (A))t dsigne la matrice transpose, qui est donc maintenant une matrice n 1 quon peut identifier un
vecteur de IR n . Cest la technique habituelle de calcul du produit de deux matrices. On a dans notre exemple :
 
  0
m1,2 = 1 (A) c2 (B) = 1 2 .
2
   
1 0
= (i (A))t cj (B) =
2 2
= 4.

Mais de lexpression (1.2), on peut aussi avoir lexpression des lignes et des colonnes de M = AB en fonction
des lignes de B ou des colonnes de A :
n
X
i (AB) = ai,k k (B) (1.3)
k=1
Xn
cj (AB) = bk,j ck (A) (1.4)
k=1

Dans notre exemple, on a donc :


     
1 (AB) = 1 0 + 2 3 2 = 5 4
ce qui montre que la ligne 1 de AB est combinaison linaire des lignes de B. Le colonnes de AB, par contre, sont
des combinaisons linaires de colonnes de A. Par exemple :
     
1 2 4
c2 (AB) = 0 +2 =
0 1 2
Il faut donc retenir que dans un produit matriciel AB,

Analyse numrique I, tl-enseignement, L3 6 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

les colonnes de AB sont des combinaisons linaires des colonnes de A


les lignes de AB sont des combinaisons linaires des lignes de B.

Cette remarque est trs importante pour la reprsentation matricielle de llimination de Gauss : lorquon calcule
des systmes quivalents, on effectue des combinaisons linaires de lignes, et donc on multiplie gauche par une
matrice dlimination.

Le tableau ci-dessous est la traduction littrale de Linear algebra in a nutshell, par Gilbert Strang 1 Pour une
matrice carre A, on donne les caractrisations du fait quelle est inversible ou non.

A inversible A non inversible

Les vecteurs colonne sont indpendants Les vecteurs colonne sont lis
Les vecteurs ligne sont indpendants Les vecteurs ligne sont lis
Le dterminant est non nul Le dterminant est nul
Ax = 0 a une unique solution x = 0 Ax = 0 a une infinit de solutions.
Le noyau de A est rduit {0} Le noyau de A contient au moins un vecteur non nul.
Ax = b a une solution unique x = A1 b Ax = b a soit aucune solution, soit une infinit.
A a n (nonzero) pivots A a r < n pivots
A est de rang maximal : rg(A) = n. rg(A) = r < n
La forme totatement chelonne R de A est la matrice identit R a au moins une ligne de zros.
Limage de A est tout IR n . Limage de A est strictement incluse dans IR n .
Lespace L(A) engendr par les lignes de A est tout IR n . L(A) est de dimension r < n
Toutes les valeurs propres de A sont non nulles Zero est valeur propre de A.
At A is symtrique dfinie positive 2 At A nest que semi- dfinie .

TABLE 1.1: Extrait de Linear algebra in a nutshell, G. Strang

On rappelle pour une bonne lecture de ce tableau les quelques dfinitions suivantes :

Dfinition 1.1 (Pivot). Soit A Mn (IR) une matrice carre dordre n. On appelle pivot de A le premier lment
non nul de chaque ligne dans la forme chelonne de A obtenue par limination de Gauss. Si la matrice est
inversible, elle a donc n pivots (non nuls).

Dfinition 1.2 (Valeurs propres). Soit A Mn (IR) une matrice carre dordre n. On appelle valeur propre de A
tout Cl tel quil existe x Cln , x 6= 0 tel que Ax = x. Llment x est appel vecteur propre de A associ
.

Dfinition 1.3 (Dterminant). Il existe une unique application, note det de Mn (IR) dans IR qui vrifie les
proprits suivantes
(D1) Le dterminant de la matrice identit est gal 1.
(D2) Si la matrice A est obtenue partir de A par change de deux lignes, alors detA = detA.

1. Voir la page web de Strang www.mit.edu/~gs pour une foule dinformations et de cours sur lalgbre linaire.

Analyse numrique I, tl-enseignement, L3 7 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

(D3) Le dterminant est une fonction linaire de chacune des lignes de la matrice A.
(D3a) (multiplication par un scalaire) si A est obtenue partir de A en multipliant tous les coefficients dune
= det(A).
ligne par IR, alors det(A)

1 (A) 1 (A) 1 (A)
.. .. ..
. . .


(D3b) (addition) si A = k (A) , A = k (A) et B = k (A) + k (A)
, alors
.. . .
. .. ..
n (A) n (A) n (A)


det(B) = det(A) + det(A).

On peut dduire de ces trois proprits fondamentales un grand nombre de proprits importantes, en particulier
le fait que det(AB) = detA detB et que le dterminant dune matrice inversible est le produit des pivots : cest
de cette manire quon le calcule sur les ordinateurs. En particulier on nutilise jamais la formule de Cramer,
beaucoup trop coteuse en termes de nombre doprations.

On rappelle que si A Mn (IR) une matrice carre dordre n, les valeurs propres sont les racines du polynme
caractristique PA de degr n, qui scrit :

PA ()) = det(A I).

Matrices diagonalisables
Un point important de lalgbre linaire, appel rduction des endomorphismes dans les programmes franais,
consiste se demander sil existe une base de lespace dans laquelle la matrice de lapplication linaire est diago-
nale ou tout au moins triangulaire (on dit aussi trigonale).

Dfinition 1.4 (Matrice diagonalisable dans IR). Soit A une matrice relle carre dordre n. On dit que A est
diagonalisable dans IR sil existe une base (u1 , . . . , un ) de IR n et des rels 1 , . . . , n (pas forcment distincts)
tels que Aui = i ui pour i = 1, . . . , n. Les rels 1 , . . . , n sont les valeurs propres de A, et les vecteurs
u1 , . . . , un sont les vecteurs propres associs.

Vous connaissez srement aussi la diagonalisation dans Cl : une matrice relle carre dordre n admet toujours n
valeurs propres dans Cl, qui ne sont pas forcment identiques. Une matrice est diagonalisable dans Cl sil existe une
base (u1 , . . . , un ) de Cln et des nombres complexes 1 , . . . , n (pas forcment distincts) tels que Aui = i ui
pour i = 1, . . . , n. Ceci est vrifi si la dimension de chaque sous espace propre Ei = Ker(A Id) (appele
multiplicit gomtrique) est gale a la multiplicit algbrique de i , c..d. son ordre de multiplicit en tant que
racine du polynme caractristique. 
0 0
Par exemple la matrice A = nest pas diagonalisable dans Cl (ni videmment, dans IR). Le polynme
1 0
caractristique de A est PA () = 2 , lunique valeur propre est donc 0, qui est de multiplicit algbrique 2, et de
multiplicit gomtrique 1, car le sous espace propre associ la valeur propre nulle est F = {x IR 2 ; Ax =
0} = {x = (0, t), t IR}, qui est de dimension 1.
Ici et dans toute la suite, comme on rsout des systmes linaires rels, on prfre travailler avec la diagonalisation
dans IR ; cependant il y a des cas o la diagonalisation dans Cl est utile et mme ncessaire (tude de stabilit des

Analyse numrique I, tl-enseignement, L3 8 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

systmes difrentiels, par exemple). Par souci de clart, nous prciserons toujours si la diagonalisation considre
est dans IR ou dans Cl.

Lemme 1.5. Soit A une matrice relle carre dordre n, diagonalisable dans IR. Alors

A = P diag(1 , . . . , n )P 1 ,

o P est la matrice dont les vecteurs colonnes sont gaux aux vecteurs propres u1 , . . . , un associes au valeurs
propres 1 , . . . , n

D MONSTRATION Par dfinition dun vecteur propre, on a Aui = i ui pour i = 1, . . . N , et donc, en notant P la
matrice dont les colonnes sont les vecteurs propres ui ,
   
Au1 . . . Aun = A u1 . . . un = AP
et donc
1 0 ... 0
.. ..
    0 2 . .
AP = 1 u1 ... n u n = u 1 ... un
.
= P diag(1 , . . . , n ).
.. .. .. ..
. . .
0 ... 0 n
Notons que dans ce calcul, on a fortement utilis la multiplication des matrices par colonnes, c..d.
X
ci (AB) = ai,j cj (B).
j=1,n

Remarquons que P lest aussi la matrice dfinie (de manire unique) par P ei = ui , o (ei )i=1,...,n est la base canonique
de IR n , cest--dire que (ei )j = i,j . La matrice P est appele matrice de passage de la base (ei )i=1,...,n la base
(ui )i=1,...,n ; (il est bien clair que la i-me colonne de P est constitue des composantes de ui dans la base canonique
(e1 , . . . , en ).
La matrice P est inversible car les vecteurs propres forment une base, et on peut donc aussi crire :
P 1 AP = diag(1 , . . . , n ) ou A = P diag(1 , . . . , n )P 1 .

La diagonalisation des matrices relles symtriques est un outil quon utilisera souvent dans la suite, en particulier
dans les exercices. Il sagit dun rsultat extrmement important.

Lemme 1.6 (Une matrice symtrique est diagonalisable dans IR). Soit E un espace vectoriel sur IR de dimension
finie : dimE = n, n IN , muni dun produit scalaire i.e. dune application

E E IR,
(x, y) (x | y)E ,

qui vrifie :
x E, (x | x)E 0 et (x | x)E = 0 x = 0,
(x, y) E 2 , (x | y)E = (y | x)E ,
y E, lapplication de E dans IR, dfinie par x (x | y)E est linaire.
p
Ce produit scalaire induit une norme sur E, kxk = (x | x)E .
Soit T une application linaire de E dans E. On suppose que T est symtrique, c..d. que (T (x) | y)E = (x |
T (y))E , (x, y) E 2 . Alors il existe une base orthonorme (f 1 , . . . , f n ) de E (c..d. telle que (f i , f j )E = i,j )
et (1 . . . n ) IR n tels que T (fi ) = i f i pour tout i {1 . . . n}.

Analyse numrique I, tl-enseignement, L3 9 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Consquence immdiate : Dans le cas o E = P IR n , le produit scalaire canonique de x = (x1 , . . . , xn )t et


y = (y1 , . . . , yn ) est dfini par (x | y)E = x y = ni=1 xi yi . Si A Mn (IR) est une matrice symtrique, alors
t

lapplication T dfinie de E dans E par : T (x) = Ax est linaire, et : (T x|y) = Ax y = x At y = x Ay = (x |


T y). Donc T est linaire symtrique. Par le lemme prcdent, il existe (f 1 , . . . , f n ) et (1 . . . n ) IR tels que
T f i = Af i = i f i i {1, . . . , n} et fi f j = i,j , (i, j) {1, . . . , n}2 .

Interprtation algbrique : Il existe une matrice de passage P de (e1 , . . . , en ) base canonique dans (f 1 , . . . , f n )
dont la premire colonne de P est constitue des coordonnes de fi dans (e1 . . . en ). On a : P ei = fi . On a alors
P 1 AP ei = P 1 Af i = P 1 (i fi ) = i ei = diag(1 , . . . , n )ei , o diag(1 , . . . , n ) dsigne la matrice
diagonale de coefficients diagonaux 1 , . . . , n . On a donc :

i 0
..
P 1 AP = . = D.
0 n
De plus P est orthogonale, i.e. P 1 = P t . En effet,

P t P ei ej = P ei P ej = (fi |fj ) = i,j i, j {1 . . . n},

et donc (P t P ei ei ) ej = 0 j {1 . . . n} i {1, . . . n}. On en dduit P t P ei = ei pour tout i = 1, . . . n,


i.e. P t P = P P t = Id.

D MONSTRATION du lemme 1.6 Cette dmonstration se fait par rcurrence sur la dimension de E.
1re tape.
e
On suppose dimE = 1. Soit e E, e 6= 0, alors E = IRe = f1 avec f 1 = . Soit T : E E linaire symtrique,
kek
on a : T f 1 IRf 1 donc il existe 1 IR tel que T f 1 = 1 f 1 .

2me tape.
On suppose le lemme vrai si dimE < n. On montre alors le lemme si dimE = n. Soit E un espace vectoriel norm sur
IR tel que dimE = n et T : E E linaire symtrique. Soit lapplication dfinie par :
: E IR
x (T x|x).
Lapplication est continue sur la sphre unit S1 = {x E| kxk = 1} qui est compacte car dimE < + ; il existe
1
donc e S1 tel que (x) (e) = (T e | e) = pour tout x E. Soit y E \ {0}, et soit t ]0, kyk [ alors e + ty 6= 0.
On en dduit que :
 
e + ty (e + ty) e + ty
S1 et donc (e) = T |
ke + tyk ke + tyk ke + tyk E
donc (e + ty | e + ty)E (T (e + ty) | e + ty). En dveloppant on obtient :
[2t(e | y) + t2 (y | y)E ] 2t(T (e) | y) + t2 (T (y) | y)E .
Comme t > 0, ceci donne :
[2(e | y) + t(y | y)E ] 2(T (e) | y) + t(T (y) | y)E .
En faisant tendre t vers 0+ , on obtient 2(e | y)E 2(T (e) | y), Soit 0 (T (e) e | y) pour tout y E \ {0}. De
mme pour z = y on a 0 (T (e) e|z) donc (T (e) e | y) 0. Do (T (e) e | y) = 0 pour tout y E. On
en dduit que T (e) = e. On pose f n = e et n = .

L
Soit F = {x E; (x | e) = 0}, on a donc F 6= E, et E = F IRe : on peut dcomposer x E comme (x =
x (x | e)e + (x | e)e). Lapplication S = T |F est linaire symtrique et on a dimF = n 1. et S(F ) F . On peut
donc utiliser lhypothse de rcurrence : (1 . . . n1 ) IR n et (f 1 . . . f n1 ) E n tels que i {1 . . . n 1},
Sf i = T f i = i f i , et i, j {1 . . . n 1}, f i f j = i,j . Et donc (1 . . . n ) et (f 1 , . . . , f n ) conviennent.

Analyse numrique I, tl-enseignement, L3 10 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

x
x x
ui
x x
u(x)

x x

x x
x0 = 0 x1 xi = ih xN +1 = 1

F IGURE 1.1: Solution exacte et approche de u = f

1.2.2 Discrtisation de lquation de la chaleur


Dans ce paragraphe, nous prenons un exemple trs simple pour obtenir un systme linaire partir de la discrti-
sation dun problme continu.

Lquation de la chaleur unidimensionnelle


Discrtisation par diffrences finies de u = f Soit f C([0, 1], IR). On cherche u tel que

u (x) = f (x) (1.5a)


u(0) = u(1) = 0. (1.5b)

Remarque 1.7 (Problmes aux limites, problmes conditions initiales). Lquation diffrentielle u = f admet
une infinit de solutions. Pour avoir existence et unicit, il est ncessaire davoir des conditions supplmentaires.
Si lon considre deux conditions en 0 (ou en 1, lorigine importe peu) on a ce quon appelle un problme de
Cauchy, ou problme conditions initiales. Le problme (1.5) est lui un problme aux limites : il y a une condition
pour chaque bord du domaine. En dimension suprieure, le problme u = f ncessite une condition sur au
moins un bout de frontire pour tre bien pos : voir le cours dquations aux drives partielles de master pour
plus de dtails ce propos.
On peut montrer (on ladmettra ici) quil existe une unique solution u C 2 ([0, 1], IR). On cherche calculer
u de manire approche. On va pour cela introduire la mthode de discrtisation dite par diffrences finies. Soit
n IN , on dfinit h = 1/(n + 1) le pas de discrtisation, c..d. la distance entre deux points de discrtisation,
et pour i = 0, . . . , n + 1 on dfinit les points de discrtisation xi = ih (voir Figure 1.1), qui sont les points o
lon va crire lquation u = f en vue de se ramener un systme discret, c..d. un systme avec un nombre
fini dinconnues u1 , . . . , un . Remarquons que x0 = 0 et xn+1 = 1, et quen ces points, u est spcifie par les
conditions limites (1.5b). Soit u(xi ) la valeur exacte de u en xi . On crit la premire quation de (1.5a) en chaque
point xi , pour i = 1 . . . n.
u (xi ) = f (xi ) = bi i {1 . . . n}. (1.6)
Supposons que u C 4 ([0, 1], IR) (ce qui est vrai si f C 2 ). Par dveloppement de Taylor, on a :

h2 h3 h4 (4)
u(xi+1 ) = u(xi ) + hu (xi ) + u (xi ) + u (xi ) + u (i ),
2 6 24
h2 h3 h4 (4)
u(xi1 ) = u(xi ) hu (xi ) + u (xi ) u (xi ) + u (i ),
2 6 24

Analyse numrique I, tl-enseignement, L3 11 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

avec i (xi , xi+1 ) et i (xi , xi+1 ). En sommant ces deux galits, on en dduit que :

h4 (4) h4
u(xi+1 ) + u(xi1 ) = 2u(xi ) + h2 u (xi ) + u (i ) + u(4) (i ).
24 24
On dfinit lerreur de consistance, qui mesure la manire dont on a approch u (xi ) ; lerreur de consistance Ri
au point xi est dfinie par
u(xi+1 ) + u(xi1 ) 2u(xi )
Ri = u (xi ) . (1.7)
h2
On a donc :

u(xi+1 ) + u(xi1 ) 2u(xi )

|Ri | = + u (xi )

h 2
4
h (4) h 4
u (i ) + u(4) (i )
24 24
2
h
ku(4) k . (1.8)
12
o ku(4) k = supx]0,1[ |u(4) (x)|. Cette majoration nous montre que lerreur de consistance tend vers 0 comme
h2 , et on en dit que le schma est consistant dordre 2.
On introduit alors les inconnues (ui )i=1,...,n quon espre tre des valeurs approches de u aux points xi et qui
sont les composantes de la solution (si elle existe) du systme suivant
(
ui+1 + ui1 2ui
= bi , i; 1 i n,
h2 (1.9)
u0 = un+1 = 0.

u1
..
On cherche donc u = . IR n solution de (1.9). Ce systme peut scrire sous forme matricielle :Kn u = b
un

b1
o b = ... et Kn est la matrice carre dordre n de coefficients (ki,j )i,j=1,n dfinis par :

bn
2
, i = 1, . . . , n,
ki,i
=
h2
1 (1.10)

ki,j = 2 , i = 1, . . . , n, j = i 1,
h
ki,j = 0, i = 1, . . . , n, |i j| > 1.

On remarque immdiatement que Kn est tridiagonale.


On peut montrer que Kn est symtrique dfinie positive (voir exercice 8 page 19), et elle est donc inversible Le
systme Kn u = b admet donc une unique solution. Cest bien, mais encore faut il que cette solution soit ce quon
esprait, c..d. que chaque valeur ui soit une approximation pas trop mauvaise de u(xi ). On appelle erreur de
discrtisation en xi la diffrence de ces deux valeurs :

ei = u(xi ) ui , i = 1, . . . , n. (1.11)

mSi on appelle e le vecteur de composantes ei , on dduit de la dfinition 1.11 de lerreur de consistance et des
quations (exactes) 1.6 que
Kn e = R et donc e = Kn1 R. (1.12)
Le fait que le schma soit consistant est une bonne chose, mais cela ne suffit pas montrer que le schma est
convergent, c..d. que lerreur entre maxi=1,...,n ei tend vers 0 lorsque h tend vers 0, parce que A dpend de

Analyse numrique I, tl-enseignement, L3 12 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

h ! Pour cela, il faut de plus que le schma soit stable, au sens o lon puisse montrer que kKn1 k est born
indpendamment de h, ce qui revient trouver une estimation sur les valeurs approches ui indpendante de h. La
stabilit et la convergence font lobjet de lexercice 43, o lon montre que le schma est convergent, et quon a
lestimation derreur suivante :
h2 (4)
max {|ui u(xi )|} ku k .
i=1...n 96
Cette ingalit donne la prcision de la mthode (cest une mthode dite dordre 2). On remarque en particulier
que si on raffine la discrtisation, cestdire si on augmente le nombre de points n ou, ce qui revient au mme,
si on diminue le pas de discrtisation h, on augmente la prcision avec laquelle on calcule la solution approche.

Lquation de la chaleur bidimensionnelle


Prenons maintenant le cas dune discrtisation du Laplacien sur un carr par diffrences finies. Si u est une fonction
de deux variables x et y valeurs dans IR, et si u admet des drives partielles dordre 2 en x et y, loprateur
laplacien est dfini par u = xx u + yy u. Lquation de la chaleur bidimensionnelle scrit avec cet oprateur.
On cherche rsoudre le problme :

u = f sur =]0, 1[]0, 1[,


(1.13)
u = 0 sur ,

On rappelle que loprateur Laplacien est dfini pour u C 2 (), o est un ouvert de IR 2 , par

2u 2u
u = + 2.
x2 y

Dfinissons une discrtisation uniforme du carr par les points (xi , yj ), pour i = 1, . . . , M et j = 1, . . . , M
avec xi = ih, yj = jh et h = 1/(M + 1), represente en figure 1.2 pour M = 6. On peut alors approcher les
drives secondes par des quotients diffrentiels comme dans le cas unidimensionnel (voir page 11), pour obtenir
un systme linaire : Au = b o A Mn (IR) et b IR n avec n = M 2 . Utilisons lordrelexicographique"
pour numroter les inconnues, c..d. de bas en haut et de gauche droite : les inconnues sont alors numrotes de
1 n = M 2 et le second membre scrit b = (b1 , . . . , bn )t . Les composantes b1 , . . . , bn sont dfinies par :pour
i, j = 1, . . . , M , on pose k = j + (i 1)M et bk = f (xi , yj ).
Les coefficients de A = (ak, )k,l=1,n peuvent tre calculs de la manire suivante :

Pour i, j = 1, . . . , M, on pose k = j + (i 1)M,

4



ak,k = 2,


(h 1

2 si j 6= M,

ak,k+1 = h




0 sinon,
(

1

2 si j 6= 1,

ak,k1 = h
0 sinon,
(
1

2 si i < M,

ak,k+M = h
sinon,



( 0
1


2 si i > 1,
ak,kM = h

0 sinon,







Pour k = 1, . . . , n, et = 1, . . . , n;


ak, = 0, k = 1, . . . , n, 1 < |k | < n ou |k | > n.

Analyse numrique I, tl-enseignement, L3 13 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

31 32 33 34 35 36

25 26 27 28 29 30

19 20 21 22 23 24

13 14 15 16 17 18

7 8 9 10 11 12

i=1 1 2 3 4 5 6
x
j=1

F IGURE 1.2: Ordre lexicographique des inconnues, exemple dans le cas M = 6

La matrice est donc tridiagonale par blocs, plus prcisment si on note



4 1 0 . . . . . . 0
1 4 1 0 . . . 0

.. .. .. .. ..
0
. . . . .

D= . ,
..

.. .. ..
0 . . . 1
0 ... 0 1 4

les blocs diagonaux (qui sont des matrices de dimension M M ), on a :



D Id 0 ... ... 0
Id D Id 0 ... 0

0 Id D Id 0

A= .. .. .. .. .. , .. (1.14)
.
. . . .
.
..
0 . Id D Id
0 ... 0 Id D

o Id dsigne la matrice identit dordre M .

Matrices monotones, ou inverse positive Une proprit qui revient souvent dans ltude des matrices issues
de la discrtisation dquations diffrentielles est le fait que si leur action sur un vecteur u donne un vecteur positif
v (composante par composante) alors le vecteur u de dpart doit tre positif (composante par composante) ; on dit
souvent que la matrice est monotone, ce qui nest pas un terme trs evocateuri. . . Dans ce cours, on lui prferera
le terme inverse positive ; en effet, on montre la proposition quune matrice A est monotone si et seulement
si elle inversible et inverse positive.

Analyse numrique I, tl-enseignement, L3 14 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Dfinition 1.8 (IP-matrice ou matrice monotone). Si x IR n , on dit que x 0 [resp. x > 0] si toutes les
composantes de x sont positives [resp. strictement positives].
Soit A Mn (IR), on dit que A est une matrice monotone si elle vrifie la proprit suivante :

Si x IR n est tel que Ax 0, alors x 0,

ce qui peut encore scrire : {x IR n t.q. Ax 0} {x IR n t.q. x 0}.

Proposition 1.9 (Caractrisation des matrices monotones). Une matrice A est monotone si et seulement si elle
inversible et inverse positive (c..d. dont tous les coefficients sont positifs).
La dmonstration de ce rsultat est lobjet de lexercice 6. Retenez que toute matrice monotone est inversible et
dinverse positive que cette proprit de monotonie est utilise pour tablir une borne de kA1 k pour la matrice
de discrtisation du Laplacien, dont on a besoin pour montrer la convergence du schma. Cest donc une proprit
qui est importante au niveau de lanalyse numrique.

1.2.3 Exercices
Exercice 1 (Vrai ou faux ? Motiver les rponses. . . ).
On suppose dans toutes les questions suivantes que n 2.
1. Soit Z IR n un vecteur non nul. La matrice ZZ t est inversible.
2. La matrice inverse dune matrice triangulaire infrieure est triangulaire suprieure.
3. Les valeurs propres sont les racines du polynme caractristique.
4. Toute matrice inversible est diagonalisable dans IR.
5. Toute matrice inversible est diagonalisable dans Cl.
6. Le dterminant dune matrice A est gal au produit de ses valeurs propres.
7. Soit A une matrice carre telle que Ax = 0 = x = 0, alors A est inversible.
8. Soit A une matrice carre telle que Ax 0 = x 0, alors A est inversible.
9. Une matrice symtrique est inversible.
10. Une matrice symtrique dfinie positive est inversible.
Exercice 2 (Sur quelques notions connues).
1. Soit A une matrice carre dordre n et b IR 3 . Peut il exister exactement deux solutions distinctes au
systme Ax = b ?
2. Soient A, B et C de dimensions telles que AB et BC existent. Montrer que si AB = Id et BC = Id,
alors A = C.
3. Combien y a -til de matrices carres dordre 2 ne comportant que des 1 ou des 0 comme coefficients ?
Combien dentre
 elles
 sont inversibles ?
3 2
4. Soit B = . Montrer que B 1024 = Id.
5 3
Exercice 3 (La matrice K3 ). Soit f C([0, 1], IR). On cherche u tel que

u (x) = f (x), x (0, 1), (1.15a)


u(0) = u(1) = 0. (1.15b)

Analyse numrique I, tl-enseignement, L3 15 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

1. Calculer la solution exacte u(x) du problme lorsque f est la fonction identiquement gale 1 (on admettra
que cette solution est unique), et vrifier que u(x) 0 pour tout x [0, 1].
1
On discrtise le problme suivant par diffrences finies, avec un pas h = 4 avec la technique vue en cours.

2. A laide de dvloppements de Taylor, crire lapproximation de u (xi ) au deuxime ordre en fonction de
u(xi ), u(xi1 ) et u(xi+1 ). En dduire le schma aux diffrences finies pour lapproximation de (1.15),
quon crira sous la forme :
K3 u = b, (1.16)

u1 b1 f (x1 )
o K3 est la matrice de discrtisation quon explicitera, u = u2 et b = b2 = f (x2 ) .
u3 b3 f (x3 )
3. Rsoudre le systme linaire (1.16) par la mthode de Gauss. Comparer ui et u(xi ) pour i = 1, 2, 3, et
expliquer pourquoi lerreur de discrtisation u(xi ) ui est nulle.
4. Reprendre les questions prcdentes en remplaant les conditions limites (1.15b) par :

u(0) = 0, u (1) = 0. (1.17)

5. Soit c IR. On considre maintenant le problme suivant :

u (x) = c, x (0, 1), (1.18a)



u (0) = u (1) = 0, (1.18b)

(a) Montrer que le problme (1.18) admet soit une infinit de solution, soit pas de solution.
e 3u = e
(b) Ecrire la discrtisation du problme (1.18), toujours avec h = 14 , sous la forme K b en explicitant
e e
K3 et b.
(c) Montrer que la matrice K e 3 nest pas inversible : on part dun problme continu mal pos, et on obtient
par discrtisation un problme discret mal pos. . .
Exercice 4 (Matrices symtriques dfinies positives). Suggestions en page 19, corrig en page 19. On rappelle que
toute matrice A Mn (IR) symtrique est diagonalisable dans IR (cf. lemme 1.6 page 9). Plus prcisment, on a
montr en cours que, si A Mn (IR) est une matrice symtrique, il existe une base de IR n , note {f 1 , . . . , f n },
et il existe 1 , . . . , n IR t.q. Af i = i f i , pour tout i {1, . . . , n}, et f i f j = i,j pour tout i, j {1, . . . , n}
(x y dsigne le produit scalaire de x avec y dans IR n ).
1. Soit A Mn (IR). On suppose que A est symtrique dfinie positive, montrer que les lments diagonaux
de A sont strictements positifs.
2. Soit A Mn (IR) une matrice symtrique. Montrer que A est symtrique dfinie positive si et seulement si
toutes les valeurs propres de A sont strictement positives.
3. Soit A Mn (IR). On suppose que A est symtrique dfinie positive. Montrer quon peut dfinir une
1
unique matrice B Mn (IR), symtrique dfinie positive t.q. B 2 = A (on note B = A 2 ).
Exercice 5 (Diagonalisation dans IR ).
Soit E un espace vectoriel rel de dimension n IN muni dun produit scalaire, not (, ). Soient T et S deux
applications linaires symtriques de E dans E (T symtrique signifie (T x, y) = (x, T y) pour tous x, y E). On
suppose que T est dfinie positive (cest--dire (T x, x) > 0 pour tout x E \ {0}).
1. Montrer que T est inversible. Pour x, y E, on pose (x, y)T = (T x, y). Montrer que lapplication
(x, y) 7 (x, y)T dfinit un nouveau produit scalaire sur E.
2. Montrer que T 1 S est symtrique pour le produit scalaire dfini la question prcdente. En dduire, avec
le lemme 1.6 page 9, quil existe une base de E, note {f 1 , . . . , f n } et une famille {1 , . . . , n } IR
telles que T 1 Sf i = i f i pour tout i {1, . . . , n} et t.q. (T f i , f j ) = i,j pour tout i, j {1, . . . , n}.

Analyse numrique I, tl-enseignement, L3 16 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Exercice 6 (IP-matrice). Corrig en page 21


Soit n IN , on note Mn (IR) lensemble des matrices de n lignes et n colonnes et coefficients rels. Si x IR n ,
on dit que x 0 [resp. x > 0] si toutes les composantes de x sont positives [resp. strictement positives].
Soit A Mn (IR), on dit que A est une IP-matrice si elle vrifie la proprit suivante :

Si x IR n est tel que Ax 0, alors x 0,

ce qui peut encore scrire : {x IR n t.q. Ax 0} {x IR n t.q. x 0}.


1. Soit A = (ai,j )i,j=1,...,n Mn (IR). Montrer que A est une IP-matrice si et seulement si A est inversible et
A1 0 (cest--dire que tous les coefficients de A1 sont positifs).
 
a b
2. Soit A = une matrice relle dordre 2. Montrer que A est une IP-matrice si et seulement si :
c d

ad < bc, ad > bc,
a < 0, d < 0 ou a > 0, d > 0, (1.19)

b 0, c 0 b 0, c 0.

3. Montrer que si A Mn (IR) est une IP-matrice alors At (la transpose de A) est une IP-matrice.
4. Montrer que si A est telle que

ai,j 0, pour tout i, j = 1, . . . , n, i 6= j,


Xn
ai,i > |ai,j |, pour tout i = 1, . . . , n, (1.20)
j=1
j6=i

alors A est une IP-matrice.


5. En dduire que si A est telle que

ai,j 0, pour tout i, j = 1, . . . , n, i 6= j,


Xn
ai,i > |aj,i |, pour tout i = 1, . . . , n, (1.21)
j=1
j6=k

alors A est une IP-matrice.


6. Montrer que si A Mn (IR) est une IP-matrice et si x IR n alors :

Ax > 0 x > 0.

cest--dire que {x IR n t.q. Ax > 0} {x IR n t.q. x > 0}


7. Montrer, en donnant un exemple, quune matrice A de Mn (IR) peut vrifier {x IR n t.q. Ax > 0} {x IR n
t.q. x > 0} et ne pas tre une IP-matrice.
8. On suppose dans cette question que A Mn (IR) est inversible et que {x IR n t.q. Ax > 0} {x IR n t.q.
x > 0}. Montrer que A est une IP-matrice.
9. (Question plus difficile) Soit E lespace des fonctions continues sur IR et admettant la mme limite finie en
+ et . Soit L(E) lensemble des applications linaires continues de E dans E. Pour f E, on dit que
f > 0 (resp. f 0) si f (x) > 0 (resp. f (x) 0) pour tout x IR. Montrer quil existe T L(E) tel que
T f 0 = f 0, et g E tel que T g > 0 et g 6> 0 (ceci dmontre que le raisonnement utilis en 2 (b) ne
marche pas en dimension infinie).
Exercice 7 (M-matrice).

Analyse numrique I, tl-enseignement, L3 17 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Dans ce qui suit, toutes les ingalits crites sur des vecteurs ou des matrices sont entendre au sens composante
par composante.
Soit A = (ai,j )i,j=1,...,n une matrice carre dordre n. On dit que A est une M -matrice si A est une IP-matrice (A
est inversible et A1 0, voir exercice 6) qui vrifie de plus
(a) ai,i > 0 pour i = 1, . . . , n ;
(b) ai,j 0 pour i, j = 1, . . . , n, i 6= j ;
1. Soit A uneIP-matrice
 ; montrer que A est une M -matrice si et seulement si la proprit (b) est vrifie.
a b
2. Soit A = une matrice relle dordre 2. Montrer que A est une M-matrice si et seulement si :
c d

ad > bc,
a > 0, d > 0, (1.22)

b 0, c 0.
   
1 2 2 1
3. Les matrices A = et B = sont-elles des IP-matrices ? des M-matrices ?
2 1 1 2
4. Soit A la matrice carre dordre 3 dfinie par :
1

2 1 2
A= 0 1 1
1 0 1
Montrer que A1 0 mais que A nest pas une M matrice.
5. Soit A une matrice carre dordre n = m + p, avec m, p IN tels que m 1 et p 1, vrifiant :

ai,i 0,

ai,j 0, pour j = 1, . . . , n, j 6= i,


Xn
pour i = 1, . . . , m, (1.23)
ai,i + ai,j = 0



j=1
j6=i

ai,i = 1,
pour i = m + 1, . . . , n. (1.24)
ai,j = 0, pour j = 1, . . . , n, j 6= i,

i m, (k )=1,...,Li ; k1 = i, kLi > m, et ak ,k+1 < 0, = 1, . . . , Li . (1.25)


n
Soit b IR tel que bi = 0 pour i = 1, . . . , m. On considre le systme linaire
Au = b (1.26)

5.1 Montrer que le systme (1.26) admet une et une seule solution.
5.2 Montrer que u est tel que mink=m+1,n bk ui maxk=m+1,n bk . (On pourra pour simplifier supposer que
les quations sont numrotes de telle sorte que mink=m+1,n bk = bm+2 b2 . . . bn = maxk=m+1,n bk .)
6. On considre le problme de Dirichlet suivant :
u = 0 sur [0, 1] (1.27a)
u(0) = 1 (1.27b)
u(1) = 1. (1.27c)

6.1 Calculer la solution exacte u de ce problme et vrifier quelle reste comprise entre -1 et 1.
6.2 Soit m > 1 et soient A et b et la matrice et le second membre du systme linaire dordre n = m+ 2 obtenu par
1
discrtisation par diffrences finies avec un pas uniforme h = m du problme (1.27) (en crivant les conditions
aux limites dans le systme). Montrer que la solution u = (u1 , . . . , un )t IR n du systme Au = b vrifie
1 ui 1.

Analyse numrique I, tl-enseignement, L3 18 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Exercice 8 (Matrice du Laplacien discret 1D). Corrig dtaill en page 20.


Soit f C([0, 1]). Soit n IN , n impair. On pose h = 1/(n + 1). Soit Kn la matrice dfinie par (1.10) page 12,
issue dune discrtisation par diffrences finies avec pas constant du problme (1.5a) page 11.
Montrer que Kn est symtrique dfinie positive.
Exercice 9 (Pas non constant). Reprendre la discrtisation vue en cours avec un pas hi = xi+1 xi non constant,
et montrer que dans ce cas,le schma est consistant dordre 1 seulement.
Exercice 10 (Raction diffusion 1d.). Corrig dtaill en page 20. On sintresse la discrtisation par Diffren-
ces Finies du problme aux limites suivant :

u (x) + u(x) = f (x), x ]0, 1[,


(1.28)
u(0) = u(1) = 0.

Soit n IN . On note U = (uj )j=1,...,n une valeur approche de la solution u du problme (1.28) aux points
 
j
n+1 . Donner la discrtisation par diffrences finies de ce problme sous la forme AU = b.
j=1,...,n

Exercice 11 (Discrtisation).
On considre la discrtisation pas constant par le schma aux diffrences finies symtrique trois points du
problme (1.5a) page 11, avec f C([0, 1]). Soit n IN , n impair. On pose h = 1/(n + 1). On note u est
la solution exacte, xi = ih, pour i = 1, . . . , n les points de discrtisation, et (ui )i=1,...,n la solution du systme
discrtis (1.9).
1. Montrer que si u C 4 ([0, 1], alors la proprit (1.7) est vrifie, c..d. :

u(xi+1 ) + u(xi1 ) 2u(xi ) h2 (4)


= u (xi ) + Ri avec |Ri | ku k .
h2 12
2. Montrer que si f est constante, alors

max |ui u(xi )| = 0.


1in

.
3. Soit n fix, et max |ui u(xi )| = 0. A-t-on forcment que f est constante sur [0, 1] ? (justifier la rponse.)
1in

1.2.4 Suggestions pour les exercices


Exercice 4 page 16 (Matrices symtriques dfinies positives)
3. Utiliser la diagonalisation sur les oprateurs linaires associs.

1.2.5 Corrigs des exercices


Exercice 4 page 16 (Matrices symtriques dfinies positives)
1. Supposons quil existe un lment diagonal ai,i ngatif. Alors Aei ei 0 ce qui contredit le fait que A est
dfinie positive.
Pn
2. Soit x IR n , dcomposons x sur la base orthonorme (f i )i=1,n : x = i=1 xi f i . On a donc :
n
X
Ax x = i x2i . (1.29)
i=1

Montrons dabord que si les valeurs propres sont strictement positives alors A est dfinie positive :

Analyse numrique I, tl-enseignement, L3 19 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Supposons que i 0, i = 1, . . . , n. Alors pour x IR n , daprs (1.29), Ax x 0 et la matrice A


est positive. Supposons maintenant que i > 0, i = 1, . . . , n. Alors pour x IR n , toujours daprs (1.29),
(Ax x = 0) (x = 0), et la matrice A est donc bien dfinie.

Montrons maintenant la rciproque : si A est dfinie positive, alors Af i f i > 0, i = 1, . . . , n et donc i > 0,
i = 1, . . . , n.

3. Comme A est s.d.p., toutes ses valeurs propres sont strictement


positives, et on peut donc dfinir lapplication
linaire S dans la base orthonorme (fi )i=1,n par : S(f i ) = i f i , i = 1, . . . , n. On a videmment S S = T ,
et donc si on dsigne par B la matrice reprsentative de lapplication S dans la base canonique, on a bien B 2 = A.

Exercice 8 page 19 (Matrice du laplacien discret 1D.)


Il est clair que la matrice A est symtrique.
Pour montrer que A est dfinie positive (car A est videmment symtrique), on peut procder de plusieurs faons :
1. Par chelonnement :
2. Par les valeurs propres :Les valeurs propres sont calcules lexercice 41 ; elles sont de la forme :
2 2 k
(1 cos kh) = 2 (1 cos
k = ), k = 1, . . . , n,
h2 h n+1
et elles sont donc toutes strictement positives ; de ce fait, la matrice est symtrique dfinie positive (voir
exercice 4).
3. Par la forme quadratique associe : on montre que Ax x > 0 si x 6= 0 et Ax x = 0 ssi x = 0. En effet,
on a " #
n1
X
1 2
Ax x = 2 x1 (2x1 x2 ) + xi (xi1 + 2xi xi+1 ) + 2xn xn1 xn
h i=2
On a donc
n1
X n
 X
h2 Ax x = 2x21 x1 x2 xi xi1 + 2x2i xi xi1 + 2x2n xn1 xn
i=2 i=3
n
X n
X n
X
= x2i + x21i + x2n 2 xi xi1
i=1 i=2 i=1
Xn
= (xi xi1 )2 + x21 + x2n 0.
i=2

De plus, Ax x = 0 x21 = xn = 0 et xi = xi1 pour i = 2 n, donc x = 0.

Exercice 10 page 19 (Raction diffusion 1D.)


La discrtisation du probllme consiste chercher U comme solution du systme linaire
 
j
AU = f ( )
N + 1 j=1,...,n
o la matrice A Mn (IR) est dfinie par A = (N + 1)2 Kn + Id, Id dsigne la matrice identit et

2 1 0 . . . 0
..
1 2 1 . . .

.

. .. . .. . ..
Kn = 0 0

. ..
.. . 1 2 1
0 . . . 0 1 2

Analyse numrique I, tl-enseignement, L3 20 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.2. POURQUOI ET COMMENT ? CHAPITRE 1. SYSTMES LINAIRES

Exercice 6 page 17 (IP-matrice)


1. Supposons dabord que A est inversible et que A1 0 ; soit x IR n tel que b = Ax 0. On a donc
x = A1 b, et comme tous les coefficients de A1 et de b sont positifs ou nuls, on a bien x 0.
Rciproquement, si A est une IP-matrice, alors Ax = 0 entraine x = 0 ce qui montre que A est inversible.
Soit ei le i-me vecteur de la base canonique de IR n , on a : AA1 ei = ei 0, et donc par la proprit de
IP-matrice, A1 ei 0, ce qui montre que tous les coefficients de A1 sont positifs.
 
1 d b
2. La matrice inverse de A est A =
1
avec = ad bc. Les coefficients de A1 sont donc
c a
positifs ou nuls si et seulement si

ad < bc, ad > bc,
a 0, d 0 ou a 0, d 0,

b 0, c 0 b 0, c 0.
Or on a forcment ad 6= 0 : en effet sinon on aurait dans le premier cas) bc < 0, or b 0 et c 0, ce
qui aboutit une contradiction. De mme dans le deuxime cas, on aurait bc > 0, or b 0 et c 0. Les
conditions prcdentes sont donc quivalentes aux conditions (1.19).
3. La matrice At est une IP-matrice si et seulement At est inversible et (At )1 0. Or (At )1 = (A1 )t .
Do lquivalence.
4. Supposons que A vrifie (1.20), et soit x IR n tel que Ax 0. Soit k 1, . . . , n tel que xk = min{xi , i =
1, . . . , n}. Alors
n
X
(Ax)k = ak,k xk + ak,j xj 0.
j=1
j6=k

Par hypothse, ak,j 0 pour k 6= j, et donc ak,j = |ak,j |. On peut donc crire :
n
X
ak,k xk |ak,j |xj 0,
j=1
j6=k

et donc :
n
X n
X
(ak,k |ak,j |)xk |ak,j |(xj xk ).
j=1 j=1
j6=k j6=k

Comme xk = min{xi , i = 1, . . . , n}, on en dduit que le second membre de cette ingalit est positif ou
nul, et donc que xk 0. On a donc x 0.
5. Si la matrice A vrifie (1.21), alors la matrice At vrifie (1.20). On en dduit par les questions prcdentes
que At et A sont des IP-matrices.
6. Soit 1 le vecteur de IR n dont toutes les composantes sont gales 1. Si Ax > 0, comme lespace IR n est
de dimension finie, il existe > 0 tel que Ax 1. Soit z = A1 1 0 ; on a alors A(x z) 0 et donc
x z, car A est une IP-matrice.
Montrons maintenant que z > 0 : tous les coefficients de A1 sont positifs ou nuls et au moins
Pn lun dentre
eux est non nul par ligne (puisque la matrice A1 est inversible). On en dduit que zi = i=1 (A1 )i,j >
0 pour tout i = 1, . . . , n. On a donc bien x z > 0.
7. Soit A la matrice nulle, on a alors {x IR n t.q. Ax > 0} = , et donc {x IR n t.q. Ax > 0} {x IR n
t.q. x > 0}. Pourtant A nest pas inversible, et nest donc pas une IP-matrice.
8. Soit x tel que Ax 0, alors il existe 0 tel que Ax + 1 0. Soit maintenant b = A1 1 ; on a
A(x + b) > 0 et donc x + b > 0. En faisant tendre vers 0, on en dduit que x 0.

Analyse numrique I, tl-enseignement, L3 21 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

9. Soit T L(E) dfini par f E 7 T f , avec T f (x) = f ( x1 ) si x 6= 0 et f (0) = , avec = lim f . On


vrifie facilement que T f E. Si T f 0, alors f ( x1 ) 0 pour tout x IR ; donc f (x) 0 pour tout
x IR \ {0} ; on en dduit que f (0) 0 par continuit. On a donc bien f 0.
Soit maintenant g dfinie de IR dans IR par g(x) = | arctan x|. On a g(0) = 0, donc g 6> 0. Or T g(0) = 2
et T g(x) = | arctan x1 | > 0 si x > 0, donc T g > 0.

1.3 Les mthodes directes


1.3.1 Dfinition

Dfinition 1.10 (Mthode directe). On appelle mthode directe de rsolution de (1.1) une mthode qui donne
exactement x (A et b tant connus) solution de (1.1) aprs un nombre fini doprations lmentaires (+, , , /).

Parmi les mthodes de rsolution du systme (1.1), la plus connue est la mthode de Gauss (avec pivot), encore
appele mthode dchelonnement ou mthode LU dans sa forme matricielle.
Nous rappelons la mthode de Gauss et sa rcriture matricielle qui donne la mthode LU et nous tudierons plus
en dtails la mthode de Choleski, qui est adapte aux matrices symtriques.

1.3.2 Mthode de Gauss, mthode LU


Soit A Mn (IR) une matrice inversible, et b IR n . On cherche calculer x IR n tel que Ax = b. Le principe
de la mthode de Gauss est de se ramener, par des oprations simples (combinaisons linaires), un systme
triangulaire quivalent, qui sera donc facile inverser.
Commenons par un exemple pour une matrice 3 3. Nous donnerons ensuite la mthode pour une matrice n n.

Un exemple 3 3
On considre le systme Ax = b, avec

1 0 1 2
A= 0 2 1 b = 1 .
1 1 2 2
On crit la matrice augmente, constitue de la matrice A et du second membre b.

  1 0 1 2
A = A b = 0 2 1 1 .
1 1 2 2

Gauss et oprations matricielles Allons y pour Gauss :


La premire ligne a un 1 en premire position (en gras dans la matrice), ce coefficient est non nul, et cest un pivot.
On va pouvoir diviser toute la premire ligne par ce nombre pour en soustraire un multiple toutes les lignes
daprs, dans le but de faire apparatre des 0 dans tout le bas de la colonne.
La deuxime quation a dj un 0 dessous, donc on na rien besoin de faire. On veut ensuite annuler le premier
coefficient de la troisime ligne. On retranche donc (-1) fois la premire ligne la troisime 3 :

1 0 1 2 1 0 1 2
3 to3 +1
0 2 1 1 0 2 1 1
1 1 2 2 0 1 1 0
3. Bien sr, ceci revient ajouter la premire ligne ! Il est cependant prfrable de parler systmatiquement de retrancher quitte utiliser
un coefficient ngatif, car cest ce quon fait conceptuellement : pour llimination on enlve un multiple de la ligne du pivot la ligne courante.

Analyse numrique I, tl-enseignement, L3 22 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES


1 0 0
Ceci revient multiplier A gauche par la matrice E1 = 0 1 0 .
1 0 1
La deuxime ligne a un terme non nul en deuxime position (2) : cest un pivot. On va maintenant annuler le
deuxime terme de la troisime ligne ; pour cela, on retranche 1/2 fois la ligne 2 la ligne 3 :

1 1 1 2 1 0 1 2
3 3 1/22
0 2 1 1 0 2 1 1 .
0 1 1 0 0 0 2 21
1


1 0 0
Ceci revient multiplier la matrice prcdente gauche par la matrice E2 = 0 1 0 . On a ici obtenu une
0 12 1
matrice sous forme triangulaire suprieure trois pivots : on peut donc faire la remonte pour obtenir la solution
du systme, et on obtient (en notant xi les composantes de x) : x3 = 1 puis x2 = 1 et enfin x1 = 1.
On a ainsi rsolu le systme linaire.
On rappelle que le fait de travailler sur la matrice augmente est extrmement pratique car il permet de travailler
simultanment sur les coefficients du systme linaire et sur le second membre.
Finalement, au moyen des oprations dcrites ci-dessus, on a transform le systme linaire

Ax = b en U x = E2 E1 b, o U = E2 E1 A

est une matrice triangulaire suprieure.

Factorisation LU Tout va donc trs bien pour ce systme, mais supposons maintenant quon ait rsoudre
3089 systmes, avec la mme matrice A mais 3089 seconds membres b diffrents 4 . Il serait un peu dommage
de recommencer les oprations ci-dessus 3089 fois, alors quon peut en viter une bonne partie. Comment faire ?
Lide est de factoriser la matrice A, c..d de lcrire comme un produit A = LU , o L est triangulaire infrieure
(lower triangular) et U triangulaire suprieure (upper triangular). On reformule alors le systme Ax = b sous la
forme LU x = b et on rsout maintenant deux systmes faciles rsoudre car triangulaires : Ly = b et U x = y.
La factorisation LU de la matrice dcoule immdiatement de lalgorithme de Gauss. Voyons comment sur lexemple
prcdent.
1/ On remarque que U = E2 E1 A peut aussi scrire A = LU , avec L = (E2 E1 )1 .
2/ On sait que (E2 E1 )1 = (E1 )1 (E2 )1 .
3/ Les matrices inverses E11 et E21 sont faciles dterminer : comme E2 consiste retrancher 1/2 fois la ligne 2
la ligne 3, lopration inverse consiste ajouter 1/2 fois la ligne 2 la ligne 3, et donc

1 0 0
E21 = 0 1 0 .
0 21 1

1 0 0 1 0 0
Il est facile de voir que E11 = 0 1 0 et donc L = E11 E21 = 0 1 0 .
1 0 1 1 21 1
La matrice L est une matrice triangulaire infrieure (et cest dailleurs pour cela quon lappelle L, pour lower
in English...) dont les coefficients sont particulirement simples trouver : les termes diagonaux sont tous gaux
un, et chaque terme non nul sous-diagonal i,j est gal au coefficient par lequel on a multipli la ligne pivot
i avant de la retrancher la ligne j.
4/ On a bien donc A = LU avec L triangulaire infrieure (lower triangular) et U triangulaire suprieure (upper
triangular).
4. Ceci est courant dans les applications. Par exemple on peut vouloir calculer la rponse dune structure de gnie civil 3089 chargements
diffrents.

Analyse numrique I, tl-enseignement, L3 23 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

(1) (1)
a1,1 a1,N
0

(i+1)
A(i+1) = 0 ai+1,i+1
(i+1)
ai+2,i+1

(i+1) (i+1)
0 0 aN,i+1 aN,N

F IGURE 1.3: Allure de la matrice de Gauss ltape i + 1

La procdure quon vient dexpliquer sappelle mthode LU pour la rsolution des systmes linaires, et elle
est dune importance considrable dans les sciences de lingnieur, puisquelle est utilise dans les programmes
informatiques pour la rsolution des systmes linaires.
Dans lexemple que nous avons tudi, tout se passait trs bien car nous navons pas eu de zro en position pivotale.
Si on a un zro en position pivotale, la factorisation peut quand mme se faire, mais au prix dune permutation.
Le rsultat gnral que lon peut dmontrer est que si la matrice A est inversible, alors il existe une matrice de
permutation P , une matrice triangulaire infrieure L et une matrice triangulaire suprieure U telles que P A = LU :
voir le thorme 1.19.

Le cas gnral dune matrice n n


De manire plus gnrale, pour une matrice A carre dordre n, la mthode de Gauss scrit :
On pose A(1) = A et b(1) = b. Pour i = 1, . . . , n 1, on cherche calculer A(i+1) et b(i+1) tels que les
systmes A(i) x = b(i) et A(i+1) x = b(i+1) soient quivalents, o A(i+1) est une matrice dont les coefficients
sous-diagonaux des colonnes 1 i sont tous nuls, voir figure 1.3 :
Une fois la matrice A(n) (triangulaire suprieure) et le vecteur b(n) calculs, il sera facile de rsoudre le systme
A(n) x = b(n) . Le calcul de A(n) est ltape de factorisation", le calcul de b(n) ltape de descente", et le calcul
de x ltape de remonte". Donnons les dtails de ces trois tapes.

Etape de factorisation et descente Pour passer de la matrice A(i) la matrice A(i+1) , on va effectuer des
combinaisons linaires entre lignes qui permettront dannuler les coefficients de la i-me colonne situs en dessous
de la ligne i (dans le but de se rapprocher dune matrice triangulaire suprieure). Evidemment, lorsquon fait ceci,
il faut galement modifier le second membre b en consquence. Ltape de factorisation et descente scrit donc :
(i+1) (i) (i+1) (i)
1. Pour k i et pour j = 1, . . . , n, on pose ak,j = ak,j et bk = bk .
(i)
2. Pour k > i, si ai,i 6= 0, on pose :

(i)
(i+1) (i) ak,i (i)
ak,j = ak,j (i)
ai,j , pour k = j, . . . , n, (1.30)
ai,i
(i)
(i+1) (i) ak,i (i)
bk = bk b .
(i) i
(1.31)
ai,i

La matrice A(i+1) est de la forme donne sur la figure 1.3. Remarquons que le systme A(i+1) x = b(i+1) est bien
quivalent au systme A(i) x = b(i) .
(i)
Si la condition ai,i 6= 0 est vrifie pour i = 1 n, on obtient par le procd de calcul ci-dessus un systme linaire
A(n) x = b(n) quivalent au systme Ax = b, avec une matrice A(n) triangulaire suprieure facile inverser. On

Analyse numrique I, tl-enseignement, L3 24 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

(i)
verra un peu plus loin les techniques de pivot qui permettent de rgler le cas o la condition ai,i 6= 0 nest pas
vrifie.

Etape de remonte Il reste rsoudre le systme A(n) x = b(n) . Ceci est une tape facile. Comme A(n) est une
(i)
matrice inversible, on a ai,i 6= 0 pour tout i = 1, . . . , n, et comme A(n) est une matrice triangulaire suprieure, on
peut donc calculer les composantes de x en remontant", cestdire de la composante xn la composante x1 :

(n)
bn
xn = (n)
,
an,n

1 (i) X (n)
xi = (n) b ai,j xj , i = n 1, . . . , 1.
ai,i j=i+1,n

Il est important de savoir mettre sous forme algorithmique les oprations que nous venons de dcrire : cest ltape
clef avant lcriture dun programme informatique qui nous permettra de faire faire le boulot par lordinateur !
Algorithme 1.11 (Gauss sans permutation).
1. (Factorisation et descente)
Pour i allant de 1 n, on effectue les calculs suivants :
(a) On ne change pas la i-me ligne (qui est la ligne du pivot)
ui,j = ai,j pour j = i, . . . , n,
yi = bi
(b) On calcule les lignes i + 1 n de U et le second membre y en utilisant la ligne i.
Pour k allant de i + 1 n :
a
k,i = ak,i
i,i
(si ai,i = 0, prendre la mthode avec pivot partiel)
pour j allant de i + 1 n,
uk,j = ak,j k,i ui,j (noter que ak,i = 0)
Fin pour
yk = bk k,i yi
Fin pour
2. (Remonte) On calcule x :
yn
xn =
un,n
Pour i allant de n 1 1,
xi = yi
Pour j allant de i + 1 n,
xi = xi ui,j xj
Fin pour
1
xi = xi
ui,i
Fin pour

Cot de la mthode de Gauss (nombre doprations) On peut montrer (on fera le calcul de manire dtaille
pour la mthode de Choleski dans la section suivante, le calcul pour Gauss est similaire) que le nombre doprations
ncessaires nG pour effectuer les tapes de factorisation, descente et remonte est 23 n3 + O(n2 ) ; on rappelle
quune fonction f de IN dans IN est O(n2 ) veut dire qui existe un rel constant C tel que f (n) Cn2 . On a donc
limn+ nnG3 = 32 : lorsque n est grand, le nombre doprations se comporte comme n3 .
En ce qui concerne la place mmoire, on peut trs bien stocker les itrs A(i) dans la matrice A de dpart, ce quon
na pas voulu faire dans le calcul prcdent, par souci de clart.

Analyse numrique I, tl-enseignement, L3 25 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Dcomposition LU Si le systme Ax = b doit tre rsolu pour plusieurs second membres b, on a dj dit quon
a intrt ne faire ltape de factorisation (i.e. le calcul de A(n) ), quune seule fois, alors que les tapes de descente
et remonte (i.e. le calcul de b(n) et x) seront faits pour chaque vecteur b. Ltape de factorisation peut se faire en
dcomposant la matrice A sous la forme LU . Supposons toujours pour linstant que lors de lalgorithme de Gauss,
(i)
(i) ak,i
la condition ai,i 6= 0 est vrifie pour tout i = 1, . . . , n. La matrice L a comme coefficients k,i = (i) pour k > i,
ai,i
i,i = 1 pour tout i = 1, . . . , n, et i,j = 0 pour j > i, et la matrice U est gale la matrice A(n) . On peut vrifier
que A = LU grce au fait que le systme A(n) x = b(n) est quivalent au systme Ax = b. En effet, comme
A(n) x = b(n) et b(n) = L1 b, on en dduit que LU x = b, et comme A et LU sont inversibles, on en dduit que
A1 b = (LU )1 b pour tout b IR n . Ceci dmontre que A = LU. La mthode LU se dduit donc de la mthode
de Gauss en remarquant simplement que, ayant conserv la matrice L, on peut effectuer les calculs sur b aprs les
calculs sur A, ce qui donne :
Algorithme 1.12 (LU simple (sans permutation)).
1. (Factorisation) Pour i allant de 1 n, on effectue les calculs suivants :
(a) On ne change pas la i-me ligne
ui,j = ai,j pour j = i, . . . , n,
(b) On calcule les lignes i + 1 n de U en utilisant la ligne i (mais pas le second membre).
Pour k allant de i + 1 n :
a
k,i = ak,i
i,i
(si ai,i = 0, prendre la mthode avec pivot partiel)
pour j allant de i + 1 n,
uk,j = ak,j k,i ui,j (noter que ak,i = 0)
Fin pour
2. (Descente) On calcule y (avec Ly = b)
Pour i allant de 1 n,
Pi1
yi = bi k=1 i,k yk (on a ainsi implicitement i,i = 1)
3. (Remonte) On calcule x (avec U x = y)
Pour i allant de n 1,
Pn
xi = u1i,i (yi j=i+1 ui,j xj )

Remarque 1.13 (Optimisation mmoire). Lintroduction des matrices L et U et des vecteurs y et x nest pas
ncessaire (tout peut scrire avec la matrice A et le vecteur b, que lon modifie au cours de lalgorithme). Lin-
troduction de L, U , x et y peut toutefois aider comprendre la mthode. Le principe retenu est que, dans les
algorithmes (Gauss ou LU), on modifie la matrice A et le second membre b (en remplaant le systme rsoudre
par un systme quivalent) mais on ne modifie jamais L, U , y et x (qui sont dfinis au cours de lalgorithme).
Nous allons maintenant donner une condition ncessaire et suffisante (CNS) pour quune matrice A admette une
dcomposition LU avec U inversible et sans permutation. Commenons par un petit lemme technique qui va nous
permettre de prouver cette CNS.
Lemme 1.14 (Dcomposition LU de la matrice principale dordre k). Soit n IN, A Mn (IR) et k
{1, . . . , N }. On appelle matrice principale dordre k de A la matrice Ak Mk (IR) dfinie par (Ak )i,j = ai,j
pour i = 1, . . . , k et j = 1, . . . , k. On suppose quil existe une matrice Lk Mk (IR) triangulaire infrieure de
coefficients diagonaux tous gaux 1 et une matrice triangulaire suprieure Uk Mk (IR) inversible, telles que
Ak = Lk Uk . Alors A scrit sous la forme par blocs suivante :

Lk 0k(nk) Uk Bk
A= , (1.32)
Ck Idnk 0(nk)k Dk

Analyse numrique I, tl-enseignement, L3 26 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

o 0p,q dsigne la matrince nulle de dimension p q, Bk Mk,nk (IR) et Ck Mnk,k (IR) et Dk


Mnk,nk (IR) ; de plus, la matrice principale dordre k + 1 scrit sous la forme

Lk 01k Uk bk
Ak+1 = (1.33)
ck 1 0k1 dk
o b Mk,1 (IR) est la premire colonne de la matrice Bk , ck M1,k est la premire ligne de la matrice Ck , et
dk est le coefficient de la ligne 1 et colonne 1 de Dk .

D MONSTRATION On crit la dcomposition par blocs de A :



Ak Ek
A= ,
Fk Gk
avec Ak Mk (IR), Ek Mk,nk (IR), Fk Mnk,k (IR) et Gk Mnk,nk (IR). Par hypothse, on a Ak = Lk Uk .
De plus Lk et Uk sont inversibles, et il existe donc une unique matrice Bk Mk (IR) (resp. Ck Mk (IR)) telle
que Lk Bk = Ek (resp Ck Uk = Gk ). En posant Dk = Gk Bk Ck , on obtient (1.32). Lgalit (1.33) en dcoule
immdiatement.

Proposition 1.15 (CNS pour LU sans permutation). Soit n IN, A Mn (IR). Les deux proprits suivantes
sont quivalentes.
(P1) Il existe un unique couple (L, U ), avec L matrice triangulaire infrieure de coefficients gaux 1 et U une
matrice inversible triangulaire suprieure, tel que A = LU .
(P2) Les mineurs principaux 5 de A sont tous non nuls.

D MONSTRATION Si A = LU avec L triangulaire infrieure de coefficients gaux 1 et U inversible triangulaire


suprieure, alors Ak = Lk Uk o les matrices Lk et Uk les matrices principales dordre k de L et U , qui sont encore
respectivement triangulaire infrieure de coefficients gaux 1 et inversible triangulaire suprieure. On a donc
det(Ak ) = det(Lk )det(Uk ) 6= 0 pour tout k = 1, . . . , n,
et donc (P1) (P2).
Montrons maintenant la rciproque. On suppose que les mineurs sont non nuls, et on va montrer que A = LU . On va
en fait montrer que pour tout k = 1, . . . n, on a Ak = Lk Uk o Lk triangulaire infrieure de coefficients gaux 1
et Uk inversible triangulaire suprieure. Le premier mineur est non nul, donc a11 = 1 a11 , et la rcurrence est bien
initialise. On la suppose vraie ltape k. Par le lemme 1.14, on a donc Ak+1 qui est de la forme (1.33), et donc une
Ak+1 = Lk+1 Uk+1 Comme det(Ak+1 ) 6= 0, la matrice Uk+1 est inversible, et lhypothse de rcurrence est vrifie
lordre k + 1. On a donc bien (P2) (P1).

Que faire en cas de pivot nul : la technique de permutation La caractrisation que nous venons de donner pour
quune matrice admette une dcomposition LU sans permutation est intressante mathmatiquement, mais de peu
dintrt en pratique. On ne va en effet jamais calculer n dterminants pour savoir si non peut ou non permuter. En
pratique, on effectue la dcomposition LU sans savoir si on a le droit ou non de le faire, avec ou sans permutation.
(i) (i)
Au cours de llimination, si ai,i = 0, on va permuter la ligne i avec une des lignes suivantes telle que ak,i 6= 0.
(i)
Notons que si le pivot" ai,i est trs petit, son utilisation peut entraner des erreurs darrondi importantes dans les
calculs et on va l encore permuter. En fait, mme dans le cas o la CNS donne par la proposition 1.15 est verifie,
la plupart des fonctions de libraries scientifiques vont permuter.
Plaons-nous litration i de la mthode de Gauss. Comme la matrice A(i) est forcment non singulire, on a :
(i) (i)

ai,i . . . ai,n
(i) (i) (i) . .. ..
det(A(i) ) = a1,1 a2,2 ai1,i1 det
.. .
. 6= 0.
(i) (i)
an,i . . . an,n
5. On rappelle que le mineur principal dordre k est le dterminant de la matrice prinicipale dordre k.

Analyse numrique I, tl-enseignement, L3 27 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

On a donc en particulier
(i) (i)
a . . . ai,n
i,i ..
det ...
..
. 6 0.
. =
(i) (i)
an,i . . . an,n
(i) (i)
On dduit quil existe i0 {i, . . . , n} tel que ai0 ,i 6= 0. On choisit alors i0 {i, . . . , n} tel que |ai0 ,i | =
(i)
max{|ak,i |, k = i, . . . , n}. Le choix de ce max est motiv par le fait quon aura ainsi moins derreur darrondi. On
change alors les lignes i et i0 (dans la matrice A et le second membre b) et on continue la procdure de Gauss
dcrite plus haut.
Lintrt de cette stratgie de pivot est quon aboutit toujours la rsolution du systme (ds que A est inversible).
Remarque 1.16 (Pivot total). La mthode que nous venons de dcrire est souvent nomme technique de pivot
partiel. On peut vouloir rendre la norme du pivot encore plus grande en considrant tous les coefficients restants
(i)
et pas uniquement ceux de la colonne i. A letape i, on choisit maintenant i0 et j0 {i, . . . , n} tels que |ai0 ,j0 | =
(i)
max{|ak,j |, k = i, . . . , n, j = i, . . . , n}, et on change alors les lignes i et i0 (dans la matrice A et le second
membre b), les colonnes i et j0 de A et les inconnues xi et xj0 . La stratgie du pivot total permet une moins grande
sensibilit aux erreurs darrondi. Linconvnient majeur est quon change la structure de A : si, par exemple la
matrice avait tous ses termes non nuls sur quelques diagonales seulement, ceci nest plus vrai pour la matrice
A(n) .
Ecrivons maintenant lalgorithme de la mthode LU avec pivot partiel ; pour ce faire, on va simplement remarquer
que lordre dans lequel les quations sont prises na aucune importance pour lalgorithme. Au dpart de lalgo-
rithme, on initialise la bijection t de {1, . . . , n} dans {1, . . . , n} par lidentit, c..d. t(i) = i ; cette bijection t va
tre modifie au cours de lalgorithme pour tenir compte du choix du pivot.
Algorithme 1.17 (LU avec pivot partiel).
1. (Initialisation de t) Pour i allant de 1 n, t(i) = i. Fin pour
2. (Factorisation)

Pour i allant de 1 n, on effectue les calculs suivants :


(a) Choix du pivot (et de t(i)) : on cherche i {i, . . . , n} t.q. |at(i ),i | = max{|at(k),i |, k
{i, . . . , n}} (noter que ce max est forcment non nul car la matrice est inversible).
On modifie alors t en inversant les valeurs de t(i) et t(i ).
p = t(i ) ; t(i ) = t(i) ; t(i) = p.
On ne change pas la ligne t(i) :
ut(i),j = at(i),j pour j = i, . . . , n,
(b) On modifie les lignes t(k), k > i (et le second membre), en utilisant la ligne t(i).
Pour k = i + 1, . . . , n} (noter quon a uniquement besoin de connatre lensemble , et pas lordre) :
at(k),i
t(k),i =
at(i),i
Pour j allant de i + 1 n,
ut(k),j = at(k),j t(k),i ut(i),j (noter que ut(k),i = 0)
Fin pour
Fin pour
3. (Descente) On calcule y
Pour i allant de 1 n,
Pi1
yt(i) = bt(i) j=1 t(j),k yk
Fin pour

Analyse numrique I, tl-enseignement, L3 28 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

4. (Remonte) On calcule x
Pour i allant de n 1,
1 Pn
x(t(i) = ut(i),i (yi j=i+1 ut(i),j xj )
Fin pour
NB : On a chang lordre dans lequel les quations sont considres (le tableau t donne cet ordre, et donc la
matrice P ). Donc, on a aussi chang lordre dans lequel interviennent les composantes du second membre : le
systme Ax = b est devenu P Ax = P b. Par contre, on na pas touch lordre dans lequel interviennent les
composantes de x et y.
Il reste maintenant signaler la proprit magnifique de cet algorithme. . . Il est inutile de connaitre a priori
la bijection pour cet algorithme. A ltape i de litem 1 (et dailleurs aussi ltape i de litem 2), il suffit de
connatre t(j) pour j allant de 1 i, les oprations de 1(b) se faisant alors sur toutes les autres lignes (dans un
ordre quelconque). Il suffit donc de partir dune bijection arbitraire de {1, . . . , n} dans {1, . . . , n} (par exemple
lidentit) et de la modifier chaque tape. Pour que lalgorithme aboutisse, il suffit que at(i),i 6= 0 (ce qui toujours
possible car A est inversible).
Remarque 1.18 (Ordre des quations et des inconnues). Lalgorithme se ramne donc rsoudre LU x = b, en
rsolvant dabord Ly = b puis U x = y. Notons que lors de la rsolution du systme Ly = b, les quations sont
dans lordre t(1), . . . , t(k) (les composantes de b sont donc aussi prises dans cet ordre), mais le vecteur y est
bien le vecteur de composantes (y1 , . . . , yn ), dans lordre initial. Puis, on rsout U x = y, et les quations sont
encore dans lordre t(1), . . . , t(k) mais les vecteurs x et y ont comme composantes respectives (x1 , . . . , xn ) et
(y1 , . . . , yn ).

Le thorme dexistence Lalgorithme LU avec pivot partiel nous permet de dmontrer le thorme dexistence
de la dcomposition LU pour una matrice inversible.

Thorme 1.19 (Dcomposition LU dune matrice). Soit A Mn (IR) une matrice inversible, il existe une
matrice de permutation P telle que, pour cette matrice de permutation, il existe un et un seul couple de matrices
(L, U ) o L est triangulaire infrieure de termes diagonaux gaux 1 et U est triangulaire suprieure, vrifiant

P A = LU.

D MONSTRATION
1. Lexistence de la matrice P et des matrices L U peut seffectuer en sinspirant de lalgorithme LU avec pivot partiel
1.17). Posons A(0) = A.
chaque tape i de lalgorithme 1.17 peut scrire comme A(i) = E (i) P (i) A(i1) , o P (i) est la matrice de permutation
qui permet le choix du pivot partiel, et E (i) est une matrice dlimination qui effectue les combinaisons linaires de lignes
permettant de mettre zro tous les coefficients de la colonne i situs en dessous de la ligne i. Pour simplifier, raisonnons
sur une matrice 4 4 (le raisonnement est le mme pour une matrice n n. On a donc en appliquant lalgorithme de
Gauss :
E (3) P (3) E (2) P (2) E (1) P (1) A = U
Les matrices P (i+1) et E (i) ne permutent en gnal pas. Prenons par exemple E2 , qui est de la forme

1 0 0 0
0 1 0 0
E (2) = 0 a 1 0

0 b 0 1
Si P (3) est la matrice qui change les lignes 3 et 4, alors

1 0 0 0 1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0 0
P (3)
= (3) (2)
et P E = , alors que E (2) P (3) = 0 1 0
0 0 0 1 0 b 0 1 0 a 0 1
0 0 1 0 0 a 1 0 0 b 1 0

Analyse numrique I, tl-enseignement, L3 29 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Mais par contre, comme la multiplication gauche par P (i+1) permute les lignes i + 1 et i + k, pour un certain k 1,
g
et que la multiplication droite permute les colonnes i + 1 et i + k, la matrice E (i) = P (i+1) E (i) P (i+1) est encore une
(i)
matrice triangulaire infrieure avec la mme structure que E : on a juste chang les coefficients extradiagonaux des
lignes i + 1 et i + k. On a donc
P (i+1) E (i) = Eg (i) P (i+1) . (1.34)
Dans lexemple prcdent, on effectue le calcul :

1 0 0 0
0 1 0 0 g
P (3) E (2) P (3) =
0
=E (2 ,
b 1 0
0 a 0 1
qui est une matrice triangulaire infrieure de coefficients tous gaux 1, et comme P (3) P (3) = Id, on a donc :
P (3) E (2) = Eg(2) P (3) .

Pour revenir notre exemple n = 4, on peut donc crire :


g
E (3) E g
(2) P (3) E (1) P (2) P (1) A = U

g g
g g
g
Mais par le mme raisonnement que prcdemment, on a P (3) E (1) = E (1) P (3) o E (1) est encore une matrice triangulaire

infrieure avec des 1 sur la diagonale. On en dduit que


g g
g
E (3) E (2) E (1) P (3) P (2) P (1) A = U, soit encore P A = LU

g g
g
o P = P (3) P (2) P (1) bien une matrice de permutation, et L = (E (3) E (2) E (1) )1 est une matrice triangulaire infrieure

avec des 1 sur la diagonale.


Le raisonnement que nous venons de faire pour n = 3 se gnralise facilement n quelconque. Dans ce cas, lchelonne-
ment de la matrice scrit sous la forme
U = E (n1) P (n1) . . . E (2) P (2) E (1) P (1) A,
et se transforme grce (1.34) en
U = F (n1) . . . F (2) F (1) P (n1) . . . P (2) P (1) A,
o les matrices F (i) sont des matrices triangulaires infrieures de coefficients diagonaux tous gaux 1. Plus prcisment,
^
F (n1) = E (n1) , F (n2) = E^ (n2) , F (n3) = E ^(n3) , etc. . . On a ainsi dmontr lexistence de la dcomposition

LU .

2. Pour montrer lunicit du couple (L, U ) P donne, supposons quil existe une matrice P et des matrices L1 , L2 ,
triangulaires infrieures et U1 , U2 , triangulaires suprieures, telles que
P A = L1 U1 = L2 U2
Dans ce cas, on a donc L1 1 1
2 L1 = U2 U1 . Or la matrice L2 L1 est une matrice triangulaire infrieure dont les coefficients
diagonaux sont tout gaux 1, et la matrice U2 U1 est une matrice triangulaire suprieure. On en dduit que L1
1
2 L1 =
U2 U11 = Id, et donc que L1 = L2 et U1 = U2 .

Remarque 1.20 (Dcomposition LU pour les matrices non inversibles). En fait nimporte quelle matrice carre
admet une dcomposition de la forme P A = LU . Mais si la matrice A nest pas inversible, son chelonnement
va nous donner des lignes de zros pour les dernires lignes . La dcomposition LU nest dans ce cas pas unique.
Cette remarque fait lobjet de lexercice 20.

1.3.3 Mthode de Choleski


On va maintenant tudier la mthode de Choleski, qui est une mthode directe adapte au cas o A est symtrique
dfinie positive. On rappelle quune matrice A Mn (IR) de coefficients (ai,j )i=1,n,j=1,n est symtrique si
A = At , o At dsigne la transpose de A, dfinie par les coefficients (aj,i )i=1,n,j=1,n , et que A est dfinie
positive si Ax x > 0 pour tout x IR n tel que x 6= 0. Dans toute la suite, x y dsigne le produit scalaire des
deux vecteurs x et y de IR n . On rappelle (exercice) que si A est symtrique dfinie positive elle est en particulier
inversible.

Analyse numrique I, tl-enseignement, L3 30 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Description de la mthode

2 1 0
Commenons par un exemple. On considre la matrice A = 1 2 1 , qui est symtrique. Calculons sa
0 1 2
dcomposition LU . Par chelonnement, on obtient

1 0 0 2 1 0
A = LU = 21 1 0 0 23 1
0 32 1 0 0 4
3

La structure LU ne conserve pas la symtrie de la matrice A. Pour des raisons de cot mmoire, il est important de
pouvoir la conserver. Une faon de faire est de dcomposer U en sa partie diagonale fois une matrice triangulaire.
On obtient
2 0 0 1 12 0
U = 0 32 0 0 1 32
0 0 34 0 0 1

On a donc U = DLt , et comme tous les coefficients de D sont positifs, on peut crire D = D D, o D est
la matrice
diagonale
dont les lments diagonaux
sont les racines carres des lments diagonaux de A. On a donc
A = L D DLt = L eL
e t , avec L
e = L D. Notons que la matrice L e est toujours triangulaire infrieure, mais ses
coefficients diagonaux ne sont plus astreints tre gaux 1. Cest la dcomposition de Choleski de la matrice A.

De fait, la mthode de Choleski consiste donc trouver une dcomposition dune matrice A symtrique dfinie
positive de la forme A = LLt , o L est triangulaire infrieure de coefficients diagonaux strictement positifs. On
rsout alors le systme Ax = b en rsolvant dabord Ly = b puis le systme Lt x = y. Une fois la matrice
A factorise", cestdire la dcomposition LLt obtenue (voir paragraphe suivant), on effectue les tapes de
descente" et remonte" :
1. Etape 1 : descente" Le systme Ly = b scrit :

1,1 0 y1 b1
Ly = ... .. .. = .. .
..
. . . .
n,1 . . . n,n yn bn

Ce systme scrit composante par composante en partant de i = 1.

b1
1,1 y1 = b1 , donc y1 =
1,1

1
2,1 y1 + 2,2 y2 = b2 , donc y2 = (b2 2,1 y1 )
2,2
.. ..
. .
X 1 X
i,j yj = bi , donc yi = (bi i,j yj )
j=1,i
i,i j=1,i1
.. ..
. .
X 1 X
n,j yj = bn , donc yn = (bn n,j yj ).
j=1,n
n,n j=1,n1

On calcule ainsi y1 , y2 , . . . , yn .

Analyse numrique I, tl-enseignement, L3 31 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

2. Etape 2 : remonte" On calcule maintenant x solution de Lt x = y.


x y1

1,1 2,1 . . . n,1 1
..
0 .
..

.. .
t
L x= . =
.. .

.

.. .
0 ... n,n xn yn
On a donc :
yn
n,n xn = yn donc xn =
n,n
yn1 n,n1 xn
n1,n1 xn1 + n,n1 xn = yn1 donc xn1 = n1,n1
..
. P
X y1 j=2,n j,1 xj
j,1 xj = y1 donc x1 = .
j=1,n
1,1

On calcule ainsi xn , xn1 , . . . , x1 .

Existence et unicit de la dcomposition


Soit A une matrice symtrique dfinie positive. On sait dj par le thorme 1.19 page 29, quil existe une matrice
de permutation et L triangulaire infrieure et U triangulaire suprieure telles que P A = LU . Lavantage dans le
cas o la matrice est symtrique dfinie positive, est que la dcomposition est toujours possible sans permutation.
On prouve lexistence et unicit en construisant la dcomposition, c..d. en construisant la matrice L.
Pour comprendre
 le principe de la preuve, commenons dabord par le cas n = 2. Dans ce cas on peut crire
a b
A= . On sait que a > 0 car A est s.d.p. . Lchelonnement de A donne donc
b c
  
1 0 a b
A = LU = b 2
a 1 0 c ba

En extrayant la diagonale de U , on obtient :


   b

1 0 a 0 a a
A = LU = b 2 .
a 1 0 c ba 0 1

Et donc " #
eL
A=L e t avec L
e= q a 0
.
acb2
b a

Thorme 1.21 (Dcomposition de Choleski). Soit A Mn (IR) (n 1) une matrice symtrique dfinie positive.
Alors il existe une unique matrice L Mn (IR), L = (i,j )ni,j=1 , telle que :
1. L est triangulaire infrieure (cestdire i,j = 0 si j > i),
2. i,i > 0, pour tout i {1, . . . , n},
3. A = LLt .

D MONSTRATION

I- Existence de L : dmonstration par rcurrence sur n

Analyse numrique I, tl-enseignement, L3 32 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

1. Dans le cas n = 1, on a A = (a1,1 ). Comme A est symtrique dfinie positive, on a a1,1 > 0. On peut donc dfinir

L = (1,1 ) o 1,1 = a1,1 , et on a bien A = LLt .
2. On suppose que la dcomposition de Choleski sobtient pour A Mp (IR) symtrique dfinie positive, pour 1 p
n et on va dmontrer que la proprit est encore vraie pour A Mn+1 (IR) symtrique dfinie positive. Soit donc
A Mn+1 (IR) symtrique dfinie positive ; on peut crire A sous la forme :

B a

A=

(1.35)
at
n
o B Mn (IR) est symtrique, a IR et IR. Montrons  que B est dfinie positive, c..d. que By y > 0, pour
n n y
tout y IR tel que y 6= 0. Soit donc y IR \ {0}, et x = IR n+1 . Comme A est symtrique dfinie positive,
0
on a :
B a y y By y

0 < Ax x =
= = By y

t
a 0 0 at y 0
donc B est dfinie positive. Par hypothse de rcurrence, il existe une matrice M Mn (IR) M = (mi,j )n
i,j=1 telle
que :
(a) mi,j = 0 si j > i
(b) mi,i > 0
(c) B = M M t.
On va chercher L sous la forme :
M 0

L=


(1.36)
bt
n
avec b IR , IR + tels que LL = A. Pour dterminer b et , calculons LLt o L est de la forme (1.36) et
t

identifions avec A :
t

M 0 M b MMt Mb

LLt =



=



bt 0 bt M t bt b + 2
On cherche b IR n et IR + tels que LLt = A, et on veut donc que les galits suivantes soient vrifies :
M b = a et bt b + 2 = .
Q
Comme M est inversible (en effet, le dterminant de M scrit det(M ) = n i=1 mi,i > 0), la premire galit ci-
dessus donne : b = M 1 a et en remplaant dans la deuxime galit, on obtient : (M 1 a)t (M 1 a) + 2 = , donc
at (M t )1 M 1 a + 2 = soit encore at (M M t )1 a + 2 = , cestdire :
at B 1 a + 2 = (1.37)
Pour que (1.37) soit vrifie, il faut que
at B 1 a > 0 (1.38)
 1

B a
Montrons que la condition (1.38) est effectivement vrifie : Soit z = IR n+1 . On a z 6= 0 et donc
1
Az z > 0 car A est symtrique dfinie positive. Calculons Az :

B 1 a 0
B a
Az = = .
t

a
1 at B 1 a

Analyse numrique I, tl-enseignement, L3 33 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES


On a donc Az z = at B 1 a > 0 ce qui montre que (1.38) est vrifie. On peut ainsi choisir = at B 1 a
(> 0) de telle sorte que (1.37) est vrifie. Posons :

M 0

L=
.

(M 1 a)t
La matrice L est bien triangulaire infrieure et vrifie i,i > 0 et A = LLt .
On a termin ainsi la partie existence.
II- Unicit et calcul de L. Soit A Mn (IR) symtrique dfinie positive ; on vient de montrer quil existe L Mn (IR)
triangulaire infrieure telle que i,j = 0 si j > i, i,i > 0 et A = LLt . On a donc :
n
X
ai,j = i,k j,k , (i, j) {1 . . . n}2 . (1.39)
k=1

1. Calculons la 1-re colonne de L ; pour j = 1, on a :



a1,1 = 1,1 1,1 donc 1,1 = a1,1 (a1,1 > 0 car 1,1 existe ),
a2,1
a2,1 = 2,1 1,1 donc 2,1 = ,
1,1
ai,1
ai,1 = i,1 1,1 donc i,1 = i {2, . . . , n}.
1,1
2. On suppose avoir calcul les q premires colonnes de L. On calcule la colonne (q + 1) en prenant j = q + 1 dans
(1.39)
q+1
X
Pour i = q + 1, aq+1,q+1 = q+1,k q+1,k donc
k=1
q
X
q+1,q+1 = (aq+1,q+1 2q+1,k )1/2 > 0. (1.40)
k=1
q
X
Notons que aq+1,q+1 2q+1,k > 0 car L existe : il est indispensable davoir dabord montr lexistence de L pour
k=1
pouvoir exhiber le coefficient q+1,q+1 .
On procde de la mme manire pour i = q + 2, . . . , n ; on a :
q+1 q
X X
ai,q+1 = i,k q+1,k = i,k q+1,k + i,q+1 q+1,q+1
k=1 k=1
et donc
q
!
X 1
i,q+1 = ai,q+1 i,k q+1,k . (1.41)
k=1
q+1,q+1
On calcule ainsi toutes les colonnes de L. On a donc montr que L est unique par un moyen constructif de calcul de L.

Remarque 1.22 (Choleski et LU .). Considrons une matrice A symtrique dfinie positive. Alors une matrice P
de permutation dans le thorme 1.21 possible nest autre que lidentit. Il suffit pour sen convaincre de remarquer
quune fois quon sest donn la bijection t = Id dans lalgorithme 1.17, celle-ci nest jamais modifie et donc on
a P = Id. Les thormes
dexistence et dunicit 1.19 et 1.21 nous permettent
alors de remarquer que A = LU =
L
L t avec L
= L D, o D est la matrice diagonale extraite de U , et D dsigne la matrice dont les coefficients
sont les racines carres des coefficients de D (qui sont tous positifs). Voir ce sujet lexercice 21 41.
La dcomposition LU permet de caractriser les matrices symtriques dfinies positives.

Analyse numrique I, tl-enseignement, L3 34 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Proposition 1.23 (Caractrisation des matrices symtriques dfinies positives par la dcomposition LU ). Soit A
une matrice symtrique admettant une dcomposition LU sans permutation, cest--dire quon suppose quil existe
L triangulaire infrieure de coefficients diagonaux tous gaux 1, et U triangulaire suprieure telle que A = LU .
Alors A est symrique dfinie positive si et seulement si tous les pivots (cest--dire les coefficients diagonaux de
la matrice U ) sont strictement positifs.

D MONSTRATION Soit A une matrice symtrique admettant une dcomposition LU sans permutation. Si A est sym-
trique dfinie positive, le thorme 1.21 de dcomposition de Choleski donne immdiatement le rsultat.
Montrons maintenant la rciproque : supposons que A = LU avec tous les pivots strictement positifs. On a donc A = LU ,
et U est inversible car cest une matrice triangulaire suprieure dont tous les coefficients diagonaux sont strictement positifs.
Donc A est aussi inversible, et la dcomposition LU est donc unique, par le thorme 1.19 de dcomposition LU dune
matrice inversible. On a donc A = LU = LDL t o D est la matrice diagonale dont la diagonale est celle de U , et L est
la matrice triangulaire infrieure de coefficients diagonaux tous gaux 1 dfinie par L t = D1 U . On a donc aussi par
symtrie de A

At = LDL t
= A = LU
et par unicitde la dcomposition LU , on en dduit que L = L et DLt = U , ce qui entrane que A = LDLt = CC t
avec C = L D. On a donc pour tout x IR n , Ax x = CC t x x = kCxk2 et donc que A est symtrique dfinie
positive.

Attention : la proposition prcdente


 est fausse si la dcomposition est avec permutation, mditer pour sen
0 1
convaincre lexemple A = .
1 0
Remarque 1.24 (Pivot partiel et Choleski.). Considrons une matrice A symtrique dfinie positive. On a vu dans
le thorme quon na pas besoin de permutation pour obtenir la dcomposition LLt dune matrice symtrique
dfinie positive. Par contre, on utilise malgr tout la technique de pivot partiel pour minimiser les erreurs darrondi.
On peut illustrer cette raison par lexemple suivant :
 
10n 1
A=
1 1

titre dillustration, pour n = 12 en FORTRAN (double prcision), on obtient la bonne solution, c..d. (1, 1),
avec le programme gausslupivot donn plus haut, alors que le programme sans pivot gausslu donne comme
solution (0, 1).

Calcul du cot de la mthode de Choleski


Calcul du cot de calcul de la matrice L Dans le procd de calcul de L expos ci-dessus, le nombre dop-
rations pour calculer la premire colonne est n. Calculons, pour p = 0, . . . , n 1, le nombre doprations pour
calculer la (p + 1)-ime colonne : pour la colonne (p + 1), le nombre doprations par ligne est 2p + 1, car le
calcul de p+1,p+1 par la formule (1.40) ncessite p multiplications, p soustractions et une extraction de racine,
soit 2p + 1 oprations ; le calcul de i,p+1 par la formule (1.41) ncessite p multiplications, p soustractions et une
division, soit encore 2p + 1 oprations. Comme les calculs se font des lignes p + 1 n (car i,p+1 = 0 pour i p),
le nombre doprations pour calculer la (p + 1)-ime colonne est donc (2p + 1)(n p). On en dduit que le nombre
doprations NL ncessaires au calcul de L est :
n1
X n1
X n1
X n1
X n1
X
NL = (2p + 1)(n p) = 2n p2 p2 + n 1 p
p=0 p=0 p=0 p=0 p=0

n1
X
n(n 1)
= (2n 1) + n2 2 p2 .
2 p=0

Analyse numrique I, tl-enseignement, L3 35 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

n1
X Pn
(On rappelle que 2 p = n(n 1).) Il reste calculer Cn = p=0 p2 , en remarquant par exemple que
p=0

n
X n
X n
X n
X n
X n
X
(1 + p)3 = 1 + p3 + 3p2 + 3p = 1+ p3 + 3 p2 + 3 p
p=0 p=0 p=0 p=0 p=0 p=0
n+1
X n
X
= p3 = p3 + (n + 1)3 .
p=1 p=0

On a donc 3Cn + 3 n(n+1)


2 + n + 1 = (n + 1)3 , do on dduit que

n(n + 1)(2n + 1)
Cn = .
6
On a donc :
n(n 1)
NL = (2n 1) 2Cn1 + n2
2
 2 
2n + 3n + 1 n3 n2 n n3
=n = + + = + 0(n2 ).
6 3 2 6 3

Cot de la rsolution dun systme linaire par la mthode LLt Nous pouvons maintenant calculer le cot
(en termes de nombre doprations lmentaires) ncessaire la rsolution de (1.1) par la mthode de Choleski
pour A Mn (IR) symtrique dfinie positive. On a besoin de NL oprations pour le calcul de L, auquel il faut
rajouter le nombre doprations ncessaires pour les tapes de descente et remonte. Le calcul de y solution de
Ly = b seffectue en rsolvant le systme :

1,1 0 y1 b1
.. . .. . .
.. .. = ...

.
n,1 ... n,1 yn bn
b1
Pour la ligne 1, le calcul y1 = seffectue en une opration.
1,1  
Pp1
Pour les lignes p = 2 n, le calcul yp = bp i=1 i,p yi /p,p seffectue en (p 1) (multiplications) +(p 2)
(additions)
Pn +1 soustraction +1 (division) = 2p 1 oprations. Le calcul de y (descente) seffectue donc en
N1 = p=1 (2p 1) = n(n + 1) n = n 2
. On peut calculer de manire similaire le nombre doprations
ncessaires pour ltape de remonte N2 = n . Le nombre total doprations pour calculer x solution de (1.1) par
2
3 2 3 2
la mthode de Choleski est NC = NL + N1 + N2 = n3 + n2 + n6 + 2n2 = n3 + 5n2 + n6 . Ltape la plus coteuse
est donc la factorisation de A.
Remarque 1.25 (Dcomposition LDLt ). Dans les programmes informatiques, on prfre implanter la variante
suivante de la dcomposition de Choleski : A = LD L t o D est la matrice diagonale dfinie par di,i = 2 , L
i,i =
i,i
LD , o D
1 est la matrice diagonale dfinie par di,i = i,i . Cette dcomposition a lavantage de ne pas faire
intervenir le calcul de racines carres, qui est une opration plus complique que les oprations lmentaires"
(, +, ).

1.3.4 Quelques proprits


Comparaison Gauss/Choleski
Soit A Mn (IR) inversible, la rsolution de (1.1) par la mthode de Gauss demande 2n3 /3 + 0(n2 ) oprations
(exercice). Dans le cas dune matrice symtrique dfinie positive, la mthode de Choleski est donc environ deux
fois moins chre.

Analyse numrique I, tl-enseignement, L3 36 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Et la mthode de Cramer ?
Soit A Mn (IR) inversible. On rappelle que la mthode de Cramer pour la rsolution de (1.1) consiste calculer
les composantes de x par les formules :
det(Ai )
xi = , i = 1, . . . , n,
det(A)
o Ai est la matrice carre dordre n obtenue partir de A en remplaant la i-me colonne de A par le vecteur b,
et det(A) dsigne le dterminant de A.
Chaque calcul de dterminant dune matrice carre dordre n ncessite au moins n! oprations (voir cours L1-L2,
ou livres dalgbre linaire proposs en avant-propos). Par exemple, pour n = 10, la mthode de Gauss ncessite
environ 700 oprations, la mthode de Choleski environ 350 et la mthode de Cramer plus de 4 000 000. . . . Cette
dernire mthode est donc proscrire.

Conservation du profil de A
Dans de nombreuses applications, par exemple lors de la rsolution de systmes linaires issus de la discrtisation 6
de problmes rels, la matrice A Mn (IR) est creuse", au sens o un grand nombre de ses coefficients sont nuls.
Il est intressant dans ce cas pour des raisons dconomie de mmoire de connatre le profil" de la matrice, donn
dans le cas o la matrice est symtrique, par les indices ji = min{j {1, . . . , n} tels que ai,j 6= 0}. Le profil de
la matrice est donc dtermin par les diagonales contenant des coefficients non nuls qui sont les plus loignes de
la diagonale principale. Dans le cas dune matrice creuse, il est avantageux de faire un stockage profil" de A, en
stockant, pour chaque ligne i la valeur de ji et des coefficients ai,k , pour k = i ji , . . . , i, ce qui peut permettre
un large gain de place mmoire, comme on peut sen rendre compte sur la figure ??.

F IGURE 1.4: Exemple de profil dune matrice symtrique

Une proprit intressante de la mthode de Choleski est de conserver le profil. On peut montrer (en reprenant les
calculs effectus dans la deuxime partie de la dmonstration du thorme 1.21) que i,j = 0 si j < ji . Donc si on
a adopt un stockage profil" de A, on peut utiliser le mme stockage pour L.

Matrices non symtriques


Soit A Mn (IR) inversible. On ne suppose plus ici que A est symtrique. On cherche calculer x IR n
solution de (1.1) par la mthode de Choleski. Ceci est possible en remarquant que : Ax = b At Ax = At b car
6. On appelle discrtisation le fait de se ramener dun problme o linconnue est une fonction en un problme ayant un nombre fini
dinconnues.

Analyse numrique I, tl-enseignement, L3 37 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

det(A) = det(At ) 6= 0. Il ne reste alors plus qu vrifier que At A est symtrique dfinie positive. Remarquons
dabord que pour toute matrice A Mn (IR), la matrice AAt est symtrique. Pour cela on utilise le fait que
si B Mn (IR), alors B est symtrique si et seulement si Bx y = x By et Bx y = x B t y pour tout
(x, y) (IR n )2 . En prenant B = At A, on en dduit que At A est symtrique. De plus, comme A est inversible,
At Ax x = Ax Ax = |Ax|2 > 0 si x 6= 0. La matrice At A est donc bien symtrique dfinie positive.
La mthode de Choleski dans le cas dune matrice non symtrique consiste donc calculer At A et At b, puis
rsoudre le systme linaireAt A x = At b par la mthode de Choleski symtrique".
Cette manire de faire est plutt moins efficace que la dcomposition LU puisque le cot de la dcomposition LU
est de 2n3 /3 alors que la mthode de Choleski dans le cas dune matrice non symtrique ncessite au moins 4n3 /3
oprations (voir exercice 22).

Systmes linaires non carrs


On considre ici des matrices qui ne sont plus carres. On dsigne par MM,n (IR) lensemble des matrices relles
M lignes et n colonnes. Pour A MM,n (IR), M > n et b IR M , on cherche x IR n tel que

Ax = b. (1.42)

Ce systme contient plus dquations que dinconnues et nadmet donc en gnral pas de solution. On cherche
x IR n qui vrifie le sytme (1.42) au mieux". On introduit pour cela une fonction f dfinie de IR n dans IR par :

f (x) = |Ax b|2 ,



o |x| = x x dsigne la norme euclidienne sur IR n . La fonction f ainsi dfinie est videmment positive, et sil
existe x qui annule f , alors x est solution du systme (1.42). Comme on la dit, un tel x nexiste pas forcment, et on
cherche alors un vecteur x qui vrifie (1.42) au mieux", au sens o f (x) soit le plus proche de 0. On cherche donc
x IR n satisfaisant (1.42) en minimisant f , c..d. en cherchant x IR n solution du problme doptimisation :

f (x) f (y) y IR n (1.43)

On peut rcrire f sous la forme : f (x) = At Ax x 2b Ax + b b. On montrera au chapitre III que sil existe
une solution au problme (1.43), elle est donne par la rsolution du systme linaire suivant :

AAt x = At b IR n , (1.44)

quon appelle quations normales du problme de minimisation. La rsolution approche du problme (1.42) par
cette procdure est appele mthode des moindres carrs . La matrice AAt tant symtrique, on peut alors employer
la mthode de Choleski pour la rsolution du systme (1.44).

1.3.5 Exercices
Exercice 12 (Vrai ou faux ?). Corrig en page 42
Les propositions suivantes sont-elles vraies ou fausses ?

1 2 0
1. La matrice B = 1 1 0 est symtrique dfinie positive.
0 0 3
2. La matrice B ci-dessus admet une dcomposition LU .
 
1 1
3. La matrice scrit C t C.
1 3
   
1 1 1 1
4. La matrice A = admet une dcomposition de Choleski A = C C avec C =
t
.
1 5 0 2

Analyse numrique I, tl-enseignement, L3 38 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Exercice 13 (LU). Corrig en page 42



1 0 0 1
0 2 0 1
1. Donner la dcomposition LU de la matrice A = 0 0 1 1.

1 2 1 0

1 0 0
2. Montrer que la matrice A = 0 0 1 vrifie P A = LU avec P une matrice de permutation, L
0 1 0
triangulaire infrieure et U triangulaire suprieure dterminer.

2 1 0
3. Calculer la dcomposition LU de la matrice 1 2 1
0 1 2
Exercice 14 (Echelonnement et factorisation LU et LDU ). Corrig en page 43.
Echelonner les matrices suivantes (c..d. appliquer lalgorithme de Gauss), et lorsquelle existe, donner leur d-
composition LU et LDU

2 1 4 0 1. 2. 1. 2.
4 1 5 1 1. 1. 0. 2.
A= 2 2 2 3 ;
B= 1.
.
2. 2. 3.
0 3 9 4 1. 1. 1. 0.

Exercice 15 (Dcomposition LU dune matrice paramtres). Corrig en page 44.


Soient a, b, c et d des nombres rels. On considre la matrice suivante :

a a a a
a b b b
A= a b c c .

a b c d

Appliquer lalgorithme dlimination de Gauss A pour obtenir sa dcomposition LU .


Donner les conditions sur a, b, c et d pour que la matrice A soit inversible.
Exercice 16 (Dcomposition de Choleski dune matrice particulire). Soit n IN \ {0}. On considre la matrice
An carre dordre n dont les coefficients sont donns par (An )i,j : min(i, j), et qui scrit donc :

1 1 1
1 2 2

.. ..
An = . .

.. ..
. . n 1 n 1
1 2 n1 n

1. crire et chelonner les matrices A2 et A3 . Montrer que A2 et A3 sont des matrices symtriques dfinies
positives et donner leur dcomposition de Choleski.
2. En dduire la dcomposition de Choleski de la matrice An .
Exercice 17 (Dcomposition LU et mineurs principaux). Montrer que la matrice A de coefficients

1 si i > j
aij = 1 si i = j et j = n

0 sinon

admet une dcomposition LU (sans permutation pralable). Calculer les coefficients diagonaux de la matrice U .

Analyse numrique I, tl-enseignement, L3 39 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Exercice 18 (Conservation du profil). On considre des matrices A et B M4 (IR) de la forme suivante, o x en


position (i, j) de la matrice signifie que le coefficient ai,j est non nul) et 0 en position (i, j) de la matrice signifie
que ai,j = 0.)
x x x x x x x 0
x x x 0 x x 0 x
A=
0 x x 0 et B = 0 x x x .

0 0. x. x 0 x. x. x
Quels sont les coefficients nuls (nots 0 dans les matrices) qui resteront nuls dans les matrices L et U de la
factorisation LU (si elle existe) ?
Exercice 19 (Matrices dfinies positives et dcomposition LU). On rappelle que les mineurs principaux dune
matrice A Mn (IR), sont les dterminants p des matrices Ap = A(1 : p, 1 : p) extraites de la matrice A.
1. Montrer quune matrice symtrique dfinie positive a tous ses mineurs pricipaux strictement positifs.
2. En dduire que toute matrice symtrique dfinie positive admet une dcomposition LU .
Exercice 20 (Matrices non inversibles et dcomposition LU).

1. Matrices 2 2
 
a a12
(a) Soit A = 11 On suppose que a11 6= 0.
a21 a22
i. Echelonner la matrice A et en dduire quil existe une matrice L e triangulaire infrieure dont les
e eU
coefficients diagonaux sont gaux 1, et une matrice U triangulaire suprieure telles que A = L e.
ii. Montrer que L e et U
e sont uniques.
iii. Donner une condition ncessaire et suffisante sur les coefficients de A pour que la matrice U e soit
inversible.
 
0 1 e 1 et L
e 2 distinctes, toutes deux triangulaires
(b) On pose maintenant A = . Trouver deux matrices L
0 1
infrieures et dont les coefficients diagonaux sont gaux 1, et des matrices U e1 et Ue2 triangulaires
suprieures avec A = L e1 = L
e1 U e2U e2 .
2. Matrices 3 3

1. 2. 3.
(a) Echelonner la matrice A = 5. 7. 9. . et en dduire que la matrice A peut se dcomposer en
12. 15. 18.
A=L eUe o L
e est une matrice triangulaire infrieure dont les coefficients diagonaux sont gaux 1, et
Ue est une matrice triangulaire suprieure.

a11 a12 a13  
a11 a12
(b) Soit A = a21 a22 a23 . Montrer que si a11 6= 0 et que la matrice est inversible, alors
a21 a22
a31 a32 a33
e U
il existe un unique couple de matrices (L, e ) tel que A = L
eU e , o L
e est triangulaire infrieure dont les
e
coefficients diagonaux sont gaux 1, et une matrice U triangulaire suprieure.
3. Matrices n n.
(a) Gnraliser le rsultat de la question prcdente une matrice de dimension n : donner le rsultat
espr sous forme de thorme et le dmontrer.
(b) Soit maintenant A une matrice de dimensions n n. . Montrer quil existe une matrice de permutation
P et des matrices L e triangulaire infrieure et de coefficients diagonaux gaux 1, et U
e triangulaire
suprieure, telles que P A = LU . (On pourra commencer par le cas o est de rang gal n 1.)

Analyse numrique I, tl-enseignement, L3 40 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Exercice 21 (Dcomposition LLt pratique ). Corrig en page 45.


1. Soit A une matrice symtrique dfinie positive. Montrer que ladcomposition de Choleski L L
t de la matrice A

est obtenue partir de sa dcomposition LU en posant L = L D o D est la matrice diagonale extraite de U .
(Voir remarque 1.22.)
2 1 0 0
1 2 1 0
En dduire la dcomposition LLt de la matrice particulire A = 0 1 2 1.

0 0 1 2
2. Que deviennent les coefficients nuls dans la dcomposition LLt ci-dessus ? Quelle est la proprit vue en cours
qui est ainsi vrifie ?
Exercice 22 (Sur la mthode LLt ). Corrig dtaill en page 47.
Soit A une matrice carre dordre n, symtrique dfinie positive et pleine. On cherche rsoudre le systme
A2 x = b.
On propose deux mthodes de rsolution de ce systme :
1. Calculer A2 , effectuer la dcomposition LLt de A2 , rsoudre le systme LLt x = b.
2. Calculer la dcomposition LLt de A, rsoudre les systmes LLt y = b et LLt x = y.
Calculer le nombre doprations lmentaires ncessaires pour chacune des deux mthodes et comparer.
Exercice 23(Dcomposition
 LDLt et LLt ). Corrig en page 47
2 1
1. Soit A = .
1 0
Calculer la dcomposition LDLt de A. Existe-t-il une dcomposition LLt de A ?

2. Montrer que toute matrice de Mn (IR) symtrique dfinie positive admet une dcomposition LDLt .
 
0 1
3. Ecrire lalgorithme de dcomposition LDLt . La matrice A = admet-elle une dcomposition
1 0
LDLt ?
Exercice 24 (Dcomposition LLt dune matrice tridiagonale symtrique). Soit A Mn (IR) symtrique dfinie
positive et tridiagonale (i.e. ai,j = 0 si i j > 1).
1. Montrer que A admet une dcomposition LLt , o L est de la forme

1 0 . . . 0
2 2 0 . . . 0

.. ..
L= 0 . . ... 0 .

.. .. .. .
. . . . . . ..
0 0 n n

2. Donner un algorithme de calcul des coefficients i et i , en fonction des coefficients ai,j , et calculer le
nombre doprations lementaires ncessaires dans ce cas.
3. En dduire la dcomposition LLt de la matrice :

1 1 0 0 0
1 2 1 0 0

A= 0 1 2 1 0
.

0 0 1 2 1
0 0 0 1 2

4. Linverse dune matrice inversible tridiagonale est elle tridiagonale ?

Analyse numrique I, tl-enseignement, L3 41 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

Exercice 25 (Choleski pour matrice bande). Suggestions en page 42, corrig en page 49
Soit A Mn (IR) une matrice symtrique dfinie positive.
1. On suppose ici que A est tridiagonale. Estimer le nombre doprations de la factorisation LLt dans ce cas.
2. Mme question si A est une matrice bande (cest--dire p diagonales non nulles).
3. En dduire une estimation du nombre doprations ncessaires pour la discrtisation de lquation u =
f vue page 11. Mme question pour la discrtisation de lquation u = f prsente page 13.

1.3.6 Suggestions
Exercice 25 page 42

2. Soit q le nombre de sur- ou sous-diagonales (p = 2q + 1). Compter le nombre cq doprations ncessaires


pour le calcul des colonnes 1 q et n q + 1 n, puis le nombre dn doprations ncessaires pour le calcul des
colonnes n = q + 1 n q. En dduire lestimation sur le nombre doprations ncessaires pour le calcul de toutes
les colonnes, Zp (n), par :
nq
X
2cq Zp (n)2cq + cn .
n=q+1

1.3.7 Corrigs
Exercice 12 page 38 (Vrai ou faux ?)
1. La matrice B nest pas symtrique.
2. Llimination de Gauss donne A = LU avec

1 0 0 1 2 0
L = 1 1 0 et U = 0 1 0 .
0 0 1 0 0 3

La matrice B ci-dessus admet une dcomposition LU .


3. Non car elle nest pas symtrique.
   
1 1 1 1
4. La matrice A = admet une dcomposition de Choleski A = C C avec C =
t
. Non la
1 5 0 2
dcomposition de Choleski fait apparatre des termes positifs sur la diagonale. Elle scrit
  
1 0 1 1
A= .
1 2 0 2

Exercice 13 page 39 (Dcomposition LU )


1. Lchelonnement donne

1 0 0 0 1 0 0 1
0 1 0. 0. 0 1

L= et U = 0 2
0 0 1 0. 0 0 1 1
1 1 1 1. 0 0 0 3

2. La matrice A est une matrice de permutation (des lignes 2 et 3). Donc on a P = A et P A = Id = LU avec
L = U = Id.

Analyse numrique I, tl-enseignement, L3 42 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES


2 1 0
3. Calculer la dcomposition LU de la matrice 1 2 1 Lchelonnement donne
0 1 2

1 0 0 2 1 0
L = 21 1 0 et U = 0 3
2 1
2 4
0 3 1 0 0 3

Exercice 14 page 39 (Dcomposition LU )


Pour la premire matrice, on donne le dtail de llimination de Gauss sur cette matrice, et on montre ainsi quon
peut stocker les multiplicateurs quon utilise au fur et mesure dans la matrice L pour chaque tape k.
Etape k = 1

2 1 4 0 2 1 4 0
4 1 5 1
2 2 21 0 1 3 1 = A(2)

A = A(1) = 2 2 2 3 3 3 ++1 0 1 2 3
0 3 9 4 0 3 9 4
o i i j veut dire quon a soustrait fois la ligne j la ligne i. On a donc, sous forme matricielle,

1 0 0 0
2 1 0 0
A(2) = E (1) A(1) avec E (1) = 1 0 1 0 .

0 0 0 1

1 0 0 0 1 0 0 0
2 1 0 0 2 1 0 0
Notons que A = A(1) = (E (1) )1 A(2) avec (E (1) )1 =
1
et donc L =
0 1 0 1 x 1 0
0 0 0 1 x x x 1
Etape k= 2
2 1 4 0 2 1 4 0 1 0 0 0
0 1 3 1 1 3 1
3 3 2 = 0 = A(3) = E (2) A(2) avec E (2) = 0 1 0 0.

A(2) =
0 1 2 3 4 4 32 0 0 5 2 0 1 1 0
0 3 9 4 0 0 0 1 0 3 0 1

1 0 0 0 1 0 0 0
0 1 0 0 2 1 0 0
Notons que A = (E ) A avec (E ) =
(2) (2) 1 (3) (2) 1
0 1 1 0 et donc L = 1 1 1 0.

0 3 0 1 0 3 0 1
Et la vie est belle... car A(3) est dj triangulaire suprieure, avec tous les coefficients diagonaux non nuls (ce qui
prouve A est inversible). On na donc pas besoin dtape 4 :

2 1 4 0
0 1 3 1
U = A(3) = 0 0
.
5 2
0 0 0 1

On a galement U = A(3) = E (2) E (1) A, soit encore A = (E (1) )1 (E (2) )1 U = LU avec



1 0 0 0
2 1 0 0
L = (E (1) )1 (E (2) )1 =
1 1 1 0

0 3 0 1

Analyse numrique I, tl-enseignement, L3 43 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

On peut vrifier par le calcul quon a bien A = LU . Une fois que le mcanisme dlimination est bien compris, il
est inutile de calculer les matrices E k) : on peut directement stocker les multiplicateurs de llimination de Gauss
dans la matrice L. Cest ce quon va faire pour la prochaine matrice.

1. 0. 0. 0. 1. 2. 1. 2.
1. 1. 0. 0. 0. 1. 1. 0.
Pour la troisime matrice, le mme type de raisonnement donne donc : L =
1. 0. 1. 0. , U = 0. 0. 1.

1.
1. 1. 1. 1. 0. 0. 0. 1.

Exercice 15 page 39 (Sur la mthode LLt )


Appliquons lalgorithme de Gauss ; la premire tape de llimination consiste retrancher la premire ligne
toutes les autres, c..d. multiplier A gauche par E1 , avec

1 0 0 0
1 1 0 0
E1 = 1 0 1 0 .

1 0 0 1
On obtient :
a a a a
0 b a b a b a
E1 A=
0 b a c a
.
c a
0 ba ca da
La deuxime tape consiste multiplier A gauche par E2 , avec

1 0 0 0
0 1 0 0
E2 == 0 1 1
.
0
0 1 0 1
On obtient :
a a a a
0 ba ba b a
E2 E1 A=
0
.
0 cb c b
0 0 cb db
Enfin, la troisime tape consiste multiplier A gauche par E3 , avec

1 0 0 0
0 1 0 0
E3 = 0 0
.
1 0
0 0 1 1
On obtient :
a a a a
0 ba ba b a

E3 E2 E1 A = .
0 0 cb c b
0 0 0 dc
On A = LU avec L = (E3 E2 E1 )1 = (E1 )1 (E2 )1 (E3 )1 ; les matrices (E1 )1 , (E2 )1 et (E3 )1 sont
faciles calculer : la multiplication gauche par (E1 )1 consiste ajouter la premire ligne toutes les suivantes ;
on calcule de la mme faon (E2 )1 et (E3 )1 . On obtient :

1 0 0 0 1 0 0 0 1 0 0 0
1 1 0 0 0 1 0 0 0 1 0 0
(E1 )1 = 1
1 0 1 0 , (E2 ) = 0 1 1 0 , (E3 ) = 0 0 1 0 ,
1

1 0 0 1 0 1 0 1 0 0 1 1

Analyse numrique I, tl-enseignement, L3 44 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES


1 0 0 0 a a a a
1 1 0 0 0 ba ba b a
et donc L =
1
et U = .
1 1 0 0 0 cb c b
1 1 1 1 0 0 0 dc
La matrice L est inversible car produit de matrices lmentaires, et la matrice A est donc inversible si et seulement
si la matrice U lest. Or U est une matrice triangulaire qui est inversible si et seulement si ses lments diagonaux
sont non nuls, c..d. a 6= 0, b 6= c et c 6= d.

Exercice 21 page 41 (Dcomposition LLt pratique )

1. Ecrivons llimination de Gauss sur cette matrice, en stockant les multiplicateurs quon utilise au fur et mesure
dans la matrice E (k) pour chaque tape k.
Etape k = 1

2 1 4 0 2 1 4 0
4 1 5 1
2 2 21 0 1 3 1 = A(2)

A = A(1) = 2 2 2 3 3 3 ++1 0 1 2 3
0 3 9 4 0 3 9 4
o i i j veut dire quon a soustrait fois la ligne j la ligne i. On a donc, sous forme matricielle,

1 0 0 0
2 1 0 0
A(2) = E (1) A(1) avec E (1) =
1 0 1 0 .

0 0 0 1

1 0 0 0
2 1 0 0
Notons que A = A(1) = (E (1) )1 A(2) avec (E (1) )1 = 1 0 1 0

0 0 0 1
Etape k= 2
2 1 4 0 2 1 4 0 1 0 0 0
0 1 3 1
3 3 2 = 0 1 3 1 = A(3) = E (2) A(2) avec E (2) = 0 1 0 0.

A(2) = 0 1
2 3 4 4 32 0 0 5 2 0 1 1 0
0 3 9 4 0 0 0 1 0 3 0 1

1 0 0 0
0 1 0 0
Notons que A(2) = (E (2) )1 A(3) avec (E (2) )1 = 0 1 1 0.

0 3 0 1
Et la vie est belle... car A est dj triangulaire suprieure, avec tous les coefficients diagonaux non nuls (ce qui
(3)

prouve A est inversible). On na donc pas besoin dtape 4 :



2 1 4 0
0 1 3 1
U = A(3) = 0 0
.
5 2
0 0 0 1

On a galement U = A(3) = E (2) E (1) A, soit encore A = (E (1) )1 (E (2) )1 U = LU avec



1 0 0 0
2 1 0 0
L = (E (1) )1 (E (2) )1 =
1 1 1 0

0 3 0 1

Analyse numrique I, tl-enseignement, L3 45 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

2. Si A est une matrice symtrique dfinie positive, on sait par le thorme 1.19 et la remarque 1.22 quil existe une
unique dcomposition LU : A = LU . Le thorme 1.21 nous donne lexistence (et lunicit) de la dcomposition
A=L L t . Soit D
la matrice diagonale extraite de L,
qui est strictement positive par construction de L ; on pose
1 t 2 t
L = LD . On a donc A = LDDL = LU , avec U = D L . La matrice D = D est donc 2
la diagonale de la
matrice U . Par unicit de la dcomposition LU , on a L = L, U = U et D = D, et donc L = L D.

2 1 0 0
1 2 1 0
Montrons maintenant que A =
0 1 2 1 est s.d.p (symtrique dfinite positive). Elle est videm-
0 0 1 2
ment symtrique. Soit x = (a, b, c, d) IR 4 . Calculons Ax x :

2a b a
a + 2b c b
Ax x =
b + 2c d c
c + 2d d
Donc Ax x = 2a2 ab ab + 2b2 bc bc + 2c2 cd cd + 2d2 = a2 + (a b)2 + (b c)2 + (c d)2 + d2 0.
De plus Ax x = 0 ssi a = b = c = d = 0. Donc A est sdp.
On peut soit appliquer ici lalgorithme de construction de la matrice donn dans la partie unicit de la preuve
du thorme 1.21 dexistence et dunicit de la dcomposition de Choleski, soit procder comme en 1, calculer
la
dcomposition LU habituelle, puis calculer la dcomposition de A = LU , crire A = L
L t avec L
= L D, o

Det D la matrice diagonale extraite de U , comme dcrit plus haut. Nous allons procder selon le deuxime choix,
parce que les matrices L dans les dcompositions
qui est un peu plus rapide crire. (on utilise ici la notation L
LU et LL ne sont pas les mmes...)
t

Etape k = 1

2 1 0 0 2 1 0 0
1 2 1 0 0 3 1 0
A = A(1) =
0 1 2 1 2 2 + 2 1 0 1 2 1 = A
1 2 (2)

0 0 1 2 0 0 1 2
Etape k = 2

2 1 0 0 2 1 0 0
0 3
1 0 0 3
1 0
A(2) = 2 2 2 = A(3)
0 1 2 1 3 3 + 3 2 0 0 4
3 1
0 0 1 2 0 0 1 2
Etape k = 3

2 1 0 0 2 1 0 0
0 3
1 0 0 3
1 0
A(3) = 2 3 2 = A(4)
0 0 4
3 1 4 4 + 4 3 0 0 4
3 1
5
0 0 1 2 0 0 0 4

On vrifie alors quon a bien U = A(4) = DLt o L est la matrice inverse du produit des matrices lmentaires
utilises pour transformer A en une matrice lmentaire (mme raisonnement quen 1), c..d.

1 0 0 0
1 1 0 0
L= 2
0 2

3 1 0
0 0 43 1

Analyse numrique I, tl-enseignement, L3 46 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

L
On en dduit la dcomposition A = L t avec


2 0

0 0
2 6
0 0
= 2 2
L
0 36 2 3
3 0


0 0 23 2
5

3. Que deviennent les coefficients nuls dans la dcomposition LLt ci-dessus ? Quelle est la proprit vue en cours
qui est ainsi vrifie ?

Ils restent nuls : le profil est prserv, comme expliqu dans le cours page 17.

Exercice 22 page 41 (Sur la mthode LLt )


Calculons le nombre doprations lmentaires ncessaires pour chacune des mthodes :
1. Le calcul de chaque coefficient ncessite n multiplications et n 1 additions, et la matrice comporte n2
coefficients. Comme la matrice est symtrique, seuls n(n+1)/2 coefficients doivent tre calculs. Le calcul
de A2 ncessite ncessite donc (2n1)n(n+1)
2 oprations lmentaires.
3 2
Le nombre doprations lmentaires pour effectuer la dcomposition LLt de A2 ncessite n3 + n2 + n6
(cours).
La rsolution du systme A2 x = b ncessite 2n2 oprations (n2 pour la descente, n2 pour la remonte, voir
cours).
Le nombre total doprations pour le calcul de la solution du systme A2 x = b par la premire mthode est
3 2 3
donc (2n1)n(n+1)
2 + n3 + 3n2 + n6 = 4n3 + O(n2 ) oprations.
3 2
2. La dcomposition LLt de A ncessite n3 + n2 + n6 , et la rsolution des systmes LLt y = b et LLt x = y
ncessite 4n2 oprations. Le nombre total doprations pour le calcul de la solution du systme A2 x = b
3 2 3
par la deuxime mthode est donc n3 + 9n2 + n6 = n3 + O(n2 ) oprations.
Pour les valeurs de n assez grandes, il est donc avantageux de choisir la deuxime mthode.

Exercice 23 page 41 (Dcompositions LLt et LDLt )


1 0  0 
1. On pose L = et D = .
1 0
Par identification, on obtient = 2, = 2 et = 21 .
1

a 0 
Si maintenant on essaye dcrire A = LLt avec L = , on obtient c2 = 12 ce qui est impossible dans IR.
b c
En fait, on peut remarquer quil est normal que A nadmette pas de dcomposition LLt , car elle nest pas dfinie
positive. En effet, soit x = (x1 , x2 )t IR 2 ,, alors Ax x = 2x1 (x1 + x2 ), et en prenant x = (1, 2)t , on a
Ax x < 0.
2. 2. Reprenons en ladaptant la dmonstration du thorme 1.3. On raisonne donc par rcurrence sur la dimension.
1. Dans le cas n = 1, on a A = (a1,1 ). On peut donc dfinir L = (1,1 ) o 1,1 = 1, D = (a1,1 ), d1,1 6= 0, et
on a bien A = LDLt .
2. On suppose que, pour 1 p n, la dcomposition A = LDLt sobtient pour A Mp (IR) symtrique
dfinie positive ou ngative, avec di,i 6= 0 pour 1 i n et on va dmontrer que la proprit est encore
vraie pour A Mn+1 (IR) symtrique dfinie positive ou ngative. Soit donc A Mn+1 (IR) symtrique
dfinie positive ou ngative ; on peut crire A sous la forme :

B a

A=

(1.45)
at

Analyse numrique I, tl-enseignement, L3 47 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

o B Mn (IR) est symtrique dfinie positive ou ngative (calculer Axx avec x = (y, 0)t , avec y IR n
pour le vrifier), a IR n et IR.
Par hypothse de rcurrence, il existe une matrice M Mn (IR) M = (mi,j )ni,j=1 et une matrice diagonale
D = diag(d1,1 , d2,2 , . . . , dn,n ) dont les coefficients sont tous non nuls, telles que :
(a) mi,j = 0 si j > i
(b) mi,i = 1
(c) B = M DM t.
On va chercher L et D sous la forme :

M 0
D 0

L=
, D =

,
(1.46)
bt 1 0

avec b IR n , IR tels que LDLt = A. Pour dterminer b et , calculons LDLt avec L et D de la


forme (1.46) et identifions avec A :
t
M 0 D 0 M b t
M DM
M Db

LDLt =





=



bt 1 0 0 1 t
bt DM +
bt Db
On cherche b IR n et IR tels que LDLt = A, et on veut donc que les galits suivantes soient
vrifies :
= a et bt Db
M Db + = .
Qn
La matrice M est inversible (en effet, le dterminant de M scrit det(M ) = i=1 1 = 1). Par hypothse
est aussi inversible. La premire galit ci-dessus donne : b = D
de rcurrence, la matrice D 1 M 1 a. On
calcule alors = b M a. Remarquons quon a forcment 6= 0, car si = 0,
t 1


M DM t M Db

A = LDLt =


t t t
b DM b Db

qui nest pas inversible. En effet, si on cherche (x, y) IR n IR solution de



t
M DM M Db x 0

= ,

t
bt DM
bt Db y 0

on se rend compte facilement que tous les couples de la forme (M t by, y)t , y IR, sont solutions. Le
noyau de la matrice nest donc pas rduit {0} et la matrice nest donc pas inversible. On a ainsi montr
que dn+1,n+1 6= 0 ce qui termine la rcurrence.

3. On reprend lalgorithme de dcomposition LLt :


Soit A Mn (IR) symtrique dfinie positive ou ngative ; on vient de montrer quil existe une matrice L
Mn (IR) triangulaire infrieure telle que i,j = 0 si j > i, i,i = 1, et une matrice D Mn (IR) diagonale
inversible, telles que et A = LDLt . On a donc :
n
X
ai,j = i,k dk,k j,k , (i, j) {1, . . . , n}2 . (1.47)
k=1

Analyse numrique I, tl-enseignement, L3 48 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.3. LES MTHODES DIRECTES CHAPITRE 1. SYSTMES LINAIRES

1. Calculons la 1re colonne de L ; pour j = 1, on a :

a1,1 = d1,1 donc d1,1 = a1,1 ,


a2,1
a2,1 = 2,1 d1,1 donc 2,1 = ,
d1,1
ai,1
ai,1 = i,1 1,1 donc i,1 = i {2, . . . , n}.
d1,1

2. On suppose avoir calcul les n premires colonnes de L. On calcule la colonne (k +1) en prenant j = n+1
dans (1.39).
Xn
Pour i = n + 1, an+1,n+1 = 2n+1,k dk,k + dn+1,n+1 donc
k=1

n
X
dn+1,n+1 = an+1,n+1 2n+1,k dk,k . (1.48)
k=1

On procde de la mme manire pour i = n + 2, . . . , n ; on a :


n+1
X n
X
ai,n+1 = i,k dk,k n+1,k = i,k dk,k n+1,k + i,n+1 dn+1,n+1 n+1,n+1 ,
k=1 k=1

et donc, comme on a montr dans la question 2 que les coefficients dk,k sont tous non nuls, on peut crire :
n
!
X 1
i,n+1 = ai,n+1 i,k dk,k n+1,k . (1.49)
dn+1,n+1
k=1

Exercice 25 page 42 (Dcomposition LLt dune matrice bande)


On utilise le rsultat de conservation du profil de la matrice nonc dans le cours. Comme A est symtrique,
le nombre p de diagonales de la matrice A est forcment impair si A ; notons q = p1 2 le nombre de sous- et
sur-diagonales non nulles de la matrice A, alors la matrice L aura galement q sous-diagonales non nulles.

1. Cas dune matrice tridiagonale. Si on reprend lalgorithme de construction de la matrice L vu en cours, on


remarque que pour le calcul de la colonne n + 1, avec 1 n < n 1, on a le nombre doprations suivant :
Xn
Calcul de n+1,n+1 = (an+1,n+1 n+1,k n+1,k )1/2 > 0 :
k=1
une multiplication, une soustraction, une extraction de !
racine, soit 3 oprations lmentaires.
Xn
1
Calcul de n+2,n+1 = an+2,n+1 n+2,k n+1,k :
n+1,n+1
k=1
une division seulement car n+2,k = 0.
On en dduit que le nombre doprations lmentaires pour le calcul de la colonne n + 1, avec 1 n < n 1, est
de 4.
Or le nombre doprations pour la premire et dernire colonnes est infrieur 4 (2 oprations pour la premire
colonne, une seule pour la dernire). Le nombre Z1 (n) doprations lmentaires pour la dcomposition LLt de A
peut donc tre estim par : 4(n 2) Z1 (n) 4n, ce qui donne que Z1 (n) est de lordre de 4n (le calcul exact
du nombre doprations, inutile ici car on demande une estimation, est 4n 3.)

2. Cas dune matrice p diagonales.


On cherche une estimation du nombre doprations Zp (n) pour une matrice p diagonales non nulles (ou q sous-
diagonales non nulles) en fonction de n.

Analyse numrique I, tl-enseignement, L3 49 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

On remarque que le nombre doprations ncessaires au calcul de


n
X
n+1,n+1 = (an+1,n+1 n+1,k n+1,k )1/2 > 0, (1.50)
k=1

n
!
X 1
et i,n+1 = ai,n+1 i,k n+1,k , (1.51)
n+1,n+1
k=1
Pn
est toujours infrieur 2q + 1, car la somme k=1 fait intervenir au plus q termes non nuls.
De plus, pour chaque colonne n + 1, il y a au plus q + 1 coefficients i,n+1 non nuls, donc au plus q + 1 coefficients
calculer. Donc le nombre doprations pour chaque colonne peut tre major par (2q + 1)(q + 1).
On peut donc majorer le nombre doprations zq pour les q premires colonnes et les q dernires par 2q(2q +
1)(q + 1), qui est indpendant de n (on rappelle quon cherche une estimation en fonction de n, et donc le nombre
zq est O(1) par rapport n.)
Calculons maintenant le nombre doprations xn ncessaires une colonne n = q + 1 n q 1. Dans (1.50) et
(1.51), les termes non nuls de la somme sont pour k = i q, . . . , n, et donc on a (n i + q + 1) multiplications
et additions, une division ou extraction de racine. On a donc
n+q+1
X 
xn = 2(n i + q + 1) + 1
i=n+1
q+1
X 
= 2(j + q + 1) + 1
j=1
q+1
X
= (q + 1)(2q + 3) 2 j
j=1
= (q + 1)2 .
Le nombre zi doprations ncessaires pour les colonnes n = q + 1 n q 1 est donc
zi = (q + 1)2 (n 2q).
Un encadrement du nombre doprations ncessaires pour la dcomposition LLt dune matrice p diagonales est
donc donne par :

(q + 1)2 (n 2q) Zp (n) (q + 1)2 (n 2q) + 2q(2q + 1)(q + 1), (1.52)


et que, q constant, Zp (n) = O((q + 1) n)). Remarquons quon retrouve bien lestimation obtenue pour q = 1.
2

3. Dans le cas de la discrtisation de lquation u = f (voir page 11), on a q = 1 et la mthode de Choleski


ncessite de lordre de 4n
oprations lmentaires, alors que dans le cas de la discrtisation de lquation u = f
(voir page 13), on a q = n et la mthode de Choleski ncessite de lordre de n2 oprations lmentaires (dans
les deux cas n est le nombre dinconnues).

On peut noter que lencadrement (1.52) est intressant ds que q est dordre infrieur n , < 1.

1.4 Normes et conditionnement dune matrice


Dans ce paragraphe, nous allons dfinir la notion de conditionnement dune matrice, qui peut servir tablir une
majoration des erreurs darrondi dues aux erreurs sur les donnes. Malheureusement, nous verrons galement que
cette majoration nest pas forcment trs utile dans des cas pratiques, et nous nous efforcerons dy remdier. La
notion de conditionnement est galement utilise dans ltude des mthodes itratives que nous verrons plus loin.
Pour ltude du conditionnement comme pour ltude des erreurs, nous avons tout dabord besoin de la notion de
norme et de rayon spectral, que nous rappelons maintenant.

Analyse numrique I, tl-enseignement, L3 50 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

1.4.1 Normes, rayon spectral

Dfinition 1.26 (Norme matricielle, norme induite). On note Mn (IR) lespace vectoriel (sur IR) des matrices
carres dordre n.
1. On appelle norme matricielle sur Mn (IR) une norme k k sur Mn (IR) t.q.

kABk kAkkBk, A, B Mn (IR) (1.53)

2. On considre IR n muni dune norme k k. On appelle norme matricielle induite (ou norme induite) sur
Mn (IR) par la norme k k, encore note k k, la norme sur Mn (IR) dfinie par :

kAk = sup{kAxk; x IR n , kxk = 1}, A Mn (IR) (1.54)

Proposition 1.27 (Proprits des normes induites). Soit Mn (IR) muni dune norme induite k k. Alors pour toute
matrice A Mn (IR), on a :
1. kAxk kAk kxk, x IR n ,
2. kAk = max {kAxk ; kxk = 1, x IR n },
 
kAxk
3. kAk = max ; x IR n \ {0} .
kxk
4. k k est une norme matricielle.

D MONSTRATION x kAxk
1. Soit x IR n \ {0}, posons y = , alors kyk = 1 donc kAyk kAk. On en dduit que kAk et
kxk kxk
donc que kAxk kAk kxk. Si maintenant x = 0, alors Ax = 0, et donc kxk = 0 et kAxk = 0 ; lingalit
kAxk kAk kxk est encore vrifie.
2. Lapplication dfinie de IR n dans IR par : (x) = kAxk est continue sur la sphre unit S1 = {x IR n | kxk = 1}
qui est un compact de IR n . Donc est borne et atteint ses bornes : il existe x0 IR n tel que kAk = kAx0 k.
3. Cette galit rsulte du fait que
kAxk x x
= kA k et S1 et x 6= 0.
kxk kxk kxk
4. Soient A et B Mn (IR), on a kABk = max {kABxk ; kxk = 1, x IR n } . Or
kABxk kAkkBxk kAkkBkkxk kAkkBk.
On en dduit que k k est une norme matricielle.

Dfinition 1.28 (Rayon spectral). Soit A Mn (IR) une matrice inversible. On appelle rayon spectral de A la
quantit (A) = max{||; Cl, valeur propre de A}.

La proposition suivante caractrise les principales normes matricielles induites.


Proposition 1.29 (Caractrisation de normes induites). Soit A = (ai,j )i,j{1,...,n} Mn (IR).
1. On munit IR n de la norme k k et Mn (IR) de la norme induite correspondante, note aussi k k . Alors
n
X
kAk = max |ai,j |. (1.55)
i{1,...,n}
j=1

Analyse numrique I, tl-enseignement, L3 51 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

2. On munit IR n de la norme k k1 et Mn (IR) de la norme induite correspondante, note aussi k k1 . Alors


n
X
kAk1 = max |ai,j | (1.56)
j{1,...,n}
i=1

3. On munit IR n de la norme k k2 et Mn (IR) de la norme induite correspondante, note aussi k k2 .


1
kAk2 = ((At A)) 2 . (1.57)

En particulier, si A est symtrique, kAk2 = (A).

D MONSTRATION La dmonstration des points 1 et 2 fait lobjet de lexercice 27 page 61. On dmontre ici uniquement
le point 3.
Par dfinition de la norme 2, on a :
kAk22 = sup Ax Ax = sup At Ax x.
xIR n xIR n
kxk2 =1 kxk2 =1

Comme At A est une matrice symtrique positive (car At Ax x = Ax Ax 0), il existe une base orthonorme
(f i )i=1,...,n et des valeurs
Ppropres (i )i=1,...,n , avec 0 1 2 . . . n tels que Af i = i f i pour tout
i {1, . . . , n}. Soit x = i=1,...,n i f i IR n . On a donc :
X  X  X
At Ax x = i i f i i f i = 2i i n kxk22 .
i=1,...,n i=1,...,n i=1,...,n

On en dduit que (A A).kAk22 t

Pour montrer quon a galit, il suffit de considrer le vecteur x = f n ; on a en effet kf n k2 = 1, et kAf n k22 =
At Af n f n = n = (At A).

Nous allons maintenant comparer le rayon spectral dune matrice avec des normes. Rappelons dabord le thorme
de triangularisation (ou trigonalisation) des matrices complexes.

Thorme 1.30 (Dcomposition de Schur, triangularisation dune matrice). Soit A Mn (IR) ou Mn (Cl) une
matrice carre quelconque, relle ou complexe ; alors il existe une matrice complexe Q inversible et une matrice
complexe triangulaire suprieure T telles que A = QT Q1.
Ce rsultat snonce de manire quivalente de la manire suivante : Soit une application linaire de E dans E,
o E est un espace vectoriel norm de dimension finie n sur Cl. Alors il existePune base (f 1 , . . . , f n ) de Cl et une
famille de complexes (ti,j )i=1,...,n,j=1,...,n,ji telles que (f i ) = ti,i f i + k<i tk,i f k . De plus ti,i est valeur
propre de et de A pour tout i {1, . . . , n}.
Les deux noncs sont quivalents au sens o la matrice A de lapplication linaire scrit A = QT Q1, o T
est la matrice triangulaire suprieure de coefficients (ti,j )i,j=1,...,n,ji et Q la matrice inversible dont la colonne
j est le vecteur f j ).

D MONSTRATION On dmontre cette proprit par rcurrence sur n. Elle est videmment vraie pour n = 1. Soit
n 1, on suppose la proprit vraie pour n et on la dmontre pour n + 1. Soint donc E un espace vectoriel sur C l
de dimension n + 1 et une application linaire de E dans C l . On sait quil existe C
l (qui rsulte du caractre
algbriquement clos de C l ) et f 1 E tels que (f 1 ) = f 1 et kf 1 k = 1 ; on pose t1,1 = et on note F le sous
espace vectoriel de E supplmentaire orthogonal de C l f 1 . Soit u F , il existe un unique couple (, v) Cl F tel que
(u) = f 1 + v. On note lapplication qui u associe v. On peut appliquer lhypothse de rcurrence (car est
une application linaire de F dans F , et F est de dimension n). Il existe donc une base orthonorme f 2 , . . . , f n+1 de F
et (ti,j )ji2 tels que X
)=
(f tj,i f j , i = 2, . . . , n + 1.
i
2ji

Analyse numrique I, tl-enseignement, L3 52 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

On en dduit que X
(f i ) = tj,i f j , i = 1, . . . , n + 1.
1jin

Dans la proposition suivante, nous montrons quon peut toujours trouver une norme (qui dpend de la matrice)
pour approcher son rayon spectral daussi prs que lon veut par valeurs suprieures.

Thorme 1.31 (Approximation du rayon spectral par une norme induite).


1. Soit k k une norme induite. Alors

(A) kAk, pour tout A Mn (IR).

2. Soient maintenant A Mn (IR) et > 0, alors il existe une norme sur IR n (qui dpend de A et ) telle que la
norme induite sur Mn (IR), note k kA, , vrifie kAkA, (A) + .

D MONSTRATION 1. Soit C valeur propre de A et x un vecteur propre associ, alors Ax = x, et comme k k


est une norme induite, on a :
kxk = ||kxk = kAxk kAkkxk.
On en dduit que toute valeur propre vrifie kAk et donc (A) kAk.
2. Soit A Mn (IR), alors par le thorme de triangularisation de Schur (thorme 1.30 P ppcdent), il existe une base
l n et une famille de complexes (ti,j )i,j=1,...,n,ji telles que Af i = ji tj,i f j . Soit ]0, 1[, quon
(f 1 , . . . , f n ) de C
choisira plus prcisment plus tard. Pour i = 1, . . . , n, onP dfinit ei = i1 f i . La famille (ei )i=1,...,n forme une base
de Cl n . On dfinit alors une norme sur IR n par kxk = ( n i=1 i i )
1/2
, o les i sont les composantes de x dans la
base (ei )i=1,...,n . Notons que cette norme dpend de A et de . Soit > 0 ; montrons que pour bien choisi, on a
kAk (A) + . Remarquons dabord que
X X X ij
Aei = A( i1 f i ) = i1 Af i i1 tk,i f j = i1 tj,i 1j ej = tj,i ej ,
ji ji 1ji
P
Soit maintenant x = i=1,...,n i ei . On a
n
X n
X X n X
X n

Ax = i Aei = ij tj,i i ej = ij i,j i ej .
i=1 i=1 1ji j=1 i=j

On en dduit que
n X
X n n
 X 
kAxk2 = ij tj,i i ij tj,i i ,
j=1 i=j i=j
n
X n
X X
= tj,j tj,j j j + k+2j tj,k tj, k
j=1 j=1 k,j
(k,)6=(j,j)
n
X X
(A)2 kxk2 + max |k |2 k+2j tj,k tj, .
k=1,...,n
j=1 k,j
(k,)6=(j,j)

Comme [0, 1] et k + 2j 1 dans la dernire sommation, on a


Xn X
k+2j tj,k tj, CT n3 ,
j=1 k,j
(k,)6=(j,j)

o CT = max |tj,k ||tj,k | ne dpend que de la matrice T , qui elle mme ne dpend que de A. Comme
j,k,=1,...,n
X
max |k |2 |k |2 = kxk2 ,
k=1,...,n
k=1,...,n

Analyse numrique I, tl-enseignement, L3 53 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

on a donc
kAxk2
(A)2 + CT n3 .
kxk2
On en conclut que :  
CT n3 CT n3
kAk (A) 1 + (A) + ,
(A)2 2(A)
 
2(A)
Do le rsultat, en prenant k kA, = k k et tel que = min 1, ..
CT n3

Corollaire 1.32 (Convergence et rayon spectral). Soit A Mn (IR). Alors :


(A) < 1 si et seulement si Ak 0 quand k .

D MONSTRATION Si (A) < 1, grce au rsultat dapproximation du rayon spectral de la proposition prcdente, il
existe > 0 tel que (A) < 1 2 et une norme induite k.kA, tels que kAkA, = (A) + = 1 < 1. Comme
k.kA, est une norme matricielle, on a kAk kA, k 0 lorsque k . Comme lespace Mn (IR) est de dimension
finie, toutes les normes sont quivalentes, et on a donc kAk k 0 lorsque k .
Montrons maintenant la rciproque : supposons que Ak 0 lorsque k , et montrons que (A) < 1. Soient une
valeur propre de A et x un vecteur propre associ. Alors Ak x = k x, et si Ak 0, alors Ak x 0, et donc k x 0,
ce qui nest possible que si || < 1.

Remarque 1.33 (Convergence des suites). Une consquence immdiate du corollaire prcdent est que la suite
(x(k) )kIN dfinie par x(k+1) = Ax(k) converge vers 0 (le vecteur nul) pour tout x(0) donn si et seulement si
(A) < 1.
Proposition 1.34 (Convergence et rayon spectral). On munit Mn (IR) dune norme, note k k. Soit A Mn (IR).
Alors
1
(A) = lim kAk k k . (1.58)
k

D MONSTRATION La dmonstration se fait par des arguments dhomognit, en trois tapes. Rappelons tout dabord
que
lim sup uk = lim sup un ,
k+ k+ nk

lim inf uk = lim inf un ,


k+ k+ nk

et que si lim supk+ uk lim inf k+ uk , alors la suite (uk )kIN converge vers limk+ uk = lim inf k+ uk =
lim supk+ uk .
Etape 1. On montre que
1
(A) < 1 lim sup kAk k k 1. (1.59)
k

En effet, si i (A) < 1, daprs le corollaire 1.32 on a : kAk k 0 donc il existe K IN tel que pour k K, kAk k < 1.
On en dduit que pour k K, kAk k1/k < 1, et donc en passant la limite sup sur k, on obtient bien que
1
lim sup kAk k k 1.
k+

Etape 2. On montre maintenant que


1
lim inf kAk k k < 1 (A) < 1.. (1.60)
k

Analyse numrique I, tl-enseignement, L3 54 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Pour dmontrer cette assertion, rappelons que pour toute suite (uk )kIN dlments de IR ou IR n , la limite infrieure
lim inf k+ uk est une valeur dadhrence de la suite (uk )kIN , donc quil existe une suite extraite (ukn )nIN telle que
ukn lim inf k+ uk lorsque k +. Or lim inf k+ kAk k1/k < 1 ; donc il existe une sous-suite (kn )nIN IN
telle que kAkn k1/kn < 1 lorsque n +, et donc il existe n tel que pour n n, kAkn k1/kn , avec ]0, 1[.
On en dduit que pour n n, kAkn k kn , et donc que Akn 0 lorsque n +. Soient une valeur propre de A
et x un vecteur propre associ, on a : Akn x = kn x ; on en dduit que || < 1, et donc que (A) < 1.
1
Etape 3. On montre que (A) = limk kAk k k .
Soit IR + tel que (A) < . Alors ( 1 A) < 1, et donc grce (1.59),
1
lim sup kAk k k < , > (A).
k+

En faisant tendre vers (A), on obtient donc :


1
lim sup kAk k k (A). (1.61)
k+

1 1
Soit maintenant IR + tel que lim inf k+ kAk k k < . On a alors lim inf k+ k( 1 A)k k k < 1 et donc en vertu
1
de (1.60), ( 1 A) < 1, donc (A) < pour tout IR + tel que lim inf k+ kAk k k < . En faisant tendre vers
1
lim inf k+ kAk k , on obtient donck
1
(A) lim inf kAk k k . (1.62)
k+

De (1.61) et (1.62), on dduit que


1 1 1
lim sup kAk k k = lim inf kAk k k = lim kAk k k = (A). (1.63)
k+ k+ k+

Un corollaire important de la proposition 1.34 est le suivant.


Corollaire 1.35 (Comparaison rayon spectral et norme). On munit Mn (IR) dune norme matricielle, note k k.
Soit A Mn (IR). Alors :
(A) kAk.
Par consquent, si M Mn (IR) et x(0) IR n , pour montrer que la suite x(k) dfinie par x(k) = M k x(0)
converge vers 0 dans IR n , il suffit de trouver une norme matricielle k k telle que kM k < 1.

D MONSTRATION Si k.k est une norme matricielle, alors kAk k kAkk et donc par la caractrisation (1.58) du rayon
spectral donne dans la proposition prcdente, on obtient que (A) kAk.

Ce dernier rsultat est videmment bien utile pour montrer la convergence de la suite Ak , ou de suites de la forme
Ak x(0) avec x(0) IR n . Une fois quon a trouv une norme matricielle pour laquelle A est de norme strictement
infrieure 1, on a gagn. Attention cependant au pige suivant : pour toute matrice A, on peut toujours trouver
une norme pour laquelle kAk < 1, alors que la srie de terme gnral Ak peut ne pas tre convergente.
Prenons un exemple dans IR, kxk = 14 |x|. Pour x = 2 on a kxk = 12 < 1. Et pourtant la srie de terme gnral
xk nest pas convergente ; le problme ici est que la norme choisie nest pas une norme matricielle (on na pas
kxyk kxkkyk).
De mme, on peut trouver une matrice et une norme telles que kAk 1, alors que la srie de terme gnral Ak
converge...
Nous donnons maintenant un thorme qui nous sera utile dans ltude du conditionnement, ainsi que plus tard
dans ltude des mthodes itratives.

Thorme 1.36 (Matrices de la forme Id + A).

Analyse numrique I, tl-enseignement, L3 55 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

1. Soit une norme matricielle induite, Id la matrice identit de Mn (IR) et A Mn (IR) telle que kAk < 1.
Alors la matrice Id + A est inversible et
1
k(Id + A)1 k .
1 kAk

2. Si une matrice de la forme Id + A Mn (IR) est singulire, alors kAk 1 pour toute norme matricielle
k k.

D MONSTRATION
1. La dmonstration du point 1 fait lobjet de lexercice 32 page 62.
2. Si la matrice Id + A Mn (IR) est singulire, alors = 1 est valeur propre, et donc (A) 1. En utilisant le
corollaire 1.35, on obtient que kAk (A) 1.

1.4.2 Le problme des erreurs darrondis


Soient A Mn (IR) inversible et b IR n ; supposons que les donnes A et b ne soient connues qu une
erreur prs. Ceci est souvent le cas dans les applications pratiques. Considrons par exemple le problme de la
conduction thermique dans une tige mtallique de longueur 1, modlise par lintervalle [0, 1]. Supposons que la
temprature u de la tige soit impose aux extrmits, u(0) = u0 et u(1) = u1 . On suppose que la temprature
dans la tige satisfait lquation de conduction de la chaleur, qui scrit (k(x)u (x)) = 0, o k est la conductivit
thermique. Cette quation diffrentielle du second ordre peut se discrtiser par exemple par diffrences finies (on
verra une description de la mthode page 11), et donne lieu un systme linaire de matrice A. Si la conductivit
k nest connue quavec une certaine prcision, alors la matrice A sera galement connue une erreur prs, note
A . On aimerait que lerreur commise sur les donnes du modle (ici la conductivit thermique k) nait pas une
consquence trop grave sur le calcul de la solution du modle (ici la temprature u). Si par exemple 1% derreur
sur k entrane 100% derreur sur u, le modle ne sera pas dune utilit redoutable. . .
Lobjectif est donc destimer les erreurs commises sur x solution de (1.1) partir des erreurs commises sur b et A.
Notons b IR n lerreur commise sur b et A Mn (IR) lerreur commise sur A. On cherche alors valuer x
o x + x est solution (si elle existe) du systme :

x + x IR n
(1.64)
(A + A )(x + x ) = b + b .
On va montrer que si A nest pas trop grand", alors la matrice A + A est inversible, et quon peut estimer x en
fonction de A et b .

1.4.3 Conditionnement et majoration de lerreur darrondi

Dfinition 1.37 (Conditionnement). Soit IR n muni dune norme k k et Mn (IR) muni de la norme induite. Soit
A Mn (IR) une matrice inversible. On appelle conditionnement de A par rapport la norme k k le nombre
rel positif cond(A) dfini par :
cond(A) = kAk kA1 k.

Proposition 1.38 (Proprits gnrales du conditionnement). Soit IR n muni dune norme k k et Mn (IR) muni
de la norme induite.

Analyse numrique I, tl-enseignement, L3 56 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

1. Soit A Mn (IR) une matrice inversible, alors cond(A) 1.


2. Soit A Mn (IR) une matrice inversible et IR , alors cond(A) = cond(A).
3. Soient A et B Mn (IR) des matrices inversibles, alors cond(AB) cond(A)cond(B).

D MONSTRATION 1. Comme k k est une norme induite, cest donc une norme matricielle. On a donc pour toute
matrice A Mn (IR),
kIdk kAk kA1 k
ce qui prouve que cond(A) 1.
2. Par dfinition,
cond(A) = kAk k(A)1 k
1
= || kAk kA1 k = cond(A)
||
3. Soient A et B des matrices inversibles, alors AB est une matrice inversible et comme k k est une norme matricielle,
cond(AB) = kABk k(AB)1 k
= kABk kB 1 A1 k
kAk kBk kB 1 k kA1 k.
Donc cond(AB) cond(A)cond(B).

Proposition 1.39 (Caractrisation du conditionnement pour la norme 2). Soit IR n muni de la norme euclidienne
k k2 et Mn (IR) muni de la norme induite. Soit A Mn (IR) une matrice inversible. On note cond2 (A) le
conditionnement associ la norme induite par la norme euclidienne sur IR n .
1. Soit A Mn (IR) une matrice inversible. On note n [resp. 1 ] la plus grande [resp. petite] valeur propre
de At A (noter que At A est une matrice symtrique dfinie positive). Alors
r
n
cond2 (A) = .
1

2. Si de plus A une matrice symtrique dfinie positive, alors


n
cond2 (A) = ,
1
o n [resp. 1 ] est la plus grande [resp. petite] valeur propre de A.

D MONSTRATION On rappelle que si A a comme valeurs propres 1 , . . . , n , alors A1 a comme valeurs propres
1 1 t
1 , . . . , n et A a comme valeurs propres 1 , . . . , n .
1. Par dfinition, on a cond2 (A) = kAk2 kA1 k2 . Or par le point 3. de la proposition 1.29 que kAk2 = ((At A))1/2 =

n . On a donc
1/2 1
kA1 k2 = (((A1 )t A1 ))1/2 = (AAt )1 ) ; or ((AAt )1 ) = ,
1

1 est la plus petite valeur propre de la matrice AA . Mais les valeurs propres de AA sont les valeurs propres de At A :
o t t

en effet, si est valeur propre de AAt associe au vecteur propre x alors est valeur propre de AAt associe au vecteur
propre At x. On a donc r
n
cond2 (A) = .
1

n
2. Si A est s.d.p., alors At A = A2 et i = 2i o i est valeur propre de la matrice A. On a dans ce cas cond2 (A) = .
1

Analyse numrique I, tl-enseignement, L3 57 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Les proprits suivantes sont moins fondamentales, mais cependant intressantes !


Proposition 1.40 (Proprits du conditionnement pour la norme 2). Soit IR n muni de la norme euclidienne k k2
et Mn (IR) muni de la norme induite. Soit A Mn (IR) une matrice inversible. On note cond2 (A) le condition-
nement associ la norme induite par la norme euclidienne sur IR n .
1. Soit A Mn (IR) une matrice inversible. Alors cond2 (A) = 1 si et seulement si A = Q o IR et
Q est une matrice orthogonale (cest--dire Qt = Q1 ).
2. Soit A Mn (IR) une matrice inversible. On suppose que A = QR o Q est une matrice orthogonale.
Alors cond2 (A) = cond2 (R).
3. Si A et B sont deux matrices symtriques dfinies positives, alors cond2 (A+B) max(cond2 (A), cond2 (B)).
La dmonstration de la proposition 1.40 fait lobjet de lexercice 35 page 63.
On va maintenant majorer lerreur relative commise sur x solution de Ax = b lorsque lon commet une erreur b
sur le second membre b.

Proposition 1.41 (Majoration de lerreur relative pour une erreur sur le second membre). Soit A Mn (IR) une
matrice inversible, et b IR n , b 6= 0. On munit IR n dune norme k k et Mn (IR) de la norme induite. Soit
b IR n . Si x est solution de (1.1) et x + x est solution de

A(x + x ) = b + b , (1.65)

alors
kx k kb k
cond(A) (1.66)
kxk kbk

D MONSTRATION En retranchant (1.1) (1.65), on obtient :


A x = b
et donc
k x k kA1 kk b k. (1.67)
Cette premire estimation nest pas satisfaisante car elle porte sur lerreur globale ; or la notion intressante est celle derreur
relative. On obtient lestimation sur lerreur relative en remarquant que b = Ax, ce qui entrane que kbk kAkkxk. On
en dduit que
1 kAk
.
kxk kbk
En multipliant membre membre cette dernire ingalit et (1.67), on obtient le rsultat souhait.

Remarquons que lestimation (1.66) est optimale. En effet, on va dmontrer quon peut avoir galit dans (1.66).
Pour cela, il faut choisir convenablement b et b . On sait dj que si x est solution de (1.1) et x + x est solution
de (1.64), alors
x = A1 b , et donc k x k = kA1 b k.
Soit x IR n tel que kxk = 1 et kAxk = kAk. Notons quun tel x existe parce que

kAk = sup{kAxk; kxk = 1} = max{kAxk; kxk = 1}

(voir proposition 1.27 page 51). On a donc

k x k kAk
= kA1 b k .
kxk kAxk

Analyse numrique I, tl-enseignement, L3 58 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Posons b = Ax ; on a donc kbk = kAk, et donc

kx k kAk
= kA1 b k .
kxk kbk

De mme, grce la proposition 1.27, il existe y IR n tel que kyk = 1, et kA1 yk = kA1 k. On choisit alors
b tel que b = y. Comme A(x + x ) = b + b , on a x = A1 b et donc :

kx k = kA1 b k = kA1 yk = kA1 k = kb k kA1 k.

On en dduit que
kx k kAk
= kx k = kb k kA1 k car kbk = kAk et kxk = 1.
kxk kbk
Par ce choix de b et b on a bien galit dans (1.66) qui est donc optimale.
Majorons maintenant lerreur relative commise sur x solution de Ax = b lorsque lon commet une erreur A sur
la matrice A.

Proposition 1.42 (Majoration de lerreur relative pour une erreur sur la matrice). Soit A Mn (IR) une matrice
inversible, et b IR n , b 6= 0. On munit IR n dune norme k k, et Mn (IR) de la norme induite. Soit A IR n ; on
suppose que A + A est une matrice inversible. Si x est solution de (1.1) et x + x est solution de

(A + A )(x + x ) = b (1.68)

alors
kx k kA k
cond(A) (1.69)
kx + x k kAk

D MONSTRATION En retranchant (1.1) (1.68), on obtient :


A(x = A (x + x )
et donc
x = A1 A (x + x ).
On en dduit que kx k kA1 kkA kkx + x k, do on dduit le rsultat souhait.

On peut en fait majorer lerreur relative dans le cas o lon commet la fois une erreur sur A et une erreur sur b.
On donne le thorme cet effet ; la dmonstration est toutefois nettement plus complique.
Thorme 1.43 (Majoration de lerreur relative pour une erreur sur matrice et second membre). Soit A Mn (IR)
une matrice inversible, et b IR n , bf b 6= 0. On munit IR n dune norme k k, et Mn (IR) de la norme induite.
1
Soient A Mn (IR) et b IR n . On suppose que kA k < . Alors la matrice (A + A ) est inversible et si
kA1 k
x est solution de (1.1) et x + x est solution de (1.64), alors
 
kx k cond(A) b k kA k
+ . (1.70)
kxk 1 kA1 k kA k kbk kAk

D MONSTRATION On peut crire A + A = A(Id + B) avec B = A1 A . Or le rayon spectral de B, (B), vrifie


(B) kBk kA k kA1 k < 1, et donc (voir le thorme 1.36 page 55 et lexercice 32 page 62) (Id + B) est inversible
X X
1 1
et (Id + B)1 = (1)n B n . On a aussi k(Id + B)1 k kBkn = 1 k k k
. On en dduit
n=0 n=0
1 kBk 1 kA A

que A + A est inversible, car A + A = A(Id + B) et comme A est inversible, (A + A )1 = (Id + B)1 A1 .

Analyse numrique I, tl-enseignement, L3 59 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Comme A et A + A sont inversibles, il existe un unique x IR n tel que Ax = b et il existe un unique x IR n tel que
(A + A )(x + x ) = b + b . Comme Ax = b, on a (A + A )x + A x = b et donc x = (A + A )1 b A x).
Or (A + A )1 = (Id + B)1 A1 , on en dduit :
k(A + A )1 k k(Id + B)1 k kA1 k

kA1 k
.
1 kA1 k kA k
On peut donc crire la majoration suivante :
 
kx k kA1 k kAk kb k kA k
+ .
kxk 1 kA1 k kA k kAk kxk kAk
En utilisant le fait que b = Ax et que par suite kbk kAk kxk, on obtient :
 
kx k kA1 k kAk kbk kA k
+ ,
kxk 1 kA1 k kA k kbk kAk
ce qui termine la dmonstration.

1.4.4 Discrtisation dquations diffrentielles, conditionnement efficace"


On suppose encore ici que A = 0. On suppose que la matrice A du systme linaire rsoudre provient de la
discrtisation par diffrences finies du problme de la chaleur unidimensionnel (1.5a). On peut alors montrer (voir
exercice 41 page 65) que le conditionnement de A est dordre n2 , o n est le nombre de points de discrtisation.
Pour n = 10, on a donc cond(A) 100 et lestimation (1.66) donne :
kx k kb k
100 .
kxk kbk
Une erreur de 1% sur b peut donc entraner une erreur de 100% sur x. Autant dire que dans ce cas, il est inutile
de rechercher la solution de lquation discrtise. . . Heureusement, on peut montrer que lestimation (1.66) nest
pas significative pour ltude de la propagation des erreurs lors de la rsolution des systmes linraires provenant
de la discrtisation dune quation diffrentielle ou dune quation aux drives partielles 7 . Pour illustrer notre
propos, reprenons ltude du systme linaire obtenu partir de la discrtisation de lquation de la chaleur (1.5a)
quon crit : Au = b avec b = (b1 , . . . , bn ) et A la matrice carre dordre n de coefficients (ai,j )i,j=1,n dfinis
par (1.10). On rappelle que A est symtrique dfinie positive (voir exercice 8 page 19), et que
h2 (4)
max {|ui u(xi )|} ku k .
i=1...n 96
En effet, si on note u le vecteur de IR de composantes u(xi ), i = 1, . . . , n, et R le vecteur de IR n de composantes
n

Ri , i = 1, . . . , n, on a par dfinition de R (formule (1.7)) A(u u) = R, et donc ku uk kA1 k kRk .


Or on peut montrer (voir exercice 41 page 65) que cond(A) n2 . Donc si on augmente le nombre de points,
le conditionnement de A augmente aussi. Par exemple si n = 104 , alors kx k/kxk = 108 kb k/kbk. Or sur un
ordinateur en simple prcision, on a kb k/kbk 107 , donc lestimation (1.66) donne une estimation de lerreur
relative kx k/kxk de 1000%, ce qui laisse dsirer pour un calcul quon espre prcis.
En fait, lestimation (1.66) ne sert rien pour ce genre de problme, il faut faire une analyse un peu plus pousse,
comme cest fait dans lexercice 43 page 65. On se rend compte alors que pour f donne il existe C IR + ne
dpendant que de f (mais pas de n) tel que

f (x1 )
k u k k b k
avec b = ... .

C (1.71)
kuk kbk
f (xn )
7. On appelle quation aux drives partielles une quation qui fait intervenir les drives partielles de la fonction inconnue, par exemple
2u 2
x2
+ yu 2
2 = 0, o u est une fonction de IR dans IR

Analyse numrique I, tl-enseignement, L3 60 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Lestimation (1.71) est videmment bien meilleure que lestimation (1.66) puisquelle montre que lerreur relative
commise sur u est du mme ordre que celle commise sur b. En particulier, elle naugmente pas avec le nombre
de points de discrtisation. En conclusion, lestimation (1.66) est peut-tre optimale dans le cas dune matrice
quelconque, (on a montr ci-dessus quil peut y avoir galit dans (1.66)) mais elle nest pas toujours significative
pour ltude des systmes linaires issus de la discrtisation des quations aux drives partielles.

1.4.5 Exercices
Exercice 26 (Normes de lIdentit).
Soit Id la matrice Identit" de Mn (IR). Montrer que pour toute norme induite on a kIdk = 1 et que pour toute
norme matricielle on a kIdk 1.
Exercice 27 (Normes induites particulires). Suggestions en page 66, corrig dtaill en page 67.
Soit A = (ai,j )i,j{1,...,n} Mn (IR).
1. On munit IR n de la norme k k et Mn (IR) de la norme induite correspondante, note aussi k k .
Montrer que
Xn
kAk = max |ai,j |.
i{1,...,n}
j=1
n
2. On munit IR de la norme k k1 et Mn (IR) de la norme induite correspondante, note aussi k k1 . Montrer
que
n
X
kAk1 = max |ai,j |.
j{1,...,n}
i=1

Exercice 28 (Norme non induite).


Pn 1
Pour A = (ai,j )i,j{1,...,n} Mn (IR), on pose kAks = ( i,j=1 a2i,j ) 2 .
1. Montrer que k ks est une norme matricielle mais nest pas une norme induite (pour n > 1).

2. Montrer que kAk2s = tr(At A). En dduire que kAk2 kAks nkAk2 et que kAxk2 kAks kxk2 ,
pour tout A Mn (IR) et tout x IR n .
3. Chercher un exemple de norme non matricielle.
Exercice 29 (Valeurs propres dun produit de matrices).
Soient p et n des entiers naturels non nuls tels que n p, et soient A Mn,p (IR) et B Mp,n (IR). (On rappelle
que Mn,p (IR) dsigne lensemble des matrices n lignes et p colonnes.)
1. Montrer que est valeur propre non nulle de AB si et seulement si est valeur propre non nulle de BA.
2. Montrer que si = 0 est valeur propre de AB alors est valeur propre nulle de BA. (Il est conseill de
distinguer les cas Bx 6= 0 et Bx = 0, o x est un vecteur propre associ la = 0 valeur propre de AB.
Pour le deuxime cas, on pourra distinguer selon que ImA = IR n ou non.)
3. Montrer en donnant un exemple que peut tre une valeur propre nulle de BA sans tre valeur propre de
AB. (Prendre par exemple n = 1, p = 2.)
4. On suppose maintenant que n = p, dduire des questions 1 et 2 que lensemble des valeurs propres de AB
est gal lensemble des valeurs propres de la matrice BA.
Exercice 30 (Rayon spectral). Corrig en page 68.
Soit A Mn (IR). Montrer que si A est diagonalisable, il existe une norme induite sur Mn (IR) telle que (A) =
kAk. Montrer par un contre exemple que ceci peut tre faux si A nest pas diagonalisable.
Exercice 31 (Sur le rayon spectral).

Analyse numrique I, tl-enseignement, L3 61 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

On dfinit les matrices carres dordre 2 suivantes :


   
1 1 1 0
A= , B= , C = A + B.
1 1 1 1

Calculer le rayon spectral de chacune des matrices A, B et C et en dduire que le rayon spectral ne peut tre ni
une norme, ni mme une semi-norme sur lespace vectoriel des matrices.
Exercice 32 (Srie de Neumann). Suggestions en page 67, corrig dtaill en page 68.
Soient A Mn (IR).

1. Montrer que si (A) < 1, les matrices Id A et Id + A sont inversibles.

2. Montrer que la srie de terme gnral Ak converge (vers (Id A)1 ) si et seulement si (A) < 1.

1
3. Montrer que si (A) < 1, et si k k une norme matricielle telle que kAk < 1, alors k(Id A)1 k 1kAk et
1
k(Id + A)1 k 1kAk .

Exercice 33 (Normes induites).


Soit k.k une norme induite sur Mn (IR) par une norme quelconque sur IR n , et soit A Mn (IR) telle que (A) < 1
(on rappelle quon note (A) le rayon spectral de la matrice A). Pour x IR n , on dfinit kxk par :

X
kxk = kAj xk.
j=0

1. Montrer que lapplication dfinie de IR n dans IR par x 7 kxk est une norme.
2. Soit x IR n tel que kxk = 1. Calculer kAxk en fonction de kxk, et en dduire que kAk < 1.
3. On ne suppose plus que (A) < 1. Soit > 0 donn. Construire partir de la norme k.k une norme induite
k.k telle que kAk (A) + .
Exercice 34 (Un systme par blocs).
Soit A Mn (IR) une matrice carre dordre N inversible, b, c, f IR n . Soient et IR. On cherche
rsoudre le systme suivant (avec x IR n , IR) :

Ax + b = f,
(1.72)
c x + = .
1. Ecrire le systme (1.72) sous la forme : M y = g, o M est une matrice carre dordre n + 1, y IR n+1 ,
g IR n+1 . Donner lexpression de M , y et g.
2. Donner une relation entre A, b, c et , qui soit une condition ncessaire et suffisante pour que le systme
(1.72) soit inversible. Dans toute la suite, on supposera que cette relation est vrifie.
3. On propose la mthode suivante pour la rsolution du systme (1.72) :
(a) Soient z solution de Az = b, et h solution de Ah = f .
ch ch
(b) x = h z, = .
cz cz
Montrer que x IR n et IR ainsi calculs sont bien solutions du systme (1.72).
4. On suppose dans cette question que A est une matrice bande, dont la largeur de bande est p.
(a) Calculer le cot de la mthode de rsolution propose ci-dessus en utilisant la mthode LU pour la
rsolution des systmes linaires.

Analyse numrique I, tl-enseignement, L3 62 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

(b) Calculer le cot de la rsolution du systme M y = g par la mthode LU (en profitant ici encore de la
structure creuse de la matrice A).
(c) Comparer et conclure.
Dans les deux cas, le terme dordre suprieur est 2nq 2 , et les cots sont donc comparables.
Exercice 35 (Proprits gnrales du conditionnement). Corrig dtaill en page 69.
On suppose que IR n est muni de la norme euclidienne usuelle k k = k k2 et Mn (IR) de la norme induite (note
aussi k k2 . On note alors cond2 (A) le conditionnement dune matrice A inversible.
1. Soit A Mn (IR) une matrice inversible. Montrer que cond2 (A) = 1 si et seulement si A = Q o
IR et Q est une matrice orthogonale (cest--dire Qt = Q1 ).
2. Soit A Mn (IR) une matrice inversible. On suppose que A = QR o Q est une matrice orthogonale.
Montrer que cond2 (A) = cond2 (R).
3. Soit A, B Mn (IR) deux matrices symtriques dfinies positives. Montrer que

cond2 (A + B) max{cond2 (A), cond2 (B)}.

Exercice 36 (Conditionnement de la matrice transpose). On suppose que A Mn (IR) est inversible.


1. Montrer que si B Mn (IR), on a pour tout C,

det(AB Id) = det(BA Id).

2. En dduire que les rayons spectraux des deux matrices AB et BA sont identiques.
3. Montrer que kAt k2 = kAk2 .
4. En dduire que cond2 (A) = cond2 (At ).
5. Montrer que la norme induite associe la norme 1 de IR n est donne par :
n
X
kAk1 = max |aij |
j{1,...,nt}
i=1

A-t-on kAt k1 = kAk1 ?


6. Montrer que dans le cas n = 2, on a toujours cond1 (A) = cond1 (At ), A M2 (IR).

2 0 0
7. Calculer cond1 (A) pour A = 1 1 0 et conclure.
1 1 1
Exercice 37 (Majoration du conditionnement).
Soit k . k une norme induite sur Mn (IR) et soit A Mn (IR) telle que det(A) 6= 0.
1
1. Montrer que si kA Bk < kA1 k , alors B est inversible.
kAk
2. Montrer que cond (A) supBMn (IR) kABk
detB=0

Exercice 38 (Minoration du conditionnement). Corrig dtaill en page 70.


On note k k une norme matricielle sur Mn (IR). Soit A Mn (IR) une matrice carre inversible, cond(A) =
kAkkA1 k le conditionnement de A, et soit A Mn (IR).
1. Montrer que si A + A est singulire, alors

kAk
cond(A) . (1.73)
kA k

Analyse numrique I, tl-enseignement, L3 63 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

2. On suppose dans cette question que la norme k k est la norme induite par la norme euclidienne sur IR n .
Montrer que la minoration (1.73) est optimale, cest--dire quil existe A Mn (IR) telle que A + A soit
singulire et telle que lgalit soit vrifie dans (1.73).
[On pourra chercher A de la forme
y xt
A = t ,
x x
avec y IR n convenablement choisi et x = A1 y.]
3. On suppose ici que la norme k k est la norme induite par la norme infinie sur IR n . Soit ]0, 1[. Utiliser
lingalit (1.73) pour trouver un minorant, qui tend vers + lorsque tend vers 0, de cond(A) pour la
matrice
1 1 1
A = 1 .
1
Exercice 39 (Conditionnement du carr).
Soit A Mn (IR) une matrice telle que detA 6= 0.
1. Quelle relation existe-t-il en gnral entre cond (A2 ) et (cond A)2 ?
2. On suppose que A symtrique. Montrer que cond2 (A2 ) = (cond2 A)2 .
3. On suppose que cond2 (A2 ) = (cond2 A)2 . Peut-on conclure que A est symtrique ? (justifier la rponse.)
Exercice 40 (Calcul de linverse dune matrice et conditionnement). Corrig dtaill en page 71.
On note k k une norme matricielle sur Mn (IR). Soit A Mn (IR) une matrice carre inversible. On cherche ici
des moyens dvaluer la prcision de calcul de linverse de A.
1. On suppose quon a calcul B, approximation (en raison par exemple derreurs darrondi) de la matrice
A1 . On pose :

kB A1 k kB 1 Ak
e1 = 1
, e2 =
kA k kAk (1.74)



e3 = kAB Idk, e4 = kBA Idk
(a) Expliquer en quoi les quantits e1 , e2 , e3 et e4 mesurent la qualit de lapproximation de A1 .
(b) On suppose ici que B = A1 + E, o kEk kA1 k, et que

cond(A) < 1.

Montrer que dans ce cas,


cond(A)
e1 , e2 , e3 cond(A) et e4 cond(A).
1 cond(A)

(c) On suppose maintenant que AB Id = E avec kE k < 1. Montrer que dans ce cas :

e1 , e2 , e3 et e4 cond(A).
1
2. On suppose maintenant que la matrice A nest connue qu une certaine matrice derreurs prs, quon note
A .
1
(a) Montrer que la matrice A + A est inversible si kA k < .
kA1 k
(b) Montrer que si la matrice A + A est inversible, alors
k(A + A )1 A1 k kA k
cond(A) .
k(A + A )1 k kAk

Analyse numrique I, tl-enseignement, L3 64 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Exercice 41 (Conditionnement du Laplacien discret 1D). Suggestions en page 67, corrig dtaill en page 72. Soit
f C([0, 1]). Soit n IN , n impair. On pose h = 1/(n + 1). Soit A la matrice dfinie par (1.10) page 12, issue
dune discrtisation par diffrences finies (vue en cours) du problme (1.5a) page 11.
Calculer les valeurs propres et les vecteurs propres de A. [On pourra commencer par chercher IR et
C 2 (IR, IR) ( non identiquement nulle) t.q. (x) = (x) pour tout x ]0, 1[ et (0) = (1) = 0].
Calculer cond2 (A) et montrer que h2 cond2 (A) 42 lorsque h 0.
Exercice 42 (Conditionnement, raction diffusion 1d.).
On sintresse au conditionnement pour la norme euclidienne de la matrice issue dune discrtisation par Diffren-
ces Finies du problme (1.28) tudi lexercice 10, quon rappelle :

u (x) + u(x) = f (x), x ]0, 1[,


(1.75)
u(0) = u(1) = 0.

Soit n IN . On note U = (uj )j=1,...,n une valeur approche de la solution u du problme (1.28) aux points
 
j
n+1 . On rappelle que la discrtisation par diffrences finies de ce problme consiste chercher U
j=1,...,n  
comme solution du systme linaire AU = f ( N j+1 ) o la matrice A Mn (IR) est dfinie par A =
j=1,...,n
(N + 1)2 B + Id, Id dsigne la matrice identit et

2 1 0 . . . 0
..
1 2 1 . . .

.

. .. . .. . ..
B= 0 0

. .
.. . . 1 2 1
0 . . . 0 1 2

1. (Valeurs propres de la matrice B.)


On rappelle que le problme aux valeurs propres

u (x) = u(x), x ]0, 1[,


(1.76)
u(0) = u(1) = 0.

 (k , uk )kIN , k = (k) et uk (x) = sin(kx) comme solution. Montrer que les


admet la famille 2

j
vecteurs Uk = uk ( n+1 ) sont des vecteurs propres de la matrice B. En dduire toutes les valeurs
j=1,...,n
propres de la matrice B.
2. En dduire les valeurs propres de la matrice A.
3. En dduire le conditionnement pour la norme euclidienne de la matrice A.
Exercice 43 (Conditionnement efficace"). Suggestions en page 67.
Soit f C([0, 1]). Soit n IN , n impair. On pose h = 1/(n + 1). Soit A la matrice dfinie par (1.10) page 12,
issue dune discrtisation par diffrences finies (vue en cours) du problme (1.5a) page 11.
Pour u IR n , on note u1 , . . . , un les composantes n
Pnde u. Pour u IR , on dit que u 0 si ui 0 pour tout
n
i {1, . . . , n}. Pour u, v IR , on note u v = i=1 ui vi .
On munit IR n de la norme suivante : pour u IR n , kuk = max{|ui |, i {1, . . . , n}}. On munit alors Mn (IR)
de la norme induite, galement note k k, cest--dire kBk = max{kBuk, u IR n t.q. kuk = 1}, pour tout
B Mn (IR).
Partie I Conditionnement de la matrice et borne sur lerreur relative

Analyse numrique I, tl-enseignement, L3 65 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

1. (Existence et positivit de A1 ) Soient b IR n et u IR n t.q. Au = b. Remarquer que Au = b peut


scrire :
 1 1
h2 (ui ui1 ) + h2 (ui ui+1 ) = bi , i {1, . . . , n}, (1.77)
u0 = un+1 = 0.
Montrer que b 0 u 0. [On pourra considrer p {0, . . . , n + 1} t.q. up = min{uj , j
{0, . . . , n + 1}.]
En dduire que A est inversible.
2. (Prliminaire) On considre la fonction C([0, 1], IR) dfinie par (x) = (1/2)x(1 x) pour tout
x [0, 1]. On dfinit alors = (1 , . . . n ) IR n par i = (ih) pour tout i {1, . . . , n}. Montrer que
(A)i = 1 pour tout i {1, . . . , n}.
3. (Calcul de kA1 k) Soient b IR n et u IR n t.q. Au = b. Montrer que kuk (1/8)kbk [Calculer
A(u kbk) avec
bf phi dfini la question 2 et utiliser la question 1]. En dduire que kA1 k 1/8 puis montrer que
kA1 k = 1/8.
4. (Calcul de kAk) Montrer que kAk = h42 .
5. (Conditionnement pour la norme k k). Calculer kA1 kkAk. Soient b, b IR n et soient u, u IR n t.q.
ku k kbk
Au = b et A(u + u ) = b + b . Montrer que kA1 kkAk .
kuk kbk
Montrer quun choix convenable de b et b donne lgalit dans lingalit prcdente.
Partie II Borne raliste sur lerreur relative : Conditionnement efficace"
On se donne maintenant f C([0, 1], IR) et on suppose (pour simplifier. . . ) que f (x) > 0 pour tout x ]0, 1[.
On prend alors, dans cette partie, bi = f (ih) pour tout i {1, . . . , n}. On considre aussi le vecteur dfini la
question 2 de la partie I.
1. Montrer que
n
X Z 1
h bi i f (x)(x)dx quand n
i=1 0

et que
n
X
bi i > 0 pour tout n IN .
i=1
P
En dduire quil existe > 0, ne dpendant que de f , t.q. h ni=1 bi i pour tout n IN .
P
2. Soit u IR n t.q. Au = b. Montrer que nkuk ni=1 ui = u A h (avec donn la question 1).
ku k kf kL (]0,1[) kb k
Soit b IR n et u IR n t.q. A(u + u ) = b + b . Montrer que .
kuk 8 kbk
kf kL(]0,1[)
3. Comparer kA1 kkAk (question I.5) et (question II.2) quand n est grand" (ou quand n
8
).

1.4.6 Suggestions pour les exercices


Exercice 27 page 61 (Normes induites particulires)
P P
1. Pour montrer lgalit, prendre x tel que xj = sign(ai0 ,j ) o i0 est tel que j=1,...,n |ai0 ,j | j=1,...,n |ai,j |,
i = 1, . . . , n, et sign(s) dsigne le signe de s.
P
P lgalit, prendre x tel que xj0 = 1 et xj = 0 si j 6= j0 , o j0 est tel que
2. Pour montrer i=1,...,n |ai,j0 | =
maxj=1,...,n i=1,...,n |ai,j |.

Analyse numrique I, tl-enseignement, L3 66 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Exercice 32 page 62 (Srie de Neumann)


1. Montrer que si (A) < 1, alors 0 nest pas valeur propre de Id + A et Id A.

2. Utiliser le corollaire 1.32.

Exercice 35 page 63 (Proprits gnrales du conditionnement)

3. Soient 0 < 1 2 . . . n et 0 < 1 2 . . . n les valeurs propres de A et B (qui sont s.d.p.). Montrer
dabord que :
n + n
cond2 (A + B) .
1 + 1
Montrer ensuite que
a+b a b
max( , ), (a, b, c, d) (IR + )4 .
c+d c d
et conclure

Exercice 41 page 65(Conditionnement du Laplacien discret 1D)

2. Chercher les vecteurs propres IR n de A sous la forme j = (xj ), j = 1, . . . , n o est introduite dans
les indications de lnonc. Montrer que les valeurs propres associes ces vecteurs propres sont de la forme :
2 2 k
k = 2
(1 cos kh) = 2 (1 cos ).
h h n+1

Exercice 43 page 65 (Conditionnement efficace)


Partie 1
1. Pour montrer que A est inversible, utiliser le thorme du rang.

2. Utiliser le fait que est un polynme de degr 2.


1
3. Pour montrer que kA1 k = , remarquer que le maximum de est atteint en x = .5, qui correspond un point
8
de discrtisation car n est impair.

Partie 2 Conditionnement efficace


1. Utiliser la convergence uniforme des fonctions constantes par morceaux h et fh dfinies par

(ih) = i si x ]xi h2 , xi + h2 [, i = 1, . . . , n,
h (x) = h h et
 0 si x [0, 2 ] ou x ]1 h 2 , 1]. h
f (ih) = bi si x ]xi 2 , xi + 2 [,
fh (x) =
f (ih) = 0 si x [0, h2 ] ou x ]1 h2 , 1].
2. Utiliser le fait que A = (1 . . . 1)t .

1.4.7 Corrigs
Exercice 27 page 61 (Normes induites particulires)
1. Par dfinition, kAk = sup xIR n kAxk , et
kxk =1
X X
kAxk = max | ai,j xj | max |ai,j ||xj |.
i=1,...,n i=1,...,n
j=1,...,n j=1,...,n

Analyse numrique I, tl-enseignement, L3 67 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Or kxk = 1 donc |xj | 1 et X


kAxk max |ai,j |.
i=1,...,n
j=1,...,n
P
Montrons maintenant que la valeur = maxi=1,...,n | j=1,...,n |ai,j | est atteinte, cest--dire quil existe x
n
IR , kxk = 1, tel que kAxk = . Pour s IR, on note sign(s) le signe de s, cestdire
(
s/|s si s 6= 0,
sign(s) = |
0 si s = 0.
P P
Choisissons x IR n dfini par xj = sign(ai0 ,j ) o i0 est tel que j=1,...,n |ai0 ,j | j=1,...,n |ai,j |, i =
1, . . . , n. On a bien kxk = 1, et
n
X
kAxk = max | ai,j sgn(ai0 ,j )|.
i=1,...,n
j=1

Or, par choix de x, on a X X


|ai0 ,j | = maxi=1,...,n |ai,j |.
j=1,...,n j=1,...,n
P
On en dduit que pour ce choix de x, on a bien kAxk = maxi=1,...,n | j=1,...,n |ai,j |.

2. Par dfinition, kAk1 = sup xIR n kAxk1 , et


kxk1 =1

n n n n
! n
X X X X X X
kAxk1 = | ai,j xj | |xj | |ai,j | max |ai,j | |xj |.
j=1,...,n
i=1 j=1 j=1 i=1 i=1 j=1,...,n
Pn P
Et comme j=1 |xj | = 1, on a bien que kAk1 maxj=1,...,n i=1,...,n |aP i,j |.
Montrons maintenant quil existe x IR n , kxk1 = 1, tel que kAxk1 = i=1,...,n |ai,j |. Il Psuffit de considrer
vecteur x IR n dfini par xj0 = 1 et xj = 0 si j 6= j0 , o j0 est tel que P i=1,...,n |ai,j0 | =
pour cela le P
maxj=1,...,n i=1,...,n |ai,j |. On vrifie alors facilement quon a bien kAxk1 = maxj=1,...,n i=1,...,n |ai,j |.

Exercice 30 page 61 (Rayon spectral)


Pn
Il suffit de prendre comme norme la norme dfinie par : kxk2 = i=1 2i o les (i )i=1,n sont les composantes
de x dans la base des vecteurs propres  associs 
A. Pour montrer que ceci est faux dans le cas o A nest pas
0 1
diagonalisable, il suffit de prendre A = , on a alors (A) = 0, et comme A est non nulle, kAk =
6 0.
0 0

Exercice 32 page 62 (Srie de Neumann)


1. Si (A) < 1, les valeurs propres de A sont toutes diffrentes de 1 et 1. Donc 0 nest pas valeur propre des
matrices Id A et Id + A, qui sont donc inversibles.

2. Supposons que (A) < 1. Il est facile de remarquer que


Xn
( Ak )(Id A) = Id An+1 . (1.78)
k=0

Si (A) < 1, daprs le corollaire 1.32, on a Ak 0 lorsque k 0. De plus, Id A est inversible. En passant
la limite dans (1.78) et on a donc
+
X
1
(Id A) = Ak . (1.79)
k=0

Analyse numrique I, tl-enseignement, L3 68 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Rciproquement, si (A) 1, la srie ne peut pas converger en raison du corollaire 1.32.


3. On a dmontr plus haut que si (A) < 1, la srie de terme gnral Ak est absolument convergente et quelle
vrifie (1.79). On en dduit que si kAk < 1,
+
X 1
k(Id A)1 k kAk k = .
1 kAk
k=0

On a de mme
+
X
(Id + A)1 = (1)k Ak ,
k=0

do on dduit de manire similaire que


+
X 1
k(Id + A)1 k kAk k = .
1 kAk
k=0

Exercice 35 page 63 (proprits gnrales du conditionnement)


q
1. Si cond2 (A) = 1, alors n1 = 1 et donc toutes les valeurs propres de At A sont gales. Comme At A est
symtrique dfinie positive (car A est inversible), il existe une base orthonorme (f 1 . . . f n ) telle que At Af i =
1
f i , i et > 0 (car At A est s.d.p.). On a donc At A = Id At = 2 A1 avec = . En posant Q = A,

1
on a donc Qt = At = A1 = Q1 .

Rciproquement, si A = Q, alors At A = 2 Id, n1 = 1, et donc cond2 (A) = 1.

2. A Mn (IR)
r est une matrice inversible. On suppose que A = QR o Q est une matrice orthogonale. On a donc
n
cond2 (A) = o 1 . . . n sont les valeurs propres de At A. Or At A = (QR)t (QR) = Rt Q1 QR =
1
Rt R. Donc cond2 (A) = cond2 (R).

3. Soient 0 < 1 2 . . . n et 0 < 1 2 . . . n les valeurs propres de A et B (qui sont s.d.p.). Alors
n
cond2 (A + B) = , o 0 < 1 . . . n sont les valeurs propres de A + B.
1
a) On va dabord montrer que
n + n
cond2 (A + B) .
1 + 1
Remarquons en premier lieu que si A est s.d.p., alors
supkxk=1 Ax x
cond2 (A) =
inf kxk2 =1 Ax x

En effet, si A est s.d.p., alors sup Ax x = n ; il suffit pour sen rendre compte de dcomposer x sur la
kxk2 =1
n
X n
X
base (f i )i=1...n . Soit x = i f i . Alors : Ax x = 2i i n 2i = n . Et Af n f n = n .
i=1 i=1
De mme, Ax x 1 2i = 1 et Ax x = 1 si x = f1 . Donc inf Ax x = 1 .
kxk=1
supkxk=1 Ax x
On en dduit que si A est s.d.p., cond2 (A) =
inf kxk=1 Ax x
supkxk=1 (A + B)x x
Donc cond2 (A + B) =
inf kxk=1 (A + B)x x

Analyse numrique I, tl-enseignement, L3 69 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Or sup (Ax x + Bx x) sup Ax x + sup Bx x = n + n


kxk=1 kxk=1 kxk=1

et inf (Ax x + Bx x) inf Ax x + inf Bx x = 1 + 1


kxk=1 kxk=1 kxk=1

donc
n + n
cond2 (A + B) .
1 + 1
b) On va montrer que
a+b a b
max( , ), (a, b, c, d) (IR + )4 .
c+d c d
a+b a
Supposons que alors (a + b)c (c + d)a cestdire bc da donc bc + bd da + db soit
c+d c
b(c + d) d(a + b) ; donc a+b b
c+d d . On en dduit que cond2 (A + B) max(cond2 (A), cond2 (B)).

Exercice 38 page 63 (Minoration du conditionnement)


1. Comme A est inversible, A + A = A(Id + A1 A ), et donc si A + A est singulire, alors Id + A1 A
est singulire. Or on a vu en cours que toute matrice de la forme Id + B est inversible si et seulement si
(B) < 1. On en dduit que (A1 A ) 1, et comme

(A1 A ) kA1 A k kA1 kkA k,

on obtient
kAk
kA1 kkA k 1, soit encore cond(A) .
kA k
y xt
2. Soit y IR n tel que kyk = 1 et kA1 yk = kA1 k. Soit x = A1 y, et A = xt x ,on a donc

y xt y xt x
(A + A )x = Ax t
x=y = 0.
x x xt x
La matrice A + A est donc singulire. De plus,
1
kA k = ky y t At k.
kxk2

Or par dfinition de x et y, on a kxk2 = kA1 k2 . Dautre part, comme il sagit ici de la norme L2 , on a
kAt k = kA1 k. On en dduit que
1 1
kA k = kyk2 kA1 k = .
kA1 k2 kA1 k

On a donc dans ce cas galit dans (1.73).



0 0 0
3. Remarquons tout dabord que la matrice A est inversible. En effet, detA = 22 > 0. Soit A = 0 .
0
Comme det(A + A ) = 0, la matrice A + A est singulire, et donc

kAk
cond(A) . (1.80)
kA k
3
Or kA k = 2 et kAk = max(3, 1 + 2) = 3, car ]0, 1[. Donc cond(A) 2 .

Analyse numrique I, tl-enseignement, L3 70 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Exercice 40 page 64 (Calcul de linverse dune matrice et conditionnement)


1. (a) Linverse de la matrice A vrifie les quatre quations suivantes :

X A1 = 0, X 1 A = 0,

AX Id = 0, XA Id = 0.

Les quantits e1 , e2 , e3 et e4 sont les erreurs relatives commises sur ces quatre quations lorsquon
remplace X par B ; en ce sens, elles mesurent la qualit de lapproximation de A1 .
(b) On remarque dabord que comme la norme est matricielle, on a kM P k kM kkP k pour toutes ma-
trices M et P de Mn (IR). On va se servir de cette proprit plusieurs fois par la suite.
() Comme B = A1 + E, on a
kEk kA1 k
e1 = = .
kA1 k kA1 k
() Par dfinition,
kB 1 Ak k(A1 + E)1 Ak
e2 = = .
kAk kAk
Or
(A1 + E)1 A = (A1 (Id + AE))1 A
= (Id + AE)1 A A
= (Id + AE)1 (Id (Id + AE))A
= (Id + AE)1 AEA.
On a donc
e2 k(Id + AE)1 kkAkkEk.
Or par hypothse, kAEk kAkkEk cond(A) < 1 ; on en dduit, en utilisant le thorme 1.11,
que :

1 cond(A)
k(Id + AE))1 k , et donc e2 .
1 kAEk 1 cond(A)
() Par dfinition, e3 = kAB Idk = kA(A1 + E) Idk = kAEk kAkkEk kAkkA1 k =
cond(A).
() Enfin, e4 = kBA Idk = k(A1 + E)A Idk kEAk kEkkAk cond(A).
(c) () Comme B = A1 (Id + E ), on a

kA1 (Id + E ) A1 k
e1 = kId + E Idk .
kA1 k

() Par dfinition,
k(Id+E )1 AAk
e2 = kAk
k(Id+E )1 (A(Id+E )A)k
= kAk
1
k(Id + E ) kkId (Id + E )k 1

car < 1 (thorme 1.1).


() Par dfinition, e3 = kAB Idk = kAA1 (Id + E ) Idk = kE k .
() Enfin, e4 = kBA Idk = kA1 (Id + E )A Idk = kA1 (A + E A A)k kA1 kkAE k
cond(A).

Analyse numrique I, tl-enseignement, L3 71 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

2. (a) On peut crire A + A = A(Id + A1 A ). On a vu en cours (thorme 1.11) que si kA1 A k < 1,
alors la matrice Id + A1 A est inversible. Or kA1 A k kA1 kkA k, et donc la matrice A + A est
1
inversible si kA k < .
kA1 k
(b) On peut crire k(A + A )1 A1 k = k(A + A )1 (Id (A + A )A1 k k(A + A )1 kkId
Id A A1 k k(A + A )1 kA kkA1 k. On en dduit le rsultat.

Exercice 41 page 65 (Conditionnement du Laplacien discret 1D)


Pour chercher les valeurs propres et vecteurs propres de A, on sinspire des valeurs propres et vecteurs propres du
problme continu, cestdire des valeurs et fonctions telles que

(x) = (x) x ]0, 1[
(1.81)
(0) = (1) = 0

(Notons que ce truc ne marche pas dans nimporte quel cas.)


Lensemble des solutions de lquation diffrentielle
= est un espace vectoriel dordre 2. donc est
de la forme (x) = cos x + sin x( 0) et et dont dtermins par les conditions aux limites
(0) = = 0 et (1) = cos + sin = 0 ; on veut 6= 0 car on cherche 6= 0 et donc on obtient
= k 2 2 . Les couples (, ) vrifiant (1.81) sont donc de la forme (k 2 2 , sin kx).
(k)
2. Pour k = 1 n, posons i = sin kxi , o xi = ih, pour i = 1 n, et calculons A(k) :

(A(k) )i = sink(i 1)h + 2 sin k(ih) sin k(i + 1)h.

En utilisant le fait que sin(a + b) = sin a cos b + cos a sin b pour dvelopper sin k(1 i)h et sin k(i + 1)h, on
obtient (aprs calculs) :
(k)
(A(k) )i = k i , i = 1, . . . , n,
avec
2 2 k
k = 2
(1 cos kh) = 2 (1 cos ) (1.82)
h h n+1
On a donc trouv n valeurs propres 1 , . . . , n associes aux vecteurs propres (1) , . . . , (n) de IR n dfinis par
(k) ki
i = sin , i = 1 . . . n.
n+1
Remarque : Lorsque n + (ou h 0), on a
 
(h) 2 k 2 2 h2
k = 2 1 1 + + O(h ) = k 2 2 + O(h2 )
4
h 2

Donc
(h)
k k 2 2 = k lorsque h 0.
Calculons maintenant cond2 (A). Comme A est s.d.p., on a
n
n 1 cos n+1
cond2 (A) = =
1 1 cos n+1
n
On a : h2 n = 2(1 cos n+1 ) 4 et 1 2 lorsque h 0. Donc

4
h2 cond2 (A) lorsque h 0.
2

Analyse numrique I, tl-enseignement, L3 72 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

Exercice 43 page 65 (Conditionnement efficace")


Partie I
1. Soit u = (u1 , . . . , un )t . On a
(
1 1
(ui ui1 ) + 2 (ui ui+1 ) = bi , i = 1, . . . , n,
Au = b h2 h
u0 = un+1 = 0.

Supposons bi 0, i = 1, . . . , n, et soit

p = min{k {0, . . . , n + 1}; uk = min{ui , i = 0, . . . , n + 1}}.

Remarquons que p ne peut pas tre gal n + 1 car u0 = un+1 = 0. Si p = 0, alors ui 0 i = 0, n + 1 et donc
u 0.
Si p {1, . . . , n}, alors
1 1
(up up1 ) + 2 (up up+1 ) 0;
h2 h
mais par dfinition de p, on a up up1 < 0 et up up+1 0, et on aboutit donc une contradiction.

Montrons maintenant que A est inversible. On vient de montrer que si Au 0 alors u 0. On en dduit par
linarit que si Au 0 alors u 0, et donc que si Au = 0 alors u = 0. Ceci dmontre que lapplication linaire
reprsente par la matrice A est injective donc bijective (car on est en dimension finie).

1
2. Soit C([0, 1], IR) tel que (x) = x(1 x) et i = (xi ), i = 1, n, o xi = ih.
2
On remarque que (A)i est le dveloppement de Taylor lordre 2 de (xi ). En effet, est un polynme de degr
2, sa drive troisime est nulle ; de plus on a (x) = 12 x et (x) = 1. On a donc :

h2
i+1 = i + h (xi )
2
2
h
i1 = i h (xi )
2
1
On en dduit que h2 (2i i+1 i+1 ) = 1, et donc que (A)i = 1.

3. Soient b IR n et u IR n tels que Au = b. On a :

(A(u kbk))i = (Au)i kbk(A)i = bi kbk.

Prenons dabord bi = bi + kbk 0, alors par la question (1),

ui + kbki 0 i = 1 . . . n.

Si maintenant on prend bi = bi kbk 0, alors

ui kbki 0 i = 1, . . . , n.

On a donc kbki ui kbki .


1 1
On en dduit que kuk kbk kk ; or kk = . Do kuk kbk.
8 8
On peut alors crire que pour tout b IR n ,

1 kA1 bk 1 1
kA1 bk kbk, donc , do kA1 k .
8 kbk 8 8

Analyse numrique I, tl-enseignement, L3 73 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

1
On montre que kA1 k = en prenant le vecteur b dfini par b(xi ) = 1, i = 1, . . . , n. On a en effet A1 b = ,
8
et comme n est impair, i {1, . . . , n} tel que xi = 21 ;or kk = ( 12 ) = 18 .
P
4. Par dfinition, on a kAk = supkxk=1 kAxk, et donc kAk = maxi=1,n j=1,n |ai,j |, do le rsultat.

5. Grce aux questions 3 et 4, on a, par dfinition du conditionnement pour la norme kk, cond(A) = kAkkA1 k =
1
2h2 .
Comme Au = b , on a :
kbk kAkkuk
ku k kA1 kkb k kA1 kkb k ,
kbk kbk
do le rsultat.
Pour obtenir lgalit, il suffit de prendre b = Au o u est tel que kuk = 1 et kAuk = kAk, et b tel que kb k = 1
et kA1 b k = kA1 k. On obtient alors

kb k 1 kuk
= et = kA1 k.
kbk kAk kuk

Do lgalit.

Partie 2 Conditionnement efficace

1. Soient h et fh les fonctions constantes par morceaux dfinies par



(ih) = i si x ]xi h2 , xi + h2 [, i = 1, . . . , n,
h (x) = h h et
 0 si x [0, 2 ] ou x ]1 h 2 , 1]. h
f (ih) = bi si x ]xi 2 , xi + 2 [,
fh (x) =
f (ih) = 0 si x [0, h2 ] ou x ]1 h2 , 1].

Comme f C([0, 1], IR) et C 2 ([0, 1], IR), la fonction fh (resp. h ) converge uniformment vers f (resp. )
lorsque h 0. En effet,

kf fh k = sup |f (x) fh (x)|


x[0,1]

= max sup |f (x) fh (x)|


i=0,...,n x[xi ,xi+1 ]

= max sup |f (x) f (xi )|


i=0,...,n x[xi ,xi+1 ]

Comme f est continue, elle est uniformment continue sur [0, 1] et donc pour tout > 0, il existe h > 0 tel que si
|s t| h , alors |f (s) f (t)|. On en conclut que si lon prend h h , on a kf fh k . Le raisonnement est
le mme pour h , et donc fh h converge uniformment vers f . On peut donc passer la limite sous lintgrale
et crire que :
Xn Z 1 Z 1
h bi i = fh (x)h (x)dx f (x)(x)dx lorsque h 0.
i=1 0 0

Comme bi > 0 et i > 0 i = 1, . . . , n, on a videmment


n
X Z 1
Sn = bi i > 0 et Sn f (x)(x)dx = > 0 lorsque h 0.
i=1 0


Donc il existe n0 IN tel que si n n0 , Sn , et donc Sn = min(S0 , S1 . . . Sn0 , ) > 0.
2 2

Analyse numrique I, tl-enseignement, L3 74 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.4. NORMES ET CONDITIONNEMENT DUNE MATRICE CHAPITRE 1. SYSTMES LINAIRES

n
X
Pn
2. On a nkuk = n supi=1,n |ui | i=1 ui . Dautre part, A = (1 . . . 1) donc u A =
t
ui ; or u A =
i=1
n
X

At u = Au car A est symtrique. Donc u A = daprs la question 1. Comme u = A1 b ,
bi i
i=1
h
1 ku k 1 hn kf k
on a donc ku k kA k kb k ; et comme nkuk , on obtient : kb k . Or hn 1 et on a
h kuk 8 kbk
donc bien :
ku k kf k kb k
.
kuk 8 kbk
3. Le conditionnement cond(A) calcul dans la partie 1 est dordre 1/h2 , et donc tend vers linfini lorsque le
pas de discrtisation tend vers 0, alors quon vient de montrer dans la partie 2 que la variation relative kuk
kuk est
infrieure une constante multiplie par la variation relative de kbk
kbk . Cette dernire information est nettement plus
utile et rjouissante pour la rsolution effective du systme linaire.

Analyse numrique I, tl-enseignement, L3 75 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

1.5 Mthodes itratives


Les mthodes directes sont trs efficaces : elles donnent la solution exacte (aux erreurs darrondi prs) du systme
linaire considr. Elles ont linconvnient de ncessiter une assez grande place mmoire car elles ncessitent le
stockage de toute la matrice en mmoire vive. Si la matrice est pleine, c..d. si la plupart des coefficients de la
matrice sont non nuls et quelle est trop grosse pour la mmoire vive de lordinateur dont on dispose, il ne reste
plus qu grer habilement le swapping" cestdire lchange de donnes entre mmoire disque et mmoire
vive pour pouvoir rsoudre le systme.
Cependant, si le systme a t obtenu partir de la discrtisation dquations aux drivs partielles, il est en
gnral creux", c.. d. quun grand nombre des coefficients de la matrice du systme sont nuls ; de plus la matrice
a souvent une structure bande", i.e. les lments non nuls de la matrice sont localiss sur certaines diagonales. On
a vu au chapitre prcdent que dans ce cas, la mthode de Choleski conserve le profil" (voir ce propos page 37).
Si on utilise une mthode directe genre Choleski, on aura donc besoin dune place mmoire de n M = M 3 .
(Notons que pour une matrice pleine on a besoin de M 4 .)
Lorsquon a affaire de trs gros systmes issus par exemple de lingnierie (calcul des structures, mcanique
des fluides, . . . ), o n peut tre de lordre de plusieurs milliers, on cherche utiliser des mthodes ncessitant le
moins de mmoire possible. On a intrt dans ce cas utiliser des mthodes itratives. Ces mthodes ne font appel
qu des produits matrice vecteur, et ne ncessitent donc pas le stockage du profil de la matrice mais uniquement
des termes non nuls. Dans lexemple prcdent, on a 5 diagonales non nulles, donc la place mmoire ncessaire
pour un produit matrice vecteur est 5n = 5M 2 . Ainsi pour les gros systmes, il est souvent avantageux dutiliser
des mthodes itratives qui ne donnent pas toujours la solution exacte du systme en un nombre fini ditrations,
mais qui donnent une solution approche cot moindre quune mthode directe, car elles ne font appel qu des
produits matrice vecteur.
Remarque 1.44 (Sur la mthode du gradient conjugu).
Il existe une mthode itrative miraculeuse" de rsolution des systmes linaires lorsque la matrice A est sym-
trique dfinie positive : cest la mthode du gradient conjugu. Elle est miraculeuse en ce sens quelle donne la
solution exacte du systme Ax = b en un nombre fini doprations (en ce sens cest une mthode directe) : moins
de n itrations o n est lordre de la matrice A, bien quelle ne ncessite que des produits matrice vecteur ou des
produits scalaires. La mthode du gradient conjugu est en fait une mthode doptimisation pour la recherche du
minimum dans IR n de la fonction de IR n dans IR dfinie par : f (x) = 12 Ax x b x. Or on peut montrer que
lorsque A est symtrique dfinie positive, la recherche de x minimisant f dans IR n est quivalent la rsolution du
systme Ax = b. (Voir paragraphe ?? page ??.) En fait, la mthode du gradient conjugu nest pas si miraculeuse
que cela en pratique : en effet, le nombre n est en gnral trs grand et on ne peut en gneral pas envisager def-
fectuer un tel nombre ditrations pour rsoudre le systme. De plus, si on utilise la mthode du gradient conjugu
brutalement, non seulement elle ne donne pas la solution en n itrations en raison de laccumulation des erreurs
darrondi, mais plus la taille du systme crot et plus le nombre ditrations ncessaires devient lev. On a alors
recours aux techniques de prconditionnement". Nous reviendrons sur ce point au chapitre 3.
La mthode itrative du gradient pas fixe, qui est elle aussi obtenue comme mthode de minimisation de la
fonction f ci-dessus, fait lobjet de lexercice 45 page 88 et du thorme ?? page ??.

1.5.1 Dfinition et proprits


Soit A Mn (IR) une matrice inversible et b IR n , on cherche toujours ici rsoudre le systme linaire (1.1)
cestdire trouver x IR n tel que Ax = b, mais de faon itrative, c..d. par la construction dune suite.

Dfinition 1.45 (Mthode itrative). On appelle mthode itrative de rsolution du systme linaire (1.1) une
mthode qui construit une suite (x(k) )kIN (o litr x(k) est calcul partir des itrs x(0) . . . x(k1) cense
converger vers x solution de (1.1)).

Bien sr, on souhaite que cette suite converge vers la solution x du systme.

Analyse numrique I, tl-enseignement, L3 76 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Dfinition 1.46 (Mthode itrative convergente). On dit quune mthode itrative est convergente si pour tout
choix initial x(0) IR n , on a :
x(k) x quand k +

Enfin, on veut que cette suite soit simple calculer. Une ide naturelle est de travailler avec une matrice P inversible
qui soit proche de A, mais plus facile que A inverser. On appelle matrice de prconditionnement cette matrice
P . On crit alors A = P (P A) = P N (avec N = P A), et on rcrit le systme linaire Ax = b sous
la forme
P x = (P A)x + b = N x + b. (1.83)
Cette forme suggre la construction de la suite (x(k) )kIN partir dun choix initial x(0) donn, par la formule
suivante :
P x(k+1) = (P A)x(k) + b
(1.84)
= N x(k) + b,
ce qui peut galement scrire :.
x(k+1) = Bx(k) + c, avec B = P 1 (P A) = Id P 1 A = P 1 N et c = P 1 b. (1.85)
Remarque 1.47 (Convergence vers A1 b). Si P x(k+1) = (P A)x(k) + b pour tout k IN et x(k) x quand
k + alors P x = (P A) x + b, et donc Ax = b, c..d. x
= x. En conclusion, si la suite converge, alors
elle converge bien vers la solution du systme linaire.
On introduit lerreur dapproximation e(k) litration k, dfinie par
e(k) = x(k) x, k IN (1.86)
o x est construit par (1.85) et x = A b. Il est facile de vrifier que x
(k) 1 (k) 1
x=A b lorsque k + si
et seulement si e(k) 0 lorsque k +

Lemme 1.48. La suite (e(k) )kIN dfinie par (1.86) est galement dfinie par

e(0) = x(0) x
e(k) = B k e(0) (1.87)

D MONSTRATION Comme c = P 1 b = P 1 Ax, on a


e(k+1) = x(k+1) x = Bx(k) x + P 1 Ax (1.88)
(k)
= B(x x). (1.89)
Par rcurrence sur k,
e(k) = B k (x(0) x), k IN. (1.90)

Thorme 1.49 (Convergence de la suite). Soit A et P Mn (IR) des matrices inversibles. Soit x(0) donn et
soit (x(k) )kIN la suite dfinie par (1.85).
1. La suite (x(k) )kIN converge vers x = A1 b si et seulement si (B) < 1.
2. La suite (x(k) )kIN converge si et seulement si il existe une norme induite note k k telle que kBk < 1.

Analyse numrique I, tl-enseignement, L3 77 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

D MONSTRATION

1. On a vu que la suite (x)(k) )kIN dfinie par (1.85) converge vers x = A1 b si et seulement si la suite e(k) dfinie
par (1.87) tend vers 0. On en dduit par le lemme 1.32 que la suite (x)(k) )kIN converge (vers x) si et seulement si
(B) < 1.
2. Si il existe une norme induite note k k telle que kBk < 1, alors en vertu du corollaire 1.32, (B) < 1 et donc la
mthode converge ce qui prcde.
Rciproquement, si la mthode converge alors (B) < 1, et donc il existe > 0 tel que (B) = 1 . Prenons
maintenant = 2 et appliquons la proposition 1.31 : il existe une norme induite k k telle que kBk (B) + < 1,
ce qui dmontre le rsultat.

Pour trouver des mthodes itratives de rsolution du systme (1.1), on cherche donc une dcomposition de la
matrice A de la forme : A = P (P A) = P N , o P est inversible et telle que le systme P y = d soit un
systme facile rsoudre (par exemple P diagonale ou triangulaire).

Estimation de la vitesse de convergence Soit x(0) IR n donn et soit (x(k) )kIN la suite dfinie par (1.85). On
a vu que si (B) < 1), x(k) x quand k , o x est la solution du systme Ax = b. On montre lexercice
59 page 113 que (sauf cas particuliers)

kx(k+1) xk
(B) lorsque k +,
kx(k) xk

indpendamment de la norme sur IR n . Le rayon spectral (B) de la matrice B est donc une bonne estimation de
la vitesse de convergence. Pour estimer cette vitesse de convergence lorsquon ne connat pas x, on peut utiliser le
fait (voir encore lexercice 59 page 113) quon a aussi

kx(k+1) x(k) k
(B) : lorsque k +,
kx(k) x(k1) k

ce qui permet dvaluer la vitesse de convergence de la mthode par le calcul des itrs courants.

1.5.2 Quelques exemples de mthodes itratives


Une mthode simpliste
Le choix le plus simple pour le systme P x = (P A)x + b soit facile rsoudre (on rappelle que cest un
objectif dans la construction dune mthode itrative) est de prendre pour P la matrice identit (qui est trs facile
inverser !). Voyons ce que cela donne sur la matrice
 
2 1
A= . (1.91)
1 2
 
1 1
On a alors B = P A = . Les valeurs propres de B sont 0 et -2 et on a donc (B) = 2 > 1. La suite
1 1
 N dfinie par e
(e(k) )nI = B k e(0) nest donc en gnral pas convergente. En effet, si e(0) = au1 + bu2 , o
(k)

1
u1 = est vecteur propre de A associ la valeur propre = 2, on a e(k) = (2)k a et donc |e(k) | +
1
lorsque k ds que a 6= 0. Cette premire ide nest donc pas si bonne. . .

Analyse numrique I, tl-enseignement, L3 78 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

La mthode de Richardson
Affinons un peu et prenons maintenant P = Id, avec IR. On a dans ce cas P A = Id A et B =
Id 1 A = Id A avec = 1 . Les valeurs propres de B sont de la forme 1 , o est valeur propre de A.
Pour la matrice A dfinie par (1.91), les valeurs propres de A sont 1 et 3, et les valeurs propres de
 
1 2
B=
1 2,

sont 1 et 1 3. Le rayon spectral de la matrice B, qui dpend de est donc (B) = max(|1 |, |1 3|),
quon reprsente sur la figure ci-dessous. La mthode itrative scrit

x(0) IR n donn ,
x(k+1) = Bx(k) + c, avec c = b. (1.92)

Pour que la mthode converge, il faut et il suffit que (B) < 1, c..d. 3 1 < 1, donc < 32 . On voit que le
choix = 1 quon avait fait au dpart ntait pas bon. Mais on peut aussi calculer le meilleur coefficient pour
avoir la meilleure convergence possible : cest la valeur de qui minimise le rayon spectral ; il est atteint pour
1 = 3 , ce qui donne = 21 . Cette mthode est connue sous le nom de mthode de Richardson 8 . Elle est
souvent crite sous la forme :

x(0) IR n donn ,
x(k+1) = x(k) + r (k) ,

o r(k) = b Ax(k) est le rsidu. On vrifie facilement que cette forme est quivalente la forme (1.92) quon
vient dtudier.
|1 |
|1 3|
max(|1 |, |1 3|

1 1 2
3 2 3 1

F IGURE 1.5: Rayon spectral de la matrice B de Richardson en fonction du coefficient .

La mthode de Jacobi
Dans le cas de lexemple de la matrice A donn par (1.91), la mthode de Richardson avec le coefficient optimal
= 12 revient prendre comme dcomposition de A = P + A P avec comme matrice P = D, o D est la
8. Lewis Fry Richardson, (1881-1953) est un mathmatician, physicien, mtorologue et psychologue qui a introduit les mthodes ma-
thmatiques pour les prvisions mtrologiques. Il est galement connu pour ses travaux sur les fractals. Ctait un pacifiste qui a abandonn
ses travaux de mtorologie en raison de leur utillisation par larme de lair, pour se tourner vers ltude des raisons de guerres et de leur
prvention.

Analyse numrique I, tl-enseignement, L3 79 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

matrice diagonale dont les coefficients sont les coefficients situs sur la diagonale de A. La mthode de Jacobi 9
consiste justement prendre P = D, et ce mme si la diagonale de A nest pas constante.
Elle nest quivalente la mthode de Richardson avec coefficient optimal que dans le cas o la diagonale est
constante ; cest le cas de lexemple (1.91), et donc dans ce cas la mthode de Jacobi scrit
" #
(0)
x
x(0) = 1(0) IR 2 donn ,
x2
" #  
(k+1)
(k+1) x1 0 1 1
x = (k+1) = BJ x(k) + c, avec BJ = 1 2 et c = b. (1.93)
x2 2 0, 2

Dans le cas dune matrice A gnrale, on dcompose A sous la forme A = D E F , o D reprsente la


diagonale de la matrice A, (E) la partie triangulaire infrieure et (F ) la partie triangulaire suprieure :

a1,1 0 . . . 0 0 0 ... 0 0 a1,2 . . . a1,n
.. .. .. .. .. .. . . ..
0 . . .
, E = a2,1 . .
et F = . . .
D= .. . .
. (1.94)

. .. .. .. .. .. .. . . . . . . an,n1
. . 0 . . 0
0 0 an,n an,1 . . . an1,n 0 0 ... 0 0

La mthode de Jacobi scrit donc :



x(0) IR n
(1.95)
Dx(k+1) = (E + F )x(k) + b.
Lorsquon crit la mthode de Jacobi comme sous la forme (1.85) on a B = D1 (E + F ) ; on notera BJ cette
matrice : a a1,n
0 a1,2
1,1
... a1,1
..
a2,1 . a2,n
a2,2
a2,2
BJ = .
.. .. .. ..
. . . .
an,1 a
an,n ... an1,n
n,n
0
La mthode de Jacobi scrit aussi :
(0) n
x IR X X
(k+1)
=
(k)
ai,j xj
(k) (1.96)
ai,i xi ai,j xj + bi i = 1, . . . , n.
j<i j>i

La mthode de Gauss-Seidel
(k)
Dans lcriture (1.96) de la mthode de Jacobi, on pourrait remplacer les composantes xj dans la somme pour
(k+1) (k+1)
j < i par les composantes ,
puisquelles sont dj calcules au moment o lon calcule xi
xj . Cest lide
10
de la mthode de Gauss-Seidel qui consiste utiliser le calcul des composantes de litr (k + 1) ds quil est
(k+1)
effectu. Par exemple, pour calculer la deuxime composante x2 du vecteur x(k+1) , on pourrait employer la
9. Carl G. J. Jacobi, (1804 - 1851), mathmaticien allemand. Issu dune famille juive, il tudie lUniversit de Berlin, o il obtient
son doctorat 21 ans. Sa thse est une discussion analytique de la thorie des fractions. En 1829, il devient professeur de mathmatique
lUniversit de Knigsberg, et ce jusquen 1842. Il fait une dpression, et voyage en Italie en 1843. son retour, il dmnage Berlin o il sera
pensionnaire royal jusqu sa mort. Sa lettre du 2 juillet 1830 adresse Legendre est reste clbre pour la phrase suivante, qui a fait couler
beaucoup dencre : M. Fourier avait lopinion que le but principal des mathmatiques tait lutilit publique et lexplication des phnomnes
naturels ; mais un philosophe comme lui aurait d savoir que le but unique de la science, cest lhonneur de lesprit humain, et que sous ce titre,
une question de nombres vaut autant quune question du systme du monde. Cest une question toujours en discussion. . . .
10. Philipp Ludwig von Seidel (Zweibrcken, Allemagne 1821 ? Munich, 13 August 1896) mathmaticien allemand dont il est dit quil a
dcouvert en 1847 le concept crucial de la convergence uniforme en tudiant une dmonstration incorrecte de Cauchy.

Analyse numrique I, tl-enseignement, L3 80 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

(k+1) (k)
nouvelle" valeur x1 quon vient de calculer plutt que la valeur x1 comme dans (1.96) ; de mme, dans le
(k+1) (k+1) (k+1) (k) (k)
calcul de x3 , on pourrait employer les nouvelles" valeurs x1 et x2 plutt que les valeurs x1 et x2 .
(k) (k+1)
Cette ide nous suggre de remplacer dans (1.96) xj par xj si j < i. On obtient donc lalgorithme suivant :
(
x(0) IR n
(k+1) P (k+1) P (k) (1.97)
ai,i xi = j<i ai,j xj i<j ai,j xj + bi , i = 1, . . . , n.

La mthode de GaussSeidel scrit donc sous la forme P x(k+1) = (P A)x(k) + b, avec P = D E et


P A=F : 
x0 IR n
(1.98)
(D E)x(k+1) = F x(k) + b.
Si lon crit la mthode de GaussSeidel sous la forme x(k+1) = Bx(k) + c , on voit assez vite que B =
(D E)1 F ; on notera BGS cette matrice, dite matrice de Gauss-Seidel.
Ecrivons
 la mthode
 de Gauss-Seidel
 dans le cas de la matrice A donne par (1.91) : on a dans ce cas P = D E =
2 0 0 1
,F = . Lalgorithme de Gauss-Seidel scrit donc :
1 2 0 0,
" #
(0)
x1
x = (0) IR 2 donn ,
(0)
x2
" #   1 
(k+1)
(k+1) x1 0 0 0
x = (k+1) = BGS x(k) + c, avec BGS = et c = 2
1 b. (1.99)
x2 0 41 1
4 2

On a donc (BGS ) = 14 . Sur cet exemple la mthode de Gauss-Seidel converge donc beaucoup plus vite que la
mthode de Jacobi : Asymptotiquement, lerreur est divise par 4 au lieu de 2 pour la mthode de Jacobi. On peut
montrer que cest le cas pour toutes les matrices tridiagonales, comme cest nonc dans le thorme suivant :

Thorme 1.50 (Comparaison de Jacobi et Gauss-Seidel pour les matrices tridiagonales). On considre une ma-
trice A Mn (IR) tridiagonale, c..d. telle que ai,j = 0 si |i j| > 1 ; soient BGS et BJ les matrices ditration
respectives des mthodes de Gauss-Seidel et Jacobi, alors :

(BGS ) = ((BJ ))2 .

Pour les matrices tridiagonales, la mthode de GaussSeidel converge (ou diverge) donc plus vite que celle de
Jacobi.

La dmonstration de ce rsultat se fait en montrant que dans le cas tridiagonal, est valeur propre de la matrice
ditration de Jacobi si et seulement si 2 est valeur propre de la matrice ditration de Gauss-Seidel. Elle est
laisse titre dexercice.

Mthodes SOR et SSOR


Lide de la mthode de sur-relaxation (SOR = Successive Over Relaxation) est dutiliser la mthode de Gauss-
Seidel pour calculer un itr intermdiaire x (k+1) quon relaxe" ensuite pour amliorer la vitesse de convergence
de la mthode. On se donne 0 < < 2, et on modifie lalgorithme de GaussSeidel de la manire suivante :

x0 (k+1)
IR n X X
(k+1) (k)
ai,i x
i = ai,j xj ai,j xj + bi
(1.100)

j<i i<j
(k+1) (k+1) (k)
xi = x i + (1 )xi , i = 1, . . . , n.

Analyse numrique I, tl-enseignement, L3 81 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

(Pour = 1 on retrouve la mthode de GaussSeidel.)


Lalgorithme ci-dessus peut aussi scrire (en multipliant par ai,i la ligne 3 de lalgorithme (1.109)) :
(0)

x IR n


X X
(k+1) (k+1) (k)
ai,i xi = ai,j xj ai,j xj + bi (1.101)



j<i j>i
(k)
+(1 )ai,i xi .

On obtient donc
(D E)x(k+1) = F x(k) + b + (1 )Dx(k) .
La matrice ditration de lalgorithme SOR est donc
 1    
D 1 D 1
B = E (F + D) = P 1 N, avec P = E et N = F + D.

Il est facile de vrifier que A = P N.

Proposition 1.51 (Condition ncessaire de convergence de la mthode SOR).


Soit A Mn (IR) et soiet D, E et F les matrices dfinies par (1.94) ; on a donc A = D E F . Soit B la
matrice ditration de la mthode SOR (et de la mthode de GaussSeidel pour = 1) dfinie par :
 1  
D 1
B = E F+ D , 6= 0.

Si (B ) < 1 alors 0 < < 2.

D MONSTRATION Calculons det(B ). Par dfinition,


1 1
B = P 1 N, avec P = D E et N = F + D.

Donc det(B ) = (det(P ))1 det(N ). Comme P et N sont des matrices triangulaires, leurs dterminants sont les produits
ceofficients diagonaux (voir la remarque 1.58 page 85). On a donc :
( 1 )n det(D)
det(B ) = 1 n = (1 )n .
( ) det(D)
Or le dterminant dune matrice est aussi le produit des valeurs propres de cette matrice (comptes avec leur multiplicits
algbriques), dont les valeurs absolues sont toutes, par dfinition, infrieures au rayon spectral. On a donc : |det(B )| =
|(1 )n | ((B ))n , do le rsultat.

On a un rsultat de convergence de la mthode SOR (et donc galement de Gauss-Seidel) dans le cas o A est
symtrique dfinie positive, grce au lemme suivant :

Lemme 1.52 (Condition suffisante de convergence pour la suite dfinie par (1.85)). Soit A Mn (IR) une matrice
symtrique dfinie positive, et soient P et N Mn (IR) telles que A = P N et P est inversible. Si la matrice
P t + N est symtrique dfinie positive alors (P 1 N ) = (B) < 1, et donc la suite dfinie par (1.85) converge.

Analyse numrique I, tl-enseignement, L3 82 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

D MONSTRATION On rappelle (voir le corollaire (1.35) page 55) que si B Mn (IR), et si k k est une norme induite
sur Mn (IR) par une norme sur IR n , on a toujours (B) kBk. On va donc chercher une norme sur IR n , note k k
telle que
kP 1 N k = max{kP 1 N xk , x IR n , kxk = 1} < 1,
(o on dsigne encore par k.k la norme induite sur Mn (IR)) ou encore :
kP 1 N xk < kxk , x IR n , x 6= 0. (1.102)
n
On dfinit la norme k k par kxk = Ax x, pour tout x IR . Comme A est symtrique dfinie positive, k k
est bien une norme sur IR n , induite par le produit scalaire (x|y)A = Ax y. On va montrer que la proprit (1.102) est
vrifie par cette norme. Soit x IR n , x 6= 0, on a : kP 1 N xk2 = AP 1 N x P t1 N x. Or N = P A, et donc :
kP 1 N xk2 = A(Id P t1 A)x (Id P 1 A)x. Soit y = P 1 Ax ; remarquons que y 6= 0 car x 6= 0 et P 1 A est
inversible. Exprimons kP 1 N xk2 laide de y.

kP 1 N xk2 = A(x y) (x y) = Ax x 2Ax y + Ay y = kxk2 2Ax y + Ay y.


Pour que kP 1 N xk2 < kxk2 (et par suite (P t1 N ) < 1), il suffit donc de montrer que 2Ax y + Ay y < 0. Or,
comme P y = Ax, on a : 2Axy +Ayy = 2P y y+Ayy. En crivant : P yy = yP t y = P t yy, on obtient donc
que : 2Ax y + Ay y = (P P t + A)y y, et comme A = P N on obtient 2Ax y + Ay y = (P t + N )y y.
Comme P t + N est symtrique dfinie positive par hypothse et que y 6= 0, on en dduit que 2Ax y + Ay y < 0,
ce qui termine la dmonstration.

Thorme 1.53 (CNS de convergence de la mthode SOR pour les matrices s.d.p.).
Soit A Mn (IR) une matrice symtrique dfinie positive, et soient D, E et F les matrices dfinies par (1.94) ; on
a donc A = D E F . Soit B la matrice ditration de la mthode SOR (et de la mthode de GaussSeidel
pour = 1) dfinie par :
 1  
D 1
B = E F+ D , 6= 0.

Alors :
(B ) < 1 si et seulement si 0 < < 2.
En particulier, si A est une matrice symtrique dfinie positive, la mthode de GaussSeidel converge.

D MONSTRATION On sait par la proposition 1.51 que si (B ) < 1 alors 0 < < 2. Supposons maintenant que A
est une matrice symtrique dfinie positive, que 0 < < 2et montrons que (B ) < 1. Par le lemme 1.52 page 82, il
suffit pour cela de montrer que P t + N est une matrice symtrique dfinie positive. Or,
 t
D D
Pt = E = F,

D 1 2
Pt + N = F +F + D= D.

La matrice P t + N est donc bien symtrique dfinie positive.

Remarque 1.54 (Comparaison GaussSeidel/Jacobi). On a vu (thorme 1.53) que si A est une matrice sym-
trique dfinie positive, la mthode de GaussSeidel converge. Par contre, mme dans le cas o A est symtrique
dfinie positive, il existe des cas o la mthode de Jacobi ne converge pas, voir ce sujet lexercice 46 page 88.
Remarquons que le rsultat de convergence des mthodes itratives donn par le thorme prcdent nest que
partiel, puisquil ne concerne que les matrices symtriques dfinies positives et que les mthodes Gauss-Seidel
et SOR. On a aussi un rsultat de convergence de la mthode de Jacobi pour les matrices diagonale dominante
stricte, voir exercice 49 page 89, et un rsultat de comparaison des mthodes pour les matrices tridiagonales par
blocs, voir le thorme 1.55 donn ci-aprs. Dans la pratique, il faudra souvent compter sur sa bonne toile. . .

Analyse numrique I, tl-enseignement, L3 83 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Estimation du coefficient de relaxation optimal de SOR La question est ici destimer le coefficient de relaxa-
tion optimal dans la mthode SOR, c..d. le coefficient 0 ]0, 2[ (condition ncessaire pour que la mthode
SOR converge, voir thorme 1.53) tel que

(L0 ) < (B ), ]0, 2[.

Ce coefficient 0 donnera la meilleure convergence possible pour SOR. On sait le faire dans le cas assez restrictif
des matrices tridiagonales (ou tridiagonales par blocs, voir paragraphe suivant). On ne fait ici qunoncer le rsultat
dont la dmonstration est donne dans le livre de Ph.Ciarlet conseill en dbut de cours.

Thorme 1.55 (Coefficient optimal, matrice tridiagonale). On considre une matrice A Mn (IR) qui admet une
dcomposition par blocs dfinie dans la dfinition 1.103 page 85 ; on suppose que la matrice A est tridiagonale
par blocs, c..d. Ai,j = 0 si |i j| > 1 ; soient BGS et BJ les matrices ditration respectives des mthodes
de Gauss-Seidel et Jacobi, alors : On suppose de plus que toutes les valeurs propres de la matrice ditration J
de la mthode de Jacobi sont relles ; alors le paramtre de relaxation optimal, c..d. le paramtre 0 tel que
(B0 ) = min{(B ), ]0, 2[}, sexprime en fonction du rayon spectral (BJ ) de la matrice J par la formule :
2
0 = p > 1,
1+ 1 (BJ )2

et on a : (B0 ) = 0 1.

La dmonstration de ce rsultat repose sur la comparaison des valeurs propres des matrices ditration. On montre
que est valeur propre de B si et seulement si

( + 1)2 = 2 ,

o est valeur propre de BJ (voir [Ciarlet] pour plus de dtails).


Remarque 1.56 (Mthode de Jacobi relaxe). On peut aussi appliquer une procdure de relaxation avec comme
mthode irative de base la mthode de Jacobi, voir ce sujet lexercice 52 page 90). Cette mthode est toutefois
beaucoup moins employe en pratique (car moins efficace) que la mthode SOR.

Mthode SSOR En symtrisant" le procd de la mthode SOR, c..d. en effectuant les calculs SOR sur les
blocs dans lordre 1 n puis dans lordre n 1, on obtient la mthode de sur-relaxation symtrise (SSOR =
Symmetric Successive Over Relaxation) qui scrit dans le formalisme de la mthode I avec
 1   1  
D 1 D 1
BSSOR = F E+ D E F+ D .

| {z }| {z }
calcul dans lordre n...1 calcul dans lordre 1...n

1.5.3 Les mthodes par blocs


Dcomposition par blocs dune matrice
Dans de nombreux cas pratiques, les matrices des systmes linaires rsoudre ont une structure par blocs", et on
se sert de cette structure lors de la rsolution par une mthode itrative.

Analyse numrique I, tl-enseignement, L3 84 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Dfinition 1.57. Soit A Mn (IR) une matrice inversible. Une dcomposition par blocs de A est dfinie par un
P
entier S n, des entiers (ni )i=1,...,S tels que Si=1 ni = n, et S 2 matrices Ai,j Mni ,nj (IR) (ensemble des
matrices rectangulaires ni lignes et nj colonnes, telles que les matrices Ai,i soient inversibles pour i = 1, . . . , S
et

A1,1 A1,2 . . . ... A1,S
.. .. ..
A2,1 . . .

.. . .. . .. . ..
.
A= .

(1.103)
.. .. .. ..
. . .
. .. ..
.. . . AS1,S
AS,1 . . . . . . AS,S1 AS,S

Remarque 1.58.
1. Si S = n et ni = 1 i {1, . . . , S}, chaque bloc est constitu dun seul coefficient, et on retrouve la
structure habituelle dune matrice. Donc toutes les mthodes que nous allons dcrire pour les matrices
structures par blocs sappliquent videmment de la mme manire aux matrices habituelles.
2. Si A est symtrique dfinie positive, la condition Ai,i inversible dans la dfinition 1.57 est inutile car Ai,i
est ncessairement symtrique dfinie positive donc inversible. Prenons par exemple i = 1 ; soit y IR n1 ,
y 6= 0 et x = (y, 0 . . . , 0)t IR n . Alors A1,1 y y = Ax x > 0 donc A1,1 est symtrique dfinie positive.
3. Si A est une matrice triangulaire par blocs, c..d. de la forme (1.103) avec Ai,j = 0 si j > i, alors
S
Y
det(A) = det(Ai,i ).
i=1

Par contre si A est dcompose en 2 2 blocs carrs (i.e. tels que ni = mj , (i, j) {1, 2}), on a en
gnral : det(A) 6= det(A1,1 )det(A2,2 ) det(A1,2 )det(A2,1 ).

Mthode de Jacobi
On peut remarquer que le choix le plus simple pour le systme P x = (P A)x + b soit facile rsoudre (on
rappelle que cest un objectif dans la construction dune mthode itrative) est de prendre pour P une matrice
diagonale. La mthode de Jacobi consiste prendre pour P la matrice diagonale D forme par les blocs diagonaux
de A :

A1,1 0 . . . ... 0
.. .. ..
0 . . .

.. .. .. ..
.
. . .
.
D= .
. .. . .. . .. ..

. .. ..
.. . . 0
0 ... ... 0 AS,S
Dans la matrice ci-dessus, 0 dsigne un bloc nul.

Analyse numrique I, tl-enseignement, L3 85 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

On a alors N = P A = E + F , o E et F sont constitus des blocs triangulaires infrieurs et suprieurs de la


matrice A :
0 0 ... ... 0
.. .. ..
A2,1 . . .

.. . . . . . .
. . . .
E= .

..
.
..
.
..
. ..


. . .
.. .. .. 0
AS,1 . . . . . . AS,S1 0
et
0 A1,2 ... ... A1,S
.. .. ..
0 . . .

.. .. .. ..
. . . .
F =
..
.

.. .. ..
. . . .

.. .. ..

. . . AS1,S
0 ... ... 0 0
On a bien A = P N et avec D, E et F dfinies comme ci-dessus, la mthode de Jacobi scrit :
 (0)
x IR n
(1.104)
Dx(k+1) = (E + F )x(k) + b.

Lorsquon crit la mthode de Jacobi comme sous la forme (1.85) on a B = D1 (E + F ) ; on notera J cette
matrice.
En introduisant la dcomposition par blocs de x, solution recherche de (1.1), c..d. : x = [x1 , . . . , xS ]t , o
xi IR ni , on peut aussi crire la mthode de Jacobi sous la forme :
n
x0 IR X X
A i,i x
(k+1)
i = Ai,j x
(k)
j
(k)
Ai,j xj + bi i = 1, . . . , S. (1.105)

j<i j>i

Si S = n et ni = 1 i {1, . . . , S}, chaque bloc est constitu dun seul coefficient, et on obtient la mthode de
Jacobi par points (aussi appele mthode de Jacobi), qui scrit donc :
n
x0 IR X X
a i,i x
(k+1)
i = a i,j x
(k)
j
(k)
ai,j xj + bi i = 1, . . . , n. (1.106)

j<i j>i

Mthode de Gauss-Seidel
La mme procdure que dans le cas S = n et ni = 1 donne :
(
x(0) IR n
(k+1) P (k+1) P (k) (1.107)
Ai,i xi = j<i Ai,j xj i<j Ai,j xj + bi , i = 1, . . . , S.

La mthode de GaussSeidel scrit donc sous forme la forme P x(k+1) = (P A)x(k) + b, P = D E et


P A=F : 
x0 IR n
(1.108)
(D E)x(k+1) = F x(k) + b.
Si lon crit la mthode de GaussSeidel sous la forme x(k+1) = Bx(k) + c , on voit assez vite que B = (D
E)1 F ; on notera BGS cette matrice, dite matrice de Gauss-Seidel.

Analyse numrique I, tl-enseignement, L3 86 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Mthodes SOR et SSOR


La mthode SOR scrit aussi par blocs :On se donne 0 < < 2, et on modifie lalgorithme de GaussSeidel de
la manire suivante :


x0 IR n X X
(k+1) (k+1) (k)
Ai,i x
i = Ai,j xj Ai,j xj + bi
(1.109)

j<i i<j
(k+1) (k+1) (k)
xi = xi + (1 )xi , i = 1, . . . , S.
(Pour = 1 on retrouve la mthode de GaussSeidel.)
Lalgorithme ci-dessus peut aussi scrire (en multipliant par Ai,i la ligne 3 de lalgorithme (1.109)) :
(0) n
x IR



X X
(k+1) (k+1) (k)
Ai,i xi = Ai,j xj Ai,j xj + bi (1.110)



j<i j>i
(k)
+(1 )Ai,i xi .

On obtient donc
(D E)x(k+1) = F x(k) + b + (1 )Dx(k) .
Lalgorithme SOR scrit donc comme une mthode II avec
 
D 1
P = E et N = F + D.

Il est facile de vrifier que A = P N.

Lalgorithme SOR scrit aussi comme une mthode I avec


 1  
D 1
B= E (F + D).

On notera L cette matrice.
Remarque 1.59 (Mthode de Jacobi relaxe). On peut aussi appliquer une procdure de relaxation avec comme
mthode irative de base la mthode de Jacobi, voir ce sujet lexercice 52 page 90). Cette mthode est toutefois
beaucoup moins employe en pratique (car moins efficace) que la mthode SOR.
En symtrisant" le procd de la mthode SOR, c..d. en effectuant les calculs SOR sur les blocs dans lordre 1
n puis dans lordre n 1, on obtient la mthode de sur-relaxation symtrise (SSOR = Symmetric Successive Over
Relaxation) qui scrit dans le formalisme de la mthode I avec
 1   1  
D 1 D 1
B= F E+ D E F+ D .

| {z }| {z }
calcul dans lordre S...1 calcul dans lordre 1...S

1.5.4 Exercices, noncs


Exercice 44 (Convergence de suites). Corrig en page 96
Etudier la convergence de la suite (x(k) )nIN IR n dfinie par x(0) donn, x(k) = Bx(k) + c dans les cas
suivants : 2    2   
1 0 1 0
(a) B = 3 2 , c = , (b) B = 3 , c= .
0 3 1 0 2 0

Analyse numrique I, tl-enseignement, L3 87 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Exercice 45 (Mthode de Richardson). Suggestions en page 94, corrig en page 96


Soit A Mn (IR) une matrice symtrique dfinie positive, b IR n et IR. Pour trouver la solution de Ax = b,
on considre la mthode itrative suivante :
Initialisation : x(0) IR n ,
Iterations : x(k+1) = x(k) + (b Ax(k) ).
1. Pour quelles valeurs de (en fonction des valeurs propres de A) la mthode est-elle convergente ?
2. Calculer 0 (en fonction des valeurs propres de A) t.q. (Id 0 A) = min{(Id A), IR}.
Commentaire sur la mthode de Richardson : On peut la voir comme une mthode de gradient pas fixe pour la
minimisation de la fonction f dfinie de IR N dans IR par : x 7 f (x) = 12 Axxbx, qui sera tudie au chapitre
?? page ??. On verra en effet que grce qu caractre symtrique dfinie positif de A, la fonction f admet un unique
minimum, caractris par lannulation du gradient de f en ce point. Or f (x) = Ax b (voir le paragraphe ??
dans le chapitre optimisation), et annuler le gradient consiste rsoudre le systme linaire Ax = b.
Exercice 46 (Non convergence de la mthode de Jacobi). Suggestions en page 95. Corrig en page 97.
Soit a IR et
1 a a
A= a 1 a
a a 1
Montrer que A est symtrique dfinie positive si et seulement si 1/2 < a < 1 et que la mthode de Jacobi
converge si et seulement si 1/2 < a < 1/2.
Exercice 47 (Jacobi et GaussSeidel : cas des matrices symtriques). Soit A Mn (IR) une matrice carre
dordre n inversible et tridiagonale ; on note ai,j le coefficient de la ligne i et la ligne j de la matrice A. On
dcompose en A = D E F , o D reprsente la diagonale de la matrice A, (E) la partie triangulaire
infrieure stricte et (F ) la partie triangulaire suprieure stricte.
On note BJ et BGS les matrices ditration des mthodes de Jacobi et Gauss-Seidel pour la rsolution dun
systme linaire de matrice A.
 
2 1
1. Calculer les matrices BJ et BGS pour la matrice particulre A = et calculer leurs rayon
1 2
spectraux.Montrer que les mthodes convergent, et citez les rsultat du cours qui sappliquent pour cette
matrice.
2. Montrer que est valeur propre de BJ si et seulement sil existe un vecteur complexe x = (x1 , . . . xn )
Cn , x 6= 0, tel que
ap,p1 xp1 ap,p+1 xp+1 = ap,p xp , p = 1, . . . , n.
avec x0 = xn+1 = 0.
3. Soit y = (y1 , . . . yn ) Cn dfini par yp = p xp , o est une valeur propre non nulle de BJ et
x = (x1 , . . . , xn ) un vecteur propre associ. On pose y0 = yn+1 = 0. Montrer que
ap,p1 yp1 2 ap,p+1 yp+1 = 2 ap,p yp , p = 1, . . . , n.
4. Montrer que est valeur propre de BGS associe un vecteur propre z 6= 0 si et seulement si
(F (D E)) z = 0.
5. Montrer que si est valeur propre non nulle de BJ si et seulement si 2 est valeur propre de BGS , et en
dduire que (BGS ) = (BJ )2 .
6. On considre la matrice :
1 34 34
A = 43 1 34
3 3
4 4 1
Montrer que cette matrice est symtrique dfinie positive. Montrer que (BGS ) 6= (BJ ). Quelle est
lhypothse mise en dfaut ici ?

Analyse numrique I, tl-enseignement, L3 88 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Exercice 48 (Une matrice cyclique). Suggestions en page 95


Soit IR et soit A M4 (IR) la matrice dfinie par

1 0 1
1 1 0
A=
0 1 1
1 0 1

Cette matrice est dite cyclique : chaque ligne de la matrice peut tre dduite de la prcdente en dcalant chaque
coefficient dune position.
1. Dterminer les valeurs propres de A.
2. Pour quelles valeurs de la matrice A est-elle symtrique dfinie positive ? singulire ?
3. On suppose ici que 6= 0. Soit b = (b1 , b2 , b3 , b4 )t IR 4 donn. On considre la mthode de Jacobi pour
la rsolution du systme Ax = b. Soit (x(k) )nIN la suite de vecteurs donns par lalgorithme. On note
(k) (k+1)
xi pour i = 1, . . . , 4 les composantes de x(k) . Donner lexpression de xi , i = 1, . . . , 4, en fonction
(k) (k)
de xi et bi , i = 1, . . . , 4. Pour quelles valeurs de la mthode de Jacobi converge-t-elle ?
4. On suppose maintenant que A est symtrique dfinie positive. Reprendre la question prcdente pour la
mthode de Gauss-Seidel.
Exercice 49 (Jacobi pour les matrices diagonale dominante stricte). Suggestions en page 95, corrig en page 97
P
Soit A = (ai,j )i,j=1,...,n Mn (IR) une matrice diagonale dominante stricte (cest--dire |ai,i | > j6=i |ai,j |
pour tout i = 1, . . . , n). Montrer que A est inversible et que la mthode de Jacobi (pour calculer la solution de
Ax = b) converge.
Exercice 50 (Jacobi pour pour un problme de diffusion ).
Soit f C([0, 1]) ; on considre le systme linaire Ax = b issu de la discrtisation par diffrences finies de pas
1
uniforme gal h = n+1 du problme suivant :

u (x) + u(x) = f (x), x [0, 1],
(1.111)
u(0) = 0, u(1) = 1,
o 0.
1. Donner lexpression de A et b.
2. Montrer que la mthode de Jacobi applique la rsolution de ce systme converge (distinguer les cas
> 0 et = 0).
Exercice 51 (Jacobi et diagonale dominance forte).
1. Soit A Mn (IR) une matrice symtrique dfinie positive.
(a) Montrer que tous les coefficients diagonaux de A sont strictement positifs.
(b) En dduire que la mthode de Jacobi pour la rsolution du systme linaire Ax = b, avec b IR n , est bien
dfinie.

Soit M Mn (IR) une matrice carre dordre n, avec n > 1. On dit que la matrice M est irrductible si :

pour tous ensembles dindices I {1, . . . , n}, I 6= , et J = {1 . . . , n} \ I, J 6= , i I, j J; ai,j 6= 0.


(1.112)
2 (a) Montrer quune matrice diagonale nest pas irrductible. En dduire quune matrice inversible nest pas
forcment irrductible.

Analyse numrique I, tl-enseignement, L3 89 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

2 (b) Soit M Mn (IR) une matrice carre dordre n, qui scrit sous la forme :
 
A 0
M=
B C

o A et C sont des matrices carres dordre p et q, avec p + q = n, et B Mq,p (IR). La matrice M


peut-elle tre irrductible ?
3. Soit A Mn (IR), n > 1 une matrice irrductible qui vrifie de plus la proprit suivante :
X
i = 1, . . . , n, ai,i |ai,j | (1.113)
j6=i

(On dit que la matrice est diagonale dominante). Montrer que la mthode de Jacobi pour la rsolution du systme
linaire Ax = b, avec b IR n , est bien dfinie.
4. Soit A Mn (IR), n > 1 une matrice irrductible qui vrifie la proprit (1.113). On note BJ la matrice
ditration de la mthode de Jacobi pour la rsolution du systme linaire Ax = b, avec b IR n , et (BJ ) son
rayon spectral. On suppose que A vrifie la proprit supplmentaire suivante :
X
i0 ; ai0 ,i0 > |ai,j |. (1.114)
j6=i0

(a) Montrer que (BJ ) 1.


(b) Montrer que si Jx = x avec || = 1, alors |xi | = kxk , i = 1, . . . , n, o kxk = maxk=1,...,N |xk |.
En dduire que x = 0 et que la mthode de Jacobi converge.
(c) Retrouver ainsi le rsultat de la question 2 de lexercice 50.
5. En dduire que si A est une matrice qui vrifie les proprits (1.112), (1.113) et (1.114), alors A est inversible.
6. Montrer que la matrice A suivante est symtrique dfinie positive et vrifie les proprits (1.113) et (1.114).

1 0 0 0
0 2 1 1
A= 0 1 2 1

0 1 1 2

La mthode de Jacobi converge-t-elle pour la rsolution dun systme linaire dont la matrice est A ?
Exercice 52 (Mthode de Jacobi et relaxation). Suggestions en page 95, corrig en page 98
Soit n 1. Soit A = (ai,j )i,j=1,...,n Mn (IR) une matrice symtrique. On note D la partie diagonale de A, E
la partie triangulaire infrieure de A et F la partie triangulaire suprieure de A, cest--dire :

D = (di,j )i,j=1,...,n , di,j = 0 si i 6= j, di,i = ai,i ,


E = (ei,j )i,j=1,...,n , ei,j = 0 si i j, ei,j = ai,j si i > j,
F = (fi,j )i,j=1,...,n , fi,j = 0 si i j, fi,j = ai,j si i < j.
Noter que A = D E F . Soit b IR n . On cherche calculer x IR n t.q. Ax = b. On suppose que D est
dfinie positive (noter que A nest pas forcment inversible). On sintresse ici la mthode de Jacobi (par points),
cestdire la mthode itrative suivante :

Initialisation. x(0) IR n
Itrations. Pour n IN, Dx(k+1) = (E + F )x(k) + b.

On pose J = D1 (E + F ).
1. Montrer, en donnant un exemple avec n = 2, que J peut ne pas tre symtrique.

Analyse numrique I, tl-enseignement, L3 90 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

2. Montrer que J est diagonalisable dans IR et, plus prcisement, quil existe une base de IR n , note {f1 , . . . ,
fn }, et il existe {1 , . . . , n } IR t.q. Jf i = i f i pour tout i {1, . . . , n} et t.q. Df i f j = i,j pour
tout i, j {1, . . . , n}.
En ordonnant les valeurs propres de J, on a donc 1 . . . n , on conserve cette notation dans la suite.
3. Montrer que la trace de J est nulle et en dduire que 1 0 et n 0.
On suppose maintenant que A et 2D A sont symtriques dfinies positives et on pose x = A1 b.
4. Montrer que la mthode de Jacobi (par points) converge (cest--dire x(k) x quand n ). [Utiliser
un thorme du cours.]
On se propose maintenant damliorer la convergence de la mthode par une technique de relaxation. Soit
> 0, on considre la mthode suivante :
Initialisation. x(0) IR n
Itrations. Pour n IN, Dx(k+1) = (E + F )x(k) + b, x(k+1) = x
(k+1) + (1 )x(k) .
5. Calculer les matrices M (inversible) et N telles que M x(k+1) = N x(k) + b pour tout n IN, en
fonction de , D et A. On note, dans la suite J = (M )1 N .
6. On suppose dans cette question que (2/)D A est symtrique dfinie positive. Montrer que la mthode
converge (cest--dire que x(k) x quand n .)
7. Montrer que (2/)D A est symtrique dfinie positive si et seulement si < 2/(1 1 ).
8. Calculer les valeurs propres de J en fonction de celles de J. En dduire, en fonction des i , la valeur
optimale" de , cest--dire la valeur de minimisant le rayon spectral de J .
Exercice 53 (Mthodes de Jacobi et Gauss Seidel pour une matrice 3 3).

2 1 0 1
On considre la matrice A = 1 2 1 et le vecteur b = 0. Soit x(0) un vecteur de IR 3 donn.
0 1 2 1
1. Mthode de Jacobi
1.a Ecrire la mthode de Jacobi pour la rsolution du systme Ax = b, sous la forme x(k+1) = BJ x(k) + cJ .
1.b Dterminer le noyau de BJ et en donner une base.
1.c Calculer le rayon spectral de BJ et en dduire que la mthode de Jacobi converge.
1.d Calculer x(1) et x(2) pour les choix suivants de x(0) :

0 0
(i) x(0) = 0 , (ii)x(0) = 1 .
0 2

2. Mthode de Gauss-Seidel.
2.a Ecrire la mthode de Gauss-Seidel pour la rsolution du systme Ax = b, sous la forme x(k+1) = BGS x(k) +
cGS .
2.b Dterminer le noyau de BGS .
2.c Calculer le rayon spectral de BGS et en dduire que la mthode de Gauss-Seidel converge.
2.d Comparer les rayons spectraux de BGS et BJ et vrifier ainsi un rsultat du cours.
2.d Calculer x(1) et x(2) pour les choix suivants de x(0) :

0 0
(i) x(0) = 0 , (ii) x(0) = 1 .
0 1

3. Convergence en un nombre fini ditrations.


3.1 Soit et des rels. Soit u(0) R et (u(k) )kIN la suite relle dfinie par u(k+1) = u(k) + .

Analyse numrique I, tl-enseignement, L3 91 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

3.1.a Donner les valeurs de et pour lesquelles la suite (u(k) )kIN converge.
3.1.b On suppose que 6= 0, et que la suite (u(k) )kIN converge vers une limite quon note u. Montrer que sil
existe K N tel que uK = u, alors u(k) = u pour tout k IN.
3.2 Soit N > 1, B une matrice relle carre dordre N et b IR n . Soit u(0) IR N et (u(k) )kIN la suite dfinie
par u(k+1) = Bu(k) + c.
3.2.a Donner les conditions sur B et c pour que la suite (u(k) )kIN converge vers une limite indpendante du choix
initial u0 IR N .
3.2.b On suppose que la suite (u(k) )kIN converge vers une limite quon note u. Montrer quon peut avoir u(1) = u
avec u(0) 6= u.
Exercice 54 (Jacobi et Gauss-Seidel pour une matrice tridiagonale). Corrig en page 102
 
3 1
1. Soit A = . Ecrire les mthodes de Jacobi et Gauss Seidel pour la rsolution de Ax = b. Soient BJ et
1 3
BGS les matrices ditration respectives. Calculer (BJ ) et (BGS ) et vrifier que (BGS ) = (BJ )2
Soit A = (ai,j )i,j=1,...,n Mn (IR) une matrice carre dordre n tridiagonale, cest--dire telle que ai,j = 0 si
|i j| > 1, et telle que la matrice diagonale D = diag(ai,i )i=1,...,n soit inversible. On note A = D E F o
E (resp. F ) est la partie triangulaire infrieure (resp. suprieure) de A, et on note J et G les matrices ditration
des mthodes de Jacobi et Gauss-Seidel associes la matrice A.
2.a. Pour Cl, 6= 0 et x Cln , on note

x = (x1 , x2 , . . . , k1 xk , n1 xn )t .

Montrer que si est valeur propre de J associe au vecteur propre x, alors x vrifie (E + 1 F )x = Dx . En
dduire que si 6= 0 est valeur propre de J alors 2 est valeur propre de G.
2.b Montrer que si 2 est valeur propre non nulle de G, alors est valeur propre de J .

3. Montrer que (BGS ) = (BJ )2 . En dduire que lorsquelle converge, la mthode de Gauss-Seidel pour la
rsolution du systme Ax = b converge plus rapidement que la mthode de Jacobi.
4. Soit B la matrice ditration de la mthode SOR associe A. Montrer que est valeur propre de J si et
seulement si est valeur propre de B , o = 2 et vrifie 2 + 1 = 0.
En dduire que
(B ) = max {| |; 2 + 1 = 0}.
valeur propre de J

Exercice 55 (Mthode de Jacobi pour des matrices particulires). Suggestions en page 95, corrig en page 104
On note Mn (IR) lensemble des matrices carres dordre n coefficients rels, et Id la matrice identit dans
Mn (IR). Soit A = [ai,j ]i,j=1,...,n Mn (IR). On suppose que :

ai,j 0, i, j = 1, . . . , n, i 6= j, (1.115)
ai,i > 0, i = 1, . . . , n. (1.116)
n
X
ai,j = 0, j = 1, . . . , n. (1.117)
i=1

Soit IR + .
1. Pour x IR n , on dfinit
n
X
kxkA = ai,i |xi |.
i=1

Montrer que k kA est une norme sur IR n .

Analyse numrique I, tl-enseignement, L3 92 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

2. Montrer que la matrice Id + A est inversible.


3. On considre le systme linaire suivant :
(Id + A)u = b (1.118)
Montrer que la mthode de Jacobi pour la recherche de la solution de ce systme dfinit une suite (u (k)
)kn
IR n .
4. Montrer que la suite (u(k) )kIN vrifie :
1 k (1)
ku(k+1) u(k) kA ( ) ku u(0) kA ,
1+
o = mini=1,...,n ai,i .
5. Montrer que la suite (u(k) )kIN est de Cauchy, et en dduire quelle converge vers la solution du systme
(1.118).
Exercice 56 (Une mthode itrative particulire).
Soient 1 , . . . , n des rels strictement positifs, et A la matrice n n de coefficients ai,j dfinis par :


ai,i = 2 + i
ai,i+1 = ai,i1 = 1


ai,j = 0 pour tous les autres cas.

Pour > 0 on considre la mthode itrative M x(k+1) = N x(k) + b avec A = M N et N = diag( i )


(c..d i pour les coefficients diagonaux, et 0 pour tous les autres).
1. Soit C une valeur propre de la matrice M 1 N ; montrer quil existe un vecteur x Cn non nul tel que
N x x = M x x (o x dsigne le conjugu de x). En dduire que toutes les valeurs propres de la matrice M 1 N
sont relles.
| i |
2. Montrer que le rayon spectral (M 1 N ) de la matrice vrifie : (M 1 N ) maxi=1,n


3. Dduire de la question 1. que si > , o = maxi=1,n i , alors (M 1 N ) < 1, et donc que la mthode
2
itrative converge.
| i |
4. Trouver le paramtre minimisant maxi=1,n .

(On pourra dabord montrer que pour tout > 0, | i | max( , ) pour tout i = 1, . . . , n, avec
= mini=1,...,n i et
= maxi=1,...,n i et en dduire que maxi=1,n | i | = max( ,
)) .
Exercice 57 (Une matrice 3 3). Suggestions en page 95, corrig en page 105
Soit A M3 (IR) dfinie par A = Id E F avec

0 2 0 0 0 0
E = 1 0 0 , et F = 0 0 0 .
0 0 0 1 1 0
1. Montrer que A est inversible.

2. Soit 0 < < 2. Montrer que pour ( 1 Id E) est inversible si et seulement si 6= 2/2.

Pour 0 < < 2, 6= 2/2, on considre la mthode itrative (pour trouver la solution de Ax = b)
suivante :

1 1
( Id E)xn+1 = (F + Id)xn + b.

Il sagit donc de la mthode I" du cours avec B = L = ( 1 Id E)1 (F + 1
Id).

Analyse numrique I, tl-enseignement, L3 93 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

3. Calculer, en fonction de , les valeurs propres de L et son rayon spectral.


4. Pour quelles valeurs
de la mthode est-elle convergente ? Dterminer 0 ]0, 2[ t.q. (L0 ) = min{(L ),
]0, 2[, 6= 2/2}.
Exercice 58 (Mthode des directions alternes).
Soit n IN, n 1 et oit A Mn (IR) une matrice carre dordre n symtrique inversible et b IR n . On cherche
calculer u IR n , solution du systme linaire suivant :
Au = b, (1.119)
On suppose connues des matrices X et Y Mn (IR), symtriques. Soit IR + , choisi tel que X + Id et
Y + Id soient dfinies positives (o Id dsigne la matrice identit dordre n) et X + Y + Id = A.
Soit u(0) IR n , on propose la mthode itrative suivante pour rsoudre (1.119) :
(X + Id)u(k+1/2) = Y u(k) + b, (1.120a)
(k+1) (k+1/2)
(Y + Id)u = Xu + b. (1.120b)

1. Montrer que la mthode itrative (1.120) dfinit bien une suite (u(k) )kIN et que cette suite converge vers
la solution u de (1.1) si et seulement si

(Y + Id)1 X(X + Id)1 Y < 1.
(On rappelle que pour toute matrice carre dordre n, (M ) dsigne le rayon spectral de la matrice M .)
2. Montrer que si les matrices (X + 2 Id) et (Y + 2 Id) sont dfinies positives alors la mthode (1.120)
converge. On pourra pour cela (mais ce nest pas obligatoire) suivre la dmarche suivante :
(a) Montrer que
 
(Y + Id)1 X(X + Id)1 Y = X(X + Id)1 Y (Y + Id)1 .
(On pourra utiliser lexercice 29 page 61).
(b) Montrer que
  
X(X + Id)1 Y (Y + Id)1 X(X + Id)1 Y (Y + Id)1 .

(c) Montrer que X(X + Id)1 < 1 si et seulement si la matrice (X + 2 Id) est dfinie positive.
(d) Conclure.
3. Soit f C([0, 1] [0, 1]) et soit A la matrice carre dordre n = M M obtenue par discrtisation de
lquation u = f sur le carr [0, 1] [0, 1] avec conditions aux limites de Dirichlet homognes u = 0
1
sur , par diffrences finies avec un pas uniforme h = M , et b le second membre associ.
(a) Donner lexpression de A et b.
(b) Proposer des choix de X, Y et pour lesquelles la mthode itrative (1.120) converge dans ce cas et
qui justifient lappellation mthode des directions alternes" qui lui est donne.

1.5.5 Exercices, suggestions


Exercice 45 page 88 (Mthode itrative du gradient pas fixe".)
1. Calculer le rayon spectral (B) de la matrice ditration B = Id A. Calculer les valeurs de pour lesquelles
2
(B) < 1 et en dduire que la mthode itrative du gradient pas fixe converge si 0 < < (A) .
2. Remarquer que (Id A) = max(|1 1 |, |1 n 1|, o 1 , . . . , n sont les valeurs propres de A
ordonnes dans le sens croissant. En traant les graphes des valeurs prises par |11 | et |1n 1| en fonction
2
de , en dduire que le min est atteint pour = 1 + n
.

Analyse numrique I, tl-enseignement, L3 94 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Exercice 46 page 88 (Non convergence de la mthode de Jacobi)


Considrer dabord le cas a = 0.
Si a 6= 0, pour chercher les valeurs de a pour lesquelles A est symtrique dfinie positive, calculer les valeurs
propres de A en cherchant les racines du polynme caractristique. Introduire la variable telle que a = 1 .
Pour chercher les valeurs de a pour lesquelles la mthode de Jacobi converge, calculer les valeurs propres de la
matrice ditration J dfinie en cours.

Exercice 48 page 89 (Une matrice cyclique)


1. On peut trouver les trois valeurs propres (dont une double) sans calcul en remarquant que pour = 0 il y a 2
fois 2 lignes identiques, que la somme des colonnes est un vecteur constant et par le calcul de la trace.
2. Une matrice A est symtrique dfinie positive si et seulement si elle est diagonalisable et toutes ses valeurs
propres sont strictement positives.
3. Appliquer le cours.

Exercice 49 page 89 (Jacobi et diagonale dominante stricte.)


Pour montrer que A est inversible, montrer que Ax = 0 si et seulement si x = 0. Pour montrer que la mthode de
Jacobi converge, montrer que toutes les valeurs propres de la matrice A sont strictement infrieures 1 en valeur
absolue.

Exercice 52 page 90 (Mthode de Jacobi et relaxation.)


1. Prendre pour A une matrice (2,2) symtrique dont les lments diagonaux sont diffrents lun de lautre.
2. Appliquer lexercice 5 page 16 en prenant pour T lapplication linaire dont la matrice est D et pour S lappli-
cation linaire dont la matrice est E + F .
4. Remarquer que (BJ ) = max(1 , n ), et montrer que :
si 1 1, alors 2D A nest pas dfinie positive,
si n 1, alors A nest pas dfinie positive.
6. Reprendre le mme raisonnement qu la question 2 4 avec les matrices M et N au lieu de D et E + F .
7. Chercher une condition qui donne que toutes les valeurs propres sont strictement positives en utilisant la base
de vecteurs propres ad hoc. (Utiliser la base de IR n , note {f1 , . . . , fn }, trouve la question 2.)
()
8. Remarquer que les fi de la question 2 sont aussi vecteurs propres de J et en dduire que les valeurs propres i
()
de J sont de la forme i = (i 1 1/). Pour trouver le paramtre optimal 0 , tracer les graphes des fonc-
() () () ()
tions de IR + dans IR dfinies par 7 |1 | et 7 |n |, et en conclure que le minimum de max(|1 |, |n |)
2
est atteint pour = 21 n .

Exercice 55 page 92 (Mthode de Jacobi et relaxation.)


2. Utiliser lexercice 49 page 89

Exercice 57 page 93 (Convergence de SOR.)


1. Calculer le dterminant de A.
2. Calculer le dterminant de Id E.
3. Remarquer que les valeurs propres de L annulent det( 1 I
Id+F ( d E)). Aprs calcul de ce dterminant,
1 1
on trouve 1 = 1 , 2 = 1+2 , 3 = 12 .

Montrer que si < 2, (L ) = |3 | et que (L ) = |1 | si 2.
4. Utiliser lexpression des valeurs propres pour montrer que la mthode converge si > 1+22 et que le paramtre
de relaxation optimal est 0 = 1.

Analyse numrique I, tl-enseignement, L3 95 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

1.5.6 Exercices, corrigs


Exercice 44 page 87
2 2
(a) La valeur propre double est et donc
 le
 rayon spectral est
3 3 qui est strictement infrieur 1, donc la suite
3
converge vers x = (Id B)1 c =
9
2
(b) Les valeurs propres sont 3 et 3 et donc le rayon spectral est 2 qui est strictement infrieur 1, donc la suite
diverge

Exercice 45 page 88 (Mthode itrative de Richardson)

1. On peut rcrire litration sous la forme : xk+1 = (Id A)xk + b. La matrice ditration est donc
B = Id A. La mthode converge si et seulement si (B) < 1 ; or les valeurs propres de B sont de la
forme 1 i o i est v.p. de A. On veut donc :

1 < 1 i < 1, i = 1, . . . , n.

cestdire 2 < i et i < 0, i = 1, . . . , n.


Comme A est symtrique dfinie positive, i > 0, i = 1, . . . , n, donc il faut > 0.
De plus, on a :
2 2
(2 < i i = 1, . . . , n) ( < i, 1, . . . , n) ( < ).
i n

2
La mthode converge donc si et seulement si 0 < < .
(A)
2. On a : (Id A) = sup |1 i | = max(|1 1 |, |1 n |). Le minimum de (Id A) est donc
i
2
obtenu pour 0 tel que 1 0 1 = 0 n 1, cestdire (voir Figure (1.6) 0 = .
1 + n

|1 1 |
|1 N |
max(|1 1 |, |1 N )|)
1

1 1
N 0 1

F IGURE 1.6: Graphes de |1 1 | et |1 n | en fonction de .

Analyse numrique I, tl-enseignement, L3 96 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Exercice 46 page 88 (Non convergence de la mthode de Jacobi)


Si a = 0, alors A = Id, donc A est s.d.p. et la mthode de Jacobi converge.
Si a 6= 0, posons a = (1 ), et calculons le polynme caractristique de la matrice A en fonction de la
variable .
a a a 1 1

P () = det a a a = a3 det 1 1 = a3 (3 3 + 2).
a a a 1 1

On a donc P () = a3 ( 1)2 ( + 2). Les valeurs propres de la matrice A sont donc obtenues pour = 1 et
= 2, cestdire : 1 = 1 a et 2 = 1 + 2a.
La matrice A est dfinie positive si 1 > 0 et 2 > 0, cestdire si 21 < a < 1.
La mthode de Jacobi scrit :
X (k+1) = D1 (D A)X (k) ,
avec D = Id dans le cas prsent ; donc la mthode converge si et seulement si (D A) < 1.
Les valeurs propres de D A sont de la forme = 1 o est valeur propre de A. Les valeurs propres de
D A sont donc 1 == a (valeur propre double) et 2 = 2a.. On en conclut que la mthode de Jacobi converge
si et seulement si 1 < a < 1 et 1 < 2a < 1, i.e. 12 < a < 12 .
La mthode de Jacobi ne converge donc que sur lintervalle ] 12 , 12 [ qui est strictement inclus dans lintervalle
] 12 , 1[ des valeurs de a pour lesquelles la matrice A est s.d.p..

Exercice 49 page 89 (Jacobi pour les matrices diagonale dominante stricte)


Pour montrer que A est inversible, supposons quil existe x IR n tel que Ax = 0 ; on a donc
n
X
aij xj = 0.
j=1

Pour i {1, . . . , n}, on a donc


X X
|ai,i ||xi | = |ai,i xi | = | ai,j xj | |ai,j |kxk , i = 1, . . . , n.
j;i6=j j;i6=j

Si x 6= 0, on a donc P
j;i6=j ai,j xj |
|xi | kxk < kxk , i = 1, . . . , n,
|ai,i |
ce qui est impossible pour i tel que
|xi | = kxk .
Montrons maintenant que la mthode de Jacobi converge : Si on crit la mthode ous la forme P x(k+1) = (P
A)x(k) + b avec , on a
a1,1 0
..
P =D= . .
0 an,n
La matrice ditration est

a1
1,1 0 0 ai,j
.. ..
BJ = P 1 (P A) = D1 (E + F ) = . .
0 a1
n,n ai,j 0
a1,2
0 a1,1 ...
..
= . .
a
1,1
an,n ... 0

Analyse numrique I, tl-enseignement, L3 97 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Cherchons le rayon spectral de BJ : soient x IR n et IR tels que BJ x = x, alors


X ai,j X kxk
xj = xi , et donc |||xi | |ai,j | .
ai,i |ai,i |
j;i6=j j;i6=j

Soit i tel que |xi | = kxk et x 6= 0, on dduit de lingalit prcdente que


P
j;i6=j |ai,j |
|| < 1 pour toute valeur propre .
|aii |

On a donc (BJ ) < 1 ce qui prouve que la mthode de Jacobi converge.

Exercice 52 page 90 (Mthode de Jacobi et relaxation)


1. BJ = D1 (E + F ) peut ne pas tre symtrique, mme si A est symtrique :
 
2 1
En effet, prenons A = .
1 1
Alors  1      
0 0 1 0 21 0 1
BJ = D1 (E + F ) = 2 = 6= 1 .
0 1 1 0 1 0 2 0
donc BJ nest pas symtrique.
2. On applique lexercice prcdent pour lapplication linaire T de matrice D, qui est, par hypothse, dfinie
positive (et videmment symtrique puisque diagonale) et S = E + F , symtrique car A est symtrique.
Il existe donc (f1 . . . fn ) base de E et (1 . . . n ) IR n tels que

BJ fi = D1 (E + F )fi = i fi , i = 1, . . . , n, et (Dfi , fj ) = ij .

3. Par dfinition de BJ , tous les lments diagonaux de BJ sont nuls et donc sa trace galement. Or T rBJ =
Xn
i . Si i > 0 i = 1, . . . , n, alors T rBJ > 0, donc i0 ; i 0 et comme 1 i0 , on a 1 0. Un
i=1
raisonnement similaire montre que n 0.
4. La mthode de Jacobi converge si et seulement si (BJ ) < 1 (thorme 1.49 page 77). Or, par la question
prcdente, (A) = max(1 , n ). Supposons que 1 1, alors 1 = , avec 1. On a alors
D1 (E +F )f1 = f1 ou encore (E +F )f1 = Df1 , ce qui scrit aussi (D+E +F )f1 = D(1)f1
cestdire (2DA)f1 = Df1 avec 0. On en dduit que ((2DA)f1 , f1 ) = 0, ce qui contredit
le fait que 2D A est dfinie positive. En consquence, on a bien 1 1.
Supposons maintenant que n = 1. On a alors D1 (E + F )f1 = fn , soit encore (E + F )fn =
Dfn . On en dduit que Afn = (D E F )fn = D(1 )fn = Dfn avec 0. On a
alors(Afn , fn ) 0, ce qui contredit le fait que A est dfinie positive.
5. Par dfinition, on a :Dx(k+1) s = (E + F )x(k) + b et x(k+1) = x
(k+1) + (1 )x(k) . On a donc x(k+1) =
[D (E+F )x +D b]+(1)x cestdire x
1 (k) 1 (k) (k+1)
= [Id(IdD1 (E+F ))]x(k) +D1 b,,
1 1
soit encore Dx (k+1)
= [ D (D (E + F ))]x + b. On en dduit que M x(k+1) = N x(k) + b avec
(k)
1 1
M = D et N = D A.
6. La matrice ditration est donc maintenant J = M1 N qui est symtrique pour le produit scalaire
(, )M donc en reprenant le raisonnement de la question 2, il existe une base (f1 , . . . , fn ) (IR n )n et
( n ) IR n tels que
1 , . . .
 
1
J fi = M 1 N fi = D1 i fi , i = 1, . . . , n,
D A fi =

1
et Dfi fj = ij , i, = 1, . . . , n, j, = 1, . . . , n.

Analyse numrique I, tl-enseignement, L3 98 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Supposons 1 1, alors 1 = , avec 1 et D1 ( 1 D A)f1 = f1 , ou encore 1 D Af1 =


1 1 2
Df1 . On a donc 2 D Af1 = (1 ) Df1 , ce qui entrane ( D A)f1 f1 0. Ceci contredit

2
lhypothse D A dfinie positive.

De mme, si n 1, alors
n = avec 1. On a alors
1 1
( D A)fn = Dfn ,

et donc Afn = (1 ) 1 Dfn ce qui entrane en particulier que Afn fn 0 ; or ceci contredit lhypothse
A dfinie positive.
7. On cherche une condition ncessaire et suffisante pour que
 
2
D A x x > 0, x 6= 0, (1.121)

ce qui est quivalent  


2
D A fi fi > 0, i = 1, . . . , n, (1.122)

o les (fi )i=1,n sont les vecteurs propres de D1 (E + F ). En effet, la famille (fi )i=1,...,n est une base de
IR n , et    
2 2
D A fi = D D + (E + F ) fi
 
2
= 1 Dfi + i Dfi (1.123)
 
2
= 1 + i Dfi .


On a donc en particulier 2 D A fi fj = 0 is i 6= j, ce qui prouve que (1.121) est quivalent (1.122).
De (1.122), on dduit, grce au fait que (Dfi , fi ) = 1,
    
2 2
D A fi , fi = 1 + i .

On veut donc que 2 1 + 1 > 0 car 1 = inf i , cestdire : 2 < 1 1, ce qui est quivalent :
2
< .
1 1
8. La matrice ditration J scrit :
 1  
1 1 1
J = D D A = I , avec I = D1 ( D A).

Soit une valeur propre de I associe un vecteur propre u ; alors :


   
1 1 1
D D A u = u, i.e. D A u = Du.

On en dduit que  
1
(D A)u + 1 Du = Du, soit encore

 
1 1
D (E + F )u = 1 + u.

Analyse numrique I, tl-enseignement, L3 99 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Or fi est vecteur propre de D1 (E + F ) associe la valeur propre i (question 2). On a donc :


 
1
D1 (E + F )fi = i fi = 1 + fi ,

 
() 1
ce qui est vrai si i = 1 1 + , cestdire = i 1 1 . Donc i = i 1 est valeur

propre de J associe au vecteur propre fi .
On cherche maintenant minimiser le rayon spectral
1
(J ) = sup |(i 1 )|
i
On a
1 1 1
(1 1 ) (i 1 ) (n 1 ),

et
1 1 1
(n 1
) (1 1 ) (i 1 ),

donc  
1 1
(J ) = max |(n 1 )|, | (1 1 |)

dont le minimum est atteint (voir Figure ??) pour
2
(1 1 ) 1 = 1 (1 n ) cestdire = .
2 1 n

|(1 1 ) + 1|
|(1 N ) + 1|
max(|(1 N ) + 1|, |(1 1 ) + 1|)
1

1 2 1
11 21 N 1N

F IGURE 1.7: Dtermination de la valeur de ralisant le minimum du rayon spectral.

Exercice 53 page 91 (Jacobi et Gauss-Seidel pour une matrice tridiagonale)


2 1 0 1
On considre la matrice A = 1 2 1 et le vecteur b = 0. Soit x(0) un vecteur de IR 3 donn.
0 1 2 1
1. Mthode de Jacobi
1.a Ecrire la mthode de Jacobi pour la rsolution du systme Ax = b, sous la forme x(k+1) = BJ x(k) + cJ .

Analyse numrique I, tl-enseignement, L3 100 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

La mthode de Jacobi Dx(k+1) = (E + F )x(k) + b avec



2 0 0 0 0 0 0 1 0
D = 0 2 0 , E = 1 0 0 et F = 0 0 1 .
0 0 2 0 1 0 0 0 0
1
1
0 2 0 2
La mthode de Jacobi scrit donc x(k+1) = BJ x(k) + cJ avec BJ = D1 (E + F ) = 12 0 21 et cJ = 0 .
0 21 0 1
2
1.b Dterminer le noyau de BJ et en donner une base.
1
On remarque que x Ker(BJ ) si x2 = 0 et x1 + x3 = 0. Donc KerBJ = {t 0 , t IR}.
1
1.c Calculer le rayon spectral de BJ et en dduire que la mthode de Jacobi converge.
Le polynme caractristique de BJ est PJ () = det(BJ Id) = ((2 + 12 ) et donc (BJ ) = 22 < 1. On
en dduit que la mthode de Jacobi converge.
1.d Calculer x(1) et x(2) pour les choix suivants de x(0) :

0 0
(i) x(0) = 0 , (ii) x(0) = 1 .
0 2
1 1
2 2
Choix (i) : x(1) = 0 , x(2) = 12 .
1 1
2 2
1 1
Choix (ii) : x(1) = 1, x(2) = 1.
1 1
2. Mthode de Gauss-Seidel.
2.a Ecrire la mthode de Gauss-Seidel pour la rsolution du systme Ax = b, sous la forme x(k+1) =
BGS x(k) + cGS .
La mthode de Gauss-Seidel scrit (D E)x(k+1) = F x(k) + b, o D, E et F ont t dfinies la question 1.a.
La mthode scrit donc x(k+1) = BGS x(k) + cGS avec BGS = (D E)1 F et cGS = (D E)1 b. Calculons
(D E))1 F et (D E))1 b par chelonnement.


2 0 0 0 1 0 1 2 0 0 0 1 0 1 2 0 0 0 1 0 1
1 2 0 0 0 1 0 0 2 0 0 1
1 1
0 2 0 0 1
1 1
2 2 2 2
1 1 5
0 1 2 0 0 0 1 0 1 2 0 0 0 1 0 0 2 0 4 2 4

On a donc 1
1
0 2 0 2
BGS = 0 1
4
1
2 et cGS = 14 .
1 1 5
0 8 4 8
2.b Dterminer noyau de BGS . Il est facile de voir que x Ker(BGS ) si et seulement si x2 = x3 = 0. Donc
le
1
KerBGS = {t 0 , t IR}.
0
2.c Calculer le rayon spectral de BGS et en dduire que la mthode de Gauss-Seidel converge.
Le polynme caractristique de BGS est PGS () = det(BGS Id). On a donc

1
0  
2 1 1 1
1 1 2
= 2 ( )
PGS () = 0 4 2 = ( 4 ) 16 2
0 1 1
8 4

Analyse numrique I, tl-enseignement, L3 101 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

et donc (BGS ) = 21 < 1. On en dduit que la mthode de Gauss-Seidel converge.


2.d Comparer les rayons spectraux de BGS et BJ et vrifier ainsi un rsultat du cours.
On a bien (BGS ) = 12 = (BJ )2 , ce qui est conforme au thorme 1.36 du cours.
2.d Calculer x(1) et x(2) pour les choix suivants de x(0) :

0 0
(i) x(0) = 0 , (ii) x(0) = 1 .
0 1
1 5

2 8
Choix (i) : x(1) = 1 , x(2) = 5 .
4 8
5 13
s
8 16
1 1
Choix (ii) : x(1) = 1 , x(2) = 1.
1 1
3. Convergence en un nombre fini ditrations.
3.1 Soit et des rels. Soit u(0) R et (u(k) )kIN la suite relle dfinie par u(k+1) = u(k) + .
3.1.a Donner les valeurs de et pour lesquelles la suite (u(k) )kIN converge.
La suite (u(k) )kIN converge pour les valeurs suivantes de (, ) :

1. || < 1, IR, auquel cas la suite converge vers u = 1 ,
2. = 1, = 0, auquel cas la suite est constante et gale u0 .
3.1.b On suppose que 6= 0, et que la suite (u(k) )kIN converge vers une limite quon note u. Montrer que
sil existe K N tel que uK = u, alors u(k) = u pour tout k IN.
Si uK = u, comme uK = uK1 + et que u = u + , on en dduit que 0 = uK u = (uK1 u),
et comme 6= 0, ceci entrane uK1 = u. On en dduit par rcurrence que uk = u pour tout k K 1. On
remarque ensuite que si uK = u alors uK+1 = uK + = u + = u. On en dduit par rcurrence que uk = u
pour tout k IN.
3.2 Soit N > 1, B une matrice relle carre dordre N et b IR n . Soit u(0) IR N et (u(k) )kIN la suite
dfinie par u(k+1) = Bu(k) + c.
3.2.a Donner les conditions sur B et c pour que la suite (u(k) )kIN converge vers une limite indpendante du
choix initial u0 IR N .
Pour que la suite (u(k) )kIN converge, il faut quil existe u tel que u = Bu + c, ou encore c = (Id B)u.
Supposons que cest le cas. On a alors u(k+1) u = B(u(k) u), et donc u(k) u = B k (u(0) u). On veut donc
que B k (u(0) u) tende vers 0 pour tout choix initial u(0) , c..d. que B k tende vers 0. On en dduit, par le lemme
1.5 que la suite (u(k) )kIN converge si et seulement si (B) < 1.
3.2.b On suppose que la suite (u(k) )kIN converge vers une limite quon note u. Montrer quon peut avoir
u(1) = u avec u(0) 6= u.
En prenant B = BJ , c = cJ et u(0) = (0, 1, 2)t , on sait par la question 1.2 quon ar u(1) = (1, 1, 1)t = u avec
u(0) 6= u.

Exercice 54 page 92 (Jacobi et Gauss-Seidel pour une matrice tridiagonale)


1.a. Soit C, 6= 0 et x Cln , soit x = (x1 , x2 , . . . , k1 xk , n1 xn )t , et soit est valeur propre de J
associe au vecteur propre x. Calculons (E + 1 F )x :
((E + 1 F )x )i = ai,i1 i2 xi1 + 1 ai,i+1 i xi+1 = i1 (ai,i1 xi1 + ai,i+1 xi+1 = i1 ((E + F )x)i =
(Dx )i .
On a donc (E + 1 F )x = Dx . En prenant = dans lgalit prcdente, on obtient : 1 F x = (D E)x ,
et donc (D E)1 F x = 2 x . dduire que si 6= 0 est valeur propre de BJ alors 2 est valeur propre de G
(associe au vecteur propre x ).

Analyse numrique I, tl-enseignement, L3 102 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

1.b. Rciproquement, supposons maintenant que 2 est valeur propre non nulle de G, alors il existe y IR n , y 6= 0
tel que (D E)1 F y = 2 y. Soit x IR n tel que y = x , cest--dire xi = 1i yi , pour i = 1, . . . , n. On en
dduit que 1 F x = 2 (D E)x , et donc (E + 1 F )x = Dx .
Il est alors facile de vrifier (calculs similaires ceux de la question 1.a) que (E + F )x = Dx, do on dduit
que est valeur propre de BJ .
2. De par la question 1, on a finalement que C, 6= 0 est valeur propre de BJ si et seulement si 2 C, 6= 0
est valeur propre de BGS .
On en dduit que (BGS ) = (BJ )2 .
On a donc en particuler que (BGS ) < 1 si et seulement si (BGS ) < 1, ce qui prouve que les mthodes de Jacobi
et Gauss-Seidel convergent ou divergent simultanment.
De plus, on a vu lexercice 59 page 113 que si B dsigne la matrice ditration dune mthode irative x(k+1) =
Bx(k) + c pour la rsolution de Ax = b, alors

kx(k+1) xk
(B) lorsque n +.
kx(k) xk

On en dduit que lorsquelle converge, la mthode de Gauss-Seidel converge plus rapidement que la mthode de
Jacobi.
3.1 Soit B la matrice ditration de la mthode SOR associe A, et soit une valeur propre de B = ( 1 D
E)1 ( 1
D + F ). Il existe donc y C l n , y 6= 0, tel que

(1 D + F )y = (D E)y.

Ceci scrit encore : (F + E)y = ( 11 + )Dy, et aussi, en notant une valeur propre non nulle de BJ ,


( F+ E)y = Dy,
1 + 1 +
soit encore
1
(E + F )y = Dy, (1.124)

avec
1
= et = .
1 + 1 +
Ceci est possible si 1 + 6= 0, 6= 0, et

1 +
= . (1.125)
1 +
Remarquons tout dabord quon a forcment 6= 1 . En effet, sinon, le vecteur propre y associ vrifie
F y = Ey, ce qui est impossible pour ]0, 2[ et y 6= 0.
On a galement 6= 0 car 6= 0 et 6= 0.
Voyons maintenant pour quelles valeurs de la relation (1.125) est vrifie. La relation (1.125) est quivalente
( 1 + )2 = ( )() ce qui revient dire que = 2 , o est solution de lquation

2 + 1 = 0. (1.126)

La relation (1.125) est donc vrifie pour = 2 , o est racine de lquation 2 + 1 = 0. Soit
donc + et les racines (ou ventuellement la racine double) de cette quation (qui en admet toujours car on la

rsout dans C).


Donc si 6= 0 est valeur propre de BJ associe au vecteur propre x, en vertu de (1.124) et de la question 1.a, les
valeurs telles que = ( )2 o est solution de (1.126) sont valeurs propres de la matrice B associs au
vecteurs propres x( ).

Analyse numrique I, tl-enseignement, L3 103 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

Rciproquement, si = 2 , o est solution de lquation (1.126), est valeur propre de B , alors il existe un
vecteur y 6= 0 tel que B y = y. Soit x IR n tel que x = y (i.e. xi = 1i
yi pour i = 1, . . . , n). On a alors :
((1 )D + F )x = 2 (D E)x , soit encore (E + F )x = (2 (1 ))Dx . Or 2 (1 ) =
grce a (1.126), et donc (E+F )x = Dx . On vrifie facilement que ceci entrane (E+F )x = Dx.
on a ainsi montr que est valeur propre de BJ .
On a montr que 6= 0 est valeur propre de BJ si et seulement si = 2 , o est solution de lquation
(1.126). On en dduit que

(B ) = max {| |; 2 + 1 = 0}
valeur propre de BJ

est valeur propre de B telles que = (+ ) et = ( ) sont valeurs propres de la matrice B associs au
2 2

vecteurs propres x( ) et x
+

. En dduire que

(matsor) = max {| |; 2 + 1 = 0}.


valeur propre de BJ

Exercice 55 page 92 (Mthode de Jacobi pour des matrices particulires)


1. Soit x IR n , supposons que
n
X
kxkA = ai,i |xi | = 0.
i=1

Comme ai,i > 0, i = 1, . . . , n, on en dduit que xi = 0, i = 1, . . . , n. Dautre part, il est immdiat


de voir que kx + ykA kxk + kykA pour tout (x, y) IR n IR n et que kxkA = ||kxkA pour tout
(x, ) IR n IR. On en dduit que k kA est une norme sur IR n .
2. Posons A = Id + A et notons a i,j ses coefficients. Comme IR + ,et grce aux hypothses (1.115)
(1.117), ceux-ci vrifient :

a
i,j 0, i, j = 1, . . . , n, i 6= j, (1.127)
Xn
a
i,i > ai,j , i = 1, . . . , n. (1.128)
i=1
j6=i

La matrice A est donc diagonale dominante stricte, et par lexercice 49 page 89, elle est donc inversible.
3. La mthode de Jacobi pour la rsolution du systme (1.118) scrit :
(k+1) = (E + F )u(k) + b,
Du (1.129)

avec D = Id+D, et A = DE F est la dcomposition habituelle de A en partie diagonale, triangulaire


est inversible, et que
infrieure et triangulaire suprieure. Comme ai,i 0 et IR + , on en dduit que D
donc la suite (u )kIN est bien dfinie dans IR.
(k)

4. Par dfinition de la mthode de Jacobi, on a :

(k+1) 1 X (k)
ui = ( ai,j uj + bi ).
ai,i + j=1,n
j6=i

On en dduit que
(k+1) (k) 1 X (k) (k1)
ui ui = ai,j (uj uj ).
ai,i + j=1,n
j6=i

Analyse numrique I, tl-enseignement, L3 104 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

et donc
n
X X
(k+1) (k) ai,i (k) (k1)
ku u kA ai,j (uj uj ).
i=1
ai,i + j=1,n
j6=i

ai,i 1 1
Or
. On a donc
ai,i + 1 + ai,i 1+

n
1 X (k) (k1)
X
ku(k+1) u(k) kA (uj uj ) ai,j .
1 + j=1 j=1,n
j6=i
P
Et par hypothse, j=1,n ai,j = aj,j . On en dduit que
j6=i

1
ku(k+1) u(k) kA ku(k) u(k1) kA .
1+
On en dduit le rsultat par une rcurrence immdiate.
5. Soient p et q = p + m IN, avec m 0. Par le rsultat de la question prcdente, on a :
m
X
ku(q) u(p) kA ku(p+i) u(pi1) kA
i=1
m
1 pX 1 i
ku(1) u(0) kA ( ) ( )
1 + i=0 1 +

1
Or > 0 donc la srie de terme gnral ( 1+ )i , et on a :

+
(q) (p) (1) (0) 1 pX 1 i
ku u kA ku u kA ( ) ( )
1 + i=0 1 +
1 1 p
(1 +)ku(1) u(0) kA ( )
1+
0 lorsque p +.

On en dduit que pour tout > 0, il existe n tel que si p, q > n alors ku(q) u(p) kA , ce qui montre
que la suite est de Cauchy, et donc quelle converge. Soit u sa limite. En passant la limite dans (1.129),
on obtient que u est solution de (1.118).

Exercice 57 page 93 (Une mthode itrative particulire)


1. Det (A) = 1 et donc A est inversible.
 
1 1 1 1 2
2. Det ( Id E) = 2
2 . Or ]0, 2[. Donc la matrice Id E est inversible si 6= .
2
3. Les valeurs propres de B sont les complexes tels quil existe x C 3 , x 6= 0, t.q : B x = x, cestdire :
   
1 1
F+ Id x = Id E x,

soit encore M, x = 0, avec M, = F + E + (1 )Id.

Or

Analyse numrique I, tl-enseignement, L3 105 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

3
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2

F IGURE 1.8: Graphe des valeurs propres 1 et 3

Det (M, ) = (1 )((1 )2 22 2 )



= (1 )(1 (1 + 2))(1 (1 2))
Les valeurs propres de B sont donc relles, et gales
1 1
1 = 1 , 2 = et 3 = .
1 + 2 1 2
Par dfinition,
le rayon spectral (B ) de la matrice B est gal max(|1 |, |2 |, |3 |). Remarquons tout dabord
que |1 + 2| > 1, ]0, 2[, et donc |1 | > |2 |, ]0, 2[. Il ne reste donc plus qu comparer |1 | et |3 |.
Une rapide tude des fonctions |1 | et |3 | permet dtablir le graphe reprsentatif ci-contre.
On a donc :
1
(B ) = |3 ()| = si ]0, 2]
1 2

(B ) = 1 () = |1 | si [ 2, 2[.

4. La mthode est convergente si (B ) < 1 ; Si [ 2, 2[, (B ) = 1 < 1 ; si ]0, 2[,

1

(B ) = <1
1 2
1 2
ds que < 1, cestdire > .
2 1 1+ 2
Le minimum de (B ) est atteint pour 0 = 1, on a alors (B ) = 0.

Exercice 58 page 94 (Mthode des directions alternes)


1. On a vu en cours quune mthode itrative dfinie par

u(0) IR n ,
u(k+1) = Bu(k) + c (1.130)

converge si et seulement si (B) < 1. Mettons donc lalgorithme (1.120) sous la forme (1.130). On a :

(Y + Id)u(k+1) = X[(X + Id)1 (Y u(k) + b)]

Analyse numrique I, tl-enseignement, L3 106 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES

soit encore

u(k+1) = (Y + Id)1 X(X + Id)1 Y u(k) (Y + Id)1 X(X + Id)1 b + (Y + Id)1 b.

On peut donc bien crire la mthode (1.120) sous la forme (1.130) avec

B = (Y + Id)1 X(X + Id)1 Y,

et la mthode dfinie par (1.120) converge si et seulement si (B) < 1. Il reste montrer quelle converge
vers u solution de Au = b. Soit u = lim u(k) . On veut montrer que Au = b. Comme u(k) converge et
u+
que u(k+1/2) est dfini par (1.120), on a aussi que u(k+1/2) converge. Soit v = lim u(k+1/2) . En passant
h+
la limite dans (1.120), on obtient :

(X + Id)v = Y u + b,
(Y + Id)u = Xv + b.

En additionnant et retranchant ces deux quations, on obtient :

Xv + Y u + Id(u + v) = Y u Xv + 2b, (1.131a)


Xv Y u + Id(v u) = Y u + Xv. (1.131b)

Lquation (1.131b) entrane Id(v u) = 0, cestdire v = u car 6= 0, et en reportant dans (1.131a),


on obtient :
(X + Y )u + 2u = (X + Y )u + b,
soit encore
(X + Y + Id)u = b, cestdire Au = b.

2. On veut montrer que si X + Id et Y + Id sont dfinies positives, alors
2 2
((X + Id)1 Y (Y + Id)1 X) < 1.

On utilise la mthode propose par lnonc.


a) Grce lexercice 29 sur les valeurs propres dun produit de matrices, on sait que les valeurs propres
de (Y + Id)1 X(X + Id)1 Y sont gales aux valeurs propres de Y (Y + Id)1 X(X + Id)1 .
On a donc ((Y + Id)1 X(X + Id)1 Y ) = (X(X + Id)1 Y (Y + Id)1 ).
b) Comme les matrices X(X + Id)1 et Y (Y + Id)1 sont symtriques, en posant

Z = Y (Y + Id)1 X(X + Id)1 ,

on a :

(Z) = kY (Y + Id)1 X(X + Id)1 k2


kY (Y + Id)1 k2 kX(X + Id)1 k2

et donc
(Z) (X(X + Id)1 )(Y (Y + Id)1 ).
c) Soit valeur propre de X, associe au vecteur propre w. On a Xw = w et (X + Id)w = ( + )w,
soit encore w = ( + )(X + Id1 w Donc


Xw = (X + Id)w, soit encore (X + Id)1 Xw = w.
+ +

Analyse numrique I, tl-enseignement, L3 107 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.5. MTHODES ITRATIVES CHAPITRE 1. SYSTMES LINAIRES


On en dduit que = est valeur propre de X(X + Id)1 associ au vecteur propre w. Pour
+

que (X(X + Id)1 ) < 1, il faut et il suffit donc que | | < 1 pour toute valeur propre de .
+

Comme > 0, si 0, | |= < 1. Si < 0, il faut distinguer le cas , auquel
+ +

cas | |= < 1 du cas ] , 0[. Remarquons quon ne peut pas avoir = car la
+ +
matrice X + Id est suppose dfinie positive. Donc on a dans ce dernier cas :


| |=
+ +
et la condition (X(X + Id)1 ) entrane

< +

cestdire

>
2

ce qui est quivalent dire que la matrice X +Id est dfinie positive.
2

d) On peut donc conclure que si les matrices (X + Id) et (Y + Id) sont dfinies positives, alors
2 2
() < 1 (grce b) et c)) et donc la mthode (1.120) converge.
3. Soit f C([0, 1] [0, 1]) et soit A la matrice carre dordre n = M M obtenue par discrtisation de
lquation u = f sur le carr [0, 1] [0, 1] avec conditions aux limites de Dirichlet homognes u = 0
1
sur , par diffrences finies avec un pas uniforme h = M , et b le second membre associ.
(a) On rappelle que loprateur Laplacien est dfini pour u C 2 (), o est un ouvert de IR 2 , par

2u 2u
u = + 2.
x2 y
La discrtisation de u = f est donne en section 1.2.2 13. Dfinissons une discrtisation uniforme
du carr par les points (xi , yj ), pour i = 1, . . . , M et j = 1, . . . , M avec xi = ih, yj = jh et
h = 1/(M + 1).
En reprenant la technique expose page 11 dans le cas 1D pour lapproxi-
mation des drives secondes, et en utilisant lordre lexicographique"
pour numroter les inconnues, on obtient un systme linaire Au = b.
Pour fixer les ides, nous prenons ici M = 3, et donc h = 14 , comme
dcrit sur la figure ci-contre. Dans ce cas, on a 9 inconnues, et le systme
scrit Au = b o A est une matrice 9 9 et b = (b1 , . . . , b9 ) IR 9 , avec

4 1 0 1 0 0 0 0 0 f (h, h)
1 4 1 0 1 0 0 0 0 f (2h, h)

0 1 4 0 0 1 0 0 0 f (3h, h)

1 0 0 4 1 0 1 0 0 f (h, 2h)
1
A= 2 0 1 0 1 4 1 0 1 0 et b =
f (2h, 2h)
h
0 0 1 0 1 4 0 0 1
f (3h, 2h)

0 0 0 1 0 0 4 1 0 f (h, 3h)

0 0 0 0 1 0 1 4 1 f (2h, 3h)
0 0 0 0 0 1 0 1 4 f (3h, 3h)
Dans le cas gnral, on aurait une matrice avec la mme structure, mais avec des blocs diagonaux de
taille (n 1) (n 1).

Analyse numrique I, tl-enseignement, L3 108 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

(b) On fait une itration dans la direction x et une autre dans la direction y, en choisissant les matrices X
et Y avec X + Y = A et

2 1 0 0 0 0 0 0 0
1 2 1 0 0 0 0 0 0

0 1 2 0 0 0 0 0 0

0 0 0 2 1 0 0 0 0
1
X= 2 0 0 0 1 2 1 0 0 0
h
0 0 0 0 1 2 0 0 0
0 0 0 0 0 0 2 1 0

0 0 0 0 0 0 1 2 1
0 0 0 0 0 0 0 1 2

2 0 0 1 0 0 0 0 0
0 2 0 0 1 0 0 0 0

0 0 2 0 0 1 0 0 0

1 0 0 2 0 0 1 0 0
1
Y = 2 0 1 0 0 2 0 0 1 0
h
0 0 1 0 0 2 0 0 1
0 0 0 1 0 0 2 0 0

0 0 0 0 1 0 1 2 0
0 0 0 0 0 1 0 0 2
Calculons les valeurs propres de la matrice X : cest une matrice diagonale par blocs identiques, et
chaque bloc est la matrice de discrtisation du laplacien unidimensionnel sur un maillage uniforme
de M + 1 mailles de pas h = M+1 1
de lintervalle [0, 1]. Les valeurs propres de chaque bloc ont t
calcules lexercice 41) :
2 2 k
k = (1 cos kh) = 2 (1 cos ), k = 1, . . . , n,
h2 h n+1
Il est facile de voir que les valeurs propres de X sont gales ces valeurs propres et que la matrice X
est donc symtrique dfinie positive.
La matrice Y est obtenue partir de la matrice X par des permutations de ligne et colonne. En effet, la
matrice Y est aussi la matrice de discrtisation du laplacien en une dimension despace (cest--dire de
u = f ), mais dans la direction y, et donc avec une numrotation qui nest pas la numrotation
naturelle en une dimension despace. On obtient donc Y partir de X en crivant :
Y Y
Y = Cij X Cij X,
i,j=1,M i,j=1,M

o Cij la matrice de permutation dont les coefficients (Cij )k, sont donns par :

1 si k = et k 6 {(M 1)j + i, (M 1)i + j},

(Cij )k, = 1 si k = (M 1)j + i, et = (M 1)i + j


0 dans tous les autres cas.
On en dduit que Y a les mmes valeurs propres que X, et quelle est donc symtrique dfinie positive.
On en conclut que la mthode des directions alternes avec les choix de X et Y donnes ci dessus et
> 0 (en loccurence ici la direction x puis la direction y converge.

1.6 Valeurs propres et vecteurs propres


Les techniques de recherche des lments propres, c..d. des valeurs et vecteurs propres (voir Dfinition 1.2 page
7) dune matrice sont essentielles dans de nombreux domaines dapplication, par exemple en dynamique des struc-

Analyse numrique I, tl-enseignement, L3 109 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

tures : la recherche des modes propres dune structure peut savrer importante pour le dimensionnement de struc-
tures sous contraintes dynamiques ; elle est essentielle dans la comprhension des phnomnes acoustiques. On
peut se demander pourquoi on parle dans ce chapitre, intitul systmes linaires du problme de recherche des
valeurs propres : il sagit en effet dun problme non linaire, les valeurs propres tant les solutions du polynme
caractristique, qui est un polynme de degr n, o n est la dimension de la matrice. Il nest malheureusement
pas possible de calculer numriquement les valeurs propres comme les racines du polynme caractristique, car
cet algorithme est instable : une petite perturbation sur les coefficients du polynme peut entraner une erreur trs
grande sur les racines, et en gnral (voir par exemple le chapitre 5 du polycopi d E. Hairer, en ligne sur le web
(voir lintroduction de ce cours). De nombreux algorithmes ont t dvelopps pour le calcul des valeurs propres
et vecteurs propres. Ces mthodes sont en fait assez semblables aux mthodes de rsolution de systmes linaires.
Dans le cadre de ce cours, nous nous restreignons deux mthodes trs connues : la mthode de la puissance (et
son adaptation de la puissance inverse), et la mthode dite QR.

1.6.1 Mthode de la puissance et de la puissance inverse


Lid de la mthode de la puissance est trs simple. Soit A une matrice coefficients complexes de taille n n.
On note 1 , , n ses valeurs propres et on suppose quelles satisfont

|n | > |i |, i = 2, , n.

On appellera alors n la valeur propre dominante de A.


Soit x Cln tel que x 6= 0 au hasard, et considrons la suite de vecteurs unitaires

x Ax(0) Ax(k)
, x(1) =
x(0) = k, , x (k+1)
=
kxk kAx(0) kAx(k) k
 
2 1
Prenons par exemple la matrice A = dont les valeurs propres sont 1 et 3, et les vecteurs propres asso-
1 2

 
   
(1) 2 1 (2) 2 1 1
cis f = 2 et f = 2 . Partons de x = et faisons tourner scilab :
1 1 0

Analyse numrique I, tl-enseignement, L3 110 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

1
1 >x = A x
2 >x = x / norm ( x )
2 x =
3 x =
3
4
4 2.
5 0.7100107
5 1.
6 0.7041909
6
7
7 >x = x / norm ( x )
8 >x = A x
8 x =
9 x =
9
10
10 0.8944272
11 2.1242123
11 0.4472136
12 2.1183925
12
13
13 >x = A x
14 >x = x / norm ( x )
14 x =
15 x =
15
16
16 2.236068
17 0.7080761
17 1.7888544
18 0.7061361
18
19
19 >x = x / norm ( x )
20 >x = A x
20 x =
21 x =
21
22
22 0.7808688
23 2.1222883
23 0.6246950
24 2.1203484
24
25
25 >x = A x
26 >x = x / norm ( x )
26 x =
27 x =
27
28
28 2.1864327
29 0.7074300
29 2.0302589
30 0.7067834
30
31
31 >x = x / norm ( x )
32 >x = A x
32 x =
33 x =
33
34
34 0.7327935
35 2.1216434
35 0.6804511
36 2.1209968
36
37
37 >x = A x
38 >x = x / norm ( x )
38 x =
39 x =
39
40
40 2.1460381
41 0.7072145
41 2.0936957
42 0.706999
42
43
43 >x = x / norm ( x )
44 >x = A x
44 x =
45 x =
45
46
46 0.7157819
47 2.1214281
47 0.6983239
48 2.1212125
48
49
49 >x = A x
50 >x = x / norm ( x )
50 x =
51 x =
51
52
52 2.1298877
53 0.7071427
53 2.1124297
54 0.7070709

On voit clairement sur cet exemple que la suite x(k) converge vers 2 f 2 lorsque k +.

Thorme 1.60 (Convergence de la mthode de la puissance). Soit A une matrice de Mn (Cl). On note 1 , , n
les valeurs propres de A, (f 1 , , f n ) une base orthonorme de trigonalisation de A telle que Af n = n f n .
On suppose que la valeur propre n est dominante, c..d. que

|n | > |n1 | |1 |,

Analyse numrique I, tl-enseignement, L3 111 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

et on suppose de plus que n IR. Alors si x 6 V ect(f 1 , , f n1 ), la suite de vecteurs x2k converge vers un
vecteur unitaire qui est vecteur propre de A pour la valeur propre dominante n .
De plus, la suite (Axk , xk )nIN converge vers n lorsque k +.

Dmonstration. La dmonstration de ce rsultat fait lobjet de lexercice 59 dans le cas plus simple o A est une
matrice symtrique, et donc diagonalisable dans IR.
Remarque 1.61 (Sur la vitesse de convergence de lalgorithme de la puissance). Supposons pour simplifier que
n > 0, on voit que
2
kxk f 1 k2 = 2 (f 1 + Bk , f 1 )
kf 1 + Bk k
2
2 (1 kf 1 + Bk k) + kBk k2 CkBk k
| {z } kf 1 + Bk k
kBk k
 k
avec kBk k C | 2|
|1 | . La mthode de la puissance converge dautant plus vite que lcart entre les deux plus
grandes valeurs propres est grand.
La mthode de la puissance souffre de plusieurs inconvnients :
1. Elle ne permet de calculer que la plus grande valeur propre. Or trs souvent, on veut pouvoir calculer la
plus petite valeur propre.
2. De plus, elle ne peut converger que si cette valeur propre est simple.
3. Enfin, mme dans le cas o elle est simple, si le rapport des des deux plus grandes valeurs propres est
proche de 1, la mthode va converger trop lentement.
Mais de manire assez miraculeuse, il existe un remde chacun de ces maux :
1. Pour calculer plusieurs valeurs propres simulatanment, on procde par blocs : on part de p vecteurs ortho-
gonaux x01 , . . . x0p (au lieu dun seul). Une itration de la mthode consiste alors multiplier les p vecteurs
par A et les orthogonaliser par Gram-Schmidt. En rptant cette itration, on approche, si tout se passe
bien, p valeurs propres et vecteurs propres de A, et la vitesse de convergence de la mthode est maintenant
np
n .
2. Si lon veut calculer la plus petite valeur propre, on applique la mthode de la puissance A1 . On a alors
kx k
convergence (toujours si tout se passe bien) de kxk+1kk
vers 1/|1 |. Bien sr, la mise en oeuvre effective ne
seffectue pas avec linverse de A, mais en effectuant une dcomposition LU de A qui permet ensuite la
rsolution du systme linaire Axk+1 = Axk .
3. Enfin, pour acclrer la convergence de la mthode, on utilise une translation sur A, qui permet de se
rapprocher de la valeur propre que lon veut effectivement calculer. Voir ce propos lexercice 60.

1.6.2 Mthode QR
Toute matrice A peut se dcomposer sous la forme A = QR, o Q est une matrice orthogonale et R une matrice
triangulaire suprieure. Dans le cas o A est inversible, cette dcomposition est unique. On a donc le thorme
suivant :

Thorme 1.62 (Dcomposition QR dune matrice). Soit A Mn (IR). Alors il existe Q matrice orthogonale et
R matrice triangulaire suprieure coefficients diagonaux positifs ou nuls tels que A = QR. Si la matrice A est
inversible, alors cette dcomposition est unique.

Analyse numrique I, tl-enseignement, L3 112 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

La dmonstration est effectue dans le cas inversible la question 1 de lexercice 63. La dcomposition QR dune
matrice A inversible sobtient de manire trs simple par la mthode de Gram-Schmidt, qui permet de construire
une base orthonorme q1 , . . . , qn (les colonnes de la matrice Q), partir de n vecteurs vecteurs indpendants
a1 , . . . , an (les colonnes de la matrice A). On se reportera lexercice 61 pour un ventuel raffraichissement de
mmoire sur Gram-Schmidt. . . Dans le cas o A nest pas inversible (et mme non carre), la dcomposition existe
mais nest pas unique. la dmonstration dans le cadre gnral se trouve dans le livre de Ph. Ciarlet conseill en
dbut de ce cours.
Lalgorithme QR pour la recherche des valeurs propres dune matrice est extmement simple : Si A est une matrice
inversible, on pose A0 = A, on effectue la dcomposition QR de A : A = A0 = Q0 R0 et on calcule A1 = R0 Q0 .
Comme le produit de matrices nest pas commutatif, les matrices A0 et A1 ne sont pas gales, mais en revanche
elles sont semblables ; en effet, grace lassociativit du produit matriciel, on a :

A1 = R0 Q0 = (Q01 Q0 )R0 Q0 = Q1 1
0 (Q0 R0 )Q0 = Q0 AQ0 .

Les matrices A0 et A1 ont donc mme valeurs propres.


On recommence alors lopration : litration n, on.effectue la dcomposition QR de An : An = Qn Rn et on
calcule An+1 = Rn Qn .
Par miracle, pour la plupart des matrices, les coefficients diagonaux de la matrice Rn tendent vers les valeurs
propres de la matrice A, et les colonnes de la matrice Qn vers les vecteurs propres associs. Notons que la conver-
gence de lalgorithme QR est un problme ouvert. On retiendra que lalgorithme converge pour une large classe
de matrices, et on pourra trouver dans les livres de Serre ou Hubbard-Hubert la dmonstration sous une hypothse
assez technique et difficile vrifier en pratique ; lexercice 63 donne la dmonstration (avec la mme hypothse
technique) pour le cas plus simple dune matrice symtrique dfinie positive.
Pour amliorer la convergence de lalgorithme QR, on utilise souvent la technique dite de shift (translation en
franais). A litration n, au lieu deffectuer la dcomposition QR de la matrice An , on travaille sur la matrice
(k)
An bI, o b est choisi proche de la plus grande valeur propre. En gnral on choisit le coefficient b = ann .
Lexercice 62 donne un exemple de lapplication de la mthode QR avec shift.

1.6.3 Exercices
Exercice 59 (Mthode de la puissance). Suggestions en page 117, corrig en page 117
1. Soit A Mn (IR) une matrice symtrique. Soit n IR valeur propre de A t.q. |n | = (A) et soit
x(0) IR n . On suppose que n nest pas une valeur propre de A et que x(0) nest pas orthogonal
Ker(A n Id), ce qui revient dire que . lorsquon crit le vecteur propre x(0) dans la base des vecteurs
propres, la composante sur le vecteur propre associ n est non nulle. On dfinit la suite (x(k) )nIN par
x(k+1) = Ax(k) pour n IN. Montrer que
x(k)
(a) (n )n x, quand k , avec x 6= 0 et Ax = n x.
kx(k+1) k
(b) kx(k) k
(A) quand n .

Cette mthode de calcul de la plus grande valeur propre sappelle mthode de la puissance".
2. Soit A Mn (IR) une matrice inversible et b IR n . Pour calculer x t.q. Ax = b, on considre un mthode
itrative : on se donne un choix initial x(0) , et on construit la suite x(k) telle que x(k+1) = Bx(k) + c
avec c = (Id B)A1 b, et on suppose B symtrique. On rappelle que si (B) < 1, la suite tend vers x.
Montrer que, sauf cas particuliers prciser,
kx(k+1) xk
(a) kx(k) xk
(B) quand k (ceci donne une estimation de la vitesse de convergence de la
mthode itrative).
kx(k+1) x(k) k
(b) kx(k x(k1) k
(B) quand k (ceci permet destimer (B) au cours des itrations).

Exercice 60 (Mthode de la puissance inverse avec shift). Suggestions en page 117.

Analyse numrique I, tl-enseignement, L3 113 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

Soient A Mn (IR) une matrice symtrique et 1 , . . . , p (p n) les valeurs propres de A. Soit i {1, . . . , p},
on cherche calculer i . Soit x(0) IR n . On suppose que x(0) nest pas orthogonal Ker(A i Id). On suppose
galement connatre IR t.q. 0 < | i | < | j | pour tout j 6= i. On dfinit la suite (x(k) )nIN par
(A Id)x(k+1) = x(k) pour n IN.
1. Vrifier que la construction de la suite revient appliquer la mthode de la puissance la matrice A
Id)1 .
2. Montrer que x(k) (i )k x, quand k , o x est un vecteur propre associ la valeur propre i ,
c..d. x 6= 0 et Ax = i x.
kx(k+1) k 1
3. Montrer que kx(k) k
|i | quand k .

Exercice 61 (Orthogonalisation de Gram-Schmidt). Corrig en page 118


Soient u et v deux vecteurs de IR n . On rappelle que la projection orthogonale proju (v) du vecteur v sur la droite
vectorielle engendre par u peut scrire de la manire suivante :
vu
proju (v) = u,
uu
o u v dsigne le produit scalaire des vecteurs u et v. On note k k la norme euclidienne sur IR n .
1. Soient (a1 , . . . , an ) une base de IR n . On rappelle qu partir de cette base, on peut obtenir une base orthogonale
(v1 , . . . , vn ) et une base orthonormale (q1 , . . . , qn ) par le procd de Gram-Schmidt qui scrit :

a1
v1 = a1 , q1 =
ka1 k
v2
v2 = a2 projv1 (a2 ), q2 =
kv2 k
v3
v3 = a3 projv1 (a3 ) projv2 (a3 ), q3 =
kv3 k
v4
v4 = a4 projv1 (a4 ) projv2 (a4 ) projv3 (a4 ), q4 =
kv4 k
.. ..
. .
k1
X vk
vk = ak projvj (ak ), qk =
j=1
kvk k

On a donc
k1
X ak vj vk
vk = ak vj , qk = . (1.132)
j=1
vj vj kvk k

1. Montrer par rcurrence que la famille (v1 , . . . , vn ) est une base orthogonale de IR n .
2. Soient A la matrice carre dordre n dont les colonnes sont les vecteurs aj et Q la matrice carre dordre N dont
les colonnes sont les vecteurs qj dfinis par le procd de Gram-Schmidt (1.132), ce quon note :
   
A = a1 a2 . . . an , Q = q1 q2 . . . qn .

Montrer que
k1
X ak vj
ak = kvk kqk + qj .
j=1
kvj k

En dduire que A = QR, o R est une matrice triangulaire suprieure dont les coefficients diagonaux sont positifs.

Analyse numrique I, tl-enseignement, L3 114 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

3. Montrer que pour toute matrice A Mn (IR) inversible, on peut construire une matrice orthogonale Q (c.. d.
telle que QQt = Id) et une matrice triangulaire suprieure R coefficients diagonaux positifs telles que A = QR.
 
1 4
4. Donner la dcomposition QR de A = .
1 0
5. On considre maintenant lalgorithme suivant (o lon stocke la matrice Q orthogonale cherche dans la matrice
A de dpart (qui est donc crase)
Algorithme 1.63 (Gram-Schmidt modifi).
Pour k = 1, . . . , n,
Calcul de la norme de ak
Pn 1
rkk := ( i=1 a2ik ) 2

Normalisation
Pour = 1, . . . , n
ak := ak /rkk
Fin pour
Pour j = k + 1, . . . , n
Produit scalaire correspondant qk aj
Pn
rkj := i=1 aik aij
On soustrait la projection de ak sur qj sur tous les vecteurs de A aprs k.
Pour i = k + 1, . . . , n,
aij := aij aik rkj
Fin pour i
Fin pour j
Montrer que la matrice A rsultant de cet algorithme est identique la matrice Q donne par la mthode de Gram-
Schmidt, et que la matrice R est celle de Gram-Schmidt. (Cet algorithme est celui qui est effectivement implant,
car il est plus stable que le calcul par le procd de Gram-Schmidt original. )
 
cos sin
Exercice 62 (Mthode QR avec shift). Soit A =
sin 0
1. Calculer les valeurs propres de la matrice A.
2. Effectuer la dcomposition QR de la matrice A.
3. Calculer A1 = RQ et A1 = RQ bId o b est le terme a122 de la matrice A1
4. Effectuer la dcomposition QR de A1 et A1 , et calculer les matrices A2 = R1 Q1 et A2 = R 1.
1 Q

Exercice 63 (Mthode QR pour la recherche de valeurs propres). Corrig en page 119


Soit A une matrice inversible. Pour trouver les valeurs propres de A, on propose la mthode suivante, dite mthode
QR : On pose A1 = A et on construit une matrice orthogonale Q1 et une matrice triangulaire suprieure R1 telles
que A1 = Q1 R1 (par exemple par lalgorithme de Gram-Schmidt). On pose alors A2 = R1 Q1 , qui est aussi une
matrice inversible. On construit ensuite une matrice orthogonale Q2 et une matrice triangulaire suprieure R2 telles
que A2 = Q2 R2 et on pose A3 = R3 Q3 . On continue et on construit une suite de matrices Ak telles que :

A1 = A = Q1 R1 , R1 Q1 = A2 = Q2 R2 , . . . , Rk Qk = Ak = Qk+1 Rk+1 . (1.133)


Dans de nombreux cas, cette construction permet dobenir les valeurs propres de la matrice A sur la diagonale
des matrices Ak . Nous allons dmontrer que ceci est vrai pour le cas particulier des matrices symtriques dfinies
positives dont les valeurs propres sont simples (on peut le montrer pour une classe plus large de matrices).

Analyse numrique I, tl-enseignement, L3 115 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

On suppose partir de maintenant que A est une matrice symtrique dfinie positive qui admet N valeurs propres
(strictement positives) vrifiant 1 < 2 < . . . < n . On a donc :

A = P P t , avec = diag(1 , . . . , n), et P est une matrice orthogonale. (1.134)

(La notation diag(1 , . . . , n ) dsigne la matrice diagonale dont les termes diagonaux sont 1 ,... ,n ).
On suppose de plus que

P t admet une dcomposition LU et que les coefficients diagonaux de U sont strictement positifs. (1.135)

On va montrer que Ak tend vers = diag(1 , . . . , n ).

2. Soient Qi et Ri les matrices orthogonales et triangulaires suprieures dfinies par (1.133).


2.1 Montrer que A2 = Q 2 avec Q
2R k = Q1 Q2 et R k = R2 R1 .
2.2 Montrer, par rcurrence sur k, que
Ak = Q k ,
kR (1.136)
avec
k = Q1 Q2 . . . Qk1 Qk et R
Q k = Rk Rk1 . . . R2 R1 . (1.137)
k est une matrice orthogonale et R
2.3 Justifier brivement le fait que Q k est une matrice triangulaire coefficients
diagonaux positifs.

3. Soit Mk = k Lk .
3.1 Montrer que P Mk = Q k Tk o Tk = R
k U 1 k est une matrice triangulaire suprieure dont les coefficients
diagonaux sont positifs.
3.2 Calculer les coefficients de Mk en fonction de ceux de L et des valeurs propres de A.
k Tk tend vers P lorsque k +.
3.3 En dduire que Mk tend vers la matrice identit et que Q

4. Soient (Bk )kIN et (Ck )kIN deux suites de matrices telles que les matrices Bk sont orthogonales et les matrices
Ck triangulaires suprieures et de coefficients diagonaux positifs. On va montrer que si Bk Ck tend vers la matrice
orthogonale B lorsque k tend vers linfini alors Bk tend vers B et Ck tend vers lidentit lorsque k tend vers
linfini.
On suppose donc que Bk Ck tend vers la matrice orthogonale B. On note b1 , b2 , . . . , bn les colonnes de la matrice
(k) (k) (k)
B et b1 , b2 , . . . , bn les colonnes de la matrice Bk , ou encore :
  h i
B = b1 b2 . . . bn , Bk = b(k)1
(k)
b2
(k)
. . . bn .

(k)
et on note ci,j les coefficients de Ck .
(k) (k) (k) (k)
4.1 Montrer que la premire colonne de Bk Ck est gale c1,1 b1 . En dduire que c1,1 1 et que b1 b1 .
(k) (k) (k) (k) (k)
4.2 Montrer que la seconde colonne de Bk Ck est gale c1,2 b1 + c2,2 b2 . En dduire que c1,2 0, puis que
(k) (k)
c2,2 1 et que b2 b2 .
(k) (k) (k)
4.3 Montrer que lorsque k +, on a ci,j 0 si i 6= j, puis que ci,i 1 et bi bi .
4.4 En dduire que Bk tend B et Ck tend vers lidentit lorsque k tend vers linfini.

k tend vers P et Tk tend vers Id lorsque k +.


5. Dduire des questions 3 et 4 que Q

k (R
6. Montrer que R k1 )1 = Tk Tk1 . En dduire que Rk et Ak tendent vers .

Analyse numrique I, tl-enseignement, L3 116 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

1.6.4 Suggestions
Exercice 59 page 113 (Mthode de la puissance pour calculer le rayon spectral de A.)
1. Dcomposer x0 sur une base de vecteurs propres orthonorme de A, et utiliser le fait que n nest pas valeur
propre.
2. a/ Raisonner avec y (k) = x(k) x o x est la solution de Ax = b et appliquer la question 1.
b/ Raisonner avec y (k) = x(k+1) x(k) .

Exercice 60 page 113 (Mthode de la puissance inverse)


Appliquer lexercice prcdent la matrice B = (A Id)1 .

1.6.5 Corrigs
Exercice 59 page 113 (Mthode de la puissance pour calculer le rayon spectral de A)
1. Comme A est une matrice symtrique, A est diagonalisable dans IR. Soit (f1 , . . . , fn ) (IR n )n une base
orthonorme de vecteurs propres
Pn de A associe aux valeurs propres
Pn (1 , . . . , n ) IR nP. On dcompose
n
x sur (fi )i=1,...,n : x = i=1 i fi . On a donc Ax = i=1 i i fi et An x(0) = i=1 ni i fi .
(0) (0) (0)

On en dduit :
Xn  n
x(n) i
= i fi .
nn i=1
n
Comme n nest pas valeur propre,
i n
lim ( ) = 0 si i 6= n . (1.138)
n+ n
Soient 1 , . . . , p les valeurs propres diffrentes de n , et p+1 , . . . , n = n . On a donc
(n) Pn
limn+ xn = i=p+1 i fi = x, avec Ax = n x.
n

De plus, x 6= 0 : en effet, x(0)


/ (Ker(A n Id)) = V ect{f1 , . . . , fp }, et donc il existe i {p +
1, . . . , n} tel que i 6= 0.
Pour montrer (b), remarquons que :
n
X n
X
kx(n+1) k = n+1
i i et kx(n) k = ni i
i=1 i=1

car (f1 , . . . , fn ) est une base orthonorme. On a donc

x(n+1)
(n+1) k k
kx k n+1 kxk
= nn n
n = n lorsque n +.
kx(n) k x(n) kxk
k k
n

2. a) La mthode I scrit partir de x(0) connu : x(n+1) = Bx(n) + c pour n 1, avec c = (I B)A1 b.
On a donc
x(n+1) x = Bx(n) + (Id B)x x
(1.139)
= B(x(n) x).
Si y (n) = x(n) x, on a donc y (n+1) = By (n) , et daprs la question 1a) si y (0) 6 Ker(B n Id) o
n est la plus grande valeur propre de B, (avec |n | = (B)et n non valeur propre), alors

ky (n+1) k
(B) lorsque n +,
ky (n) k

Analyse numrique I, tl-enseignement, L3 117 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

cestdire
kx(n+1) xk
(B) lorsque n +.
kx(n) xk

b) On applique maintenant 1a) y (n) = x(n+1) x(n) avec

y (0) = x(1) x(0) o x(1) = Ax(0) .

On demande que x(1) x(0) / Ker(B n Id) comme en a), et on a bien y (n+1) = By (n) , donc
(n+1)
ky k
(n)
(B) lorsque n +.
ky k

Exercice 61 page 114 (Orthogonalisation par Gram-Schmidt)


1. Par dfinition de la projection orthogonale, on a v1 v2 = a1 (a2 proja1 (a2 )) = 0.
Supposons la rcurrence vraie
Pn1au rang N 1 et montrons que vn est orthogonal tous les vi pour i = 1, . . . , N 1.
a v
Par dfinition, vn = an j=1 vkj vjj vj , et donc

n1
X an vj an vi
vn vi = an vi vj vi = an vi
j=1
vj vj vi vi

par hypothse de rcurrence. On en dduit que vn vi = 0 et donc que la famille (v1 , . . . vn ) est une base orthogo-
nale.
2. De la relation (1.132), on dduit que :
k1
X wk vj vk
ak = vk + vj , qk = ,
j=1
vj vj kvk k

et comme vj = kvj kaj , on a bien :


k1
X ak vj
ak = kvk kqk + qj .
j=1
kvj k

La k-ime colonne de A est donc une combinaison linaire de la k-me colonne de Q affecte du poids kvk k et
ak vj
des k 1 premires affectes des poids klv jk
. Ceci scrit sous forme matricielle A = QR o R est une matrice
ak vj
carre dont les coefficients sont Rk,k = kvk k, Rj,k = kv jk
si j < k, et Rj,k = 0 si j > k. La matrice R est donc
bien triangulaire suprieure et coefficients diagonaux positifs.
 
3. Si A est inversible, par le procd de Gram-Schmidt (1.132) on construit la matrice Q = q1 q2 . . . qn ,
et par la question 1.b, on sait construire une matrice R triangulaire suprieure coefficients diagonaux positifs
A = QR.
   
1 1 2
4. On a a1 = et donc q1 = 2
1 2
           
4 4 4 1 2 2 1 2 2 .
Puis a2 = et donc v2 = a2 av12 v
v1
v1 = = . Donc q 2 = 1
, et Q =
0 1 0 2 1 2 2 2 2 2 2
     
kv1 k akv2 v1
2 22 1 2
Enfin, R = 1 k = , et Q = 2 2 .
0 kv1 k 0 2 2 2 2

Analyse numrique I, tl-enseignement, L3 118 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

Exercice 63 page 115 (Mthode QR pour la recherche de valeurs propres)


1.1 Par dfinition et associativit du produit des matrices,
2R
A2 = (Q1 R1 )(Q1 R1 ) = Q1 (R1 Q1 )R1 = Q1 (R1 Q1 )R1 = Q1 (Q2 R2 )R1 = (Q1 Q2 )(R2 R1 ) = Q 2
2 = Q1 Q2 et R
avec Q 2 = R1 R2 .
1.2 La proprit est vraie pour k = 2. Supposons la vraie jusquau rang k 1 et montrons l au rang k. Par
k1 R
dfinition, Ak = Ak1 A et donc par hypothse de rcurrence, Ak = Q k1 A. On en dduit que :
k1 R
Ak = Q k1 Q1 R1
= Q1 . . . Qk1 Rk1 . . . R2 (R1 Q1 )R1
= Q1 . . . Qk1 Rk1 . . . R2 (Q2 R2 )R1
= Q1 . . . Qk1 Rk1 . . . (R2 Q2 )R2 R1
= Q1 . . . Qk1 Rk1 . . . R3 (Q3 R3 )R2 R1
.. ..
. .
= Q1 . . . Qk1 Rk1 . . . Rj (Qj Rj )Rj1 . . . R2 R1
= Q1 . . . Qk1 Rk1 . . . Rj+1 (Rj Qj )Rj1 . . . R2 R1
= Q1 . . . Qk1 Rk1 . . . Rj+1 (Qj+1 Rj )Rj1 . . . R2 R1
= Q1 . . . Qk1 Rk1 (Qk1 Rk1 )Rk2 . . . R2 R1
= Q1 . . . Qk1 (Rk1 Qk1 )Rk1 Rk2 . . . R2 R1
= Q1 . . . Qk1 (Qk Rk )Rk1 Rk2 . . . R2 R1
=QkRk

k est un produit de matrices orthogonales et elle est donc orthogonale. (On rappelle que si P et Q
1.3 La matrice Q
sont des matrices orthogonales, c..d. P 1 = P t et Q1 = Qt , alors (P Q)1 = Q1 P 1 = Qt P t = (P Q)t et
donc P Q est orthogonale.)
De mme, le produit de deux matrices triangulaires suprieures coefficients diagonaux positifs est encore une
matrice triangulaire suprieure coefficients diagonaux positifs.

2.1 Par dfinition, P Mk = P k Lk = P k P t P t Lk = Ak P t Lk .


Mais Ak = Q kR k et P t = LU , et donc :

P Mk = Qk Rk U 1 k = Q k Tk o Tk = R k U 1 k . La matrice Tk est bien triangulaire suprieure co-
efficients diagonaux positifs, car cest un produit de matrices triangulaires suprieures coefficients diagonaux
positifs.
2.2

Lki,i
si i = j,
k k j
(Mk )i,j = ( L )i,j = k Li, j si i > j,

i
0 sinon.

2.3 On dduit facilement de la question prcdente que, lorsque k +, (Mk )i,j 0 si i 6= j et (Mk )i,j 1
et donc que Mk tend vers la matrice identit et que Q k Tk tend vers P lorsque k +.
P
3.1 Par dfinition, (Bk Ck )i,1 = =1,n (Bk )i, (Ck ),1 = (Bk )i,1 (Ck )1,1 car Ck est triangulaire suprieure. Donc
(k) (k)
la premire colonne de Bk Ck est bien gale c1,1 b1 .
Comme Bk Ck tend vers B, la premire colonne b1 de Bk Ck tend vers la premire colonne de B, cest --dire
(k) (k)
c1,1 b1 lb1 lorsque k .

Analyse numrique I, tl-enseignement, L3 119 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

Comme les matrices B et Bk sont des matrices orthogonales, leurs vecteurs colonnes sont de norme 1, et donc
(k) (k) (k)
|c1,1 | = kc1,1 lb1 k kb1 k = 1 lorsque k .
(k) (k)
On en dduit que |c1,1 | 1 lorsque k +, et donc limk+ c1,1 = 1. Or, par hypothse, la matrice
(k)
C (k) a tous ses coefficients diagonaux positifs, on a donc bien c1,1 1 lorsque k + . Par consquent, on a
(k)
b1 b1 lorsque k .
3.2 Comme Ck est triangulaire suprieure, on a :
X
(Bk Ck )i,2 = (Bk )i, (Ck ),2 = (Bk )i,1 (Ck )1,1 + (Bk )i,2 (Ck )2,1 ,
=1,n

(k) (k) (k) (k)


et donc la seconde colonne de Bk Ck est bien gale c1,2 lb1 + c2,2 b2 .
On a donc
(k) (k) (k) (k)
c1,2 b1 + c2,2 lb2 b2 lorsque k +. (1.140)
(k) (k) (k) (k)
La matrice Bk est orthogonale, et donc b1 b1 = 1 et b1 b2 = 0. De plus, par la question prcdente,
(k) (k)
b1 b1 lorsque k +, On a donc, en prenant le produit scalaire du membre de gauche de (1.140) avec lb1 ,
 
(k) (k) (k) (k) (k) (k)
c1,2 = c1,2 b1 + c2,2 b2 b1 b2 b1 = 0 lorsque k +.

(k) (k)
Comme c1,2 0 et b1 b1 on obtient par (1.140) que
(k) (k)
c2,2 b2 b2 lorsque k +.
(k) (k)
Le mme raisonnement que celui de la question prcdente nous donne alors que c2,2 1 et b2 b2 lorsque
k +.
3.3 On sait dj par les deux questions prcdentes que ces assertions sont vraies pour i = 1 et 2. Supposons
(k) (k) (k)
quelles sont vrifies jusquau rang i 1, et montrons que ci,j 0 si i 6= j, puis que ci,i 1 et bi bi .
Comme Ck est triangulaire suprieure, on a :

X j1
X
(Bk Ck )i,j = (Bk )i, (Ck ),j = (Bk )i, (Ck ),j + (Bk )i,j (Ck )j,j ,
=1,n =1

Pj1 (k) (k) (k) (k)


et donc la j-me colonne de Bk Ck est gale =1 c,1 b + cj,j bj . On a donc

j1
X (k) (k) (k) (k)
c,1 b + cj,j bj bj lorsque k +. (1.141)
=1

(k) (k)
La matrice Bk est orthogonale, et donc bi bi = i,j . De plus, par hypothse de rcurrence, on sait que
(k)
b b pour tout j 1. En prenant le produit scalaire du membre de gauche de (1.141) avec b(k)
m , pour
m < i, on obtient
j1
!
(k)
X (k) (k) (k) (k)
cm,j = c,1 b + cj,j bj b(k)
m bm bj = 0 lorsque k +.
=1

(k) (k)
On dduit alors de (1.141) que cj,j bj bj lorsque k +, et le mme raisonnement que celui de la question
(k) (k)
4.1 nous donne alors que cj,j 1 et bj bj lorsque k +.

Analyse numrique I, tl-enseignement, L3 120 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


1.6. VALEURS PROPRES ET VECTEURS PROPRES CHAPITRE 1. SYSTMES LINAIRES

ce qui conclut le raisonnement par rcurrence.


3.4 En dduire que Bk tend B et Ck tend vers lidentit lorsque k tend vers linfini.
On a montr aux trois questions prcdentes que la j-ime colonne de Bk tend vers la j-ime colonne de B, et que
(k)
ci,j i,j lorque k tend vers +. On a donc bien le rsultat demand.

4. Daprs la question 3, Q k Tk tend vers P , et daprs la question 4, comme Q


k est orthogonale et Tk triangulaire

suprieure coefficients positifs, on a bien Qk qui tend vers P et Tk qui tend vers Id lorsque k +.

k = Tk k U et donc R
5. On a R k (R
k1 )1 = Tk k U U 1 k+1 Tk1 = Tk Tk1 .
Comme Tk tend vers Id, on a Rk = R k (R
k1 )1 qui tend vers . De plus, Ak = Qk Rk , o Qk = Q
k (Q
k1 )1
tend vers Id et Rk tend vers . Donc Ak tend vers .

Analyse numrique I, tl-enseignement, L3 121 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


Chapitre 2

Systmes non linaires

Dans le premier chapitre, on a tudi quelques mthodes de rsolution de systmes linaires en dimension finie.
Lobjectif est maintenant de dvelopper des mthodes de rsolution de systmes non linaires, toujours en dimen-
sion finie. On se donne g C(IR n , IR n ) et on cherche x dans IR n solution de :

x IR n
(2.1)
g(x) = 0.

Au Chapitre I on a tudi des mthodes de rsolution du systme (2.1) dans le cas particulier g(x) = Ax b,
A Mn (IR), b IR n . On va maintenant tendre le champ dtude au cas o g nest pas forcment affine. On
tudiera deux familles de mthodes pour la rsolution approche du systme (2.1) :
les mthodes de point fixe : point fixe de contraction et point fixe de monotonie
les mthodes de type Newton 1 .

2.1 Les mthodes de point fixe


2.1.1 Point fixe de contraction
Soit g C(IR n , IR n ), on dfinit la fonction f C(IR n , IR n ) par f (x) = x g(x). On peut alors remarquer que
g(x) = 0 si et seulement si f (x) = x. Rsoudre le systme non linaire (2.1) revient donc trouver un point fixe
de f . Encore faut-il quun tel point fixe existe. . . On rappelle le thorme de point fixe bien connu :

Thorme 2.1 (Point fixe). Soit E un espace mtrique complet, d la distance sur E, et f : E E une fonction
strictement contractante, cestdire telle quil existe k ]0, 1[ tel que d(f (x), f (y)) kd(x, y) pour tout x, y
E. Alors il existe un unique point fixe x
E qui vrifie f ( x) = x. De plus si x(0) E, et x(k+1) = f (x(k) ),
(k)
k 0, alors x x quand n + .

D MONSTRATION Etape 1 : Existence de x


et convergence de la suite
Soit x E et (x )nIN la suite dfinie par x(k+1) = f (x(k) ) pour n 0. On va montrer que :
(0) (k)

1. (x(k) )n est de Cauchy (donc convergente car E est complet),


2. lim x(k) = x
est point fixe de f .
n+

1. Isaac Newton (1643 - 1727, n dune famille de fermiers, est un philosophe, mathmaticien, physicien, alchimiste et astronome anglais.
Figure emblmatique des sciences, il est surtout reconnu pour sa thorie de la gravitation universelle et la cration, en concurrence avec Leibniz,
du calcul infinitsimal.

122
2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Par hypothse, on sait que pour tout n 1,


d(x(k+1) , x(k) ) = d(f (x(k) ), f (x(k1) )) kd(x(k) , x(k1) ).
Par rcurrence sur n, on obtient que
d(x(k+1) , x(k) ) kn d(x(1) , x(0) ), n 0.
Soit n 0 et p 1, on a donc :

d(x(n+p) , x(k) ) d(x(n+p) , x(n+p1) ) + + d(x(k+1) , x(k) )


p
X
d(x(n+q) , x(n+q1) )
q=1
p
X
kn+q1 d(x(1) , x(0) )
q=1

d(x(1) , x(0) )kn (1 + k + . . . + kp1 )


kn
d(x(1) , x(0) ) 0 quand n + car k < 1.
1k
La suite (x(k) )nIN est donc de Cauchy, i.e. :
> 0, n IN ; n n , p 1 d(x(n+p) , x(k) ) .
Comme E est complet, on a donc x(k) x dans E quand n +. Comme la fonction f est strictement
contractante, elle est continue, donc on a aussi f (x(k) ) f ( x) dans E quand n + . En passant la limite dans
lgalit x(k+1) = f (x(k) ), on en dduit que x = f (
x).
Etape 2 : Unicit
Soit x
et y des points fixes de f , qui satisfont donc x x) et y = f (
= f ( y ). Alors d(f (
x), f (
y )) = d( x, y) ;
x, y) kd(
comme k < 1, ceci est impossible sauf si x = y.

La mthode du point fixe sappelle aussi mthode des itrations successives. Dans le cadre de ce cours, nous
prendrons E = IR n , et la distance associe la norme euclidienne, que nous noterons | |.
n
! 21
X
(x, y) IR n IR n avec x = (x1 , . . . , xn ), y = (y1 , . . . , yn ), d(x, y) = |x y| = (xi yi )2 .
i=1

A titre dillustration, essayons de la mettre en oeuvre pour trouver les points fixes des fonctions x 7 x2 et x 7 x.

1 y= x
(0)
y=x 2 f (
x )

x(1) )
f (
f (x(0) ) x(2) )
f (

f (x(1) ) f (x(2) )
f (x(1) )
f (x(2) ) f (x(0) )

x(3) x(2) x(1) x(0) 1 x(0) x(1) x(2) x(1) x(0)


y=x
y=x


F IGURE 2.1: Comportement des itrs successifs du point fixe A gauche : x 7 x2 , droite : x 7 x.

Pour la fonction x 7 x2 , on voit sur la figure de gauche que si lon part de x = x(0) < 1, la mthode converge
rapidement vers 0 ; de fait, cette fonction nest strictement contractante que sur lintervalle ] 12 , 21 [. Donc si

Analyse numrique I, tl-enseignement, L3 123 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

x = x(0) ] 12 , 21 [, on est dans les conditions dapplication du thorme du point fixe. Mais en fait, la suite
(x(k) )nIN dfinie par le point fixe converge pour tout x(0) ] 1, 1[ ; ceci est trs facile voir car x(k) = x2 k et
on a donc convergence vers 0 si |x| < 1.
Par contre si lon partait de x(0) > 1 (non reprsent sur la figure), on divergerait rapidement : mais rien de
surprenant cela, puisque la fonction x 7 x nest pas contractante sur [1, +[
2

Dans le cas de la fonction x 7 x, on voit sur


le graphique que les itrs convergent vers 1 que
lon parte droite ou gauche de x = 1 ; on peut
mme dmontrer (exercice) que si x(0) > 0, la suite
(x)nIN converge vers 1lorsque k +. Pour-
tant la fonction x 7 x nest contractante que
pour x > 14 ; mais on natteint jamais le point fixe
0, ce qui est moral, puisque la fonction nest pas
contractante en 0. On se rend compte encore sur cet
exemple que le thorme du point fixe donne une Comportement des itrs successifs du point fixe
1
condition suffisante de convergence, mais que cette pour x 7 x
condition nest pas ncessaire.
Remarquons que lhypothse que f envoie E dans
E est cruciale. Par exemple la fonction f : x 7
1
x est lipschitzienne de rapport k < 1 sur [1 +
, +[ pour tout > 0 mais elle nenvoie pas
[1 + , +[ dans [1 + , +[. La mthode du point
fixe partir du choix initial x 6= 1 donne la suite
x, x1 , x, x1 , . . . , x, x1 qui ne converge pas, voir figure
ci contre.
Remarque 2.2.
1. Sous les hypothses du thorme 2.1, d(x(k+1) , x
) = d(f (x(k) ), f (
x)) kd(x(k) , x); donc si x(k) 6= x

(k+1)
alors d(x ,
d(x(k) ,
x)
x)
k (< 1), voir ce sujet la dfinition 2.11. La convergence est donc au moins linaire
(mme si de fait, cette mthode converge en gnral assez lentement).
2. Le thorme 2.1 se gnralise en remplaant lhypothse f strictement contractante" par il existe n > 0
tel que f (k) = f f . . . f est strictement contractante (reprendre la dmonstration du thorme pour
| {z }
n fois
le vrifier).
La question qui vient alors naturellement est : que faire pour rsoudre g(x) = 0 si la mthode du point fixe
applique la fonction x 7 x g(x) ne converge pas ? Dans ce cas, f nest pas strictement contractante ; une
ide possible est de pondrer la fonction g par un paramtre 6= 0 et dappliquer les itrations de point fixe la
fonction f (x) = x g(x) ; on remarque l encore que x est encore solution du systme (2.1) si et seulement si
x est point fixe de f (x). On aimerait dans ce cas trouver pour que f soit strictement contractante, c..d. pour
que |f (x) f (y)| = |x y (g(x) g(y))| k|x y| pour (x, y) IR n , avec k < 1. Or
 
|x y (g(x) g(y))|2 = x y (g(x) g(y)) x y (g(x) g(y))
= |x y|2 2(x y) ((g(x) g(y))) + 2 |g(x) g(y)|2 .

Supposons que g soit lipschitzienne, et soit M > 0 sa constante de Lipschitz :

|g(x) g(y)| M |x y|, x, y IR n . (2.2)

On a donc

|x y (g(x) g(y))|2 (1 + 2 M 2 )|x y|2 2(x y) ((g(x) g(y)))

Analyse numrique I, tl-enseignement, L3 124 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Or on veut |x y (g(x) g(y))|2 k|x y|2 , avec k < 1. On a donc intrt ce que le terme 2(x y)
((g(x) g(y))) soit de la forme a|x y|2 avec a strictement positif. Pour obtenir ceci, on va supposer de plus
que :
> 0 tel que (g(x) g(y)) (x y) |x y|2 , x, y IR n , (2.3)
On obtient alors :
|x y (g(x) g(y))|2 (1 + 2 M 2 2)|x y|2 .
2
Et donc si ]0, M 2 [, le polynme M
2 2
2 est strictement ngatif : soit (noter que ]0, 1[) et on
obtient que
|x y (g(x) g(y))|2 (1 )|x y|2 .
On peut donc noncer le thorme suivant :

Thorme 2.3 (Point fixe de contraction avec relaxation). On dsigne par | | la norme euclidienne sur IR n . Soit
g C(IR n , IR n ) lipschitzienne de constante de Lipschitz M > 0, et telle que (2.3) est vrifie : alors la fonction
2
f : x 7 x g(x) est strictement contractante si 0 < < . Il existe donc un et un seul x IR n tel que
M2
x) = 0 et x(k) x
g( quand n + avec x(k+1) = f (x(k) ) = x(k) g(x(k) ).

2
Remarque 2.4. Le thorme 2.3 permet de montrer que sous les hypothses (2.3) et (2.2), et pour ]0, M 2 [, on

peut obtenir la solution de (2.1) en construisant la suite :


 (k+1)
x = x(k) g(x(k) ) n 0,
(2.4)
x IR n .
(0)

Or on peut aussi crire cette suite de la manire suivante :


 (k+1)
x
= f (x(k) ), n 0
(2.5)
x(k+1) = x (k+1) + (1 )x(k) , x(0) IR n .

En effet si x(k+1) est donn par la suite (2.5), alors


x(k+1) = x
(k+1) + (1 )x(k) = f (x(k) ) + (1 )x(k) = g(x(k) ) + x(k) .
Le procd de construction de la suite (2.5) est lalgorithme de relaxation sur f .
Remarque 2.5 (Quelques rappels de calcul diffrentiel).
Soit h C 2 (IR n , IR). La fonction h est donc en particulier diffrentiable, c..d. que pour tout x IR n , il existe
Dh(x) L(IR n , IR) telle que
h(x + ) = h(x) + Dh(x)() + ||(), avec () 0 .
0

On a dans ce cas, par dfinition du gradient, Dh(x)() = h(x) o h(x) = (1 h(x), , n h(x))t IR n
est le gradient de h au point x (on dsigne par i h la drive partielle de f par rapport sa i-me variable).
Comme on suppose h C 2 (IR n , IR), on a donc g = h C 1 (IR n , IR n ), et g est continment diffrentiable,
cestdire
Dg(x) L(IR n , IR n ), et g(x + ) = g(x) + Dg(x)() + ||(),
avec () 0.
0
Comme Dg(x) L(IR n , IR n ), on peut reprsenter Dg(x) par une matrice de Mn (IR), on confond alors lappli-
cation linaire et la matrice qui la reprsente dans la base canonique, et on crit par abus de notation Dg(x)
Mn (IR). On peut alors crire, grce cet abus de notation,
X
2 2
Dg(x)() = Dg(x) avec (Dg(x))i = i,j hj (x) o i,j h = i (j h)(x).
i,j=1,n

Analyse numrique I, tl-enseignement, L3 125 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Comme h est de classe C 2 , la matrice Dg(x) est symtrique, et donc diagonalisable dans IR. Pour x IR n , on
note (i (x))1in les valeurs propres de Dg(x), qui sont donc relles.
La proposition suivante donne une condition suffisante pour quune fonction vrifie les hypothses (2.3) et (2.2).
Proposition 2.6. Soit h C 2 (IR n , IR), et (i )i=1,n les valeurs propres de la matrice hessienne de h. On suppose
quil existe des rels strictement positifs et tels que i (x) , i {1 . . . n}, x IR n . (Notons
que cette hypothse est plausible puisque les valeurs propres de la matrice hessienne sont relles). Alors la fonction
g = h (gradient de h) vrifie les hypothses (2.3) et (2.2) du thorme 2.3 avec = et M = .

D MONSTRATION Montrons dabord que lhypothse (2.3) est vrifie. Soit (x, y) (IR n )2 , on veut montrer que
(g(x) g(y)) (x y) |x y|2 . On introduit pour cela la fonction C 1 (IR, IR n ) dfinie par :
(t) = g(x + t(y x)).
R1
On a donc (1) (0) = g(y) g(x) = 0 (t)dt. Or (t) = Dg(x + t(y x))(y x). Donc g(y) g(x) =
R1
0
Dg(x + t(y x))(y x)dt. On en dduit que :
Z 1
(g(y) g(x)) (y x) = (Dg(x + t(y x))(y x) (y x)) dt.
0
Comme i (x) [, ] i {1, . . . , n}, on a
|y|2 Dg(z)y y |y|2 pour tout z IR n
On a donc : Z 1
(g(y) g(x)) (y x) |y x|2 dt = |y x|2
0
ce qui montre que lhypothse (2.3) est bien vrifie.
Montrons maintenant que lhypothse (2.2) est vrifie. On veut montrer que |g(y) g(x)| |y x|. Comme
Z 1
g(y) g(x) = Dg(x + t(y x))(y x)dt,
0
on a Z 1
|g(y) g(x)| |Dg(x + t(y x))(y x)|dt
Z0 1
|Dg(x + t(y x))||y x|dt,
0
o |.| est la norme sur Mn (IR) induite par la norme euclidienne sur IR n .
Or, comme i (x) [, ] pour tout i = 1, . . . , N , la matrice Dg(x + t(y x)) est symtrique dfinie positive
et donc, daprs la proposition 1.29 page 51, son rayon spectral est gal sa norme, pour la norme induite par la norme
euclidienne. On a donc :
|Dg(x + t(y x)| = (Dg(x + t(y x)) .
On a donc ainsi montr que : |g(y) g(x)| |y x|, ce qui termine la dmonstration.

Remarque 2.7 (Un cas particulier). Dans de nombreux cas issus de la discrtisation dquations aux drives
partielles, le problme de rsolution dun problme non linaire apparat sous la forme Ax = R(x) o A est une
matrice carre dordre n inversible, et R C(IR n , IR n ). On peut le rcrire sous la forme x = A1 R(x) et
appliquer lalgorithme de point fixe sur la fonction f : x 7 A1 Rx, ce qui donne comme itration : x(k+1) =
A1 R(x(k) ). Si on pratique un point fixe avec relaxation, dont le paramtre de relaxation > 0, alors litration
scrit :
(k+1) = A1 R(x(k) ),
x x(k+1) = x (k+1) + (1 )x(k) .

2.1.2 Point fixe de monotonie

Thorme 2.8 (Point fixe de monotonie).


Soient A Mn (IR) et R C(IR n , IR n ). On suppose que :

Analyse numrique I, tl-enseignement, L3 126 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

1. la matrice A est une matrice dinverse positive, ou IPmatrice voir exercice 6), c..d. que A est inversible
et tous les coefficients de A1 sont positifs ou nuls, ce qui est quivalent dire que :

Ax 0 x 0,
 
au sens composante par composante, cest--dire (Ax)i 0, i = 1, . . . , n xi 0, i = 1, . . . , n .
2. R est monotone, c..d. que si x y (composante par composante) alors R(x) R(y) (composante par
composante).
IR n ; x
3. 0 est une sous-solution du problme, cest--dire que 0 R(0) et il existe x 0 tel que x
est
une sur-solution du problme, cest--dire que Ax R(x).
On pose x(0) = 0 et Ax(k+1) = R(x(k) ). On a alors :
1. 0 x(k) x
, n IN,
2. x(k+1) x(k) , n IN,
3. x(k) x quand n + et A
x = R(
x).

D MONSTRATION Comme A est inversible la suite (x(k) )nIN vrifiant


 (0)
x = 0,
Ax(k+1) = R(x(k) ), n 0
est bien dfinie. On va montrer par rcurrence sur n que 0 x(k) x
pour tout n 0 et que x(k) x(k+1) pour tout
n 0.
1. Pour n = 0, on a x(0) = 0 et donc 0 x(0) x
et Ax(1) = R(0) 0. On en dduit que x(1) 0 grce aux
hypothses 1 et 3 et donc x(1) x(0) = 0.
2. On suppose maintenant (hypothse de rcurrence) que 0 x(p) x et x(p) x(p+1) pour tout p {0, . . . , n 1}.
(k) (k) (k+1)
On veut montrer que 0 x x et que x x . Par hypothse de rcurrence pour p = n 1, on sait que
x(k) x(k1) et que x(k1) 0. On a donc x(k) 0. Par hypothse de rcurrence, on a galement que x(k1) x
et grce lhypothse 2, on a donc R(x(k1) ) R( x). Par dfinition de la suite (x(k) )nIN , on a Ax(k) = R(x(k1) )
et grce lhypothse 3, on sait que Ax R( x). On a donc : A( x x(k) ) R( x) R(x(k1) ) 0. On en dduit
(k)
alors (grce lhypothse 1) que x x .
De plus, comme Ax(k) = R(x(k1) ) et Ax(k+1) = R(x(k) ), on a A(x(k+1) x(k) ) = R(x(k) ) R(x(k1) ) 0
par lhypothse 2, et donc grce lhypothse 1, x(k+1) x(k) .
On a donc ainsi montr (par rcurrence) que
0 x(k) x
, n 0
x(k) x(k+1) , n 0.
(k) (k)
Ces ingalits sentendent composante par composante, c..d. que si x(k) = (x1 . . . xn )t IR n et x
= ( n )t
x1 . . . x
n (k) (k) (k+1)
IR , alors 0 xi x i et xi xi , i {1, . . . , n}, et n 0.

(k)
Soit i {1, . . . , n} ; la suite (xi )nIN IR est croissante et majore par x i donc il existe x
i IR tel que x
i =
(k)
lim xi . Si on pose x = ( n )t IR n , on a donc x(k) x
x1 . . . x quand n +.
n+

Enfin, comme Ax(k+1) = R(x(k) ) et comme R est continue, on obtient par passage la limite lorsque n + que
x = R(
A x) et que 0 x .
x

Lhypothse 1 du thorme 2.8 est vrifie par exemple par les matrices A quon a obtenues par discrtisation par
diffrences finies des oprateurs u sur lintervalle ]0, 1[ (voir page 11 et lexercice 43) et u sur ]0, 1[]0, 1[
(voir page 14).

Analyse numrique I, tl-enseignement, L3 127 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Thorme 2.9 (Gnralisation du prcdent).


Soit A Mn (IR), R C 1 (IR n , IR n ), R = (R1 , . . . , Rn )t tels que
1. Pour tout 0 et pour tout x IR n , Ax + x 0 x 0
Ri
2. 0, i, j t.q. i 6= j (Ri est monotone croissante par rapport la variable xj si j 6= i) et > 0,
xj
Ri
0, x IR n , i {1, . . . , n} (Ri est monotone dcroissante par rapport la variable xi ).
xi
3. 0 R(0) (0 est sous-solution) et x 0 tel que A( x) (
x) R( x est sur-solution).
Soient x(0) = 0, , et (x(k) )nIN la suite dfinie par Ax(k+1) + x(k+1) = R(x(k) ) + x(k) . Cette suite
IR n et A
converge vers x x = R(x). De plus, 0 x(k) x n IN et x(k) x(k+1) , n IN.

D MONSTRATION On se ramne au thorme prcdent avec A + Id au lieu de A et R + au lieu de R.

Remarque 2.10 (Point fixe de Brouwer). On sest intress ici uniquement des thormes de point fixe construc-
tifs", i.e. qui donnent un algorithme pour le dterminer. Il existe aussi un thorme de point fixe dans IR n avec des
hypothses beaucoup plus gnrales (mais le thorme est non constructif), cest le thorme de Brouwer 2 : si f
est une fonction continue de la boule unit de IR n dans la boule unit, alors elle admet un point fixe dans la boule
unit.

2.1.3 Vitesse de convergence

Dfinition 2.11 (Vitesse de convergence). Soit (x(k) )nIN IR n et x


IR n . On suppose que x(k) x
lorsque
(k)
n +, que la suite est non stationnaire, c..d. que x 6= x pour tout n IN, et que
kx(k+1) x
k
lim = [0, 1]. (2.6)
n+ kx(k) x
k
On sintresse la vitesse de convergence" de la suite (x(k) )nIN . On dit que :
1. La convergence est souslinaire si = 1.
2. La convergence est au moins linaire si [0, 1[.
3. La convergence est linaire si ]0, 1[.
4. La convergence est super linaire si = 0. Dans ce cas, on dit galement que :
(a) La convergence est au moins quadratique sil existe IR + et il existe n0 IN tels que si n n0
alors kx(k+1) xk kx(k) x k2 .
(b) La convergence est quadratique si
kx(k+1) x
k
lim = > 0.
n+ kx(k) x
k2
Plus gnralement, on dit que :
(a) La convergence est au moins dordre k sil existe IR + et il existe n0 IN tels que si n n0
alors kx(k+1) xk kx(k) xkk .
(b) La convergence est dordre k si
kx(k+1) x
k
lim = > 0.
n+ kx(k) x
kk

2. Luitzen Egbertus Jan Brouwer (1881-1966), mathmaticien nerlandais.

Analyse numrique I, tl-enseignement, L3 128 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Remarque 2.12 (Sur la vitesse de convergence des suites).


Remarquons dabord que si une suite (x(k) )nIN IR n converge vers x IR n lorsque n tend vers linfini,
alors on a forcment 1 dans (2.6). En effet, si la suite vrifie (2.6) avec > 1, alors il existe n0 IN
tel que si n n0 , |xn x | |xn0 x | pour tout n n0 , ce qui contredit la convergence.
Quelques exemples de suites sui convergent sous-linairement : xn = 1n , xn = n1 , mais aussi, de manire
moins intuitive : xn = n12 . . . . Toutes ces suites vrifient lgalit (2.6) avec = 1.
Attention donc, contrairement ce que pourrait suggrer son nom, la convergence linaire (au sens donn
ci-dessus), est dj une convergence trs rapide. Les suites gomtriques dfinies par xn = n avec
]0, 1[ sont des suites qui convergent linairement (vers 0), car elles verifient videmment bien (2.6)
avec ]0, 1[.
la convergence quadratique est encore plus rapide ! Par exemple la suite dfinie par xn+1 = x2n converge de
manire quadratique pour un choix initial x0 ]1, 1[. Mais si par malheur le choix initial est en dehors de
cet intervalle, la suite diverge alors trs vite... de manire exponentielle, en fait, puisque xn = exp(n ln x0 ).
Cest le cas de la mthode de Newton, que nous allons introduire maintenant. Lorsquelle converge, elle
converge trs vite (nous dmontrerons que la vitesse de convergence est quadratique). Mais lorsquelle
diverge, elle diverge aussi trs vite...
Pour construire des mthodes itratives qui convergent super vite", nous allons donc essayer dobtenir des vitesses
de convergence super linaires. Cest dans cet esprit que nous tudions dans la proposition suivante des conditions
suffisantes de convergence de vitesse quadratique pour une mthode de type point fixe, dans le cas dune fonction
f de IR dans IR.
Proposition 2.13 (Vitesse de convergence dune mthode de point fixe). Soit f C 1 (IR, IR) ; on suppose quil
existe x
IR tel que f ( . On construit la suite
x) = x

x(0) IR
x(k+1) = f (x(k) ).

1. Si on suppose que f (
x) 6= 0 et |f (
x)| < 1, alors il existe > 0 tel que si x(0) I = [
x , x + ] on
(k)
ax x lorsque n +. De plus si x(k) 6= x pour tout n IN, alors

|x(k+1) x
|
(k)
|f (
x)| = avec ]0, 1[.
|x x |

La convergence est donc linaire.


2. Si on suppose maintenant que f (
x) = 0 et f C 2 (IR, IR), alors il existe > 0 tel que si x(0) I =
(k)
x , x + ], alors x x
[ quand n + , et si x(k) 6= x, n IN alors

|x(k+1) x
| 1
(k) 2
= |f (
x)|.
|x x | 2

Dans ce cas, la convergence est donc au moins quadratique.

D MONSTRATION
1. Supposons que |f ( x)| < 1, et montrons quil existe > 0 tel que si x(0) I alors x(k) x . Comme f
1
C (IR, IR) il existe > 0 tel que = maxxI |f (x)| < 1 ( par continuit de f ).
On va maintenant montrer que f : I I est strictement contractante, on pourra alors appliquer le thorme du
point fixe f|I , (I tant ferm), pour obtenir que x(k) x o x
est lunique point fixe de f|I .
Soit x I ; montrons dabord que f (x) I : comme f C 1 (IR, IR), il existe ]x, x [ tel que |f (x) x
| =
x)| = |f ()||x x
|f (x) f ( | |x x| < , ce qui prouve que f (x) I .
On vrifie alors que f|I est strictement contractante en remarquant que pour tous x, y I , x < y, il existe
]x, y[( I ) tel que |f (x) f (y)| = |f ()||x y| |x y| avec < 1.

Analyse numrique I, tl-enseignement, L3 129 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

On a ainsi montr que x(k) x


si x(0) I .

Cherchons maintenant la vitesse de convergence de la suite. Supposons que f ( x) 6= 0 et x(k) 6= x


pour tout n IN.
(k+1) (k) (k+1) (k)
Commex = f (x ) et x = f (x), on a |x x | = |f (x ) f ( x)|. Comme f C 1 (IR, IR), il existe
n ]x(k) , x x, x(k) [, tel que f (x(k) ) f (
[ ou ] x) = f (n )(x(k) x
). On a donc
|x(k+1) x|
= |f (n )| |f (
x)| car x(k) x
et f est continue.
|x(k) x|
On a donc une convergence linaire.

2. Supposons maintenant que f C 2 (IR, IR) et f ( x) = 0. On sait dj par ce qui prcde quil existe > 0 tel que
si x(0) I alors x(k) x lorsque n +. On veut estimer la vitesse de convergence ; on suppose pour cela que
x(k) 6= x
pour tout n IN. Comme f C 2 (IR, IR), il existe n ]x(k) , x [ tel que
(k) (k) 1
f (x ) f ( x) = f (x)(x x ) + f (n )(x(k) x )2 .
2
On a donc : x(k+1) x = 21 f (n )(x(k) x
)2 ce qui entrane, par continuit de f , que
|x(k+1) x | 1 1
= |f (n )| |f (
x)| quand n +.
|x(k) x|2 2 2
La convergence est donc quadratique.

2.1.4 Mthode de Newton dans IR


On va tudier dans le paragraphe suivant la mthode de Newton pour la rsolution dun systme non linaire. (En
fait, il semble que lide de cette mthode revienne plutt Simpson 3 Donnons lide de la mthode de Newton
dans le cas n = 1 partir des rsultats de la proposition prcdente. Soit g C 3 (IR, IR) et x IR tel que
x) = 0. On cherche une mthode de construction dune suite (x(k) )n IR n qui converge vers x
g( de manire
quadratique. On pose

f (x) = x + h(x)g(x) avec h C 2 (IR, IR) tel que h(x) 6= 0 x IR, .

et on a donc
f (x) = x g(x) = 0.
Si par miracle f (
x) = 0, la mthode de point fixe sur f va donner (pour x(0) I donn par la proposition 2.13)

(x )nIN tel que x(k) x


(k)
de manire au moins quadratique. Or on a f (x) = 1 + h (x)g(x) + g (x)h(x) et
1
donc f (
x) = 1 + g ( x). Il suffit donc de prendre h tel que h (
x)h( x) = . Ceci est possible si g (
x) 6= 0.
g (x)
En rsum, si g C 3 (IR, IR) est telle que g (x) 6= 0 x IR et g(
x) = 0, on peut construire, pour x assez proche
, la fonction f C 2 (IR, IR) dfinie par
de x

g(x)
f (x) = x .
g (x)

Grce la proposition 2.13, il existe > 0 tel que si x(0) I alors la suite dfinie par x(k+1) = f (x(k) ) =
g(x(k) )
x(k) g (x(k) )
converge vers x
de manire au moins quadratique.

3. Voir Nick Kollerstrom (1992). Thomas Simpson and Newtons method of approximation : an enduring myth, The British Journal for
the History of Science, 25, pp 347-354 doi :10.1017/S0007087400029150 Thomas Simpson est un mathmaticien anglais du 18-me sicle
qui on attribue gnralement la mthode du mme nom pour le calcul approch des intgrales, probablement tort car celle-ci apparat dj
dans les travaux de Kepler deux sicles plus tt !

Analyse numrique I, tl-enseignement, L3 130 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Remarquons que dans le cas n = 1, la suite de Newton peut sobtenir naturellement en remplaant lquation
g(x) = 0 par g(x(k+1) ) = 0, et g(x(k+1) ) par le dveloppement limit en xk :

g(x(k+1) ) = g(x(k) )g (x(k) )(x(k+1) x(k) ) + |x(k+1) x(k) |(x(k+1) x(k) ).

Cest le plus sr moyen mnmotechnique pour retrouver litration de Newton :

g(x(k) ) + g (x(k) )(x(k+1) x(k) ) = 0 ou encore g (x(k) )(x(k+1) x(k) ) = g(x(k) ). (2.7)

Comparons sur un exemple les mthodes de point fixe et de Newton. On cherche le zro de la fonction g : x 7 x2
3 sur IR + . Notons
en passant que la construction de la suite x(k) par point fixe ou Newton permet lapproximation
effective de 3. Si on applique le point fixe standard, la suite x(k) scrit

x(0) donn ,
x(k+1) = x(k) (x(k) )2 + 3.

Si on applique le point fixe avec paramtre de relaxation , la suite x(k) scrit

x(0) donn ,
x(k+1) = x(k) + (x(k) )2 + 3)

Si maintenant on applique la mthode de Newton, la suite x(k) scrit

x(0) donn ,
(x(k) )2 3
x(k+1) = b
2x(k)
Comparons les suites produites par scilab partir de x(0) = 1 par le point fixe standard, le point fixe avec relaxation
( = .1) et la mthode de Newton.
point fixe standard :
1 3 - 3 - 9 - 87 - 7653 - 58576059 - 3.431D+15 - 1.177D+31
point fixe avec relaxation :
1. 1.2 1.356 1.4721264 1.5554108 1.6134805 1.6531486 1.6798586 1.6976661 1.7094591
1.717234 1.7223448 1.7256976 1.7278944 1.7293325 1.7302734 1.7308888 1.7312912
1.7315543 1.7317263 1.7318387 1.7319122 1.7319602 1.7319916 1.7320121 1.73204
1.7320437 1.7320462 1.7320478 1.7320488 1.7320495 1.73205 1.7320503 1.7320504
1.7320506 1.7320507 1.7320507 1.7320507 1.7320508
Newton :
1. 2. 1.75 1.7321429 1.7320508 1.7320508
Remarque 2.14 (Attention lutilisation du thorme des accroissements finis. . . ). On a fait grand usage du
thorme des accroissements finis dans ce qui prcde. Rappelons que sous la forme quon a utilise, ce thorme
nest valide que pour les fonctions de IR dans IR. On pourra sen convaincre en considrant la fonction de IR dans
IR 2 dfinie par :  
sin x
(x) = .
cos x
On peut vrifier facilement quil nexiste pas de IR tel que (2) (0) = 2 ().

2.1.5 Exercices
Enoncs
Exercice 64 (Calcul diffrentiel). Suggestions en page 133, corrig dtaill en page 134

Analyse numrique I, tl-enseignement, L3 131 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Soit f C 2 (IR n , IR).


1. Montrer que pour tout x IR n , il existe un unique vecteur a(x) IR n tel que Df (x)(h) = a(x) h pour tout
h IR n .
Montrer que (a(x))i = i f (x).
2. On pose f (x) = (1 f (x), . . . , 1 f (x))t . Soit lapplication dfinie de IR n dans IR n par (x) = f (x).
Montrer que C 1 (IR n , IR n ) et que D(x)(y) = A(x)y, o A(x))i,j = i,j 2
f (x).

Exercice 65 (Calcul diffrentiel, suite).


1. Soit f C 2 (IR 2 , IR) la fonction dfinie par f (x1 , x2 ) = ax1 + bx2 + cx1 x2 , o a, b, et c sont trois rels fixs.
Donner la dfinition et lexpression de Df (x), f (x),Df , D2 f (x), Hf (x).
2. Mme question pour la fonction f C 2 (IR 3 , IR) dfinie par f (x1 , x2 , x3 ) = x21 + x21 x2 + x2 sin(x3 ).
Exercice 66 (Point fixe).
Soit I = [0, 1], et f : x 7 x4 . Montrer que la suite des itrs de point fixe converge pour tout x [0, 1] et donner
la limite de la suite en fonction du choix initial x(0) .
Exercice 67 (Point fixe). corrig dtaill en page ??.
1. On veut rsoudre lquation 2xex = 1.
(a) Vrifier que cette quation peut scrire sous forme de point fixe : x = 12 ex .
(b) Ecrire lalgorithme de point fixe, et calculer les itrs x0 , x1 , x2 et x3 en partant depuis x0 = 1.
(c) Justifier la convergence de la mthode.
2. On veut rsoudre lquation x2 2 = 0.
(a) Vrifier que cette quation peut scrire sous forme de point fixe : x = x2 .
(b) Ecrire lalgorithme de point fixe, et tracer sur un graphique les itrs x0 , x1 , x2 et x3 en partant de
x0 = 1 et x0 = 2.
x2 +2
(c) Essayer ensuite le point fixe sur x = 2x . Pas trs facile deviner, nest ce pas ?
(d) Pour suivre les traces de Newton (ou plutt Simpson, semble-t-il) : xn connu, crire le dveloppement
limit de g(x) = x2 2 entre x(n) et x(n+1) , remplacer lquation g(x) = 0 par g(x(n+1) ) = 0, et
g(x(n+1) ) par le dveloppement limit en xn+1 , et en dduire lapproximation x(n+1) = x(n)
g(x(n) )
g (x(n) )
. Retrouver ainsi litration de la question prcdente (pour g(x) = x2 2).

Exercice 68 (Mthode de monotonie). Suggestions en page 133, corrig dtaill en page ??.
On suppose que f C 1 (IR, IR), f (0) = 0 et que f est croissante. On sintresse, pour > 0, au systme non
linaire suivant de n quations n inconnues (notes u1 , . . . , un ) :

(Au)i = i f (ui ) + bi i {1, . . . , n},


(2.8)
u = (u1 , . . . , un )t IR n ,
o i > 0 pour tout i {1, . . . , n}, bi 0 pour tout i {1, . . . , n} et A Mn (IR) est une matrice vrifiant

u IR n , Au 0 u 0. (2.9)

On suppose quil existe > 0 t.q. (2.8) ait une solution, note u() , pour = . On suppose aussi que u() 0.
Soit 0 < < . On dfinit la suite (v (k) )nIN IR n par v (0) = 0 et, pour n 0,
(k)
(Av (k+1) )i = i f (vi ) + bi i {1, . . . , n}. (2.10)
n
Montrer que la suite (v (k) )nIN est bien dfinie, convergente (dans IR ) et que sa limite, note u() , est solution
de (2.8) (et vrifie 0 u() u() ).

Analyse numrique I, tl-enseignement, L3 132 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Exercice 69 (Point fixe amlior). Suggestions en page 133, Corrig en page ??


Soit g C 3 (IR, IR) et x IR tels que g(x) = 0 et g (x) 6= 0.
On se donne C 1 (IR, IR) telle que (x) = x.
On considre lalgorithme suivant :
x0 IR,
(2.11)

xn+1 = h(xn ), n 0.
g(x)
avec h(x) = x
g ((x))
1) Montrer quil existe > 0 tel que si x0 [x , x + ] = I , alors la suite donne par lalgorithme (2.11) est
bien dfinie ; montrer que xn x lorsque n +.

On prend maintenant x0 I o est donn par la question 1.

2) Montrer que la convergence de la suite (xn )nIN dfinie par lalgorithme (2.11) est au moins quadratique.
1
3) On suppose que est lipschitzienne et que (x) = . Montrer que la convergence de la suite (xk )kIN dfinie
2
par (2.11) est au moins cubique, cest--dire quil existe c IR + tel que

|xk+1 x| c|xk x|3 , k 1.

4) Soit IR + tel que g (x) 6= 0 x I =]x , x + [ ; montrer que si on prend telle que :
g(x)
(x) = x si x I ,
2g (x)
alors la suite dfinie par lalgorithme (2.11) converge de manire cubique.

Suggestions
Exercice 64 page 131 (Calcul diffrentiel) 1. Utiliser le fait que Df (x) est une application linaire et le tho-
rme de Riesz. Appliquer ensuite la diffrentielle un vecteur h bien choisi.
2. Mmes ides...

Exercice 68 page 132 (Mthode de monotonie) Pour montrer que la suite (v (k) )nIN est bien dfinie, remarquer
que la matrice A est inversible. Pour montrer quelle est convergente, montrer que les hypothses du thorme du
point fixe de monotonie vu en cours sont vrifies.

Exercice 69 page 133 (Point fixe amlior)


1) Montrer quon peut choisir de manire ce que |h (x)| < 1 si x I , et en dduire que g ((xn ) 6= 0 si x0
est bien choisi.
2) Remarquer que
g(xk ) g(x)
|xk+1 x| = (xk x)(1 . (2.12)
(xk x)g ((xk ))
En dduire que
1
|xn+1 x| |xn x|2 sup | (x)| sup |g (x)|.
xI xI

3) Reprendre le mme raisonnement avec des dveloppements dordre suprieur.

4) Montrer que vrifie les hypothses de la question 3).

Analyse numrique I, tl-enseignement, L3 133 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

Corrigs
n n
Exercice 64 page 131 1. Par Pndfinition, T = Df (x) est une application linaire de IR dans IR , qui scrit
donc sous la forme : T (h) = i=1 ai hi = a h. Or lapplication T dpend de x, donc le vecteur a aussi.
(i)
Montrons maintenant que (a(x))i = i f (x), pour 1 i n Soit h(i) IR n dfini par hj = hi,j , o h > 0
et i,j dsigne le symbole de Kronecker, i.e. i,j = 1 si i = j et i,j = 0 sinon. En appliquant la dfinition de la
diffrentielle avec h(i) , on obtient :

f (x + h(i) ) f (x) = Df (x)(h(i)) + kh(i) k(h(i) ),

cestdire :

f (x1 , . . . , xi1 , xi + h, xi1 , . . . , xn ) f (x1 , . . . , xn ) = (a(x))i h + h(h(i) ).

En divisant par h et en faisant tendre h vers 0, on obtient alors que (a(x))i = i f (x).
2. Comme f C 2 (IR n , IR), on a (i f (x) C 1 (IR n , IR), et donc C 1 (IR n , IR n ). Comme D(x) est une
application linaire de IR n dans IR n , il existe une matrice A(x) carre dordre n telle que D(x)(y) = A(x)y
pour tout y IR n . Il reste montrer que (A(x))i,j = i,j2
f (x). Soit h(i) IR n dfini la question prcedente,
pour i, j = 1, . . . , n, on a
n
X
(D(x)(h(j) ))i = (A(x)h(j) )i = ai,k (x)h(j) )k = hai,j (x).
k=1

Or par dfinition de la diffrentielle,

i (x + h(j) ) i (x) = (D(x)(h(j) ))i + kh(j) ki (h(j) ),

ce qui entrane, en divisant par h et en faisant tendre h vers 0 : j i (x) = ai,j (x). Or i (x) = i f (x), et donc
2
(A(x))i,j = ai,j (x) = i,j f (x).

Corrig de lexercice 64 (Point fixe et Newton)


1. Rsolution de lquation 2xex = 1.
(a) Comme ex ne sannule pas, lquation 2xex = 1 est quivalente lquation x = 12 ex , qui est sous
forme point fixe x = f (x) avec f (x) = 12 ex .
(b) Lalgorithme de point fixe scrit

x(0) donn (2.13a)


(k+1 (k
x = f (x ). (2.13b)

Scilab donne :
1 x = 1.
2 x = 0.1839397
3 x = 0.4159930
4 x = 0.3298425

Notons que la suite nest pas monotone.


(c) On a f (x) = 21 ex et donc f (x) 21 . Lapplication x 7 f (x) = 12 ex est contractante de
[0, 1] dans [0, 1], et elle admet donc un point fixe, qui est limite de la suite construite par lalgorithme
prcdent.
2. Rsolution de lquation x2 2 = 0.
(a) On se place sur lintervalle ]0, 4[, de manire ce que x ne sannule pas, auquel cas lquation x2 2 =
0 est manifestement quivalente lquation x = x2 , qui est sous forme point fixe x = f (x) avec
f (x) = x2 .

Analyse numrique I, tl-enseignement, L3 134 Universit dAix-Marseille, R. Herbin, 8 octobre 2014


2.1. LES MTHODES DE POINT FIXE CHAPITRE 2. SYSTMES NON LINAIRES

(b) Lalgorithme de point fixe scrit toujours (2.13), mais si on part de x0 = 1 ou x0 = 2, on obtient une
suite cyclique (1, 2, 1, 2,1, 2. . . ) ou (2, 1, 2, 1, 2,1, 2. . . ) qui ne converge pas.
(c) Scilab donne
% x = 1.
% x = 1.5
% x = 1.4166667
% x = 1.4142157
(d) Le dveloppement limit de g(x) = x2 2 entre x(n) et x(n+1) scrit :

g(x(n+1) ) = g(x(n) ) + (x(n+1) x(n) )g (x(n) ) + (x(n+1) x(n) )(x(n+1) x(n) ),

avec (x) 0 lorsque x 0. En crivant quon cherche x(n+1) tel que g(x(n+1) ) = 0 et en ngligeant
le terme de reste du dveloppement limit, on obtient :

0 = g(x(n) ) + (x(n+1) x(n) )g (x(n) ),

Pour g(x) = x2 2, on a g (x) = 2x et donc lquation prcdente donne bien litration de la question
prcdente.

Analyse numrique I, tl-enseignement, L3 135 Universit dAix-Marseille, R. Herbin, 8 octobre 2014

Vous aimerez peut-être aussi