Vous êtes sur la page 1sur 320

Analyse I

numer1que
Algorithme
et tude mathmatique

2e dition +Cours
+ exercices corrigs
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u

www.bibliomath.com
Francis Filbet

Analyse
, .
numer1que
Algorithme
et tude mathmatique

"Cl
0
c
::::i
0
(V)

2e dition
.-1
0
N
@
.
..c
Ol
;::
>-
a.
0
u

DU NOD

www.bibliomath.com
Tout le catalogue sur
www.dunod.com

DITEUR DE SAVOIRS

Illustration de couverture : vege - Fotolia.com

Le pictogramme qui figure ci-contre d'enseignement suprieur, provoquant une


mrite une explication. Son objet est baisse bru!ale des achats de livres el de
d'alerter le lecteur sur la menace que revues, au point que la possibilit mme pour

particulirement dans le domaine


de l'dition technique et universi-
taire, le dveloppement massif du
photocopillage.

reprsente pour l'avenir de l'crit, , - - - - - - - . les auteurs de crer des uvres
DANGER nouvelles et de les faire diter cor-
rectementestaujourd'hui menace.
Nous rappelons donc que toute
reproduction, portielle ou totale,
Le Code de la proprit intellec- de la prsente publication est
tuelle du 1er juillet 1992 interdit LE PHOTOCO~lLAGE interdite sans autorisation de
en effet expressment la photoco- TUE LE LIVRE l'auteur, de son diteur ou du
pie usage collectif sans autori- Centre franais d'exploitation du
sation des ayants droit. Or, cette pratique droit de copie (CFC, 20, rue des
s'est gnralise dans les tablissements Grands-Augustins, 75006 Paris).

"Cl
0
c
::::i
0
(V)
Dunod, Paris, 2009, 2013
.-1
0 ISBN 978-2-10-060054-0
N
@
.
..c
Ol
;::
>-
a. Le Code de la proprit intellectuelle n'autorisant, aux termes de l'article
0 L. 122-5, 2 et 3 a), d'une part, que les copies ou reproductions strictement
u rserves l'usage priv du copiste et non destines une utilisation collective
el, d'autre pari, que les analyses et les courtes citations dans un but d'exemple et
d'illustration, toute reprsentation ou reproduction intgrale ou partielle faite
sans le consentement de l'auteur ou de ses ayants droit ou ayants cause est
illicite (art. L. 122-4).
Cette reprsentation ou reproduction, par quelque procd que ce soit, constitue-
rait donc une contrefaon sanctionne par les articles L. 335-2 et suivants du
Code de la proprit intellectuelle.

www.bibliomath.com
TABLE DES MATI RES

Avant-propos ix

Chapitre 1. Les systmes linaires

1. 1 Exemple d'un systme linaire

1.2 Rappels sur les matrices 2


l .2. l Cas des matrices carres 3
l .2.2 Quelques matrices particulires 6
l .2.3 Cond itionnement de matrices 8

1.3 Mthodes directes S


l .3. l Mthodolog ie gnrale l5
l .3.2 Mthode de Gauss avec et sans pivot S
l .3.3 Factorisation de Cholesky 26
l .3.4 Factorisation Q R 30

1.4 Mthodes itratives 34


l .4. l Mthodologie gnrale 35
l .4.2 Mthode de Jacob i 39
l .4.3 Mthode de Gauss-Se idel 42

.~ Exercices 44
"O ~
0 'O
c c::
::J ::::1
0 _. Chapitre 2. Calcul numrique de valeurs propres 57
('\'")
"'
Q)
Q)
T"-f ~
0 .;a 2.1 Quelques exemples de problmes aux valeurs propres 57
N .....
_.
0
@ ::::1 2. 1. l Algorithme de Google 57
~
..c
Ol
"'c::
0 2. 1.2 Mouvement de ressorts 59
::::
c::
Q)
>-
a.
0
s..
0 2.2 Localisation des valeu rs propres 6
u (.)

B
0
2.2. l Approximat ion des valeurs propres 6
..c::
p..
2.2.2 Ce qu'i l ne faut pas faire! 63
"'
~
1
'O
0
2.3 Mthode de la puissance 64
c::
::::1 2.3.1 La mthode 64
0
@ 2.3.2 Un rsu ltat de convergence 65

www.bibliomath.com
Table des matires

2.4 Mthode de Jacobi 68


2.4 . 1 Cas de la dimen sion deux 68
2.4.2 Cas gnral 69

2.5 La mthode QR pour le ca lcu l des va leurs propres 72

Exercices 74

Chapitre 3. Les systmes non linaires 85

3.1 Introduction aux problmes non linaires 85


3.1 .1 Modle de coagulation et fragmentation 85
3. 1.2 Rsultats gnraux et dfin itions 87
3.2 Mthode de point fixe 88
3.2.1 Mthode de Hron 88
3.2.2 Mthode gnrale 89

3.3 Ve rs la mthode de Newton-Raphson 93


3.3.1 Mthode de dichot omie 93
3.3.2 Mthode de la scante 94
3.3.3 Mthode de Newton-Raphson 95
3.3.4 Combinai son de mthodes 98

3 .4 Mthode de Newton-Raphson dans ffi." 99


3.4. 1 Quelq ues rappels de calcu l diffrentiel 99
3.4.2 Mthode de Newton-Raphson 10 3

Exercices 109

Chapitre 4. Optimisation
'O
0
4.1 Introduction 1 19
c
::J
0 4.2 Optimisation sans contrainte l 21
('\"')
,..-! 4.2. 1 Rappe ls sur les fonctions convexes 12 l
0
N
4 .2.2 Rsultat d'existence et un icit 123
@
~ 4 .2.3 Mthodes d' optimisation sans contrainte 127
..c
Ol 4.2.4 Cas d'une fonctionnelle quadratique : la mthode du gradient
::::
>-
a. conjugu
0
u
4.3 Optimisation sous co ntraintes 135
4 .3. 1 Exi stence et unicit du problme sous contraintes 136
4.3.2 Conditions d'optimalit 1 37
4.3.3 Mthodes d'opt imisation sous contraintes 14 3

Exercices 146

vi

www.bibliomath.com
Table des matires

Chapitre S. Les polynmes 153

5.1 Introduction 153


5. 1. l Un exemple en analyse 153
5. 1.2 Rappels sur les polynmes 154

5.2 Interpo lation de Lagrange et de Hermite 156


5.2. l Construct ion et convergence de l'interpolation de Lagrange 156
5.2.2 Interpolation compose TI
5.2.3 Applications : formu les de quadrature pour l'approximation
d'intgrales
5.2.4 Interpolation de Hermite

5.3 Mthode des moindres carrs 167


5.3. l Rappel du thorme d'approximation 168
5.3.2 Rsolution du problme des moindres carrs discret s 170

5 .4 Polynmes orthogonaux 172


5.4. l Construction de polynmes orthogonaux 172
5.4.2 Mthode des moindres carrs contin ue 176
5.4.3 Application : formu les de quadrature pour l'approximation
d'intgrales 178
5.4.4 Transforme de Fourier rapide 182

Exercices 190

Chapitre 6. Les quations diffrentielles 203

6.1 Introduction et rappels thoriques 203


.~
"O ~
6 . 1. l Le pont de Tacoma aux tats-Un is 203
0 'O
c
::J
c::
::::1
6 . 1.2 Rappels thoriques 205
_.
0
"'
Q)
('\'")
T"-f
Q)
~
6.2 Schmas un pas explicites 210
0 .;a
N ..... 6 .2. l Les schmas de Runge-Kutta 21 l
_.
0
@ ::::1
6 .2.2 Convergence du schma d'Euler expl icite 215
~
..c
Ol
"'c::
0
::::
c::
Q)
6 .2.3 Consistance et stabi lit des schmas un pas 217
>-
a.
0
s..
0
u (.)
6.3 Les quations diffrentielles raides 223
B
0
..c::
p.. 6 .3. l Convergence du schma d'Eu ler implicite 227
"'
~
1
6 .3.2 Stabi lit des schmas implicites 227
'O
0
c::
::::1
6.4 Les syst m es hamiltonien s 230
0
@ Exercices 239

vii

www.bibliomath.com
Table des matires

Chapitre 7. Approximation numrique des quations drives


partielles 249

7.1 Modlisation de la rpartition de chaleur 249

7.2 La mthode aux diffrences finies 252


7.2. l Approximat ion de la drive 252
7.2.2 L'quation de Poisson 254
7.2.3 tude de l'erreur 256
7.2.4 Cond itions aux limites mixtes 260
7.2.5 Problmes plus gnraux 262
7.2.6 Cas multidimensionnel 264

7.3 La mthode des lments finis 265


7.3. l Formulation variationnelle 265
7.3.2 Mthodologie gnrale 267
7.3.3 Cas un i-dimensionne l 269

7.4 Les quations d'volution 272


7.4 . l L'quation de la chaleur 275
7.4 .2 L'quation des ondes 283

7.5 La mthode des volumes finis pour les quations de transport 288
7.5. l L'quation de transport 288
7.5.2 Les volumes finis 297

Bibliographie 307

Index

"O
0
c
::J
0
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
0
u

viii

www.bibliomath.com
AVANT-PROPOS

L'objet de cet ouvrage est de fournir au lecteur une prsentation et une analyse
des mthodes numriques les plus couramment utilises pour la rsolution de pro-
blmes de mathmatiques appliques. Chaque chapitre fait l'objet d'une introduction
et d' exemples puiss dans des applications divers domaines des mathmatiques. Il
s'agit ici d' illustrer l' utilisation d'outils mathmatiques pour des problmes actuels
(modles conomiques, physiques, algorithme de Google, etc).

Cet ouvrage s' adresse tout particulirement aux tudiants de Licence 3, Master
ou prparation l'agrgation ainsi qu'aux lves des coles d' Ingnieurs intresss
par des problmes issus de la physique, de la biologie ou encore de l'conomie, et
qui souhaitent avoir une ide des mthodes de bases utilises aujourd' hui et tre en
mesure de les mettre en uvre sur ordinateur.

Nous avons volontiers gliss plusieurs rappels thoriques qui devraient aider le
lecteur mieux apprhender les difficults mathmatiques de certaines dmonstra-
tions. Notons toutefois que certains rsultats sont prsents dans un cadre simplifi
de manire ne pas noyer le lecteur dans des difficults techniques.

L' ensemble des sujets abords ici dj largement t trait dans la littrature et
ce cours doit beaucoup d' autres ouvrages et cours dispenss en France, comme les
cours d'analyse numrique de Jean-Marie Thomas, Michel Pierre et Abderrahmane
Bendali.

"O
.~
~
Lors de la rdaction de cet ouvrage, de nombreux collgues et tudiants ont bien
'O
0
c c:: voulu me faire part de leurs avis, commentaires, suggestions. ce propos, je tiens
::J ::::1
_.
0
"'
Q)
tout particulirement exprimer ma reconnaissance Jean-Pierre Bourgade, Nicolas
('\'")
T"-f
Q)
~
Crouseilles, Thomas Lepautre, Cline Parzani, Miguel Rodrigues, qui m'ont fait part
0 .;a
N .....
_.
0
de leurs conseils clairs et pour certains ont bien voulu effectuer une relecture de ce
@ ::::1
document.
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a. s.. Je ddie ce liv re Raphal et Flavien.
0 0
u (.)

B
0
..c::
p..

"'
~
1
'O
0
c::
::::1
0
@

www.bibliomath.com
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u

www.bibliomath.com
LES SYSTMES LINAIRES

La rsolution d'un systme linaire algbrique est au cur de la plupart des cal-
culs en analyse numrique. Il parat donc naturel de dbuter un cours de calcul
scientifique par l. Ici, nous dcrivons les algorithmes de rsolution les plus popu-
laires qui sont appliqus des systmes gnraux. Nous considrons le problme
suivant : trouver le vecteur x solution de

Ax = b,

o A est une matrice carre et b un vecteur donn coefficients rels ou com-


plexes. La discrtisation d'quations diffrentielles ordinaires ou d'quations aux
drives partielles, la modlisation de problmes en physique, chimie ou cono-
mie conduit souvent la rsolution de systmes linaires de grande taille avec
plusieurs milliers d'inconnues et il devient pratiquement impossible de rsoudre
ces systmes d'quations sans l'aide d'un ordinateur. Il s'agit alors de trouver des
algorithmes de rsolution efficaces o le nombre d'oprations et donc le temps de
calcul, n'est pas prohibitif. C'est un problme classique mais difficile en analyse
numrique.

L'objectif de ce chapitre est de proposer diffrentes mthodes numriques de rso-


lution des systmes linaires et de sensibiliser le lecteur l'importance du choix de
la mthode en fonction des proprits du systme. Nous distinguerons deux types
de mthodes : les mthodes directes o nous calculons exactement la solution et les
mthodes itratives o nous calculons une solution approche.

"O
0
c
1.1 EXEMPLE D'UN SYSTME LINAIRE
::J
0 Commenons par prsenter un problme provenant de 1' conomie, o nous sommes
('\"')
,..-!
0
amens la rsolution d' un systme linaire.
N
@
~
..c
Exemple d'une analyse de l'offre et de la demande
Ol
::::
>- Imaginons que plusieurs artisans dcident de cooprer pour fabriquer diffrents pro-
a.
0 duits utiles chacun d'eux. Afin d'viter le cot du stockage des produits fabriqus,
u
nous recherchons une situation d'quilibre entre l'offre et la demande. Pour cela,
considrons n artisans, sachant que chacun fabrique un produit spcifique. Ces arti-
sans ont choisi de cooprer, c'est--dire qu'ils souhaitent adapter leur production,
d' une part, leurs propres besoins dtermins par la quantit de produit ncessaire
aux autres artisans pour qu'ils puissent fabriquer leur propre produit et, d' autre part,
aux besoins du march.

www.bibliomath.com
Chapitre 1 Les systmes linaires

Puisque chaque aitisan fabrique un produit diffrent, nous notons pari E { 1, . . . , n}


le produit fabriqu par un artisan, xi dsigne le nombre total de produits i fabriqus
par un artisan et bi la demande du march en ce produit. D'autre part (c ,j) I~J ,j~n
exprime la quantit de produit i ncessaire la confection d'une unit de produit j.
En supposant que la relation qui lie les diffrents produits est linaire, nous recher-
chons l'quilibre entre les besoins et la production, c'est--dire que nous imposons
que la quantit de produit i fabrique soit gale la somme des besoins des autres
artisans en produit i pour fabriquer leur propre produit et des besoins du march en i
Il

Xi L ci ,j X j + bi ' i = 1, ... ' n


j= l

ou encore
X = C X+ b,
o la matrice C est forme par les coefficients (c ,.i)I~i,j~n tandis que le vecteur b
correspond la demande du march b := (b 1, ... , b11 Y.
Par consquent, la produc-
tion totale x = (x 1 , ... , x 11 f est la solution du systme linaire A x = b, o la
matrice A est donne par A = / 11 - C et / 11 est la matrice identit compose de 1 sur
sa diagonale et de 0 ailleurs.
Cette modlisation pose plusieurs difficults mathmatiques. Tout d'abord nous
nous interrogeons sur les proprits de la matrice A permettant d'assurer que ce pro-
blme a bien une solution. Il vient ensuite la question du calcul de cette solution.
En pratique, lorsque le nombre d'artisans considrs devient grand, il n' est plus pos-
sible de calculer l'inverse de la matrice A, il faudra donc fournir des algorithmes qui
ne ncessitent pas l'inversion de cette matrice. C'est l'objectif de ce premier chapitre.

1.2 RAPPELS SUR LES MATRICES

"O
Avant de s'intresser la rsolution numrique de systmes linaires, prsentons
0
c quelques rappels d'algbre linaire.
::J
0
('\"')
Par la suite, nous noterons Atm, 11 (0C) l'ensemble des matrices m lignes, n
T""f
0
colonnes et coefficient dans le corps des rels OC = ~ ou des complexes OC = C .
N
Pour un vecteur colonne u E 0C'1, la valeur ui avec 1 :( i :( n, dsigne la i-me
@
~ composante dans la base canonique de OC11 du vecteur u. Nous appelons adjoint du
..c
Ol
::::
vecteur colonne u, le vecteur ligne u * de OC11 tel que u * = (u 1, ... , u11 ) o ui dsigne
>-
a. le conjugu de u; et transpos de u est le vecteur ligne u T = (u 1, . . , u 11 ) .
0
u Rappelons galement le produit matrice-vecteur. Soient A une matrice m lignes
et n colonnes et u un vecteur de OC11 , nous dfinissons v = A u E ocm le vecteur
dont les composantes sont donnes par
Il

vi = Lai,j u j, i = 1, ... , m
j =I

www.bibliomath.com
1.2. Rappels sur les matrices

et pour B une matrice n lignes et p colonnes, le produit A B fournit une matrice


C E .4m,p donne par

Il

Ci,j = l:=ai ,k bk,j, i = 1, . . . , m , j = 1, . . . , p.


k= I

Introduisons galement la notion de matrice adjointe et transpose.

Dfinition 1.1
Soit A E .4m, 11 (K), la matrice adjointe de A, note A*, n lignes et m colonnes,
est donne par A* = (at) 1 ~; ~" et at j = aj ,i, pour 1 ~ i ~n et 1 ~ j ~m .
' l ~ j ~/11 '

La matrice transpose de A, note AT, n lignes et m colonnes, est donne par


AT = (a[) 1 ~; ~" etaTj = aj ,i, pour 1 ~ i ::::;;net1 ::::;; j::::;; m.
' l (1(m '

Dans la base canonique de K 11 , dfini ssons le produit scalaire ou produit hermien


entre deux vecteurs u et V E JK.11 ' le scalaire de K donn par
n
(u, v) u* V 2.:=utvi
= I

1.2.1 Cas des matrices carres


Considrons maintenant le cas particulier des matrices carres, pour lesquelles le
nombre de lignes est gal au nombre de colonnes. Nous rappelons les dfinitions
suivantes :

Dfinition 1.2
.~ Une matrice carre A E A/,1 , 11 (K) est dite inversible, ou rgulire, ou encore non
~
"O
0 'O singulire, s'il existe une matrice B E A/,1, 11 (0C) telle que AB = BA = I 11
c c::
0
::J ::::1
_. Dans ce cas, la matrice Best unique et s'appelle la matrice inverse de A, elle est
('\'")
"'
Q)
note A - 1 .
Q)
T"-f ~
0 .;a
N .....
_.
0
@ ::::1
~
..c "'c:: Dfinition 1.3
0
Ol
::::
c::
Q)
Soit A E A/,2, 11 (K), alors
>-
a. s..
0 0 A est une matrice normale si A* A = A A*.
u (.)

B
0
..c:: A est une matrice unitaire si A * A = A A* = I11 , o In dsigne la matrice
p..
identit. Dans le cas o K = ffi., nous parlons de matrice orthogonale et
"'
~
1 AT A= A A T = In, c'est--dire A T= A - 1 .
'O
0
c::
::::1
A est une matrice hermitienne si A* = A. Dans le cas o OC = ffi., nous parlons
0 de matrice symtrique et AT = A.
@

www.bibliomath.com
Chapitre 1 Les systmes linaires

Il est alors facile de faire le lien entre les matrices hermitiennes et normales.

Toute matrice hermitienne est une matrice normale.

Comme nous l'avons vu en dbut de chapitre, l'objectif de cette partie est de mettre
au point des algorithmes de rsolution numrique pour un systme de la forme

Ax = b (1.1)
'
o A E ..4;1 , 11 (IK) et b E IK11 sont donns et x E IK11 est l'inconnue. Nous donnons
d'abord une condition ncessaire et suffisante sur la matrice A pour que ce systme
admette une solution unique. Le systme linaire (1.1) a une solution unique ds que
la matrice A est inversible et cette solution est donne par x = A- 1 b. Il est alors
important de connatre quelques proprits des matrices inversibles [16].

Proposition 1.5
Soient A , B E ..4;1 11 (IK) inversibles, nous avons alors
'
pour tout a E Il{*, (a A)- 1 _!_ A- 1.
a
(AB)- 1 = B- 1 A- 1 .
(A*)-1 = (A-1)*.

nonons quelques proprits des matrices inversibles, qui sont autant d'outils
permettant de s'assurer que le problme ( 1.1) admet bien une solution [16].

"O
Thorme 1.6 Thorme des matrices inversibles
0
c
0
::J Soit A E ..4;1 , 11 (IK), les propositions suivantes sont quivalentes :
('\"')
T"-f A est inversible,
0
N
@
le dterminant de A est non nul,
~
..c le rang de A est gal n, c 'est--dire que les n vecteurs colonnes forment une
Ol
:::: famille libre,
>-
a.
0 le systme homogne A x = 0 a pour unique solution x = 0,
u
pour tout b dans ocn'
le systme linaire A X = b a exactement une solution.

Pour conclure cette partie, rappelons qu'une valeur propre de A est donne par
E Il{ telle que det(A - 111 ) = O. Ainsi, il existe au moins un vecteur v non nul,
dit vecteur propre, vrifiant Av = v. Dfinissons alors le spectre d'une matrice.

www.bibliomath.com
1.2. Rappel s sur les matrice s

Dfi nition 1.7


Soit A E .4,1 ,n OK). Nous appelons spec tre de A l'ensemble des valeurs propres
deA:
Sp(A) = {A E OC; 3v E OC11 v '/= 0 Av= Av}
Nous appelons rayon spectral de A le nombre rel positif p(A.) tel que

p(A) = max { 11) E c, V E c \ {0} A V = V}

partir de la dfinition d'une valeur propre, nous vrifions facilement qu' une
matrice est inversible si et seulement si 0 n'est pas valeur propre.
La consquence de ces proprits est que 1' ensemble des matrices carres inver-
sibles fonne un groupe, appel le groupe linaire et not habituellement Gl11 (0C). En
gnral, presque toutes les matrices sont inversibles. Sur le corps OC, cela peut
tre formul de faon plus prcise : l'ensemble des matrices non inversibles, consi-
dr comme sous-ensemble de .4,1, 11 (0C), est un ensemble ngligeable, c'est--dire
de mesure de Lebesgue nulle. Intuitivement, cela signifie que si vous choisissez au
hasard une matrice catTe coefficients rels, la probabilit pour qu' elle soit non
inversible est gale zro. La raison est que des matrices non inversibles peuvent tre
considres comme racines d ' une fonction polynme donne par le dterminant [16].
Par la suite, nous nous intresserons au calcul proprement dit de la solution de
(1.1 ). Proposons d'abord un premier algorithme naf qui permet de calculer la solu-
tion d ' un systme linaire ; cet algorithme est d Cramer 1 [23].

Thorme l .8 Rsolution de Cramer


Soit A E .4,1 , 11 (0C) une matrice inversible. Alors la solution du systme A x = b
est donne par xi = det(A )/ det(A), pour tout i = 1, . . . , n , o A; est la matrice
A pour laquelle la i-me colonne est remplace par le vecteur b .
<;::::
"Cl ~
0 "O
c c
::::>
....:::i Cette mthode bien que trs lgante est trs coteuse puisqu 'elle ncessite plus
Cl
(V)
"'
~ den! oprations o n ! est la factorielle de n, donne par n ! = n x (n - 1) x ... x 2 x 1.
~
.-1
0
'V
.~ Elle n 'est donc jamais utilise en pratique sauf en dimension n = 2. Cet algorithme
N
@ ....:::i""' revient calculer explicitement la matrice A - 1. Hlas, ce calcul est souvent long et
0

:
.
.c. c fastidieux, mme pour un ordinateur, c'est pourquoi nous avons recours des algo-
0) 0
;:: c rithmes de rsolution exacte d ' une complexit moindre (nous parlons alors d'une
~
>-
o.. a.
0
mthode directe), ou des mthodes itratives qui consistent construire une suite
0
u (.)
0 de solutions approches qui converge vers la solution exacte. Avant de prsenter de
0
..s::::
o.. tels algorithmes, nous introduirons des matrices dont la strncture particulire est bien
~
~ adapte la rsolution du systme linai re ( 1.1). Puis nous verrons comment se rame-
1
"O
0
ner ces cas particuliers.
c
:::i
Q
@ 1. En rtrence au mathmaticien suisse Gabriel Cramer (1704-1752).

www.bibliomath.com
Chapitre 1 Les systmes linaires

1.2.2 Quelques matrices particulires


Cette partie constitue la base thorique permettant de mettre au point des mthodes
pour la rsolution exacte de (1.1).
Matrices triangulaires
Nous introduisons la notion de matrice triangulaire et montrons que pour les matrices
de ce type, la rsolution du systme linaire (1.1) devient trs facile.

Dfinition 1.9
Soit A E Al,1 ,11 (IK),
la matrice A est une matrice triangulaire infrieure si A = (a;,j)l~i ,j~n avec
ai ,.i = 0, 1 ( i < j ( n.
A est une matrice triangulaire suprieure lorsque ai ,j = 0, 1 ( j < i ( n.
A est une matrice diagonale ds lors que ai , j = 0 pour i =J j.

Nous vrifions d'abord que 1' ensemble des matrices triangulaires supen eures
(resp. infrieures) est stable par la somme et le produit. En outre, nous avons le
rsultat suivant.

Proposition 1.1 0
Soit L E Al,1, 11 (IK) une matrice triangulaire infrieure inversible, ce qui signifie
que tous les lments diagonaux sont non nuls. Alors L - 1 est aussi une matrice
triangulaire infrieure.
Soit U une matrice triangulaire suprieure inversible. Alors u- 1 est aussi une
matrice triangulaire suprieure.

Les matrices triangulaires jouent un rle important en analyse numrique car elles
"O
sont facilement inversibles ou du moins, nous pouvons facilement trouver la solution
0
c x E 1[11 du systme linaire A x = b. En effet, considrons le cas d'une matrice tri-
::J
0 angulaire suprieure, alors la solution x se calcule par un algorithme dit de remonte.
('\"')
,..-! Nous observons d' abord qu'une matrice triangulaire inversible a tous ses lments
0
N diagonaux non nuls, c'est pourquoi nous pouvons crire x 11 = b11 / a11 ,11 puis pour tout
@
~
i = n - 1, n - 2, ... , 1, nous pouvons calculer Xi de la manire suivante :
..c

u
Ol
::::
>-
a.
0
1
a1 , 1. (
b; .t
.J =t+l
a;,} Xj )
Exemple
Soit A E AZ3,3(!R.) donne par
1 1
A= ( 0
0
2
0
2
3 )
6

www.bibliomath.com
1.2. Rappels sur les matrices

nous cherchons une solution de Ax = b avec b = (3, 4, 3}r. En commenant par la


dernire ligne, nou s trouvons x 3 = 1. Puis en injectant cette valeur dans l'avant-
[ dernire quation, ce la donne x2 = 1. Finalement, co nnaissant x2 et x 3 , la premire
quation donne directement x1 = 1.

Nous allons voir par la suite qu'une mthode directe calcule la solution exacte de
(1.1) et consiste le plus souvent trouver un systme triangulaire quivalent.
C'est pourquoi nous nonons le Thorme de Shur [7] qui sera justement utile
pour rendre certaines matrices triangulaires par simple changement de base.

Thorme l.1 l Thorme de Shur


Soit A E ..,4l,1 , 11 (IK) une matrice quelconque. Alors il existe une matrice unitaire
V E ..,4l,1 , 11 (K), c'est--dire V* V = /11 et une matrice T E ..,4l,1,n(K) trian-
gulaire dont la diagonale est compose par l' ensemble des valeurs propres de A
telles que T = V* A V.

Matrices hermitiennes
Dans le cas des matrices hermitiennes, ce dernier rsultat peut tre sensiblement am-
lior.

Corollaire 1.12
Soit A E ..,4l,1, 11 (K) une matrice hermitienne. Alors il existe une matrice unitaire
V E ..,4l,1 , 11 (K) et une matrice diagonale D E ..,4l,1 , 11 (K) dont la diagonale est
compose par l'ensemble des valeurs propres de A, telles que D = V* A V.

Nous rappelons enfin quelques proprits de base des matrices hermitiennes, dfi-
nies positives. Nous introduisons d'abord la notion de sous-matrice principale.
.~
"O ~
0 'O
c c::
::::1
Dfinition l.13
::J
_.
0
"'
Q)
Soit A E ..,4l,1,n(K ) une matrice quelconque. Nous appelons sous-matrice princi-
('\'")
T"-f
Q)
~ pale d'ordre i (pour 1 ~ i ~ n) de A , la matrice A i E .4f ,i (K) obtenue en ne
0 .;a
N .....
_.
0 gardant que les i premires lignes et les i premires colonnes de A.
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a. s.. Dfinition l.14
0 0
u (.)

B Soit A E ..,4l,1, 11 (K), nous disons que A est positive si pour tout x E K 11 , elle
0
..c::
p..
vrifie x r A x ~ 0 et A est dfinie positive si pour tout x E K 11 \ { 0}, elle vrifie
"'
~
x r A x > 0 et x r A x = 0 implique x = O.
1
'O
0
c::
::::1
Nous avons alors les rsultats suivants dont la preuve est laisse en exercice.
0
@

www.bibliomath.com
Chapitre 1 Les systmes linaires

Proposition l. l 5

Soit A E Al,1 , 11 (IK) une matrice hermitienne dfinie positive. Alors elle vrifie
toute sous-matrice principale Ai, 1 ~ i ~ n est hermitienne dfinie positive ;
tous les coefficients diagonaux de A sont des rels strictement positifs ;
A est diagonalisable et ses valeurs propres sont strictement positives;
le dterminant de A est strictement positif, c 'est--dire que A est inversible;
il existe une constante a > 0, telle que x* A x ;;:::: allxll 2 , pour n'importe
qu'elle norme vectorielle 11li

Matrices de permutations
Par la suite, nous utiliserons souvent les matrices de permutations pour rordonner
les lignes ou les colonnes d'une matrice quelconque.

Dfinition 1.16
Une matrice de permutations est une matrice carre qui ne possde que des 0 et
des 1 comme coefficients, telle qu'il y ait un seul 1 par ligne et par colonne.

Une matrice de permutations vrifie alors

Proposition l. l 7

Soient cr et T deux permutations des indices { 1, . . . , n}, nous avons alors


la matrice de permutations Pu correspondant la permutation cr s'crit comme

( p cr ) 1' 1. -_ o . - { 1, sii = cr(j) ,


i ,cr(J) - 0, sinon.
"O
0
c
::J
0 p<T PT = p<TOT
('\"')
T"-f
0
(Pu )T Pu = 111 , c' est une matrice orthogonale.
N
@
~
..c
Ol
::::
1.2.3 Conditionnement de matrices
>-
a.
0 Avant de dcrire des algorithmes de rsolution de systmes linaires (1.1), nous met-
u tons en vidence une difficult supplmentaire : la sensibilit de la solution par rap-
port aux perturbations des donnes b E K 11 ou des coefficients de la matrice A . En
effet, considrons par exemple la matrice de Hilbert donne par

1
a t, ) . i , j = I , ... , n.
i+j - 1'

www.bibliomath.com
1.2. Rappels sur les matrices

Nous avons pour n = 4,

1/~
1/ 2 1/ 3
1/ 3 1/ 4 1/
1/ 54 )
( 1/ 3 1/ 4 1/ 5 1/ 6 .
1/ 4 1/ 5 1/ 6 1/ 7

Ainsi, pour un vecteur donn b E JR4 tel que

T (25 77 57 319)
b = 12 ' 60 ' 60 ' 420 '.:::= (2,08' 1, 28 ' 0, 95' 0, 76)'

nous calculons x = A - 1 b et vrifions facilement que x T = (1, 1, 1, 1). Ensuite,


si nous modifions lgrement la source i)T = (2, 1 , 1,3 , 1 , 0,8), la solution .X du
systme i = A - 1b est donne par .xr = (5,6, -48 , 114 , -70), ce qui est trs loin de
la solution de dpart x.
En dfinitive, nous constatons qu'une petite perturbation de la donne b conduit
une grande modification de la solution x, ce qui engendre des instabilits lors de la
rsolution du systme.

Norme matricielle
Pour mesurer l'ampleur de cette instabilit, nous introduisons la notion de norme
matricielle. En effet, l'ensemble .4;1, 11 (K) peut tre considr comme tant un K-
espace vectoriel muni d'une norme 11- JI .

Dfinition 1.18
Nous appelons norme matricielle toute application 11-11 de .4;1, 11 (K) valeur dans
JR+ := [0, +oo[ qui vrifie les proprits suivantes :
pour toute matrice A E .4;1 ,n(K ), llAll = 0 *A = Ooc11x11,
"O
.~
~
pour toute matrice A E .4;1,11(K), et pour tout a E K, llaAIJ Jal IJAJI,
pour toutes matrices A et B E .4i1,11(K), l A + Bll ~ JIAIJ+ l BJI, c'est
0 'O
c c::
::J ::::1
_.
0
"'
Q)
l'ingalit triangulaire,
('\'")

pour toutes matrices A et B E .4i1,11 (K) , ll ABJI ~ l All -ll BJI.


Q)
T"-f ~
0 .;a
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
Notons bien que dfinir une norme matricielle requiert une condition supplmen-
c::
:::: Q) taire par rapport la dfinition d' une norme vectorielle (la dernire proprit de la
>-
a.
0
s..
0 dfinition). Il n' est donc pas vident a priori de pouvoir construire une telle appli-
u (.)

B
0 cation seulement partir d' une norme vectorielle. titre d' exemple la norme de
..c::
p..
Froebenus JI.JIF donne par
"'
~
1
l/ 2

.t
'O
0
c::
::::1
0 la; ,jl2 (1.2)
@ ( )
t ,j= l

www.bibliomath.com
Chapitre 1 Les systmes linaires

est bien une norme matricielle. Les trois premires proprits sont connues puisque
11 2
li li F est une norme vectorielle de IK Il reste dmontrer que pour toutes matrices
A et B E .4,1 ,n(IK), llA B llF ~ llAllF llB llF En effet,

llABll} = llClli =
11
;~i c~.i =
n
;~i
( n
t ; a;,k bk,1
)2
En utilisant l'ingalit de Cauchy-Schwarz, nous avons

Il ABll} ,;:; t (t ai,k) (t b~,j )


1,1= 1 k= l k= l
( ta~,) (t
1,k = l k,j = l
bt.1) '
l l A ll~, ll B ll} .

Pour construi re une norme matricielle partir d'une norme vectorielle quelconque,
nous introduisons la dfinition suivante :

Dfinition 1.19
Soit li li une norme vectorielle sur IK11 . Nous dfinissons la norme matricielle li li
subordonne la norme vectorielle 11 . 11 comme tant l'application donne par

A E .4,2,11 (IK) 1-+ ll A ll := sup ll A v il


vE OC" llv ll
v?60

Nous vrifions facilement que cette application dfinit bien une norme matricielle.
Par exemple pour 1 ~ p ~ oo, nous savons que l'application qui v E ocn fait
correspondre le rel positif

'O
0
c
::J
0
('\"')
T"-f

ou ll v lloo = max1 ~~n lv l pour p = oo, est une norme vectorielle sur IK11 . Posons
0
N
@
~
alors pour p E [l , +oo] et A E .4,1,11(IK)
..c
Ol
::::
>-
a.
0
u

qui est une norme matricielle subordonne la norme vectorielle 11 llp En gnral
nous ne pouvons pas calculer 11 A 11 P directement en fonction de (ai,j) 1:<;J , j ~n sauf
pour p = 1 et p = oo.

10

www.bibliomath.com
1.2. Rappel s sur les matrice s

Proposition l .20 Caractrisation de li-Ili et 11-11 oo


Soit A E ..4,1, 11 (IK) une matrice quelconque. Alors nous avons

et n

ll All oo m~x L lai,JI


1 ~ 1. ~ 11 .
j=l

DMONSTRATION. Soit v E K 11 D' une part, nous avons

Il Il 11 n

i= J )=l i=l .i=l

D'o

D'autre part, nous montrons qu'il existe w E K11 tel que Ilw 1
11 = 1 et
Il

.<;::::
"Cl ~
0 "O
c c
::::>
Cl ....:::i En effet, cho.isissons j 0 E { 1, ... , n} tel que
(V)
"'
~
~
.-1
0
'V Il n
.~
N
@
.
....:::i""'
0

:
L
i=l
lai,Jo l max
/'/ 0 ~ l a1,.1'
l ":::::. ) ::::::,11
I
.c. c 1=1
0) 0
;:: c
>-
o..
0
~
a. puis prenons w E K 11 tel que w; = 0 pour i =f. .io et w Jo = 1. Alors
0
u (.)
0
0 n Il n
..s::::

~
o..
~ llAwll1 = L l(A w ); I m~x L. lai,JI
1~ ) ~ 11
1 i= I 1= 1
"O
0
c
Q
:::i Par un raisonnement analogue, nous montrons le rsultat pour la norme matricielle
@ 11 -lloo D

11

www.bibliomath.com
Chapitre 1 Les systmes linaires

Dans le cas particulier de la norme subordonne la norme euclidienne de ocn


dfinie pour A E At,i,11 (IK) par

llA-vll2
sup - -
EIK"
v;i!O
IlV 112 '
nous dmontrons le rsultat suivant.

Pour A E At,,,11(IK), nous avons llAll2 Vp(A * A) = Vp(A A*).

DMONSTRATION. Prenons IK = C ou IR, par dfinition de la norme subordonne


la norme euclidienne, il vient

llAvll 2 (Av)* (Av)


ll A ll~ = sup
2
= sup - - - -
vEIK"
v;i!O
Il V Il~ vE IK"
v;i!O
v* V

v* A* Av
su p - - - -
vEIK" V* V
v;i!O

Or, nous vrifions que

(A* A)* = A* (A * )* = A* A.

Ainsi, d'aprs le Corollaire 1.12 puisque la matrice A* A est hermitienne, elle est
diagonalisable et il existe U E .4t,1 , 11 (IK) unitaire telle que U A* A U = diag(k),
o diag(k) reprsente une matrice diagonale forme partir des valeurs k sur la
diagonale. Les scalaires (k ) I ~k ~n sont les valeurs propres de la matrice hermitienne
A* A. Notons que k ~ 0 puisque de la relation A* Apk = k Ph nous dduisons
"O
0
c
que (A Pk)* Apk = k Pt Pk> c'est--dire k = Il A Pk 11~ / llPkll~ ~ O. Il vient ensuite
::J
0
('\"') v* A* Av v* U* UA* AU* U v
,..-! sup - - - - sup - - - - - - - -
0
N vE IK"
v;i!O
V* V vE IK"
v;i!O
v* U* uV
@
~
..c
Ol Puis, comme U est inversible, nous avons par changement de variable w = U v
::::
>-
a.
u
0
w*UA*AU*w
llA l l ~ = sup - - - - -
wE IK11 w* w
w;i!O

o les k sont les valeurs propres de A* A. Enfin, en prenant le vecteur de la base


canonique dont toutes les composantes sont nulles excepte la k0 -me qui correspond
la plus grande valeur propre ko en module, nous obtenons IlA I l ~ = p(A A*) . D

12

www.bibliomath.com
1.2. Rappels sur les matrices

Conditionnement d'une matrice


Essayons maintenant de comprendre de manire plus gnrale le phnomne d' insta-
bilit par rapport la donne b E K 11 Soient A E .4,1 , 11 (IK) inversible et b un vecteur
de K 11 , non nul. Nous dsignons par x la solution du systme A x = b et pour une
perturbation b du vecteur b, le vecteur x+x est la solution de A (x + x ) = b + b.
Pour une norme vectorielle 11 lI de K 11 , nous cherchons contrler l'erreur rela-
tive ll xll / llxll en fonction de l'erreur relative llbll / ll b ll et de la norme matricielle
subordonne ll Al l
Par linarit et puisque A est inversible, nous avons d 'une part A x = b =>
ll x ll ~ ll A- 1 ll llb ll etd' autrepartAx = bimplique que ll b ll ~ ll All llx ll, ou
encore de manire quivalente puisque b est non nul

Ainsi, nous obtenons l'estimation suivante :

llx ll ~ llA-1 li llA ll ll b ll


ll x ll ~ llb ll

et proposons la dfinition suivante :

Dfinition 1.22
Nous appelons conditionnement de la matrice A relativement la norme matri-
cielle 11 lI subordonne la norme vectorielle 11 lI, le nombre

cond( A) = 11A1111 A - i 11 .

.~ Observons bien que le conditionnement sert mesurer la sensibilit du systme


"O ~
0
c
'O
c::
aux perturbations de b et de A. Il permet d' assurer le contrle de llxll en fonction
::::1
0
::J
_. de la perturbation Il b Il
('\'")
"'
Q)
Q)
T"-f ~
0
N
.;a
..... Dfinition 1.23
_.
0
@ ::::1 Soit A E .4,1 ,11 (K ) une matrice inversible. Nous disons que
~
..c "'c::
Ol
::::
0
c:: un systme linaire est bien conditionn, si cond(A) n'est pas trop grand par
Q)
>-
a.
0
s..
0
rapport un, ce qui correspond au conditionnement de l'identit;
u (.)

B un systme linaire est mal conditionn, si cond(A) est grand par rapport un.
0
..c::
p..

"'
~
1
Vrifions sur l'exemple prcdent la cohrence de cette dfinition. Nous avons
'O
0
c::
pour la norme ll ll1,cond1(A) = ll A ll1 llA- 1 ll1 ~ 28375 >> 1 oupourlanorme
0
::::1
ll ll2,cond2(A) = ll A ll2ll A- 1lh ,....., 15514 >> 1.Lesvaleurs duconditionnement
@ de la matrice A semblent tre assez leves indpendamment de la norme choisie.

13

www.bibliomath.com
Chapitre 1 Les systmes linaires

Pour conclure cette partie, nous donnons quelques proprits sur le conditionne-
ment.

Proposition l .24

Soient A E .4,1 ,11 (IK) une matrice carre inversible et 11 - 11 une norme matricielle
subordonne la norme vectorielle 11- 11- Alors nous avons
cond(A- 1) = cond(A).
Soit a E lK \ {O}, cond(a A)= cond(A).
cond(ln) = 1.
cond(A) ~ 1.

L'inconvnient de la dfinition du conditionnement est qu'il fait apparatre IlA - 1 11,


lequel n'est pas facile calculer d'autant plus que nous ne connaissons pas la forme
explicite de la matrice A- 1 Dans le cas particulier d'une matrice hermitienne et pour
la norme matricielle li 11 2 , nous avons nanmoins le rsultat suivant qui ne ncessite
pas le calcul de A - l mais seulement la connaissance des valeurs propres de A.

Proposition 1.2 5

Soit A une matrice hermitienne (A* = A). Alors llA 11 2 = p(A). De plus, si A
est une matrice hermitienne inversible et (A;) 1~i ~n ses valeurs propres. Alors,

_ max { 1; I, i = 1, ... , n}
cond2(A) - . . .
mm{ 1 I, z = 1, ... , n}

"O
0
DMONSTRATION. Appliquons la Proposition 1.21 et puisque A est hermitienne,
c
::J nous montrons que l lA ll~ = p(A)2.
0
('\"') Supposons ensuite que A est une matrice hermienne inversible. Pour calculer
T"-f
0 cond2 (A), il suffit de remarquer que 1/ Ai, o Ai -=/=- 0, est valeur propre de A - 1
N
@ et donc en appliquant le rsultat prcdent A - l (qui est galement une matrice
~
..c hermitienne), nous avons
Ol
::::
>-
a.
0
u

Nous en dduisons le rsultat

cond2(A) = llAll2 llA-' ll2 = m~x{IA; I, ~ 1


= ' 'n}.
mm{ 1 Ad, z = 1, ... , n} D

14

www.bibliomath.com
1.3. Mthodes directes

Prconditionnement d'un systme linaire


Pour remdier au problme du mauvais conditionnement d'une matrice, nous pou-
vons appliquer une mthode de prconditionnement. En effet, en vue de rsoudre
Ax = b nous multiplions ce systme d'quation gauche par une matrice inversible
P, il vient alors PA x = Pb, avec P choisie de manire ce que la matrice PA soit
mieux conditionne que A (dans le cas le plus favorable, nous aurions P = A - 1).
Cependant, il n'y a pas de mthode standard pour trouver la matrice P, le plus sou-
vent nous chercherons une matrice la fois facile inverser et assez proche
de A- 1.
Prsentons maintenant les deux types de mthodes pour la rsolution d'un systme
linaire : les mthodes directes et les mthodes itratives.

1.3 MTHODES DIRECTES


1.3. l Mthodologie gnrale
Soient A E .,4(,1 ,11 (1K) une matrice inversible et un vecteur b E K 11 , nous recher-
chons x E Kn solution de A x = b. Pour cela, construisons des matrices M et
N E .4,1, 11 (K) telles que A = MN, o M est facile inverser (triangulaire ou uni-
taire) et N triangulaire. Le systme s'crit alors N x = M - 1 b, que nous rsolvons
en deux tapes de la manire suivante :

trouver y E K 11 tel que M y = b,


{ trouver x E K 11 tel que N x = y.

1.3.2 Mthode de Gauss avec et sans pivot


Les mthodes directes permettent de calculer la solution exacte du problme (1.1)
.~ en un nombre fini d'tapes (en l'absence d'erreurs d'arrondi). La mthode directe la
"O ~
0
c
'O
c::
plus classique est la mthode d' limination de Gauss ou Gauss-Jordan, qui consiste
0
::J ::::1
_. dcomposer la matrice A comme le produit L U o L est une matrice triangulaire
"'
('\'")
T"-f
Q)
Q) infrieure et U une matrice triangulaire suprieure 1.
~
0 .;a
N .....
_.
0
L'limination de Gauss ou l' limination de Gauss-Jordan est un algorithme d'al-
@ ::::1 gbre linaire pour dterminer les solutions d'un systme d' quations linaires, pour
~
..c
Ol
"'c::
0 dterminer le rang d'une matrice ou pour calculer l' inverse d'une matrice carre
::::
c::
>- Q)
s.. inversible.
a. 0
0
u (.)

B
0
..c::
p..

"'
~ 1. Cette mthode fut nomme d'aprs Carl Friedrich Gauss, mathmaticien allemand (1777-1855) sur-
'O
1
nomm le prince des mathmaticiens. Cependant, si l'on se rfre au livre chinois Les neuf chapitres
0
c:: sur l'art du calcul sa naissance remonte la dynastie Han au premier sicle de notre re. Elle constitue
::::1
0 le huitime chapitre de ce livre sous le titre de la disposition rectangulaire et est prsente au moyen
@ de dix-huit exercices [6] .

15

www.bibliomath.com
Chapitre 1 Les systmes linaires

Mthode de Gauss sans pivot


Avant de dcrire l'algorithme gnral, commenons par prsenter un exemple de la
mthode d'limination Gauss. Elle consiste seulement remplacer le systme initial
par un systme triangulaire quivalent. Considrons le systme d' quations suivant :

+ 2x2 + 2x3 2, zCl)


1

+ 3x2 + 3x3 2, zCl)


2

+ 7 X2 + 8x3 8. zCl)
3

La matrice A (1) et le vecteur b (I) sont donns par

A (1) = ( ~
3 7
; ; )
8
x = ( ~~ )
X3

Appliquons la premire tape de la mthode d'limination de Gauss. Pour cela, nous


conservons intacte la premire ligne et ajoutons un multiple de la premire ligne aux
deux autres lignes pour annuler les premiers coefficients de ces lignes : nous faisons la
diffrence entre la deuxime ligne et la premire, puis la diffrence entre la troisime
et trois fois la premire soit zC'1L> +--- zCl) zC2 ) +--- zm
1 ' 2 2
- zU)
1
et zC
3
2
) +--- zCl) - 3 zCl) il
3 1 '
vient alors le systme quivalent
zC2)

~J
+ 2 x2 + 2x3 2, 1

0, zC2)
{ + X2 + X3 2

2, zC2)
+ X2 + 2x3 3

ou encore A (2) x b(2) avec

"O

0
0
c
::J
A (2) =

0n n 2
1
1
b (2) = (

('\"')
,..-! Remarquons que les oprations ralises sur les lignes du systme sont linaires et
0
N rversibles, comme nous le verrons par la suite. Par consquent, les systmes sont
@ bien quivalents.
~
..c
Ol Ensuite, nous conservons les deux premires lignes et modifions la troisime en
::::
>-
a. faisant apparatre un zro sur la deuxime colonne. Pour cela, il suffit de rempla-
0
u cer la troisime ligne par la diffrence entre la troisime et la deuxime ligne soit
t<3) f - t <2) t<3) f - t <2) et [(3) f - t <2) - z<2) .
1 1 > 2 2 3 3 2

zC3)
XJ + 2x2 + 2x3 2, 1

{ X2 +
+
X3

X3
0,
2,
z<3)
2
z<3)
3

16

www.bibliomath.com
1.3. Mthodes directes

ou encore A <3) x b(3) avec

A (3) = 0! n
Puisque la matrice A <3) est triangulaire, nous pouvons rsoudre facilement ce systme
et la solution est donne par x = (2 , - 2, 2l.
Le principe de la mthode consiste donc se ramener par des oprations simples
(combinaisons linaires) un systme triangulaire quivalent qui sera alors facile
rsoudre. Avant de dcrire prcisment l'algorithme, nous introduisons une forme de
matrice bien particulire et prsentons quelques-unes de ses proprits.

Lemme 1.26
Soit B (k) E A/,1,n(JK) une matrice de la forme
0 0 0 0 0

B (k) :=
0 0 0 0 0
0 0 b k+!
(k)
0 0

0 0 b (k) 0 0
/l.

Alors nous avons


( i) B(k) B (l) = 0 ' pour tout 1 ~
~
k ~ l ~
~ " n
'
(ii) pour L (k) = 111 - B <k>, L (k) est inversible et [L(k) ] - 1 = 111 + B <k>,
(iii) L (k) L (l) = ! 11 - (B (k) + B (L) ), pour tout 1 :::; k ~ l ~ n .

<;::::
"Cl ~
0 "O DMONSTRATION. Il suffit d'effectuer le produit B (k) B (l) et montrer que ce pro-
c c
::::>
Cl
:::i
.... duit est nul lorsque 0 :::; k ~ l ~ n. Puis les proprits (i i) et (i i i ) se dduisent
"'
~
(V)
.-1 ~ facilement. D
'V
0 .~
N
0""'
....
@ :::i
Voyons maintenant comment tendre la mthode de Gauss-Jordan au cas d' un sys-
:
.
.c. c tme quelconque. Nous nous intressons au systme linaire A x = b, o A est une
0) 0
;:: c matrice carre inversible de taille n x n et b E IK11
~
>-
o.. a.
0 Posons A ( I ) A et b ( I ) = b, partir de ce changement de notation le systme
0
u (.)
0
s'crit
0 ( l) (l)
..s:::: + (J) b (J)
o.. a 1, 1 X 1 +al ,2X2 + a 1,n Xn
~ 1 '
~
1
( 1) (1) (1) b ( I)
"O
a 2, l X] + a2 ,2X2 + +a2,n Xn 2 '
0
c
:::i
Q
@ ( 1) (1) (1)
an , 1 X J + a 11 2 X2 + +an ,11 Xn b;ll).
'
17

www.bibliomath.com
Chapitre 1 Les systmes linaires

Supposons que ai1i


-=f. 0 et appelons ce coefficient le premier pivot. Pour i = 2, ... , n,
remplaons simplement la ligne i par une combinaison linaire des lignes 1 et i de
manire faire apparatre des 0 sur la premire colonne. Pour cela, posons pour
i = 2 , ... , n
(1)
(1)_ a i ,l
ai - rn
al , 1

li - a~ ) l 1, ou encore
1
et appliquons la transformation li 1---+

(1)
ai , 1 x, (1)
+ a 1 2X2 +
'
(1)
+ a1 ,11 X11
b (l)
1 '
+ (a( t) - a (I ) a ( I) ) x 2 + ( 1) (1) (1) ) b (I) - ( 1) b (I)
O x1 2,2 2 1,2 +(a211 - )
a 2 al ,11 Xn 2 a2 1 '

Ox 1 + (a(t) -
n,2
a <J) a
11
0
1,2
x2 + ... +
( (1)
an n -
'
(1)
an
(1) )
al n Xn
. ,
b (l) -
Il
a (l) b (I)
Il l .

Nous aboutissons un nouveau systme linaire


( 1) (1) ( 1) b (I)
a 1,1 X1 + al. ,2 X2 + +a 1,nX11
l '
(2) (2) b (2)
a 2 ,2 X2 + + a 2 n X11 2 '
'

(2) (2) b (2)


a n ,2 X2 + + a n n Xn
) Il '

avec
a (l)
ai
(1) -
- Wi,l ' .
t = 2 , ... , n ,
a l ,l
2
a~1,1~ = a~1,11 ~ - a~1 1 ) a<1n,
,1
i = 2, ... , n , j = 2, ... , n ,
'O
0
c
::J
b1~2) = b~l) -
1
a~l) b (1l)
1 '
.
l = 2 , .. ,n,
0

n.
('\"')
,..-!
0 et la premire ligne est inchange, c'est--dire a~~j = a ~'.j pour tout 1 ~ j ~ D'un
N
@ point de vue matriciel, ceci revient rsoudre le systme quivalent A <2 ) x = b(2),
~
..c
o A <2) et b<2 ) sont obtenus par A <2) = L (l) AU), b(2) = L ( l ) bU) , o L (l) = In - n <J)
Ol
:::: et s<1) est donne par
>-
a.
0
u 0 0 0

B (l) :=

aO )
Il
0 0

18

www.bibliomath.com
1.3. Mthodes directe s

Vrifions le nombre d'oprations que cette premire tape ncessite. La transfor-


mation de A (1) x = b(l) en A C2) x = b(2) s'opre en
(n - 1) divisions,
n (n - 1) = (n - 1)2 + (n - 1) multiplications,
n (n - 1) = (n - 1)2 + (n - 1) additions.

Pour poursuivre l'algorithme, raisonnons alors par rcurrence. Supposons qu'


l'tape (k - 1), nous avons construit le systme A (k) x = b(k) qui s'crit sous la
forme (1) (1) (1)
al 1X1+ al ,2 X2 + +al Il X11
' (2)
'
(2)
a2 ,2 X2 + + a 2 Il X11
'

(k)
+ak,n Xn

(k) b,<lk) .
(k)
+ +an Il Xn
' an k Xk
,
L'tape suivante consiste faire apparatre des 0 sur la k -me colonne partir de la
(k + 1)-me ligne. Pour cela supposons que le coefficient ak~k aussi appel pivot, est
non nul. Alors les k premires lignes restent inchanges tandis que pour i ~ k + 1,
(k)
(k) -
ai -
ai,k
W' l =
k + 1, ... ,n,
ak,k
~k+I)
a t,) = a ~k) -
t,)
a~k) ak(k).
l ,J'
i
= k + 1' ... ' n ' j =k +l , ... ,n,
bi~k+l) = b~k) - = k+1
' a,~k) b k(k) ' .
l ' ... ,n.
nouveau d' un point de vue matriciel cela revient faire le produit
= L <k) A (k) et b(k+I) = L<k) b Ck), o L (k) = In - s <k) et B (k) est donne par
A <k+ l )
.~
"O ~
0 'O
c
::J
c::
::::1
0 0 0 0 0
_.
0
('\'")
"'
Q)
Q)
T"-f ~
0
N
.;a
..... B (k) :=
0 0 0 0 0
_.
0 (k)
@ ::::1 0 0 ak+ l 0 0
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
0 0 a <k)
n 0 0
u (.)

B
0
..c::
p..
et les (ajk))k+ l ~j~n sont donns par
"'
~
1
(k)
'O a (~) aj ,k
0
c:: } (k) '
k+1~ j ~ n.
::::1
0 ak k
@ '

19

www.bibliomath.com
Chapitre 1 Les systmes linaires

Cette tape permet de passer du systme A (k) x = b (k) A (k+I) x = b (k+ I ) et nces-
site
(n - k) divisions,
(n - k + 1) (n - k) = (n - k)2 + (n - k) multiplications,
(n - k + 1) (n - k) = (n - k)2 + (n - k) additions.
En itrant ce processus jusqu' la (n - 1)-me tape, nous obtenons finalement un
systme de la forme A (n) x = b (n>, c'est--dire
(1) (1) (1) b (I)
a 11, x1+ a 1,2 X2 + ,
+a111Xn 1 )
(2) (2) b (2)
a2 ,2 X2 + + a2 ,n Xn 2 )

(n)
an ,n Xn b~') .

Remarquons que A (n) est une matrice triangulaire suprieure. Pour conclure la
mthode d'limination de Gauss, il reste rsoudre le systme A (n) x = b (n) : nous
commenons par la dernire ligne x 11 = b~1 ) / a~1}1 Ensuite, connaissant x 11 nous
calculons x 11 _ 1 en utilisant la (n - 1)-me ligne '
1
Xn-1 = -
a(n --1) -
(b (n - 1)
11-I
(11 - l)
- a11-l ,11X11
)

n-1,n-1

Puis poursuivons la remonte

-
Xk -
1
(k)
ak,k
(
bk
(k)
- L
n

1=k
(k)
ak,ixi
)
, k = n - 2, ... , 1.

Au final, pour rsoudre le systme triangulaire nous avons recours n divisions,


l:~= l k = n(n + 1)/ 2 multiplications et additions, ce qui signifie qu'au total,
le nombre de divisions est de
"O
0
c n(n + 1)
::J (n - 1) + ... + 1 + n
0 2
('\"')
T"-f
0
le nombre de multiplications est de
N
@ 2 2 n(n + 1)
~
(n - 1) + ... + 1 + (n - 1) + ... + 1 +
..c
Ol
2
::::
>- n(n - 1)(2n - 1) n 2 2n 3 + n
a. ------- + -
u
0 6 2 6
le nombre d'additions est de
2 2 n(n + 1)
(n - 1) + ... + 1 + (n - 1) + ... + 1 +
2
n(n - 1)(2n - 1) n2 2n 3+n
6 +1= 6 .

20

www.bibliomath.com
1.3. Mthodes directe s

En conclusion la mthode est en 0 (2n 3 / 3), ce qui est nettement meilleur que le cot
de calcul en n ! de l'algorithme de Cramer.
Pour mieux comprendre et analyser la mthode d'limination de Gauss, nous
pouvons r-crire l'algorithme de manire plus abstraite en utilisant seulement
des produits matriciels. En effet, la mthode d' limination de Gauss prsente
plus haut consiste dcomposer la matrice A comme le produit d'une matrice
triangulaire infrieure L (comme Low , bas en anglais) et d'une matrice tri-
angulaire suprieure U (comme Up , haut en anglais). Plus prcisment,
A (n) = L (n- I ) A (n-I) = L (n- I ) . . . L ( I ) A et donc en appliquant le rsultat du
Lemme 1.26[(ii)], il vient
A ( L (n-1) . . . L (J))-1 A (n ) ,

( L <J) ) - ' . ( L (11-1 ) ) - ' A (n) '


(111 + B(I)) ... (111 + B<n-1 )) A (11) .

Puis, en appliquant le Lemme l.26[(iii)] en changeant B (k) en - B (k) , nous avons


(111 + B<l) ) . . . (!11 + B(n - t)) = (111 + B (l) + . . . + 8 <11 - 1
))

et obtenons finalement A = (!11 +B<1) + . . . + B<n- l)) A(n), o la matrice


L = ( /11 + B(I) + . . . + B<n- I)) est une matrice triangulaire infrieure tandis
que U = A (n) est une matri.c e triangulaire suprieure.
Cependant, cette dcomposition n' est pas toujours possible pour une matrice A
quelconque puisqu'il est ncessaire qu' chaque tape le pivot akkk soit non nul. )

Dmontrons alors un rsultat qui donne une condition suffisante pour 1' application
de la mthode d' limination de Gauss sans pivot.

Thorme l .2 7 Existence et unicit de la dcomposition L V

.<;::::
Soit A E .4;1 , 11 (JK) une matrice inversible. Supposons que toutes les sous-
"Cl
0
~
"O
matrices principales d' ordre 1 n - 1 de A soient inversibles. Alors il existe
c c une unique matrice L triangulaire infrieure diagonale unit (ne comportant
::::>
Cl ....:::i
(V)
"'
~ que des 1 sur la diagonale) et une matrice U triangulaire suprieure inversible
~
.-1
0
'V
.~
telles que A = LV.
N
0""'
....
@ :::i
. :
.c. c
0) 0
c DMONSTRATION. tablissons d'abord le rsultat d' unicit. Soient (L a, U0 J et
;::
>-
o..
~
a. (Lf3 , Uf3 ) telles que L a Ua = A = L f3 Uf3, o L a et L f3 sont des matrices triangu-
0
0
u (.)
0
laires infrieures diagonale unit et donc inversibles. tant donn qu' U a et Uf3 sont
0
..s:::: des matrices triangulaires suprieures inversibles, nous pouvons crire
o..
~
~ 1
1 L / L a= Uf3 U;
"O
0

Q
c
:::i Or, L i 1 L a est une matrice triangulaire infrieure diagonale unit et Uf3 u; 1
@ est une matrice triangulaire suprieure, elle est donc diagonale et L i 1 L a = /11 et

21

www.bibliomath.com
Chapitre 1 Les systmes linaires

U13 u;' = ln. Ainsi, La = L13 et Va = U13, ce qui prouve que la dcomposition
est unique.
Dmontrons maintenant l'existence d' une telle dcomposition. Nous avons vu que
pour pouvoir appliquer la mthode d' limination de Gauss sans pivot, il suffit qu'
chaque tape le pivot aj~i soit non nul. Prouvons alors par rcurrence que lorsque la
matrice A a toutes ses sous-matrices principales inversibles,
, '
a?i
est bien diffrent de
zero.
Tout d' abord, puisque la premire sous-matrice est de dterminant non nul, nous
avons a 1, 1 f=. 0 et donc le premier pivot a~~{ = a 1, 1 est bien non nul et pouvons
effectuer la premire tape de l'limination de Gauss.
Supposons ensuite que pour tout k E { 1, ... , i - 1} le coefficient
'
aYk
est diffrent
de zro, dans ce cas en suivant la mthode d'limination de Gauss, nous avons
A= AO) = (LU-n . . . L<n)- 1 A<o.
Dveloppons alors le produit par blocs, il vient

( ~; ~ ) ( ~; ~ ) ( ~~;) ~ ) '
o Ai (respectivement Azi)) est la sous-matrice principale de A (respectivement AU))
tandis que Li E ~ ,i(JK) est une matrice tridiagonale infrieure avec uniquement des
1 sur la diagonale. Puisque Aji) est une matrice triangulaire suprieure, nous avons

det (A i ) -- det (L i A(i))


i -- det (L ; ) x det (A(i)) -
i - 1 x a (1),
11 . . . (i)
ai ,i .

Or, puisque toutes les sous-matrices principales sont inversibles det(A i) est diffrent
de zro et donc le produit ft=I ak~k est aussi non nul et en particulier aj~i f=. O. Nous
pouvons donc effectuer une nouvelle tape de la mthode d'limination de Gauss.
Au final, nous obtenons la dcomposition
A (L(l)) - 1 L C')A(I),
"O
c
0 (L(l))- 1 A(2),
::J
0
(V)
,--!
0
N (111 + B (l) ... + B (n-1)) A (n-1) .
@
~
..c Notons U la matrice triangulaire suprieure A (n - l) et L = (L(l))- 1 ... (LC11-l))- 1,
Ol
:::: alors A = LU D
>-
a.
0
u l'aide de ce rsultat, nous pouvons dmontrer le corollaire suivant qui est parti-
culirement important pour les applications.

Corollaire 1.28

Soit A E v#1,1, 11 (1K) une matrice dfinie positive. Alors A admet une dcomposi-
tion LU.

22

www.bibliomath.com
1.3. Mthodes directes

D MONSTRATION. Les sous-matrices principales sont dfinies positives et donc


inversibles. Par application du Thorme 1.27, A admet une dcomposition L U. D
La dcomposition L U fournit donc un algorithme exact pour rsoudre un systme
linaire dont la solution x E K 11 vrifie A x = b. En crivant la matrice A sous la
forme A = LU, la rsolution se dcompose en deux tapes :
trouver y E K 11 tel que L y = b ,
{ trouver x E K 11 tel que U x = y,

et chaque tape porte sur un systme triangulaire. Or, nous avons vu que les systmes
linaires avec des matrices triangulaires peuvent tre aisment rsolus en utilisant un
algorithme de descente puis de remonte.
Remarque
Notons que lorsque nous voulons rsoudre ce syst me pour diffrents b E IK" , il est
plus optimal de raliser la dcomposition LU une fois pour toutes et de rsoudre
les systmes linaires avec les matrices triangulaires pour les diffrents b plutt que
d'utili se r l'limination de Gauss-Jordan de multiples repri ses .

L'algorithme correspondant peut tre dcrit sous une forme compacte :


Algorithme 1. 1. limination de Gauss sans pivot
Pour k = 1, . . . ,n- 1
Po ur i=k +1 , . . . ,n
- ca l cu l er
(k}
(k) a 1,k
a i = (k)
ak,k
Pour J = k +1 , . . . ,n
a( k+.1> = a(k} . - a<1~l a(kk> ..
1,J 1,J ,J

Fin de la bouc l e sur j,


.~ - pu i s le second membre
"O ~
0 'O (k +1} - b(k} (k} b (k}
c c:: b1 - ' - a, k
::J ::::1
_.
0
"'
Q)
Fin de la bouc l e s ur i
('\'")
T"-f
Q)
~
Fi n de l a bo ucle s ur k.
0 .;a
N .....
_.
0
@ ::::1 Cet algorithme peut tre implant sur ordinateur pour rsoudre des systmes avec
~
..c
Ol
"'c::
0
des milliers d'inconnues et d'quations. Il est cependant numriquement peu stable,
c::
:::: Q) c'est--dire que les erreurs d'arrondi effectues durant le calcul sont accumules et
>-
a.
0
s..
0 le rsultat obtenu peut tre loin de la solution surtout lorsque le systme est mal
u (.)

B
0
conditionn. Pour remdier ce problme, nous ajoutons une tape supplmentaire
..c::
p.. de permutation qui amliore la stabilit de l' algorithme.
"'
~
1
'O
0
Mthode de Gauss avec pivot
c::
0
::::1
Jusqu'ici nous avons suppos qu' chaque tape de la mthode d'limination de
@ Gauss, le pivot akkk
, f=. 0, l'inconvnient est que cette condition n'est pas assure

23

www.bibliomath.com
Chapitre 1 Les systmes linaires

pour une matrice inversible quelconque. D'autre part, mme lorsque cette condition
est satisfaite, le pivot peut prendre des valeurs lakkk proches de 0, ce qui conduit des
1

instabilits numriques. C' est pourquoi en gnral, ' nous avons recours une tape
supplmentaire de permutation de lignes pour remplacer un pivot ventuellement nul
par un autre pivot qui lui sera non nul coup sr. Cette tape permet galement de
stabiliser l'algorithme par rapport aux erreurs d' arrondi. En effet, considrons sim-
plement le systme deux inconnues. Soit e > 0 un petit paramtre,

.XJ + X2 = 1,
{ X1 + X2 = 2,

dont la solution exacte est x 1 = 1/ (1 - s) et x2 = (1 - 2s)/ (1 - s). D' une part,


lorsque nous appliquons rigoureusement l'algorithme d'limination de Gauss sans
pivot avec des erreurs d' arrondi del' ordre de s , nous obtenons

1)

1
2- -.

Par consquent,

et en supposant que l' erreur de calcul est de 1' ordre de e, nous obtenons une valeur
approche de x2 donne par x~PP = 1 et en utilisant la premire ligne, nous avons
ensuite x~PP = 0, ce qui est trs loin de la valeur exacte. Le rsultat approch obtenu
pour x 1 n' est pas correct. En revanche, si avant d' appliquer la mthode d'limination
de Gauss nous changeons les deux quations, nous avons alors le systme
"O
0
c
::J
2,
0 1.
('\"')
T"-f
0
N
@
Cette fois-ci, le pivot est gal un et la mthode d' limination de Gauss donne pour
~
..c
la deuxime quation ( 1 - e) x2 = 1 - 2 e et donc le systme est quivalent
Ol
::::
>-
a.
0
2,
u 1 - 2e .

De nouveau comme valeur approche de x2 , sachant que l'erreur est de l'ordre s ,


nous obtenons x?P = 1. Puis en substituant cette valeur approche dans la premire
quation, nous trouvons comme valeur approche x~PP = 1. Cette fois-ci les deux
valeurs numriques sont trs proches de la solution exacte.

24

www.bibliomath.com
1.3. Mthodes directes

En dfinitive, la mthode que nous avons applique ici est l'algorithme d' limi-
nation de Gauss avec pivot. C'est une mthode directe de rsolution de systme
li.na.ire qui permet de transformer un systme en un systme quivalent compos
d'une matrice triangulaire. L'algorithme est le mme que celui dcrit pour la mthode
d' limination de Gauss sans pivot mais avec une tape supplmentaire de permuta-
tion permettant d' obtenir le pivot le plus grand possible. Cela permet d'viter de
travailler avec un pivot proche de zro, ce qui peut introduire des erreurs numriques
grossires et au final donner une mauvaise approximation de la solution. Comme
pour la mthode d'limination de Gauss sans pivot aprs avoir obtenu un systme
triangulaire, nous rsolvons le systme l'aide d'un algorithme de remonte.
L' algmithme est directement inspir de l'algorithme sans pivot avec une tape sup-
plmentaire de permutation.
Algorithme 1.2. limination de Gauss avec pivot
Pour k= 1, .. .,n - 1
Pour i=k +1 , .. .,n:
- recherc her ko E {k, .. .,n} t el que
l a~~, kl = max{ l a(,~)k l , 7 E {k, .. ., n}}
et permuter l es l i gnes k et ko,
- ca l cu l er
(k)
(k) ai ,k
<X j = (k)
a k,k
Pour J = k+ 1, .. .,n
a(k+.1 ) = a(k). _ a <kl a(k).
1,J 1,J 1 k ,J'
Fin de la bouc l e sur j ,
- pu i s le second membre
b( k) (k) b (k)
b(k+l
1
) -
- 1 - a, k

Fin de la bouc l e s ur i
<;::::
Fi n de l a boucle sur k .
"Cl ~
0 "O
c
::::>
c Nous avons donc le rsultat suivant qui assure l'existence d'une dcomposition
Cl ....:::i LU pour n'importe quelle matrice inversible.
(V)
"'
~
~
.-1 'V
0 .~
N
@
0""'
.... Thorme 1.29 Dcomposition LU d 'une matrice inversible
:::i
. :
.c. c
0) 0
c
Soit A E .4l,1, 11 (K) une matrice inversible. Alors la matrice A admet une dcom-
;::
>- ~
a. position L U quelques permutations prs P A = L U ou A = PT L U, o P est
o..
0
u
0
(.)
0
une matrice de permutations (de mme pour P T), L est une matrice triangulaire
0
..s::::
infrieure ne contenant que des 1 sur sa diagonale et U une matrice triangulaire
o..
~ suprieure.
~
1
"O
0
c
Q
:::i
DMONSTRATION. Nous ne prsentons pas le dtail de la preuve qui est essentiel-
@ lement technique, nous renvoyons le lecteur au livre [7] pour plus de dtails. L'ide

25

www.bibliomath.com
Chapitre 1 Les systmes linaires

de la preuve consiste dmontrer que la mthode d'limination de Gauss avec pivot


est comme la mthode d'limination de Gauss sans pivot une dcomposition L U
mais avec en plus chaque tape une permutation des lignes. Cette permutation per-
met d'assurer chaque tape que le pivot akkk est bien non nul. En effet, la mthode
d'limination de Gauss avec pivot peut s'crire comme le produit suivant

o L U) est la matrice dj construite lors de la mthode d'limination de Gauss sans


pivot et p (i) est une matrice de permutations. Ainsi,

a(l) a <l) (1)


1, 1 1,2 al n
'
(2) (2)
a2 2 )
a2 n
)

ldet(A)I ldet(A (k))I = (k)


a(k)
k ,k ak n
'

(k) (k)
an k an ,n
'
...

~:~: a:~~
( (k) (k) )
(1) (k- l)
al ' i ak-1 ,k - 1

a" ,k an,11

Puisque det( A) est non nul, le dterminant de la sous-matrice est aussi non nul et donc
il existe forcment un coefficient ai~2 qui est non nul. Nous pouvons donc appliquer
la stratgie de l' limination de Gauss en ayant au pralable effectu si ncessaire une
permutation des lignes.
Pour conclure la preuve, nous avons vu qu' la k-me tape, nous slectionnons un
'O
0
pivot la ligne Pk E { k , ... , n} et permutons ensuite les lignes k et Pk Nous obser-
c vons alors que la factorisation LU que nous obtenons est la mme que si nous per-
::J
0
('\"')
mutions les lignes de la matrice A, k ~ Pk. k = 1, ... , n - 1 avant d' effectuer la
,..-!
0 factorisation, ce qui con-espondrait une factorisation sans pivot de la matrice PA.
N
@ D
~
..c
Ol
::::
>-
1.3.3 Factorisation de Cholesky
a.
u
0
La factorisation de Cholesky 1 consiste pour une matrice hermitienne dfinie positive
A dterminer une matrice triangulaire suprieure R telle que : A = R* R. La
matrice Rest en quelque sorte la racine can-e de A. Cette dcomposition permet

1. Cette mthode a d'abord t mise au point par le mathmaticien et militaire franais Andr-Louis
Cholesky ( 187 5-1918), puis redcouverte seulement dans les annes 1940.

26

www.bibliomath.com
1.3. Mthodes directes

notamment de rsoudre des systmes li naires du type ( 1.1) ou de calculer le dter-


minant de A qui n'est rien d ' autre que le carr du produit des lments diagonaux
de R . Par la suite, nous dmontrons l'existence et 1'unicit d'une telle dcomposition
pour une matrice hermitienne, dfinie positive et proposons ensuite un algorithme de
calcul.

Thorme 1.30 Factorisation de Cho/esky d 'une ma trice


Soit A E Al,1, 11 (JK) une matrice hermitienne et dfinie positive. Alors il existe au
moins une matrice triangulaire suprieure R telle que A = R* R.
Si de plus les lments diagonaux de la matrice R sont tous positifs alors la
factorisation correspondante est unique.

DMONSTRATION. Nous prsentons ici la preuve, propose par P. S. Dwyer en 1945


[15], qui se dcompose en deux tapes : pour l'existence, il s'agit d'effectuer une
dcomposition LU puis de modifier L et V pour qu 'elles aient la mme diagonale.
Puis, sachant que cette dcomposition existe, nous construi.sons l'algorithme en effec-
tuant le produit R* R ce qui permet de calculer les coefficients de la matrice R de
manire unique en imposant que les coefficients diagonaux soi.e nt positifs .
Tout d' abord, puisque la matrice A est dfinie positive, nous appliquons le Corol-
laire 1.28, ce qui assure que la matrice A admet une unique dcomposition L V. De
plus, en notant A k la sous-matrice principale d' ordre k de A et en dveloppant le
produit par bloc, il vient alors

det(Ak) = det((L U )k ) = 1 X U1 ,1 X ... X Uk,k

Le dterminant de A k correspond au produit des valeurs propres de A k. qui sont


strictement positives, ce qui signifie que det(Ak) > O. Ainsi, en raisonnant par rcur-
rence, nous dmontrons que uk,k > 0 pour tout l ~ k ~ n , ce qui permet de dfinir
.<;:::: les matrices A, R , V E Al,1 ,11 (JK) comme suit:
"Cl ~
0 "O
c c
::::> A = diag(~, ... ,~) , S = LA
Cl ....:::i '
(V)
"'
~

.-1
0
~
'V et nous avons bien
.~
N
0""'
.... A = LAA- 1 U = SR.
@ :::i
. :
.c. 0
c De plus, comme la matrice A est hermitienne, S R = R* S*, ou encore puisque la
0)
;::
~
c matrice R est inversible (R*) - 1 S = S* R- 1
>-
o.. a.
0 0 D'une part, la matrice de gauche est le produit de deux matrices triangulaires inf-
u (.)
0
0 rieures Set (R*) - 1. D ' aprs la Proposition 1.10, la matrice (R* ) - 1 S est donc tri-
..s::::
~
o.. angulaire infrieure. D'autre part, la matrice de droite S* R- 1 est pour des raisons
~
1
identiques, une matrice triangulaire suprieure. Cela signifie que S* R - 1 est tout
"O
0
c
simplement une matrice diagonale ne contenant que des 1 sur sa diagonale, c'est
Q
:::i
donc l'identit autrement dit S* = R. Ainsi, la matrice A se dcompose comme
@ A = R* R.

27

www.bibliomath.com
Chapitre 1 Les systmes linaires

Enfin, dans la pratique pour construire la matrice R, nous cherchons la matrice R


sous la forme
r1 , 1 r1 ,2 ri ,n
r2,2 r2 ,n
R

r11 ,n

en imposant que tous les termes diagonaux soient strictement positifs . De l'galit
A = R* R , nous dduisons :
n min(i ,j)

a; ,j = (R * R); ,j = l : : rk,i rk ,j = L rk ,i rk ,J, l (i,j(n,


k= l k= I

puisque r p ,q = 0 si 1 ( q < p ( n .
La matrice A tant hermienne, il suffit que les relations ci-dessus soient vrifies
pour i (},c'est--dire
i

ai,j = 2= r:k ,i rk ,j, 1 ( i ( j ( n.


k= l

Pour i = 1, nous dterminons la premire colonne de R : le coefficient r 1, 1 est choisi


strictement positif

[} = l] a1 , 1 = r1 ,1 r1 ,1 ::::? r1 ,1 = JlW > 0,

et le choix des autres coefficients est alors dtermin par

"O
[} = 2] a1 ,2 = r1,1 ri ,2
0
c
::J
0
('\"') a1 ,n
,..-!
0
[} = n] al ,n = r l , l r l ,n ::::} r1 ,n = - .
N r1 ,1
@
~
..c Raisonnons ensuite par rcurrence. Pour i ~ 1 fix, nous supposons que les coeffi-
Ol
::::
>-
cients (r; - i ,j)j=i- l , . .. ,11 sont connus et dterminons alors la i-me ligne de R. Pour
a. cela, crivons d'abord le produit par bloc pour le calcul de la sous-matrice principale
0
u
A; de A , il vient alors

A _ (
i -
A;-1
a* ) = ( ;r- 1 0
r.
1 ,1
) ( ~H
avec a = (a t ,i , ... , a;_ 1,il E Il{i - l et p = (r1 ,i , ... , r; -1 ,i ) T E Il{i - l lequel est dj

28

www.bibliomath.com
1.3. Mthodes directes

dtermjn. Par identification, nous obtenons d'abord

(1.3)

ou encore en utilisant les proprits du dterminant

et puisque A i et A i-J sont dfinies positives, nous avons bien

det(A) O
> .
det(A- 1)
Nous sommes alors en mesure de dterminer le seul rel positif vrifiant l'ga-
lit (1.3)
i-J

ai ,i - L lrk ,i 1
2

k= I

Ensuite, le calcul du terme ai ,J pour j > i permet de dfinir les autres composantes
Li = i + l] ai ,i+I = "f1 ,i r1 ,i+I + + ri ,i ri ,i+l
i- 1

ai ' i+I- - "'\'


L...,; rk ,i rk ,i+J
k= l
r.
t ,1

[j = n] ai ,n = r 1,i ri ,n + . . . + r; ,i r i ,11
i- 1

ai ,n - 2= rk ,i rk ,n
.<;:::: k= l
"Cl ~
c
0 "O r.
1.,1 D
c
::::> :::i
Cl ....
(V)
"'
~ L' algorithme correspondant peut tre dcrit sous une forme compacte comme suit :
~
.-1 'V
0
N
.~ Algorithme 1.3. Factorisa tion de Cho/esky
0""'
....
@ :::i
:
Pour i = 1, ... , n
.
.c.
0) 0
c - ca l c ul e r
;:: c
~
i -1
>- a. a1,1
.. - "'
o..
0 0 L rk,1 2. 1 l
u (.)
0 k= 1
0
..s::::
o.. Pou r j = i + 1, . . . , n
~

- ~
~ 1
"O
1
r 1,J
= -r . ( a1,J L rk ,1 rk ,J) .
0 1,1 k=1
c
Q
:::i
Fin de la bo ucl e sur j,
@ Fi n de l a bo ucl e sur i.

29

www.bibliomath.com
Chapitre 1 Les systmes linaires

Exemple
Soit A E .#3,3(ffi.) donne par

nous cherchons une matrice R triangulaire suprieure vrifiant Rr R = A. Pour cela,


crivons simplement
r1 ,1
R = 0
(
0

et en effectuant le produit Rr R, calculons d'abord r1 ,1 = 1. Puis nous en dduisons


r1 ,2 = 1 puis r1 ,3 = 1. En passant la deuxime ligne, il vient r2 ,2 = 1, puis r2 ,3 = 1.
Enfin la dernire ligne donne r 3 , 3 = 1.

1.3.4 Factorisation Q R
L'objectif de cette partie est de proposer une mthode de factorisation des matrices A
inversibles non ncessairement dfinies positives. Nous allons voir que toute matrice
inversible peut tre obtenue comme le produit de deux matrices Q et R. L'originalit
de cette factorisation rside dans le fait que nous ne cherchons pas Q triangulaire
mais pleine et orthogonale, c' est--dire Qr Q = ln, alors que la matrice R , pour sa
part, est triangulaire suprieure.
Remarquons que lorsqu' une telle dcomposition est connue, le systme linaire
de la forme A x = b se rsout facilement. En effet, cela revient trouver x E R 11
tel que Q R x = b. En multipliant alors par Qr , puisque Q est orthogonale, il
vient R x = QT b qui peut tre rsolu facilement puisque R est triangulaire sup-
rieure. Nous verrons galement au chapitre suivant que la dcomposition Q R permet
de dfinir un algorithme itratif pour la recherche de valeurs propres et de vecteurs
"O
0
c
propres d'une matrice. Cette dcomposition est donc trs utile dans la pratique bien
0
::J
qu'un peu plus coteuse en termes de complexit que la factorisation LU.
('\"')
T"-f Il existe plusieurs mthodes pour raliser cette dcomposition :
0
N
@ la mthode de Householder o Q est obtenue par produits successifs de matrices
~
..c orthogonales lmentaires ;
Ol
::::
>-
la mthode de Givens o Q est obtenue par produits successifs de matrices de
a. rotations planes ;
0
u
la mthode de Schmidt, base sur le procd de Gram-Schmidt (voir Exercice 1.5).
Nous avons choisi ici de prsenter la mthode de Householder qui mne la fac-
torisation Q R d'une matrice A inversible.

30

www.bibliomath.com
1.3. Mthodes directe s

Dfinition 1.31
~
11
Soit u E Nous appelons
matrice de Householder, la matrice u
Hu E .4:1 ,n(~) donne par

o llull2 = uT u lorsque u est non nul,


et Hu = [ lorsque u = O.
11 Figure 1.1
La matrice d e Hou se ho lder r epr -
La matrice de Householder satisfait sente une r flection par r apport
quelques proprits particulires. au vecteur u.

Proposition 1.32

~
11
Soit u E Alors,
(i) Hu est symtrique, c'est--dire Hu = H[,
(ii) Hu est inversible et Hu- l = Hu ,
(iii) Hu v = - v, pour tout v E ~n colinaire u et Hu v = v pour tout
v E ffi.11 orthogonal u ,
(i v) le dterminant de Hu est gal - 1 lorsque u est non nul et gal +1
lorsque u = O.
En dfinitive Hu est la matrice de la rflection d' hyperplan Vect{ u }T.

DMONSTRATION. La dmonstration tant triviale lorsque u = 0, considrons


seulement le cas o le vecteur u est non nul. D ' aprs la dfinition de la matrice de
Householder, nous vrifions facilement que la matrice Hu est symtrique .
.~
"O ~ Nous vrifions ensuite la proprit (ii). Pour cela, calculons
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Q)
T"-f ~
0 .;a
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
U UT U UT
>-
a. s..
0 111 4 4
u
0 (.)

B
0
- llull2 + llull 2
..c::
p..
et donc Hu- I = Hu.
"'
~

'O
1
Ensuite pour dmontrer (iii), prenons d' une part v E ~ 11 tel que (v , u) = uT v = O.
0
c::
::::1
Alors
0 2 T
@ Huv = v - llull 2 u(u v) V.

31

www.bibliomath.com
Chapitre 1 Les systmes linaires

D'autre part, pour v E JR11 colinaire u, c'est--dire qu' il existe a E lR tel que
v = au, nous avons
2a T
Huv = au - ~(uu )u = au - 2au = -v.

Enfin, nous dmontrons (i v ). Pouru E JR11 , posons u 1 = u, puis appliquons le rsul-


tat prcdent en formant une base de ]Rn en compltant u 1 par une famille de vecteurs
libres (u j )u;j ~ 11 et orthogonaux u 1 Nous notons alors U la matrice compose des
colonnes (u j)J~j~n En utilisant la proprit (iii), nous obtenons

- 1 0~11- I )
( JR11 -I l n- 1

et donc en appliquant les proprits du dterminant

det(Hu) det(U) = det( Hu U) = -1 x det(U).

Puisque la matrice U est inversible, nous avons det(U) =? 0 et det(Hu) = - 1. D


partir de la Proposition 1.32, nous vrifions que pour tout v E JR11 qui s'crit
aussi v = x +y avec x colinaire u et y orthogonal u, Hu v = Hu (x +y) = y - x,
c'est bien une rftection d'hyperplan Vect{ u }T. C'est cette proprit que nous allons
maintenant exploiter pour dmontrer le rsultat qui suit.

Proposition l .33

Pour tout v E JRm, m ~ 1 tel que llv Il = 1, il existe u E JRm tel que Hu v = ei , o
e 1 = (1 , 0, ... , Of E JRm le vecteur de la base canonique dont seule la premire
composante est non nulle.

"O
0
c
DMONSTRATION. Tout d'abord si v est colinaire e 1, posons u = 0 et Hu = lm.
0
::J En revanche lorsque v n'est pas colinaire e 1, posons u = v - e 1 Un calcul direct
('\"')
,..-!
montre d'une part
0
N
@
~
..c
Ol
::::
>-
a.
0 D'autre part, puisque ef ei = 1 v T v et en utilisant la symtrie du produit sca-
u laire, nous avons

(v - e1l v - vT ei + 1
2(v - e1l v.

En combinant, ces deux derniers rsultats, nous obtenons Hu v = e 1 D

32

www.bibliomath.com
1.3. Mthodes directes

Maintenant que nous avons tudi les proprits des matrices de Householder, nous
pouvons effectuer la factorisation Q R.

Thorme 1.34 Existence et unicit de la dcomposition Q R

Soit A E At,1, 11 (R) une matrice inversible. Alors il existe une matrice orthogonale
Q et une matrice triangulaire suprieure R telles que A = Q R.

DMONSTRATION . Soit A E Al,1 , 11 (1~)


une matrice inversible. L'ide de la facto-
risation Q R consiste multiplier la matrice A par des matrices de Householder de
manire faire apparatre au final une matrice triangulaire comme nous l 'avons fait
pour la dcomposition L U.
Par rcurrence, posons AC 1) = A et pour i E { 1, ... , n}, notons a? ) la i-me colonne
de la matrice A Cl), c'est--dire A (J) = ( a~ 1 ), , a~ 1 )).
ai
En appliquant la Proposition 1..33 au vecteur 1) E R 11 : il existe u 1 E Rn tel que
Hu, a~ 1 ) = l l a~J) Il e.1. Ainsi en notant H t := Hu., nous obtenons

011:/~l-l)l l
A (2)
12 )
A(2 )= H1AO) = JNo.
(2) .
( A 12
'

En poursuivant ce procd et en s'inspirant de ce qui prcde, nous mettons en place


un algorithme, dit d'limination de Householder. Supposons qu'au cours de l'tape
(k - 1), nous ayons construit une matrice A (k) donne par

(k)
A (k) = ~1,1 A (k)
1,2 )
( A (k) '
2 ,2
.<;::::
~
avec A ~~~ E ~k- l ,k- I (R) une matrice triangulai re suprieure, A ~~~ une matrice rec-
"Cl
0 "O
c c
::::>
Cl .... tangulaire relle k - 1 lignes et n - k + 1 colonnes et Aik~ une matrice carre relle
:::i

"'
~
(V)
.-1 ~
'V
n - k + l 1ignes et colonnes. '
0 .~
N
0""'
.... La k-me tape consiste donc multiplier la matrice A ik~ par une matrice de Hou-
@ :::i
. : seholder pour faire apparatre des 0 sur la premire colonne. Pour cela, nous notons
.c. c
0)
;::
0
c akk) le vecteur de Rn-k+t form partir des (n - k + 1) composantes de la premire
~
a. co1onne de A (k), .- - ( ak(k) , ... , a (k) ) e t e (k) . -- (1 , 0, ... , 0) E lTl>n-k+I
>- 1e vect eur de
o.. ~
0 0 22 11 1
u (.)
0
0 la base canonique dont seule la premire composante est non nulle.
..s::::
o.. Nous appliquons la Proposition 1.33 au vecteur ak.k) E R 11 - k+I : il existe uk E Rn - k+I
~
~

"O
1 tel que Huk ak.k) llak.k)Il e~k)_ Nous construisons alors la matrice Hk E At,1 ,11 (R) de
0
c rflection
:::i
Q
@ Hk -- ( 0h - 1

33

www.bibliomath.com
Chapitre 1 Les systmes linaires

d'o nous dduisons la nouvelle matrice A (k+I)

A (k) A (k)
1, 1 1,2 )
) (k) .
( 0 ,
A 22

En effectuant le produit par blocs, nous obtenons plus prcisment


(k)
A (k +l ) = ~1 ,1
(

Ainsi, la matrice A (k+I) s'crit finalement sous la forme


(k+ l )
A (k+I)
~ 1, 1
)
A (k+l ) = 1,2
( A (k+ l)
2,2

et A l~~l) E vltk ,k(ffi.) une matrice triangulaire suprieure, A i~;l) E vltk ,n- k(ffi.) et
A (k+
22
l)
E
L/ (]]]))
Jn11.-k,11-k m..
'
Ainsi, aprs n itrations, nous obtenons une matrice A (n) qui est triangulaire sup-
rieure et telle que H11 _ 1 ... H1 A = A<11>. Puisque, d'aprs la Proposition 1.32
chaque matrice Hk est symtrique et vrifie Hk- I = Hk> la matrice Hk est orthogo-
nale. Ainsi, en posant Q = H 1 ... H,1 _ 1 et R = A <11 ), la matrice A s'crit sous
la forme A Q R avec Q une matrice orthogonale et R une matrice triangulaire
suprieure. D

Remarque
Une autre mthode pour dmontrer qu'une matrice invers ible A relle admet une
factorisation Q R, co nsiste cons idrer la matrice AT A qui est symtrique et dfinie
positive, elle admet donc une factorisation de Cholesky AT A = RT R. Il suffit donc de
vrifier que Q = ( A r )- 1 Rr est orthogonale. Nanmoin s, la mthode de Householder
'O
0 est const ru ctive tandis qu'ici le calcu l de Q n'est pas vident!
c
::J
0
(\"')
T'-f
0
N 1.4 MTHODES ITRATIVES
@
~
..c
Ol
Les mthodes directes sont certes intressantes puisqu' elles fournissent la solution
::::
>- exacte mais lorsque le systme devient de grande taille, les calculs deviennent trop
a.
0 fastidieux. titre d'exemple, Carl Friedrich Gauss s'tait rendu compte que sa
u
mthode n'tait pas adapte aux systmes de plus de vingt quations qu'il devait
rsoudre en cartographie (triangulation de Hannovre). D ' autre part, les calculs sur
ordinateur ne fournissent qu'une solution approche cause des en-eurs d'arrondi
et nous pouvons rencontrer des problmes d'instabilit (voir la partie Mthode de
Gauss sans pivot). Il peut donc s' avrer judicieux de ne pas rechercher la solution
exacte mais plutt une solution approche.

34

www.bibliomath.com
1.4. Mthodes itratives

C'est pourquoi dans cette partie, nous mettons en place un type de mthodes num-
riques tout fait diffrent. Il ne s'agit plus de rsoudre exactement un systme linaire
de grande taille mais plutt de construire une suite vectorielle convergeant vers la
solution du systme linaire (1.1). C' est ce que nous appelons une mthode itra-
tive. Dans un premier temps, nous donnons les grands principes de ces mthodes :
construction de la suite et critre de convergence. Ensuite, nous dtaillons deux
mthodes classiques : la mthode de Jacobi puis celle de Gauss-Seidel.

1.4. l Mthodologie gnrale


Soient A E .,,f/,1 , 11 (K) une matrice inversible et un vecteur b E K 11 , recherchons une
approximation de x E K 11 solution de A x = b.
Pour cela, posons A = M - N, o M est une matrice inversible et smtout facile
inverser (par exemple une matrice diagonale, triangulaire ou orthogonale). Alors
rsoudre le systme A x = b sera quivalent rsoudre le systme M x = N x + b
ou encore, ds que M est facile inverser, x = M- 1 N x + M- 1 b = : F(x), o F
est une fonction affine. partir de cette dernire galit, nous proposons la mthode
itrative suivante : pour x <0) donn, et k ~ 0

(1.5)

Si, par chance, la suite (x<k))kEN converge, alors sa limite x 00 doit satisfaire
x 00 F(x 00 ) car F est continue. Donc x 00 = M - 1 Nx 00 + M - 1 b soit
(M - N) x 00 = b, c'est--dire A x 00 = b. Nous disons alors que la solution
x 00 = A - 1 b E K 11 est un point fixe ou un point stationnaire de (1.5). Plusieurs
questions dcoulent de cette construction :
Pour quelle dcomposition de la matrice A obtenons-nous la convergence de la
mthode ? Bien sr, la dcomposition la plus simple serait M = /11 et N = In - A
.~ mais nous rencontrons gnralement des problmes de convergence pour cette
"O ~
0
c
'O
c::
mthode itrative (voir la mthode de Richardson de !'Exercice 1.7).
::J ::::1
_.
0
"'
Q)
Est-il possible d'amliorer la vitesse de convergence en fonction de la dcomposi-
tion ? Nous voyons bien que le choix de M = A et N = 0 permet la convergence
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0
de la mthode en une seule itration mais ce choix n'est en gnral pas intressant
@ ::::1
puisque nous ne connaissons pas M - 1 = A - 1 .
~
..c "'c::
Ol
::::
0
c:: Comment dterminer l'arrt des itrations? En effet, nous ne pouvons pas calculer
Q)
>-
a.
0
s..
0
l'cart exact entre x <k) et la solution x puisque nous ne connaissons pas la solution.
u (.)

B
0
..c:: La construction d' une mthode itrative revient chercher des rponses ces
p..
trois questions. Nous commenons par la notion de convergence de la mthode
"'
~
1 itrative. Ensuite, nous proposons plusieurs dcompositions possibles (mthode de
'O
0
c:: Jacobi, Gauss-Seidel) et tentons d'valuer la vitesse de convergence des diffrentes
::::1
0 mthodes.
@

35

www.bibliomath.com
Chapitre 1 Les systmes linaires

Notion de convergence et vitesse de convergence


Dfinition 1.35
Soit A = M - N E .4,1, 11 (IK) avec M une matrice inversible. La mthode
itrative (1.5) converge si pour tout b E IK11 et tout x<0) E IK11 , la suite (x<k))k~O
converge vers la solution x = A - 1 b dans IK11 , c' est--dire

lim llx(k) - xll = O.


k-.oo

Rappelons que toutes les normes sont quivalentes sur IK11 et que la notion de
convergence ne dpend pas du choix de la norme.

Notons bien qu'ici le critre de convergence porte essentiellement sur les propri-
ts de la dcomposition de A = M - N, puisqu'aucune restriction n'est impose
sur le vecteur initial x<0) E IK11 et la donne b E IK11 Nous verrons au chapitre sui-
vant que les choses se compliquent lorsque nous nous intressons des systmes non
linaires, nous introduirons alors diffrentes notions de convergence.
Pour l'instant, essayons d'tablir un critre sur les matrices Met N pour assurer
la convergence de la mthode. Pour cela, introduisons l'erreur e<k) entre la solution
approche x<k) et la solution exacte x qui est donne par e<k) = x<k) - x .
Rappelons qu'a priori nous ne connaissons pas la solution exacte x, ce qui signifie
que dans la pratique nous ne pouvons pas calculer l' erreur e<k). Ici, notre objectif
est plutt de trouver un critre sur la dcomposition assurant que cette erreur e<k)
converge vers zro lorsque k tend vers l' infini.
En utilisant (1.5) et le fait que la solution x est une solution de

X= A- 1 b = M - 1 (N X - b) ,

nous sommes en mesure de calculer 1' erreur e<k+I) l' tape k + 1 en fonction de
l'erreur e<k) l'tape k: e<k+J ) = M- 1 N (x(k) - x) = M- 1 N e<k)_
"O
0
c
Posons alors B = M - 1 N, ce qui donne e<k+l) = B e<k) = B k+l e<O) _D'aprs la
0
::J
Dfinition 1.35, la mthode itrative va converger lorsque pour n'importe quel vec-
('\"')
,..-!
teur e<O) E 1K11 on a,
0
N lim B k e<O) = 0. (1.6)
@
k -.oo
~
..c Le thorme suivant tablit des critres sur la matrice B pour que la proprit (1.6)
Ol
:::: soit vrifie.
>-
a.
0
u Thorme 1.36 Critres de convergence
Soit B E .4,1 ,11 (IK), alors les quatre propositions suivantes sont quivalentes :
(i) Pour une norme matricielle subordonne quelconque, nous avons
limk-.oo Il B k Il = O.
(i i) Pour tout vecteur V E IK11 ' nous avons limk-.oo B k V = Ooc11 .

36

www.bibliomath.com
1.4. Mthodes itratives


(iii) Le rayon spectral de B vrifie p(B) < l.
(iv) Il existe une norme matricielle subordonne (dont le choix dpend de B)
telle que Il B Il < l.

D MONSTRATION. Nous allons montrer que (i) =? (ii) ... =? (iv) et enfin
(iv) =? (i).
Montrons d'abord que (i) =? (ii). Supposons que limk-oo li Bk li = 0, pour 11-11 une
norme quelconque. Vu qu' en dimension finie toutes les normes sont quivalentes,
ceci est en particulier vraie pour une norme subordonne. Soit u E JR11 , nous avons
pour une norme subordonne 0 :::;; Il Bk ull :::;; llBkll llu ll- Or, d'aprs (i), nous savons
que IlBk Il converge vers zro lorsque k tend vers l'infini et donc pour tout vecteur
u E lR11
lim li Bk u ll = 0,
k->oo

ce qui signifie bien que Bk u tend vers zro lorsque k tend vers l'infini.
Supposons maintenant que (ii) est vraie et montrons (iii). Pour cela, nous consid-
rons E Sp(B) et w un vecteur propre associ la valeur propre : B w = w,
nous avons alors

Or, nous savons que lirnk->oo Il Bk w Il = 0, donc

lim IAk l llw ll


k->oo
= 0,

o w E JR11 ne dpend pas de k et est non nul puisque c'est un vecteur propre.
Nous avons alors lirnk->oo IAlk = 0, ce qui implique que II < 1. Ainsi, pour tout
.<;:::: E Sp(B), IAI < 1, c'est--dire p(B) < l.
"Cl ~
c
0 "O
c
Montrons ensuite que (iii) =? (iv). Supposons que pour tout E Sp(B), nous ayons
::::>
Cl ....:::i IAI < 1. En appliquant le thorme de Shur, il existe une matrice unitaire telle que
(V)
"'
~
~
.-1 'V
0 .~
N J t1 ,2 l1 ,n
0""'
....
@ :::i
:
.
.c. c T U* BU =
0) 0
;:: c n-1 ln- J ,n
~
>-
o.. a.
0
0 n
0
u (.)
0
0
..s::::
o..
et nous ayons 1i 1 < 1 pour tout i E { 1, ... , n}. En appliquant la Proposition 1.20,
~
~
nous pouvons alors calculer ll T ll 00 ou llTll1 qui est donne par
1
"O
0
c
:::i
Q
@

37

www.bibliomath.com
Chapitre 1 Les systmes linaires

Nous ne pouvons pas conclure directement! Introduisons alors pour 8 > 0, un petit
paramtre qui reste dterminer, la matrice diagonale D = diag( 1, o, ... , 011 - 1) et
D - 1 = d.mg (1 , us:- - 1 , ... , us:-1 - n ) . N ous ven
/ .fi ons a1ors

D- 1T D =
0

Ainsi, pour 8 assez petit, nous avons 11 D- 1T D 111 < 1 ou alors

llD- 1 U * BU Dll1 < 1.


Choisissons alors l'application li- lis qui pour A E v11,1, 11 (1R) associe

llAlls = 11 v - 1 U* Au Diii-
Nous vrifions aisment que 11 -1 18 , dpend de B par l' intermdiaire de U et D et est
une norme matricielle subordonne la norme vectorielle

Cette norme matricielle subordonne est telle que par construction Il B Il 8 < 1. Nous
avons donc construit une norme matricielle subordonne vrifiant 11 B11 B < 1, ce qui
dmontre (i v ).
Finalement, montrons que (i v) =? (i). Supposons que pour une norme subordonne
donne 11-lla, li Biia < 1. En utilisant le fait que toutes les normes sont quivalentes,
pour une norme quelconque 1 1-11, il existe C 1 > 0 telle que

"O
0
c Ce qui montre que Il Bk Il converge vers zro lorsque k tend vers l'infini. D
::J
0
('\"') Ce thorme donne dans le mme temps une indication sur la vitesse de conver-
gence. En effet, puisque lle(k)ll : : ; llBllklleC0)11 pour tout k ~ 0, la vitesse de conver-
T"-f
0
N
@ gence de l'algorithme dpend directement du nombre IlB Il < 1 et nous chercherons
~
..c rendre cette norme la plus petite possible, ce qui permettra d'amliorer la vitesse
Ol
:::: de convergence.
>-
a.
0
u Test d'arrt et nombre d'itrations
Nous venons de dfinir des critres de convergence mais dans la pratique il faudra
stopper le processus lorsque nous estimerons que la solution numrique est suffisam-
ment proche de la solution exacte. C'est pourquoi nous dfinissons un test d' arrt et
utilisons pour cela le vecteur rsidu r <k) = b - A x<k). En effet, le vecteur x est solu-
tion du problme A x = b pour lequel le rsidu r = b - A x est nul. Il est donc clair

38

www.bibliomath.com
1.4. Mthodes itratives

que nous serons d'autant plus proche de la solution que le rsidu sera petit. Ainsi,
pour une prcision donne e, nous poursuivons les itrations jusqu' ce que le rsidu
r <k) vrifie

Remarquons aussi que pour une mthode itrative dont nous connaissons pour
une norme donne la valeur Il B Il < 1, il est alors possible de calculer le nombre
d'itrations maximal en fonction de l' erreur souhaite. En effet, comme nous l' avons
dj dmontr lle(k)ll ~ llBllklle<0)11
D'autre part, nous savons aussi que
lle<0)11 ~ llx(O) - x< 1)ll + lle<J)ll ~ llx(O) - x<l)ll + llBll lle<0)11
et donc puisque IlB Il < 1, nous obtenons

lle(O) Il ~ l - 111 B Il llx<O) - x(J) Il ,


d'o en regroupant les deux rsultats

lle(k)ll ~ l Bllk llx<l) - x<0)11


" 1-ll Bll
Ainsi, si nous souhaitons quel' erreur lle(k) Il soit infrieure 10-N, il suffit de calculer
un nombre d' itrations k0 E N* tel que

llBllko llx(I) - X(O)ll ~ 10-N


1- llBll " '
c'est--dire
1-llBll ) - N log(lO)
log ( llx01-x<Olll
ko ~ log( li B Il) '
.<;::::
"Cl
0
~
"O avec log( li B Il) < 0 puisque IlB Il < 1..
c c
::::>
Cl ....:::i Intressons-nous maintenant aux mthodes itratives les plus utilises dans la pra-
(V)
"'
~
tique: les mthodes de Jacobi et de Gauss-Seidel.
~
.-1 'V
0 .~
N
0""'
....
@ :::i 1.4.2 Mthode de Jacobi
. :
.c. c
0)
;::
0
c Pour construire 1' algorithme de Jacobi 1, nous choisissons la dcompositjon suivante :
>-
o..
~
a. A = D - E - F , o la matrice D est forme par la diagonale de A, - E reprsente
0
0
u (.)
0
la parti.e sous-diagonale de A tandis que - F dsigne la pa1,tie sur-diagonale de A.
0
..s::::
o..
~
~ 1. En rfrence Charles Gustave Jacob Jacobi , mathmaticien allemand ( 1804-1851). Ses principales
"O
1
contributions furent en analyse et calcul diffrentiel. Une autre contribution importante est la thorie
0
c de Hamilton-Jacobi en mcanique newtonienne. Il s'est galement illustr en algbre (fonction thta de
:::i
Q Jacobi et mthode de Jacobi pour la rsolution approche de systmes linaires) ainsi qu'en thorie des
@ nombres.

39

www.bibliomath.com
Chapitre 1 Les systmes linaires

Ainsi, en supposant que la diagonale de A ne contient pas d'lments nuls, nous


reprenons la mthode expose prcdemment en posant M = D (qui est suppose
inversible) et N = E + F. La suite (x<k))k~O est alors donne par:
x<O) E JKll
{ D x<k+I) = (E + F) x<k) + b , k ~ 0.

Nous pouvons aussi crire la mthode de Jacobi sous la forme


x<O) E JKn'

{
ai,ixi(k+ 1) -- - ""'"'
~ ai,J x
(k) ""'"' (k)
1 - ~ai,JXJ + bi, 1 :::::::::
/ i. :::::::::
/ n, k ~ O. (1.7)
j <i J>i

Cette mthode peut tre dcrite sous une forme compacte comme suit. Un petit
paramtre s > 0 tant fix et x 0 E JK11 donn,
Mthode de Jacobi
Poser x<0l = xo . e(0l= 2 e et k = O.
Tant que e (k) ~ e
- calcu l er
x<k+1>= 0- 1 ((E + F) x(k> + b) ,
- calculer un r sidu qui doit t r e proche de zro
lorsq ue x( k+1l approc he l a so l ut io n x = A- 1 b
e (k+ 1J = llA x (k+ 1J - bll.
- itrer k +--- k + 1.
Fi n de tant que .
Cette mthode n'est pas toujours bien dfinie. En effet, il suffit qu ' au moins un
lment diagonal soit nul pour que l'algorithme ne soit plus valide. Nanmoins,
lorsque la matrice A est une matrice dfinie positive, ses coefficients diagonaux sont
strictement positifs et nous pouvons donc appliquer cet algorithme. Aussi lorsque A
est diagonale strictement dominante, la mthode est correctement dfinie et nous
"O
sommes mme en mesure de prsenter un rsultat de convergence.
0
c
::J
0 Thorme l .3 7 Convergence de la mthode de Jacobi
('\"')
T"-f
0
N
Soit A E .,41,1,n(lK) une matrice diagonale strictement dominante, c'est--dire
@ telle que
~
..c
Ol
::::
lai,d > L
lai,J I, '/ i E {1, ... ,n}.
>- j~i
a.
u
0
Alors pour tout x<0) E JK11 , la suite (x<k)h EN, donne par la mthode de Jacobi
(1.7), est bien dfinie et converge vers la solution x du systme A x = b.

DMONSTRATION. D' une part puisque A est diagonale strictement dominante,


tous les coefficients diagonaux de A sont strictement positifs et M = D est bien
inversible.

40

www.bibliomath.com
1.4. Mthodes itratives

D' autre part, d ' aprs le Thorme 1.36, il suffit de prouver qu' il existe une norme
matricielle subordonne 11 lI* telle que la matrice B = D - 1( E + F ) vrifie 11B 11* < 1.
Considrons par exemple la norme llBll 00 , nous savons d' aprs la Proposition 1.20
que cette norme peut tre calcule exactement partir des coefficients de B
n

Or, par construction de B , nous avons aussi


0, si i = j,
bi,j -- a.
_ _!_:_!_ , si i =f. j.
{
ai ,i

Puisque A est diagonale strictement dominante, nous vrifions facilement que pour
tout i E { 1, ... , n}

et donc Il Blloo < 1. Ainsi, par application du Thorme 1.36, la mthode de Jacobi.
est convergente. D

L'inconvni.ent de cette mthode est que le critre de convergence est assez restric-
tif pour pouvoir traiter des systmes gnraux. Citons le cas d' une matrice symtrique
dfinie positive pour laquelle la mthode de Jacobi ne converge pas.
Exemple
Soit A E AZ3 , 3(~) donne par

"Cl
0
.<;::::
~
"O
A=(:! D
o a est un re l. Nous vou lons approcher la solution du systme Ax = b par la
c c
::::> :::i
.... mthode de Jacobi. Puisque les lments d iagonaux sont non nuls, la suite (x<k>)kEN
Cl
(V)
"'
~ est bien dfinie.
~
.-1
0
'V
.~
D'une part, nous vrifions que A est symtrique dfinie posit ive si et seulement si
N
@
0""'
.... a E] - 1/ 2, 1[. En effet, le polynme caractristique est donn par
:::i
:
P(A) = (1 - A) 3 - 3 a 2 (1 - A)+ 2a 3 = - ( - (1 - a)) 2 (A - (1 + 2 a))
.
.c. c
0) 0
;:: c
~
>-
o.. a.
0
et les valeurs propres de A sont A1 = A2 = 1 - a et 3 = 1 + 2 a.
0
u (.)
0 Lorsque - 1/ 2 < a < 1, les valeurs propres sont strictement positives ,
0
..s:::: ce qu i assure que A est dfi nie positive. En revanche, la mthode Jacobi
o..
~ converge seu lement lorsque a E] - 1/ 2 , 1/ 2[. En effet, la suite est donne par
~
1 x<k+ 1l = 0 - 1 (0 - A)x<kl +o- 1 b, avec ici O = /3 Les valeurs propres de 0 - A sont de
"O
0
c
la forme = 1 - A o A est une valeur propre de A et donc 1 = 2 = a et 3 = - 2 a.
Q
:::i
Nous en concl uons que la mthode de Jacobi converge pour - 1/ 2 < a < 1/ 2
@ puisqu'il est ncessaire que p(o- 1 (0 - A)) < 1 et ici 0 - 1(0 - A) = 13 - A.

41

www.bibliomath.com
Chapitre 1 Les systmes linaires

Cet exemple montre bien que la mthode de Jacobi n'est pas toujours la plus adap-
te pour traiter des applications concrtes, o les systmes linaires rsoudre font
intervenir des matrices dfinies positives. Une alternative possible est de recourir la
mthode de Gauss-Seidel.

1.4.3 Mthode de Gauss-Seidel


Dcomposons galement la matrice A de la faon suivante : A = D - E - F, avec
le mme choix pour D, E et F que celui de la mthode de Jacobi. Cependant, pour
la mthode de Gauss-Seidel 1 nous choisissons M = D - E et N = F
X (O) E Il{"
{ (D - E) x<k+I) = F x<k) + b, k ~ 0.

Dans ce cas, D - E est une matrice triangulaire infrieure, elle est donc facilement
inversible en utilisant un algorithme de descente (nous calculons d'abord x 1, puis
x 2 , ... ). Nous avons cette fois-ci
X (0) E Il{'z
ai i x.
(k+l ) '_
- -
2= ai
(k+l)
x. - ~
~ai ,j x j(k) + bi , l. -- 1, ... , n , k ~ O.
{ ' 1 '1 J
j<i j>i

Notons bien qu' ici le terme de droite dpend de x<k+l), il faut donc utiliser une
mthode de descente chaque itration.
Cette mthode peut tre dcrite sous une forme compacte comme suit. Un petit
paramtre > tant fix et Xo E Il{n donn,
Mthode de Gauss-Seidel
Poser J.0l = xo. 8<0l= 28 et k=O .
Tant que e (k) ~ e
- pour k ~o. rso udre par un a l gorithme de descente
"O
x<k+ i> = (D - E)- 1 (r x (k) + b),
c
0 - ca l cu l er l e r sidu qu i do it tre proc he de zro
0
::J lorsque x< k+l) approc he l a so l utio n :
(V) 8 (k+ n = IlA x(k+n - bll .
T"-f
0
N
- i t re r k f- k + 1.
@ Fin de tan t que .
~
..c
Ol
::::
>- Nous pouvons dmontrer que la mthode de Gauss-Seidel converge dans le cas de
a.
0
u matrices symtriques dfinies positives. Avant cela, nonons un lemme qui se rvle
souvent utile pour dmontrer la convergence d' une mthode itrative.

1. En rfrence Carl Friedrich Gauss, qui mit au point cet algorithme pour Je calcul approch de la
solution d'un systme linaire. Cet algorithme fut ensuite redcouvert en 1847 par le mathmaticien
allemand Philipp Ludwig von Seidel (1821- 1896). L'algorithme de Gauss-Seidel est toujours utilis de
nos j ours pour la rsolution numrique de trs grands systmes.

42

www.bibliomath.com
1.4. Mthodes itratives

Lemme l.38
Soit A E .4,1 , 11 (1~) une matrice symtrique dfinie positive, dcompose sous la
forme A = M - N avec M inversible. Si MT + N est symtrique dfinie positive,
alors p(M-t N) < 1.

DMONSTRATION. Soit A = M - N telle que M T+ N soit symtrique dfinie posi-


tive. D'aprs le Thorme 1.36, la condit ion p ( M - 1 N) < 1 est quivalente dmon-
trer qu'il existe une norme matricielle subordonne 11 11* telle que llM- 1 Nii* < 1.
Puisque la matrice A est dfinie positive, nous pouvons considrer la norme matri-
c.ielle subordonne la no1me vectorielle donne par llx Il* = J x T A x. Il vient alors
llM- 1 N xll;
sup
xE R"
IlX 11 2* '
x:;O

(M- 1 N xf A M - 1 N x
sup

Or, en crivant N = M - A puis y = M- 1 A x, nous avons pour x E JR" non nul


(M- 1 N x)1' A M - 1 N x = (U n - M - 1
A) x)1' A (111 - M - 1 A )x,
= XT A X - YT A X - XT A y+ YT A y
et puisque A est symtrique et llx Il; = x TA x,
llM- 1 Nxll; (M- 1 Nxf AM- 1 Nx xT Ax - 2 yT Ax + yT Ay

Ce dernier terme est positif et donc pour dmontrer que l M- 1 Nii; < 1, il suffit de
prouver que
2 yT Ax - yT Ay
.<;::::
sup
xE!R" \ {O}
TA > o.
X X
"Cl ~ Ax = My
0 "O
c c
::::>
Cl ....:::i Puisque A x = M y, nous vrifions que
"'
~
(V)
.-1
0
~
'V
.~
2 YT A X - y 7 A y = 2 YT M y - y 7 A y.
N
0""'
....
@ :::i
:
Or, par symtrie du produit euclidien yT M y = yT M T y, nous obtenons
.
.c. c
0)
;::
0
c 2 y T A X - y T A y = y T M T y + y T ( M - A) y = y T (MT + N) y .
~
>-
o.. a.
0 0 Finalement, comme M T + N est dfinie positive, ce dernier terme est strictement
u (.)
0
0
..s::::
positif et puisque x est non nul, il vrifie galement x T A x > O. Ainsi,
o..
~
~
2 YT A X - YT A y YT (M T + N) y
1 sup sup rA > 0,
"O
0
xER"\{O} xT A X JE iR''\ {O} X X
c Ax= My Ax= My
:::i
Q
@ ce qui montre que llM- 1 Nii* < l ou encore p(M- 1 N) < 1. D

43

www.bibliomath.com
Chapitre 1 Les systmes linaires

Nous dmontrons alors le rsultat suivant.

Thorme l .39 Convergence de la mthode de Gauss-Seidel

Soit A E .$1,1,n(lR) une matrice symtrique dfinie positive. Alors pour tout
x <0> la mthode de Gauss-Seidel est bien dfinie et converge vers la solution x du
systme A x = b.

DMONSTRATION. Vrifions d'abord que la mthode de Gauss-Seidel est bien dfi-


nie. Posons A = M - N, avec M = D - E et N = F, o la matrice D reprsente la
diagonale de A , la matrice - E est la partie infrieure de A et la matrice - F la partie
suprieure.
Pour que la mthode de Gauss-Seidel soit bien dfinie, il suffit de vrifier que M est
inversible. Puisque M est une matrice triangulaire, nous avons
n
det(M) = det(D) = IJ a i,i
i =I

et puisque A est dfinie positive tous les termes diagonaux sont positifs, nous avons
alors det(M) > O.
Maintenant, pour prouver que la mthode de Gauss-Seidel converge, nous appliquons
le Lemme 1.38, il suffit donc de vrifier que la matrice MT+ N est symtrique dfinie
positive M T + N = (D - E)r + F = D - E T + F et puisque A est symtrique
ET = F et donc MT + N = D , qui est bien symtrique dfinie positive. Par
application du Lemme 1.38, nous obtenons p(M- 1 N ) < 1, ce qui implique que la
mthode de Gauss-Seidel est convergente. o

Exercices
(\"')
......
0
N l. l quivalence des conditionnements
@
...... L'objectif de cet exercice est de vrifier l'quivalence des normes fP de C11 et des
..c
Ol
::::
conditionnements associs.

u
>-
a.
0
Soit p ~ 1. Pour tout V = (v1, ... ' vnl E C 11
, posons l vllp = (
8 lvdP
1! ) l/p
et

l vlloo = m~x
1 ~ 1 ~11
{lviI}.
1. Montrer que pour tout V E
1
C 1, ll vlloo ~ llvllp ~ nl/pll vlloo et en dduire que
lim l vllP= llvlloo
p ->oo

44

www.bibliomath.com
Exercice s

2. Soient p et q E JR+ tels que 1 :::;; p :::;; q < +oo. Montrer que pour tout v E <C
11
,

llv llP:::;; nl f p-l / qllv llq


3. Soit A E Al,1, 11 (<C) une matrice inversible. Montrer les ingalits suivantes :

cond2(A)
- - - :::;; cond1(A) :::;; ncond2(A),
n
cond00 (A)
- - - - :::;; cond2(A) :::;; n cond00 (A),
n
cond 1(A)
-- - :::;; condoo(A) :::;; n 2 cond 1(A).
n2

1.2 Calcul de conditionnement


Soit A E Al,1 ,11 (JR) une matrice inversible.
1. Quelle relation existe-t-il en gnral entre cond(A 2) et [cond(A)]2?
2. Supposons que A soit symtrique. Montrer que cond2(A 2) = [cond2(A)]2.
1.3 Estimation du conditionnement
Soit A E Al,1 ,11 (JR) vrifiant: il existe() > 0 tel que pour tout x E JR11 ,

llAx ll ~ () llx ll (1.8)

1. Montrer que l'ingalit (1.8) est quivalente dire que A est inversible et que
1/ llA- 1 li est le meilleur des minorants () > O.
2. Supposons que A est diagonale dominante stricte, c 'est--dire que

lai ,i 1 > I: lai ,j I, Vi E {1 , ... , n }.


j=li

.~
Montrer que l'hypothse (1.8) est satisfaite et donner une valeur pour () lorsque la
"O ~ norme 11.1100 est utilise.
0 'O
c c
0
::J ;:s
.... 3 . Montrer que si A est inversible alors il existe > 0 tel que A + E est inversible
('\'")
"'
Q)
pour toute matrice E vrifiant Il E Il :::;; 8, o li li est une norme matricielle subordon-
Q)
T"-f ~
0
N
.:a..... ne.
@ ....0;:s 4. Soit A E Al,1, 11 (lR) inversible. Montrer que si B est singulire alors
~
..c
Ol
"'c
0
c
::::
>- Q) 1 ~ llA - B ll
a. a
u
0 0
(.) cond(A) ~ ll All '
....
0
0
..s::
o.. o li li est une norme matricielle subordonne.
~ "'1 5. Utiliser ce rsultat pour estimer le conditionnement des matrices suivantes :
'O
0
c
;:s
Q
@

45

www.bibliomath.com
Chapitre 1 Les systmes linaires

Comparer la valeur exacte du conditionnement. votre avis, comment faut-il choi-


sir B pour obtenir une bonne estimation ?

1.4 Dcomposition L DL*


Une matrice A E Al,1, 11 (<C) admet une dcomposition L DL* s' il existe une matrice L
triangulaire infrieure avec seulement des 1 sur la diagonale et une matrice diagonale
relle D avec D i ,i > 0 pour tout i = 1 . . . , n telles que A = L DL* .
l . Soit A une matrice admettant une factorisation L D L *. Montrer que A est her-
mitienne et dfinie positive.
2. Soit A une matrice hermitienne dfinie positive telle que A = R* R o R est
la matrice obtenue par la factorisation de Cholesky. Notons B la matrice diagonale
dfinie par Bi ,i = Ri,i pour tout i = 1, . . . , n. Montrer que B est inversible et
calculer les lments diagonaux de R* B - 1
3. En dduire que A admet une dcomposition L DL* et que cette dcomposition
est unique.
4. Indiquer comment rsoudre le systme A x = b avec b E <C11 donn, l'aide de
la dcomposition L D L * de A .

1.5 Dcomposition QR par Gram-Schmidt


Considrons C 11 muni du produit scalaire usuel et notons Gl11 (C) le groupe des
matrices inversibles de taille n, U11 (C) le groupe des matrices unitaires de taille n
et T s:(C) le groupe des matrices triangulaires suprieures de taille n, dont tous les
lments diagonaux sont strictement positifs.
l . Soit {a 1 , . . . , a 11 } une base de C11 Montrer que nous pouvons trouver {q 1 , ... , q11 }
une base orthonorme de <C11 et des nombres complexes (rj ,i) 1~i ~n, 1~.i ~i tels que les
lments diagonaux ri ,i > 0 et
i

ai = L r.i,i q.i, Vi E {1, ... ,n}.


j = I
"O
0
c
0
::J 2. En dduire que pour A E Gl11 (C), il existe (Q , R) E U11 (C) x T s:(<C) telles que
(\"') A = QR.
......
0
N
@
s:
3. Montrer que T n U11 = { / 11 } et en dduire l'unicit de la dcomposition Q R.
...... 4. Montrer que la factorisation QR permet de rsoudre le systme Ax = b .
..c
Ol
::::
>- 1.6 Mthode des relaxations successives
a.
u
0 L'ide de la mthode des relaxations successives est de dire que x(k+I) est une com-
binaison linaire de la solution approche l' tape prcdente x<k) et de la solution
approche _x(k+l) calcule par Gauss-Seidel. Plus prcisment, en effectuant la dcom-
position habituelle A D - E - F E Al,1 , 11 (JK), nous construisons x(k+t) comme
suit,
x (k+I) = w i(k+J ) + (1 - w) x(k),
{ D _x(k+I) - E x<k+I) = F x(k) + b.
(1.9)

46

www.bibliomath.com
Exe rcices

1. Donner l'expression de x(k+l) en fonction de x<k) _


2. Si A est symtrique et dfinie positive, montrer que pour 0 < w < 2, la mthode
des relaxations successives converge.

1.7 Mthode itrative de Richardson


1. Considrons simplement la dcomposition A M - N avec M
N = I11 - A , la mthode numrique est donne par

x (k+J) = (/11 - A) x (k) +b= x(k) - (Ax(k) - b) .

Montrer que si pour tout A(A) E Sp(A), l1 - A(A) I < 1 alors la mthode est conver-
gente.
2. Cette dernire condition a peu de chance d 'tre vrifie en gnral. Pour remdier
ce problme, nous introduisons une dcomposition similaire A = M - N avec
1 1
M = - I 11 et N = - I 11 - A.
'}' '}'

crire la mthode correspondante.


Montrer que la mthode est bien convergente ds que 0 < y < 2/ p(A).
3. En notant r (k) := - A x (k) + b, le rsidu l'tape k. La mthode de Richardson
s'crit alors x(k+ I ) = x<k) + y r(k). En dduire que x<k) - x(O) est une combinaison
linaire de {r C0\ A r (O), .. ., Ak-J r (O)} .

Nous disons que x<kl - x(o) appart ient l'espace de Krylov K k(A , r( 0l) donn par

La plupart des mt hodes d'approximation dveloppes rcemment cons istent


construi re une base de l'espace de Kry lov Kk (A , r 0 ) dans laquelle nous exprimons
<;::::
la solution numriq ue .
"Cl ~
0 "O
c c 1.8 Les matrices creuses
::::i
0 ....:::i
(V)
"'
~ Il n ' y a pas de dfinition prcise d' une matrice creuse, disons qu' une matrice creuse
~
.-1 'V
0
N
.~ est une matrice contenant beaucoup de zros. Dans ce cas, de nombreux calculs
0""'
....
@ :::i
peuvent tre vits. Par exemple, en considrant le problme de propagation de la
:
.
..c 0
c chaleur pos sur l'intervalle ]0, 1[, ce qui correspond au chauffage d 'un fil, nous
Ol c
;:: G)
recherchons des solutions u vrifiant l'quation de Poisson
>-
a. s...
0 0
u (.)
0
- u"(x ) = f (x), (1.10)
0
..c:
o..
~
~
1
o f est une fonction suppose deux fois diffrentiable et les conditions aux limites
"O
0
sont donnes par u(O) = u(l) = O.
c
Q
:::i
1. Pour i E {O, . . . , n + 1}, nous notons v; une approximation de la solution u de
@ l'quation de Laplace au point x; = i ~x avec ~x = l / (n + 1). En reprenant les

47

www.bibliomath.com
Chapitre 1 Les systmes linaires

arguments de la pa1tie 1.1 sur l'quation de la chaleur, montrer que vh E IR.11 est
solution de Ah vh = b, avec Ah = : 2 A,

2 - 1 0 0
- 1 2 - 1
A= 0 0 (1.11)

-1 2 -1
0 0 - 1 2

et le vecteur b E IR.11 est donn par b = (f (x1 ), ... , f (xn)/.


2. Montrer que la matrice A E .4,1 , 11 (ffi.) est symtrique et dfinie positive.
3. Justifier que A admet une dcomposition LU.
4 . Calculer les matrices Let V et montrer que cela ncessite seulement O(n) op-
rations.

Solutions des exercices


1.1 Rappelons d'abord quelques ingalits classiques:
l'ingalit de Minkowski : soient u, v E <C11 ,

l'ingalit de HOlder: soient u, v E <C11 et p , q ~ 1 tels que 1/ p + l /q = 1,

"O
0
c
::J
0
(\"')
......
0
N Notons que lorsque p = q = 2, c'est l'ingalit de Cauchy-Schwarz.
@
...... 1. Soient p ~ 1 et V E <C11 ,
..c
Ol
::::
>-
a. Il n
0
u

D'o, llvllP ~ n 11P llvlloo D'autre part, comme le max est atteint

48

www.bibliomath.com
Exercices

et

et donc llvlloo ( llvllp Nous obtenons ainsi le rsultat

/ log(11)
Puisque n 1 P = e-P-, en passant la limite il vient,

llvlloo ( lim
p--.oo
llvllp ( lim
p--.oo
(e ~ ) llvlloo
Ainsi,
lim
p--;oo
llvllp = llvlloo
Observons la lumire de ce rsultat que la norme 1 1.11 00 est le prolongement par
continuit de la norme 1 1.llPlorsque p tend vers l'infini.
2. Soient p, q E JR+ tels que 1 ~ p ~ q < oo et w E <C11 Supposons que p soit
diffrent de q sinon le rsultat est vident et posons alors u i = 1wi 1P et vi = 1 pour
tout i = {1, .. . ,n}. Nous choisissons alors l = q/ p et m tel que 1/ m + I / l = 1,
c'est--dire m = l / (l - 1) = q / (q - p) et en appliquant l'ingalit de HOlder, nous
obtenons
Il

L lwi lP x 1 (
i= l

.~
"O ~
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Q)

Finalement, en prenant la racine p-me, llwllP ( llwllq n q1-;/ .


T"-f ~
0 .;a
N .....
_.
0
@ ::::1 3. Soit A E .4n,n (<C) inversible. Pour u E <C", nous avons Il u ll1 ~ n 112 11uli2 et
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
u (.)

B
0
..c::
p..

"'
~
1 D'o, llull2 ( llull1 ( n 1/ 2 llull2. D'une part en appliquant ce rsultat au vecteur
'O
0
c:: A v pour v E <C11 , il vient
::::1
0
@
llAvll2 ~ llA vll1 ~ n' 12 llA vll2
49

www.bibliomath.com
Chapitre 1 Les systmes linaires

D'autre part n 1/ 2 llvll 2 ;;?: llv lli ;;?: llvll2. Ainsi, en regroupant ces deux ingalits

Puis en passant au sup de la gauche vers la droite, nous avons

En procdant de la mme manire pour A - J, nous obtenons galement pour v E <C11


quelconque

Finalement, en utilisant la dfinition du conditionnement, nous obtenons le rsultat

En procdant de la mme manire, nous montrons le rsultat pour cond 1 et cond00 .

1.2 Nous rappelons la dfinition du conditionnement pour une matrice can A,

cond(A) = llA ll llA- ' 11

1. Par dfinition du conditionnement et de la norme matricielle, nous avons

cond(A 2 ) ll A2 ll ll (A 2)- 1 ll = ll A2 ll ll(A- 1) 2 ll


:( llAll2 ll A- 1 ll 2 = [cond(A)]2.

2. Pour une matrice symtrique cond2(A) = 1Ai 1, avec A1 la plus grande valeur
'O
111 1
0 propre en module de A et 11 la plus petite en module. Montrons que si est valeur
propre de A alors A2 est valeur propre de A 2, ce qui dmontrera le rsultat. Soit
c
::J
0 11
(\"') E Sp(A), alors il existe v E IK non nul tel que Av = Av et donc en multipliant par
...... 2 2
0
N
A, ilvientA v = A A v= A vet A2 E Sp(A 2 ) .
@
......
..c
1.3 On donne dans cet exercice une estimation du conditionnement.
Ol
:::: 1. Nous procdons en deux tapes :
>-
a.
0 ( =?) Montrons que A x = 0 =? x = 0, ce qui est quivalent prouver que A est
u
inversible. Prenons x 0 E R 11 tel que A x 0 = O. En utilisant l'ingalit (1.8), nous
avons 0 = llA xo ll ;;?: B llxo Il ;;?: O. Or, comme 8 > 0, cela signifie que llxo Il = 0 et
donc xo = O.
({::::) Supposons que A est inversible. Pour tout x E R",

50

www.bibliomath.com
Exercice s

et donc en multipliant par 80 := I/ ll A- 1 11 , il vient


11
11A X 11 ;;:: 80 11 X 11, '/ X E R

ce qui dmontre (1.8) avec 8 = 80.


Notons par 8 le plus grand des minorants. D'une part, 8 ; ?: 80 = 1/ l A- 1 li > O.
D'autre part pour y E Rn non nul, nous notons x = A- 1 y et l' hypothse (1.8)
donne
llYll = ll Axll ; ?: 8 llx ll = 8 llA- 1 Yll
Ainsi, en prenant le sup sur y E R 11 \ {O}, nous obtenons

Finalement en regroupant les deux rsultats nous montrons 8 = 1/ Il A - 1 11.


2 . Soient A E ~1 , 11 (R) une matrice diagonale dominante stricte et x E R n, notons
io E {1, . . . , n} tel que lxiol = m~x lxd,
l~/.~ 11

JI Il

Il A X Il oo ; ?: aio,ioXio +L ai ,j X j ; ?: laio,io l lxo 1 - L laio,j l lxj 1

j =l j =l
i # io dio

.~
"O ~
0 'O
c c::
::J ::::1
_.
0
"'
t
Q)
('\'")
Q)
T"-f ~
0
N
.;a
.....
_.
0
ce qui montre (1 .8) avec 8 = m.in
l~/.~ 11
( lai,i 1- .
lai, j 1) > O.
@ ::::1 1= 1
~
..c "'c:: j#i

Ol
::::
0
c:: 3. Supposons que A est inversible et cherchons une condition sur E pour que la
Q)
>-
a.
0
s..
0
matrice A + E soit inversible, ce qui quivaut (1.8). D' abord, nous avons
u (.)

B
0
..c::
p.. ll(A+E)xll ; ?: llAxll - llExll ; ?: ll Axll- llEll llxll
"'
~
1 Or, puisque A est inversible, elle vrifie (1.8) et donc
'O
0
c::
::::1
0
@

51

www.bibliomath.com
Chapitre 1 Les systmes linaires

En prenant llE ll < l / llA- 11, nous avons ll CA + E) xll ~ Cll A- 11 - - llE ll) llxll, ce
1 1 1

qui signifie que (A + E) satisfait la condition (1.8).


4. Soit A E .4;1 , 11 (IR) une matrice inversible et B E Al,1 , 11 (IR) singulire. D'aprs la
question prcdente: pour une norme subordonne quelconque si E E Al,i,11 (1R) est
telle que 11 E Il < 1/ IlA - 111 alors A + E est inversible. D ' o par contrapos, si A + E
est singulire alors 11E11 ~ 1/ 11A - 111 . Posons alors E B - A, ce qui signifie que
A + E = B est singulire et donc

llA - B ll llEll 1 1
llAll llA ll ~ 1
ll A- 11 llAll cond(A)'

S. Posons

D'aprs ce qui prcde


B = ( ~ n. A= ( ~. 0001 n
>-
ll A ll1 4
cond1(A) ::--- llA - B ll1 _ 3 = 4000,
10

ce qui signifie d'aprs cette estimation que le systme est mal conditionn. en effet,
1 3
ll All1 = 4et llA- 111 = . _ 4 , d' ocondi(A) = 60000.
2 10
Pour le second exemple, posons

B = (4
6
2)
3. )
A = ( 3, 9 1,8 )
6, 2 2 , 7 '

il vient llA - B ll1 = 0 , 5 et ll A ll1 = 10, 1, ce qui donne cond1(A) ~ 20, 2.


Il suffit de choisir B singulire et le plus proche possible de A.

"O
1.4 La mthode prsente ici est inspire de la dcomposition LU.
0
c
::J
l . Considrons A = L D L * avec D diagonale et Di,i > 0 pour tout 1 ~ i ~ n.
0 A est hermitienne A* = L DL* = A. Puis pour X E <C11 non nul,
(\"')
......
0
N x* LDL*x =y* Di,i y >0 avec y= L *x.
@
......
..c Il
Ol
::::
>-
a.
2 . det(B) = II Ri,i > 0 donc B est inversible et B- 1 est la matrice diagonale
0 i=l
u
dont les coefficients Bi,i sont donns par Bi,i = 1/ Ri,i D 'autre part, le produit
R* B - 1 donne une matrice triangulaire infrieure dont les coefficients diagonaux
1
sont (R* B- )i,i = Ri,i/ Ri,i = 1.
3. Posons L = R* B- 1 et D = 8 2 , il vient

L* = B - 1 R et A= R * R = R*B - 1 B 2 B - 1 R = LDL*.

52

www.bibliomath.com
Exercice s

Considrons deux dcompositions L 1 D 1 L r = L2 D2 L~, il vient

L21 L 1D 1 D 2 L *2 (L -l 1)*
~
matrice triangulaire infrieure matrice triangulaire suprieure

Puisque L 1 et L 2 ne contiennent que des 1 sur la diagonale, cela montre que D 1 = D2


et par la suite L 2 = L 1.
4 . Rsolvons le systme A x = L DL* x = b. En utilisant une mthode de des-
cente, calculons y E <C11 tel que L y = b. Puis, en appliquant un algorithme de
remonte, nous rsolvons le systme DL* x = y.

1.5 Nous proposons une autre mthode pour la factorisation QR.


1. Soit {a 1 , . . . , a 11 } une base de C 11 En appliquant le procd d' orthonormalisation
de Gram-Schmidt, il est possible de construire une nouvelle base orthonorme. Pour
cela posons q 1 = aif lla1Il puis construisons les autres vecteurs par la formule de
rcmTence de Gram-Schmidt
j-l

avec w1 = a1 - L (qt a1) qki 2 ( j ( n.


k= l

La base {q 1 , . . . , q11 } ainsi constmite est une base orthonorme. Exprimons alors
a i = r1, 1 q 1, avec r1,1 = l a1 11puis pour j ~ 2
j-1

a 1 = r j,J qj + L rk ,J qk
k= I

avec rJ ,j = llw.i ll > 0 et rk,J = qt a J pour 1 ( k ( j - 1.


2 . Soit A une matrice inversible, ses vecteurs colonnes forment alors une base de
.~ C 11 , les vecteurs (qi)l~i~n obtenus en appliquant le procd d' orthonormalisation de
"O ~
0 'O Gram-Schmidt forment la matrice Q
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Q)
Q = (q1' ... ' q,J '
T"-f ~
0 .;a
N .....
@
_.
0
::::1
qui est unitai re puisque les vecteurs (qi ) I~i~n sont orthogonaux. Notons alors pour
~
..c "'c:: i E { 1, ... , n} fix (qi ,J ) 1~J ~n les composantes du vecteur qJ . La matrice R est
0
Ol
::::
c::
Q)
construite partir des coeffi cients ri ,J de la question prcdente. Il vient alors
>-
a.
0
s..
0
u (.)

B q1 , 1
0 r 1, 11 )
..c::
p.. A = : : = Q R.
"'
~
1
(
qn,l rn,11
'O

0
@
0
c::
::::1
3. Il est d'abord facile de vrifier que In E T s,~ n VII . Ensuite, pour M E T n U,I
montrons que forcment M = In. En effet, M est une matrice triangulaire suprieure
s:
53

www.bibliomath.com
Chapitre 1 Les systmes linaires

vrifiant M* A = ln. En effectuant le produit, nous prouvons que les termes extra-
diagonaux de M sont nuls et les termes diagonaux valent 1, d'o M = In.
Montrons l'unicit de la factorisation QR et supposons qu'il existe ( Q 1 , R 1) et
(Q2, R1) telles que Q 1 Ri = Q 1 R2. Il vient alors

(Q2)- 1 Q 1 = R1 (Ri)- 1.

D'une part, Q21 Q 1 est une matrice unitaire et d' autre part R2 R] 1 est une matrice
triangulaire suprieure dont tous les termes diagonaux sont strictement positifs, donc
(Q2) - 1 Q 1 et R1 (Ri)- 1 Un n T s:
et d'aprs la question qui prcde

R2 (Ri)- 1 = In et (Q2) - 1 Q1 = In,

ce qui montre que la dcomposition est unique.


4 . Le systme A x = b devient Q R x = b et en multipliant par Q*, nous avons
R x = Q* b, qui sera rsolu par un algorithme de descente puisque Rest triangulaire
suprieure.

1.6 Intressons-nous maintenant aux mthodes itratives.


1. En substituant _x(k+ t) dans (1.9), il vient _x(k+I) = x (k+ I) / w - (1 - w) x(k) / w , et
donc

c'est--dire
( ~ - E) x<' 1
> = ( l : w D+ F) x<k>+ b.
2 . Posons ensuite M = D / w - E et N = (1 - w) D / w + F , il suffit alors de
prouver que p(M - 1 N) < 1. Puisque la matrice A est symtrique dfinie positive,
nous appliquons le Lemme 1.38 en vrifiant au pralable que MT + N est symtrique
et dfinie positive
"O
0
c D 1- w 2-w
::J
0 M T +N = - - E T+ D+F = D,
(\"') { { {
......
0
N
Ainsi, la matrice M r + N est symtrique et puisque A est dfinie positive, ses termes
@
...... diagonaux sont strictement positifs et donc MT + N est dfinie positive ds lors que
..c 2
Ol
:::: - w > 0, c'est--dire 0 < w < 2. Par consquent, la mthode converge lorsque
>-
a. {

u
0 0 < { < 2.

1.7 Intressons-nous la convergence d'une mthode itrative.


1. En posant B = M- 1 N = 111 - A, vrifions sous quelle condition p(B) < 1. Il
est facile de vrifier que si A(A) est une valeur propre de A, les valeurs propres A(B)
de B sont alors donnes par A(B) = 1 - A(A). Par consquent, la mthode converge
si et seulement si l1 - A(A) I < 1 pour tout A(A) E Sp(A).

54

www.bibliomath.com
Exercice s

2. En utilisant le mme critre pour l' tude de la convergence, la matrice d ' it-
ration B = M - 1 N est donne par B = l ,1 - y A et ses valeurs propres sont
A( B) = 1 - y A(A), o A(A) E Sp(A). Ce schma dfinit une mthode convergente
si et seulement si
Il - y (A) I < 1, \i (A) E Sp( A).
En choisissant 0 < y < 2/ p(A) , la mthode est bien convergente.
3. Par rcurrence nous dmontrons que

r (k+l) = Un - y A) r (k) (1.12)

et par itrations successives, ceci donne alors

x(k+l ) x(k) + y r (k ),
x(k - 1) + y r(k - 1) + y r (k),

k
x(O) +y L r (l)_

l= O

Nous obtenons donc par (1.12)

k-1
x(k) = x (O) + y L r (l)

l= O

1.8 Voici une application qui dcoule sur la rsolution d ' un systme linaire.
1. l'aide d ' un dveloppement de Taylor de la solution u au point xi, nous avons
d ' une part

.~
"O ~
0 'O
c c
::J ;:s
0 ....
('\'")
"'
Q)
et d'autre part
Q)
T"-f ~
0
N
.:a.....
@ ....0;:s
~
..c
Ol
"'c
0
::::
c
Q)
>-
a. a
u
0 0
(.) En sommant ces deux galits et en divisant par h 2 , nous obtenons
....
0
0
..s::
o..
~ "'1
(1.13)
'O
0
c
Q
;:s
Pour i E {O, ... , n + 1 }, notons vi une approximation de la solution u de l' quation
@ de Laplace au point x; . Posons vh = ( v 1, ... , v 11 ) E IR" et A la matrice symtrique

55

www.bibliomath.com
Chapitre 1 Les systmes linaires

relle de .fi,1 ,11 (~) dfinie par

2 - 1 0 0
-1 2 - 1
A= 0 0
- 1 2 - 1
0 0 -1 2

En ngligeant les termes en s (h2 ) dans l'galit (l.13), le problme di scret s'crit
Ah vh = b avec Ah = ~ A, le vecteur b E ~n est donn par b = (f(x1 ), . . . , f(x,Jl
2
et nous adoptons la convention v0 = v11 + 1 = 0 pour approcher les conditions de bords
u(x = 0) = u(x = 1) = O.
2. La symtrie est vidente. M.ontrons que A est dfinie positive : pour tout vecteur
X = (x 1 , . , Xnl de ~n,

2xf - 2x1 X2 + 2xi + . . . - 2x11 _ 1 x 11 + 2 x~ ,


11- l

+ L (Xi+t - x) + x~.
2
xf
i= I

Ainsi, xr A x est toujours positif, et ne s'annule que lorsque x = O.


3. Puisque A est dfinie positive, elle admet une factorisation L U.
4. Nous allons tirer profit de la forme particulire de A pour diminuer fortement
la complexit du calcul de la factorisation. En appliquant directement l'algorithme
d'limination de Gauss nous obtenons pour L et U

1 0 0 UJ - 1 0 0

"O
l2 0
0
c
::J
A 0 0
0
(\"')
...... 0 -1
0
N 0 0 ln 1 0 0 Un
@
.....
..c
Ol
o les valeurs des coefficients (lih~i~n et (ui)I ~i~n sont donnes par
::::
>-
a. i+1
u
0 U1 i=l , ... ,n,

i- 1
i = 2 , ... , n.

Le cot de calcul s'lve en dfinitive (2 n - 1) divisions !

56

www.bibliomath.com
CALCUL NUMRIQUE
DE VALEURS PROPRES

Ce chapitre est consacr l'approximation numrique des valeurs propres E Il{


et vecteurs propres v E IK11 d'une matrice A E .4;1 , 11 (IK) solution du systme

Av = v,

o IK est un corps (lR ou <C). C'est un problme important rencontr dans le trai-
tement des quations d'volution, d'quations diffrentielles ordinaires ou par-
tielles et dans l'tude des proprits algbriques d'une matrice comme le calcul
du conditionnement. Les mthodes sont itratives car le calcul exact des valeurs
propres est en gnral impossible pour n ;?: 5. Nous tudierons deux types
de mthodes : les mthodes partielles fournissant seulement certaines valeurs
propres et les mthodes globales qui rendent compte de l'ensemble du spectre.

2.1 QUELQUES EXEMPLES DE PROBLMES


AUX VALEURS PROPRES
2.1.1 Algorithme de Google
Dans cette partie nous proposons d'expliquer l'ide de base propose par Sergey Brin
et Larry Page pour mettre au point le moteur de recherche Google en 1999. C 'est
un algorithme mathmatique trs efficace, appel PageRank , qui dtermine le
"O
degr d'importance d' une page Web. En effet, la plupart des pages Web incluent des
0
c liens hypertextes vers d'autres pages, c'est pourquoi lors d'une requte le moteur de
::J
0 recherche slectionne les pages qui sont en adquation avec la requte en analysant le
('\"')
,..-! contenu de la page Web et, d'autre part, propose un classement des pages en fonction
0
N de leur indice de popularit. Ce dernier ne dpend pas de la consultation de la page
@
~
par les internautes mais seulement du nombre de liens qui pointent sur cette page
..c partir d'autres pages Web. C'est cet indice qui distingua Google de ses concurrents
Ol
::::
>-
a.
ds le dpart. Nous nous intressons ici au calcul de cet indice et nous allons voir
u
0 que celui-ci fait intervenir le calcul des vecteurs propres et des valeurs propres d' une
grande matrice. Pour cela, nous considrons qu' il y an pages Web au total, dans la
pratique n est de l'ordre de 8 9 milliards en 2005. La structure du Web peut tre
reprsente simplement par une matrice C E .4;1 , 11 (JR+) telle que

c . _ { 1 si. la page j pointe sur la page i,


i ,1 - 0 sinon.

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

Les liens d'une page sur elle-mme ne sont pas pris en compte, c'est pourquoi nous
posons ci,i = O.
La Figure 2.1 illustre par exemple
les liens entre quatre pages Web, il
est possible de construire une matrice
0-------0
C E .44, 4 (IR) ne contenant que des 1 ou
des 0 correspondant ce graphe :
1
1
0
1
1 0 0
0 0 Figure 2.1
0 0 Exemple de liens entre
quatre pages Web.

Nous souhaitons attribuer chaque page Web i un indice de pertinence


xi E JR+ de faon pouvoir classer l'ensemble des pages par score dcrois-
sant et prsenter l' utilisateur une liste classe des pages relatives sa requte.
Il s'agit donc de calculer l'indice xi correspondant la page i , en partant du
principe qu'un lien de la page j pointant sur la page i contribue au score de
cette dernire, avec une pondration par x J (une page ayant un indice lev a
plus de poids qu'une page n'ayant qu' un indice mdiocre) et par le nombre
total de liens prsents sur ladite page n J = l:~= I ck,J (une page ayant beau-
coup de liens a moins d'influence). La composante xi vrifie ainsi l'quation
suivante
Il
~ x
Xj = ~ C , j nJ .
J= I J

Le problme du classement des pages du Web se trouve ainsi ramen la recherche


d'un vecteur propre associ la valeur propre 1 de la matrice C dont les corn-
- c .
posantes sont (Ci,J = 7,1- ) 1 ~i,J~n Cependant, nous ne sommes pas assurs que
"O
0
1 soit valeur propre, pufsque cette matrice contient des lignes entires pleines
c de zros. C 'est pourquoi nous rajoutons des liens artificiels pondrs par 1/ n
::J
0
(V)
qui tend vers zro et considrons plutt la matrice P = (Pi ,J)J~i ,J ~n telle
,..-!
0 que
N
@
~
..c
Ol
::::
>-
a.
o d E !Rn est tel que
0
u si n .i = 0,
smon.
La matrice P est la transpose d'une matrice stochastique, c'est--dire que ses
coefficients sont tous positifs et la somme des coefficients de chaque colonne vaut
un, pour le vecteur eT = (1 , ... , 1) E IR", nous avons alors eT P = eT, ce qui
signifie que P admet bien la valeur propre 1.

58

www.bibliomath.com
2.1. Quelques exemples de problmes aux valeurs propres

Dans l'exemple prcdent, nous fabri-


quons des liens artificiels de manire
obtenir une matrice P E .44,4(JR)
Q G
dont la transpose est stochastique (voir
Figure 2.2).
1

1 1/ 2 1/ 4 )
G----------------------------0
0 1/ 2 1/ 4 Figure 2.2
0 0 1/ 4 . Exemple de liens entre
0 0 1/ 4 quatre pages Web et d'ajout
de liens artificiels.

Finalement, pour assurer que cette valeur propre est simple, nous posons
A = a P + (1 - a) te eT, o nous choisissons 0 < a < 1. Notons que
pour Google, a = 0, 85 est optimal! Nous sommes alors conduits recher-
cher le vecteur x E ]Rn tel que A x = x, c'est--dire le vecteur propre associ
la valeur propre 1 de la matrice A. En appliquant le thorme de Perron-
Froebenus, nous montrons que A admet 1 comme valeur propre simple et
p(A) = 1.
Ce systme n'est en gnral pas facile rsoudre pour n = 4, et encore moins
lorsqu'il s'agit de tenir compte de l'ensemble des pages Web et de l'ensemble des
requtes. Il faut donc rsoudre un problme aux valeurs propres avec un grand
nombre d'inconnues et pratiquement de manire instantane.
Dans la suite du chapitre, nous mettons en uvre une mthode numrique permet-
tant d'approcher la plus grande valeur propre d'une matrice (ici la valeur propre 1),
c'est ce que nous appelons une mthode partielle.

2.1.2 Mouvement de ressorts


Considrons un systme de deux
"O
0
c
billes de masse unit relies par
trois ressorts de raideur unit. ~ ~
~ ~
::J
0 Notons x 1(t) et x2 (t) les posi-
('\"')
T"-f
tions des deux billes au temps
~ ~
0
N
@
t, par rapport leur position
d'quilibre. Soient F 1(t), F2 (t) et
~ ~
~
..c
Ol
::::
F3(t) les forces appliques sur les
>- billes : ce sont les forces de rap-
~ ~
a.
0
u pel des trois ressorts. Nous allons
voir que l'tude des positions des / ~
billes au cours du temps, x 1(t) et
Figure 2.3
x2 (t), se ramne un calcul de tude du mouvement de deux billes main-
valeurs propres. tenues par trois ressorts.

59

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

Pour cela, nous crivons d'abord les quations de Newton pour les deux billes :
masse x acclration = somme des forces extrieures, ce qui se traduit par

x~'(t) = +F1(t) + F2(t),

{ x~(t) - -F2(t) + F3(t).

En considrant le cas simplifi o les forces sont proportionnelles l'allongement


du ressort, nous avons

et donc
x~'(t) = - 2x1(t) + x2(t),
{ x~'(t) = x1(t) - 2x2(t).

Cette relation peut s'crire sous forme matricielle en posant

A = ( +2 - 1 ) X1(t) )
- 1 +2 ' x(t) = ( X2(t) '

les quations du mouvement deviennent x"(t) + A x(t) = O. Le vecteur x(t) est


alors solution d'un systme d'quations diffrentielles linaire qui peut tre rsolu
de manire exacte. Les positions des billes x 1(t) et x2(t) s'crivent sous la forme
x 1(t) = a 1 cos(wt) et x 2 (t) = a 2 cos(wt), o les grandeurs a 1 , a 2 et w restent
dterminer. En substituant ces relations dans les quations du mouvement, il vient

x~'(t) = - w2 a 1 cos(w t) ,
{ x~'(t) = - w2 0:2 cos(w t).

Puis aprs simplification par cos(w t), nous avons

~~ ) ~~
"O
0 2
c
A ( = w ( ) .
(2.1)
::J
0
('\"')
T"-f
0 Le problme consiste donc chercher a 1, et a 2 tels que les deux quations ci-dessus
N
@ soient satisfaites.
~
..c Ainsi, la connaissance des valeurs propres et vecteurs propres de la matrice A ,
c'est--dire A1, A2 E ffi. et v 1, v2 E ffi.2 tels que A v 1 = A1 v 1 et A v2 = A2 v2
Ol
::::
>-
a.
0 permet de rsoudre compltement le systme diffrentiel. En effet, puisque A est
u symtrique dfinie positive, les valeurs propres A1 et A2 sont relles strictement posi-
tives, les grandeurs a 1 , a 2 et w solutions de (2.1) sont alors donnes par w = .JAi et
(0:1, a2l = vf ou w = Ji et (a 1 , 0:2) = vf. Dans le cas prsent, nous obtenons
l = 3 et V l = (1, - 1)f ou 2 = 1 et V2 = (1 , 1)T .
Nous avons considr un systme de deux billes et trois ressorts, ce qui conduit
la rsolution d'un problme de valeurs propres pour une matrice 2 x 2. Cependant,

60

www.bibliomath.com
2.2. Localisation des valeurs propres

nous pouvons gnraliser au cas du systme den billes et n + 1 resso1ts (n grand), ce


qui quivaut la recherche de valeurs propres d'une matrice de taille n x n.
Par la suite, nous mettons au point des algorithmes permettant d'approcher l' en-
semble des valeurs propres et des vecteurs propres d'une matrice, c'est ce que nous
appelons une mthode globale.
Notons que dans la pratique, il n'est pas toujours ncessaire de chercher toutes les
valeurs propres et vecteurs propres. Par exemple, pour l'tude de la rponse dyna-
mique d' un pont, il est intressant de dterminer simplement les valeurs propres cor-
respondant aux frquences induites par des pitons marchant sur ce pont.

Dfinition 2.1
Soit A E .4,1 ,n(K.), nous appelons lment propre le couple form d'une valeur
propre et d' un vecteur propre associ : (A, v) E K. x K.11 tel que Av = v.

Nous prsentons d'abord quelques rsultats intermdiaires sur la localisation des


valeurs propres. Puis poursuivons avec la mthode de la puissance qui permet d' va-
luer la plus grande des valeurs propres. Cet algorithme est d'ailleurs utilis par le
moteur de recherche Google pour le calcul de l'indice de pertinence. Enfin, nous pro-
posons de dcrire brivement les mthodes de Jacobi et Q R pour le calcul numrique
des valeurs propres et des vecteurs propres d'une matrice quelconque.

2.2 LOCALISATION DES VALEURS PROPRES


Dans la premire partie, nous donnons quelques rsultats gnraux sur la localisation
des valeurs propres puis illustrons rapidement les problmes de stabilit que nous
pouvons rencontrer dans l'approximation des lments propres.

2.2.1 Approximation des valeurs propres


.<;::::
"Cl ~
Commenons par noncer un rsultat, facile dmontrer, qui pourra se rvler utile
0 "O
c c par la suite pour le calcul d'lments propres.
::::>
Cl ....:::i
(V)
"'
~

.-1 ~
'V
Thorme 2.2 Thorme de Gershgorine
0 .~
N
0""'
....
@ :::i Soient A E .4,1 , 11 (K.) et E Sp(A) une valeur propre de A. Il existe un indice
. :
.c. c
0
i E { 1,. . . , n} tel que
IA- ai,d ~ L la;,j l,
0)
;:: c
~
>-
o.. a.
0
0 J# i
u (.)
0
0
..s::::
o.. c'est--dire que toutes les valeurs propres E Sp(A) se trouvent dans
~
~
D = u~ '== 1 V; avec
1

1
"O

Q
0
c
:::i 'D, - { E IC,
@

61

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

La dmonstration est prsente dans l'Exercice 2.4.


Ce thorme fournit une premire estimation de la localisation des valeurs propres
de la matrice A. Cependant, il ne fournit pas un algorithme pour le calcul des valeurs
propres. Avant de construire des mthodes d'approximation, tudions la sensibilit
des valeurs propres par rapport aux coefficients de la matrice. Autrement dit, une
petite variation sur les coefficients de la matrice A implique-t-elle une forte variation
des valeurs propres de A ?
Il arrive en effet que suite des erreurs d'arrondi, les coefficients d'une matrice
A = (a; ,j ) 1~J , j ~n ne soient pas connus de manire exacte. Supposons que les coeffi-
cients vrifient

avec Ici, j 1 ~ 1 et le paramtre e est de l'ordre de la prcision de l'ordinateur et


est suppos trs petit. Lorsque nous voulons calculer une approximation des valeurs
propres de la matrice A, il est trs important d' tudier l'influence qu'auront ces per-
turbations chaque tape du calcul. Montrons pour cela le rsultat suivant.

Thorme 2.3 Stabilit des valeurs propres

Soit A E .4,1 ,n(IK.) une matrice diagonalisable : il existe U E .4,1 , 11 (IK.)


inversible et telle que u - 1 AU = diag(A;), o est valeur propre de A.
Notons A(e) = A + e C, la matrice donne par ai,j(e) = a i,j + eci ,j o
C E .4,1, 11 (IK.) quelconque. Alors pour chaque valeur propre A(e) de A(e), il
existe un i E Sp(A) vrifiant

IA(e) - A;! ~ e condoo (U) llC lloo .

DMONSTRATION. Soit A(s) une valeur propre de la matrice approche A(s).


"O
0
c D'abord, transformons la matrice A(e) de manire avoir une reprsentation de la
::J
0 matrice A sous sa forme diagonale :
('\"')
,..-!
0
N
@
u- 1 A(e)U = u - 1 AU+ eu - 1 CU.
~
..c
Ol
::::
>-
Notons par ei ,j les lments de u- 1 CU et appliquons le Thorme 2.2 la matrice
u
a.
0 u- 1 A(s) U , ce qui implique l' existence d'un indice i tel que
Il

j= I
j=;fi

62

www.bibliomath.com
2.2. Localisation des val eurs propres

Or, (U - 1 A(e) U)i ,i = i + e eii, o i est une valeur propre de A. L'ingalit trian-
gulaire donne alors

En rassemblant les deux dernires ingalits, .il vient


Il

IA(e) - l ( e L lei,j l + e leii l


j = I
j#i
Il

s .2:: 1ei,j 1
.i = l
/1.

( s max
l ~ i ~ ll .
L lei j
,
1
j=l
1
ellU- C U lloo ( econdoo(U) ll C lloo ,

ce qui dmontre l'nonc du thorme. o


2.2.2 Ce qu'il ne faut pas faire!
La premire mthode que nous proposons tait dj utilise par Joseph Louis
Lagrange 1 pour calculer les valeurs propres d' une matrice. Elle consiste d'abord
calculer les coefficients du polynme caractristique P(A) = det(A - !11 ), puis
dterminer les racines de ce polynme P() = (-1)11 11 +a11 _ 1n- I + . . . + a 1 + a 0 .
Si la dimension de la matrice A est trs petite (disons n ( 3) ou si nous faisons le
calcul en arithmtique exacte, cet algorithme peut tre trs utile. En revanche, si nous
faisons le calcul avec des erreurs d'arrondi, cet algorithme peut donner de mauvaises
<;:::: surpnses .
"Cl ~
c
0 "O
c
Considrons, par exemple, le problme du calcul des valeurs propres de la matrice
::::>
Cl ....:::i diagonale A = diag(l , ... , n), dont le polynme caractristique est
(V)
"'
~
~
.-1 'V
0
N
.~ P(A) (1 - A) ... (n - A),
0""'
....
@
.
:::i
: ( - l) n. n +a11- 1n- 1 + . . . +a1 +ao.
.c. c
0) 0
;:: c
~
>-
o.. a. Supposons de plus que les coefficients calculs ne soient pas connus de manire
exacte mais i = ai ( l + Bi) avec lei 1 ( e : : : : 1o- 8 . Nous calculons alors les racines
0 0
u (.)
0
0
..s::::
o..
d' un polynme P(A) form par les coefficients (i )o~i ~n-L La perturbation des coef-
~
~ ficients provoque une grande erreur dans le calcul des racines du polynme.
1
"O
0
c
:::i
Q 1. Mathmaticien franais et italien (1736-18 13). Il est l'un des fondateurs de l'cole polytechnique o
@ il enseigna J'analyse.

63

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

Les rsultats numriques pour /\


n = 13 sont reprsents sur la 0 Racines de P
Figure 2.4 pour les polynmes x Racines de P
P(A) et P(A) et quelques racines
sont reportes ci-dessous. +2
0
+1 0 0
Racines Racines
de P(A) "
de P(A)
8 8,086 + l,OOli 1 2 3 4 5 6 7 8 9 10 11 12 13
-1
9 8,086 - l,OOli 0 0
10 10,439 + 1,683i -2 0
11 10,439 - 1,683i Figure 2.4
12 13,105 + 0,963i Racines de P() et d'une petite perturbation
P() pour n = 13.
13 13,105 - 0,963i

Les sept premires racines de P et P sont relativement proches les unes des autres
avec une erreur de l'ordre de io- 4 . En revanche, pour les racines suivantes, l'erreur
est de l'ordre de 1, ce qui est largement suprieur la perturbation des coefficients
qui est de l'ordre de 10- 8 .
En conclusion, il faut viter le calcul des coefficients du polynme caractristique
car un tel algorithme est numriquement instable.

2.3 MTHODE DE LA PUISSANCE


2.3. 1 La mthode
La mthode de la puissance est une mthode numrique qui permet de dterminer
une approximation de la valeur propre A1 de module maximal d'une matrice relle
"O
0
A E .4,1 ,11 (lR). Nous supposons que A1 est de multiplicit p , avec de plus,
c
::J
0
('\"')
,..-!
0
N
@ Soit xo E OC.11 un vecteur colonne quelconque, en esprant que xo ne soit pas ortho-
~
..c
Ol
gonal l' espace vectoriel Ker(A - A1l n) (nous trouverons une explication de cela
::::
>- dans la preuve du Thorme 2.4) et pour k ~ 0 calculons la suite rcurrente (x <k))kEN
a.
0 telle que
u
x<O) = xo E oc.11 ,
{ x <k+l) = A x<k), k E N. (2.2)

Notons bien que d'un point de vue pratique la mthode de la puissance ne peut pas
tre implmente en l'tat car elle pourrait conduire un overflow , c' est--dire
que les valeurs llx (k+l) Il sont susceptibles de devenir de plus en plus grandes. Pour

64

www.bibliomath.com
2.3. Mthode de la puissance

remdier cela et pour fixer la norme du vecteur bmite de la suite (x(k))kEN, nous
ajoutons une tape de renormalisation de sorte qu' il existe } k+ 1 E { 1, . . . , n } tel que

x\k+I) = llx(k+l) ll = 11 (2.3)


) k +l OO

c' est--dire que nous fixons la norme li1100 de chaque itr gale 1.
Plus prcisment, la mthode s'crit sous la forme suivante. Pour e > 0 un petit
paramtre fix et x 0 E R 11 ,
Mthode de la puissance
Poser J.0) = xo, k = 0 et e(o) = 2 e .
Tant qu e e (k) ~ e
- ca l c uler fk+ 1) tel que fk+ 1) = Ax(k) .
- normalise r l e r su l ta t x <k+ 1>=fk+ 1>/c k+1 o Ck+1 est
t el qu' i l ex i ste Jk+1 E {1 ,. . .,n} vrifi ant
x( k+1) = ll x(k+1>11 = 1
Jk+1 OO '
- calcu l er une approxima tio n de l a va l eur propre
a(k+1) = (A i k+1>) .
fJ J k+l
- ca l c uler un rs i du : e(k+1>= lf3(k+1>- f3(k} I ,
- itrer k+-k + 1.
Fin de t ant qu e

Cette mthode permet ains.i d' approcher la valeur propre de module maximal et
un vecteur propre associ de norme gale 1. Cependant, la convergence d' une telle
mthode n'est pas toujours assure.

2.3.2 Un rsultat de convergence


Montrons par exemple un rsultat de convergence de la mthode de la puissance pour
les matrices diagonalisables .
<;::::
"Cl ~
"O
c
0
c Thorme 2.4 Convergence de la mthode de la puissance
::::>
Cl ....:::i
(V)
"'
~
Soient A E .4,1 ,n(R) une matrice diagonalisable dans OC et A1 la plus grande
~
.-1 'V
0
N
.~ valeur propre en module de multiplicit p ~ l. Supposons qu' il n' y ait pas de
0""'
@ ....
:::i valeur propre E Sp(A) telle que # 1 et IAI = IA1I
:
Si Xo E OC11 est tel que Xo 1- Ker(A - 1 Inl Alors la suite (x(k))kEN, fournie
.
.c. c
0) 0
c
;::
~ par l'algorithme (2.2)-(2.3), converge vers un vecteur propre x E ocn associ la
>-
o.. a.
0 0 valeur propre A1 : A x = A1 x .
u (.)
0
0
..s::::
En outre la suite 13<k) converge vers A1 .
o..
~
~
1
"O
0 D MONSTRATION . Comme la matrice A est diagonalisable dans OC, il existe une
c
Q
:::i
base norme de vecteurs propres ( vi ) 1~i ~ 11 Pour 1 ( i ( n , notons par ; la valeur
@ propre associe au vecteur propre vi , c' est--dire A vi = i v i .

65

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

De plus, ordonnons les valeurs propres de sorte que 1 = .. . = P et

o p dsigne la multiplicit de A1.


Le vecteur x 0 E K 11 s'crit alors dans la base {v 1 , ... , v11 } , c'est--dire il existe
~ Il .
(ai ) 1~i ~n c K tels que xo = u i = l a i v' et donc

Il

A xo = L a i i v i .
i =l

En appliquant une premire fois l'algorithme de la puissance (2.2), nous obtenons


d'abord zO ) = A x 0 , puis construisons x O) par une tape de normalisation. En notant
.h E {1 ... , n} tel que l z}~) I = llz(l)lloo, nous posons
z ( I)
x <l) = - l
avec cl = z<.1
'JI
) r_j_ 0 J
C1

ce qui donne x)~ ) = llx(l)lloo = 1. En utilisant l' criture de xo dans la base forme
par les vecteurs propres ( vi) 1~i ~ 11 , nous obtenons

l
x( ) = -
Ct
1
A xo = -
1
CJ
L
.
Il
ai i v .
i

t= l

Ainsi en appliquant l'algorithme (2.2), nous obtenons l'issue de la k-me tape

g Puis, en notant }k E {1 ... , n} le plus petit indice vrifiant l z}~)I = llz(k)ll 00 , nous
i5 construisons le vecteur x (k) ,
(V)
,..-!
0

r_j_ 0
N
@ avec ck -- (k)
zA
~
..c
Ol
::::
>-
a.
0
de sorte que x)~) = 1 = llx(k)lloo En factorisant par ~, il s'crit encore
u

X
(k ) -
- ---
~ ~
L.J a i ( i) i
- k
V . (2.4)
CJ ... Ck . t
t= I

Nous voulons dmontrer que ce vecteur tend vers un vecteur propre de A associ
1 Pour cela, notons d'abord qu' il n' existe pas de valeur propre la fois diffrente de

66

www.bibliomath.com
2.3. Mthode de la puissance

A1 et de mme module. Posons alors P. E { l , ... , n} l'entier vrifiant A1 = ... = ~


, puis z := 2:f= 1 ai vi. Nous obtenons une nouvelle criture de xC .)
et IAp+1 I < IA11
telle que
__ Ak
1_z + Ak
1
Il
ai \ i.1 L
vi .
(A)k
(2.5)
C1 Ck C1 .. . Ck /\.
1= p + l

L' ingalit triangulaire permet d'tablir

et puisque limk- oo (Ai/ A1 / =, pour tout i ~ p+ 1, ceci assure que 1 ~'.ck l llzlloo ( C ,ci
o C > 0 est une constante ne dpendant pas de k E N. Par consquent, pour tout
k
k ~ 0, la suite complexe ( -C 1 A. 1-Ck z)kEN est borne.
D'autre part en prenant la norme 1111 00 et en passant la limite dans (2.5), nous
obtenons, compte tenu de ce que nous venons de dmontrer,

Il

G:r
Ak
1= 1im llx(k)lloo lim 1
z + 2.:.:: ai vi
k -+oo k ->+00 C1 ... Ck
i= p+I
OO
Ak
1
lim
k ->+00 CJ ... Ck
llzlloo

Notons alors JE {1, ... ,n} le plus petit indice tel que lz;I = llzlloo et posons
x = z/ z ~ le vecteur colinaire z tel que llxlloo = 1 = x;. Puisque la suite vecto-
rielle (xd)hENest borne dans l 00 , il existe une sous-suite convergente. En crivant
simplement (2.5) pour la composante J E { 1, ... , n}, il vient alors pour une sous-
suite extraite convergente, toujours note (xC k)hEN,
.<;::::
"Cl ~
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
1 = x; = lim x\k) = lim At z; ,
~
.-1 'V
0 .~
k-+oo 1 k - +oo C J Ck
N
0""'
....
@ :::i
. : d 'o
.c. c
0) 0
c
1
;::
~
lim
>-
o.. a.
0
k- oo CJ ... Ck z ~
J
0
u (.)
0
Ceci signifie que toutes les sous-suites extraites convergentes ont la mme limite,
0
..s::::
o.. c'est donc toute la suite (x<k))kEN qui converge vers le vecteur x .
~
~
1
tant donn que les vecteurs (vi)J ~i ~ p sont des vecteurs propres associs la valeur
"O
0 propre A.1, nous vrifions facilement que A x = A1 x. Assurons-nous galement que
c
Q
:::i
x i= Ooc,, . En effet, puisque x 0 ~ Ker( A - A1/ ,i)1-, il existe donc 1 ( j 0 ( p tel que
@ aj0 i= O.
67

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

Enfin, montrons que la suite (/3(k))kE N converge bien vers la valeur propre A1 . Par
constmction, nous avons 13<k) = (Ax<k))jk' o } k est l' indice tel que xj~) = 1, ceci
montre bien que la suite (f3(k)hEN tend vers A1 puisque la suite (x<k))kEN converge
vers le vecteur propre x associ la valeur propre 1, elle vrifie, par continuit de
l'application norme, (A x <k) )jk --4 (A x)J = A1, lorsque k --4 oo. D
Des problmes de convergence peuvent survenir en utilisant la mthode de la puis-
sance lorsque la valeur propre de module maximal n'est pas unique.
Exemple
Lorsque IA1 1 = IA2 I avec A2 = - A1 ou A2 = X1 , la mthode ne converge pas for-
cment. Nous pouvons co nstater certaines de ces difficults en calcu lant la suite
(x<k> )kEN pour les exemple s suivants

~).
1 1 0
0
( 0
0
1
0
0
0
- 1
0
iJ
0 0 -1

Pour la premire matrice, l'ensemble des valeurs


k x<k> llx<k> lloo
propres est donn par {- 1, 1} mais la mthode
de la puissance ne converge pas lorsque nous (1 , 0 , 1, 1)r 1
0
choisissons x<0> = (1 , - 1)r.
Dans le second cas, les valeurs propres sont 1 (1 , 0, - 1, - 1)r 1
{- 1, - 1, 1, 1} et la mthode de la puissance donne
les rsultats prsents ci-contre. Ici (x<kl h EN ne 2 (1 , 0 , 1, 1)r 1
converge pas vers un vecteur propre de A lorsque 3 (1 , 0, - 1, - 1)r 1
k tend vers l'infini.

2.4 MTHODE DE JACOBI


"O Nous cherchons dterminer numriquement les valeurs propres et vecteurs propres
0
c
::J
d'une matrice A symtrique relle (A r = A). Nous savons qu'une telle matrice est
0 diagonalisable, c'est--dire qu'il existe une matrice relle et orthogonale V telle que
('\'")
T"-f
0
D = ur A V soit diagonale, la diagonale tant compose des valeurs propres de A.
N
La diagonalisation consiste donc trouver la matrice V, c'est--dire trouver une
@
~ base dans laquelle la reprsentation de A est diagonale.
..c
Ol
:::: Commenons par un exemple simple en dimension deux et gnralisons ensuite le
>-
a. procd aux dimensions suprieures.
0
u
2.4.1 Cas de la dimension deux
Soient A E .42 ,2 (1K) une matrice symtrique et P une matrice de rotation

A=(af3 {3.)
'}' '
p = ( cos(8) sin(8) )
- sin( 8) cos( 8)

68

www.bibliomath.com
2.4. Mthode de Jacobi

Nous dcidons de choisir e pour que la matrice PA pT soit diagonale. Pour cela,
notons A (O) = A et calculons

A (') = p A (0) p r = ( ;: ~: ) ,

il suffit donc de chercher pour quel angle 0 E [O, 21T] le coefficient /3' devient nul.
Vrifions alors que 0 donn par
COS 2e - SJ.n2 e a-y
cotan(20) =
2 cos e sine 2 /3
convient et implique /3' = 0, ce qui donne une matrice A (l) diagonale. En particulier,
puisque P est une rotation, c'est donc une matrice orthogonale et elle conserve la
norme de Froebenus (dfinie au Chapitre 1 par (1.2)), d'o
a'2 + 2 13 12 + y'2 = a 2 + 2 132 + y 2.
Ainsi, le fait d'annuler le coefficient /3' implique que cx'2 + y'2 ) a 2 + y 2 . En dfi-
nitive, la mthode de Jacobi va consister accrotre la somme des carrs des termes
diagonaux et diminuer la somme des carrs des termes extradiagonaux. En dimen-
sion deux, une seule tape suffit diagonaliser une matrice A symtrique, la matrice
A <n contient les valeurs propres de A et les vecteurs colonnes de P fournissent les
vecteurs propres de la matrice A.
Voyons maintenant comment tendre cette mthode aux dimensions suprieures.

2.4.2 Cas gn ral


Chaque tape k de la mthode de Jacobi consiste construire une matrice A (k)
partir de la matrice prcdente A (k - 1) et d'une matrice de rotation choisie de faon
annuler des lments non diagonaux de A Ck-l)_ Une rotation, d' un angle 0 dans le
plan dfini par les vecteurs d'indices p et q avec q > p, est donne par la matrice
orthogonale (rotation de Givens)

"Cl
.<;::::
~
1, si i = j , avec j =I= p,j =I= q,
"O . . . . .
cos e,
0
c
::::>
c Sl l = .J = p OU l = .J = q ,
Cl ....:::i
(V)
..-1
"'
~
~
( P pq ) ; ,j sine, si i = p et j = q ,
'V
0
N
.~
0'""'
- sin 8, si i = q et j = p,
@ ....
:::i
. :
c
0, smon.
.c. 0
0)
;:: c Nous avons aussi
~
>-
o.. a.
0 0 l p-1 0 0 0
u (.)
0
0
..s:::: 0 cos 8 sine
o..
~
~

1
P pq = 0 0 l q-p-1 0
"O
0
c
0 - sine cos e 0
:::i
Q 0 0 0 J,,_q
@

69

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

La matrice Ppq E .A,1 , 11 (1~) ainsi construite satisfait les proprits suivantes.

Lemme 2.5
La matrice P pq vrifie les proprits suivantes.
Pour la norme de Froebenus donne par ll AIl F = J tr(A *A),
n
llPpqll} = L l(Ppq)i,.i l2 = n.
i,j = l
La matrice P pq est orthogonale, c'est--dire P pq P~~ = In.

DMONSTRATION. Le premier rsultat est vident

Il P pq Il} = (n - 2) x i2 + 2 x (cos 2 8 + sin2 fJ) = n .

D'autre part en crivant le produit P pq P~~ et en effectuant un produit matriciel par


bloc, nous obtenons le rsultat Ppq P;q = 111 D

Posons alors A (O) = A puis pour k ~ 0, calculons par rcurrence A (k+l)


comme la rotation de A(k) par la matrice de rotation P pq, A(k+l) = P pq A (k) pT
pq
La reprsentation de la matrice A (k+l) = (af~J 1 ) ) 1 ~i,j~ 11 , qui reste symtrique
dans la nouvelle base obtenue aprs rotation s'crit en posant c = cos fJ et
s =sin fJ
(k)
ai,.i ' si j =J p , q et i =J p, q ,

si j = p avec i =J p , q ,

"O
al(k+l)
..
cai~~ + sai~~, si j = q avec i =J p, q,
,J
0
c c 2 a(k)
p,p + s2 a<k)
q,q - 2s c a<k)
p,q, si i = pet j = p,
::J
0
('\"')
T'-f
s 2 a<k) 2
p ,p + c a<k)
q,q + 2s c a<k)
p ,q, si i = q et j = q ,
0
N
@ (c2 - s2 )a<k)
p,q + cs(a<k)
p ,p - a<k)
q,q ) ' si(i ,j)=(p , q)ou(i , j) = (q ,p).
~
..c
.gi Observons que seuls les lments sur les lignes et colonnes p et q sont modifis.
~ L'ide consiste alors choisir l' angle de la rotation de faon annuler le terme a~~;I),
u ce qui conduit

(k) - (k)
cos2 fJ - s 2 aq ,q ap ,p
cotan(2 fJ) = (k)
2cs 2 a p ,q

mais ce choix modifie les autres lments non diagonaux.

70

www.bibliomath.com
2.4. Mthode de Jacobi

Nous rsumons les modifications induites par la rotation dans la proposition sui-
vante:

Proposition 2.6

Supposons que la matrice A (O) = A soit symtrique. Alors pour tout k ~ 0 nous
construisons la matrice A (k+t) = P pq T A (k) Ppq. laquelle est symtrique et vrifie
llA(k+l)llF = ll A(k) llF
D ' autre part, en notant s <k+I) la somme des carrs des termes diagonaux de A (k+l),
nous avons
Il

s<k+1) := L [aj~t t) ]2 = s <k) + 2 [a~k.~ ]2 ~ s <k) .


i= l

DMONSTRATION. D ' une part, nous rappelons que llA ll} = tr(A A *), ce qui signi-
fie en particulier pour toute matrice A , si U est orthogonale llAU llF = ll A llF D 'o
le rsultat pour A (k+t) et A (k), llA(k) llP = ll A(k+l)llP Ensuite, en calculant la somme
des lments extra-diagonaux au carr, il vient

~
L...t l a ~k:l)l 2
t ,}
~
L...t ( ~
L...t l a ~k~l 2 + (ca~k) - s a~k))2 +(ca~k) + sa~k))2)
l ,j t ,p 1,q t ,q i ,p
i,j= l i= I j= I
i=h i #p ,q j#i ,p,q
n

i ,j = I
i# j

En combinant ce dernier rsultat avec la conservation de la norme de Froebenus, nous


avons donc s <k+I) = s <k) + 2 [a~k.~ ] 2 . D

Nous vrifions que la somme s<k) crot lorsque l'itration k augmente et est borne
.<;::::
par la somme des cairs de tous les termes, c' est--dire la norme de Froebenus de
"Cl
0
~
"O
Il A Il} . Ainsi, pour une matrice A E .,$1,1, 11 (lR) donne et un petit paramtre e > 0
c c fix, la mthode de Jacobi s'crit sous forme compacte:
::::>
Cl ....:::i
(V)
"'
~
Mthode de Jacobi pour le calcul de valeurs propres
~
.-1 'V
0
N
.~ Poser A<0l =A , k = O.
0""'
....
@ :::i Tant que max 1 aP(k)q 1 ....._
-;::::- s
. : P#q ,
.c. c - chercher Po , qo E { 1, ... , n} te l que Po :f= qo
0) 0
;:: c
>- ~
a. 1a~~,q0 1 = max{I a~lq l, p, q E {1,. .. , n}, p :f= q} .
o..
0 0 - constr uire l a mat ri ce orthogonale p( k} := Pp0 q0
u (.)
0
0 de ro t at i on d ' an gl e 8 te l que
..s:::: 2 . 2 (k} (k}
o..
~
cot an(2 8) = cos 8 - si n 8 = a qo,qo - a Po.Po '
~ 2 cos 8 sin() 2 a(k}
1 Po,qp_
"O
0
- const ru i re la matr ic e A(k+i)=(Pk)) T A(f.Jp(k>,
c
Q
:::i - itre r k~k + 1 .
@ Fin de t ant que .

71

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

En appliquant ce procd une matrice de dpart A E .4;1, 11 (IK), les itrs suc-
cessifs vont converger vers une matrice diagonale D ne contenant que les valeurs
propres de A sur sa diagonale.
La mthode de Jacobi fournit galement les vecteurs propres de A. En effet, pour
(, x) un lment propre de A, il vrifie A x = x . L'application de la mthode de
Jacobi donne
A (k+O = ( p <k)l A (k) p <k),

o p (k) est une matrice de rotation et donc par rcurrence en notant Q(k) la matrice
orthogonale dfinie par Q (k) := TI~=O p U>, il vient A<k+I) = (Q(k)f A Q(k). En
notant y<k+l) = (Q(k)f x, nous avons A (k+l) y<k+I) = y<k+I), ce qui signifie que y<k+I)
est vecteur propre de A (k+l). Puisque A (k+l) converge vers une matrice diagonale D
dont les vecteurs propres sont les vecteurs de la base canonique, le vecteur propre
x de A est donn par x = limk--.oo Q (k) ei o ei est le vecteur de la base canonique
associ la valeur propre , c' est--dire D i ,i = .
En dfinitive la mthode de Jacobi pour l'approximation d'lments propres est
une mthode itrative, c'est--dire que la convergence est asymptotique lorsque k
tend vers l'infini. Nous montrons alors le rsultat gnral suivant [7].

Thorme 2. 7 Conver ence de la mthode de Jacobi


Soient A E Al,1 , 11 (1R) une matrice symtrique et (A (k))kEN c .4;1 , 11 (1R) la suite
dfinie par la mthode de Jacobi. Alors la suite ( A(k))kEN converge vers une
matrice diagonale D ne contenant que les valeurs propres de A. De plus, les
vecteurs colonnes du produit des matrices de passage P pq constmites chaque
itration convergent vers les vecteurs propres associs.

2.5 LA MTHODE QR POUR LE CALCUL DES VALEURS


PROPRES
"O
0
c
::J Nous avons dj vu au Chapitre 1 [section 1.3.4] qu'une matrice A inversible admet
0
('\"') une factorisation Q R avec Q une matrice orthogonale Q T Q = In et R une matrice
T"-f
0
N
triangulaire suprieure. La mthode Q R pour la recherche de valeurs propres est
@ donne pour A E Al,1 ,n(lR) et e > 0 un petit paramtre fix,
~
..c Calcul de l'ensemble des valeurs propres par la mthode OR
Ol
::::
>- Poser A<0l =A et k =O.
a.
0 Ta nt que max i:;J la(i~l) ~ e
u
- ca l culer ~tj et dtj te l les que
A<k> = dkl ~k>
- calculer A(k+1> par
A<k+1> = R(kl d kl ,
- itrer k+- k + 1.
Fin de ta nt qu e .

72

www.bibliomath.com
2.5. La mthode QR pour le calcul des valeurs propres

La matrice A (k) est alors cense converger vers une matrice diagonale ne com-
prenant que les valeurs propres de A. Plus prcisment, nous avons le rsultat sui-
vant [25]

Thorme 2.8 Convergence de la mthode QR


Soit A E ~i,nO~)
une matrice dont les valeurs propres ()I~i~n sont telles que
IA11 > ... > IA11 I > O. Alors la suite des termes diagonaux de matrices (A (k))k
construite par la mthode QR donne ci-dessus converge vers les valeurs propres
deA
lim diag(A (k)) = (1, ... , n)
k - Hoo

Si de plus A est symtrique, alors la suite (A (k)) converge vers une matrice dia-
gonale.

Nous prsentons dans la Figure 2.5 une illustration de ce que donne cet algo-
rithme de factorisation Q R pour une matrice symtrique alatoire. En quelques itra-
tions l'algorithme converge vers une matrice diagonale contenant les valeurs propres
approches et les coefficients extradiagonaux sont en dessous d' un seuil e > 0
fix.
40~~~~~~~~~~~~ 40

~
35 18 35
16

nr
30 14 30
12

~-i
25 10 25
8
20 6 20
4
15 15

10 10

5 5
"Cl
0 5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40
c
::::i
0 40 40
(V)

~ ~
35 12 35 12
.-1
0 10 10
N 30 8 30 8
@ 6 6
25 4 25 4
.
..c 2 2
Ol 20 0 20 0
;:: -2 -2
>-
a. 15 15
0
u 10 10

5 5

5 10 15 20 25 30 35 40 5 10 15 20 25 30 35 40

Figure 2.5
Illustration d es itrations success ives obtenues par la mthode Q R pour une
matrice A symtrique alatoire.

73

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

En partant d'une matrice pleine alatoire A E M40 ,40 (ffi.), les images de la
Figure 2.5 reprsentent diffrentes itrations. Aprs seulement 6 itrations, la matrice
A (6) contient un fort pourcentage de coefficients extradiagonaux en dessous du seuil
fixs = 10- 4 mais pour obtenir que l'ensemble des coefficients extradiagonaux soit
en dessous de e, cela ncessite environ 200 itrations.

Exercices

2.1 Valeurs propres complexes de matrice coefficients rels


Ce premier exercice cherche simplement illustrer le fai t qu'une matrice coeffi-
cients rels peut avoir des valeurs propres complexes.
l . Dterminer les valeurs propres de la matrice

2.2 Proprits des valeurs propres 1


Nous disons que deux matrices A et B sont semblables s'il existe une matrice P
inversible telle que B = P A p - 1 .
1 . Montrer que deux matrices semblables ont les mmes valeurs propres.

2.3 Proprits des valeurs propres Il


Soient pet n des entiers naturels non nuls tels que n ~ p, et soient A E .4,1 ,p (ffi.) et
B E .dp, 11 (ffi.).
-0
0
c 1. M.o ntrer que A E C \ {O} est valeur propre de AB si et seulement si elle l' est de
::J
0 BA.
(V)
..-1
0
2. Montrer que si = 0 est valeur propre de AB alors est valeur propre de BA .
N
@
. Il est recommand de distinguer les cas Bx =!= 0 et Bx = 0, o x est le vecte ur
.c
propre associ la valeur propre A= 0 de A B. Pour le second cas, distinguer selon

~
O'I
::: que lmA = IRn ou non.
>-
a.
0
u
3. Montrer, en prenant par exemple n = 1 et p = 2, que peut tre une valeur
propre de B A sans tre valeur propre de A B.
4. Supposons que n = p, en dduire que l'ensemble des valeurs propres de A B est
gal l'ensemble des valeurs propres de la matrice BA.

74

www.bibliomath.com
Exercices

2.4 Thorme de Gershgorine


Soient A E .4,1,11 (IK.).
1. Montrer que pour tout vecteur propre v E IK11 de A et sa valeur propre associe
E Sp(A), lvi l = max lvj l vrifie
1~ j~n

n n
~ Vj
~ ~ai ,j -l
v I I - a/.,/.1
j= I j = I 1
j -::1-i # i

2 . En dduire que Sp( A) c U~'= 1Vi avec

2.5 Localisation des valeurs propres Il


Considrons une matrice A diagonalisable par la transformation p - 1A P et B une
matrice quelconque.
1. Montrer que
Sp(A + B) = Sp(D + p - 1BP) ,
o D est la matrice diagonale constitue des valeurs propres de A. 2. Montrer alors
que les valeurs propres de A+ B appartiennent l'union des disques

o i est une valeur propre de A et K 00 = cond00 (P) .


.~
"O ~ 2.6 Convergence de la mthode de la puissance inverse
0 'O
c c:: Soit A E .4,1,11 (1~.) une matrice symtrique dfinie positive n'ayant que des valeurs
::J ::::1
0 _. '
('\'")
"'
Q) propres simples. A partir de la mthode de la puissance, nous souhaitons calculer la
valeur approche de la plus petite valeur propre 11 > O.
Q)
T"-f ~
0 .;a
N .....
@
_.
0
::::1
1. Quel est le lien entre les lments propres de A et A - 1 ?
~
..c
Ol
"'c::
0
2 . En s'inspirant de la mthode de la puissance, proposer alors une mthode num-
c::
:::: Q) rique pour le calcul approch de la plus petite valeur propre de A .
>-
a. s..
u
0 0
(.) 3. M.ontrer que cette mthode fournit une suite qui converge vers 11
B
0
..c::
p.. 2.7 Approximation des valeurs propres du Laplacien
"'
~
1
Cet exercice est consacr la thorie spectrale des quations aux drives partielles,
'O
0
c::
c'est--dire la recherche des valeurs propres et des fonctions propres d'une qua-
0
::::1
tion diffrentielle. Jusqu' prsent, nous avons dfini la notion de valeur propre et de
@ vecteur propre pour une matrice A E .4,1 , 11 (IK.) mais nous pouvons gnraliser cette

75

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

dfinition un oprateur diffrenti.el en dimension infinie. Cela permet d' tudier des
solutions particulires (dites oscillantes en temps) d'un problme d' volution et de
construire des mthodes de rsolution. Plus prcisment, nous recherchons une fonc-
tion u et une valeur propre E lR telles que le couple (u , ) satisfait l'quation de
Laplace suivante
- u"(x ) = u(x) , x E]O, 1[, (2.6)

avec les conditi.ons aux limites u(O) = u(l) = O.

Observons qu'ici la rsolution est explicite en utilisant les sries de Fourier coef-
ficients rels et les fonctions de bases x !--' sin(k1T x). Nous trouvons alors

2 2
k =k 1T ' 'Pk(x) = sin(k 1T x).

En dcomposant l' intervalle [O, 1] en sous-intervalles rguliers [x i , X+ I] avec


i = 0, ... , n, les points xi sont donns par xi = i h avec h = 1/ (n + 1) et n est le
nombre total de points de discrtisation.
1. Soit v h = (v 1 , , v 11 ) E JR11 , o la composante V dsigne une valeur approche
de u(xi ) la solution de (2.6).
l'aide d'un dveloppement de Taylor, montrer que (vh, h ) E JR11 x lR est solution
de l'quation algbrique

o Ah = : 2
A E .fi,z,11 (.IR) o A est donne par

2 - 1 0 0
- 1 2 - 1
-0
0
c
::J
A= 0 0 (2.7)
0
(V)
...--1
-1 2 -1
0
N 0 0 - 1 2
@
.
~ 2. Montrer que la matrice Ah E .fi,1 , 11 (.IR) est symtrique d:fini.e positive et ses
:::
>-
a.
valeurs propres sont donnes par
0
u
(k) - 4 . 2 ( k 1T )
h - h2 sm (n+l) , k E{ l , ... , n},
2
(k) - (k) (k) (k) - . ( j k 1T )
vh - (v 1 , . , v11 ) , avec vj - sm (n + l) .

76

www.bibliomath.com
Exercices

Appliquer le Thorme de Gershgorine pour montrer que si E Sp(A) alors E [O, 4].
Puis, crire A = 2 - 2 cos(e) avec e E]O, 1T[.

Il n'est pas toujours possible de calculer de manire exacte l'ensemble du spectre


d'une matrice. Nous souhaitons donc proposer une mthode numrique permettant
d'approcher l'ensemble des lments propres de la matrice Ah, c'est la mthode de
Lancz>s qui s'inspire directement de la mthode de la puissance.

3 . Supposons que l' lment propre (vh,J, h,i) est connu, o h , I est la plus grande
valeur propre en module de Ah calcule partir de la mthode de la puissance avec
la donne initiale x 0 E IR.11 Posons x (O) = x 0 - (x0, vh ,I) vh,J, o(. ,.) dsigne le
produit scalaire euclidien.
Construisons ensuite z<l) = Ax (O) - (Ax(O), vh,I) vh , I et procdons l'tape de
normalisation vi',~ = zO) /llz(I) 112.
Montrer que vi ~ est orthogonal vh , 1 et en dduire un schma numrique pour le
1

calcul de h,2 la' seconde valeur propre la plus grande en module.


J Rappelons que puisque Ah est symtrique, l'ensemble des vecteurs propres de Ah
~ forme une base orthogonale.

4 . Proposer alors une mthode numrique permettant d'approcher l'ensemble des


valeurs propres de la matrice Ah. En faisant varier le paramtre h, vrifier que les
valeurs propres h approchent bien les valeurs propres de (2.6).

Solutions des exercices


2.1 Le polynme caractristique s'crit

1- 2
det 0 1- ; ] =-A3 +3A2 +2A+8.
[ 2 1 1-
.<;::::
"Cl ~
0 "O
c c Les racines sont alors donns par
::::i
0 ....:::i
"'
~
1
1 1
-21 V?i .
(V)
~

+ - V?i
.-1 'V
0 .~ 1=4, 2 = -- 2 = - - -
N
0""'
.... 2 2 ' 2
@ :::i
. :
..c c 2.2 Soient A et B deux matrices semblales, il existe alors une matrice P inversible
Ol 0
;:: c
>-
G)
s... telle que B = PA p - l et le calcul du polynme caractristique donne alors
a. 0
0
u (.)
0 1
0 det(B - Al) det(P A p - - Al)
..c:
o.. 1
~ det ( P (A - Al) p - )
~

"O
1
det(P) det(A - AJ)det(P- 1)
0
c
Q
:::i det(A - Al).
@

77

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

2.3 On s' intresse ici aux proprits des valeurs propres.


l. Soient E JI(\ {O} et V E ocn tels que AB V = V. Tout d'abord, notons que
le vecteur w = B v est non nul car sinon A Bv = 0 ce qui est impossible puisque Av
est non nul. Donc, B A w = w, ce qui signifie que est valeur propre de BA et
w = Bv est le vecteur propre associ. De la mme manire, nous montrons que si
# 0 est valeur propre de BA, alors est aussi valeur propre de AB.
2. Soit A = 0 une valeur propre de AB, il existe donc v E ocn \ {0} , tel que
AB V= O.
D'une pait supposons que B v # 0, alors en multipliant l'galit par B gauche,
nous obtenons BA (B v) = 0, donc w = B v # 0 est vecteur propre de BA
associ la valeur propre O.
D'autre part supposons que B v = 0, nous avons alors deux cas.
~ Si lm( A) = ocn' puisque V E IK11 ' il existe w E JKP' non nul, tel que V = A w
et donc en multipliant gauche par B , B A w = B v = 0 donc w est vecteur
propre associ = O.
~ Si Rang(A) < n, alors Ker(A) # {O} et il existe x E JKP, non nul, tel que
A x = 0 ou encore B A x = O.
3. Prenons une matrice BT = (b 1 , b2 ) et A = (a 1 , a 2 ), tels que le produit BA donne

BA =o n
Les valeurs propres de BA sont alors 0 et 1. En choisissant b2 1 et
b 1 = a 1 = 0, la matrice AB est rduite au scalaire 1.
4. Il suffit d'inverser le rle de n et p.

2.4 Il s'agit ici d'avoir une localisation des valeurs propres en fonction des coeffi-
cients de la matrice.
"O
l . Soient v E IK11 \ { 0} un vecteur propre de A et i E { 1, ... , n} l'indice tel que
1vi 1 ~ 1v j 1 pour tout j E { 1, ... , n}.
0
c
::J
0 n
(\"')
...... La ligne i de l' quation A v = v donne L ai ,j vj vi ou encore
0
N j=l
@
...... Il
..c
Ol
::::
>-
L:ai,j Vj =(A - ai ,i)V
a. J= I
0 J =;i
u
2. En divisant par lv I, qui est non nul et en appliquant l' ingalit triangulaire, nous
obtenons

IA - ai, d-

78

www.bibliomath.com
Exercices

Parconsquent, pourtout E Sp(A), ilexistei E {l , ... , n}telque A E Di , d'o


Sp(A) c U~ = 1 Di.
1

2.5 Une autre application du Thorme de Gershgorine.


l . Tout d'abord nous avons

Sp(A + B) = Sp(P- 1(A + B)P) = Sp(D + p- 1 BP).

2 . Nous appliquons ensuite le thorme de Gershgorine la matrice D + C avec


C = p- 1 B P , nous endduisons alors que le spectre de A + B est contenu dans
l' union des disques

{ E C, I - 1 - ci , 1 ~
1 """"" Id + c I = """"" le I} .
-...;:: ~

j =fii
l ,j l ,j ~

.i=Pi
l ,j

Finalement, l' aide de l'ingalit triangulaire, nous obtenons le rsultat


n

IA- i 1 ~ IA- i - Ci,d + lci,d ~ L lci,j ~ 1 K oo IlBlloo


j= l

2.6 Une variante de la mthode de la puissance : la mthode de la puissance


mverse.
l . Remarquons d'abord que lorsque A est inversible, les valeurs propres de A- 1
sont les inverses des valeurs propres de A . En effet, pour un lment propre (, v) de
A , nous avons Av = v et puisque A est inversible, -=!=- 0 et en multipliant cette
1
galit par A- 1 , il vient A- 1 v = Av, donc (1 / , v) est un lment propre de A- 1 .
2 . Appliquons alors la mthode de la puissance A- 1 pour approcher la valeur
propre de A E .4,1, 11 (IK) de plus petit module. Cela se fait sans calcul d' inverse mais
.~
"O ~ partir d' une factorisation de Cholesky puisque la matrice est symtrique dfinie
0 'O
c c::
::::1
positive. Plus prcisment, la mthode de la puissance inverse est le suivant. Pour
::J
0 _.
"'
Q)
x 0 E ffi.11 donn et s > 0 un petit paramtre fix
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0
Mthode de la puissance inverse
@ ::::1 Ef f ectuer un e dcomp osi t i on R* R de l a mat r i ce A.
~
..c
Ol
"'c::
0 Poser k = O, z<0>=x0 ElRn et e<0>= 2e.
c::
::::
>- Q)
s.. Tant que e (k) ~ e
a.
0 0 - ca l culer z <k+1> t el que A z <k+1> = z (k>,
u (.)

B
0
..c::
normalis e r l e rs ul t at x<k+1>=z<k+1>;11z(k+1>112.
p..
- calculer une approximat i on de la va l eur pr opre
"'
~
1
= (x<k+1>/ A x(k+1),
f3(k+1)
'O
0
- calc uler l e rs id u : e<k+1>= lf3(k+ll _ f3(k>1.
c::
0
::::1 - it rer k+-k + 1 .
@ Fi n de t ant que

79

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

3. Soit x 0 E JR.11 quelconque. En crivant le vecteur x 0 dans la base { w 1 , . . . , w11 }


forme par les vecteurs propres de A et en appliquant la mthode de la puissance
A - 1 une premire fois, il vient

zCl) = A- 1 x 0

En procdant par rcurrence jusqu' l' tape k, nous obtenons


Il

z(k) -- A- 1
z(k- 1) -
- "'A.
L...t (A)k w,
.
1
i= I

et donC~ z(k) = f~ /3; G;)' w,


Puisque chaque valeur propre est simple, nous en dduisons que

lim ( 11
. .) k = 0, pour i # n,
k_,,oo .i

ce qui signifie que


lim .11k Z(k) -- /3 11 Wn - . - z.
k-';00

.k
. z(k) z
1lm X
(k)
= lim Il

k_,,oo k_,, 00 .~ llz(k) 112 llzll2


Puisque w 11 est un vecteur propre de A - 1 associ la valeur propre 1/ .11 , nous
"O
0 vrifions que x est vecteur propre de A associ la valeur propre A11 , c'est--dire
c
::J A X= .n X .
0
(\"')
......
Enfin, puisque xo </:. Ker(A - .11 l ,i)1- = Vect{ w 1 , . . . , Wn - d, la composante {3 11 est
0
N
non nulle et x est bien non nul.
@ Maintenant, il reste prouver que la suite de terme gnral 13Ck) converge vers la plus
......
..c
Ol
petite valeur propre A11 > O. Puisque la limite x est vecteur propre et xr x = 1, nous
:::: avons
>-
a.
0 lim 13Ck) = lim (x(k)l A x(k) = xT A x = .11 xT x .11
u k-+oo k-+oo

2. 7 Application du calcul approch des valeurs propres.


1. En effectuant un dveloppement de Taylor l' ordre 4, nous obtenons

80

www.bibliomath.com
Exercices

Puis, en sommant et en ngligeant les terme d'ordre suprieur, il vient alors pour vi
une approximation de u(xi) :

avec vo = v11 + 1 . Puisque nous recherchons un vecteur vh = (v 1 , ... , v11 ) E ffi.11 de


Il

norme gale 1, nous imposons I: vf = 1 et donc (vh , Ah) E ffi.11 x ffi. est solution
i =I
del' quation algbrique
Ah Vh = .h Vh '
{ llvh 112 = l.

avec Ah = : 2
A et A donne par (2.7).
2. Nous avons dj vu dans l'Exercice 1.8 que A est symtrique dfinie positive,
ce qui assure que Ah l'est aussi. Il reste dterminer les valeurs propres et vecteurs
propres de la matrice Ah. Remarquons bien qu ' il suffit de trouver les lments propres
(A, v) de A et (A/ h 2 , v) sera alors un lment propre de Ah.
Soit . une valeur propre de A et v le vecteur propre associ, en appliquant le Tho-
rme de Gershgorine (Thorme 2.2), il vient . E [O, 4]. D'o, il existe 8 E ]O, 1T[ tel
que = 2 - 2 cos( 8) et pour le vecteur propre associ

- vi- 1 +2vi - vi+l = .vi = (2 - 2cos 8)vi, i = l , ... , n

avec vo = v 11 +1 = O.
Recherchons alors la solution sous la forme vi = r i , o r est la solution de
(1 - 2 cos 8 r + r 2 ) ri - I = O. Puisque la matrice A est inversible, r = 0 n'est pas
solution, nous trouvons donc deux solutions r 1 = ei 8 et r 2 = e-ie et le vecteur
. a1ors vi = a r i + /3 r i , avec z. = 1 , ... , n .
propres ,,ecnt 1 2
.~
"O ~ En utilisant les conditions aux limites vo = Vn+i = 0, nous obtenons d' une part
0
c
'O
c:: a+ /3 = vo = 0 et donc a = - /3. D'autre part a (ei(n+ l)e - e- i(n+l)B) = 0, ce qui
::J ::::1
_.
0
('\'")
"'
Q)
Q)
implique que sin ((n + 1) 8) = 0 ou encore que 8(k) = k 1T , pour 0 <k < n + 1.
T"-f
0
~
.;a
n+l
N .....
_.
0
Finalement, nous obtenons pour k = 1, . . . , n
@

2- 2 4 2(:: 1))
::::1
~
..c
Ol
"'c::
0 (k) = cos( e<>) = sin
2
(
::::
c::
Q)
>-
a.
0
s..
0
et
u (.)
(
v. k) = sm ( ik1T
-)
B - i = 1, ... , n.
0
..c::
p..
1 n+1 '
"'
~
1
3. Puisque Ah est une matrice symtrique dfinie positive, nous pouvons appliquer
'O
0
c::
la mthode de la puissance pour calculer une approximation de la plus grande valeur
0
::::1
propre. D'autre part, nous savons qu 'il existe une base orthonorme de vecteurs
@ propres de la matrice Ah. Nous allons utiliser cette proprit pour mettre au point

81

www.bibliomath.com
Chapitre 2 Calcul numrique de valeurs propres

une mthode numrique permettant de calculer une approximation de l' ensemble des
valeurs propres de Ah :
Il

xo =L (xo, vh,i) vh ,i,


i =l

o (vh , i)t~i~n dsigne l'ensemble des vecteurs propres de Ah. Un simple calcul
donne
Il
1 ~ (l)
ITT, ~ (z , vh,1) ,

La mthode va donc consister construire une suite (vik1, Ak~hEN c ~+ x ~11 ,


telle que pour tout k E N, le vecteur vt1 est orthogonal at~ vec~eur propre vh ,1 pour
le produit scalaire euclidien (., .). Pour cela, posons x< 0) = x0 - (x0 , vh,i) vh , 1 ,
o ~, .) dsigne le produit scalaire euclidien. Puis, construisons pour k ~ 0
z<k+I = Ax(k) - (A x(k) , vh,t) vh , L et procdons l'tape de normalisation
vh(k+
,2
I) -
- z(k+ l)/11 z(k+ l) Il 2
En ritrant ce procd, nous construisons bien une suite (vik1)kEN
, qui converge vers
un vecteur propre de la matrice Ah, ce vecteur propre est associ la deuxime valeur
propre la plus grande en module.
4. Nous obtenons les rsultats de la Figure 2.6.

4000
n = 020 + Il
n = 030 X
3500
n = 040 ~
n = 080
*
~ *
D
"O 3000 n = 100
0
c
::J
Spectre exact 0 ~ * X
0 2500 i!i )!( X

(\"') l!i * X
......
0
2000 i * X
N
1500
! *X
X
+ + + +
@
......
..c
t + + +

Ol
1000 ' + +
::::

- .. '
>-
a. 500 ' +
Ill
0
u -
0
0 5 10 15 20

Figure 2.6
Ap prox imatio n des 20 premires valeurs p ropres l'aide d e la mthode d e
Lanczs.

82

www.bibliomath.com
Exercices

La mthode est alors donne pour x 0 E JR" et s > 0 un petit paramtre fix.
Calcul approch de l'ensemble des valeurs propres
Pour i = 1, ... ,n
- ca l cu l er
i- 1

v~!; = Xo - L( Xo , vh, 1) v h, 1 .
7=1
et poser k = 0, i 0l = v~!i , s'0
l = 2e.
Tant que e<kl ;:;:: e
- calc ul er z (k+1l = Ahz<kl ,
i -1
- ca 1cu l er z(k+ 1l = z (k+ 1l - ' ' (z(k+l)
L , vh,7 ) vh,7
7=1
_( k+1)
. (k+1) L'
pu1 s vh,; = 11z<k+1>11i
et A(k+1) = (A h v( k+1) v<k+1) )
h, 1 h, 1 ' h, 1 '

- calculer le rsidu po ur l e test d'arrt


A<k+_1> - A(k) _I
8(k+1) := I h,) h, 1
I A(k) I
h, 1
- itrer k.-k +1.
Fin de tant que .
(k)
- poser vh,i = vh, ; e t ll1 h,i = Ah,i
(k)
.
Fi n de pour i

"Cl
0
c
::::>
Cl
(V)
.-1
0
N
@
.
.c.
0)
;::
>-
0..
0
u

83

www.bibliomath.com
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u

www.bibliomath.com
LES SYSTMES NON
LINAIRES

Dans ce chapitre, nous nous intressons la rsolution de systmes non linaires


issus de la modlisation en mcanique, chimie ou en dynamique des populations.
C'est une tape cl dans la rsolution de la plupart des problmes en math-
matiques appliques tenant compte de phnomnes non linaires. Le problme
s'crit sous la forme
trouver .X E E ,
{ tel que f (i) = 0,
o E est un ensemble donn. Il s'agit tout d'abord de proposer un cadre mathma-
tique adapt ce type de problme non linaire (existence et unicit de solution,
localisation de la solution). Diffrentes mthodes numriques seront proposes
et la notion de convergence des algorithmes sera aborde (convergence locale et
globale) ainsi que l'ordre de convergence indiquant la vitesse laquelle la solu-
tion numrique se rapproche de la solution exacte.

3.1 INTRODUCTION AUX PROBLMES NON LINAIRES


Nous commenons par un exemple simple de problme non linaire.

3.1. l Modle de coagulation et fragmentation


Des modles de coagulation et fragmentation ont t introduits par M. von Smolu-
"O
0 chowski en 1916 et dcrivent l'volution en fonction du temps t ~ 0 de la densit
c
::J Ci(t) de particules de masse i > 0, o l'unit de masse est la masse d'une particule de
0
('\"') rfrence (proton, soleil). Nous rencontrons ces modles dans l'tude de la formation
T"-f
0 d' agrgats (polymres, toiles). Ils dcrivent les mcanismes par lesquels deux agr-
N
@ gats coagulent pour en former un plus gros tandis que dans le mme temps d'autres
~
..c particules se fragmentent en particules de plus petites masses ; la masse globale tant
Ol
:::: conserve au cours de chaque raction de coalescence. Dans le cas le plus simple, les
>-
a.
0
masses des agrgats ne prennent que des valeurs discrtes, l'volution temporelle des
u densits des agrgats de masse i est donne par un systme d'quations diffrentielles
fortement couples. Nous nous intressons ici non pas au processus d'volution mais
aux tats d'quilibre. Plus prcisment, Ci la densit de masse i avec i E N* est le
rsultat d' une raction de coagulation

(coagulation binaire) (3.1)

www.bibliomath.com
Chapitre 3 Les systmes non linaires

et d'une raction de fragmentation

(fragmentation binaire), (3.2)

o a et b dsignent les taux de coagulation et de fragmentation, c'est--dire que ai,j


reprsente la probabilit qu'une particule de masse i fusionne avec une particule de
masse j pour donner une nouvelle particule de masse i + j tandis que bi, j repr-
sente la probabilit qu'une particule de masse i + j se scinde en deux particules de
masse i et une autre de masse j. Nous supposons que les taux de coagulation et
de fragmentation dpendent uniquement de la masse des particules. Nous obtenons
alors l' quilibre le modle de coagulation-fragmentation suivant [28] : pour tout
i EN*
OO

0 2=ai,j cj ci
j =I

C; cre par coagulation C; dtmite aprs coagulation

1 i-l OO

-2 "'""'b
~ 1- 1,1 Ct + Lhi,j Ci+j
j =l j=l

C; dtruite aprs fragmentation C; cre par fragmentation

La suite (Ci ) iEN* est donc solution d'un systme infini d'quations non linaires
dont il est pratiquement impossible de calculer la solution exacte. Il est donc indis-
pensable d'avoir recours des algorithmes numriques qui rduisent ce problme en
un systme fini d' quations couples ; ds lors une mthode numrique permet d'en
calculer une solution approche.

"O
0
c
::J
0
('\"')
T"-f
0
N
@
~
..c
Ol
::::
>-
a.
0
u


Figure 3.1
Exemple de l'volution de la densit de particules (C;); EN* obtenue en rsolvant
le modle non linaire de coagulation-fragmentation au temps t = 0 et t = 1.

86

www.bibliomath.com
3.1. Int roduction au x problmes non linaires

3. 1.2 Rsultats gnraux et dfin ition s


Il est temps de formaliser ces problmes non linaires d' un point de vue mathma-
tique. Considrons E un espace mtrique o d est la distance associe 1 et F un JR-
espace vectoriel, supposons que K soit un sous-ensemble de E, et f une fonction de
K valeurs dans F. Nous nous intressons la rsolution du problme suivant

trouver i E K ,
(3.3)
{ tel que f (i ) = OF

et disons que i est un zro de la fonction f.


Ce problme est non linaire dans le sens o la fonction f n 'est plus seulement
une fonction du type f (x) = A x - b avec A E .4,1 , 11 (JR), b E JRn et x E JR11 Pour
la rsolution numrique de ce problme, nous ne pouvons donc pas utiliser les algo-
rithmes dvelopps dans la partie prcdente mais nous verrons qu'il s'agit plutt de
construire une suite d 'approximations (x(k))kEN dont la limite i est solution de (3.3).
Prcisons d ' abord la notion de convergence de la suite (x Ck))kEf>:! , puis introduisons la
notion d 'ordre de convergence.

Dfi nition 3.1


Soient E un espace mtrique muni de la distance d(. , .) et (x<k))kEN une suite de
E approchant la solution i de (3.3) et vrifiant x CO) = x 0 E U. Nous disons
que la suite (x(k))kEN converge vers i si limk--+oo d (x<k) , i) = O. De plus, nous
disons que la mthode itrative fournissant les valeurs de (x (k)h EN est d'ordre p ,
s'il existe deux constantes C 1 et C 2 > 0 telles que
d (xCk+l) , i)
C1 ( lim , ( C2.
k--+oo d (x<k), i )P

.<;::::
"Cl
0
~
"O
La notion de vitesse de convergence est videmment essentielle en analyse num-
c c rique. Afin de diminuer le temps de calcul, nous choisissons souvent d ' utiliser .l'al-
::::>
Cl ....:::i
(V)
"'
~ gorithme qui converge le plus rapidement, c' est--dire d' ordre le plus lev. En effet,
~
.-1
0
'V
.~
lorsque x (k) est suffisamment proche de i pour la distance d , l'itr suivant sera de
N
0""'
.... l'ordre de d(x Ck+I), i) ( C 2 d (x<k) , i )P qui est d' autant plus petit que p est grand.
@ :::i
:
.
.c. c Une autre notion importante est la distinction entre la convergence locale et la
0) 0
;:: c convergence globale.
~
>-
o.. a.
0
0
u (.)
0
Dfi nition 3.2
0
..s::::
~
o.. Soient E un espace mtrique et (xCk))kEN c E une suite d ' approximation de la
~
1
solution i de (3.3) telle que x CO) = x 0 .
"O
0
c
:::i
Q 1. La distance d est une application de E x E valeurs dans fi.+ telle que pour tout x, y et z E E,
@ d(x , y )= d(y, x), d(x , y) = 0 :;;;} x =y et d(x, z) ~ d(x , y ) + d(y, z).

87

www.bibliomath.com
Chapitre 3 Les systmes non linaires

Nous disons que la suite (x(k)hEN converge globalement vers i E K si pour


tout xo E K, la suite (x(k)h EN converge vers i.
Nous disons que la suite (xCk)hEN converge localement vers i E K s'il existe
un voisinage V.x dei, tel que pour tout xo E Vr, la suite (x(k))kEN converge
vers i.

Dans la pratique, nous prfrons souvent des mthodes qui donnent la convergence
globale de la solution moins bien sr d'avoir une ide a priori de la localisation de
la solution.
Dans une premjre partie, nous prsentons une mthode gnrale et simple, pour
laquelle la recherche d'un zro d'une fonction f : K c E 1---+ E est remplace
par la recherche d' un point fixe d'une nouvelle fonction <P. Ensuite, nous proposons
plusieurs algorithmes pour la rsolution numrique de problmes non linaires dans
le cas de fonctions valeurs dans IR. Puis, nous traitons le cas E = F = IR", en
proposant la mthode de Newton-Raphson pour les systmes non linfilres.

3.2 MTHODE DE POINT FIXE


Considrons E un espace mtrique muni d'une distance d, K un sous-ensemble
ferm de E et f une fonction : K c E ~ E. La mthode de point fixe consiste rem-
placer la fonction f par la fonction <P en posant par exemple <P(x) = f (x) + x tout en
s' assurant que l'ensemble K est stable par l' application <P, c'est--dire <P(K) c K ,
nous verrons qu'il y a plusieurs choix possibles pour cela. Nous remplaons alors
l'quation (3.3) par un nouveau problme: i E K , tel que <P(i) = i .
Prsentons tout d' abord la mthode de Hron permettant d' approcher des racines
carres d'un nombre rel. Cet algorithme est bas sur le principe du point fixe. Pro-
posons ensuite une mthode gnrale et indiquons les critres que doit satisffilre la
fonction <P pour assurer la convergence.

"O 3.2.1 Mthode de Hron


0
c
::J La mthode de Hron 1 fournit un algorithme pour la recherche de la racine carre
0
('\"')
,..-!
d'un nombre rel positif a. Nous allons utiliser le fait que le rel a = n' est va
0
N
rien d'autre que la longueur du ct d'un carr dont l' aire est a. L'ide de base de
@ la mthode de Hron va donc consister construire un tel carr en construisant une
~
..c suite de rectangles d'aire a qui converge vers le carr en question.
Ol
::::
>- Considrons une valeur x(O) donne, qui reprsente une estimation grossire de
a.
0 a. Choisissons alors le rectangle d' aire a ayant un ct de longueur L = x<O)
u
et un second ct gal l = a/ L = a/ x(O) . Pour construire un nouveau rec-
tangle qui soit plus proche du carr d'filre a, nous prenons simplement pour

1. En rfrence Hron d'Alexandrie qui vcut au premier sicle aprs J.-C. et fu t un des grands
mcaniciens del' Antiquit. L' algorithme de calcul des racines carres lui est attribu bien qu 'il semble
que cet algorithme ft dj connu des Babyloniens.

88

www.bibliomath.com
3.2. Mthode de point fixe

longueur d'un ct la moyenne des longueurs des cts du rectangle prcdent,


c'est--dire, L = x(l) = (x<O) + a / x<0)) / 2 tandis que le second ct aura
pour longueur l = a/ L = a/ xO). Nous continuons ce procd jusqu' ce que
nous ne soyons plus en mesure de distinguer les longueurs des deux cts, cela
revient construire une suite (x<k))k ~O dont le terme gnral vrifie pour k E N,
x<k+I) = (x<k) + a / x <k) ) /2.
Par exemple, si nous recherchons la racine car- k x<k) a
x <kJ
re de a = 200 nous obtenons alors les valeurs
donnes dans le tableau ci-contre. Avec seulement 0 10,000 20,000
quatre itrations, nous avons obtenu la racine cher- 1 15,000 13,333
che la prcision machine. 2 14,166 14,117
Voyons maintenant comment gnraliser cette 14,142 14,142
3
approche pour la rsolution d'une quation du type
(3.3). 4 14,142 14,142

3.2.2 Mthode gnrale


Soit E un espace mtrique et K c E un sous-ensemble ferm de E. Comme nous
l'avons dj prcis, la mthode de point fixe consiste d'abord remplacer l'quation
(3.3) par une nouvelle quation
i E K,
{
(3.4)
tel que $(i) = i ,
o cf) est une fonction cf) : K C E f-7 K, nous pouvons choisir $(x) f (x) + x.
Cependant, pour assurer qu' chaque itration x<k) E K puisque l'inconnue i E K,
la fonction cf) doit satisfaire $(K) c K ce qui n'est pas facile vrifier en gnral.
Par exemple, en reprenant la mthode de Hron, nous approchons la racine carre
de a E JR+, laquelle vrifie l'quation f(x) := x 2 - a = O. Dans ce cas, nous
avons pris la fonction cf) dfinie sur K : = JR+ et donne par $(x) = (x + a/ x) / 2,
.~
laquelle vrifie bien $(K) c K et $ ( JG.) = fo. Cependant nous aurions pu prendre
"O ~ aussi:
0 'O
c c::
0
::J ::::1
_. $(x) = x 2 - a + x, mais nous ne pouvons pas assurer la stabilit $(K) c K
"'
lorsque K = JR+.
Q)
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0
$(x) = a/ x, et K = JR+, cette fois nous avons bien $(JR+) c JR+ mais nous ne
@ ::::1
pouvons pas toujours assurer la convergence de l'algorithme itratif.
~
..c
Ol
"'c::
0
c::
:::: Q) En nous inspirant de la mthode de Hron, nous proposons alors un algorithme de
>-
a.
0
s..
0 point fixe pour approcher la solution de (3.3) dans le cas o f est une fonction de E
u (.)

B
0
dans E. Nous constrnisons une fonction cf) telle que la solution ide (3.3) soit aussi
..c::
p.. un point fixe de cf). Puis, pour xo E K C E
"'
~
1 X(O) = Xo
~(x(k)), (3 .5)
'O
0
c::
::::1
{ x <k+I) = k ~ 0,
0
@ o cf) est dfinie de K dans K.

89

www.bibliomath.com
Chapitre 3 Les systmes non linaires

La mthode de point fixe gnral pour le problme (3.4) est alors donn, pour
s > 0 un petit paramtre et x 0 E K , par

Mthode de point fixe


Poser J.0l = xo . e<0l = d ( <l>(x'0l), x(0l) et k = O
Tant que e (k) ~ e
- c a 1 c u 1 e r x<k+1> = <l>(x(k))
- calcule r le rs idu pour l e tes t d'a rrt
e (k+1) := d ( fk+1), x(k) ),
- i t rer k~ k + 1.
Fin de tant que .

Il reste dterminer des critres sur la fonction <P pour que la mthode de point
fixe soit effectivement convergente.
Rappelons d'abord la dfinition d'une suite de Cauchy

Dfinition 3.3
Soient E un espace mtrique et (x Ck)hEN une suite de E . Nous disons que
(x<k)hEN est une suite de Cauchy lorsqu'elle vrifie : pour tout s > 0, il existe
Ne > 0 tel que pour tout k, l ~ Ne, d(x (k) , xCl)) ~ s.

Nous construisons une suite d'approximation (x Ck))k EN fournie par l'algorithme


(3.5) et cherchons tablir la convergence de la suite (x (k))kEN vers une solution ide
l'quation f (i) = O. Pour cela, nous donnons le thorme suivant.

Thorme 3.4 Thorme du point fixe de Banach


Soit E un espace mtrique muni de la distance d, complet c'est--dire que toutes
les suites de Cauchy sont convergentes, K C E un sous-ensemble ferm de E et
<P : K ~ K une fonction strictement contractante, c'est--dire qu'il existe une
"O
0
c constante L telle que 0 < L < 1 et
::J
0
('\"')
T"-f
0 d(<P(x),<P(y)) ~ Ld(x , y), x, y E K. (3.6)
N
@
~
..c
Ol
Alors
::::
>-
a. il existe un unique point fixe i E K tel que i = <P (i) ;
0
u pour toute donne initiale x 0 E K, la suite d'approximation dfini e par (3.5)
converge vers le point fixe de <P et vrifie d (x Ck+ 1), i) ~ L d (x<k) , i). Nous
disons alors que la convergence est linaire.

90

www.bibliomath.com
3.2. Mthode de point fixe

D MONSTRATION . Soit (xCk))kEN la suite dfinie par x Ck+I) = <l>(x(k)), pour k E N.


Nous allons dmontrer que c'est une suite de Cauchy. Tout d'abord, d'aprs l'hypo-
thse (3.6) nous avons

Soient m et k deux entiers, nous obtenons alors


d (x(k+m), x(k)) ( d (x(k+m ),x(k+m-1) ) +d (x(k+m-l),x(k+m-2)) + ...

+ d(x<k+l),x (k))
( (Lk+m - 1 + ... + L k) d (xCl>,x<O))

Lk d (x<') x<O)) .
1- L '

Puisque L k converge vers zro, lorsque k tend vers l'infini, nous avons prouv
que (xCk)h EN est une suite de Cauchy et donc puisque E est complet, le sous-
ensemble ferm K l'est aussi et la suite (x Ck))kE N est convergente vers un point
i E K. Signalons que la fonction <I> tant contractante, elle est continue donc en
passant la limite dans le schma itratif, nous obtenons i = <l>(i ). Puis, enfin
d (<I>(xCk) ), <l>(i)) = d (x<k+L),i) ( Ld (xCk),i).
Pour terminer la dmonstration nous vrifions que le point fixe de l'application <I> est
unique. En effet, soient i et y deux points fixes de <I> alors

0 ( d (i, y ) = d (<l>(i) , <l>(ji)) ( L d (i, ji) < d (i, ji),

d' o 0 ( d (i , y)< d (i , y), ce qui montre forcment que i =y. D

.<;:::: Corollaire 3.5


"Cl ~
0 "O
c
::::>
c Soient (E , li.li) un R-espace vectoriel norm complet (nous disons que c'est un
Cl ....:::i
(V)
"'
~ espace de Banach), U un ouvert de E et <I> : U 1--7 U une fonction diffren-
~
.-1
0
'V
.~
tiable dont la diffrentielle est continue sur U . Supposons que i E U c E soit
N
@
0""'
.... un point fixe de <I> tel que ll<l>'(x)ll < l. Alors il existe tel que pour tout
x< 0 ) = x 0 E B(i , ), boule de centre i et de rayon o > 0, telle que la suite
:::i
. :
.c. c
0
0)
;:: c (x <k))kEN converge vers le point fixe i. La convergence est dans ce cas seulement
~
>-
o.. a.
0
locale.
0
u (.)
0
0
..s::::
o.. Notons bien que la mthode de point fixe n'est pas seulement une mthode num-
~
~
1
rique pour la rsolution du problme non linaire (3.3) puisqu'elle fournit galement
"O
0
c
une dmonstration de 1'existence de solutions lorsque le problme est mis sous la
Q
:::i
forme (3.5). C'est d' ailleurs une mthode classique d'existence de solutions pour un
@ problme non linaire.

91
Chapitre 3 Les systmes non linaires

L'avantage de cette mthode est qu'elle est trs gnrale lorsque la fonction va de
E dans E et fonctionne en dimension quelconque sans faire intervenir aucune drive
de la fonction cl>. Cependant, cette mthode n'est souvent pas trs efficace puisque
la convergence est seulement linaire. Nous construisons par la suite des mthodes
d'ordre plus lev.
Par la suite, nous donnons d'autres thormes de point fixe sous des hypothses
plus faibles.
Rappelons d' abord la notion de convexit qui joue un rle important dans la rso-
lution de problme non linaire et d' optimisation.

Dfinition 3.6
Une partie K de E est dite convexe si, pour tout x, y E K et tout E IR vrifiant
0 :( :( 1, le point x + (1 - ) y E K. Gomtriquement, cela signifie que
le segment de droite joignant deux points x et y de K est entirement contenu
dans K.

Dfinition 3.7
Nous disons qu'une partie K d'un espace vectoriel norm E est compacte si
toute suite de K possde une suite extraite convergente.

Nous nonons alors le thorme de Brouwer lorsque E est l'espace euclidien IR11

Thorme 3.8

Soient K un sous-ensemble convexe et compact 1 de l' espace euclidien E = IR11


et cl> une application continue de K dans K. Alors cl> possde un point fixe
cl>(i ) = i .

Nous pouvons galement utiliser le Thorme de Schauder, dmontr en 1930 qui


"O
0 est souvent utilis pour traiter les problmes d'existence d'quations aux drives
c
0
::J partielles non linaires et qui gnralise le thorme prcdent.
('\"')
T""f
0
N
Thorme 3.9 Thorme de point fixe de Schauder
@
~
Soient E un IR-espace de Banach, K C E une partie non vide, convexe, com-
..c
Ol
::::
pacte de E et cl> une application continue de K dans K. Alors cl> possde un point
>-
a. fixe <l>(i) = i.
0
u

1. Ici cela revient supposer que K est ferm, born et convexe dans E.

92
3.3. Ve rs la mthode de Newton-Raphson

3.3 VERS LA MTHODE DE NEWTON-RAPHSON


Soit [a , b] c R, nous considrons le cas simplifi d'une fonction f de R dans R
(E = F = R ) et proposons plusieurs mthodes itratives qui ont pour but d' appro-
cher la solution de
.X E [a , b] ,
(3.7)
{ f(x ) = O.

Avant de procder la prsentation de mthodes numriques pour approcher la solu-


tion de (3. 7), nous rappelons le thorme des valeurs intermdiaires qui assure l' exis-
tence d'une solution dans l'intervalle [a , b].

Thorme 3.1 0 Thorme des valeurs intermdiaires


Supposons que f : [a , b] ~ R est une fonction continue et k un rel entre
f (a) et f(b). Alors il existe un rel g E]a, b[ tel que k = .f(). En particulier, si
f (a) f (b) ~ 0, alors l'quation (3.7) admet au moins une solution.

Commenons par prsenter la mthode de dichotomie qui est certainement la plus


naturelle mais pas forcment la plus efficace en tem1es de vitesse de convergence.
Nous proposons ensuite la mthode de la scante et poursuivons par la mthode de
Newton-Raphson.
Dans cette partie, supposons que f : [a , b] ~ R est une fonction continue telle
que f (a ) f (b) < O. Ainsi, puisque f est continue il exi.ste forcment .X E ]a , b[ tel
que f (i) = O.

3.3.1 Mthode de dichotomie


La mthode de dichotomie est la plus simple et srement la plus intuitive. Elle
"Cl
.<;::::
~
consiste encadrer la solution .X par un intervalle de plus en plus petit. Nous posons
c
0 "O
c m = (a + b)/ 2 et calculons f (m). Puisque f est continue, testons le signe de la
::::>
Cl ....:::i quantit f (a) f (m). Ainsi, si f (a) f (m) < 0, ou autrement dit f (a) et f (m) sont
"'
~
(V)
.-1 ~
'V
de signes diffrents, cela signifie qu' il existe au moins un .X E [a , m] solution de
0
N
.~
0""'
f (i ) = O. En revanche si f(a) f (m) ~ 0, ou autrement dit f (a) et f (m) sont de
@ ....
.
:::i
: mme signe, alors f(m) f(b) ~ 0 et par continuit de f, il existe i E [m , b] tel que
.c. c
0) 0
c
f(i ) = O.
;::
>-
o..
~
a. En itrant ce procd, nous obtenons ainsi l' algorithme suivant : pour e > 0 un
0
0
u (.)
0
petit paramtre,
0
..s::::
o.. Mthode de dichotomie
~
~
Pos e r a<0l = a , b(ol = b , e(o) = b(o) - a(o) et k = 0 .
1
"O Tant qu e e(kl > e
0
c - poser
:::i
Q
@

93
Chapitre 3 Les systmes non linaires

si f (a(kl) f(m) < O. al or s


a(k+1 ) = a(k) et b (k+1) = m.

sino n
a(k+ll = m et d k+l) = d kl,
- ca l cu l er e (k+l} = d k+l} - a(k+ 1l et k- k + 1.
Fi n de ta nt que

Observons bien qu' chaque itration l'intervalle encadrant la solution i telle que
f (i) = 0 est divis par deux, soit par rcurrence (b(k) - a (k) ) = (b(O) - a <0)) / 2k. Il
en rsulte que la mthode de dichotomie converge puisque b (k) - a Ck) tend vers zro
lorsque k tend vers l'infini. Nous pouvons donc choisir le temps d' ant N tel que

o s est la prcision choisie.


Cet algorithme parat trs intressant mais nous verrons qu' en fait cette mthode
converge plutt lentement. Nanmoins elle prsente l' avantage d'tre trs simple et
ncessite seulement que la fonction f soit continue.

3.3.2 Mthode de la scante


Une autre mthode consiste simplement remplacer f par une fonction affine appro-
che dans l' quation (3.7). En effet, prenons a CO) et b (O) E [a , b] et plaons-nous sur
l'intervalle [a<0>, b<0>], puis remplaons f par un polynme y de degr gal un

- (0) (0) f (bCO>) - f (a CO>)


y(x) .- f (a ) + (x - a ) b(O) _ a CO) ,

o y(x) est la fonction affine telle que y(aCO)) = f(a C0>) et y(bC0>) = f (b(O)).
L'avantage est que pour une fonction affine y, l' quation y (x) = 0 peut tre rsolue
exactement, pour tout x E [aCO), b(O) ]. En
"O effet, nous vrifions que y (xO>) = 0 avec
0 f(x) Itrations successives
c
::J - fo11ctmf(x)
0 x (l) = aCO) - f (a(O)) __b_co_)_-_a_co_>_
('\"')
,..-!
0
f (b(O) ) - f (a CO)) .
N
@ Gomtriquement, ceci revient remplacer
la courbe y = f(x) par la droite passant
~
..c
Ol
::::
>-
par les points (a<O) , f (aC0) )) et (b(O), f (b(O)))
a.
0 tandis que xU> est simplement l'intersec-
u
tion del' axe des abscisses avec cette droite.
Pour trouver une meilleure approximation
que x CI), il suffit de rpter le procd
soit sur l'intervalle [aCO), xU>] ou [xCl), b(O) ] Figure 3.2
Illustration de la mthode de la scante
selon le signe de f (aC0)) f (x<l)) comme pour approcher la solution de f{X) = O.
pour la mthode de dichotomie.

94
3.3. Vers la mthode de Newton-Raphson

Cette mthode peut se rvler plus effi cace puisqu' chaque tape nous rduisons
la taille de l'intervalle bien plus vite que pour la mthode de dichotomieen fonction
des variations de f .
Finalement, pour une fonction f : [a , b] r-+ R vrifiant f(a) f(b) < 0 et pour
un petit paramtres > O.
Mthode de la scante
Pose r a<0l = a , b(o) = b , k = O et s<0l = d0l - a<0l .
Tant qu e s(kl ~ e
(k) . (k) (k) a(k) - b (k)
- calc ul er x .=a - f(a )f(a<k)) - f(b{k))
s i f(a(k)) f(x<k)) < o. alors
k+1> = a<k> et b (k+1> = x( k>
sinon '
a(k+1> = x<k) et b(k+1) = H k> .
- calculer le rs idu s<k+1)=Hk+1l - a<k+1) et k f-- k +1.
Fin de ta nt que.

Donnons alors un rsultat de convergence pour la mthode de la scante.

Thorme 3.1 l Conver ence de la mthode de la scante


Soient f E 1&'0 ([a, b] ,R) vrifiant f(a)f(b) < 0 et i E [a,b ] une solution
de (3.7). Alors en posant a<0) = a et b (O) = b, la suite (x (k))kEN donne par la
mthode de la scante est bien dfinie et converge vers i E [a, b].

3.3.3 Mthode de Newton-Raphson


La mthode de Newton-Raphson 1 ncessite quelques hypothses supplmentaires sur
la fonction f, il faut notamment tre en mesure de calculer sa drive.
Soit f : [a , b] ~ R une fonction deux fois drivable dont les drives sont
"Cl
.<;::::
~
continues, c'est--dire que f E 1&'2 ([a , b], R). Nous cherchons calculer numrique-
c
0 "O
c ment les solutions de l'quation non linaire f (x) = O. Considrons x0 E [a, b], une
::::>
Cl ....:::i valeur approche de la solution i de (3.7). Posons alors x<0 ) = x 0 , puis en effectuant
"'
~
(V)
.-1 ~
'V
un dveloppement de Taylor, nous obtenons
0 .~
N
0""'
....
@ :::i
.
.c.
:
c 0 f (i)
0) 0
;:: c
~
>-
o.. a.
0
0
u (.)
0
0
..s::::
o.. 1. En rfrence Isaac Newton et son contemporain Joseph Raphson. Cette mthode fut dcrite de
~
~ manire indpendante par les mathmaticiens anglais Isaac Newton ( 1643-1727) et Joseph Raphson
1
"O
(1648-1715). Toutefois, Isaac Newton n'appliqua cet algorithme que pour la recherche de zros d 'qua-
0
c tions polynomiales (voir Exercice 3.5), ce qui est assez simple. Notons qu'en 1690, Joseph Raphson en
:::i
Q publia une description simplifie, mais ce n'est qu'en 1740 que Thomas Simpson (1710-1761) dcrivit
@ cette mthode de calcul itratif pour approcher les solutions d ' une quation non linaire.

95
Chapitre 3 Les systmes non linaires

avec 77 E [a , b]. En ngligeant le terme d'ordre deux li - x<0) 1


2
qui sera petit ds
que f " est borne et x<O) suffisamment proche de la solution i, nous calculons une
nouvelle approximation x< 1) dei donne par

(1) = x<O) - f (x <O))


X f '(x(O) ).

Ainsi, en ritrant le procd, nous obtenons un schma itratif appel mthode de


Newton-Raphson

(3.8)
k ~ O.

Nous en dduisons que pour s > 0 un petit paramtre


Mthode de Newton-Raphson
Soit x(0>E [a,b) . Poser k=O et e(
0>= b-a .
Tant que e (k) ~ e
- cal culer / k+i } := x (k} - f(x<kl)
f '(x(k>)
- calc uler le rs i du e(k+i l = 1x (k+1>- x(k} I
et k f - k + 1.
Fin de t ant que .

Pour cette mthode nous dmontrons le thorme de convergence locale suivant.

Thorme 3.12
Convergence locale de la mthode de Newton-Raphson
Soient f E <ef'2([a, b], JR) et i E [a , b] une solution de (3.7) telle que f ' (i ) soit
"O non nul. Alors il existe 8 > 0 tel que pour tout x 0 E [i - , i + ] la suite (x (k)) kEN
0
c
::J
donne par (3 .8) est bien dfinie et converge vers i E [a , b]. En outre, il existe
0 une constante C > 0 telle que lx (k+l) - i 1 ( C lx (k) - i 12 . Nous disons que la
('\"')
T"-f
0
mthode de Newton-Raphson est au moins d' ordre deux.
N
@
~
..c
Ol
D MONSTRATION. Comme f
est de classe <rf2 ([a, b], JR) et f '(i ) est diffrent de
::::
>- zro, il existe 8 > 0, L > 0 et M > 0 tels que pour tout x E [i - 8, i + 8] , les valeurs
a.
u
0 f '(x ) sont diffrentes de zro et
1 1
( L' IJ"(x)I ( M.
lf'(x)I
En effet, en utilisant la continuit de f ' au point i, pour tout s > 0, il existe 8 > 0,
tel que pour tout x E [i - , i + ], IJ ' (x) - f '(i )I ( s, alors en notant a = f '(i )

96
3.3. Vers la mthode de Newton-Raph son

que nous supposons par exemple strictement positif et en prenant e = a / 2, nous


obtenons a / 2 ( f' (x ) ( 3 a / 2. Donc, en prenant L = a / 2, nous avons pour tout
x E [i - 8, i + ] , lf '(x)I ~ L. De plus, f tant de classe <(/2 sur l'intervalle
[i - 8,i + ], il existe M > 0 tel que lf "(x)I ( M.
Ainsi, en prenant au besoin une valeur de 8 > 0 plus petite encore, nous pouvons
choisir > 0 qui vrifie M 8/ (2 L) < 1. En prenant xCO) E ]i - , i + [ et en
effectuant un dveloppement de Taylor au voisinage du point xCO), nous obtenons

o 17CO) E [i - 8, .X+ ]. Puis, en crivant

x ( I) x (O) - [f ' (x<OJ-1 ( f (x(O - f (i)) '


(0) + (i _ X(O)) _ ~ f "(rJ(O) ) (- _ (0))2
X 2 f ' (xCO)) X X '

X
- - -21 ff "(''(x(O))
., c -
Yl(O))
X X
(0)) 2
.

Ainsi, en utilisant une majoration de l! "I et une mjnoration de l!'I, nous avons fi na-
lement
~ M lx<O) - xl2 ~ M 82 ~ 8.
lx(t) - xi "' 2L "' 2L "'
Nous procdons ensuite par rcurrence. Supposons que lx (k) - i 1 ( 8, par un calcul
analogue au prcdent, il vient

(3 .9)

.~
"O ~ Ainsi, en posant
0 'O
c
::J
c::
::::1
_.
e(k) = M lx(k) - il
0
('\'")
"'
Q)
2L '
Q)
T"-f
0
~
.;a nous obtenons en utilisant (3.9) que
N .....
_.
0
@ ::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0 Or, en ayant choisi au pralable x<
0 ) tel que e<0) = lx(O
)- M 8 / 2 L < 1, nous i 1 (
u (.)

B montrons que la mthode de Newton-Raphson est localement convergente. D


0
..c::
p..

"'
~
1
Remarque
'O
0
c::
Observons que cette mthode donne la conve rgence locale de la suite (x<k>)kEN vers
0
::::1
la solution x E [a,b] . Il faut donc partir d'u n point x<0) suffisamment proche de x, ce la
@ ncessite la co nnaissance a priori de la solution .x , ce qu i n'est pas toujours possible !

97
Chapitre 3 Les systmes non linaires

Nous venons de voir que sous certaines hypothses, la suite (x(k))kEN converge
vers la solution i E [a, b]. Nanmoins dans la pratique un critre d' arrt est
ncessaire pour stopper les itrations. Par exemple, le critre d'arrt peut tre
lx<k+J) - x <k) I < e, o e > 0 est un petit paramtre fix. Toutefois cela n' assure pas
chaque fois la convergence vers la solution i . En effet, considrons par exemple la
suite x <k) = E7=l l / l nous avons

lim lx (k+l) - x(k) 1 = 0,


k- +oo

mais x <k) tend vers l'infini. Remarquons qu'un autre choi x possible est le critre
IJcx<k>) I < e.

Exemple
2 2
Prenon s f(x) = x e- x , nous avons alors f ' (x) = (1 - 2x2 ) e- x . L'algorithme de la
mthode de Newton-Raphson s'crit x(k+ll = x(kl - x<k> / (1 - 2 lx<kll 2 ).
D'une part, en prenant x( 0> = 0, 3, nous
obtenons : 0 .5 ~------------~
f(x) - -
0.4 x0=0.3 +
k x<k> f(x<k X0=0.5 X
0 .3 x0=1.0 *
0 .2
0 0, 3 0, 274
0 .1
1 - 6 610- 02 - 6 610 - 02 0
' '
2 +5 , s 10- 04 +5 s 10- 04 -0. 1
' -0.2
3 - 3 s 10- 10 - 3 s 10- 10 -0.3
' '
4 +1 110- 28 +1 110- 28 -0.4
' ' -0.5
5 - 2 s 10- 84 X -2 1 0 2 3
' X

D'autre part, en prenant x<0 > = 0, 5, la Figure 3.3


mthode ne converge pas mais (x(klh La fonction f(x) et des valeurs (x<kl)kEN
'O
prend se ulement les valeurs 0, 5. pour des donnes initiales diffrentes :
0
c
::J Enfin pour x(0> = x0 = 1, la suite (x(klh = = =
x<0> 0, 3 (+), x (O) 0, 5 (x) et x(O) 1 (*).
0 converge ve rs +oo lorsque k t end vers
(V)
,....f
0
l'infini.
N
@
.:t:Ol 3.3.4 Combinaison de mthodes
::::
~ La mthode de Newton-Raphson est incontestablement la meilleure parmi celles pr-
8 sentes dans ce chapitre mais la seule condition de choisir la donne initiale x 0
assez proche de la solution recherche, o assez proche dpend de la fonction f.
Plus prcisment, lorsque nous connaissons bien les drives premires et secondes
de f au voisinage de la solution, nous pouvons combiner deux mthodes de faon
pragmatique.

98
3.4. Mthode de Newton-Raphson dans JR11

La mthode est simplement donne, pour un petit paramtre s > 0, par


Combinaison de mthodes
Pose r a<0) = a et b(o) = b t el s que f (a<0)) f(b(o)) < O
et e(o> = d0) - a(0> k = o.
Tant que ,p) > e
- cal cu le r _x(k+i > l'a i de de l a mt hode de Newt on- Rap hs on
- si x(k+i) tJ, [ a(k>, d k)]. l e re j ete r et eff ect ue r
une i t ra t ion de di c hot omi e pou r tro uver [ a<k+1>, d k+i)J.
- si x(k+i )E [a(k>,dk>J. alor s :
s i f( x<k+1>) f (a<k>) < O. po ser
a(k+1>= a<k) et d k+1> = x<k+1> .
s i f(x<k+1>) f(b<k>) < O, poser
a(k+1) = x(k+1> et dk+1 ) = dk>.
- cal c uler e(k+l} = d k+l) _ a(k+l} et k - k + 1.
Fi n de ta nt qu e

3.4 MTHODE DE NEWTON-RAPHSON DANS ]Rn


Avant de procder la prsentation de la mthode de Newton-Raphson pour des fonc-
tions de ~n valeurs dans Rn, nous rappelons quelques notions de calcul diffrentiel.

3.4.1 Quelques rappels de calcul diffrentiel


Considrons deux R-espaces de Banach E et F. Notons .C(E , F) l'espace des appli-
cations linaires continues de E dans F, muni de la norme
Ill hllF
lllll = ~~~ llhll E '
laquelle correspond la norme matricielle lorsque E = F = R11 Observons que
.C(E , F) est galement un espace de Banach .
<;::::
"Cl
0
~
"O
Supposons que U est un ouvert (non vide !) de E et considrons une fonction f :
c c U t-7 F.
::::>
Cl ....:::i
(V)
"'
~
~
.-1
0
'V
.~
Dfinition 3.13
Nous disons que la fonction f est diffrentiable en un point x E U si elle est
N
@ ....:::i""'
0

. : continue au point x et s'il existe l(x) E .C(E , F ) tel que


.c. c
0) 0
c
;::
~ lim 11/(x + h) - f(x) - l(x) hllF =
>-
o.. a. 0 (3 .10)
0
u
0
(.)
0
h - OE llhllE .
0
..s::::
o..
= \7 f (x),
~
~ L'application l(x) dpend du point x, nous la noterons dsormai s l(x)
1
"O
0
de sorte que (3.10) se rcrit
c
11/(x + h) - f(x) - \7 f(x) hllF =
:::i
Q lim
0
@
h-OE llhllE .
99
Chapitre 3 Les systmes non linaires

L'application V7 f (x ) est appele diffrentielle de f au point x.


Dfinition 3.14
Nous disons que la fonction f est diffrentiable sur U si elle est diffrentiable en
tout point x E U. Dans ce cas, nous appelons diffrentielle de f la fonction
V7 f. U ~ ,C(E , F)
. X~ \;?f(x).

Si de plus V7 f est continue par rapport x, nous disons que f est continment
diffrentiable, ou de faon quivalente que f est de classe <ef' 1(E , F).

a) Cas particulier E = JRP et F = JRq


Pourtout x EU C E,x = (x 1 , , xp)1" etpourtouti E {l , ... , p},l'ensemble

Vi(x) := {t E lR, (x 1, ... ,Xi- 1,t,xi+1, ... ,xp ) E U}


est un voisinage ouvert de xi .
Supposons f : U c E ~ F diffrentiable. Alors l' application partielle
gi : Vi(x) 1--4 F, donne part 1--4 f (xi , ... , X - 1, t, Xi+ I, . . . , Xp) = f (x + (t - xi)ei ),
est drivable en Xi et g;(xi ) = V7 f(x) ei, c'est en fait la drive partielle de f dans la
direction ei au point x. Dans la suite, nous notons cette drive partielle ~~ (x) et

f Uf---tF
-: f
xi x f---t x; (x)

pour i E { 1, ... , p}. Par linarit de V7 f (x ), nous vrifions que pour tout h E JRP,
h = (h1 , ... , h p)1" ,
p f
V7 f (x ) h = 2:
h; x (x) .
1
i= I
"O
0
c
::J
Pour tout i E { 1, . .. , p}, l' application h E E 1--4 h; E lR est une forme linaire
0 continue, c'est--dire un lment de ,C(JRP, JR). Nous la notons dxi. Ainsi, la diffren-
tielle de f au point x s'crit
('\"')
,..-!
0
N
@
~
..c
Ol
::::
>-
a.
u
0
Notons bien quel' existence de drives partielles n'est pas suffisante en gnral pour
qu'une fonction soit diffrentiable. En revanche,

Thorme 3. 1 5

Une application f : U c E ~ Fest continment diffrentiable si et seulement


si ses p drives partielles existent et sont continues sur U.

100
3.4. Mthode de Newton-Raphson dans JR11

Si une fonction f : U c E 1---+ F , de composantes (f1 , ... , fq ), est diffrentiable


au point x, nous dfinissons sa matrice jacobienne au point x comme la matrice de
l'application linaire \7 f(x) dans les bases canoniques de E et F. Elle est donne
par
f!l1 (x)
OXp

\7 f(x) = E Atq,p(lR).
fq (x) fq (x)
XJ Xp

Autrement dit, le coefficient de la matrice jacobienne de f d'indice i E { 1, ... , q}


en ligne et j E {l, ... , p} en colonne est (\7 f(x))i ,.i = ~ (x).
En particulier, si q = 1, \7f(x) est une matrice ligne. De faon gnrale, les lignes
des \7 f (x) sont les \7 fi(x).

b) Cas gnral
Supposons maintenant que E et F sont des espaces de Banach. Dfinissons alors les
fonctions lipschitziennes de la faon suivante:

Thorme 3.1 6 Fonction lipschitzienne

Soit f : U C E 1---+ F une fonction diffrentiable sur un ouvert convexe U.


Supposons que sa diffrentielle est borne, c'est--dire il existe k > 0 tel que
ll\7 f(u) ll ~ k, pour tout u E U. Alors la fonction f est lipschitzienne, c'est--
dire que llf(x) - f(y)llF ~ kllx - YllE, pour tout (x, y) EU x U

Remarque
La dmonstration donne en fait l'ingalit plus fine

11/(y) - /(x)llF ~ sup ll'V /(x + t(y - x))ll llY - xlk


.~ r E [0 ,1)
"O ~
0 'O
c c::
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
Thormes des fon ctions implicites
0 .;a
N .....
@
_.
0 Soient U et V des ouverts (non vides) des espaces de Banach E et F respectivement.
::::1
~
..c "'c::
0
Ol
::::
c::
Q)
Dfinition 3.1 7
>-
a.
0
s..
0
Une application f :U 1---+ V est un <lf 1-diffomorphisme de U sur V si et seule-
u (.)

B ment si
0
..c::
p..
la fonction f est une bijection,
"'
~
1 la fonction f est de classe Ceff 1(U , V), c'est--dire continment diffrentiable
'O
0
c:: sur U,
::::1
0 la fonction inverse f- 1 est de classe <tf 1(V , U).
@

101
Chapitre 3 Les systmes non linaires

Le thorme d'inversion locale est le suivant :

Thorme 3.1 8 Thorme d'inversion locale


Si f : U r--+ V est une fonction de classe f 1(U , V), si a E U est tel que \7 f (a )
soit un isomorphisme de E sur F , alors il existe un voisinage ouvert Ua de a dans
U et un voisinage ouvert Vb de b = f (a) dans V tel que la restriction de f Ua
soit un <&1 1-diffomorphisme de Ua sur Vb.

Parmi les consquences fondamentales du thorme d ' inversion locale, nous trou-
vons un rsultat tout aussi important, connu sous le nom de thorme des fonctions
implicites. Il concerne le problme qui nous occupe dans ce chapitre, c'est--dire la
rsolution d'quations non linaires.
Considrons trois espaces de Banach E , F et G et f : E x F r--+ G et recherchons
les solutions (x, y ) E E x F de l'quation f(x, y) = OF. Sous des hypothses que
nous allons prciser, nous pouvons en tirer y comme fonction de x : nous disons alors
que f (x, y)= 0 dfinit implicitement y, ou encore y comme fonction implicite de x .
Plus prcisment, nous avons :

Thorme 3.19 Thorme des fonctions implicites


Soit U un ouve1t de E x F et

f :
u r--+ G
(x, y) r--+ f (x,y),
une fonction de classe <&' 1( U , G) et notons \7 f = (\7x f, \7 y f ) le gradient de la
fonction f par rapport x E E et y E F . Supposons qu ' il existe (a , b) E U
tel que f (a, b) = 00 et \7 y f (a, b) E .C( F, G) est un isomorphisme de F sur G.
Alors il existe un voisinage ouve1t U(a , b) de (a , b) dans U , un voisinage ouvert
Wa de a dans E et une fonction <p E f 1(Wa, F ) tels que
"O
0 (x,y) E U(a, b), et f( x,y ) = Oa {::} y= q;(x).
c
::J
0
('\"')
T"-f
0 c) Drives d'ordre suprieur et dveloppements de Taylor
N
@ Commenons par dfinir une fonction deux fois diffrentiable puis enchanons sur
~
..c
Ol
les dveloppements de Taylor l'ordre suprieur.
::::
>-
a.
0 Dfinition 3.20
u
Une fonction f dfinie sur un ouvert (non vide) U d ' un JR-espace de Banach
E et valeurs dans un JR-espace de Banach F est dite deux fois diffrentiable
en x E U si elle est diffrentiable dans un voisinage ouvert Ux de x et si sa
diffrentielle \7 f: Ux r--+ .C(E , F) est diffrentiable en x . Nous disons que f est
deux fois diffrentiable dans U si elle est deux fois diffrentiable en tout point
de U.

102
3.4. Mthode de Newton-Raphson dans JR11

Par dfinition, la diffrentielle de \7 f en x, \72f := \7(\7 f)(x) est une applicati.on


linaire continue de E dans .C( E, F ). De mme, dfinissons de manire rcursive
les espaces de fonctions p-fois continment diffrentiables, nots ~P (E , F) et la
diffrentielle d' ordre p d'une fonction f , note \7 Pf puis \7P+I f = \7(\7P f).

Thorme 3.2 l Dveloppement de Taylor avec reste intgral


Soient E , F deux espaces de Banach, U un ouvert de E et f : U ~ F une
fonction de classe ~11+ 1 . Alors pour tout (x , h) E U x E tel que le segment
[x, x + h] soit inclus dans U,

f(x+h) = f(x) + t 2_\7Pf(x)h[p] +


p!
[1 (1 -
Jo n!
t)n \7n+lf(x+th)h[n+l] dt.
p=.I

ou' h [p] -- (h , ... , h) .


'-v--'
p fois

Prsentons galement une autre version de la formule de Taylor, valable sous des
hypothses encore moins fortes, et qui pour cette raison donne un rsultat local seule-
ment.

Thorme 3.22
Soient E , F deux espaces de Banach, U un ouvert de E et f U ~ F une
fonction n fois diffrentiable en x E U. Alors
11

llf(x + h) - f(x) - L ~\7P


p.
p=I
f(x)h[p]ll = o( llh ll"),

o o(llhll") signifie qu'il existe une fonction E(h) telle que E(h)/ llhll" ~ 0
.<;::::
"Cl ~ lorsque h tend vers O.
0 "O
c c
::::>
Cl ....:::i
(V)
"'
~
3.4.2 Mthode de Newton-Raphson
~
.-1 'V
0 .~
N
0""'
.... Soient U un ouvert de R 11 et f E ~ 0 (U, R 11 ). Supposons dans cette partie qu'il existe
@
.
:::i
: i E U solution de f (i) = O. Nous souhaitons mettre au point une mthode num-
.c. c
0)
;::
0
c rique pour approcher cette solution. Pour cela, nous procdons de manire analogue
~
>-
o.. a. ce que nous avons fait pour des fonctions valeurs relles.
0 0
u (.)
0 Tout d'abord, nous choisissons une premire approximation xo E U dei et rem-
0
..s::::
o.. plaons ensuite la fonction f par son dveloppement de Taylor l'ordre un au point
~
~
x 0 , puis en itrant ce procd nous obtenons une suite (x(k))kEN donne par
1
"O
0
c
X (O) = xo E u'
:::i
Q (3.11 )
@ {
f (x<k>) + \7 f (x<k>) (x<k+J) - x<k>) = JR", k ~ O.

103
Chapitre 3 Les systmes non linaires

Pour chaque k E N, nous devons donc rsoudre le problme (3.11). Il nous faut
donc:
calculer la matrice jacobienne A = V7 f (x(k)),
s'assurer que cette matrice A E .4,1 , 11 (Il~) est bien inversible,
rsoudre le systme A x<k+ I) = - f (x (k) ) +A x<k) E ~n,
s'assurer que l' itr suivant x<k+ L) appartient bien V pour pouvoir continuer les
interactions suivantes.
Lorsque n = 1, nous avons facilement montr que la mthode de Newton-Raphson
est convergente et d' ordre deux. Nous allons voir que ce rsultat est toujours vrai en
dimension n ~ 1.

Thorme 3.23
Convergence locale de la mthode de Newton-Raphson dans ffi.11
Considrons f : V C ffi.11 1------7 ffi.11 une fonction deux fois diffrentiable et
dont la diffrentielle d'ordre deux est continue, c'est--di re que f est de classe
<ef'2 (V ' ffi.11 ).
Soit i E V tel que f (i) = 0 et la matrice \:7/ (i) est inversible. Alors :
il existe 8 > 0 tel que pour tout x 0 E B(i , 8), la suite (x(k))kEN donne par
(3.11) est bien dfinie et x (k) E B(i , o), pour tout k E N;
la suite (xCk))kEN donne par (3.11) converge vers la solution i E V;
il existe une constante C > 0 telle que llx (k+l) - i Il ~ C llx(k) - i 1
12 .
Ici B(i , o) reprsente la boule de ffi.11 de centre i et de rayon 8.

Avant d'aborder la preuve de ce thorme, prsentons trois lemmes interm-


diaires : le premier est simplement un rsultat technique sur les matrices, le deuxime
"O
fournit un rsultat de stabilit de la fonction f au voisinage du point i E V tel que
0
c
::J
f (i) = 0 et enfin le troisime lemme assure l'existence d'une solution chaque
0 tape de l'algorithme de Newton-Raphson.
('\"')
T"-f
0
D'abord, proposons un rappel sur les matrices et les normes matricielles.
N
@
~ Lemme 3.24
..c
Ol
::::
>- Soit B E .4,1, 11 (K) une matrice dans un corps K telle que llB ll < 1, pour une
a.
u
0 norme matricielle subordonne 11li
Alors la matrice U11 - B) est inversible et

Un - B)-l = L Bk, ~
1
1-11s11
k ~O

104
3.4. Mthode de Newton-Raphson dans JR11

DMONSTRATION. Remarquons tout d'abord que la condition llBll < 1 assure la


convergence de la srie puisque
+oo +oo

Il L Bkll ~ L ll BW < +oo.


k=O k=O
En outre, pour tout p ~ 1, on a
p p

U11 - B) L Bk = L(/11 - B) Bk =/ 11 - B p+I


k=O k=O

et puisque Il B Il < 1, nous obtenons en passant la lime p ---+ +oo


Un - B) LBk = ln.
k~O
-] k
Donc Un - B) = 'l:k~O B . Enfin,
- 1 ~ k ~ k 1
11(1,, - B) Il = Il L_., B Il ~ L_., llBll ~ 1 - llBll"
k~O k~O D
Ensuite, mettons en vidence un rsultat de rgularit de la fonction f au voisinage
du point i E U vrifiant f (i) = O.

Lemme 3.25
Soient f : U c ffi.11 i-----+ ffi. 11 une fonction de classe <f/2 (U, ffi. 11 ) et i E U
tel que f (i) = 0 et \7 f(i) est inversible. Alors il existe L > 0, M > 0 et
un paramtre 8 > 0 vrifiant M 8/ L < 1, tels que pour tout x E B(i, 8),
Il [\7 f(x)]- 1 Il ~ 1/ L et de plus ll'Vf(x) - \7 f(y)ll ~ M llx - Yll -

"Cl
.<;::::
~ DMONSTRATION. Puisque f E <f/2 (U' ffi. 11 ), pour tout X E u le terme ll\72 f (x)ll
0 "O
c c est born sur tout sous-ensemble born de U et d'aprs le Thorme 3.16, pour un
::::>
Cl ....:::i rayon r > 0 fix, il existe M (r) > 0 tel que pour tout x, y E B(i , r) c U,
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
.... ll'V f(x) - \7 f(y)ll ~ M(r) llx - Yll-
@ :::i
. :
.c. c
0)
;::
0
c Remarquons bien que r est fix et quelconque; il reste donc montrer qu'il existe
>-
o..
~
a. 8 > 0 et L > 0 tels que pour tout x E B(i , 8), la matrice \7 f(x) est inversible et
0 0
u (.)
0
vrifie
0
..s::::
o..
~
~ Pour cela, nous crivons
1
"O
0
c
Q
:::i \7 f(x) \7 f(i) - \7 f(i) + \7.f (x),
@ \7 f(i) [In - ['Vf(i)]- 1 (\7 f(i) - \7 f(x))]

105
Chapitre 3 Les systmes non linaires

1
et posons B = [\7 /(i)] - (\7 f(i) - \7 /(x)), ce qui s'crit alors

\7 f (x) = \7 f (i) Un - B].

Ainsi, puisque \7 f (i) est inversible, la matrice \7 f (x) est inversible ds que [/11 - B]
est elle-mme inversible. En vue d 'appliquer le Lemme 3.24, il nous suffit de montrer
qu'il existe 80 > 0 tel que pour tout x E B(i, 8 0 ), nous avons ll B ll < 1. Or d'aprs
ce qui prcde nous avons

ll B ll ~ Il [\7 f(i)] - l 11 llV' f(x) - \7 f(i)ll ~ Il [\7 f(i)]-I Il M(r) llx - x ll

et en prenant 8 0 > 0 suffisamment petit tel que M(r) Il [\7 f (i)] - 1 li 80 < 1, nous
avons pour tout x E B(i, 80), Il B Il < 1, ce qui signifie que pour tout x E B(i, 80), la
matrice \7 f (x) est inversible et

~
1 1
Il [\7 f (x)]- Il Il [\7 f (i)]- li llU11 - B)- 1 li,
1 1 1
~ Il [\7 f(i)]- 11 1 - llB ll - L

Nous choisissons finalement M := M(r) et 8 E]O, 8 0 [ tel que M(r) 8/ L < 1, ce qui
conclut la dmonstration. D

Enfin, le troisime lemme assure l' existence de la suite (x<k)h EN obtenue l'aide
de la mthode de Newton-Raphson.

Lemme 3.26
Soient w un ouvert de ffi.n et f : w f---+ ffi.n une fonction telle que f E tf 1(w , ffi. 11 ),
\7 f (x) est inversible pour tout x E w et il existe L > 0 et M > 0 vrifiant

11[\7f(x)]-'11 ~ ~, ll\7 f(x) - \7 f(y) ll ~ M llx - Yll (3.12)


"O
0
c
::J et pour k ;?: 1, x<k - I ) E w.
0
('\"')
T"-f
Alors le terme x<k) donn par la mthode de Newton-Raphson est bien dfini et
0
N tel que
@
~
(3.13)
..c
Ol
::::
>- et
a. (3.14)
0
u

DMONSTRATION. D ' une part, puisque x <k- 1) E w, la matrice jacobienne


\7 f (x<k - l)) est inversible, nous pouvons donc construire

106
3.4. Mthode de Newton-Raph son dans JR11

d'o nous dduisons, grce l'hypothse (3.12), que

D'autre part, l ' aide de la formule de Taylor-Young avec reste intgral, nous avons
aussi

f (x(k)) = f (x(k-11 ) +1 1 V f (x<k- 11+ t (x(k) - x(k- J)))(x(kl - x(k- 11) dt .

Puis, en utilisant la mthode de Newton-Raphson l'tape k - 1,

nous avons

D'o,

Il f (x<k))ll
~ sup (llV' f(x <k- 1) + t (x(k) - x<k-1))) - \7 f(x<k-1))1
1) llx(k) - x<k-1)11,
tE]0, 1[
~ sup (Mt llx(k) - x<k-1 ) Il) llx(k) - x<k-1 ) Il'
t E]O, I[

c'est--dire llf(x<k)) ll ~ M llx<k) - x<k-I) ll2 . D


Nous sommes dornavant en mesure de dmontrer le Thorme 3.23.
D MONSTRATION DU T HORME 3.23. D 'abord, en appliquant le Lemme 3.25,
.<;:::: puisque la matrice \7 f (i ) est inversible et f E ~2 (U, IR11 ), il existe L > 0, M et
~
"Cl
0 "O > 0 vrifiant M / L < 1, tels que pour tout x E B(i, ), la matrice \7 f (x) est
c c
::::>
....:::i inversible et
ll[V'f(x)J- 1 11 ~ ~-
Cl
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
@ ....
:::i De plus, pour tout x, y E B(i, ), ll V' f(x) - \7 f(y)ll ~ M llx - Yll
. :
.c.
0)
c
0
Dans un premier temps, nous souhaitons dmontrer que chaque terme x<k) est bien
c
;::
~ dfini pour tout k E N et ensuite que la suite (f (x(k))k?;o tend vers zro lorsque k
>-
o.. a.
0 0 tend vers l'infini. Pour cela, nous raisonnons par rcmTence.
u (.)
0
0
..s::::
Soit x 0 E B(i, ). Montrons que si le terme x<k) E B(i, ) pour k ~ 0 , alors nous
o..
~
avons aussi x<k+ I) E B(i, ). Tout d'abord en appliquant le Lemme 3.26, la valeur
~
1 x<k+l ) est bien dfinie. Ensuite l'aide d' un dveloppement de Taylor-Young l 'ordre
"O
0
c deux de la fonction f et en rappelant que f (i) = 0, il vient
:::i
Q
@

107
Chapitre 3 Les systmes non linaires

Aussi, en utilisant la dfinition de x<k+I), nous avons

Puis,
llx<k+J) - i ll llY' f(x(k))- 1 Y' f(x(k)) (x<k+l) - i) ll
( ll Y' f (x(k))- 1 li llY' f (x(k)) (x(k+l) - i)ll

( M llx<k) - ill 2 (3.15)


L
et donc par dfinition de , nous avons llx(k+I) - x ll ( M 2 / L ( , ce qui montre
bien que x<k+l ) E B(i , ) et donc le premier point du Thorme 3.23.
Notons que nous avons par la mme occasion dmontr l'existence d' une constante
C = M / L > 0 telle que llx<k+J ) - x ll ( C llx(k) - i 112 , ce qui prouve la dernire
assertion du Thorme 3.23.
Intressons-nous alors au deuxime point, c'est--dire la convergence de la suite
(x<k))k~O Pour cela posons e<k) := M llx(k) - i Il/ L, il vient alors en multipliant
(3.15) par M / L,

Or, en ayant choisi au pralable x<O) tel que e<0) = M lx<O) - i 1/ L ( M / L < 1,
nous montrons que la mthode de Newton-Raphson est bien localement convergente.
D
Ce thorme montre la convergence locale de la mthode de Newton-Raphson,
c'est--dire que si x 0 est suffisamment proche d'une solution f (i) = 0, alors la suite
(x(k))kEN converge vers i. Concernant la convergence globale, nous en savons trs
peu et nous ne pouvons analyser que que.l ques cas de fonctions simples.
"Cl Un exemple classique de convergence 15
c
0
::::i
globale est f (z) = 0, o E C, avec z 10
0
3
(V)
.-1
f(z) = z - 1, zEC 5
0
N
ou encore 0 -~mi~..:-.....~
@
. 3 2
- 3x y 1 )
..c
Ol
;::
.f.(x, y ) = ( x
3x2 y - y3
-
'
-5 -

>-
a.
0
u avec z = x + i y et pour lequel l'itration
devient
-10 -

-15
l
-15 -10 -5 0 5 10 15

Figure 3.4
Donnes initiales convergeant vers la solu-
tion z = 1 (noir), z = - (1 - ./3)/2 (gris) et
z = (- 1 - ./3)/2 (blanc).
31 (
2z
(k) 1
+ (z<k))2
)
.

108
Exercices

Nous posons alors

A(a) = { zo E C, (z(k)h converge vers a},


avec a = 1, (-1 i ./3)/2 racines de /(z) = O. Dans ce cas, nous vrifions
l' aide d'un ordinateur que pour toutes valeurs de z0 , l'algorithme de Newton-Raphson
converge vers une solution (voir pour cela la Figure 3.4).
Dans la pratique, il aITive souvent que la forme analytique de la matrice \7 f (x)
est inconnue. Dans ce cas nous approchons les lments 8 Ji / 8x j de la matrice jaco-
bienne par

8fi( ) fi(x1, . . . ,xj+, . . . ,x,i) - fi(x1 , ... , xj, ,x,i)


Bx X1 , ... ,X11 '.::::: '
J

en choisissant le paramtre del' ordre del' erreur d'arrondi.


Notons que beaucoup de mthodes dites quasi Newton pour la rsolution num-
rique de systmes non linaires consistent trouver de nouveaux algorithmes qui ne
ncessitent plus le calcul exact de la jacobienne. Nous renvoyons le lecteur l'ou-
vrage de J. E. Dennis et R. B. Schnabel [12], qui dresse l'tat de l'art des mthodes
de Newton-Raphson et quasi-Newton tant du point de vue thorique que pratique.

Exercices

3. l Ca leu 1 de racine carre


Nous avons vu que la mthode de Hron pour le calcul approch de la racine carr de
a consiste construire la suite

=~
.~
"O ~ x(k+ I) ( x(k) + _.!!.__)
0
c
'O
c:: 2 x (k )
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
1. Montrer que cela correspond au choix de la mthode de Newton-Raphson avec
0
N
.;a
..... f(x) = x 2 - a.
_.
0
@ ::::1
2. Considrons maintenant le problme du calcul de J2. Cela revient trouver le
~
..c
Ol
"'c::
0 zro positif a = J2 de la fonction f(x) = x 2 - 2.
::::
c::
Posons <f>(x) = - x 2 / 4+x+ 1/ 2. Vrifi er que a = J2 est un point fixe de la fonction
Q)
>-
a.
0
s..
0
u et montrer que <f>([l, 2]) c [l , 2]. En dduire que pour tout x< 0 ) E [l , 2], il existe une
(.)

B
constante C > 0 telle que lx(k) - a l :( ck lx(O) - a l pour tout k ~ O .
0
..c::
p..

"'
~
1
3. Quel est le comportement de la suite (x(k)hE N lorsque k ~ +oo?
'O
0 4. Combien d'itrations de la mthode de point fixe sont ncessaires pour trouver
c::
0
::::1
une valeur approche de J2 qui soit exacte jusqu 'au huitime chiffre aprs la vir-
@ gule?

109
Chapitre 3 Les systmes non linaires

3.2 Mthode de la scante


Une variante de la mthode de la scante consiste approcher .X un zro d'une fonc-
tion f par
x(k) - x <k-1)
x<k+ l) = x (k) - f(x(k ) ) - - - - - - - k ~ l.
! (x(k)) - f (x<k- 1))
1. En adaptant la preuve de convergence de la mthode de Newton-Raphson, mon-
trer que
i/k+ l)I = 1x<k+1) - x i ( C l/k) lle<k- 1)1
2. En supposant que pour k assez grand on a

a le(k) la ( le(k+l) 1,

o a reprsente le taux de convergence de la mthode de la scante, montrer que


a = (1 + Vs)/ 2.

3.3 Calcul de racine cubique


Nous souhaitons calculer les zros de la fonction f (x) x3 - 2 en utilisant la
mthode de point fixe x<k+l ) = cp(x(k)) avec</> donne par

2 -x 3
cp(x) = 3 x2 + x.

Notons a=~ la solution du problme.


1. Vrifier que ef>(a) = a et montrer que lorsque x<0) E [l , 2], la mthode du point
fixe est convergente.
2. Montrer qu'en dfinitive la mthode est d'ordre deux.

3.4 Application des mthodes de point fixe et de Newton


Nous voulons rsoudre f (x) = 0 avec f (x) = x - sin(x)/ 5 - 1/ 2 en utilisant
"O
0 la mthode du point fixe et de Newton-Raphson. Soit .X E IR une solution de ce
c
::J problme.
0
(\"')
......
1 . Mthode du point fixe
0
N
@
Construire une fonction</> qui soit strictement contractante lef>(x)- ef>(y)I ( klx- yl
...... avec 0 < k < l etc/J(i) =.X .
..c
Ol
::::
En dduire une suite (x(k))kEN qui converge vers la solution de f (x) = O.
>-
a.
0
Donner la vitesse de convergence.
u
2. Mthode de Newton-Raphson
crire la mthode de Newton pour approcher la solution de f (x) = O.
Montrer que la mthode est localement convergente. Est-elle globalement conver-
gente?
Estimer la vitesse de convergence lx(k+I) - x i.

110
Exercices

3.5 Recherche de racines de polynmes


Soit p(x) un polynme de degr n ~ 2 coefficients rels et admettant n racines
distinctes relles x 11 < Xn - I < ... < xi.
l. Appliquer la mthode de Newton-Raphson pour l'approximation des racines
de p.
2. Dmontrer que pour toute valeur initiale x<0 ) > x 1, la suite (x <k))k~O donne par
la mthode de Newton-Raphson est strictement dcroissante et converge vers la plus
grande racine x 1 .
3. M.ontrer que la convergence est quadratique.

3.6 Applications aux systmes


Soit le systme d 'quations non linaire suivant :

- 5 xi + 2 sin(x 1) + 2 cos(x2) = 0,
{ 2 cos(x1) + 2 sin(x2) - 5 x2 (3.16)
= 0,
Notons i = (i 1, i 2) une solution de ce systme.
l . Mthode du point fixe
Montrer que ce systme peut s'crire sous la forme ef>(i) = i o</> est strictement
contractante pour la norme 11-11 1
Vrifier que la solution i est unique.
partir de la fonction </>, construire une suite (x(k)h EN qui converge vers i et
estimer la vitesse de convergence.
2. Mthode de Newton
crire une mthode de Newton pour le systme (3.16).
La solution est-elle toujours bien dfinie?
.~
"O ~ 3.7 Calcul d'lments propres
0 'O
c
::J
c::
::::1 Considrons A E .4;1 , 11 (1R) une matrice symtrique et E lR une valeur propre
_.
0
('\'")
"'
Q) simple de A et v E JR11 un vecteur propre associ tel que llv112 = 1.
Q)
T"-f
0
~
.;a l . crire le systme sous la forme F(x, A) = 0 o F est une fonction de JR1z+ 1 dans
N .....
@
_.
0
::::1
JR'i+ 1. En dduire la mthode de Newton-Raphson associe ce problme .
~
..c
Ol
"'c::
0
2. Calculer \7 F et montrer que la solution est bien dfinie et que la suite converge
c::
:::: Q) localement.
>-
a.
0
s..
0
u (.)

B Solutions des exercices


0
..c::
p..
3.1 Le calcul approch d'une racine carr.
"'
~
1 l. Nous avons f'(x) = 2 * x et donc la mthode de Newton-Raphson donne
'O
0
c::
( X (k))2 - a _ _1 ( (k) ~)
::::1
0 (k+l) _ (k) _
2 X + X (k).
@ X - X
2x (k) -

111
Chapitre 3 Les systmes non linaires

2. Vrifions que pour a = J2, c/J(a) = -a2 / 4+1 / 2 +a = a. Ensuite, le calcul de


la drive donne cp' (x) = - x / 2+ 1, ce qui signifie que cp est croissante sur l' intervalle
[l , 2], c/J(l) = 5/ 4 et c/J(2) = 3/ 2, d'o</> ([l, 2]) c [1 , 2].
En outre, observons que l</>'(x) I ~ 1/ 2 pour tout x E [1 , 2]. En appliquant un dve-
loppement de Taylor l'ordre un, il vient alors </>(x) = c/J( a) + (x - a) c/J' (17), avec
17 E [1 , 2]. Ainsi

1
lc/J(x) - </>(a)I ~ 2 lx - a l, '/ x E [l , 2],

Puisque </>(a) = a et en appliquant le schma itratif, nous obtenons

lx(k) - al ~ 2 2 k lx (O) - a l.
1 lx (k- 1) - a l ~ . . . ~ (l) (3.17)

3. Le terme (l / 2)k tend vers zro lorsque k ~ +oo. Nous montrons alors, en passant
la lime dans (3.17), que la suite (x(k))kEN converge vers a lorsque k tend vers
l 'infini.
4. Nous souhaitons calculer pour quel entier ko E .N, nous sommes assurs que
o-
lx(ko) - a 1 ~ 1 8 . Il suffit pour cela que

G)'' lx (O) - l ,;:; 10-s ,

c'est--dire k 0 ~ 8 log(l)/ log(2) '.::::'. 27.

3.2 On s' intresse ici une variante de la mthode de la scante.


l . Nous avons

"O
0
lx (k+l) - i l
c
::J
0
(\"')
......
0
N
@
......
..c
En factorisant par e(k) e(k-l) et en insrant le terme (x(k) - x(k-l))/ (x(k) - x (k - l \
Ol
:::: nous avons
>-
a.
u
0 x(k) _ x (k- 1)
le(k+l) I = f (x(k))f (x(k- 1)) x(k) _ x (k - 1)

Puis l'aide d' un dveloppement de Taylor,

112
Exercice s

En crivant une relation analogue pour l'indice k - 1 et en soustrayant les deux


galits il vient alors

f ( x (k))j e<k) - f (x<k- L)) j e<k-1) 1


= - !" (i) + O((e<k)) 2 ).
x<k) - x <k- 1) 2

D'autre part,
1 ('-.J _ _

f(x <k)) - f (x<k-l)) - /'(i)


Ainsi, nous obtenons le rsultat

2. Nous supposons ensuite que pour tout k assez grand,

Ainsi,

D'o a L+L / ac- 1 '.:::: le(k) l l-a+l / a, ce qui signifie que 1 - a+ 1/ a = 0 autrement dit
a = o + VS)/2.

3.3 On s' intresse ici une application de la mthode de point fixe.


l . Un calcul direct montre que efJ() = a. Observons ensuite que a E [1, 2] et

I 2 4
<P (x) = - - + - 3
3 3x
.~
"O ~
0
c
'O
c:: et donc l</>'(x) I ~ 2/ 3, ce qui signifie que
::J ::::1
_.
0
('\'")
"'
Q)
2
T"-f
0
N
Q)
~
.;a
.....
lc/J(x) - </>(y)I ~ 3 lx - YI, V x, y E [1, 2]
_.
0
@ ::::1
~
..c
Ol
"'c::
0
et </>([1, 2]) c [1, 2]. Ainsi, la mthode itrative x<k+l) = efJ(x(k)) est convergente pour
c::
:::: Q) tout x<O) E [1, 2].
>-
a. s..
u
0 0
(.) 2. Il suffit d'observer que c/J'() = 0, un dveloppement de Taylor donne alors
B
0
..c::
~ ) cp
p.. 2
"'
~
1
efJ(x) = </>()+(x - )</>'()+ (x 11
(17), avec 1J E [1 , 2].
'O
0
c::
0
::::1
cela donne lx<k+l ) - a l ~ C lx (k) - l2 et la mthode est d'ordre deux.
@

113
Chapitre 3 Les systmes non linaires

3.4 Ici on applique la mthode de Newton-Raphson.


l . Pour la mthode du point fixe, il suffit de prendre <f>(x) = sin(x)/ 5 + 1/ 2 dfinie
sur R, qui est telle que </>(x ) = - f (x ) + x et vrifie 1</>' (x ) 1 ( 1/ 5 pour tout x E R,
ce qui signifie que l<f>(x ) - </>(y)I ( lx - Yl/5.
D'aprs ce qui prcde la suite dfinie par x(k+J) = <f>(x(k)) converge vers
l'unique point fixe de <P et donc vers une solution de f (x ) = O. Nous avons
lx(k) - i l ( lx(O) - i l/ 5k pour tout k ~ .
2. Pour la mthode de Newton-Raphson, nous avons J '(x ) = 1 - cos(x)/ 5 qui
vrifie lf'(x )I ~ 4/ 5 et lf " (x )I = 1sin(x )/ 51 ( 1/ 5. La mthode de Newton s'crit
alors
(k) . ( (k)) 5/ 2
x(k+ I) = x(k) - 5 x - sm x -
5 - cos(xCk))

En agpliquant le Thorme 3.12, nous montrons que la suite (x(k)hE N est convergente
si xC ) appartient un voisinage de la solution i E R.
Ici, il est possible de montrer que la convergence est globale. En effet, supposons par
exemple que x(O) ( i puisque la fonction f est croissante f (x(k)) ( f (i ) = 0 et

x(k+ l) = x (k) - !(x (k)) ::::::: x (k)


f '(xCk)) ?' '

la suite est donc croissante et borne, elle est donc convergente vers son point sta-
tionnaire i E R. Par un raisonnement analogue, nous montrons que lorsque x(O) ~ i,
la suite converge vers i E R .
L'estimation du Thorme 3 .12 donne

3.5 On cherche approcher les zros d' un polynme.


"O
0 l. Appliquons la mthode de Newton-Raphson pour approcher les racmes
c
::J (xi )1 ~i~ 11 , la mthode itrative est alors fournie par
0
(\"')
......
0
N
@
......
..c
Ol
::::
>-
a.
0 2. Supposons que le coefficient devant le terme x" du polynme p est strictement
u
positif, alors p est strictement positif pour tout x > x 1. D ' autre part en appliquant le
Thorme de Rolle, le polynme p' admet (n - 1) racines notes (17i ) t~i~n-I telles
que x11 < Y/n-l < x 11 _ 1 < ... < Y/ J < x 1.Enutilisantlemmeargumentque
prcdemment, nous dmontrons que pour tout x > x 1, p' (x ) > O. En appliquant
une nouvelle fois le Thorme de Rolle, nous prouvons que p" est strictement positif
pour tout x > x 1 car n ~ 0 et finalement p"' (x) est positif ou nul pour x > x 1.

114
Exercices

Ensuite, l'aide d' un dveloppement de Taylor-Young, nous obtenons

avec 80 E [x1, x (O) ]. Puis, en appliquant la mthode de Newton-Raphson et ce dernier


rsultat, nous obtenons
0
(1) _ (O) p(x< >) - p(x1) _ + p"(8o) ( (0))2
X - X - - XJ XJ - X .
p'(x(O)) 2 p'(x(O))

Ainsi, en utilisant la stricte positivit de p' et p" pour tout x > x 1, nous dmontrons
que x 1 < x< 1> < x(O).
Par rcurrence, nous tablissons que la suite (x(k))kE N est strictement dcroissante et
minore x 1 < x(k+l) < x(k). La suite (x(k>)k~O est donc convergente. Notons par
x sa limite et montrons que x = x 1 . Par passage la limite dans la mthode de
Newton-Raphson, il vient .X = .X - p(i)/ p'(x), ou encore

p(i) = 0
p'(i) '

comme .X ~ x 1 , nous savons que p'(x) > 0 donc .X est la plus grande racine de p,
c'est--dire .X = x 1.
3. D'autre pait, puisque pour tout x ~ x 1 , p"'(x) ~ 0, il vient p"(x(k)) ~ p"(x(O))
et p'(x(k)) > p'(x 1), donc

"( (0))1
x(k+I ) - X 1 ~ 1p X lx (k) - X 12
l
' " 2 lp'(xi)I i ,

.~ c'est--dire que la vitesse de convergence est quadratique .


"O ~
0
c
'O Ainsi, nous avons dmontr que pour un polynme p de degr n ~ 2, coeffi-
c::
0
::J ::::1
_. cients rels et admettant n racines relles distinctes, la suite (x(k))k ~O donne par la
('\'")
"'
Q)
mthode de Newton-Raphson est strictement dcroissante et converge vers la plus
Q)
T"-f
0
N
~
.;a
.....
grande racine x 1 pour tout x(O) ~ x 1.
_.
0
@ ::::1
~
..c
Ol
"'c::
0
3.6 Voici une application aux systmes non-linaires.
c::
:::: Q) l . Posons
>-
a.
0
s..
0 2 ( sin(x 1) + cos(x2) )
u </>(xi' x2) = 5
(.)

B cos(x1) + sin(x2) '


0
..c::
p..
elle vrifie bien </>(.X) = .X et est strictement contractante pour la norme 11-11 1. En effet,
"'
~
1 un calcul direct donne
'O
0
c::
::::1
0
@ \7 cp(x)

1 15
Chapitre 3 Les systmes non linaires

et ll'V <P ll 1 = ~ max(I cos(x1 ) 1+ 1sin(x1)I,1 cos(x1 ) I +1 sin(x1 )I) (


4/ 5. Puis en effec-
tuant un dveloppement de Taylor l'ordre un pour tout x, y E IR2

<f>(x) = <fa(y ) + \7<f>(17)(x - y ),


2
avec 17 E IR et donc 11</>(x) - <fa(y)ll 1 ( 4 llx - Ylli/5.
Nous en dduisons alors que la solution du point fixe </>(i) = i est unique. En effet,
supposons qu'il existe i et y tels que i = </>(i ) et y = <f>(ji). Alors

d' o Ili - .Yll 1 = 0 et donc i =y.


La mthode du point fixe est alors donn par x<k+J ) = <fa(x(k)) pour k ~ 0 et x(O) E IR2
quelconque. D'aprs le Thorme 3.4, la suite converge vers i et

2 . Pour la rsolution par la mthode de Newton, nous construisons une fonction f

et calculons son jacobien \7 f

"O
0
La mthode de Newton est bien dfinie pour toute donne initiale lorsque la matrice
c
::J \7 f(x 1 , x 2 ) est inversible en tout pointx = (x 1,x2 )7" E IR2. Vrifions alors
0
(\"')
......
0
N
det(\7 f(x)) = 25 - 10 (cos(x2) + cos(x 1)) + 4 cos(x 1 + x2 ) ~ 1,
@
......
..c ce qui signifie que \7 f (x 1, x2 ) est inversible et la suite (x(k))kEN est donc donne,
Ol
:::: pour x<0 ) E IR2, par
>-
a.
0
u

ou encore

116
Exercices

3. 7 Voici une autre application aux systmes non-linaires.


l . Posons simplement
F(x,) = ( :,xx-=- ~x )
et la mthode de Newton-Raphson est alors donne par

Pour que cette suite soit bien dfinie, il suffit que V' F soit inversible en (v , ) E ffi.11+1.
2. Le calcul du jacobien V' F donne alors

V'F(x , A) = ( ~J A/,, -X)


0 .

Pour que la mthode de Newton-Raphson soit bien dfinie et localement convergente,


il suffit que la matrice jacobienne V' F(x, ) soit inversible en l'lment propre (v , ).
Supposons qu 'il existe (x , ) E ffi.n+ l tel que

\7 F(v , ,) ( ~) Ont""

et montrons que (x , ) = O. Nous avons

Ax - x - v = 0 (3.18)

et
2vT x = O. (3.19)
En multipliant (3 .18) par v et en utilisant le fait que A est symtrique, nous obtenons
.~
"O ~
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
et comme A v = v et vT v = 1, ceci entrane forcment que = O.
Q)
T"-f ~
0 .;a Ensuite en prenant = 0 dans (3.18), il vient A x - x = 0, c 'est--dire que
N .....
_.
0
@ ::::1 x E Ker( A - ln) = ffi. v car est une valeur propre simple. Or d'aprs (3.19), nous
~
..c
Ol
"'c::
0 savons que vT x = 0, ce qui signifie que x est la fois colinaire v et orthogonal
c::
::::
>- Q)
s.. v, donc x = O.
a. 0
0
u (.) D'aprs le Thorme 3.23, la mthode de Newton-Raphson pour la recherche d' une
B
0
..c:: valeur propre simple d'une matrice symtrique est donc localement convergente.
p..

"'
~
1
'O
0
c::
::::1
0
@

117
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
OPTIMISATION

L'optimisation est un sujet vaste dont l'objectif est d'agir sur un systme afin
d'en amliorer les performances et de rechercher la solution qui offre le meilleur
rendement. Les applications concernent autant l'conomie que la gestion des
ressources ou encore la conception optimale. D 'un point de vue mathmatique,
l' optimisation revient rechercher le minimum ou le maximum d'une fonction
sachant que l'inconnue satisfait des contraintes qui dpendent du problme phy-
sique.

4.1 INTRODUCTION
Commenons par donner un exemple pratique de problmes d'optimisation.

Problme de transport optimal


Un problme classique en optimisation est le transport de marchandises des usines
vers les lieux de vente. Pour une vision concrte du problme, considrons simple-
ment le cas d' un nuage fini constitu par exemple de quatre points dans le plan 1 .
Connaissant la configuration du nuage
au temps initial indiquant les points de
dpart et l'instant final correspondant A1
aux points d'arrive, nous recherchons
comment transporter ces points de faon
optimale entre les deux configurations. ~-+OB,
l'instant de dpait, le nuage est donc
dfini par une liste de quatre points dans Q B2
"O
0
c le plan A 1, A 2 , A 3, A 4 , et l'instant final Figure 4.1
::J
0 par quatre autres points B 1, B2, B3, B4. Illustration du transport optimal
('\"') de d eux nuages de points; i l
,..-! Un point cl comprendre est que nous s'agit finalement d 'u n problme
0
N ne nous soucions aucunement de l' indi- de combinatoire.
@
~
vidualit des particules et que leur
..c
Ol numrotation est arbitraire. Ainsi, il est parfaitement possible de transporter, par
::::
>-
a.
exemple, A 1 vers B3, A 2 vers B 1, A3 vers B4 et A 4 vers B2. En revanche, nous ne
0
u sommes pas autoriss dplacer A 1 et A 2 vers 8 3 en laissant 8 4 vacant.

1. C'est au XVII e sicle que Gaspard Monge (1746- 18 18) se propose dans un mmoire intitul Sur
la thorie des dblais et des remblais, d'tudier comment dplacer au mieux un tas de sable en lui
appliquant une mthode rigoureuse dite optimale . De nos jours, ce type de problme de recherche
oprationnelle dsigne l'ensemble des mthodes permettant de traiter de manire systmatique et
efficace des problmes de combinatoires.
Chapitre 4 Optimisation

Il faut donc chercher une solution optimale parmi tous les arrangements possibles,
c'est--dire parmi toutes les bijections des indices {1 , 2,3 , 4} vers eux-mmes. Le
nombre d'arrangements possibles des n premiers entiers s'appelle la factorielle n, ici
nous avons donc 4! = 24 possibilits. Trouver la solution optimale revient minimi-
ser un cot, que 1' on choisira ici comme la distance euclidienne entre les points de
dpart et les points d' arrive. Une solution naturelle consiste donc explorer les 24
possibilits et ne retenir qu' une solution parmi celles dont le cot est le moins lev.
Cette mthode est beaucoup trop coteuse lorsque le nombre de points devient trop
lev, il s'agit alors de mettre au point des algorithmes numriques rapides qui slec-
tionnent la bonne solution. Pour cela, il est indispensable de proposer une formula-
tion mathmatique adapte puis d'tudier les particularits de la solution de manire
diminuer le cot de calcul.
Lorsqu'il ne s' agit plus seulement de dplacer des particules mais un volume
0 0 c Rd vers un autre volume 0 1 c Rd, tels que mes(flo) = mes(fi 1), o mes(.)
dsigne la mesure au sens de Lebesgue (voir [32]), le problme de transport optimal
consiste rechercher un 1&7 1-diffomorphisme T : 0 0 i---+ 0 1 o T est un oprateur
de transport prservant le volume, c'est--dire pour tout volume A c 0 0

mes(A) = mes(T(A)), (4.1)

qui minimise le cot suivant

/ llx - T(x)ll 2 dx ,
Jno
lequel peut tre identifi au carr d'une distance.
Le problme s'crit alors: trouver T vrifiant (4.1) tel que

'O
{ llx - T(x)ll 2 dx
} ['
= ajn { llx - T(x)ll 2 dx.
T venfiant } ['
0 HO (4. l) HO
c
::J
0
('\"')
,..-!
Plus gnralement, dans ce chapitre nous considrons E un R-espace vectoriel,
0
N une fonction f : K i---+ R, o K est un sous-ensemble de E et nous nous intressons
@ la recherche des minima i tel que
~
..c
Ol
::::
>-
a.
i E K tel que :
u
0
{ f(i) = min
.. f(x).
xEK

Par la suite, nous tudions des problmes d'optimisation sans contrainte, c'est--
dire lorsque K recouvre tout l'espace E et donnons alors des conditions pour l' exis-
tence et l' unicit de solutions et mettons en uvre quelques algorithmes de rsolu-
tion. Enfin, nous traitons le cas gnral de problmes d'optimisation sous contraintes.

120
4.2. Optimisation sans contrainte

4.2 OPTIMISATION SANS CONTRAINTE


Considrons f E ~0 ( E , JR) et E un JR-espace vectoriel norm. Nous recherchons un
minimum global de f, c'est--dire un point i E E, qui vrifie

f(i) = min f(x) , (4.2)


x EE

ou un minimum local, c'est--dire un point i E E pour lequel il existe a > 0, tel que

f(i) = min f(x), (4.3)


xE B(-i ,a )

o B(i, a) dsigne une boule de centre i et de rayon a.

4.2.1 Rappels sur les fonctions convexes


La convexit joue un rle important pour dmontrer l'existence et l'unicit d'une
solution d'un tel problme (4.2) ou (4.3).

Dfinition 4.1
Soient E un JR-espace vectoriel, K C E un ensemble convexe et f :K ---+ JR.
f est une fonction convexe si elle vrifie f (tx +(1 - t)y) ~ tf (x)+(l - t)f (y),
pour tout x, y E K ett E [0, 1],
f est une fonction strictement convexe si f (tx+(l - t)y) < tf (x)+(l - t) f (y),
pour tout x , y E K tel que x =J. y et t E ]0, l[.

Prsentons alors des proprits permettant de caractriser la convexit d' une fonc-
tion .
.~
"O ~
'O
Proposition 4.2 Caractrisation de la convexit
0
c c::
0
::J ::::1
_. Soient E un JR-espace vectoriel norm, K c E un ensemble convexe et
"'
('\'")
T"-f
Q)
Q)
~
f : K 1---+ lR une fonction diffrentiable sur K. Alors la fonction f est convexe
0
N
.;a
..... si et seulement si pour tout x, y E K , f(y) ~ f(x) + \7 f(x)(y - x). Elle est
_.
0
@ ::::1 strictement convexe si l'ingalit est stricte pour x =J. y.
~
..c
Ol
"'c::
0 En supposant de plus que f est deux fois diffrentiable, f est convexe si et seule-
c::
::::
>- Q)
s.. ment si pour tout x, y E K , (y - x)T\72 f(x) (y - x) ~ O. Elle est strictement
a.
u
0 0
(.) convexe si l' ingalit est stricte pour x =J. y.
B
0
..c::
p..

"'
~
1
DMONSTRATION. Supposons que f est une fonction convexe. Pour x , y E K et
'O
0 t E [0, l], par dfinition de la convexit nous avons
c::
::::1
0
@ f(t y + (1 - t)x) ~ t f(y) + (1 - t) f(x) (4.4)

121
Chapitre 4 Opt imi sati on

ou encore
f (x + t (y - x)) - f (x) ~ f(y) _ f (x).
t
Puisque la fonction f est diffrentiable, en faisant tendre t vers 0, nous obtenons
alors f (y) ~ \7 f (x) (y - x) + f (x).
Lorsque f est strictement convexe, l'ingalit est stricte pour x =!= y et t E]O, 1[
mais elle devient large par passage la limite. Pour dmontrer qu'effectivement
\7 f (x) (y - x) < f (y) - f (x), observons que pour touts > 0,
s- t t
X + t (y - X) - - x + - (x + s(y-x)),
s s
d'o pour 0 < t < s < 1,
f (x + t (y - x)) - f (x) f(x + s (y - x)) - f (x) f ) f )
< < (y - (x .
t s
Nous obtenons l'ingalit stricte souhaite en gardant s fix et en faisant tendre t
vers O.
Montrons maintenant la rciproque. Prenons x , y E K , et t E]O, 1 [ puisque pour
t = 0 et t = 1 nous n'avons rien dmontrer. Nous avons d'une part

f (x) ~ f (x + t(y - x)) - t\7 f (x + t(y - x))(y - x)

et d'autre part

f(y) ~ f(x + t(y - x)) + (1 - t)\7 f(x + t(y - x))(y - x).

Nous obtenons l'ingalit de convexit en prenant la combinaison convexe des inga-


lits.
Pour montrer la caractrisation de la convexit en termes de diffrentielles secondes,
considrons x, y E K et 0 < < 1 assez petit, y := x + (y- x) E K, puisque K
-g est convexe. Introduisons alors q> E ~2(IR, IR) dfinie par q>(t) = f (x + t (y - x )).
Il vient alors
0
('\"')
,....f
0
N cp(I) - cp(O) = l cp'(t)dt ,

1)]~ l
@
~
..c
Ol
::::
(cp'(t)(t - - cp"(t)(t - l)dt ,
>-
a.
0
u

l
c'est--dire,
/(y,) - f(x) = cp'(O) + cp"(t)(l - t)dt.

Or, q>1(t) = \7f (x +t (y - x)) (y - x) et en drivant une nouvelle fois


2
11
q> (t) = (y - xl \72 f(x + t (y - x))(y - x).

12 2
4.2. Optimisation sans contrainte

Nous avons donc en utilisant la premire caractrisation de la convexit par la diff-


rentielle premire que f (y) - f (x) - cp'(O) ~ 0 et ainsi
1
E
2
fo (x - y)' V' y(x + t(y - x))(y - x) (1 - t) dt ;;, 0, V x, y E K.

En simplifiant par E2 et en observant que pour x, y E K fixs, \7 2 f(x + u(y - x))


tend vers \7 2 f(x) uniformment lorsque E tend vers 0, pour tout t E [O, 1]. Nous
avons donc,
(y - xl \7 2 f(x)(y - x) ~ O.

Montrons maintenant la rciproque. En utilisant un dveloppement de Taylor : il


existe t E]O, 1[ vrifiant
f (y) - f(x) - \7 f (x) (y - x)
(1 - t)(y - xl \7 2 f(x + t(y - x))(y - x)

_ l _ \7 2 f(x + t(y - x)) (y - (x + t(y - x)), y - (x + t(y - x))),


1- t
~ 0,
ce qui montre bien que f est convexe. D
Enfin, examinons les proprits des extrema de fonctions convexes.

Thorme 4.3 Extrema de fonctions convexes


Soient E un espace ffi.-vectoriel norm, K c E un sous-ensemble convexe et
f : K 1---+ ffi.. Nous avons les rsultats suivants :
si f est convexe et admet un minimum local dans K, alors ce minimum est
global,
si f est strictement convexe alors elle admet au plus un minimum .X E K, et
"O
.~
~ c'est un minimum strict, c'est--dire que pour tout y E K, f (.X) < f(y),
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)

T"-f
0
Q)
~
.;a
DMONSTRATION. Supposons d'abord que f est convexe et admet un minimum
N ..... local .X E K. Pour tout t E]O, l], nous avons par convexit de f, pour tout x E K
_.
0
@ ::::1
f(x + t(x - i )) - f (.X) ~ t(f (x)- f(x)) et puisque le membre de gauche est positif
~
..c "'c::
Ol
::::
0
c:: ou nul pour t > 0, cela signifie que f (x) - f (.X) ~ 0 pour tout x E K , .X est donc
un minimum global. Ensuite, lorsque f est strictement convexe, nous raisonnons de
Q)
>-
a. s..
0
u
0 (.)

B manire analogue mais l'ingalit est stricte f(x) - f(i) > 0 pour x E K. D
0
..c::
p..

"'
~ 4.2.2 Rsultat d'existence et unicit
1
'O
0
c::
Commenons par donner des conditions ncessaires et suffisantes pour qu'un pro-
0
::::1
blme de minimisation sans contrainte possde au moins une solution. Tout d'abord,
@ prsentons une condition ncessaire simple.

123
Chapitre 4 Optimisation

Proposition 4.4 Condition ncessaire d'o timalit

Soient E un ffi.-espace vectoriel norm, f E <tt0 (E , ffi.) et i E E tels que f soit


diffrentiable en i. Si i est une solution de (4.2) ou (4.3) alors \7 f (i) = O.

DMONSTRATION. Supposons que f possde un minimum local, l'extension un


minimum global est vidente. Il existe alors un rel a > 0 tel que f(i) ~ f(x),
pour tout x E B(i , a), o B(i, a) dsigne la boule ouverte de centre i et de rayon a.
Choisissons z E E, non nul quelconque et un rel tassez petit, vrifiant ltl < a/ llzll,
nous vrifions que i + t z E B(i , a) et f(i) :( f(i + t z). Ainsi, puisque la
fonction f est diffrentiable en i, il vient, en effectuant un dveloppement de Taylor:
f (i + t z) f (i ) + t \7 f (.X) z + ltlt:2 (t), o Ez(t) ~ 0 lorsque t ~ O. Nous avons
donc
f(i) :( f(i) + t \7 f (i) Z + ltl Ez(t).
Par consquent, pour t E]O, a/ llzllL nous avons

\7 f (i) Z + Ez(t) ~ 0.

En passant la limite t ~ 0 , nous obtenons finalement que \7 f (i) z ~ 0, pour tout


z E E. Enfin, puisque E est un espace vectoriel, pour tout z E E, - z E E, donc
\7 f (.X) z :( 0 pour tout z E E. Par consquent, \7 f (i) = O. D

La proposition prcdente donne une condition ncessaire mais non suffisante.


Exemple
En effet, \lfW = 0 n'entrane pas forcment que f atteint un minimum ou un
maximum local ou global en*= Pour le vrifier il suffit de prendre E = R avec
x = 0 et f(x) = x 3 , nous avons bien f ' (O) = 0 cependant 0 n'est pas un extremum.

Donnons par la suite quelques rsultats d' existence lorsque E est un espace de
"O dimension finie ou infinie. Avant d 'noncer ces rsultats, dfinissons l'application
0
c
::J
produit scalaire hermitien sur E , un IK-espace vectoriel E , par
0
('\"')
,..-!
0 Dfinition 4.5
N
@
Un produit scalaire hermitien ( , ) est une application de E x E valeur dans
~
..c
IK = ffi. ou <C telle que pour tout x E E, \x , x) E ffi.+ et
Ol
::::
>- pour tout x, y E E, (x, y) = \y, x),
a.
u
0 pour tout x, y et z E E et E IK, (x + Az, y) \x, y) + (z, y),
\x, y) = 0 pour tout y E E {::::::::} x = OE.

partir du produit scalaire hermitien (., . ) , dfinissons la norme induite par

llxll=~.

124
4.2. Optimisation sans contrai nte

Dfinition 4.6
L'espace vectoriel (E, 1111) est un espace de Hilbert lorsque E est un espace
vectoriel munj d'un produit scalaire(. , .) et de la nonne li.li et que cet espace est
complet pour la topologie induite par (., .) .

Exemple
L'espace !Rm muni du produit scalaire euclidien est bien sr un espace de Hilbert
de dimension finie.

Proposons un premier rsultat d'existence de mimmum.

Proposition 4.7 Existence d 'un minimum en dimension fin ie

Soient E un espace vectoriel norm de dimension finie et f : E -; lR une


application telle que
(i) f soit continue,
(ii) f(x) -; +oo lorsque llxll -; +oo.
Alors il existe i E E solution de (4.2).

DMONSTRATION . La preuve d'existence d'un minimum pour f


devient simple
lorsque nous ramenons le problme sur une compact de E . Pour cela, utilisons la
condition (ii) qui peut encore s'crire pour tout A > 0, il existe un rel R > 0,
tel que pour tout x E E vrifiant llxll ~ R alors lf(x)I ~ A. Prenons par exemple
A = f (0), il existe alors Ro > 0 tel que pour tout x E E vrifiant llxIl ~ Ro,
f (x) ~ f (0). Nous en dduisons que
inf f(x) = i@ f(x) ,
xEE x E BRo

o BRo = {x E E, llxll ~ Ro}. Or, puisque E est de dimension finie, la boule


.<;:::: ferme B Ro est un ensemble compact de E et la fonction f est continue, il existe
"Cl ~
0 "O donc i E BRo tel que f(i) = minyEBR f(y) et donc f(i) = minyEE f( y ), ce qui
c c 0
::::>
Cl ....:::i dmontre le rsultat. o
(V)
"'
~

.-1
0
~
'V Lorsque E est un espace de Hilbert de dimension infinie, nous pouvons gale-
.~
N
0""'
.... ment tablir l'existence d'un minimum mme si la boule ferme BR n'est en gnral
@
.
:::i
: pas compacte : il faut alors ajouter une hypothse de convexit sur la fonction f
.c. c
0)
;::
0
c minimiser [2][Thorme 9.2.7].
~
>-
o.. a.
0
0
u (.)
0
0
..s::::
~
o.. Soient E un espace de Hilbert ventuellement de dimension infinie et f une
~ fonction convexe continue et telle que
1
"O
0
c
li m f (x) = +oo. (4.5)
:::i llxlJ --Hoo
Q
@ Alors il existe i E E solution de (4.2).

12 5
Chapitre 4 Optimisation

Notons enfin que l'hypothse (4.5) de la Proposition 4.8 peut tre remplace par
l'hypothse suivante : il existe b E E et R > 0 tels que pour tout llxll ~ R,
f(x) ~ f(b).
Concernant l' unicit d'un minimum, observons que les hypothses de la Propo-
sition 4.7 ne permettent pas de conclure. Pour s'en convaincre, prenons simplement
E = lR et f (x) = x 2 (x - l)(x + 1) qui a plusieurs extrema. Pour obtenir l'unicit de
la solution i, nous avons besoin de la notion de convexit.

Proposition 4.9 Condition suffisante d'unicit


Soient E un JR-espace vectori el et f une fonction de E --+ lR strictement convexe
alors il existe au plus un i E E de (4.2).

D MONSTRATION. Considrons f une fonction strictement convexe et raisonnons


parl'absurde.Supposons qu'ilexiste iet y E Etelsquef(i) = f(y) = minz EE f(z)
avec .X =/:- y.
Alors puisque f est strictement convexe, si i =/:- y,

1 1 ) 1
f ( 2.x + 2.Y < 2 (f(i) + f(y)) = ~~ f(z) ,

ce qui contredit le fait que .X est un minimum de f, nous en dduisons que .X = y. D


Cette dernire proposition n'assure pas l'existence d'une solution au problme de
minimisation (4.2) ou (4.3). Par exemple dans le cas E = lR et f (x) =ex, la fonction
f est strictement convexe mais n'atteint pas son minimum, car infxEIR f (x) = 0 et
f (x) est strictement positif pour tout x E JR.
En runissant les hypothses des propositions prcdentes, nous obtenons le rsul-
tat d'existence et d' unicit suivant:

"O
Thorme 4.1 0 Existence et unicit
0
c
0
::J Soient E un espace de Hilbert et f une fonction de E --+ JR. Supposons que :
(i) la fonction f est continue,
('\"')
T"-f
0
N
@
(ii) la fonction f vrifie f(x)--+ +oo quand llxll --+ +oo,
~
..c (i i i) la fonction f est strictement convexe.
Ol
::::
>-
a.
Alors il existe un unique .X E E solution de (4.2).
0
u

Cas d'une fonctionnelle quadratique


Dans le cas d'une fonctionnelle quadratique, considrons A E Atm,mOR), b E JRm et
fla fonction de JRm dans lR dfinie par

f(x) = 1 x r Ax - b r x.
2
126
4.2. Optimisation sans contrainte

Alors f E '6'00 (Irr , ~). Le ca lcul du gradient de f donne 'V f(x) = (Ax + Ar x)/ 2 - b .
Donc, si A est symtrique 'V f(x) = Ax - b tandis que le calcul de la hess ienne de
f donne

Nous en dduisons que lorsque A est symtrique, \7 2 f(x) = A. En outre lorsq ue


A est symtrique dfinie positive, la fonction f vrifie bien les hypothses du
Thorme 4.1 0 et il existe donc un unique x E ~m tel que f(x) = minyEu~m f(y). La
solution x est aussi l'u nique solution du systme linaire Ax = b.

4.2.3 Mthodes d'optimisation sans contrainte


Dans cette partie, supposons pour simplifier que E = ffi. 111 Tout d'abord, grce la
Proposition 4.4, nous savons que lorsque la fonction f est suffisamment rgulire, la
solution du problme de minimisation i E E vrifie V7 f(i) = 0, nous pouvons donc
appliquer les algorithmes proposs au chapitre prcdent la fonction V7 f comme la
mthode de Newton. Cependant, cela n'assure pas forcment que la solution num-
rique approche bien la solution recherche i E E , puisqu'un maximum de la fonction
f a galement un gradient nul !
Proposons alors quelques mthodes numriques spcifiques pour la recherche d'un
minimum d'une fonction f : ffi. 111 i---+ ffi..

Mthodes de descente
Soit f E ~0 (ffi.m , ffi.). Supposons qu'il existe i E ffi.m solution de (4.2) ou (4.3).
Nous allons maintenant dvelopper des mthodes itratives permettant d'approcher
ce point i E ffi.m. Pour cela, la premire tape consiste construire des algorithmes
de descente o nous recherchons des directions permettant de rendre les valeurs de la
fonction f de plus en plus petite chaque itration.
Prcisons d' abord ce que signifie la notion de direction de descente .
.~
"O ~
0 'O
c c::
0
::J ::::1
_. Dfinition 4.1 l
('\'")
"'
Q)
Soient f E ~(ffi.m, ffi.) et x E ffi.m.
Q)
T"-f ~
0 .;a
N .....
_.
0 le vecteur w E ffi.m \ {O} est une direction de descente en x s'il existe p 0 > 0
@
tel que f (x + p w) ~ f (x), pour tout p E [O, Po],
::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
le vecteur w E ffi.m \ {O} est une direction de descente stricte en x s'il existe
>-
a.
0
s..
0 Po > 0 tel que f (x + p w) < f (x), pour tout p E ]0, Pol
u (.)

B
0
..c::
p..
Ainsi, une mthode de descente pour la recherche de i E ffi.m solution de (4.2) ou
"'
~
1 (4.3) consiste construire deux suites (x (k)h EN et (w Ck)h EN telles que w Ck) soit une
'O
0
c:: direction de descente stricte en x(k) vrifiant x(k+I) = x (k) + P k w Ck), avec P k > 0
::::1
0 bien choisi.
@

127
Chapitre 4 Optimisation

Pour mettre en place cette mthode nous avons donc besoin de fournir une indica-
tion pour bien choisir la direction de descente stricte w (k) au point x(k) et le scalaire
Pk > O. Pour cela, dmontrons le rsultat suivant.

Proposition 4.12 Caractrisation d'une direction de descente


Soient x E ffi.m, w E ffi.m \ {O} et f E 1&7 1(ffi.m,ffi.).
Si le vecteur w est une direction de descente en x, alors w T \7 f (x) ~ O.
Si \7 f(x ) # 0, alors le vecteur w = -\7 f (x ) est une direction de descente
stricte en x .

DMONSTRATION. Pour x , w E ffi.m , dfinissons la fonction 'P : ffi. f--7 ffi. par:
<p(p) = f (x + p w ) . Nous avons alors 'P E 1&7 1(ffi. , ffi.) et <p'(p) = wT \7 f (x + p w ) .
D'une part, considrons w E ffi.m \ {O} une di rection de descente au point x, il
existe alors p0 > 0 tel que f (x + p w ) < f (w), pour tout p E]O, p 0 ] ou encore
<p(p) ~ <p(O), pour tout p E]O, Pol
Ainsi, pour tout p E]O, Po]
'P(P) - <p(O)
~ O.
p- 0
En passant la limite lorsque p ---? 0, nous en dduisons que <p1(0) ~ 0, ce qui signifie
que wT \7 f (x ) ~ 0, ce qui montre le premier rsultat.
D'autre part, choisissons w = - \7 f (x) # 0 et obtenons alors

'P'(O) = wT \7 f(x ) = - llVf (x)ll 2 < O.

"O
Puisque <p 1 est continue, il existe Po > 0 tel que pour tout p E [0, po], <p1(p) < O.
0
c Ainsi, pour tout p E]O, p 0 ], il vient
::J
0
('\"')
,..-!
0
f (x +pw) - f(x ) <p(p) - <p(O) ,
N
@
~
foP<p' (s )ds < 0,
..c
Ol
::::
>-
a.
0 ce qui prouve que w est une di rection de descente stricte en x . D
u
Nous en dduisons alors la premire mthode du gradient pas fixe.

Mthode du gradient pas fixe


Soit f E 1&7 1(ffi.m , ffi.), la mthode du gradient pas fixe s'crit: pour p > 0 et s > 0
un petit paramtre fix

128
4.2. Optimisation sans contrainte

Mthode du gradient pas fixe


Pour x0 EIR.m donn , poser xt0> = x0 , e<0l=2e, et k=O .
Tant qu e e(k) ~ e
- c a l cu l e r w(kl = - \7 f (x<k>)
- poser x(k+1l = x( k} + pw<k> et ca lcu ler le rs idu
e(k+1} = 11 x(k+1) - x<k>IL
- itrer kf-- k+1.
Fin de ta nt qu e .

Cette mthode ne converge pas systmatiquement, notamment parce que \7 f peut


s'annuler ailleurs qu'en un extremum. Cependant, sous des hypothses sur la fonction
f et sur le paramtre p > 0, dmontrons un rsultat de convergence vers le minimum
global.

Thorme 4.1 3 Conver ence du


Soit f E ~ 1 (1Rm, IR). Supposons que:
il existe a > 0 tel que (x - y)1' (\7 f(x) - \7 f(y)) ~ a llx - Yll2 , pour tout
x , y E IRm,
il existe L > 0 tel que ll\7 f(x) - \7 f(y)ll :( L llx - Yll, pour tout x, y E IRm.
Alors f est strictement convexe et le problme (4.2) admet une unique solution.
En supposant en outre que 0 < p < 2a/ L alors la suite (x<k)h EN, construite par
la mthode du gradient pas fixe, converge vers l'unique solution du problme
(4.2).

D MONSTRATION. Soit 'P : IR r--+ IR dfinie par <p(t) = f(x + t (y - x)). Nous
avons

.~
/(y) - f(x) = <p(l) - <p() = l (y - x)' \7 f(x + t (y - x)) dt .

"O
0
~
'O
Puis en retranchant (y - x l \7 f (x) et en utilisant la premire hypothse, il vient
c c:: alors pour x -=f. y
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
f (y) - f (x) - (y - x/\7 f (x)
0 .;a
N .....
@
_.
0
[1 t (y - xl [\7 f(x + t (y - x)) - \7 f(x)] dt,
~
::::1

"'c:: Jo t

;: , al
..c 0
Ol c::
::::
>-
a.
0
Q)
s..
0
t ll Y- xll 2 dt,
u (.)

B
0
a 2
..c::
p.. 11y - x ll > 0,
2
"'
~
1 ce qui montre que f est strictement convexe. En outre, en prenant x = 0 dans l'in-
'O
0
c:: galit prcdente, il vient
::::1
0
@ f(y) ~ f(O) + YT \7 f(O) + ~ llYll 2

129
Chapitre 4 Optimisation

Puisque IYT V7 f(O)I ~ l V7 f(O)ll llYll, nous avons YT V7 f(O) ; ;: : - llV7 f(O)ll llY ll et
f(y) ;;;::: f(O) - llV7 f(O)ll llYll + ~ llYll 2 --7 +oo,

lorsque llYll --7 +oo. Puisque la fonction f est galement continue, par application
du Thorme 4.10, il existe un unique minimum de f.
Posons ensuite <l>(x ) = x - p\;7 f(x). La mthode du gradient pas fixe est une
mthode de point fixe pour <I>, dfini par x<k+ t) = x (k) - p\;7 f (x (k) ) = <l>(x(k)).
Nous vrifions facilement que <I> est strictement contractante lorsque 0 < p < 2{ et
donc par application du Thorme 3.4, la suite (x(k)hEN converge donc vers l'unique
point fixe de <I>. D

Mthode du gradient pas optimal


L'ide de l'algorithme du gradient pas optimal est d'essayer de calculer chaque
itration le paramtre P k qui minimise la fonction dans la direction de descente don-
ne par le gradient, c'est--dire que x<k+l) = x(k) + pkw <k), o w(k) est une direction
de descente en x<k) et P k E JR+ vrifie
f (x (k) + P k w(k) ) = min f (x (k) + p w(k) ).
pER+

La mthode est alors donn, pour e > 0 un petit paramtre, par


Mthode du gradient pas optimal
Pour x 0 Effi.m don n, pose r x(o} = x0 , e<0l= 2e et k= O.
Tant que e (k) ~ e
- c a 1c u1e r w(k) = - 'V f (x(k)) ,
- calc uler P k~ o tel qu e
f (x(k} + p k w(k>) ~ f(ikl + p w(k\ V p ~ O ,
- poser x(k+1l = x(k} + P k w(k) et cal cu 1e r le rs id u
e(k+1l = 11x(k+1) - x <kl ll .

- itrer k~ k + 1.
"O Fin de t a nt que.
0
c
::J
0 Nous obtenons un rsultat analogue celui du Thorme 4.13. Cependant, il n' est
('\"')
T'-f
pas toujours vident de calculer le pas optimal P k E JR+ qui est solution d'un pro-
0
N blme de minimisation en dimension un. Dans la suite, nous tudions un cas parti-
@ culier important o la fonction f est une fonctionnelle quadratique qui prsente un
~
..c
Ol
intrt spcifique pour la rsolution de systmes linaires et pour lequel le pas optimal
:::: peut tre calcul chaque tape.
>-
a.
0
u
4.2.4 Cas d'une fonctionnelle quadratique : la mthode
du gradient conjugu
La mthode du gradient conjugu consiste minimiser la fonctionnelle quadratique
f (x) de la forme

130
4.2. Optimisation sans contrainte

o A E At,n,mOR.) est une matrice symtrique dfinie positive et b E Rm . Nous avons


dj dmontr que ce problme de minimisation admet une solution unique qui est
galement l'unique solution de V7 f (i) = Ai - b = O.
Avant de dcrire la mthode du gradient conjugu, introduisons la dfinition de
vecteurs conjugus.

Dfinition 4.14
Soit A E .4i"m,m(R) une matrice symtrique dfinie positive. Nous disons que
deux vecteurs non nuls v et w de Rm sont A-conjugus lorsque wTA v = vTAw = O.
De plus, la famille {w (l), ... , wCP)} de Rm, compose de vecteurs non nuls, est
dite A-conjugue si (w (i))T A w <n = 0 pour tout couple (i, j) E {l , . . . , p } 2 tel
que i # j.

Nous avons alors le rsultat suivant qui dcoule du fait que la matrice A dfinit un
produit scalaire.

Proposition 4.1 5

Soient A E .4i"m,m(R) une matrice symtrique dfinie positive et { w(l), ... , wCP) }
une famille de Rm .
Si la famille { w(l), ... , wCP)} est A-conjugue alors elle forme une famille
libre.
Dans le cas o p = m si la famille { w<l), ... , w<m) } est A-conj ugue alors elle
forme une base de Rm.

DMONSTRATION. La deuxime partie de la Proposition est immdiate ds que la


premire partie est dmontre. Dtaillons donc seulement la premire partie. Suppo-
sons que {wO), ... , w<P) } soit une famille A-conjugue, c'est--dire que pour tout
"O
.~
~
i # j, le vecteur w <i) est non nul et vrifie (w <i)l A w <n = O.
'O
0
c c::
::::1
Considrons (ak)I ~k~p c R tels que
::J
_.
0
('\'")
"'
Q) p
Q)
T"-f ~
0
N
.;a
.....
L:akw(k) = O.
_.
0
@ ::::1 k=l
~
..c "'c::
Ol
::::
0
c:: Soit i0 E { 1, ... , p}. Multiplions cette dernire galit par ( w Cio))7' A , il vient
Q)
>-
a. s..
0 p
u
0 (.)

B
0
..c::
p..
L ak ( w (k) l A w (io) = 0
k= l
"'
~
1
'O
0
et puisque la famille est A-conjugue, nous en dduisons que aio w Uo)T A wUo) = O.
c::
::::1 Or, wUo)T A w Uo) > 0 car wUo) est non nul et A est dfinie positive, ce qui signifie
0
@ que aio = 0 pour tout io E { 1, . . . , p}. La famille (w< 1), ... , w<P)) est donc libre. D

131
Chapitre 4 Optimisation

Exploitons ce rsultat pour mettre au point un algorithme numrique calculant la


solution de A x = b. En effet, ds que nous disposons de m vecteurs A-conjugus,
le vecteur x E Rm s'crit dans cette base
m
x= L /3 j w<n .
j=l

Puis en multipliant par (w<i)f A , nous obtenons alors l' expression du coefficient /3i
pouri E {1, ... , m}
br w<i)
/3 i = ( w <i))T A w <i)
Nous avons donc une mthode de rsolution du systme linaire ncessitant seule-
ment m tapes. La principale difficult est de construire une famille de m vecteurs
A-conjugus. Nous pouvons facilement vrifier que l'ensemble des vecteurs propres
de la matrice A constitue une famille A-conjugue. Cependant, cette mthode se
rvle en dfinitive trop onreuse.
Mettons au point une mthode plus simple : la mthode du gradient conjugu.
Elle consiste construire une suite ( w<k))k de directions A-conjugues et une suite de
solutions approches (x<k)h bases sur la mthode du gradient pas optimal.
Pour x<O) E Rm, construisons d'abord une direction de descente en x(O) en uti-
lisant la Proposition 4.12, ce qui donne w< 0) = -\7 f(x<0)). Notons bien que si
\7 f (x<0) ) 0, l' algorithme est termin puisque x<O) = .X. Nous avons alors pour
kE N
(4.6)
o d'une part w<k) est une direction de descente en x(k) et Pk E R+ est donn par la
mthode du gradient pas optimal, c'est--dire que f (x(k) + Pk w <k) ) ~ f (x(k)+pw <k) ),
pour tout p E R+.
Ce problme de minimisation admet bien une seule solution x(k), w(k) E Rm fixs.
"O
0 En effet, considrons la fonction <p : R+ ~ R donne par <p(p) := f (x <k) + pw(k) ),
c
0
::J continue, strictement convexe et telle que <p(p) --? +oo lorsque p --? +oo. Ainsi, en
('\"')
,..-!
appliquant le Thorme 4.10, <p admet un unique minimum Pk E R+ et puisque <p est
0
N
drivable, il vient <p1(pk) = 0, c'est--dire (w(k))T \7 f (x (k) + Pk w<k) ) = 0, ou encore
@ en utilisant que \7 f (x) = A x - b,
~
..c
Ol
:::: ( w<k)f (A x<k) - b)
>-
a. Pk = (4.7)
0 (w(k) )T A w(k)
u
Choisissons ensuite une direction de descente en x<k+t) de s01te que la famille
(w<i))O~.i~k+I soit A-conjugue. Pour cela, en nous inspirant de la Proposition 4.12
et en assurant que w<k+L) et w<k) sont A-conjugus, nous posons

(4.8)

132
4.2. Optimisation sans contrai nte

o ak E Rest calcule de sorte que les vecteurs w<k+I) et w <k) soient A-conjugus

V7 f (x <k+l)l A w<k)
(4.9)
( w <k))T A w<k)

premire vue cette condition, reliant w<k+t) x<k) et w<k), permet simplement de
construire une direction de descente en x <k) qui est A-conjugue la direction w<k).
Pourtant, elle suffit assurer que toute la fam ille (w<i))o~i :k+ 1 est A-conjugue.

Proposition 4.16
Supposons que pour tout k E {O, . . . , m - 1}, le vecteur V7f (x(k)) # O. Alors la
famille (w<O)o~i~m- J construite par (4.6)-(4.9) est A-conjugue et de plus vrifie
(V7f(x <l)))T V7f(x(k)) = 0, \fk # l, (4.10)
( w <l)) T V7 f(x (k) ) = 0 , Vk # l. (4.11)

D MONSTRATION. Procdons par rcurrence. D 'abord, nous avons

et puisque V7 f (x<0)) # 0, nous obtenons


V7 f (x<I)) = - A x(I) + b

et par dfinition de p 0 E R+, vrifions que

Puis, par construction du coefficient a 0 E R, les directions w<') et w<0) sont A-


.<;::::
"Cl ~ conjugues.
0 "O
c
::::>
c l'itration k, supposons que nous avons construit les deux fammes {x<0), . . . ,x<k)}
....:::i
Cl
(V)
"'
~
et {w<0), ... , w<k)} vrifiant
~
.-1 'V
0 .~
N
@
0""'
....
:::i
(V7 f (x<k))) T V7 f (x<n) = 0, pour 0 ( l < k,
. :
c
.c.
0)
;::
0
c (V7 f (x<k))) T w <l) = 0 , pour 0 ( l < k, (4.12)
~
>-
o.. a.
0 (w<k))r A w <l) = 0, pourO ( l < k.
0
u (.)
0
0
..s::::
o.. Montrons que ces galits restent vraies l'tae suivante. D ' une part, par construc-
~
~
1
tion de Pk ER+, nous savons que (V7 f(x<k+l))) w<k) = 0 et par dfinition de x<k+I ),
"O
0 il vient galement pour 0 ( l ( k - 1,
c
:::i
Q
@

133
Chapitre 4 Optimisation

et donc par hypothse de rcurrence, nous obtenons le rsultat


(\7 f (x(k+I) )) T w (l) = 0, 0 :::;; l :::;; k - l.
D'autre part, en utilisant (4.6) et l'hypothse de rcurrence, nous avons
(\7 f (x(k+l )) ) r \7 f (x<0)) = (\7 f (x(k) ) + Pk A w(k)) r w<O) = O.
Puis l'aide de (4.8) pour 1 :::;; l :::;; k,

(\7 f(x (k+L) )) T \7 f(x(l)) = (\7 f(x(k+O))T (at-1 w <l-L) - w <l)) = O.


Il reste dmontrer que wCk+l) est A-conjugu { w CO), . . . , wCk)} . Par construction
de ak E ffi., (w<k+l ))T A w <k) = O. Puis pour 0 :::;; l :::;; k - 1, supposons que
\7 f (x(l) ) =J. 0, ce qui signifie que Pt est strictement positif, nous obtenons alors

(w (k+l)l A w<L) = 2._(w(k+l)l (\7 f (x(L+L) ) - \7 f (x(L))) = 0,


Pt
ce qui prouve la troisime galit de (4.12) l'tape k + 1, c'est--dire que la famille
{ w <O), ... , w <k+l) } est A-conjugue. D

Proposons alors un algorithme pour une matrice A E .4'm,m(R) symtrique dfinie


positive et b E ffi.m . Posons f(x) = ~ xT A x - bT x .
Mthode du gradient conjugu
Po u r xo E JRm , poser x<0) = xo e t w(- l ) = 0 E JR.111
Pour k~O constru i r e
r(k) = - \l f (x(k)) = b - A x( k) :
- si r(k) = o a l o rs A x<k) = b et x (k) = x
a uq uel cas l 'a l gor it hme s'arrte ;
- s i r (k)-=!= 0, alors poser w(k) = r(k) + a k - 1 w<k - l ) ,
avec a k - 1 tel que (w(k), A w<k- 1)) = o.
Puis , construire x (k+l ) = x (k) + P k w(k)
"O
0
c et choisir P k tel que
0
::J (\l f(x(k+l)) , w(k)) = 0,
('\"')
T"-f
c 'est - - dire
0
N
@
~
..c
Ol
:::: Thorme 4.1 7
>-
a.
0
u Soient A E .4'm,m(R) symtrique dfini e positive et b E ffi.m . Posons

f (x) = ~xr A x - bTx.

Alors l' algorithme du gradient conjugu dfinit une suite (x(k))o~k~p avec p :::;; n
telle que x(P) = i avec A i = b.

134
4.3. Opti mi sation sous co ntraintes

D MONSTRATION. La mthode du gradient conjugu consiste crire la solution


dans une base forme par les vecteurs ( w <k))o~k ~m- l et donc la mthode converge en
au plus m itrations. En effet, en utilisant le rsultat de la Proposition 4.16, lorsque
r (k) es t non nu1 pour k - 0 , . . . , m - 1, 1a f amiue { w (O) , .. .,w (m - I.) } es t A-conJuguee,
/
elle forme donc une base de IRm et pour tout 0 ~ k ~ m - 1, la direction w <k) est
orthogonale \7 f (x<m)) = A x <m) - b. Nous en dduisons que r<m) est forcment nul
et donc x (m) = .X . Il ne peut donc pas y avoir plus de m itrations. D

4.3 OPTIMISATION SOUS CONTRAINTES


Dans cette partie, nous tudions la rsolution d'un problme d'optimisation sous
contraintes. En fait, la plupart du temps nous cherchons minimiser une quantit,
comme le cot, tout en imposant des contraintes sur les donnes du problme (satis-
faire la demande).
Commenons par proposer une formulation mathmatique du problme d'optimi-
sation sous contraintes. Pour un IR-espace vectoriel E , nous proposons de minimiser
une fonction f E ~ 0 (E , IR) et notons par Kun sous-ensemble de E. Nous rsolvons
maintenant un problme de minimisation avec contraintes ou sous contraintes
puisque nous recherchons un point .X E K qui minimise la fonction f sur le
sous-ensemble K c E. Il reste dfinir rigoureusement ce qu' est l'ensemble des
contraintes.
Introduisons pour cela n fonctions continues, gi E <lf0 (E , IR) pour tout 1 ~ i ~ n
et posons g = (g 1, ... , gn ) de sorte que g E ~0 (E, IR11 ) . Examinons deux situations
de contraintes.
D' une part, dfinissons des contraintes d'galits lorsque l'ensemble K est donn
par
K = {x E E , g(x ) = O} .
Le problme de minimisation sous contraintes d'galits s'crit alors
.<;::::
~
"Cl
c
0 "O
c
.X E E , avec g(.X ) = 0,
::::> :::i
Cl .... (4.13)
"'
~
f (x ).
(V)
.-1 ~
'V
{ /(i) = min
xEE
0 .~ g(x)=O
N
0""'
....
@ :::i
. : D'autre part, nous pouvons aussi imposer des contraintes d'ingalits
.c. c
0) 0
;:: c
>- ~
a. K = {x E E, g(x) ~ 0} ,
o..
0 0
u (.)
0
o g (x ) ~ 0 signifie que pour tout i E { 1, . . . , n}, nous avons gi (x) ~ 0, le problme
0
..s::::
o.. de minimisation sous contraintes d'ingalits s'crit alors
~
~
1 .XE E , avec g (x ) ~ o,
{
"O
0
c
:::i (4.14)
Q
@
/ (i) = inf
xEE
f (x).
g(x)~O

135
Chapitre 4 Optimisation

Par la suite, nous tudions les deux situations de contraintes d' galits et d' inga-
lits.
Exemple
D'une part, lorsque l'ensemble des contraintes K c ffi.m est linaire, les fonctions
g; sont des fonctions affines, c'est--dire qu'il existe a; E ffi.m et b; E ffi. pour tout
1 ::::; i ::::; n tels que g;(x) = aT x + b;. Si de plus f est aussi linaire , c'est--dire
qu'il existe c E ffi.m tel que f(x) = cr x, alors le problme de minimisation est
simplement un problme de programmation linaire.

D'autre part, lorsque l'ensemble des contraintes K est linaire et f est une fonc-
tionnelle quadratique, c'est--dire que f est de la forme

alors nous rsolvons un problme de programmation quadratique.

4.3.1 Existence et unicit du problme sous contraintes

Thorme 4.1 8 Existence d'un minimum en dimension "nie

Soient E un espace vectoriel norm de dimension finie et f E ~ 0 (E, ffi.)


si K est un sous-ensemble ferm born de E , alors il existe i E K une solution
du problme de minimisation sous contraintes d'galits (4.13) ou d'ingalits
(4.14),
si K est un sous-ensemble ferm de E, et si f (x) tend vers l'infini lorsque llx Il
tend vers l'infini, alors il existe i E K solution du problme de minimisation
sous contraintes d'galits (4.13) ou d'ingalits (4.14).

"O DMONSTRATION. Si K est un sous-ensemble ferm born de E , comme f est


0
c
::J
continue, elle atteint ses bornes sur K , d'o l' existence de i.
0
('\"')
Si f tend vers l'infini lorsque llxIl tend vers l'infini, alors il existe R > 0 tel que si
T"-f
0 llxll > R alors f(x) > /(0), donc
N
@
~
inf f(x) = inf f (x),
..c xEK xE KnB(O,R)
Ol
::::
>-
a.
0 o B(O, R) dsigne la boule ferme de centre 0 et de rayon R . L'ensemble K n B(O, R)
u
est compact, comme l'intersection d' un ensemble ferm et d'un ensemble compact.
D'o, d'aprs ce qui prcde, il existe i E K vrifiant (4.13) ou (4.14). D

Lorsque E est un espace de Hilbert de dimension infinie, nous avons aussi le rsul-
tat suivant [2].

136
4.3. Optimisation sous contraintes

Thorme 4.19 Existence d'un minimum en dimension infinie


Soient E un espace de Hilbert ventuellement de dimension infinie, K un sous-
ensemble convexe, ferm, non vide de E et f une fonction convexe continue et
telle que
lim /(x) = +oo.
llx11---+(X)
Alors il existe i E K solution du problme de minimisation sous contraintes
d'galits (4.13) ou d'ingalits (4.14).

Pour obtenir l'unicit il faut comme dans la cas de 1' optimjsation sans contrainte
ajouter l'hypothse de stricte convexit.

Thorme 4.20 Unicit de la solution


Soient E un IR.-espace vectoriel et f E 'tf0 (E , IR.). Supposons que f est stricte-
ment convexe et que K est convexe. Alors il existe au plus un lment i E K
solution du problme de minimisation sous contraintes d'galits (4.13) ou d'in-
galits (4.14).

4.3.2 Conditions d'optimalit


Notons d'abord que nous avons un rsultat analogue celui de l'optimisation sans
contrainte (Proposition 4.4).

Proposition 4.21 Condition sim


Soient E un espace de Hilbert, f E 't?( E , IR.) et i E K une solution de (4.13)
ou de (4.14). Supposons que f est diffrentiable en i.
.~ Si i appartient l'intrieur de K alors \7 f (i) = O.
"O ~
0
c
'O
c::
Si K est convexe, alors \7 f (i) (x - i) ~ 0 pour tout x E K.
::J ::::1
_.
0
('\'")
"'
Q)
Q)
T"-f ~
0 .;a
N .....
_.
0
DMONSTRATION. Supposons d'abord que i appartient 1' intrieur de K, alors il
@ ::::1
exister > 0 tel que B(i, r) C K et /(i) ~ /(x) pour tout x E B(i, r). Alors nous
~
..c
Ol
"'c::
0 avons dj vu que ceci implique \7 f (i) = O.
::::
c::
>-
a.
Q)
s..
0
Supposons maintenant x E K. Comme i ralise le minimum de f sur K , nous
0
u (.)

B avons :
0
..c::
p.. f (i + t(x - i)) = f (tx + (1 - t)i) ~ f (i),
"'
~
1 pour tout t E]O, l], par convexit de K . Nous en dduisons que
'O
0
c::
::::1
0 f (i + t(x - i)) - f (i)
@ ---------~ 0'
t

137
Chapitre 4 Optimisation

pour tout t E]O, l]. En passant la limite lorsque t tend vers 0 dans cette dernire
ingalit, nous obtenons alors '\If (i )(x - i) ~ O. D

Contraintes d'galits
Par la suite, supposons que E = JR.m, f E '&'0 (JR111 , JR) et pour tout i E { 1, ... , n },
considrons gi E '&' 1(1Rm, JR). Ainsi, le domaine K est dfini par
K = {x E lRm, g(x ) = O} ,
avec g = (g 1 , ... , g,JT E '&' 1(lRm, JR.11 ) et n ~ m.
Comme nous l'avons dj fait pour le problme de programmation linaire, nous
introduisons le lagrangien [, : lRm x JR.11 ~ R tel que C(x, q) = f (x) + q T g(x ) ,
o nous avons ajout les contraintes la fonction f que nous cherchons minimiser.
Dfini ssons alors un point selle pour le lagrangien C(x, q).

Dfinition 4.22
Soit [, : JR.mx JR.n i---+ 1R. une fonction
continue. Nous disons que le point
(i , q) E JR.m x JR.n est un point selle
de[, s'il vrifie

J:,(x , q) ( J:,(x , q), V q E JR.n,


{ [,(x , q) ~ J:,(x , q) , Vx E JR.m .
Figure 4.2
Exemple de point selle

Nous allons voir par la suite que le lagrangien permet de reformuler le problme
d'optimisation avec contraintes. C'est le thorme des multiplicateurs de Lagrange.
Dmontrons le rsultat suivant qui donne une condition ncessaire d'optimalit.
"Cl
0
c Thorme 4.2 3
::::i
0
(V)
.-1 Soient f E '&'0 (JRm, JR) et i E K une solution du problme de minimisation sous
0
N contraintes d' galits (4.1 3). Supposons que f est diffrentiable en i et que le
@
.
rang de'\! g(i ) est gal n ~ m. Alors il existe q = (q 1, , li.nl E JR.11 tel que
..c 11
Ol
;::
>-
a.
0
u i= I
o le vecteur q E R est appel le mu.ltipli.cateur de Lagrange.
11

Proposons d' abord une dmonstration de ce thorme fondamental en optimisation


lorsque les contraintes sont linaires. Puis, prsentons la dmonstration dans le cas
gnral la lumire du cas prcdent.

138
4.3. Optimisation sous contraintes

CAS DE CONTRAINTES D' GALITS LINAIRES Considrons la cas particulier de


contraintes d' galits linaires, c'est--dire

K = {X E JRm , A X = b},

o A E .41,1,m(IR) avec 0 ~ n < m , b E JR11 et le problme

i E K,
f (i) = min f (x). (4.15)
{
xEK

Dans ce cas le thorme des multiplicateurs de Lagrange dit que lorsque rang( A ) = n,
alors .il existe q E 1R11 tel que

\lxL(i , q) = \7 f (i) +AT q = O.

Nous voulons nous ramener l'tude plus simple d'un problme de minimisa-
tion sans contrainte. Pour cela, nous allons exprimer diffremment l'espace des
contraintes K et recherchons pour cela n colonnes de la matrice A qui soient
linairement indpendantes. Notons par B E .41,1,n(IR) la matrice carre forme
de ces n colonnes, P E .$1,11 ,m(IR) une matrice de permutation ( P T P = lm) et
N E .$/,1,m _ 11 (1R) telles que A P = ( B 1 N). Nous pouvons partitionner n' importe
quel vecteur x E K en
p T X= c~).
Les contraintes s' crivent alors x 8 = B- 1 (b - N xN), ce qui signifie que x 8 ne
dpend que de xN et des donnes. Considrons alors la fonction g : Rm- n 1---7 R
donne par

.<;::::
g(xN) = f (p ( ~:l(b - N XN) ) )
"Cl ~
0 "O
c c
::::>
....:::i et le problme de minimisation (4.15) s'crit alors
Cl
(V)
"'
~
~
.-1 'V
0
N
.~ g(iN) = min g(xN ) ,
0""'
.... ,:N EIR"'-"
@ :::i
. :
.c.
0) 0
c avec
;:: c
~
>-
o.. a.
0
0
u (.)
0
0
..s:::: Puisque g est diffrentiable, elle vrifie \7xN g(iN) = 0 ou encore
o..
~
~

"O
0
1

-B N
- l )T p T \lf(i) = O.
c (
:::i l11-m
Q
@

139
Chapitre 4 Optimisation

Posons alors pour simplifier les notations

En posant ensuite q - (B- 1l V7 8 f(i ), nous obtenons d'une part

Y7 sf(i ) + BT q = 0

et d' autre part V7 N f (i ) + N T q = 0, ce qui montre le rsultat en runissant ces deux


dernires galits
P ' V J (i ) + ( ~: ) i'j = 0

et puisque p T P = lm et A P = (B N) , il vient simplement V7 f (i ) + AT q


1 0,
ce qui achve la dmonstration dans le cas de contraintes linaires. o
CAS GNRAL Prsentons maintenant la dmonstration dans le cas gnral. Nous
allons voir qu' en appliquant le thorme des fonctions implicites (Thorme 3.19),
la dmonstration devient trs proche de celle pour des contraintes linaires.
Tout d' abord, puisque g est diffrentiable, il vient alors pour tout x E JRm,
V7g(i ) E .41,1,m(IR). Ensuite, puisque V7 g(i) est de rang n, il existe un sous-
espace vectoriel B de JRm de dimension n , tel que V7g(i) soit bijective de B dans ffi.11
Constmisons alors un sous-espace vectoriel N de JRn, tel que JRm = B EB N. Puis,
pour x 8 E B et XN E N, dfinissons les fonctions g et J partir des fonctions g et
f comme

Notons ensuite K l'ensemble donn par


'O
0
c
::J
0 et le problme de minimisation sous contraintes (4.13) s' crit alors
('\"')
T'-f
0
N
@
~
..c (4.16)
Ol
::::
>-
a.
0
u
D'une part, V7x8 g (x 8 ,xN) est un isomorphisme de B dans ffi. 11 et g(i 8 ,iN) = 0,
nous pouvons appliquer le thorme des fonctions implicites (Thorme 3.19) la
fonction g . Il existe donc s > 0 et v > 0 tels que pour tout XN E BN(iN, s)
il existe un unique x 8 E B8 (i 8 , v) tel que g(x 8 , XN ) = O. Nous pouvons alors
dfinir une fonction </> E Yi 1(BN(iN, s), Bs(is, v)) telle que xs = <f>(xN) pour tout
XN E BN(iN, s), la boule du sous-espace N C ffi.m de centre iN et de rayons > O. En

140
4.3. Opti mi sation sous co ntraintes

dfinitive, nous avons simplement exprim la variable xs en fonction de la variable


XN comme dans le cas de contraintes linaires.
Nous dduisons alors de (4.16) un nouveau problme de minimisation sans contrainte

Nous avons alors d'aprs la Proposition 4.4 en posant i 8 = </>(iN) et

D'aprs le thorme des fonctions implicites, nous exprimons '\J </>

Nous en dduisons que

O. (4.17)

En outre puisque '\Jxng(i8 , i N) est inversible, nous avons simplement

En notantalorsA = '\Jx8 (is,iN) [V x8 g(i 8 , iN)]-J etpuisquepourtouth E Rm,


nous avons h = h 8 + hN et

nous obtenons finalement, en regroupant (4.17) et (4.18), que


.<;::::
"Cl ~
0 "O
c
::::>
c '\J xL(x , q) = '\J (i) - q '\J g(i) = 0,
Cl ....:::i
"'
~

avec q = A, ce qui achve la dmonstration.


(V)
~
.-1
0
'V
.~
D
N
@ ....:::i""'
0

. : Nous avons alors le rsultat suivant qui fait le lien entre une solution du problme
.c. c de minimisation sous contraintes d'galits (4.13) ou d'ingalits (4.14) et un point
0) 0
;:: c
>-
o.. a. selle de /:,(x, q) :
0
~

0
u (.)
0
0
..s:::: Proposition 4.24
o..
~
~
1
Supposons que f E 1&' 1(Rm, R) et g E <(fi (R11Z, JR11 ) et (i, q) E K x JR11
"O
0
un point selle de .C(x , q ). Alors i est solution du problme de mmnm-
c
Q
:::i sation sous contraintes d' galits (4.13) ou d'ingalits (4.14) et de plus
@ '\Jx.C(i ,q) = '\J f(i) + qT g(i) = 0.

14 1
Chapitre 4 Optimisation

DMONSTRATION. Puisque (i , q) E IRm x JR11 est un point selle, il vrifie la premire


galit .C(i , q) :( .C(i , q), pour tout q E }Rn, ou encore q T g (i) :( q_T g(i ), pour
tout q E JR11 , ce qui signifie bien que g (i) = O. D'autre part, la seconde partie de
l'ingalit devient alors f (i) :::;; f(x) + q_T g(x), pour tout x E IR"\ ce qui montre
bien, en considrant l' ensemble des x E K , que i E K est un minimum global
sur K. En outre puisque f et g sont diffrentiables, la seconde partie de l' ingalit
dfinissant le point selle montre bien que pour q E IRm fix, i E IRm est solution d'un
problme de minimisation sans contrainte de .C(. , q) et vrifie \!x .C(i, q) = O. o
Contraintes d'ingalits
Traitons maintenant le cas de la minimisation sous des contraintes d'ingalits (4.14).
Nous allons voir que sous certaines conditions sur les fonctions f (x) et g(x) et sur
le lagrangien .C, cette condition ncessaire d'optimalit peut se transformer en une
condition ncessaire et suffisante. Pour cela introduisons la notion de contraintes
actives.

Dfinition 4.25
Soit g : IRm 1---+ IR11 avec 0 < n :::;; m. Pour 1 :( i :( n une contrainte d' ingalit
gi(x) :( 0 est dite active en i E IRm si gi(i) = 0 et inactive en i E IRm si
gi(i) < O.

Un point capital pour la suite est que les contraintes inactives peuvent simplement
tre ignores, cela ne change pas la valeur o la fonction f atteint son minimum [3].

Proposition 4.26
Considrons le problme de minimisation sous contraintes d'ingalits (4.14) et
i E IRm tel que g(i) :( O. Notons A(i) c {1, . . . , n} l' ensemble des indices des
contraintes actives, c'est--dire

"O
0
A(i) = {i E {1 , ... , n} , gi(i ) = O}
c
::J
0
('\"')
et considrons le problme suivant
T"-f
0
N
@
min f (x). (4.19)
{g; (x)= O, i EA(,t)}
~
..c
Ol
::::
>- Alors i E JRm est un minimum local de (4.14) si et seulement si i E IRm est un
a.
0 minimum local de (4.19).
u

nonons alors le Thorme de Karush, Kuhn et Tucker (KKT) qui affirme que
dans le cas de contraintes d'ingalits, nous pouvons nous ramener une situation
analogue au cas de contraintes d' galits.

142
4.3. Optimisation sous contraintes

Thorme 4.2 7 Thorme de Karush, Kuhn et Tucker


Considrons le problme de minimisation sous contraintes d'ingalits (4.14), o
les fonctions f et g sont diffrentiables. Soit i E K un minimum local vrifiant
les contraintes d'ingalits et tel que les gradients des contraintes d' ingalits
actives sont linairement indpendants en i E ffi.m. Alors il existe q E ffi.n tel que
q ~ Oet
\lxL(i , q) = 0 et \lqL(i,q) = 0

et qi gi(i) = 0, i E { 1, ... , n }, o q est le multiplicateur de Lagrange.

Introduction la dualit
partir du Thorme 4.23, gnralisons la thorie de dualit introduite pour les pro-
blmes de programmation linaire. Pour une solution i E K de (4.13), le thorme
des multiplicateurs de Lagrange indique d'une part qu'il existe q E ffi.n vrifiant
\lxL(i, q) = 0 et d'autre part, puisque les contraintes sont vrifies au point i E K ,
\lqL(i , q) = O. Introduisons alors la fonction duale

(q) = min,C(y , q) ~ ,C(i,q) f(i) . (4.20)


yEE

Dfinissons alors
P = {q E ffi.
11
, Q(q) > - OO},

il s'agit maintenant de rechercher q E ffi.11 de sorte que la valeur de (q) soit la plus
proche possible de la valeur optimale f(i). C'est ce que nous appelons le problme
dual.

Dfinition 4.28
.~
Soient le problme de minimisation (4.13) et la fonction duale g donne par
"O
0
~
'O
(4.20). Le problme dual de (4.13) est donn par
c c::
::J ::::1
_.
0
('\'")
T"-f
"'
Q)
Q)
qE P,
~
0 .;a (4.21)
N
@
.....
_.
0 { (q) = max(q).
qEP
::::1
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
u (.)

B 4.3.3 Mthodes d'optimisation sous contraintes


0
..c::
p..
Dans cette partie, nous nous limitons au cas o E = ffi.m, f E 1f1(ffi.m, ffi.) est une
"'
~
1
fonction convexe et K c ffi.m un sous-ensemble ferm convexe et non vide. Nous
'O
0
c::
souhaitons appliquer les algorithmes dj tudis dans le cadre del' optimisation sans
0
::::1
contrainte. Pour cela, le point cl est le thorme de la projection pour des espaces
@ de Hilbert.

143
Chapitre 4 Optimisation

Thorme 4.29
Soient E un espace de Hilbert muni f
'*:
\
du produit scalaire (., .) , K une partie
convexe, ferme de E et f E E. Alors
il existe un unique i E K tel que p(j)
K

Ili - xll = min llx -


x EK
/Il
De plus, i vrifie
Figure 4.3
(f - i , x - i) ~ 0, \fx E K. (4.22) Illustration du Thorme de la
projection dans R2 : nous pro-
jetons un point f E R2 sur un
Nous disons que i est la projection de ensemble K, c'est la projection
f E E sur K et notons .X = PK(f). orthogonale de f sur K.

DMONSTRATION. D 'abord pour dmontrer l'existence d 'une solution, observons


que la fonction x 1--7 Ilf - x Il est convexe, continue et tend vers l'infini lorsque
llxll ~ +oo, alors d'aprs le Thorme 4.19, cette fonction atteint son minimum. Il
reste donc montrer que cette limite est unique et qu'elle est caractrise par l'inga-
lit (4.22). Considrons d ' abord i et ji E K deux lments ralisant le minimum, il
vient alors

llx - .Y ll2 2 llx - fll 2 + 2llf - 5i ll2 - 4llf - i; ji 112 ,

4llf - i ll2 - 4llf - i + ji 11 2


2

Or, puisque K est convexe, (i + ji)/ 2 E K et


'O
0 i + ji
0
c
::J llf - xll ~ llf - - 2- 11,
('\"')
T'-f
0
N donc 0 ~ Ili - .Yll 2 ~ 4llf - ill 2 - 4llf - ill 2 = 0, ce qui signifie que i = ji.
@
~ Ensuite, notons i = PK(f) l'unique solution du problme de minimisation et consi-
..c
Ol
::::
drons pour x E K et E [0, l] , l' lment (1 - A) i + x E K. Il vrifie:
>-
a.
0
u llf - ill 2 ~ llf - ((1 - A) i + Ax)ll 2 ,
llf - ill 2 - 2A (f - i , x -i) + A2 llx - xll 2 ,
c'est--dire 2( f - i , x - i) ~ Alix - ill 2 . En faisant tendre vers zro, nous
obtenons le rsultat: pour tout x E K, (f - i , x - i) ~ O. o

144
4.3. Optimisation sous contraintes

Nous en dduisons alors la mthode du gradient pas fixe avec projection sur K ,
qui s' crit tout simplement pour e > 0 un petit paramtre fix:
Mthode du gradient pas fixe avec projection
Pour Xo E K donn , poser x<0l = Xo , e<0l= 2e et k= O.
Tant que e (k) ~ e
- c a l c ul e r w(kl = - \J f ( x<kl) ,
pose r x <k+1l = PK (x(kl +pw(kl) et ca l c ul er l e r s idu
e(k+1) = Il x (k+1 ) - x <kl lL
- it r er k +-- k + 1.
Fin de ta nt que .

Comme dans le cas de l' optimisation sans contrainte, nous pouvons adapter la
dmonstration du Thorme 4.13 pour obtenir le rsultat qui suit.

Thorme 4.30 Convergence du radient as xe avec projection


Soit f E 1f1(1Rm, IR). Supposons que:
il existe a > 0 tel que (x - y , \7 f (x ) - \7 /(y)) ;;?: a llx - Yll 2 , pour tout
x , y E IR.111 ,
il existeL > Otelque ll\7 / (x) - \7/(y) ll ~ L llx-yll ,pourtout x, y E IRm .
Alors le problme de minimisation sous contraintes d'galits (4.13) ou d' inga-
lit s (4.14) admet une unique solution.
En supposant en outre que 0 < p < 2a / L alors la suite (x<k>)kEN construite par
la mthode du gradient pas fi xe avec projection converge vers l'unique solution
.X du problme (4.13) ou (4.14).

Mthode d'Uzawa
.~
Ce dernier thorme semble indiquer que l'algorithme de gradient est une mthode
"O ~
0 'O effi cace pour l'approximation numrique d'un problme de mi nimisation sous
c c::
::J ::::1
_. contraintes. Cependant, il n'est pas toujours vident de calculer l'oprateur de pro-
0
('\'")
"'
Q)
jection pK sur un ensemble convexe K . C' est pourquoi, nous proposons la mthode
Q)
T"-f ~
0
N
.;a
.....
d' Uzawa qui utilise la formulation duale du problme. En effet, cette mthode
_.
0
consiste rechercher un point selle du lagrangien correspondant au problme de
@ ::::1
~
..c
Ol
"'c::
0
minimisation sous contraintes d' ingalits. Ce lagrangien est donn par:
::::
c::
Q)
>-
a.
0
s..
0 .C(x , q) = f (x)+ q Tg(x) , x E IR.111 , q E IR.11 , q;;?: O.
u (.)

B
0
..c::
p..
Par dfi nition, le point selle (i , q ) vrifie (q - q )T g (i) ;;:: 0, pour tout q E IR.11 vri-
"'
~
1
fiant q ;;?: O. Ainsi, pour tout > 0, nous obtenons (q - q l (ij - (ij + g(i))) ~ 0,
'O
0 pour tout q E IR.11 avec q ;;?: 0, ce qui montre d' aprs le Thorme 4.29 que
c::
::::1
0
@ ij = PIR~' (ij + g(i)) , \:/ > 0.

145
Chapitre 4 Opt imisation

Nous en dduisons alors la mthode suivante, pour e > 0 un petit paramtre fix.
Mthode d'Uzawa
Po ur q 0 E Rn don n , pose r q(Ol = q0 , e(o) =2 e et k= O.
Tant qu e e (k) ~ e
- calcu l er x<kl EJR.m so l ut i on de
i:,(x(kl, p (k) ) = min i:,(x, q( k) ),
XE !Rm
- poser q(k+1l =PR~ ( efkl + g(x<kl)) et calcu l er l e r sid u
~/ k+ 1 ) = Il q (k+ 1) _ q(k) ll,
- itre r k - k +1.
Fi n de t ant que.

Dans cet algorithme, nous remplaons le problme de mjnimisation initial sous


contraintes par un problme de minimisation du lagrangien g sans contrainte, qui est
donc plus facile rsoudre avec une mthode du gradient.

Exercices

4.1 Soient A E .4,1,m(IR) avec n < m telle que AT A soit inversible et b E !Rn un
vecteur fix. Considrons f: IRm f-7 IR dfinie par f(x) = llAx - bll2 .
l . Dterminer le gradient et la hessienne de la fonction f.
2. Montrer que les points minimum i E IRm solutions de

i E IRm
f(i) = min .f(x) (4.23)
{ xEJRm

"O vrifient AT A i= ATb.


0
c 3. Rsoudre le problme d'optimjsation (4.23).
::J
0
(V)
...... 4.2 Maximisation de l'ai re d'un rectangle
0
N
@
Cherchons maximiser l' aire d'un rectangle de primtre donn et gal 2.
......
..c l . Montrer que ce problme peut se formuler comme un problme de minimisation
Ol
:::: de la forme,
>-
a.
0
f(i) = min f(y)
u yE K

o K est de la forme K = {x E IR2 , g(x) = O}.


2 . Montrer que le problme de minimisation ainsi obtenu est quivalent au problme

146
Exercices

o K. = K n [0, 1] 2 . En dduire que le problme de mjnimisation de l'aire admet au


moins une solution.
3. Calculer \7g(x) pour x E K et en dduire que i = (1 / 2, 1/ 2)T.

4.3 Minimisation d'une fonctionnelle quadratique


Soit f une fonction quadratique, c'est--dire

f(x) = ~xT A x - xT b,

o A E v#lm,mOR) est une matrice symtrique dfi.rue positive et b E IRm . Soit g une
fonction de la forme g(x) = dT x - c, o d E IRm etc E IR avec di= O. Posons

K = { x E IRm , g(x) = 0}

et cherchons rsoudre le problme de minimisation sous contraintes : i E K et

f(i) = min f(x).


xE K

l . Montrer que l'ensemble K est non vide, ferm et convexe. En dduire que le
problme de minimisation sous contraintes admet une unique solution.
2 . Soit i E K la solution du problme de minimisation. Montrer qu'il existe 1 E IR
tel que y = (i, Xl soit l'unique solution du systme

[~ l
4.4 Mthode du gradient pas variable
Soient E un espace de Hilbert rel et f : E ~ IR une fonctionnelle de classe
"O
.~
~
Yf' 1(E, IR). Supposons que f satisfait une condition d'ellipticit, c'est--dire il existe
0
c
'O
c:: a > 0 telle que pour tout x, y E E,
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
(\7 f(x) - \7 f(y), x - Y) > a llx - Yll 2
0 .;a
N .....
_.
0
@ ::::1 et une condition lipschitzienne sur \7 f, il existe M > 0 telle que
~
..c
Ol
"'c::
0
::::
c::
>-
a.
Q)
s.. ll\7 f(x) - \7 f(y) ll ~ M llx - Yll
0 0
u (.)

B
0
..c:: Considrons alors le problme de minimisation
p..

"'
~
1 trouver i E E,
'O
0
c::
::::1
{ f (i) = min
xEE
f (x),
0
@

147
Chapitre 4 Optimisation

et utilisons la mthode du gradient pas variable, qui consiste en la construction


d' une suite (x (k)hEN telle que pour tout k E N,
x(k+l) = x (k) + Pk V7 f (x (k)),

o le paramtre Pk est ajust au cours des itrations selon des critres particuliers.
1 . Montrer que le problme de minimisation admet une solution unique. Comment
est-elle caractrise?
2. Montrer que pour tout k EN, llx(k+L) - xll2 ~ r(pk) llx(k) - xll 2 , o r(p) est un
polynme du second degr.
3. En dduire que s'il existe deux nombres a et b tels que pour tout k E N,
0 < a ~ Pk ~ b < 2a / M 2 , la mthode du gradient pas variable converge et la
convergence est gomtrique: il existe /3 E]O, 1[, llx(k) - xll ~ /3k llxo - xll
4. Les conditions sont-elles vrifies pour une fonctionnelle quadratique elliptique
!
f : x E Rm ~ x T Ax - bT x avec A symtrique et dfinie positive. Que reprsentent
alors a et M?

Solutions des exercices


4.1 Un exemple de problme de minimisation sans contrainte.
1. La fonction f s'crit f(x) = (A x - b)T (A x - b). Pour h E R 2 , nous calculons
le taux d'accroissement suivant

f(x +h)- f(x) = hT A T (Ax - b) + (Ax - bl Ah(Ax - bl +hT A T Ah.

Ainsi, en utilisant la symtrie du produit scalaire uT v = vT u

. llf(x + h) - f(x) - 2hT A T (A x - b)ll _ 1. llAhll2 = O.


~~ llhll - ~!!! llhll
D'o V7 f (x) = 2 AT (A x - b). De manire analogue, le calcul de la hessienne
"O
0
\:7 2 f = V7(V7 f) donne \:72 f = 2 AT A.
c
::J 2. Supposons que .X E RP est une solution de (4.23), alors une condition nces-
0
(\"') saire (Proposition 4.4) est V7 f(x) = 0, c'est--dire AT (A .X - b) = 0 ou encore
......
0 AT A.X = AT b .
N
@ 3 . Nous vrifions que f est continue et f (x) ---+ +oo lorsque x ---+ +oo donc le
......
..c problme (4.23) admet au moins une solution (Proposition 4.7). Puisque la matrice
Ol
:::: AT A est inversible, le systme linaire AT A .X = AT b admet une unique solution.
>-
a.
0 La rsolution du problme (4.23) est donc quivalente la rsolution de ce systme
u
linaire.

4.2 Voici une premire application simple avec une contrainte.


1. Considrons un rectangle [O, xi] x [O, x2 ], dont l'aire est gale x 1x2 et le pri-
mtre vaut 2(x 1 + x2). Il s'agit donc de maximiser x 1x2, ou encore minimiser - x 1 x2
sous la contrainte x 1 + x 2 = 1.

148
Exercices

Dfinissons alors l'espace des contraintes

Le problme de minimisation de l'aire du rectangle de primtre donn et gal 2


s'crit alors: f (i) = min xEK f (x), avec i E K.
2. Puisque x 1 et x 2 sont positifs et leur somme est gale 1, il vient 0 :( x 1 :( 1
et 0 :( x 2 :( 1. L'ensemble K est donc un convexe ferm born et la fonction f est
continue. Par application du Thorme 4.18, il existe au moins une solution.
3 . Un simple calcul donne V7 g(x) = (1, 1)7', donc Rang\:7g(x, y)= 1. Par applica-
tion du Thorme des multiplicateurs de Lagrange (Thorme 4.23), six = (x 1 , x 2 )T
est solution, il existe E ffi. tel que

V7 f(x) + Ag(x) = 0,

avec la contrainte x 1 + x 2 = 1.
Or, V7 f (x) = (- x 1 , - x 2 l et V7 g(x) = (1 , 1)T, le systme prcdent s'crit donc
-X2 + = 0- Xt + = 0, X1 + X2 = 1.

Nous obtenons donc x 1 = x 2 = 1/ 2, c'est--dire le carr de primtre gal 1.

4.3 Voici une autre application avec une contrainte linaire.


1. Comme d -=f. 0, il existe i E ffi.m tel que dT i = a -=f. O. Considrons alors
x = ~ i, qui vrifie dT x = c, d' o x E K et l'ensemble K est non vide. En outre, K
.~
"O
0
~
'O
est ferm puisqu'il correspond au noyau d'une forme linaire continue de ffi.m et K
c
::J
c::
::::1
_.
est videmment convexe par linarit de g. La fonction f est strictement convexe et
0
('\'")
"'
Q) f(x) -4 +oo quand llxll -4 +oo. Ainsi, par application des Thormes 4.18 et 4.20,
Q)
T"-f
0
~
.;a
il existe une unique x E K solution du problme de minimisation avec contraintes.
N .....
@
_.
0
::::1
2. Calculons d'abord zT V7g(x) = dr z, et donc V7g(x) = d. Puisque d -=f. 0, nous
~
..c "'c::
0
avons Rang(V7g(i)) = 1, ou encore Im(V7g(i)) = 1R pour tout x E JRm. Ainsi, en
Ol
::::
c::
Q)
appliquant le Thorme de Lagrange : il existe donc 1 E ffi. tel que
>-
a.
0
s..
0
u (.)

B ~ f (i) + g(i) = 0,
0
..c::
p..

"'
~
1
c'est--direAx - b + Ad = O.
'O
0 Le couple (i, 1) E JRm+ I est donc solution du problme suivant:
c::
::::1
0
@ Ai-b+d = O, dTi=c,

149
Chapitre 4 Optimisation

qui s'crit sous forme matricielle : C y = e, avec

et y = (i,X)T E ffi.m+I ete = (b,cf.


Montrons maintenant que C est inversible. En effet, soit Yo = (xo, .Aol E ffi.m+l , avec
xo E ffi.m et o E ffi. tel que C Yo = O. Alors A xo - d o = 0 et dr xo = O. Nous
avons donc xcf Ax0 - xcf d .A0 = 0 et dduisons que x 0 = O. En outre, comme d =P 0
et Ao = 0, nous obtenons donc Yo = O.
Pour conclure C est inversible, il existe donc un unique (i , X)T E ffi.m+I solution
du problme de Lagrange et i est solution du problme de minimisation avec
contraintes.

4.4 Voici une premire application de la mthode de descente.


1. La fonctionnelle f est strictement convexe, continue et vrifie f(x) ---? +oo,
lorsque llxll tend vers l'infini. Le problme de minimisation admet donc une unique
solution i E E. De plus, une condition ncessaire est que V7 f(i) = O. Notons que,
puisque la solution est unique, la solution est bien caractrise par cette dernire
condition.
2. D'aprs la dfinition de la suite (x<k))kEN, nous avons

llx(k) - i - PkV7f(x(k) )112 ,


llx(k) - ill 2 - 2pk \x<k) - i, V7 f (x <k) )) + P~ l l V7 f (x<k)) 11 2 -

D'une part, la condition lipschitzienne sur V7 f donne

"O
et donc
0
c P~ Il V7 f (x(k)) ll2 ~ P~ M 2 llx (k) - i 11 2 .
::J
0
(\"')
D'autre part, la condition d'ellipticit surf donne
......
0
N
@
......
..c
Ol
::::
ce qui donne en dfinitive
>-
a.
0
u

avec r(p) := M 2 p2 - 2a p + 1 ~ O.
3. Supposons que a ~ p ~ b < 2a / M 2 , il vient alors

2a 2a
p - - S: b - - < 0
M 2"' M2

150
Exercices

et donc
0 <( r (p) <( M a
2
(b- ~ ) + 1 < 1.

En posant f3 := VM 2 a (b - 2/ M 2 ) + 1, nous obtenons

4. Dans ce cas \7 f (x ) = A x - b, la matrice A est symtrique, elle est donc diago-


nalisable et il existe une base orthonorme ( vi ) 1~i ~ 11 compose de vecteurs propres.
Ordonnons les valeurs propres 0 < A1 :::;; . . . :::;; 11 et pour tout 1 :::;; i :::;; n, i repr-
sente la valeur propre associe au vecteur propre vi . D'une part, pour x E ffi. 11 tel que
x = L::;
1
= 1 xi vi comme la base est 01thonorme il vient
Il

A1llxll
2
:::;; xT A x = Lixf
i= I

et d' autre part


Il

11Axll 2
= (A xl A x = L;xf:::;; A~ l lxll 2 .
i= l

Ainsi, la condition d'ellipticit s' crit

(x - Yl (\7 f (x ) - \7 f (y)) = (x - y )T A (x - y ) > a llx - Yll 2


avec a = 1 et la condition lipschitzienne est donne par

l \7 f (x ) - \7 f(y)ll : :; n llx - Yll


'O
0
c
::J
0
('\"')
T"'f
0
N
@
~
..c
Ol
::::
>-
a.
0
u

1 51
"O
0
c
::i
0
(Y)
.-l
0
N
@
.
..c
Ol
:::
>-
0..
0
u
LES POLYNMES

Ce chapitre est consacr l'tude des polynmes pour l'approximation de fonc-


tions rgulires, c'est--dire la thorie de l'interpolation. Nous proposons diff-
rents types d'interpolations afin de rendre l'erreur entre la fonction et le polynme
la plus petite possible. Cependant, l'approximation de fonctions n'est pas la seule
application; nous construisons en effet diffrents types de polynmes permettant
d' approcher la valeur d' une intgrale ou de construire des algorithmes rapides
pour la transforme de Fourier discrte.

Dans tout ce chapitre, considrons un intervalle [a, b] c ~. f [a, b] ~ ~ et


{ xo, ... , x11 } pour n E N* une partition de l'intervalle [a, b].

5.1 INTRODUCTION
5.1.1 Un exemple en analyse
Commenons par un exemple o l'analyse numrique vient complter un rsultat
d'analyse. Le Thorme de Weierstrass permet d'approcher une fonction continue
par une suite de polynmes. Plus prcisment,

Thorme 5.1 Thorme de Weierstrass


Pour toute fonction f continue support compact sur ~. il existe une suite de
fonctions entires qui tend vers f uniformment sur ~' en particulier, il existe une
suite de fonctions polynomiales qui tend vers f uniformment sur tout compact.
"O
0
c
::J Pour dmontrer le thorme d'approximation polynomiale de Weierstrass, il suffit
0
('\"') d' approcher la fonction f par une fonction plus rgulire, c'est--dire une fonction
T'-f
0
N
de classe 1&700 (~, ~) et support compact. Cette fonction rgulire est alors dve-
@ loppe en srie entire sur un compact. Enfin, en considrant tout simplement les
~
..c sommes partielles de la srie entire, nous obtenons une suite de polynmes. C 'est
Ol
:::: la stratgie conceptuellement trs simple et originelle employe par Weierstrass en
>-
a.
0 1885 pour dmontrer ce thorme. Ce rsultat parat fo1t intressant pour le calcul
u de valeurs numriques d'une fonction rgulire f quelconque. Il suffit par exemple
de l'approcher sur un intervalle born par un polynme, puis de calculer des valeurs
approches de f partir des valeurs numriques que prend ce polynme. C'est le
concept utilis par nos ordinateurs et calculatrices. Cependant, cette dmonstration
n'est en rien constrnctive et ne donne aucune indication sur la faon de construire
cette suite de polynmes.
Chapitre 5 Les polynmes

En considrant les polynmes de Bern-


1.2
stein donns, pour tout x E [O, 1], par

B,.,;(x) = G )x; (1 - x)"-;, 0.8

0.6
o

G)
0.4
n!
= i!(n - i)! 0.2

sont les coefficients binomiaux. 0.2 0.4 0.6 0 .8


X
Il est possible de dmontrer que ces
polynmes permettent de construire une Figure 5.1
approximation de la fonction f qui va Les polyn mes de Bernste in

converger uniformment sur tout compact.


En effet, supposons que la fonction f ait son support sur l'intervalle [0, l], notons
alors Pn le polynme tel que P11 (x) = 'L:~=O f (xk) B11 ,k(x ), avec Xk = k / n. Il est
donc impo1tant de calculer les proprits des polynmes ( B11 ,k)o~k~n
L'avantage d' un polynme est que ses valeurs numriques peuvent tre calcules
exactement en utilisant les oprations lmentaires comme l' addition, la division et
la multiplication. Ceci permet de calculer facilement des approximations prcises de
fonctions seulement continues en utilisant une suite de polynmes de Bernstein.

5.1.2 Rappels sur les polynmes


Soit IK un corps (OC = lR ou C). Notons P(IK) 1' ensemble des fonctions polynmes,
c'est--dire pour tout P E P(K) il existe un entier n E N et des coefficients
(ai)O~i~n c IK tels que P (x) = 'L:~'= 0 ai xi, pour tout x E IK, o ai est le coef-
ficient d'indice i. Le degr d' un polynme non nul est l'indice maximum d'un coef-
ficient non nul et par convention le degr d'un polynme nul est -oo. Notons que
l'ensemble P(K) est un K-espace vectoriel.
"O
0
c Pour tout n E N*, nous appelons P,1 (IK) le sous-espace vectoriel de P(IK) des
::J
0 polynmes de degr infrieur ou gal n et la famille { 1, x , . .. , x 11 } en est une
('\"')
,....f base, appele base canonique. La dimension de P 11 (IK) est donc (n + 1). Nous avons
0
N alors la proposition suivante.
@
~
..c
Ol
::::
Proposition 5.2
>-
a.
u
0 Toute fam ille de polynmes de degrs deux deux distincts est libre. Nous en
dduisons que si (Pi)O ~.i~n est une suite de polynmes telle que le degr de Pi
soit gal i, alors {Po, ... , P,i) est une base de P 11 (IK).

154
5. 1. Introduction

D'autre part, introduisons la notion de divisibilit :


Dfinition 5.3
Soient P et Q E P(JK) deux polynmes ; nous disons que P divise Q ou que P
est un diviseur de Q ou encore que Q est multiple de P s'il existe un polynme
R E P(JK) tel que Q(x) = P(x ) R(x ) pour tout x E JK.

Rappelons galement la notion de racine d'un polynme.


Dfinition 5.4
Soient P E P(JK) et x 0 E JK,
nous disons que x 0 est une racine ou un zro de P lorsque P(x 0 ) = 0,
nous disons que x 0 est une racine d'ordre k de P si (x - x 0 )k est un diviseur de
P et (x - x 0 )k+t ne l'est pas,
nous disons qu' un polynme de degr n est scind lorsqu'il est le produit den
polynmes de degr un, c' est--dire qu'il admet n racines distinctes.

En outre, nous avons les rsultats suivants.

Proposition 5.5
Soit P E P (JK),
si le polynme P est non nul, alors il a un nombre fini de racines distinctes,
infrieur ou gal son degr,
si le polynme P s'annule en un nombre infini de points, alors il est nul,
si le polynme Pest de degr n et s'annule en (n + 1) points, alors il est nul.

.~
Nous terminons avec la formule de Taylor.
"O ~
0 'O
c
::J
c::
::::1
Dfinition 5.6
_.
0 Le polynme driv du polynme P (x )
('\'")
T"-f
0
N
"'
Q)
Q)
~
.;a
.....
"'Il .
P ' (x ) -- L..Ji = I t aix i - 1 .
_.
0
@ ::::1
~
..c
Ol
"'c::
0 Proposition 5.7
::::
c::

u
>-
a.
0
Q)
s..
0
(.)
Soit P(x ) = "'Il
L..Ji = O ai .
x 1 , alors
B
0
..c::
p..
nous avons
n (i)
"'
~ P(X=
) ""'"'
~
P . (xo) (X - Xo
)i ,
1
l.1
'O i= O
0
c::
0
::::1
o p U) dsigne la drive i-me de P. Ainsi, un polynme de degr n est
@ entirement dtermin par la connaissance de P (xo ) , . . . , p C11 >(xo).

15 5
Chapitre 5 Les polynmes


x 0 est une racine d' ordre k de P si P(x 0 ) 0 et
p (k)(xo) #- O.

Dans ce chapitre, nous dveloppons des algorithmes pour la construction de poly-


nmes approchant, dans un sens dfinir, une fonction rgulire donne. Dans une
premire partie, nous proposons des mthodes d'interpolation qui consistent simple-
ment construire des polynmes de degr minimal partir des valeurs d'une fonction
f connues seulement en certains points de son domaine de dfinition. C'est 1' in-
terpolation de Lagrange. Ensuite, nous voyons comment construire des polynmes
d'interpolation paitir des valeurs de f et de sa drive f' connues seulement en
quelques points (interpolation de type Hermite). Pour ces deux cas, nous fournirons
des rsultats de convergence et des algorithmes de construction.
Dans une deuxime partie, nous mettons au point une stratgie diffrente : nous
construisons un polynme dont la dis tance avec la fonction approcher est minimale.
Nous proposons aussi un algorithme de constmction. C' est la mthode des moindres
carrs discrte.
Dans une troisime partie, nous gnralisons cette dernire notion un nombre
infini de points l'aide d'outils d' analyse (polynmes orthogonaux, mthode des
moindres carrs continue) et dtaillons enfin l' algorithme des transformes de Fourier
rapides (algorithme de Cooley et Tuckey).

5.2 INTERPOLATION DE LAGRANGE ET DE HERMITE


Soit f une fonction dfinie de l'intervalle [a, b] valeurs dans ffi.. Supposons que
f soit seulement connue en n + 1 points distincts x 0 , ... , x 11 de l'intervalle [a , b]. Il
s' agit alors de constmire un polynme Pn de degr infrieur ou gal n tel que

0 ~ i ~ n. (5.1)
'O
0
c
::J Appelons ce polynme un polynme d'interpolation de la fonction f aux points
0
('\"') (xi )o~ i ~n
T""f
0
N
@ 5.2.1 Construction et convergence de l'interpolation de Lagrange
~
..c Montrons d'abord l'existence et l' unicit d'un tel polynme .
Ol
::::
>-
a.
u
0 Thorme 5.8 Existence et unicit
Il existe un unique polynme, de degr infrieur ou gal n, solution de (5.1).
Ce polynme s'crit alors
n
P11(x) - L f(xi) L i(x) , (5.2)
i= O

156
5.2. Interpolation de Lagrange et de Hermite


avec

(5.3)

C'est le polynme d' interpolation de Lagrange.

DMONSTRATION . Vrifions d'abord que le polynme (5.2)-(5.3) satisfait bien la


proprit(5.l).Pouri E {O, ... , n},

Il

L f(xj)Lj(xi ).
J=O

Or, puisque L j (xi) = i ,j o i ,j le symbole de Kronecker est donn par :

~
sii = j,
8; ,j = {
si i =J j .

Ainsi, Pn(Xi ) = f (xi) x 1 + ~j =;fi f (xj ) x 0 = f (xi) En outre, le polynme Li est


le produit den polynmes de degr un, donc P,1 l'est galement, c'est un polynme
de degr n.
Enfin, vrifions que ce polynme est uni.que. Soit Q,1 un autre polynme solution de
(5.1). Alors nous avons pour i = 0, ... , n, Pn(xi) - Q11(xi ) = f (xi) - f (xi) = O.
Ainsi, P11 - Q,1 est un polynme de degr infrieur ou gal n s'annulant en n + 1
points distincts. Il est donc identiquement nul. o
L'criture (5.2)-(5.3) est certainement intressante d'un point de vue thorique
.<;::::
"Cl ~
"O
mais peu d'un point de vue pratique. Elle a un caractre relativement peu algorith-
0
c
::::>
c mique et son valuation requiert trop d'oprations lmentaires. Nous prfrons donc
Cl ....:::i la formule de Newton qui consiste crire le polynme P11 aux points xo, . . . , x 11 sous
(V)
"'
~
~
.-1
0
'V
.~
la forme
N
0""'
11 -J
@ ....
.
.c.
:::i
:
c
Pn(x) = ao +a, (x - xo) + .. . +an IT cx - xi )
0
0)
;:: c i= O
~
>-
o.. a.
0 0 Observons d'abord que tout polynme de degr infrieur ou gal n peut s'crire
u (.)
0
0 sous cette forme du moment que les points xi sont tous distincts. Ensuite, cette for-
..s::::
o.. mule prsente un intrt puisque elle fournit naturellement une rcurrence. En effet,
~
~
la partie tronque a 0 + ... + a 11 _ 1 fT,:-g(x - xi) n'est rien d'autre que le polynme
1
1
"O
0
c
d'interpolation Pn-1 crit aux points {xo, . .. ,Xn-d En effet, Pn-1 est un poly-
Q
:::i
nme de degr inftieur ou gal n - 1 et tel que pour tout i E {O, ... , n - 1},
@ Pn-J(Xi ) = f(Xj ).

15 7
Chapitre 5 Les polynmes

Ainsi connaissant Pll _ 1, le calcul de Pll s'effectue en dterminant le coefficient ail,


assurant que P11 (xn) = f (xn). Les coefficients (ai)O~i~n sont donns par la formule
de Newton suivante.

Thorme 5.9 Construction du polynme de Lagrange

Le polynme d'interpolation de Lagrange de la fonction f aux points distincts


(xi )o~i ~n est donn par

n i- 1

P11(x) L f[xo , ... , xd II (x - xk ),


i=O k=O

o f [] dsigne les diffrences divises de f dfinies par f [xd


tout i E {0 . . . n} et

f [xi, ... , xk ] - f [xo, ... , Xk-il


(5.4)
Xk - XQ

DMONSTRATION. Raisonnons par rcurrence sur le nombre de points d' interpola-


tion. Vrifions d'abord que la formule est vraie l'ordre n =1
f (x1) - f (xo) f[ ] ( ) f [xi] - f [xo ]
P1(X) = /( Xo ) + (X - Xo ) = Xo + X - Xo .
Xt - XQ X] - XQ

Supposons ensuite que la formule est vraie l'ordre n - 1, c'est--dire


n- l i- 1

L f[xo , ... ,xd II ex - xk)


i=O k=O
"O
0
c
0
::J et pour tout 0 ( k <l ( n- 1
('\"')
,..-!
0 f [xk+l, . .. , xz] - f [xk, . .. , xz_i]
N f [Xk, ... , Xz] =
@
~
..c
Ol
::::
Constmisons alors un polynme de Lagrange P11 partir de P,1 _ 1 et tel que
>-
a. P11(x11) = f (x11 ). Nous avons alors
0
u
11-l
P11- 1(x) + an II (x - Xk),
k=O
11-l i-l 11-l
L f[xo, ... , xi] II(x - xk) + ail II(x - xk)
i= k=O k=O

158
5.2. Interpolation de Lagrange et de Hermite

Le coefficient a11 est donc tel que P11 (x,i) = f (x11 ) et il reste dterminer sa valeur.
Pour ce faire, considrons le polynme Q(x ) crit sous la forme

X - Xo Xn - X
Q(x) = - - - Q11- 1(x) + - - - Pn- 1(x),
Xn - xo Xn - xo

o
Il i -1

Q 11-1 (x) = L f[xi, ... , xd II(x - Xk )


i= O k= I

est le polynme d' interpolation de faux points x 1 , .. , x 11 Nous vrifions facilement


que Q(xi ) = f (xi), pour tout 0 ~ i ~ n et puisque Q est aussi un polynme de
degr infrieur ou gal n, il vient P11 Q. Ainsi, les deux expressions de P11
permettent de dtetminer le coefficient a 11 de P11 en crivant simplement
n- 1
P11-1(X11) +ail II (Xn - Xk) = Q11- 1(X11) ,
k= O

ce qui donne

1 1
a" = - - - f [x , , ... ,x,i]-
Xn -Xo X11 -Xo
f[xo, ... ,x,1- 1] = f[xo, . .. ,x,i].
D
Proposons alors un algorithme simple pour le calcul du polynme d'interpolation
P, 1 de degr n aux points {xo, ... , x,i} .
Algorithme des diffrences divises
Initialisation : f[xd = f(xk) pour O~ k~ n .
Pour j = 1, .. .,n
- Calcu l er l 'ensemb l e des di ffrences div ises d'ordre i+1
.<;::::
- Pour k = 0, ... , n - i
"Cl ~ ] _ f(Xk+1, ... , Xk+;] - f(X k, ... , X k+i - d
0 "O f[ Xk, . .. ,Xk+1 - - - - - - - - - - - - - -
c c X k+i - X k
::::>
Cl ....:::i - Fin de pour
(V)
"'
~
Fin de pou r
~
.-1 'V
0 .~
N
@
0""'
....
:::i
pattir de cette formulation, tablissons un rsultat d'erreur entre la fonction f et
:
.
.c. c son polynme d'interpolation.
0) 0
;:: c
~
>-
o.. a.
0
Thorme 5.1 0 Erreur d'interpolation
0
u (.)
0
0
..s:::: Soit f une fonction dfinie de l'intervalle [a , b] valeurs dans R . Supposons que
o..
~
~ f est (n + 1) fois continment diffrentiable et P11 est le polynme de Lagrange
"O
1 dfini aux points distincts (xdo~i ~n de [a , b]. Alors
0
c
:::i
Q M 11+1 I I
@ 1 P11 (x) - f(x) 1 ~ (n + l)! 1T11(x) , (5.5)

159
Chapitre 5 Les polynmes


o M 11+ 1 max
a ~X. ~b J<n+I)(x) I et
1

Il

1Tn(X) ITcx - xi).


i=O

Avant de procder la preuve de ce thorme, prouvons le lemme suivant:

Lemme 5.11

Soit f une fonction dfinie de l' intervalle [a, b] valeur dans JR. Supposons
que f est p fois continment diffrentiable. Alors il existe g E [a, b] tel que
f[xo, ... ,xp ] = J<P )(g) / p!.

DMONSTRATION. Introduisons la fonction Ep(x) = f(x) - Pp(x ), qui s'annule


en p + 1 points distincts. D'aprs le thorme de Rolle, puisque E P est continue et
drivable, sa drive E~ s'annule en au moins p points ...
Finalement, E</) est continue et s'annule en un point g E [a,b], c'est--dire
J<P)(g) = p~P)(g) . Comme Pp est de degr p, nous savons que p~P)(g) = ap p!,
o aP est le coefficient devant xP, soit ici aP = f [x 0, . .. , xp ]. Par transitivit, nous
obtenons le rsultat f[x 0 , ... , xp ] = ap = J<P)(g)/ p !. D
Nous sommes maintenant en mesure de prouver le Thorme 5.10
DMONSTRATION. Soit x E [a, b], introduisons Q le polynme d'interpolation
aux points xo, ... , Xn et x . D'aprs la formule de Newton, ce polynme est donn au
point x par Q(x) = Pn(x ) + f [xo, ... , x 11 , x] 1T11 (x).
Or, puisque Q(x) = f (x) nous avons galement
"O
0
f(x ) = P11(x) + f [xo , .. . ,xn,X ] 1Tn(x ).
c
::J
0
(V)
Finalement, en appliquant le Lemme 5.11, il existe gE [a, b] tel que
,--!
0
N f(n+I\g)
@ f (x) = P11 (x) + (n + l)! 1T,1(x),
~
..c
Ol
::::
>-
a.
ce qui dmontre le thorme. D
0
u
Notons bien que ce rsultat ne signifie pas que !'interpol de Lagrange P11 converge
vers la fonction rgulire f E <if00 ([a , b], lR) lorsque le degr n tend vers l'infini.
En effet, le polynme 1T11 peut osciller considrablement lorsque n devient grand.
L'erreur dpend donc de la taille de l'intervalle [a, b] et de la rpartition des points
(xi )O~i~n sur l'intervalle [a,b ]. Illustrons ce phnomne d'oscillation lorsque les
points sont quidistants. C'est le phnomne de Runge.

160
5.2. Interpolation de Lagrange et de Hermite

Exemple : Phnomne de Runge


Prenons simplement des points n=07 ~
1.2
(x;)o ~ i~ n quidistants sur l' inte rvalle n = 09 ....*....
[-1 , 1] et la fonct ion f E <!f00 (JR, JR) n = 11 *
donne par f X --
0.8
1
f(x) = x + ' x E [- 1, 1].
25 2 1 0.6 ~

Nous observons alors le phnomne


de Runge 1
La Fi gure 5.2 reprsente la cou r be de
f et les polynmes de Lagrange cor- - -it) .. .

respondants de degr n = 7, 9 et 11 . 0 .: ,~........./


~ 'f
Nous constatons graph iquement (et -0.2 \j
nous pourrions mme le dmontrer ~~~~~~~~~~~~~~~

mais c'est un peu comp liq u!) que -1 -0.5 0 0.5


lorsq ue n tend ve rs l'infi ni , le poly-
nme de Lag range dfini partir d'un
Figure 5.2
La fonctio n f et les po ly n mes d e
ensemb le de points q uidistants ne Lagrange de d egr 7, 9 et 11 corres-
va pas converger vers la fo nction f . pondants.
C'est ce que nous appelons le phno-
mne de Runge.

Cependant, nous verrons un peu plus tard qu'il est possible de calculer l'ensemble
des points d'interpolation de manire rendre l' erreur l 7T11 lloo la plus petite possible
(grce aux polynmes de Tchebychev) mais ceci n'vite pas ncessairement le ph-
nomne de Runge. En dfinitive, pour remdier ce problme, nous proposons une
autre stratgie qui est souvent utilise dans la pratique: c' est l'interpolation compo-
se.

5.2.2 Interpolation compose


.~
"O ~
'O
Pour viter les instabilits numriques du type phnomne de Runge , nous pr-
0
c
::J
c::
::::1
frons l'interpolation polynomiale de degr peu lev sur des intervalles de petites
_.
0 tailles.
('\'")
"'
Q)
xl 2
Q) Xj
2
T"-f
0
~
.;a Dcomposons une premire fois l' in-
N
@
~
.....
_.
0
::::1

"'c::
tervalle [a, b] en n + 1 points (voir
Figure 5.3)

a3

..c 0
Ol c::
::::
>- Q)
s.. Figure 5.3
a.
0 0
a = ao < . . . < a11 = b. (5.6) Exe mple d'une r partitio n de po ints
u (.)

B pour l'interpolatio n co mpose.


0
..c::
p..

"'
~ 1. Carl David Tolm Runge (1856-1927) fut un mathmaticien et physicien allemand. En 1901, il
'O
1
dcouvrit que le procd d' interpolation peut diverger pour certaines fonctions rgulires. En outre,
0
c:: ses travaux portrent essentiellement sur la rsolution numrique d'quations diffrentielles (voir Cha-
::::1
0 pitre 6). Nous verrons qu'il est galement l'auteur de la mthode de Runge-Kutta pour la discrtisation
@ des quations diffrentielles.

16 1
Chapitre 5 Les polynmes

Puis, sur chaque intervalle


[ai, ai+d, construisons un polynme }lx)
d'interpolation de Lagrange P;,m
de la fonction f l'aide de m + 1
points, nots (x))o~j~m de [ai, ai+il

xb < . .. < x:n-l < x~ . (5.7)

Pour assurer que la reconstruction


sur tout l'intervalle [a, b] soit conti-
nue, nous prenons les extrmits des X
intervalles xb = ai et x~ = ai+l
Dmontrons alors en utilisant les
rsultats prcdents le thorme sui-
Figure 5.4
Illustration de l'interpolation compo-
vant. se pour l'approximation d'une fonc-
tion f par des polynmes de degr un.

Thorme 5.1 2 Erreur de l'interpolation compose


Soient n et m deux entiers positifs et un ensemble de points (ai)o~i ~n de l'in-
tervalle [a , b]. Choisissons sur chaque intervalle [ai, ai+1] un ensemble de points
(x) )o~j~m vrifiant (5.6)-(5.7). Alors il existe une seule fonction continue f~i ,n
telle que
la fonction fm ,nl[a; ,a;+d est un polynme de degr m,
sur l'intervalle [a; , ai+il pour tout 0 :( i :( n, fm , 11 (x.~ ) f(x)), pour tout
0 :( j :( m.
En outre, si la fonction f E Cef'm+ 1([a,b],ffi.), alors
hm+l
"O Il! - + Il ~ llt<m+n11oo,
Jm ,11 oo -.. .;:: (m + l)! .
0
c
::J
0
('\"')
T"-f
0
N
@
~
..c
Ol Dans la pratique nous constatons donc que les meilleures approximations ne sont
::::
>-
a. pas forcment donnes par des polynmes de degr lev mais plutt en combinant
0
u une partition de l'intervalle [a, b] en sous-intervalles de taille rduite et des inter-
polations de degrs modrs. Dans !'Exercice 5.4, nous proposons un exemple d'in-
terpolation compose et constatons que cette approximation est bien meilleure que
l'interpolation par des polynmes de degr lev.

162
5.2. Interpolation de Lagrange et de Hermite

5.2.3 Applications : formules de quadrature


pour l'approximation d'intgrales
Pour une fonction continue f dfinie de l'intervalle [a , b] et valeurs dans IR, nous
approchons la valeur de son intgrale sur l' intervalle [a , b]

I = 1b f(x)dx.

Il existe toute une famille d'algorithmes permettant d'approcher sa valeur numrique.


Tous ces algorithmes consistent approcher l'intgrale par une formule dite de qua-
drature, du type 11

l(f) = L wi f (xi).
i=O
Le choix du nombre de points (n + 1), des poids (wi)o~u:;;n et des points (xi)O~i~n
dpend de la mthode employe. Il conviendra aussi de s'intresser la prcision
des formules employes. Ces mthodes utilisent la technique de l'interpolation des
fonctions intgrer. Gnralement, la fonction est d'abord interpole par un poly-
nme puisqu'il est trs facile d 'en connatre la primitive. Il s'agit alors de fournir des
valeurs pour les points (xi)O~i~n et les poids (wi)O~i~n et d 'valuer l 'erreur entre la
valeur exacte et la valeur numrique de 1' intgrale l.
Dans un premier temps, donnons quelques formules de quadrature classiques et le
calcul de l'erreur. Ensuite, prsentons la formule de Newton-Cotes base sur l'inter-
polation compose.
Formule des rectangles
C'est la mthode la plus simple qui consiste interpoler la fonction f intgrer par
une fonction constante (polynme de degr 0).
Soit g le point d'interpolation; la for-
mule devient alors :

"O
.~
~
/(f) = (b - a) f (g). (5.8)
0 'O
c c::
0
::J ::::1
_. Ici, nous considrons le cas g a ou
('\'")
"'
Q)
g = b, ce qui correspond l'aire du rec-
Q)
T"-f ~
0
N
.;a
..... tangle de largeur (b - a) et de longueur
_.
0
@ ::::1 If (a)I ou If (b)I.
~
..c
Ol
"'c::
0 Aussi, cela revient approcher la fonc- a b
c::
::::
>- Q)
s.. tion f sur l'intervalle [a , b] par le poly-
a. Figure 5.5
u
0 0
(.) nme d'interpolation de Lagrange de degr
B
0 zro construit partir de a ou de b. Ainsi, Formule des rectangles.
..c::
p..
le rsultat du Thorme 5.10 fournit une estimation de l'erreur
"'
~

~ (b ~ a)
1
2
'O
0 II(f) - Il sup lf'(y)I.
c:: yE[a,b]
::::1
0
@ Cette formule de quadrature s'appelle la mthode des rectangles.

163
Chapitre 5 Les polynmes

Formule des trapzes


Cette fois-ci, interpolons la fonction f par
un polynme de degr un. Pour cela, nous
avons besoin de deux points d'interpola-
tion, savoir (a, /(a)) et (b, f(b)).
L' intgrale est alors approche par celle
du polynme correspondant, en l' occur-
rence celui donnant l'aire d'un trapze

J (f) = (b ; a) (/(a) + f(b)). a b

En outre le rsultat du Thorme 5.10 Figure 5.6


Formule des trapzes.
fournit une estimation de 1' erreur donne
par

E(/) = ll(/)- 11 :::;; (b~2a)3 sup l/"(y)I.


yE[a,b]

Notons que l' erreur est nulle pour tout polynme de degr infrieur ou gal un.

Formule de Simpson
En utilisant un polynme de Lagrange de
degr deux, nous obtenons la formule de
Simpson suivante

J (f) (b ~a) (/(a) + f(b))

+ 2 (b ; a) f (a; b) ,
"O
0
c
a a+b b
::J qui utilise trois points a, (a+ b)/ 2 et b. 2
0
('\"')
,..-!
Plus gnralement, nous pouvons fabri- Figure 5.7
0
N
quer une formule de quadrature pour n'im- Formule de Simpson.
@ porte quel entier n ): 0 par
~
..c
Ol Il

1c1) = 2= l j 1cxi)
::::
>-
a.
0
u i=O

avec Xi = a+ i h, h = (b - a)/ n et les poids (wi)O ::=;;i::=;;n vrifient


JI

I:l j = b - a.
i= O

164
5.2. Interpolation de Lagrange et de Hermite

Formule de Newton-Cotes
Les formules de Newton-Cotes permettent de gnraliser ces rsultats sur des inter-
valles constants, o la fonction f est interpole par des polynmes de degr lev.
Cependant, pour des questions de stabilit numrique lie au comportement oscil-
latoire des polynmes de degr lev (voir phnomne de Runge), il est prfrable
de limiter le degr du polynme d'interpolation en subdivisant l'intervalle [a, b] en
sous-intervalles, pour lesquels une interpolation linaire est suffisante. C'est exacte-
ment le mme procd que celui dcrit pour l'interpolation compose. Comme nous
l'avons montr pour chacune des mthodes prcdentes, le terme d'erreur dpend
de b - a. Ainsi, lorsque cette amplitude est trop leve, nous rduisons simplement
l'erreur en dcoupant l'intervalle [a , b] en n sous-intervalles, sur lesquels nous cal-
culons la valeur approche de l'intgrale. Nous parlons alors de formule composite.
La valeur sur l'intervalle [a , b] sera la somme de la valeur sur chaque sous-intervalle.
Plus prcisment, nous divisons l'intervalle [a, b] en n sous-intervalles de lon-
gueur h = (b - a)/ n, et posons Xk = a + k h, pour k E {O, ... , n }. En appli-
quant par exemple la mthode des trapzes sur chaque intervalle [xki Xk+d, pour
k E {O, ... , n - 1}, la formule devient

/(f) = h ~ f(xk) +/(Xk+J)


k=O

ou encore l'aide d' un changement d'indice

/(f) =
2
.
h f(a) + j(b) + h
L.t
f(xk)
.
''
11 -J

k=l

En appliquant, l'erreur de quadrature de la formule des trapzes sur chaque inter-


valle et en supposant que f E <if2 ([a, b], IR), le terme d'erreur s'crit
.~
"O ~
0 'O
c
::J
c::
::::1
_.
E(h) :::;;h2 (b-a) sup lf"(y) I.
0
"'
Q)
12 yE [a ,b]
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0 Constatons alors que lorsque le nombre de subdivisions de l'intervalle [a, b] aug-
@ ::::1
mente, l'erreur E (h) diminue de manire quadratique: la mthode est d'ordre deux.
~
..c
Ol
"'c::
0
::::
c::
Q)
>-
a.
0
s..
0
5.2.4 Interpolation de Hermite
u (.)

B
0
L'objectif est de constrnire un polynme d'interpolation d'une fonction f en utilisant
..c::
p.. des valeurs de f et de sa drive f' aux points (xi)O~i~n d'un intervalle [a , b]. C'est
"'
~
1
l'interpolation de Hermite'.
'O
0
c::
::::1
0 1. En rfrence Charles Hermite, mathmaticien franais ( 1822-1901) dont les travaux portrent sur-
@ tout sur la thorie des nombres, l'tude des polynmes orthogonaux et les quations diffrentielles.

165
Chapitre 5 Les polynmes

Spline cubique de Hermite


Pour construire un polynme d'interpolation sur l'intervalle [O, 1], introduisons
une fonction spline cubique , c'est--dire un polynme P de degr trois tel que
P E Vect{h 00 , h1 0 , h 0 1, h11 } avec pour tout x E [O , 1]
3 2
hoo(x) = 2x - 3x + 1,
3
h10(x) = -2 x + 3 x 2 ,
{ ho1(x) = x 3 - 2x2 + x ,
h11(x) = x 3 - x 2 ,

ce qui permet de construire un polynme P comme

P(x) = a hoo(x) + f3 h10(x) + 'Y ho1 (x) + h11 (x),

lequel vrifie P(O) = a, P(1) = {3 et P'(O) = y , P'(1) = . Observons ainsi que


la connaissance des valeurs d'une fonction f et de sa drive aux points x = O et
x = 1 suffit construire la spline cubique.

tudions maintenant comment gnraliser cette procdure un nombre quel-


conque de points. Soient (xi )O~i~n un ensemble de (n + 1) points distincts de
l'intervalle [a , b] c ffi. et f E ~ 1 ([a , b], ffi.) une fonction donne. Supposons que
les valeurs de la fonction f et de sa drives soient connues aux points (xi )o~i ~ 11 et
souhaitons construire un polynme d'interpolation P11 de degr minimal qui vrifie

(5.9)

Notons toujours que:


Il
x - x./
IT
j= O
. X -
1
X
j
j:f.i

Dmontrons le rsultat suivant

"O
Thorme 5.1 3 Existence du polynme d'interpolation de Hermite
0
c
0
::J Le polynme P11 est de degr 2n + 1 et s'crit
('\"')
T"-f I! 11
0
N
@
~
i= O i=O
..c
Ol
::::
>-
avec Hi(x) = (1 - 2 L~(xi)(x -xi)) L f(x) et El(x) (x -xi ) L f (x). En outre,
a.
0 lorsque f E ~2(n+ I ) ([a , b], ffi.)
u
11 / (2(11+1))1100 JI

l/(x) - Pn(x ) I ~ ( n + )!
2 2
Il(x - 2
X) . (5.10)
1= 0

Le polynme P11 s'appelle le polynme d' interpolation de Hermite de la fonc-


tion f.

166
5.3. Mthode des moindres carrs

D MONSTRATION. Procdons en plusieurs tapes et vrifions d'abord que


H i(xj) = i ,j H((xj) = 0 et Hi (x ,;) = 0, H ((xj ) = i, j
Ainsi en prenant Pn donn par
Il n

i=O i= O

nous prouvons qu'il existe bien un polynme de degr 2n + 1 vrifiant les conditions
requises (5.9). Nous vrifions que ce polynme est forcment unique.
Pour dmontrer l'estimation de l' erreur, nous la vrifions d'abord en chaque point x;,
pour 0 ~ i ~ n. Puis, prenons x E [a, b] o x est diffrent des points (xi)O:i :n. et
posons
n

1T~ (x) = II (x - X)
2

i= O

et pour y E [a , b]

. f(x) - Pn(X) 2
F (y) = j (y) - P11 (y) - 2( ) 1TIl (y).
1Tn X

Nous vrifions aisment que x est une racine de F , et xi est racine double de F .
Ainsi, en appliquant le thorme de Rolle la fonction F, nous montrons qu'il existe
()o:::;;:::;;11 , distincts des po.ints xi, pour tout 0 ~ i ~ n, et de x vrifiant F'(;) = 0
pour tout 0 ~ i ~ n.
Or, nous avons aussi F' (x;) = 0 pour tout 0 ~ i ~ n, ce qui signifie que F' admet
2(n+ 1) racines distinctes. En appliquant de manire successive le Thorme de Rolle,
nous prouvons qu'il existe 1Jx E [a , b] tel que p<211+2)(1Jx) = O.
En drivant 2(n + 1) fois la fonction F(y) et en nous plaant au point 1Jx E [a , b],
"Cl
.<;::::
~
nous obtenons directement
0 "O
c c
::::>
Cl ....:::i (2n + 2 )! /(x) ~ Pn(X) J(2(n+ I )) ( 1Jx ),
"'
~
(V)
.-1 ~
'V
7T11(x)
0 .~
N
0""'
....
@ :::i
:
ce qui conduit facilement au rsultat final. D
.
.c. c
0) 0
;:: c
~
>- a.
o..
0
u
0
(.)
0
5.3 MTHODE DES MOINDRES CARRS
0
..s::::
o.. Jusqu'ici nous avons toujours considr l'approximation d'une fonction par un pro-
~
~
1
cd d'interpolation l'aide des valeurs de la fonction f en des points (x)o:::;;:::;; 11 ,
"O
0
ce qui suppose que ces valeurs soient connues exactement. Or, dans la plupart des
c
Q
:::i situations, ce n'est pas le cas. En particulier lorsque les valeurs de f proviennent de
@ mesures exprimentales.

167
Chapitre 5 Les polynmes

Le rsultat de mesures physiques tel que


celui prsent sur la Figure 5.8 conduit
penser que f (x) doit tre une fonction
affine f (x) = a 1 x+a0 Il ne semble pas trs 0
raisonnable de remplacer f(x) par un poly-
nme d'interpolation aux points (xi )o~i ~ 11
dont le calcul dpendrait des valeurs mani-
festement errones (f (xi) )o~i ~n .
En effet, une analyse statistique suc-
Figure 5.8
cincte du phnomne ci-dessus indique que Approximation linaire (trait continu) au
ces valeurs (f (xi) )o~.i ~ 11 contiennent une sens des moindres carrs partir de
information juste (variant lentement) mais donnes physiques (points).
aussi un certain bruit (c'est un signal
parasite variant rapidement mais de faible amplitude). L'ajustement de donnes
consiste liminer ce bruit . Dans cet exemple, le principe de la mthode va
consister chercher la fonction f, non plus sous la forme d'un polynme de degr n
mais plutt sous la forme f(x) = a 1 x + ao o ao et a 1 sont calcules de manire
rendre le bruit le plus faible possible. Il reste dfinir correctement la notion de
plus faible possible, nous pourrions par exemple rechercher les valeurs a 0 et a 1 E IR
solution du problme de minimisation suivant,
(5.11)

Cependant, le plus souvent nous prfrons minimiser la quantit suivante,


Il

L 1f (xi) - (ao + a1xi) 1


2
, (5.12)
i= O

car ce problme peut tre rsolu plus facilement. C'est la mthode des moindres
carrs.
"O
0
c
5.3.1 Rappel du thorme d'approximation
::J
0 Avant de passer la description de la mthode des moindres carrs, dmontrons un
('\"')
,..-! rsultat d'existence de solutions qui s'applique la fois aux problmes (5.11) et
0
N (5.12) mais ne donne pas l'unicit de la solution, ce qui est un inconvnient d ' un
@
~
point de vue de la mise en uvre de l'algorithme.
..c
Ol
::::
>-
a.
Thorme 5.14 Thorme d'approximation
0
u
Soient (E , lili E) un espace vectoriel norm et P11 un sous-espace vectoriel de
E de dimension n ) 1. Alors pour tout lment f E E, il existe au moins un
lment P* E P11 , dfinie comme tant la meilleure approximation de f dans P11 ,
c'est--dire
llf - P*llE = min llf - PllE
P E P ,.

168
5.3. Mthode des moindres carrs

DMONSTRATION. Notons d la distance .induite par la norme 11 -11 E de l'espace vec-


toriel E : pour tout f etg E E, d(f,g) =Il! - gllE
Soient f E E et P11 un sous-espace vectoriel de E de dimension n ~ 1. Dfinissons
alors
d(f, P11) = inf 11.l - Q llE
QEP11
Par dfinition de l'infimum, il existe une sue (QkhE N c P,, telle que
lim Il/ - QkllE = d(f, Pn).
k-+oo
Montrons que la suite (Qk)kE N est borne. D'une part, par dfinition de la li.mite, pour
tout s > 0, il existe ke E N tel que pour tout k ~ ke
111/ - QkllE - d(J ' Pn) 1 ~ 8

s = d(f, P,J donc il existe k 0 E N tel que pour tout k > k0 ,

llQkllE ~ llQk - f llE + llJ llE


~ 2d(f' P,J + llf llE
Ainsi, (QkhEN est une suite borne, et puisque P,1 est un sous-espace vectoriel de
E de dimension finie, il existe donc P * E P11 et une sous-suite extraite de (Qk)kEN,
toujours note de la mme manire, tels que Qk --+ P*, lorsque k --+ +oo, et donc
Il! - P *llE = d(f , P,J = inf Il! - QllE
Q E P11 0
Exemple
Prenons par exemple E = IRn+1 avec n ~ 1, ce qui correspond au nombre de points
dont nous connaissons les valeurs approches. Munissons Ede la norme du max
11.lloo et prenons P2 un sous-espace vectoriel de Ede dimension 2. En appliquant
le Thorme 5. 14, nous dmontrons alors q u'il existe au moins une solution de
(5. l l ), c'est--d ire un polynme de degr un qui minimise la norme du max de
IRn+1
.<;::::
"Cl ~ max l f(x;) - (ao + a, x;)I
0 "O
c c O ~ i~ n
::::>
Cl ....:::i
(V)
"'
~
~
.-1
0
'V Notons que ce thorme est en ralit beaucoup plus gnral puisque l'espace E
.~
N
0""'
.... n'est pas fo rcment de dimension finie:
@ :::i
. :
.c. 0
c Exemple
0)
;:: c
>- ~
a. Pour un intervalle [a, b] de IR, prenons E = 1&"0 ([a, b ), IR) muni de la norme du max
o..
0
u
0
(.)
0
lllloo et prenons P1 c E l'espace vectoriel des polynme de degr infrieur ou gal
0 un, qui est de dimension 2. En appliquant le Thorme 5. 14, nous dmontrons
..s::::
o.. alors qu'il existe au moins une solution du problme de minimisation
~
~

"O
1 llf - p* lloo = inf
P EP 1
llf - Plloo,
0
c
Q
:::i
c'est--dire un polynme de degr un qui minimise la norme sup lllloc de
@ <!f0 ([a, b ), IR).

169
Chapitre 5 Les polynmes

En dfinitive, ce thorme assure l'existence d'au moins une solution au problme


(5.11) ou (5.12) mais il n'est en aucun cas constructif. C'est une mthode de compa-
cit: l' existence d'une suite convergeant vers la solution est dmontre mais la suite
n'est pas construite explicitement.
Pour remdier cet inconvnient, nous ajoutons une hypothse supplmentaire
savoir que l'espace E est un espace de Hilbert. Nous appliquons alors le Thorme
de la projection vu au chapitre prcdent (Thorme 4.29) sur un sous-espace vecto-
riel P11 de dimension fini (c'est bien un sous-ensemble ferm, convexe de E). Nous
pouvons alors caractriser la solution P * de (5.12) comme l'unique solution vrifiant

\f - P*, Q)E = 0, \::/Q E P11 (5.13)

En effet, il suffit de vrifier que lorsque Pn est un sous-espace vectoriel de E, pour


tout Q E Pn, nous avons aussi - Q E Pn, ce qui signifie que (4. 22) est dans ce cas
une galit.

5.3.2 Rsolution du problme des moindres carrs di screts


Reprenons le problme des moindres carrs (5.12) et considrons n + 1 points
(xi )O~i~n C lR et n + 1 rels (yi )O~i~n C JR. En outre, pour tout 0 :( j :( m ,
notons </>J : lR i---+ lR avec m :( n et U l'espace vectoriel engendr par ces fonctions
U = Vect {</>o , ... , <Pm}
La mthode des moindres carrs consiste rechercher une fonction</>* E U dont
les valeurs </>*(xi) sont les plus proches possible de Yi pour tout 0 :( i :( n. Autrement
dit, nous souhaitons rsoudre le problme de minimisation suivant: trouver</>* E U
telle que
Il n
(5.14)

"O
Dmontrons alors un rsultat d'existence et d'unicit de la solution et proposons
0
c par la mme occasion un algorithme de construction.
::J
0
('\"')
T"-f Thorme 5.1 5
0
N
@ Soit (</> J )o~J~m une famille libre de polynmes. Alors il existe une unique
~
..c fonction </>* E U solution de (5.14). En outre, </>*(x) = ~7=o u J </>1 (x) o le
Ol
::::
>- vecteur u = (u0 , ... , um) E JRm+t est l'unique solution du systme linaire
a.
0 B r Bu = B r y, avec B E .4i1+1 ,m+1(1R) donne par
u

170
5.3. Mthode des moindres carrs

En dfinitive l'ide de la mthode des moindres carrs repose sur la recherche d'un
vecteur u* minimisant la norme euclidienne de R11 +1

llB u* - Ylb (5.15)

pour une matrice B E .4 + 1,m+1 (avec m


11 ( n) et un vecteur y E Rn+ 1 .
D MONSTRATION. Nous allons dmontrer que la solution du problme de minimi-
sation peut tre caractrise comme tant la solution d'un systme linai re et que ce
systme linaire admet une unique solution.
Dans une premire tape, mettons le problme sous forme matricielle. Posons
y E R11 + 1 avec y = (yo, ... , y11 l E R 11 + 1 et remarquons ensuite que l'application
I:;
z E R11 +1 1-7 11z11 = ( =0 1Zi l2)
1 112
E JR+ correspond la norme euclidienne de
11 1
R + . Ensuite, pour un polynme </> E U, il vient </>(xi) = I:7
=O u .i </> .i (xi) ( B u )i,
avec B E .$1,i+ 1,m+1 (R) donne par

</>o(xo) . . . </>m(xo) )

B =
(
~o(x,1) </>m(Xn)

et u = (uo , ... , uml E Rm+J . Par consquent, nous avons


Il

L l<P(xi) - Yd 2 = llBu - Yll 2


i=O

En notant v = Bu E JR11 + 1, le problme revient alors trouver v* E F := { v E Rn+ J,


3 u E Rm+ 1, v = B u} = lm( B) ralisant le minimum de 11 v - y 11 pour tout v E F,
c'est--dire v* E F tel que

.<;::::
llv* - Yll = min llv
vEF
- Yll,
"Cl ~
0 "O
c
::::>
c o 11 . 11 dsigne cette fois-ci la norme euclidienne de R'i+ 1.
Cl ....:::i
(V)
"'
~ Ainsi, en appliquant le Thorme 4.29, nous dmontrons qu'il existe un unique
~
.-1
0
N
'V
.~ v * E F ralisant le minimum de 11 y - v 11 Cette solution est caractrise par v * E F,
0""'
@ ....
:::i
vrifiant (y - v*, v) R"+ ' = 0, pour tout v E F.
. :
.c.
0) 0
c Puisque v* E F, il existe u* E Rm+J tel que v* = Bu*, nous avons donc
;:: c
~ ( Bu* - y, B u) R11+1 = 0, pour tout u E JRm+I ou de manire quivalente
>-
o.. a.
0
0
u (.)
0
0
..s::::
o..
~
~ et donc Br Bu* = BT y .
1
"O
0 Pour autant, ceci n'assure pas l'unicit. En effet, nous savons que v* est unique
c
Q
:::i
d'aprs le thorme de la projec tion mais il peut exister plusieurs u* tel que
@ Bu* = v* . L'unicit est lie au caractre injectif de B. En effet, puisque la

171
Chapitre 5 Les polynmes

famille de polynmes { <f> o, ... , <f>m} est libre, la matrice B est bien de rang m + 1,
c'est--dire dim(Im(B)) = dimF = m + 1. Or, pour B E .4,z+t ,m+i (lR), nous
avons dim(Im(B)) + dim(Ker(B)) = dim(JRm+l) = m + 1, ce qui signifie que
Ker(B) = {O} et donc B est injective. Nous en dduisons que BT B est symtrique
et dfinie positive, elle est inversible. Il existe donc une unique solution u* E JRm+l
de (5.14). D

Par la suite, gnralisons la mthode des moindres carrs des problmes continus,
ce qui permettra de constrnire des polynmes particuliers : les polynmes orthogo-
naux.

5.4 POLYNMES ORTHOGONAUX


Nous avons dj utilis les espaces des Hilbert lors du chapitre prcdent (voir le
Paragraphe 4.2.2). Introduisons maintenant une notion supplmentaire : l' orthogona-
lit.

Dfinition 5.16
Soit E un K -espace de Hilbert. La famille (en )nE I CE avec I C N est orthogonale
par rapport au produit scalaire (., .) lorsque (en, e p) = 0, pour tout p i= n.
En outre, la famille (e,JnEI C E est orthonormale par rapport au produit scalaire
(. , .) lorsque (e 11 , e11 ) = 0, pour tout p i= n et (e 11 , e11 ) = 1, pour n E / .

Toute famille orthogonale constitue de vecteurs non nuls est libre, il suffit d 'ef-
fectuer le produit scalaire pour le vrifier. Nous avons alors les proprits suivantes
[18].

Proposition 5.1 7

Soit (e11 ) 11 E 1 une famille orthogonale de E muni d'un produit scalaire (E est
appel espace pr-hilbertien). Alors pour tout lment x E E , l'ingalit de Bes-
"O
0
c
sel est donne par L:nEI 1(x, en) 12 ~ llx 112 .
0
::J
En outre, si (en)iz EI forme une base de E , l'galit
('\"')
T"-f
0
N
I: l(x, en) l 2
= llxll 2 ,
@ nEl
~
..c est connue sous le nom d' galit de Parseval, de plus la srie l:nE I (x, en) en
Ol
:::: converge vers x .
>-
a.
0
u
5.4.1 Construction de polynmes orthogonaux
Soit w une fonction strictement positive sur [a, b], appele poids. Notons

L~(]a, b[) = { J : [a, b] ,__,Ill, lbIJ(x)l 2


w(x ) dx < oo }

172
5.4. Polynmes orthogonaux

o l'intgrale est prendre au sens de Lebesgue [18]. Par la suite, utilisons les nota-
tions suivantes :
pour w(x) une fonction strictement positive sur [a, b], (., .) w dsigne le produit
scalaire pondr par le poids w : pour toute fonction f, g rgulires

(f,g)w =lb a
f(x)g(x)w(x)dx;

l'espace L~ (]a , b[) est l'espace de Hilbe1t des fonctions de carr sommable sur
[a , b] par rapport au poids w. C 'est un espace vectoriel norm (dont chaque l-
ment est une fonction) complet, muni d'un produit scalaire;
la norme associe au produit scalaire est donne par 1' application

f E L~(]a , b[) ~ llJ llw ER+


telle que

111111; = (f.f)w = [ 1f(x) l2 w(x)dx


Introduisons galement la norme de la convergence uniforme sur [a , b] dfinie par

Il! l!L 00 = sup lf(x)I,


x E [a ,b]

celle-ci est correctement dfinie si f est par exemple continue.


Appliquons alors le produit scalaire poids des polynmes.

Dfinition 5.18
Soit (Pn)n EN C P(R). La suite de polynmes (P11 )nEN est une suite de poly-
"O
.~
~
nmes orthogonaux par rapport au produit scalai re (., .)w, si les polynmes Pn
0
c
'O
c:: sont orthogonaux dans L~ (]a , b[).
::J ::::1
_.
0
('\'")
"'
Q)

T"-f
Q)
~
Par la sui te, supposons que
0 .;a
N .....
@
~
..c
Ol
::::
_.
0

0
::::1

"'c::
c::
Q)
lb lxl" w(x )dx < oo, \:fn) 0,
>-
a. s..
0
ce qui assure que tous les polynmes sont contenus dans l' espace L~(]a, b[).
0
u (.)

B
0
..c::
p..

"'
~
Thorme 5.19 Construction de polynme orthogonaux
1
'O
0
c::
Soit w une fonction strictement positive sur l'intervalle [a, b] vrifiant ( *). Alors
0
::::1
il existe une unique suite de polynmes (P11 ) 11 E N c P(R) orthogonaux par rapport
@ au produit scalaire (., .) w et tel que Pn est de degr n et dont le coefficient devant

173
Chapitre 5 Les polynmes


le terme x 11 vaut un. Plus prcisment, l' ensemble (Pn)nEN vrifie la relation de
rcurrence suivante

Po(x) = 1,

P1(x) = x - ao , (5.16)

avec pour tout n E N

1
2
Il P11 llL2
lb x Pn(x) P,1 w(x)dx , (5.17)
"'

DMONSTRATION. Construisons les polynmes orthogonaux P11 par le procd de


Gram-Schmidt. Pour ce faire, posons d 'abord P0 (x) = 1 et P 1(x) = (x - a 0 ) P0 (x)
o a 0 est calcule de sorte que la condition d'orthogonalit entre Po et P1 soit vrifie,
c'est--dire

ao =
J: b
x w(x)dx
=Il ,
1
Po112L2w
lb x Po(x) Po(x)w(x)dx .
Ja w(x) dx a

Observons galement en utilisant la condition d'orthogonalit que

lb
la P ?(x) w(x)dx = lb P1(x) (x - a o) Po(x )w(x )dx

lb x P1(x)Po(x)w(x)dx. (5.18)

"O
0
c
Posons ensuite P2 (x ) = (x - a 1) P 1(x) - A1 P0 (x). Puis, des conditions
::J
0
('\"')
,..-!
0
N
@ nous dduisons simplement que
~
..c
Ol
::::
>- a1 = _l_ fab x Pi(x) Pi(x)w(x)dx ,

u
a.
0 llP1lli2 J~
w

et en utilisant (5.18), il vient

1 =
1
l Polli2
lbx Pi (x ) Po(x) w(x ) dx,

"'
ce qui dmontre le rsultat pour n = 1.

174
5.4. Polynmes orthogon aux

Procdons ensuite par rcurrence et supposons que (5.17) est vraie au rang n, c'est-
-dire qu'il existe une famille de polynmes orthogonaux { P0 , ... , Pn+ I }.
Posons alors P11+2(x) = (x - n+1) P11+1 (x) - n+J Pn(x).
D'une part, dmontrons que pour tout i E {O, ... , n - 1}, le polynme P11 +2 est
orthogonal au polynme Pi construit prcdemment. Pour cela, rappelons que x Pi (x)
est un polynme de degr i + 1 et d'aprs la Proposition 5.2, (Pk )o~k~i+l forme une
base de l'ensemble des polynmes de degr i + 1 et donc x Pi(x ) = L:~:!o Ck Pk(x).
Il vient alors d' aprs l'hypothse de rcurrence
i+l
LCk ( P11+L, Pk)w - 11+l ( P11+L, Pi)w - n+l ( Pn, P;)w
k=O
O.
D'autre part, en imposant les conditions ( P,1+2, P,z+1)w = (P,1+2, P11 )w = 0, nous en
dduisons les valeurs de a 11 +1 et n+ 1

n+l = Il
1
ll 2
1b x lP11+1(x)l2 w(x)dx
Pn+I L2w a

et
1
11+l = 2
llP11llL2
rb Pn(x) Pn+1 (x ) w(x)dx .
la
X

La valeur de .A11 +1 n'est pas exactement celle propose. Montrons alors que

lb x P,,(x ) Pn+1(x) w(x) dx = Il P,,+ill~~.

En effet, puisque l'ensemble {Po, . . . , P11 +i} constitue une famille orthogonale dans
L~(]a , b[); il forme une base de l'espace vectoriel des polynmes de degr n + 1. En
.~
"O ~
'O
crivant x P11 (x) dans cette base et en utilisant le fait que le coefficient devant le terme
de degr n + 1 du polynme x P11 vaut 1, nous avons x P,1 (x) = Pn+ 1(x )+ L:;= 0 ci Pi (x)
0 1
c c::
::J ::::1
_.
0 et dduisons que
('\'")
"'
Q)
Q)
T"-f
0
~
.;a b
N
@
~
..c
Ol
.....
_.
0
::::1

"'c::
0 ce qui donne le rsultat.
l a
x P11 (x) Pn+l (x) w(x) dx

D
::::
c::
Q)
>-
a. s..
0 0 nonons ici deux rsultats classiques sur les racines des polynmes orthogonaux.
u (.)

B
0
..c::
p..
Proposition 5.20 Racines de polynmes othogonaux
"'
~
1
'O Pour tout n ~ 1, nous avons
0
c::
0
::::1
le polynme P11 possde exactement n racines simples contenues dans l'inter-
@ valle ]a , b[,

17 5
Chapitre 5 Les polynmes


les racines (x;1) 1 ~i~n de P11 sparent les racines (x;i+ 1 ) 1 ~i~n+l de Pn+i, c'est--
dire
a < xt < x~1 < x~+ < ... < x;:+i < x;: < x;:: t < b.
1 2

Avant de poursuivre, donnons deux exemples de polynmes orthogonaux :


Polynme de Hermite
Les polynmes de Hermite Hn dfinis par

Hn(X} = (- 1tex
2 2
/ dn
dxn
(e-x2 12)
2
sont orthogonaux dans L~(IR} pour le produit scalaire associ au poids w(x} = e -x 12 ,
pour x E lR.
Nous pouvons dmontrer que les polynmes de Hermite sont donns par la
relation de rcurrence suivante : pour tout x E ~ . Ho(x} = 1, H1 (x} = x et
Hn+1(x} = X Hn(X} - n Hn- 1(x}.

Polynme de Legendre
Les polynmes de Legendre Pn sont dfinis pour x E [-1 , 1) par la rcurrence
suivanteP0 (x} = 1,P, (x} = xet(n+1}Pn+1(x} = (2n+1}xPn(x} - nPn-1 (x}.
Cette suite de polynmes forme une famille orthogonale dans L~ (] - 1, 1[} pour le
produit scalaire associ au poids w = 1.

Un autre exemple important est l'ensemble des polynmes de Tchebychev que


nous tudierons prcisment dans !'Exercice 5.6.

5.4.2 Mthode des moindres carrs continue


Nous avons prsent la mthode des moindres carrs discrte consistant trouver par
exemple un polynme P* qui approche une fonction connue seulement en certains
points (xi , Yi )O~i ~ n La mthode des moindres carrs continue consiste approcher
une fonction f par un polynme P * E Pn(lR) qui minimise la norme Il! - Plli 2
"O
0
c J

0
::J
sur l'ensemble des polynmes de degr infrieur ou gal n, not P11 (JR). Pour la
('\"')
T"-f
constmction d'une telle approximation, nous utilisons des polynmes orthogonaux
0
N par rapport au produit scalaire associ l'espace L~ .
@ Pour tout n ~ 1, choisissons (Pk )o~k ~ n une suite de polynmes orthogonaux par
~
..c
Ol rapport au produit scalaire (., .) w' o w reprsente la fonction poids et notons P11 (a, b),
::::
>- l' ensemble des polynmes de degr infrieur ou gal n restreints l' intervalle [a , b].
a.
u
0 Observons que puisque la famille (Pk)O~k~n est libre, nous avons
P 11 (a , b) = Vect{ Po, ... , P,i} .
Pour une fonction f dfinie de l'intervalle [a , b] C lR valeurs dans lR telle que
f E L~ (]a , b[), nous recherchons un polynme P * E P11 (a , b) solution du problme
Il! - P*lli2
"'
= inf
P E P11(a ,b)
Il! - Pllu'" (5.19)

176
5.4. Polynmes orthogonaux

Dmontrons alors le rsultat suivant :

Thorme 5.2 l Meilleure a roximation


Soient n ~ 1 et f E L~ (]a , b[). Il existe un unique polynme P* E P n(a , b)
solution de (5.19) qui s'crit sous la forme P* (x) =
1
=0 ci Pi(x), o les coef- 2:;
ficients (ci)O~i~n sont donns par

c, = r;,f))~' i = 0, ... ,n.


Pi, Pi w

DMONSTRATION. La dmonstration de l' existence et de l' unicit de P * E P,1 (a , b)


dcoule directement de l'application du Thorme 4.29. En outre, en crivant P *
sous la forme P *(x ) =
1
2:;
= 0 ci Pi(x), les coefficients (ci)O~i~n vrifient d'aprs le
Thorme 4.29,
Il

2::: ci (PJ, P )w = (f , P )w, V P E P 11 (a , b).


j =O
En choisissant P = Pi, pour i = 0, ... , n et en utilisant l'orthogonalit des poly-
nmes, nous obtenons le rsultat
Ci ( Pi, Pi)w = (!' Pi)w, i = 0, ... ' n ,
ce qui correspond l'expression souhaite de ci. D

Ce dernier thorme permet de comprendre pourquoi dans la pratique nous utili-


sons un espace fonctionnel muni d'un produit scalaire; ce cadre permet en effet de
donner une expression simple de la solution du problme de minimisation.
Exemple : approximation de l'exponentielle
Recherchons le polynme P de degr infrieur ou gal trois qui mini mise

j~ 1 ltf -
1
<;:::: 2
"Cl ~ P(x) l dx .
0 "O
c c
::::> Utilisons pour ce la la base de polynmes de Leg endre Lo(x) = 1, L1 (x) = x et
Cl ....:::i
"'
~

~ (x2 - ~) , ~ (x3 - ~x).


(V)
~
.-1
0
N
'V
.~ L2(x) = L3(x) =
0""'
....
@ :::i Calculons alors
. :
.c. c
0
1
0)
;:: c (f , Lo)1 / ex dx = e - 1j e ,
~
>-
o.. a.
0
- 1
0
u (.)
0
1
0
..s::::
(f , L1)1 = / xexdx = 2j e ,
o.. -1
~
1
~ ~)
~
2
"O
1
(f , L2)1 /_ ( x - ex dx = e - 7 j e ,
0
c
1
:::i
Q 1

2 _1 x - S x e dx = - 5 e + 37 j e.
@ (f , L3)1 5 ; ( 3 3 ) X

177
Chapitre 5 Les polynmes

Par ailleurs, nous montron s que (Ln, Ln)1 = 2/ (2n + 1) et dduisons alors l'expres-
sion du polynme de degr infri eur ou gal trois qui est la meilleure approxi -
mation au sens des moindres ca rrs de ex

5.4.3 Application : formules de quadrature pour l'approximation


d'intgrales
Nous allons voir dans cette partie que les polynmes orthogonaux permettent de
construire de nouvelles formules de quadrature pour l'approximation d'intgrales.
Ces formules vont s'avrer tre beaucoup plus prcises que les formules de quadra-
ture bases sur l'interpolation de Lagrange. Pour une fonction f : [a, b] 1---7 IR, nous
souhaitons approcher la quantit

1 = 1 f(x)dx

par la formule de quadrature n + 1 points!(/) = L:;.'=o lj f(x;).


Il s'agit donc de trouver des poids (l;)o~i~n et des points (x;)o~i~n pour que
l'erreur E(/) = Il(/) - I l soit minimale. Montrons alors un rsultat qui permet de
construire ces formules de quadrature exactes pour des polynmes de degr infrieur
ou gal 2n + 1 pour la calcul d' intgrales avec poids.

Thorme 5.22

Soient P,z+ 1 le polynme orthogonal la famille de polynmes orthogonaux


{Po , ... , Pn} pour le produit scalaire (., .)w et (x;)o~;~ 11 C IR l'ensemble des
"O
0 racines distinctes du polynme P11 +1 . Les coefficients (UJ; )o~i~n forment l'unique
c
::J solution du systme
0
('\"')
T"-f
0
N
@
~
t
/.=
P,(x;) w; = { 6Po, Po)" si k = 0
si k = 1, ... , n
(5.20)
..c
Ol
::::
>-
a.
si et seulement si pour tout 0 ~ i ~ n, l; > 0 et
0
u
rb
Jn P(x ) UJ(x) dx = L l; P(xi ),
Il

'/ P E P2n+l (a , b). (5.21)


a i=O

En outre, il est impossible de trouver des nombres (xi )o~i ~n et des poids
(l;)o~;~ 11 tels que (5.21) soit aussi vrifie pour tout polynme P E P211+2(a , b).

178
5.4. Polynmes ort hogonaux

D MONSTRATION. Supposons d'abord que w = (wo, ... , w11 )T est solution du sys-
tme (5.20) qui s'crit aussi AT w =f avec

et f est donn par le second membre de (5.20). Observons que puisque les poly-
nmes (Pk)o~k~n sont orthogonaux, ils fo1ment une famille libre et d'aprs la
Proposition 5 .20, les points (x; )o ~; ~ 11 sont distincts, ce qui signifie que la matrice
A est inversible et ce systme admet bien une unique solution. Ensuite considrons
P E P2n+1(a, b) que nous dcomposons P(x) = Q(x) Pn+i (x ) + R(x), pour
x E [a , b] avec Q et R E P 11 (a , b). En exprimant Q et R dans la base orthogonale
{Po , ... , Pn} Il vient alors Q(x) = 2:,~=oakPk(x) et R(x) = ;:.:=of3kPk(x).
D'une part, tant donn que Po 1 et que la famille ( Pk)o~k~n est orthogonale, nous
obtenons

l a
b P(x )w(x)dx = ( P11+1 , Q)lJ.1 + ( Q , Po)w = /3o(Po,Po)w.

D'autre part, comme (x;)o~;~ 11 c fi!. constitue l'ensemble des racines distinctes de
P11+1, nous avons Pn+I (x;) = 0 pour tout i E {O, ... , n} et donc

n
Au final, puisque w est solution de (5.20), nous obtenons L P(x;)w; = f3 0 ( P0 , Po)w,
i=O
.<;::::
ce qui montre le rsultat
"Cl
c
0
::::>
Cl
(V)
~
"O
c
....:::i
"'
~
~
t
i=O
P (x; ) w; = /30 ( Po, Po)w = 1 P(x) w(x) dx.

.-1
0
N
'V
.~ Pour montrer que Wj > 0 pour tout j E {O, .. . , n }, il suffit de choisir le polynme
0""'
....
@ :::i
:
de P E P2n(a, b)
. Il
.c.
0)
;::
>-
0
~
c
c
a.
P (x) II(x -
k= O
2
xk) ,
o..
0 0 k#j
u (.)
0
0
..s:::: lequel vrifie
o..
~
~

"O
0
c
1 0 <lb a
P(x) w(x)dx L
11

i= O
P(x;) w; UJj
Il

II
k=O
(Xj - Xk)2'
:::i k#j
Q
@ ce qui prouve bien que w j > O.

179
Chapitre 5 Les polynmes

Il reste dmontrer que l'galit (5.21) ne peut pas tre vrifie pour tout polynme
Il

P E P 211 +2 (a , b). Pour cela choisissons simplement P(x ) = IJ (x - xk ) E P


2
211 +2 (a, b).
k=O
Il vrifie
1 P (x ) w(x) dx >0

etL::;1
= 0 P(xi) {J); = O. Il ne peut donc pas y avoir galit, ce qui prouve le rsultat.
Examinons maintenant la rciproque. Supposons que pour tout i E {O, ... , n }, les
poids {JJ; > 0 et les points x;, deux deux distincts, satisfont (5.21). Pour dmontrer
que ({J);)o~ i ~n est solution de (5.20), il suffit de rappeler que Po _ 1 et que les
polynmes ( Pk )O~k ~n sont orthogonaux pour le produit scalaire (., .) w. ce qui donne
pour tout k E { 0, ... , n}

Enfin, il reste dmontrer que (xi )O~ i ~n constitue l'ensemble des racines de
P,z+ 1 . En effet, pour tout k E {O, ... , n }, nous prenons dans (5.21) le polynme
P(x ) = P11 + 1(x) Pk(x ), nous obtenons alors par orthogonalit des polynmes,
11

0 ( P,1, Pk)w = I:Pn(Xi)Pk(xi ){J)i, O (k( n


i=O

autrement dit le vecteur c = (P11 (xo){JJ0, ... , P11 (x 11 ){J) 11 l est solution de AT c = 0
avec A inversible, ce qui signifie que c = 0 et comme les poids sont strictement
positifs, cela impose ncessairement que pour tout i E {O, ... , n }, P11 + 1(xi) = O. o

"O
Ce thorme va permettre de construire des formules de quadrature plus prcises
0
c que celles prsentes au Paragraphe 5.2.3. En effet, en choisissant pour les points
::J
0 (x; )o~i ~n les racines de P11 +1 et pour les poids ({J)i )O~i ~n la solution de (5.20), la
('\"')
T"-f formule l'ordre n donne par (5.21) est exacte pour l'ensemble des polynmes de
0
N degr 2n + 1. Cette mthode d'intgration numrique dsormais classique est due
@
~
Gauss et Legendre.
..c
Ol
:::: Exemple : formule du point milieu
>-
u
a.
0 Considrons le cas le plus simple o w =
1 sur l'intervalle [ - 1 , 1], les polynmes
orthogonaux correspondants sont les polynmes de Legendre : pour x E [- 1, 1],
Po(x) = 1, P1 (x) = x et

(2n+ 1)XPn(X) - nPn- 1(X)


Pn+1(X) = - - - - - - - - -
n+1

180
5.4. Polynmes orthogonaux

Prenons alors n = 0, ce qui donne xo = 0


et wo est solution du systme (5.20) que
nous obtenons en prenant P(x) = 1, ce
qui donne w0 = 2. La formule de quadra-
ture est la formule du point milieu que
nous obtenons sur un intervalle [a, b]
quelconque

/(f) = (b - a) (a; b) .
f
a b

Cette formule de quadrature ncessite


seulement une seule valuation de la
Figure 5.9
Formule du point milieu.
fonction f comme pour la formule des
rectangles mais nous verrons que l'approximation est pourtant bien meilleure, ce
qui montre tout l'avantage des formules de quadrature construites partir des
polynmes orthogonaux.

Exemple
Lorsque n = 1 nous avons P2 (x) = 3x2 / 2 - 1/ 2, d'o x 0 = - x1 = VJ/3 et (w 0 , w1) est
solution du systme
WQ + W1 = 2,
{ V: ( wo - w1) = 0,

d'o w0 = w1 = 1 et la formule de quadrature devient

/(f) = (b ; a) Ha ; b _ v')(~ - a)) (a ;


+f b + v'3(~ - a)) ]
.~
Pour conclure, il reste valuer l'erreur que l'on commet en appliquant cette for-
"O ~ mule de quadrature des fonctions quelconques.
0 'O
c c::
::J ::::1
_.
0
('\'")
"'
Q)
Thorme 5.2 3 Erreur de la ormule de uadrature
Q)
T"-f ~
0 .;a
N
@
.....
_.
0
::::1
Soit f E <&'211 +2 ([a, b], JR) alors il existe g E]a , b[ tel que
~
"'c::
..c

u
Ol
::::
>-
a.
0
0
c::
Q)
s..
0
(.)
lb a
w(x) f(x)dx - t
i= O
w; f(x;)
f (211+2) ( g)
(2n + 2)! ( 7Tn+I , 7T11+1)w (5.22)
B
0
..c::
p..

"'
~
1
'O
0 D MONS TRATION. Considrons le polynme d'interpolation de Hermite Hn
c::
0
::::1
construit partir des points d' interpolations H11 (xi ) = f (xi) et H,~(xi) = f'(xi),
@ pour tout i = 0, . . . , n.

181
Chapitre 5 Les polynmes

Puisque le degr de H11 est strictement infrieur 2(n + 1), nous avons

J.bf(x) w(x ) dx t
i=O
w; H.(x; ) = ti =O
w;f(x;).

Nous avons alors


lbf(x)w(x)dx
la - ~wif(xi) =
11 lb
a [f(x) - Hn(x)]w(x)dx.

Or d'aprs l' erreur d'interpolation de Herme dmontre au Thorme 5.13, il vient


puisque f E ?!f2C11+ 1)([a , b], JR)
J (211+2) (x) Il 2
f(x) - Hn(x) = (2 n + 2 )! IJ(x - Xi) ,
1= 0
avec x diffrent de xi pour tout i =0, ... , net puisque la fonction
f (2(n+J))(x) f(x) - Hn(x)
(2n + 2)! n;'=0 (x - Xi)
est continue sur [a, b], d'aprs le Thorme des valeurs intermdiaires, il existe
E ]a , b[ tel que

J.b[f(x) - H.(x)] w(x)dx

1
(2n + 2)!
lb
a
n
f2(n+l) (>.: ) IJ (x - xi )2 w(x) dx
1=0
f2(11+l)()
( )'
J.bIJ(x - Il 2
xi ) w(x)dx
2n + 2. a
i =O
f2(11+l)()
(2n+2)! \1Tn,1Tn)w D
'O
0
c En dfinitive la mthode de Gauss est trs efficace en termes de cot de calcul et de
::J
0 prcision mais il n'est pas toujours facile de l'appliquer l'ordre lev car le terme
('\"')
,..-!
0 d'erreur droite de (5.22) n'est pas toujours contrlable lorsque la fonction f est
N
@
peu rgulire. Nanmoins les mthodes du point milieu et deux points sont souvent
~
..c
utilises dans la pratique ; d'autres comme l'extrapolation peuvent tre envisages
Ol
::::
[27].
>-
a.
0
u 5.4.4 Transforme de Fourier rapide
Dans cette partie, nous souhaitons approcher des fonctions priodiques par des
sommes partielles de sries de Fourier.
Soit f : lR f--7 lR une application priodique de priode T. Supposons que
f 1 lf(x) l dx converge sur un intervalle I = [7, 7 + T] de longueur T , pour tout
7 E JR. Notons alors 'II' un intervalle quelconque de longueur T.

182
5.4. Polynmes orthogonaux

Rappels et dfinitions des sries de Fourier


tudions alors l'ensemble discret de frquences T /n o n est un entier relatif et
associons f un coefficient c11 pour chacune de ces frquences. Dfinissons, pour
tout k E Z, w = 27T / T et

Ck := _.!._ J,' f (x) e - i wk x dx . (5.23)


T 11'

Le nombre complexe ck est appel coefficient de Fourier' de f.


Exemple
Lorsq ue f est une fonction sinu soda le fk (x} = e2 i1T kx, nous constatons immdia-
tement que ck = 1, et pour tout n =!= k, Cn = O.

Plus gnralement, lorsque f est une superposition de fonctions sinusodales, nous


disons que f est un polynme trigonomtrique
k1
J(x) = 2= ak ei wk x
k=k 1

de degr max(lk11 , lk2 I), ses coefficients de Fourier sont nuls pour n /. {k1, ... , k1},
et Cn = an pour n E { k i , ... , k1}.
partir des coefficients de Fourier d'une fonction T -priodique, nous dfinissons
la srie de Fourier.

Dfinition 5.24
Nous appelons srie de Fourier associe f, la srie trigonomtrique L Cneiwnx,
nEZ
o w = 27T /T et Cn est le coefficient de Fourier (5.23).

.~ Bien entendu, cette srie n'est pas ncessairement convergente. Il faut faire
"O ~
0
c
'O
c::
quelques hypothses supplmentaires sur la fonction f (voir le Thorme 5.26).
0
::J ::::1
_. C' est pourquoi il est plus pmdent de considrer dans un premier temps les sommes
"'
paitielles de la srie de Fourier de f : S11 (f)(x) = ~~= -n ck ei wkx
Q)
('\'")
Q)
T"-f ~
0 .;a
N .....
@
_.
0 Remarque
::::1
~
..c "'c:: D'aprs l'exemple v u ci-dessus, lorsq ue f est un polynme trigonomtrique, il existe
0
Ol
::::
c:: no tel que pour tout n ~no, S,,(f) = f.
Q)
>-
a. s..
0
u
0 (.) Pour p E N, non nul, notons L P(1f) l'espace des fonctions T -priodiques et de
B
0
..c:: puissance p-ime intgrable sur [0, T], que nous munissons de la norme naturelle

(J,. f
p..

"'
~
1
Il f llu('ll') = 11' 1 (x ) IP dx
)l/p.
'O
0
c::
::::1
0
@ 1. Joseph Fourier ( 1768-1830), mathmaticien franais.

183
Chapitre 5 Les polynmes

Par ailleurs, vrifions que L 2 (11') est un espace de Hilbert pour le produit scalaire
hermitien
(!, g) = i
f(x) g(x) dx

naturellement associ la norme llJllL2(1f) = (! , f) 1l 2 .


Observons alors que la famille (f11)11EZ o !11 : X ~ ei wnx est une base ortho-
normale dans L 2 (11'), ce qui signifie Il fn Il L2(1f) = 1 et (!11 , fk ) = 0 quels que soient
n et k avec n -=f. k.
En appliquant alors la Proposition 5 .17, pour f E L 2 (11'), nous avons l'ingalit de
Bessel llSn(f)llL2(1f) ~ Il! llL2(1f) pour tout n E N et le rsultat de convergence dans
L 2 (11') de la somme partielle
lim
n -++oo
llSn(f) - f llL2(1[') = 0
et l'identit de Parseval donne enfin Ln EZ lcn l2 = Il! lli 2(1f)"
Inversement, toute suite (c,z)11 Ez de carr sommable est la suite des coefficients de
Fourier d' une application f E L 2 (11'). En effet, montrons que les sommes partielles
L~=-ll ck e i w k x forment une suite convergente dans L 2 (11') dont la limite est f.
La thorie prcdente peut tre raffine en montrant que, sous certaines conditions,
la srie de Fourier d'une fonction converge point par point vers cette fonction.

Thorme 5.2 5 Conver ence uni orme


Si la srie 2:11 c 11 des coefficients de Fourier d' une fonction f E L 1(11') est abso-
lument convergente, alors sa srie de Fourier est uniformment convergente et
lim sup ISn(f)(x) - f (x)I = 0.
11-++oo xE1f

En pa1ticulier, la fonction f est ncessairement continue, comme limite uniforme


d' une suite de fonctions continues.
"O
0
c
0
::J Cependant, lorsque la fonction f E L 1(11') est discontinue, nous avons le rsultat
('\"') suivant.
T"-f
0
N
@ Thorme 5.26 Thorme de Dirichlet
~
..c
Ol
::::
Si f E L 1 (11') admet une drive gauche et une drive droite en tout point,
>-
a. alors pour tout x
0
u
lim
n-++oo
Sn(f)(x) = ~2 (t (x + 0) + f (x - 0)) ,

o
f(x + 0) = lim f(x + e) , f(x - 0) = lim f(x - e).
e~O e~ O

184
5.4. Polynmes orthogonaux

Ainsi aux points de discontinuit, l'approximation d'une fonction par les sommes
partielles de sa srie de Fourier n'est pas trs bonne : c'est ce que nous appelons le
phnomne de Gibbs.

Thorme 5.2 7 Phnomne de Gibbs

Soit
C := 11 0
sin(1Tx) dx
1TX
~ 0, 59.

Si f E L 1('TI') admet une drive gauche et une drive droite en tout point,
alors pour tout x
1
lim ( S11(/) -
n -++oo
!) lx+-1 211+ 1
(C - 2)(/(x + 0) - f(x - 0)) ,

1
lim ( S11(/) -
11-++oo
!) lx- - 1
~1
- (C - 2) (/(x + 0) - f(x - 0)).

Ce rsultat montre que si une fonction f est discontinue en un point x, la srie de


Fourier ne converge pas ponctuellement vers f au point de discontinuit.

Approximation de la srie de Fourier


Nous voulons approcher une fonction f E L 2 (11') par sa somme partielle S 11 ( / ) o n
est un entier positif non nul

Sn(f)(x) = L Ck ei wk x' (5.24)


lkl~11

avec w = 21T / T et les nombres complexes ck reprsentant les inconnues du problme


"O
.~
~
sont les coefficients de Fourier (5.23). En appliquant le Thorme 5.21 , nous savons
'O
0
c c:: que Sn(f) est la meilleure approximation au sens des moindres carrs dans l'espace
::J ::::1
0 _. des polynmes trigonomtriques de degr n de la fonction f. En outre les coefficients
"'
Q)
(ck) lk l ~n sont donns par le Thorme 5.21
('\'")
Q)
T"-f ~
0 .;a
N .....
_.
0
@ ::::1
~
..c "'c:: Ck = -1 },' j '( X ) e - i W kX dX , lk l ( n.
Ol 0
c:: T 1l'
:::: Q)
>-
a.
0
s..
0 Par la suite, nous proposons une procdure permettant un calcul prcis et rapide des
u (.)

B
0
..c::
valeurs approches de (ck)lkl ~n Cet algorithme s'appelle la transforme de Fourier
p..
rapide (Fast Fourier Transform). C'est en 1965 que James Cooley et John Tukey
"'
~
1
publient cette mthode [8] mais il semblerait que l' algorithme avait dj t propos
'O
0
c::
par Carl Friedrich Gauss [19] en 1805 et adapt plusieurs reprises sous des formes
0
::::1
diffrentes. Notre objectif est de fournir des algorithmes efficaces pour le calcul d'un
@ polynme trigonomtrique ou pour une srie de Fourier.

185
Chapitre 5 Les polynmes

Tout d'abord pour m ;;:::: 1, nous introduisons des points quidistants x 1 = l T / m


pour l = 0, ... , m - 1 et supposons que seules les valeurs (fl)o ~L<m dsignant la
valeur de f (xz) pour 0 :::;; l :::;; m - 1, soient connues. Approchons alors les coef-
ficients de Fourier (ck)lkl ~" l'aide de la formule des rectangles (5.8) aux points
x 0 , . . . ,Xm - l Une approximation cJ: du coefficient de Fourier ck s'crit alors pour
k E 'li.,
m- 1 m- 1

ck
m
= -1 "'"""'
L Jl.(.'. e - i W k XJ = -1 "'"""'
L Jl.(.'. e - i l1T
m
kl
. (5.25)
m m
l=O l=O

Remarquons d'abord que cette formule produit au plus m nombres complexes dis-
tincts. En effet,
m-l

L 1"le -
211
m
Ck+m -
1 "'"""' m
i (k+m ) l
m
l=O

m- 1

L 1ze -
1 "'"""' 2 1T
m
ikl
m
J=O

Ceci signifie que si nous connaissons seulement m valeurs distinctes de f aux points
(xz)o~z~m - 1 , nous obtenons seulement m valeurs distinctes pour les coefficients de
Fourier. Or, le calcul de S11 (f) ncessite le calcul de 2n + 1 coefficients de Fourier, le
meilleur choix consiste donc prendre m = 2n + 1.
Nous proposons un algorithme simple et rapide permettant d'effectuer le cal-
cul des coefficients de Fourier approchs (c'k)o~k~m-l Pour cela, dfinissons la
transformation de Fourier discrte m comme l'oprateur linaire qui associe
f := (fo, . . . ) fm-1 )T E ccm' le vecteur c := (co , ... 'Cm-Il E ccm donn par
(5.25), nous avons donc c = m f.
"O
Notons ensuite m l' oprateur approchant la transforme de Fourier inverse
0
c f = m c obtenu en appliquant la formule de quadrature des rectangles (5.24)
::J
0
('\"')
,..-! m-1
2
-1 "'"""'
0
N Lezei Ill
1T kl
' k = 0, ... ,m - 1.
@ m
~
l=O
..c
Ol
::::
>-
a. Dmontrons alors un rsultat liant m et m :
0
u
Lemme 5.28

Nous avons pour tout m les identits suivantes m o m


o l m reprsente la matrice identit.

186
5.4. Polynmes ort hogonaux

DMONSTRATION. Montrons que !Fm o m = m l m. Pour cela, considrons un


ensemble (ct)o~k~m-1 et formons l'ensemble (/z)o~z~m- J donn par
m- 1

fil 1
= -
"'~ck
""' m em"ikl '
2
O~l~m-1.
m
k=O

Calculons alors le terme suivant pour k E {O, ... , m - 1},


m-l
1 "'""" _ 2rr ik/
- ~ fi e /11
m
l=O

et allons montrer qu'il vaut m c';'. En effet, nous avons


m- l m- 1 m-1
-m1 "'"""
~.fie
- 1.z!. ik l
m L e - 2,,7 L c; e ~,7
ikl i P z'
l= O l= O p= O

L L e- ~:;
m - 1 ( m- 1
il (k- P)
)
c;.
p= O l= O

Or, nous savons que

~
~e
_1.z!. u (k - p)
= { m si m divise k - p
111
0 smon.
l= O

Comme k et p varient entre 0 et m - l , m ne peut diviser (k - p) que lorsque k = p.


Par consquent, il vient
.<;::::
"Cl ~ m-1
0 "O
c
::::>
c
....:::i -1 "'"""
~; ze
.f - 2'i-
Ill
ikl
me';' ,
Cl
"' m
(V)
~
~
l=O
.-1 'V
0 .~
N
@
0""'
....
:::i
ce qui montre bien que !Fm o m = m l m.
:
.
.c. 0
c La seconde galit se dduit immdiatement de la premire par conjugaison. D
0)
;:: c
~
>-
o.. a.
0
Dcrivons maintenant le principe de la transforme de Fourier Rapide. Elle est
0
u (.)
0 base sur une factorisation d'un entier en produit de facteurs premiers. Supposons
0
..s::::
o.. que m = pq, o pet q sont deux entiers suprieurs 2 et notons Wm = e- 2 1Ti/m .
~
~
Il s'agit de calculer le vecteur cm = (cn' ... 'c;::_ I) E cm dont les composantes sont
"O
1
donnes par
0 m-1
c
:::i
Q
@
-m1 "'"""
~ Ji kl
(J)m

l= O

187
Chapitre 5 Les polynmes

D'abord, un rarrangement du vecteur (fz)o~z~m - I en une matrice p lignes


et q colonnes donne pour 0 ( r < p et 0 ( s < q, fr,s = fz, avec
0 ( l = s p + r < m. Puis en crivant c'k selon cette formulation, il vient

p- l q- l
_!_
m
LL +
JrsW
, m
(s p+r)k

r=O s =O

p-1(qL:-11
_!_2= r s UJ s.k
) (5.26)
m , q
r= O s= O

o nous avons utilis l'galit suivante w~P k = e- .:: i s P k = e - : i s k = w~ k .


2 2

Maintenant, il suffit d' observer que la somme entre parenthses est une fonction
priodique en la variable k de priode q puisqu'elle vrifie w~ (k+q) = w~ k w~ q = w~ k .
Ainsi, en dcomposant k comme k = u q + v avec 0 ( u < pet 0 ( v < q,
il suffit de calculer la somme entre parenthses seulement pour 0 ( v < q . En effet,
{J)~ k = {J)~ (u q + v) - {J)~ V . Nous en dduisons pour k = u q + V

Cm
k
= _!_ ~
~
~
p-1
~ Jr ,s
(q-1
+ . UJs v
q
) UJ,. (u q + v)
m
m
r=O s=O

L'algorithme pour calculer une transforme de Fourier discrte devient donc le


suivant: soit f une fonction connue en m = p q points.
La transformation de Fourier discrte
- Calculer l a somme entre pa ren th ses de (5.26)
k = u q + v et 7 = r p + s :
- Pour v = O, ... ,q - 1 et r = O,. . .,p - 1
q- 1
5
"O
0 Sr ,v = ..!_
m ""L frs, Wq v.
c s=O
::J
0 Fin de pour v et r .
('\"')
,..-! Ca l c ule r chaq ue composante cT :
0
N Po ur U= O, . . . ,p - 1 et V = O, ... ,q - 1
@ k=Uq +V,
~ p- 1
..c
Ol m _ ""
Ck - L
Sr,v r(uq + v)
Wm
::::
>-
a. r=O
u
0 Fin de po ur u et v.

La premire tape ncessite m q oprations tandis que la seconde ncessite m p


oprations, ce qui reprsente un cot global de m (p + q) oprations ce qui est dj
bien moindre que le cot initial de m 2 oprations.
En effet, prenons m = 1 000, le cot initial reprsente alors environ m2 =1000000
oprations. Alors que lorsque nous dcomposons m = 10 x 100, le cot devient

188
5.4. Polynmes orthogonaux

m(p + q) = 1000 x 110 = llOOOOoualorsm = 25 x 40,etlecotestalorsde


m (p + q) = 1 000 X 65 = 65 000 !
Nous pouvons encore diminuer le nombre d'oprations en dcomposant m sous la
forme m = p 1 . , Pd en rptant l'ide ci-dessus. Un cas frquent utilis est celui
o m = 2k.

Application la compression de donnes


tant donne une suite n priodique (fj) JEN et sa transforme de Fourier discrte
(ckhE N, l'ide est de supprimer dans la reprsentation (5.23) pour ck tous les termes
dont la valeur absolue de ck est infrieure un certain seuil donn par exemple par
5 % du coefficient maximal.
L'image de gauche de la Figure 5.10 montre la digitalisation d' un tremblement de
terre qui a eu lieu en 1989 aux tats-Unis dans les montagnes de Santa Cruz, repr-
sentant plusieurs centaines d'impulsions par seconde (200 Hz). Parmi ces donnes,
prenons 8 192 nombres (f1) J et calculons la transforme de Fourier discrte (ck h. La
suite de leurs modules (lck lh est reprsente sur l' image de droite de la Figure 5.10
pour -4 096 ::::; k < 4 096. Observons que dans l'espace de Fourier, ce1tains coef-
ficients sont trs petits par rapport au maxk lck l Il s'agit donc d'liminer ces coef-
ficients qui correspondent des frquences d'oscillations peu importantes dans ce
tremblement de terre. Par exemple ici, les hautes frquences qui correspondent aux
modes de Fourier ck pour lkl ~ 1 000 sont largement infrieures aux autres modes.
Ainsi, il n'est pas ncessaire de stocker ces valeurs. Retirons alors les coefficients ck
qui sont infrieurs 5 % de maxk lck I Observons alors que les coefficients ck pour
lkl ~ 1 000 peuvent tre ngligs sans trop affecter le signal d' origine, ce qui repr-
sente environ une division par quatre du cot de stockage. Nous reprsentons dans
les Figures 5 .11 et 5 .12 les coefficients de Fourier tronqus et le signal reconstruit
paitir de ces troncatures 5%et10 %. Observons que mme si la reprsentation dans
l'espace de Fourier est diffrente, dans l'espace physique les signaux reconstruits et
d'origine sont trs proches .
.~
"O ~
0 'O
400 ,--.----~.-----=========;-i 100 rr-;:=========~
c c:: si nal d'ori ine - modes de Fourier d'ori ine -
::J ::::1
_. 300
0 10
('\'")
"'
Q)
200
Q)
T"-f ~
0 .;a 100
N .....
_.
0
@ ::::1 0.1
~
..c
Ol
"'c::
0
-100

::::
c:: 0.01
Q) -200
>-
a.
0
s..
0 -300 0.001
u (.)

B
0
-400
..c:: 0.0001 "----'-----'---'---'-----'---'---'------"
p.. 0 2 3 4 5 6 -4000 -3000 -2000 -1 000 0 1000 2000 3000 4000

"'
~
1 Figure 5.10
'O
0
c:: Les deux figures reprsentent les donnes d'un signal (!1 )1 et sa transforme de
::::1
0 Fourier discrt e (ck)k
@

189
Chapitre 5 Les polynmes

400 r--~---r;:::=::::;c::======::i;-i 10ll-+c===============01


si nal Iron ue a 5% - - modes de Fourier Iron ues a 5% - -
300
10
200
100

o ~ ......~ 0.1
1 00
0.01
-200

300 0.001
400
0.0001 "---~-~
0 2 3 4 5 6 -4000 3000 -2000 1000 0 1000 2000 3000 4000

Figure 5.11
Les deux figures reprsentent ce mme signal o nous avons tronqu les coeffi-
cients de Fourier 5 % de la valeur maximale.

400 r--~---i===========::i;-i
si nal Iron ue a 10% - - modes de Fourier Iron ues a 10% - -
300
10
200

100

o r.~~MI
0.1
-1 00
0.01
200

-300 0.001
400
0.0001 "-----'---'-----'-
0 2 3 4 5 6 -4000 3000 -2000 1000 0 1000 2000 3000 4000

Figure 5.12
Les deux figures reprsentent ce mme signal o nous avons tronqu les coeffi-
cients de Fourier 10 % de la valeur maximale.

('\"')
......
0
N 5.1 Interpolation de Hermite
@ Commenons par une application simple de l' interpolation .
......
..c
Ol l . Trouver le polynme P de sorte que
::::
>-
a.
0
u P(O) = 0, P (l) = 1, P ' (l / 2) = 2

2. Soit f une fonction de classe <&'00 . A quoi correspond le polynme de Hermite


tel que

190
Exercices

5.2 Gnralisation de l'interpolation de Hermite


Il s'agit ici d'tendre la notion de l'interpolation de Hermite avec des conditions sur
les drives d 'ordre quelconque.
1 . On se donne un ensemble de points distincts (xi )o~i ~n et des coefficients rels
( Ci,j )o~j ~k; - I , O~i ~n o ki peut varier avec i, nous recherchons alors le polynme P
de sorte que
P (j)(xl) = cl ,j'
0 ../ : : : : kl - 1 ' 0 ../
: : : : .1 ../ ::::::::
../ n
i ::::::::

2. Donner le nombre total de conditions m + 1.


3. Montrer qu'il existe un unique polynme P de degr m vrifiant les conditions
prcdentes.

5.3 Symtrie des diffrences divises


Soient xo, x 1 , . . . , Xn des points distincts d' un intervalle [a, b]. 1. Dmontrer l'iden-
tit Il Il
1
f[xo, ... ,x,,] = ~ f(x.i) IT .
~ j=O
X -Xk
k=O l
bh

2. En dduire que la diffrence divise f [xo , x 1 , ... , Xn ] est une fonction sym-
trique, c'est--dire pour tout permutation u ,

5.4 Convergence de l'interpolation de Lagrange


Soient a> 1, une fonction f dfinie sur [- 1, l] par f(x) = l / (x - a) et P11 le
polynme d'interpolation de Lagrange de f aux n + 1 points distincts Xi = - 1 + i h
avec i E { 0 , . . . , n} et h = 2 / n.
1 . Montrer que si a> 3, alors lim Il! - Pnll(X) = O.
11-->(X)
2 . Dans la pratique, nous prfrons utiliser des polynmes de degr peu lev sur
"O
.~
~
chaque intervalle [x;, X;+d. avec i E {O, . . . , n - l} .
0 'O
c
::J
c::
::::1
Notons f, 1 la fonction continue telle que J,1 1[x; ,x;+d est un polynme de degr un et
_.
0
"'
Q)
f~1(xi) = f(x) pour tout 0 ( i ( n.
('\'")
Q)
T"-f ~
0
N
.;a
.....
_.
0
a) Soit i = 0 , ... , n - 1. crire 1' approximation de Lagrange de degr un P?) de f
@ ::::1 sur l'intervalle [xi, Xi + il
~
..c "'c::
Ol
::::
0
c::
Q)
b) Puis montrer que si a <f. [ - 1, 1], alors 11 f - f, 1 11 (X) ( C / n 2 et donc que f, 1 converge
>-
a. s..
0
uniformment vers f lorsque n tend vers 1' infini.
0
u (.)

B
0
..c:: 5.5 Sur les polynmes de Legendre
p..

"'
~
Les polynmes de Legendre sont dfinis par l'expression
1
'O
0
c:: Po= 1,
0
::::1
n! d11 ( 2 )n
@ { Pn(x) = (2n)! dxn X - I .

191
Chapitre 5 Les polynmes

1. Montrer que P11 est un polynme de degr n et dtermjner le coefficient devant


11
X de Pn.
2 . En utilisant des intgrations par parties, montrer que pour m ~ n

1 1
-l
d'i (x2 - 1)" dm (x2 -
dxn dxm
l) mdx = (- 1)1111 d"+m (x2 -
-l
dx i+m 1
l) m(x2 - 1)" dx.

En dduire que

0, sin i= m,
( n')2
{ ( - 1)/1. _ 111 smon,
(2n)! '

avec In = 1 1

-1
(x 2 - 1)11 dx.
3. Relation de rcurrence
2n
Montrer que 111 = - ( ) 111-l
2n + 1
11 - l
Enj ustifiantquex Pn- i(x) = Pn(x)+ L ai P(x),avecaj E ffi., etO ~ j ~ n-1,
i=O
calculer
1
j_ 1
x P,,(x) P,, _ 1(x)dx

en fonction de n et 111
En crivant P11 +1(x) = (x - a 11 ) Pn(x) - 11 P11 -1(x), montrer par rcurrence que
P11 a la mme parit que n et vrifie

Po(x) = 1, P 1(x) = x,
"O
0 n2
c { P11 +1(x) = x P11(x) - -( -n- --) (- -n-+_l_) P11-1(x).
::J
0 2 1 2
(\"')
......
0
N 4 . Application. Calculer la meilleure approximation au sens des moindres carrs
@
......
de la fonction f (x) = x 4 dans l'espace Vect{ 1, x, x 2 } muni de la norme usuelle de
..c
Ol
L 2 (] - 1, l[) .
::::
>-
a.
0 5.6 Polynmes de Tchebychev
u
Soit n ;?: 0 un entier. Dfinissons le polynme de Tchebychev 1 de prerrure espce
parT,1(x) = cos(n arccos(x)),pourtoutx E [-1 , 1].

1. En rfrence au mathmaticien russe Tchebychev (1821-1894). ll s'illustra pour ses travaux en pro-
babilits et statistiques.

192
Exercice s

1. Montrer que les fonctions T, 1(x) satisfont la formule de rcurrence


To(x ) = 1, T1(x) = x ,
{ T,1+1(x) = 2x T,1(x) - T,1-1(x), pour n ) 1.

Montrer ensuite que les polynmes T,1 (x ) sont orthogonaux pour le produit scalaire
de L~ (] - 1, l[) avec w(x ) = (1 - x 2 ) - 1/ 2 , c' est--dire

sin= m = 0
dx {
sin= m # 0,'
I 'TT
J_- 1
T,1 (x) T,n(X) l/
(1 - X 2 ) 2
= 'TT
0
/2
sin# m.

2 . Montrer que T,1 (x) est un polynme de degr n dont le coefficient de x 11 est 211 - 1 .
3 . Posons Yk = cos (k 'TT /n), k = 0, ... , n. Calculer T,1 (yk) et les racines de T,1
4 . Soit P11 (x) un polynme de degr n considr sur l'intervalle [- 1, 1] et dont le
coefficient de xn est 211 - 1 Montrer que

1 = max IT,1(x ) I ~ max IP11(x) I ,


xE(-1, l] xE (-1 , 1)

1
o T, 1 est le polynme de Tchebychev dont le coefficient devant le terme x 11 est 211 -

Comment interprter ce rsultat ?

5.7 Les splines cubiques


Cet exercice a pour objet l'tude d' un procd d'interpolation d' une fonction
f E 1f2 ([a , b ], JR) par une fonction cubique par morceaux, appel spline cubique.
Soit (xi)O~i~n+l une partition de l'intervalle [a , b] avec xo = a et x 11 + 1 = b. Nous
appelons spline cubique une fonction S vrifiant les conditions suivantes :
(i) SE 1f2 ([a , b], lR)
(ii) S l [x;,x;+il est un polynme de degr trois pour i = 0, . .. , n .
.~
"O ~ Pour construire une telle approximation, nous cherchons dfinir une spline S en
0 'O
c
::J
c
;:s
fonction de ses valeurs aux points xi mais aussi de sa drive seconde en xi .
0 ....
('\'")
"'
Q) 1. Sur un intervalle [a, /3], montrer qu'il existe un unique polynme P de degr
Q)
T"-f
0
~
.:a..... infrieur ou gal trois dfini par ses valeurs P(a), P(/3), P"(a), P"(/3).
N
@ ....0;:s Dterminer ensuite les valeurs des drives premires en a et /3 en fonction des don-
~
..c
Ol
"'c
0
nes.
::::
>-
c
Q) 2. En dduire qu'il existe une unique spline cubique S interpolant f au sens suivant:
a. a
0
0
u (.)

....
0 S(x ) = f (xi) 0 ~ i ~ n +1
0
{ S'(a) = f'(a) , (5.27)
..s::
o.. S'(b) = f'(b) .
~ "'
'O
1
3. En prenant pour i E { 0, ... , n + 1} la fonction spline Si telle que
0
c
;:s
Q 0 si j # z
@ Si(X1) ={ 1 SI. .
J = z,

193
Chapitre 5 Les polynmes

s; s;
et (a) = (b) = O. Puis les splines Sa et Sb telle que Sc/Xi) = 0 pour a E {a, b}
et S~(a) = S~(b) = 1 et S~(a) = S~(a) = 0, montrer qu'une fonction spline S,
interpolant f sur [a, b] s'crit

11+1
S(x) L fj Sj(x) + L f~ S(x) .
j =O aE{a ,b}

Solutions des exercices


5.1 Attention ici nous n' avons pas de conditions sur toutes les drives!
l . Puisqu 'il y a trois conditions, nous recherchons un polynme de degr deux,

P(x) =a +bx + cx 2 ,

La condition P (O) = 0 donne a = 0, puis les deux autres conditions


1 = P(l) = b+c et 2 = P'(l/ 2) = b+c,
il n'y a donc pas de polynme de degr deux solution de notre problme. Nous recher-
chons alors un polynme de degr trois, il vient P(x) = a + b x + c x 2 + dx 3 , et par
la suite
3
l =b +c+d et 2 = b + c + d.
4
L'ensemble des solutions est donn par d = - 4 et b + c = 5.
2. Il s'agit simplement du dveloppement de Taylor de la fonction f tronqu
l'ordre k.

5.2 Dans cet exercice, nous gnralisons la dfinition du cours pour les polynmes
"O
de Hermite.
0
c
::J
l . Le nombre de conditions est m + 1 avec
0
(\"')
...... m + 1 = ko + . . . + kn .
0
N
@
...... 2. Puisque nous recherchons un polynme de degr m, nous avons m + 1 inconnues
..c
Ol
:::: correspondant aux coefficients du polynme. D'autre part, il y am + 1 conditions, ce
>-
a.
0
qui signifie que la recherche des coefficients se rsume la rsolution d'un systme
u linaire caiT de taille m + 1. L'existence et l'unicit est donc la consquence du fait
que la matrice A en question est inversible. Pour dela il suffit de montrer que Au = 0
implique u = O.
En d'autres termes, nous recherchons un polynme P de degr m tel que

194
Exercice s

Ce polynme s'annule en xi avec une multiplicit kj, c'est donc un multiple de


Il

q(x) =IIex - xif


i=O

qui est de degr m + 1 alors que Pest de degr m, nous avons alors forcment P O.

5.3 Nous tudions les proprits des diffrences divises qui sont utilises pour
l'interpolation de Lagrange.
1. crivons le polynme d' interpolation de Lagrange Pn sous la forme

Pn(x) = ao + . . . +an x 11

D'une part, nous avons vu lors de la dmonstration du Thorme 5.9 que

a11 = f [xo , ... , x 11 ] .

D'autre pait en utilisant la premire criture du polynme d'interpolation de


Lagrange (5.2)-(5.3), le coefficient a 11 devant le terme x 11 est donn par
Il n
1
f[xo , ... , Xn ] = a,1 = ~ f(xj) x. _ x II
.i=O ~#~ J i

2. Il suffit de constater que la formule ci-dessus est stable par permutation.

5.4 Voici une illustration de la prcision des diffrentes mthodes d'interpolation.


1. Calculons les drives successives
.~
~
I 1 Il 2
"O
0
c
'O
c::
f (x) = -(x - a )2' f (x) = (
x - a )3
::J ::::1
_.
0
"'
Q)
('\'")
T"-f
Q)
~
et plus gnralement
0 .;a
N .....
_.
0
f (11+1)(x)=(- l)1z+1 (n+l)! .
@ ::::1 (x - a)n+2
~
..c "'c::
0
Ol
::::
c:: Appliquons ensuite le rsultat du cours : il existe Y/ E [ - 1, 1]
Q)
>-
a.
0
s..
0
u (.)
lf <11+1)(TJ)I n
B
0
..c::
p..
lf(x) - L ,z(x)I = (n + l)! II
lx - xd .
1=0
"'
~
1
'O
0
c::
Ainsi, si a > 3, nous avons pour Y/ E [-1 , 1]
::::1
0
@ 2 < ITJ - al =a- Y/ <4
195
Chapitre 5 Les polynmes

et
l! (n+ l)(17)I 1 1
~ -----
(n + l)! 2 117 - al11+1
et donc Il

If (x) - L n(x) I = ~
2
IT x - Xi
17 - a
i=O

Or, pourtout x E [- 1, l]eti E {O, ... , n},nousavons lx - xi l ~ 2etdonc

donc puisque 2/ (a - 17) < 1

1 ( 2 ) n+ l
lim llf(x) - Ln(x)ll oo ~ - lim = O.
n -+oo 2 ll -+ 00 a - 17

2. a) Considrons a tj. [- 1, 1], ainsi la fonction f est bien dfinie sur [- 1, 1], sur
l 'intervalle [xi, Xi+ I]

1 (x - Xj) ( 1 1 )
fn(x) x/. - a + h x1+ 1 - a - x/. - a
1 1
- - - (x - x-)
1
-------
Xi - a (xi+I - a)(xi - a)

b) Sur chaque intervalle [x;, X;+ il, appliquons l'estimation d' erreur

"O
0
c
::J
0 Or la fonction (x - xi)(xi+I - x) atteint son maximum en (xi+ Xi+i) / 2 et donc
(V)
......
0
N
@
......
..c
Ol
::::
>- avec h = 2/ n. Ainsi cette nouvelle approximation est bien meilleure que celle obte-
a.
0 nue dans la question prcdente !
u
5.5 Nous proposons ici une application des polynmes 01thogonaux.
l . Le polynme P11 correspond la drive n-me d' un polynme de degr 2n, c'est
donc un polynme de degr n. Le coefficient devant le terme x 211 de (x 2 - 1/1 vaut l
et donc en drivant n fois, il vient (2n) !/ n !. Ainsi, le coefficient devant le terme x 11
de P11 est gal 1.

196
Exercice s

2 . En appliquant une simple intgration par partie et en notant Dm = dm , il vient


dxm

=O

Puis en procdant toujours de la mme manire nous dmontrons l'galit propose.


D'une part, lorsque m < n, la drive (n + m)-me du polynme d' un degr 2m est
nulle, ce qui prouve la relation d'orthogonalit. D ' autre part, pour m = n , la drive
2n-me d ' un polynme de degr 2n est gale (2n)! a211 o a211 est le coefficient
devant le terme x 2n .
3 . Une intgration par partie donne
1
ln = [x (x 2 - l)n] ~1 - 2n j_ x 2 (x 2 - iyi-I dx -
2n
2n + 1
ln-1 .
-)

Ensuite, le polynme x Pn_ 1(x) est un polynme de degr exactement gal n tout
comme P11 En crivant x Pn- 1(x) dans la base {Po, ... , Pn}, il vient
n-1
x P11- 1(x) = Pn + L ai Pi(x ).
i=O

Par orthogonalit

/_J (n 1)2
.~
j I

-l
X Pn(x) Pn- 1(x) dx =
-l
1 P11(x)l2 dx = (-1)"-(
) ln.
2n !
"O ~
0 'O
c c En procdant par rcurrence (ou en appliquant le Thorme 5.19), nous obtenons
::J ;:s
0 ....
('\'")
"'
Q)
Q)
T"-f
0
~
.:a..... (n!)2 (2(n - l))! In n2
N -- --
@ ....0;:s (2n)! ((n - 1)!)2 J11 _1 (2n - 1) (2n + 1)
~
..c
Ol
"'c
0
::::
c
>- a
Q)
4. En appliquant la mthode des moindres carrs continue et le rsultat prcdant,
a.
u
0 0
(.) nous obtenons le polynme
....
0

1 6( 31) .
0
..s::
o..
~ "' Q(x ) = S+7 X
2
-
1
'O
0
c
;:s
Q 5.6 Nous proposons ici une application des polynmes orthogonaux pour le calcul
@ des points d'interpolation de Lagrange.

197
Chapitre 5 Les polynmes

1. Posons O(x) = arccos(x ), nous obtenons alors


T,1+1(x) = cos ((n + 1)0) = cos (n 0) cos 0 - sin (n O) sin 0

et
T,1 _ 1(x) = cos((n - 1)0) = cos(nO) cosO+sin(nO) sin O.
Ainsi en ajoutant ces deux galits, il vient

T,1+1(x) + T,1 _ 1(x) = 2 cos(n 8) cos(8) = 2 x T, (x).


1

Ensuite, par le changement de variable 8 = arccos(x ), nous obtenons directement

/_
l

- 1
T,1(x) Tm(x) V
d
x
1 - x2
l" cos(nO) cos(mO) dO

0, sim # n
1T, si m = n = 0
{ 1T /2, si m = n > O.
Les polynmes de Tchebychev forment bien une famille de polynmes orthogonaux
pour le produit scalaire L ~ (] - 1, 1[).
2. Montrons ensuite que T, 1 est bien un polynme de degr n. Pour cela, procdons
par rcurrence : To est un polynme de degr zro et T1 est bien un polynme de
degr un. Supposons alors que pour 1 ~ k ~ n, Tk est un polynme de degr k et
le coefficient devant le terme de plus haut degr de Tk est donn par 2k- 1 ; alors en
utilisant la formule de rcmTence T,z+ 1(x) = 2x T,1 (x) - T,1 _ 1(x), nous obtenons bien
que T,z+ 1 est un polynme de degr n + 1 et le coefficient devant le terme de plus haut
degr est donn par 2 x 211 - 1 = 211
3 . Un simple calcul montre que le polynme T,1 vrifie

"O
T,, (cos Cn1T)) = (- l i, k = 0, 1, ... ,n
0
c
0
::J D'autre part les racines de t 11 correspondent aux racines de T, 1 , c' est--dire
(\"')
......
0
N T,1 ( cos (
(2 k +n 1) 1T)) -- 0 , k = 0, . . . , n - 1.
@ 2
......
..c
Ol
::::
4 . Supposons par l'absurde que
>-
a.
u
0 max IPu(x) I ~ max IT,,(x) I.
xE[ - 1,1) xE[ - 1, 1)

et considrons la diffrence d(x) = P11 (x ) - T,1 (x). Puisque le polynme T, 1 atteint


ses extrema+ 1 et - 1 aux points Yk = cos (k 1T /n), pour k = 0, ... , n, la fonction d
s'annule au moins une fois dans chacun des intervalles ferms

[cos ((k + 1) 1T / n) , cos ( k 1T / n) J , k = 0, ... , n - 1. (5.28)

198
Exercices

Alors d(x) possde n zros dans [- 1, l]. Notons bien que si une racine a E [ - 1, l]
est l' extrmit de l'intervalle (5.28), elle doit tre compte deux fois car en un tel
point T,;(a) = 0 et P,~(a) = O. D'autre part, tant donn que le coefficient de x 11 est
le mme pour Pn et T,i, d est un polynme de degr n - 1, il possde donc au plus
n - 1 racines, ce qui montre que P11 T,1 Par consquent, si P11 f:. T, 1 alors

max IP11 (x)I > max IT,,(x)I = l.


x E[a ,b) x E[a ,b)

Ce rsultat signifie que le choix des racines du polynme de Tchebychev est un


Il

choix optimal des points d'interpolation pour rendre la valeur max


x E[a ,b]
IJ(x - xi)
i= O
la plus petite possible sur l'intervalle [- 1, 1]. Nous pouvons adapter la dmons-
tration n' importe quel intervalle [a , b]. Illustrons ce rsultat en comparant les
polynmes d'interpolation de Lagrange calculs partir de points quidistants et
des points correspondant aux racines du polynme de Tchebychev pour la fonc-
tion f(x) = 1/ (1 + 25x 2 ) sur l'intervalle [-1 , 1]. Observons sur la Figure 5.13
que l'erreur d'interpolation du polynme de Lagrange calcul partir des points
x, = cos
2 1
(<
k ; n ) 7T ) , k = 0, ... , n est bien meilleure que 1' erreur utilisant des

points quidistants.

n =07~ n=07 -+-


1.2 1.2
n = 09 ----*-- n =09 ----x----
n = 11 JI( n = 11
fx - - f X -- -

0.8 0.8

0.6 ~ ~ 0.6
.~ ~~ i*
"O ~ 0.4 : 0.4
0 'O
c c::
::J ::::1
_. 0.2
0 0.2 :
('\'")
"'
Q)
Q)

0 . "' ~l
T"-f ~
0 .;a 0
N ..... : ,h.
_.
0 : '/.
@ ::::1
0.2 ~i -0.2
~
..c "'c::
0
Ol
::::
c::
1 0.5 0 0.5 -1 -0.5 0 0.5
Q)
>-
a. s..
u
0 0
(.) (a) (b)
B
0
..c::
p.. Figure 5.13
"'
~ Interpolation de la fonction f(x) = l / ( l + 25 x 2 ) sur l'intervalle [-1 , l ] en utilisant
1 (a) des points quidistants et (b) les racines du polynme de Tchebychev.
'O
0
c::
::::1
0
@

199
Chapitre 5 Les polynmes

5.7 Voici une autre mthode d ' interplation : les splines cubiques.
l . Soient [a, /3] un intervalle de IR et P un polynme de degr trois. En le drivant
deux fois, nous obtenons un polynme de degr un qui vrifie donc

P"(x) - P"(a) P"(/3) - P"(a)


(x - a) (/3 - a)

et P" est donc dfini de manire univoque. Par consquent,

P "(x ) = P"(
. a+) P"(/3) - P"(a) (x-a ) .
/3- a

En intgrant alors une premire fois, nous avons

P'(x) = P'(a ) + P"(a) (x - a)+ P"(/3) - P"(a) (x _ a.)2


2(/3 - a)

et une seconde fois


P"(a) 2 P"(/3) - P"(a) 3
P(x) = P(a) + P'(a)(x - a)+
2
(x - a.) + (/3 _a) (x - a) .
6

Puisque P(a) et P(/3) sont connus nous obtenons la valeur manquante P'(a.) en
remplaant x par /3 :

ce qui conclut l' existence et l' unicit de ce polynme P dfini partir des valeurs
P(a) , P(/3), P"(a) et P"(/3).
Nous avons dj vrifi que
"O
0
c
::J
P'(a) = P(/3) - P(a )
0 /3 - a
(\"')
......
~ et d'autre part, un simple calcul donne
@
......
..c P'(a) + P"(a) (/3 - a) + P"(/3) - P"(a) (/3 - a)
Ol
::::
P' (/3)
>- 2
a.
u
0 P(/3) - P(a) + ( P" (a) + 2 P" (/3)) /3 - a.
{3 - a 6

2. Procdons comme pour l'interpolation compose et dcomposons l'intervalle


[a , b] en n sous-intervalles. Pour i = 1, ... , n fix, considrons d ' une part l'inter-
valle [xi_ 1, xi ] et notons P le polynme de degr trois tel que pour tout x E [xi- l, xi ],
Sl[x; - i,x;J(x) = P (x ).

200
Exe rcice s

crivons alors la valeur de P' au point x; en appliquant le rsultat prcdent avec


a = Xi - ! et f3 = X i , il vient alors

D'autre part sur l'intervalle [x; , X;+iJ, notons Q le polynme de degr trois tel que
pour tout x E [xi, Xi+I ], Snx; ,x;+il (x ) = Q(x ). crivons la valeur de Q ' au point x i en
appliquant le rsultat prcdent avec a = x; et f3 = X;+ 1,

Ainsi, par continuit des drives premire et seconde de la fonction spline S, nous
avons pour i = 1, . . . , n

lim Q' (x ) = S'(x; ) = lim P ' (x ) ,


x-~ x-~
x>x; x<x;

ce qui signifie que

ou encore pour i = 1, . . . , n

.<;::::
"Cl ~
0 "O
c c
::::>
....:::i X;+] - Xi Xi - Xi-1
Cl
(V)
"'
~
(Xi+l - X;- i )f [x;-1,x;,X;+ d , (5.29)
~
.-1 'V
0 .~
N
0""'
@ ....
:::i
o f [x;- 1 , x;, x;+ d reprsente la diffrence divise d'ordre trois (5.4).
:
En outre, pour i = 0, nous connai.ssons S' (x0 ) = f' (a) et en calculant le polynme
.
.c. c
0) 0
;:: c
~ de degr trois sur [x0 , x 1] , puis sa drive au point x 0 , nous obtenons
>-
o.. a.
0
0
u (.)
0
0
..s::::
f' (a) = S' (xo) = f (x1 ) - f (xo) - (2 S" (xo) + S" (x1)) x 1 - xo
o.. X] - XQ 6
~
~

"O
1
ou encore
0
c
:::i
Q
2 S" (xo) + S" (x 1) )
X1 - Xo f (x1 ) - f(xo) _ f '(a). (5.30)
@ (
6 XJ - Xo

201
Chapitre 5 Les polynmes

De la mme manire, nous obtenons au point x 11+ 1

J' (b) = S' (x11 +1) = _f_(x_,_i+_I_) _- _ _f (x_n_) + ( S" (xn) + 2 S" (Xn+l))
X11+I - Xn 6

c'est--dire

(s"(Xn ) + 2 S"(Xn+ I )) Xn+ I - Xn = _ f (Xn+J) - J (Xn) + J'(b). (5.31)


6 X11 +1 - Xn

Posons alors le vecteur S" = (S~ , ... , s:i~ 1 ) o S{' = S"(xi) pour i = 0, ... , n. En
rassemblant les galits (5.29), (5.30) et (5.31), nous vrifions que le vecteur S" est
solution d' un systme matriciel linaire n + 2 quations. Ce systme admet bien une
solution unique puisque la matrice construite est diagonale strictement dominante.
Pour conclure, nous avons dmontr que pour tout intervalle [xi, Xi+ J] avec
z. = 0 , ... , n, nous d,.etermmons
. d es valeurs pour S"x; et S" (Xi + I ) d e mamere
. ' umque
.
en fonction des donnes sur la fonction f.
3. partir de n + 4 conditions, nous avons construit une fonction spline S. Par
exemple, en prenant pour i = 0, ... 'n + 1 la fonction si telle que

0 si j =f. i
Sj(Xj)
.
= { 1 . .
SI ] = z,
.

s;
et (a) = s;
(b) = 0, nous pouvons en utilisant la mme dmarche que prcdem-
ment construire une fonction spline Si qui vrifie les hypothses (5.27). De la mme
manire, nous construisons Sa et Sb.

L'ensemble { So, ... , S11 + 1, Sa, Sb} constitue une


famjlle libre de dimension n + 4 de l'ensemble
des fonctions 'ef'2 ([a, b], JR), elle est donc gn-
"O ratrice de 1' ensemble des splines cubiques de
0
c
::J
classe 'ef'2 ([a, b], JR). Ainsi, pour une fonction
0
(\"')
f E 'ef' 1([a, b], JR) donne quelconque dont nous
...... connaissons seulement les valeurs f (xi) = fi,
0
N
@
pour i E {O, ... , n + 1} et !'(a) = f~,
...... pour a E {a, b}, nous construisons une fonction
..c -+---'---'-~---'---'-~~~-------

Ol
::::
spline S qui interpole la fonction f sur l'inter-
>-
a. valle [a , b]
0
u Figure 5.14
n+ I Illustration de l'interpola-
S(x) L fj S.i(x) + L f~ Sa(x). tion par spline cubique
j=O aE{a,b}

202
LES QUATIONS
Dl FFRENTI ELLES

Ce chapitre est consacr l'tude des quations diffrentielles, lesquelles jouent


un rle fondamental en modlisation pour la biologie, la chimje, la physique et
l'ingnierie. Ces modles sont facilement paramtrisables ( partir de donnes
exprimentales), ce qui justifie leur popularit et leur large utilisation. En outre,
ils fourrussent en gnral des informations prcieuses sur les quantits obser-
vables (quantits qui peuvent tre mesures) condition d'obtenir une bonne
estimation de la solution. Nous prsentons ici les schmas classiques permettant
de fournir des solutions numriques suffisamment prcises pour des problmes
issus de la modlisation en physique, chlmie ou biologie. Nous proposons gale-
ment une tude mathmatique justifiant la prcision des algorithmes.

6.1 INTRODUCTION ET RAPPELS THORIQUES


6.1. l Le pont de Tacoma aux tats-Unis
C'est en juillet 1940 que le pont suspendu de Tacoma dans l'tat de Washlngton
(tats-Urus) est achev et ouvert au trafic automobile. Ds les premiers jours, le
pont commence osciller de manire verticale mais ceci n' est pas vraiment surpre-
nant pour un pont suspendu, les jours passent alors sans qu'aucun problme ne soit
dtect. Cependant, un matin de novembre 1940 la situation se complique : le pont
commence onduler durant plusieurs heures, les cbles maintenant le tablier du pont
se soulvent priodiquement de haut en bas. Un peu plus tard, une pice du pont se
"O
0
casse brutalement, le pont continue osciller mais dans le mme temps la chausse
c
::J se dforme de manire inquitante. Par moment, un bord de la chausse domjne de
0
('\"')
plusieurs mtres l'autre bord et le pont est vacu d'urgence: il finit par s'crouler.
,..-!
0
N
Les ingnieurs se sont alors penchs sur les raisons qui ont conduit le pont
@ s'crouler. Pour cela, il s' agit de modliser les mouvements du pont en recensant
~
..c les phnomnes physiques qui agissent sur le pont.
Ol
::::
>- Par exemple, un modle relativement simple consiste tudier l'volution au cours
a.
0 du temps d' une coupe transversale du pont de Tacoma, les variables sont alors l'angle
u
de rotation Z(t) du segment transverse par rapport l' axe horizontal et le dplace-
ment du centre de gravit y(t) par rapport la position d'quilibre (voir Figure 6.1).
Nous supposons que les cbles rsistent la force applique lorsqu'il subit une lon-
gation mais pas lorsqu'il est compress. En outre, la force exerce par les cbles agit
comme des ressorts d'une raideur K, proportionnelle l'longation du cble. Sur la
Figure 6.1, nous observons que l' extension du ct droit est donne par (y - l sin( Z))
Chapitre 6 Les quations diffrentielles

Z(t) -
'.. . y(t) .......
4

3
N\JWWVWVVVNvvvwvvit./\J\!Nv\NN.f~
2

y(t)

-2 ~-~-~-~--~~

0 50 100 150 200

(a) (b)
Figure 6.1
tude du mouvement d'une coupe transverse du pont l'aide d'une quation
diffrentielle ordinaire. (a) Nous considrons les variations au cours du temps
de la hauteur du pont par rapport la position d'quilibre y(t) et de l'angle de
rotation Z(t). (b) Rsultats de simulations numriques de la solution (y (t) , Z(t)).

et donc la force exerce par le cble de droite est

-K (y _ l sin(Z)t = { - K (y - l sin(Z)) lorsque y - l sin(Z) ~ 0,


0 smon.

De la mme manire, l'extension du cble de gauche est donne par (y+ l sin(Z))+.
Finalement, en prenant en compte la force du vent sin(wt) d'une amplitude faible
> 0 et de frquence w/ 27T, une force d'amortissement d' amplitude 8 > 0 et la
gravit g, la loi de la mcanique de Newton permet d'crire un systme diffrentiel
'O
pour y et Z:
0
c
::J
0 3
('\'") Z" (t) K cos(Z(t)) [(y(t) - l sin(Z(t)))+ - (y+ l sin(Z(t)))+]
,..-!
0
ml
N
@ + sin(w t) - 0 z' (t),
~
..c
Ol
::::
>-
a. y"(t) = - K [(y(t) - l sin(Z(t))t - (y+ l sin(Z(t))t] + g - oy'(t),
u
0 m
o l est la longueur des cbles au repos et m la masse du pont.
Cette quation n' est pas sous une forme trs convenable pour la discrtisation et
pour l'tude thorique, nous prfrons l'crire sous la forme :

u' (t) = f (t, u(t)),

204
6.1. Introduction et rappels thoriques

U1 = Z, U2 Z' ' U3
y'

et f lR x JR4 1---+ JR4 donne par

f (t , u)

Cette quation diffrentielle ne peut pas tre rsolue exactement, c'est pourquoi
il est indispensable de recourir la simulation numrique sur ordinateur pour ten-
ter d' approcher la solution et recomposer ainsi les dernires minutes correspondant
aux mouvements du pont suspendu avant son effondrement. Un exemple de solution
approche est prsent sur la Figure 6.1 : le dplacement vertical y(t) est ici amorti
tandis que les variations de l'angle Z(t) ne s' amo1tissent pas, ce qui conduit l' ef-
fondrement du pont.

6.1.2 Rappels thoriques


Avant de dcrire des mthodes numriques permettant d'approcher la solution d' une
quation diffrentielle ordinaire, rappelons quelques rsultats thoriques sur les sys-
tmes d' quations diffrentielles ordinaires [11].
.~
"O ~
0 'O Dfinition 6.1
c c::
0
::J ::::1
_. Nous appelons quation diffrentielle d'ordre n une quation de la forme
('\'")
"'
Q)

,
Q)
T"-f ~
0
N
.;a
.....
_.
0
u<n)(t) = f (t, u, u' , ... , u<11 - 1
(6.1)
@ ::::1
~
..c
Ol
"'c::
0 o f est une application dfinie sur 1 x U x U 1 U,1 _ 1 1---+ E, 1 est un intervalle
::::
c::
>-
a.
Q)
s.. de JR, U, U1, ... , U11 _ 1 sont des ouverts d' un espace de Banach E. Une solution de
0 0
u (.)

B
l'quation diffrentielle ( 6.1) est une application u de classe <.ef'11 (1 , E) vrifiant
0
..c::
p..
(6.1).
"'
~
1
'O
0 Remarque
c::
0
::::1
Lorsque E = R l'quation diffrentielle est dite scalaire tandis que lorsque f est
@ indpendante de t, l'quation diffrentielle est dite autonome.

205
Chapitre 6 Les quations diffrentielles

Concernant la thorie des quations diffrentielles, nous nous intressons au pro-


blme de l'existence et de l' unicit locale de solutions pour le problme de Cau-
chy 1 (c'est--dire l'quation diffrentielle accompagne d'une condition initiale ).
Notons d'abord que dans le cas gnral d'une quation d'ordre n, une condition ini-
tiale est la donne de la fonction inconnue u et de toutes ses drives jusqu' l'ordre
n - 1 au point t = O. En dfinitive, nous pouvons toujours nous ramener au cas
n = 1, quitte agrandir l'espace E comme dans l'exemple du pont de Tacoma et en
considrant comme nouvelle fonction inconnue le vecteur (u , u', ... , u<n - I)) . C' est
pourquoi dsormais, nous nous plaons dans le cas n = 1, et considrons une fonc-
tion f : I x U 1-7 E, o I est un intervalle ouvert de 1R et U un ouvert d'un espace
de Banach E muni de la norme 11- 11- Considrons alors un systme diffrentiel de la
forme
u' (t) = f (t, u(t)),
{ u(t = 0) = uo , (6.2)

o u0 E E et o la fonction f E ~ 0 (1 x U, E) est seulement continue. Ceci per-


met de dmontrer l' existence d'une solution lorsque E est de dimension finie mais
pas l'unicit de la solution. Pour assurer l'unicit, il suffit que f soit localement lip-
schitzienne par rapport la variable x E U. titre d'exemple, nous rappelons le
rsultat le plus classique pour l'existence et l'unicit d'une solution pour un systme
diffrentiel [ 11].

Thorme 6.2
Soit f E ~0 (1 x U , E) et supposons qu'il existe un voisinage de (0, u 0 ) dans
1 x U et L > 0 tels que pour tout t E I , x et y dans ce voisinage
llf(t ,x) - f(t ,y)ll ~ Lllx - Yll-
Alors
il existe T > 0 et u E ~ 1 ([0 , T], U) solution du problme de Cauchy (6.2);
si v est une autre solution, elle concide avec u sur l'intervalle [0, T];
"O
0
c
si de plus f est de classe ~r (1 x U , E) avec r ~ 1, alors u est de classe
::J ~,.+1 (/ , U).
0
('\"')
T"-f
0
N
@ La dmonstration de ce thorme repose sur le thorme de point fixe contrac-
.:t:Ol tant que nous avons dmontr au Chapitre 3 [Thorme 3.4]. Nous proposons une
~ dmonstration de ce thorme dans la section 6.2.2 en prouvant la convergence du
- schma d'Euler explicite par une mthode de compacit.
u

1. En rfrence Augustin Louis Cauchy, mathmaticien franais (1789-1957) qui fut l'un des plus
prolifiques. Ses travaux portrent sur l'analyse (fonctions holomorphes, critres de convergence sur les
sries entires) mais aussi en optique sur la propagation d'ondes lectromagntiques.
2. En rfrence Rudolph Otto S. Lipschitz (1832-1903), mathmaticien allemand, qui travailla sur la
thorie des nombres, les quations diffrentielles compltant les travaux de Cauchy.

206
6.1. Introduction et rappels thoriques

Pour l'instant intressons-nous la notion de trajectoire.

Dfinition 6.3
Nous appelons trajectoire ou orbite partant de u 0 l'ensemble dfini par

Tu 0 := { u(t) E E , u solution de (6.2), t E [0, T] avec u(O) = uo} .

En appliquant le Thorme 6.2, nous avons immdiatement le rsultat sujvant :

Corollaire 6.4
Soient u 0 et v0 E V deux donnes initiales distinctes. Alors les trajectoires Tu 0
et Tv0 sont disjointes.

Plaons-nous maintenant dans le cadre d'application du Thorme 6.2, le rsultat


suivant donne une condition suffisante pour que T = +oo [11].

Thorme 6.5
Soient f E ~0 (1 x V , Rd ), supposons de plus que f est localement lipschit-
zienne en la deuxime variable et u la solution de (6.2) dfinie pour 0 ~ t < T.
Si la solution u est uniformment borne sur [O, T] alors T = +oo.

Aprs ces quelques rsultats d'existence et d'unicit, tudions le comportement


qualitatif de la solution u. Pour simplifier, nous considrons un problme autonome,
c'est--dire que la fo nction f ne dpend que de la variable u mais pas de t E R :
u'(t) = f(u(t)) ,
{ u(t = 0) = uo , (6.3)
.<;::::
~
"Cl
c
0 "O
c
o la fonction f V ~ E est continue.
::::> :::i
Cl ....
(V)
"'
~
Dfinition 6.6
~
.-1 'V
0
N
.~ Le point E V est un point d'quilibre ou stationnaire du systme diffrentiel
0""'
....
@ :::i (6.3) ds qu'il vrifie :
:
/() = o.
.
.c. c
0) 0
;:: c
~
>-
o.. a.
0
0
u (.)
0
Se pose alors la question de la stabilit de ces points d'quilibre.
0
..s::::
o..
~ Dfinition 6.7
~
1 Soit E U un point d' quilibre ou stationnaire de (6.3). Nous disons que est
"O
0
c stable ds qu' il vrifie :
:::i
Q
@ Vs > 0, =i 77 > 0 tel que uo E B(, 77) * llu(t ) - ll ~ e ,

207
Chapitre 6 Les quations diffrentielles

c'est--dire que si nous partons d'une donne initiale proche de l'tat stationnaire
ii, la solution u(t) de (6.3) reste proche del' tat stationnaire pour tout t E ffi.+.
En outre, si la solution u vrifie

lim
f---+OO
llu(t) - ll = 0,
alors nous disons que le point d'quilibre est asymptotiquement stable, c'est--
dire que la solution converge vers l'tat stationnaire.

Recherchons ensuite des conditions suffisantes de stabilit d'un point d'quilibre.


Pour cela, voyons d'abord ce qu' il se passe dans le cas d'une fonction linaire. Soit
A E At,i,11 (ffi.), le systme diffrentiel (6.3) s'crit alors

u'(t ) = A u(t) ,
{ u(O) = (6.4)
uo
et la solution est donne par u(t) = e A' u 0 avec
tll
eAt = "\""""' -A11 .
L.J n!
nE N

La solution de (6.4) est bien dfinie pour tout temps et ce systme admet un point
d'quilibre ii = 0 dont la stabilit est lie au spectre de la matrice A [11].

Thorme 6.8 Stabilit des systmes diffrentiels linaires


Considrons u la solution du systme diffrentiel (6.4). Alors le point 0 est
asymptotiquement stable si et seulement si pour tout E Sp(A),

Re(A) < O.
"O
0
c
En outre, le point 0 est stable si et seulement si pour tout E Sp( A)
::J
0 soit Re() < 0,
('\"')
T"-f
0
ou bien Re(A) = 0 et n'est pas dfective, c'est--dire
N
@
~
dim(Ker(A - l ,i)) = p,
..c
Ol
::::
>- o p reprsente la multiplicit de .
a.
0
u

Dans le cas non linaire la situation est bien plus complexe. Commenons, comme
souvent, par transformer le problme pour se ramener une situation connue. En
linarisant l'quation diffrentielle (6.3), introduisons o = u - ii, qui vrifie

o'(t ) = f(u(t)) - f() = \l uf() 0 + o(o) ,

208
6.1. Introduction et rappels th orique s

o o(o) signifie qu' il existe une fonction e(o) telle que lle(o)ll/ 1
1811---+ 0 lorsque
o---+ O.
Ainsi, lorsque o est initialement petit, les termes en o(o) sont ngligeables et la
stabilit du point stationnaire E U C E se ramne l'tude de stabilit du problme
linaire suivant au point 0
o' = V uf() o.
Nous pourrions esprer un rsultat analogue au cas linaire mais ce n' est hlas pas
toujours le cas (11].

Thorme 6.9 Thorme de stabilit non linaire


Soient E un espace de Banach de dimension finie et considrons le point station-
naire E U C E du systme diffrentiel (6.3), o f E 1&'1(U , E). Si pour tout
E Sp(\7 u f ()) nous avons Re( A) < 0, alors le point est asymptotiquement
stable.
En revanches' il existe E Sp(\7u f ()) telle que Re( A) > 0 alors le po.int est
instable.

Observons que lorsqu' une valeur propre est de paitie reile nulle, nous ne pouvons
pas conclure sur la stabilit du point d'quilibre en utilisant la thorie linaire. Il faut
alors faire appel la thorie de Lyapunov 1.

Dfinition 6. l 0
Soit E U un point d'quilibre de (6.3). Nous appelons fonction de Lyapunov
une fonction .C : U i---+ lR continue et diffrentiable sur U vrifiant
.C() < .C(u), '/ u E U \ { }
{ \7.C(u) f(u) ~ 0, '/ u E U .

<;::::
"Cl ~
"O
Notons que les hypothses sur .C permettent d' assurer que
0
c c
::::>
....:::i d
Cl
"'
~
- .C(u) = \7.C(u) u' = \7.C(u ) f (u ) ~ O.
(V)
.-1 ~ dt
'V
0
N
.~
0""'
L' existence d' une telle fonction .C permet alors de conclure sur le comportement de
@ ....
.
:::i
: la solution proche de l'quilibre (11].
.c. c
0) 0
;:: c
~ Thorme 6. 11 Thorme de Lyapunov
>-
o.. a.
0
0
u (.)
0 Soient E un espace de Banach de dimension finie et E U un point d'quilibre
0
..s::::
o.. de (6.3). S' il existe une fonction de Lyapunov .C associe l'quilibre E U ,
~
~ alors l'quilibre est stable.
1
"O
0
c
:::i
Q 1. En rfrence Alexander Lyapunov mathmaticien russe ( 1857-1918) qui travailla sur les systmes
@ dynamiques.

209
Chapitre 6 Les quations diffrentielles

D MONSTRATION. Considrons e > 0 tel que B(u , e) c V et soit

m = min .C(u)
llu- ll =e

le minimum de la fonction de Lyapunov .C sur le bord de B( , e). Puisque u E V est


un minimum strict de la fonction .C qui est continue, l' ensemble

Ve := { u E B(u , e), .C(u) < m}

est un voisinage de u inclus dans V. Ainsi, en choisissant uo E Ve, comme


t ~ .C(u(t)) est dcroissante, il vient alors

.C(u(t)) ~ .C(uo) < m,

pour t ~ 0 et donc u(t) <f. B(u, s). Par suite u(t) reste dans le voisinage compact
~ 0 et mme dans le voisinage Ve , donc u est bien stable. o
B(u , e) de u pour tout t
Par la suite, nous prsentons plusieurs schmas explicites classiques (schmas
d'Euler, de Runge et de Runge-Kutta), puis proposons une analyse de convergence
de la solution numrique vers la solution exacte du systme diffrentiel en intro-
duisant les notions de consistance et de stabilit. Nous tudions ensuite un schma
d'Euler implicite pour les quations diffrentielles raides qui jouent un rle important
dans les applications la chimie. Enfin la dernire partie est consacre aux systmes
hamiltoniens.

6.2 SCHMAS UN PAS EXPLICITES

"O
Intressons-nous maintenant la discrtisation des quations diffrentielles ordi-
0
c naires et supposons que E = ]Rd avec d ~ 1. Pour approcher la solution de (6.2)
0
::J
sur l' intervalle [O, T], dcomposons cet intervalle en N sous-intervalles [t 11 , 111 + 1]
('\"')
,..-! avec t 11 = n 11t, n E {O, . . . , N} et 11t = T / N. Par la suite, la solution num-
0
N rique est note v 11 et dsigne une approximation de la solution u aux points t 11 , pour
@ n = O, . . . ,N.
~
..c
Ol L'objectif de l'analyse numrique des quations diffrentielles ordinaires est
::::
>-
a. de construire des schmas numriques en discrtisant l'quation (6.2). Ensuite, il
0
u s' agit de dmontrer que la solution approche converge, en un sens prciser, vers
la solution exacte. Pour cela, nous cherchons valuer l'erreur de discrtisation
e11 = u(t11 ) - vn, et plus prcisment, obtenir des estimations d' erreur de la forme

210
6.2. Schmas un pas expl icite s

o C ne dpend que de la solution exacte, du temps final T mais surtout pas du pas de
temps 11t tandis que a > 0 donne l'ordre de convergence de la mthode numrique.

6.2.1 Les schmas de Runge-Kutta


Dcrivons d' abord la manire de constnre un schma numrique pour l' quation
(6.2). Puisque la fonction f est continue, elle est intgrable sur [0, T ] et donc en
intgrant (6.2) sur l'intervalle [t 11 , t 11 +11t] , nous avons

u(t 11+ 1) - u(t 11 ) = 1'" 1


n+I

f( s, u(s ))ds .

Le schma numrique s'obtient alors en appliquant une formule de quadrature pour


approcher l' intgrale du ct droit de l'galit.
Le schma d'Euler explicite. Par exemple, en appliquant la mthode des rec-
tangles gauche vue au Chapitre 5 [section 5.2.3] au point t 11 , nous obtenons

1. , 11+ 1

f( s , u(s ))ds '" !!.1 f (t", u(1" )).


En remplaant u(t 11 ) par son approximation v 11 vient alors le schma d'Euler expli-
cite
v 0 = u(O)
(6.5)
{ vn+l = VII + 11t f (tll ' vil) , pour n = 0, ... , N - 1,
qui peut aussi s' crire sous la forme
v11 + 1 = V
11
+ /1t <f>(t 11 , v 11 , /1t ), n = O, . .. , N - l ,

avec
</>(t 11 , V 11 , ..t) = f (t 11
, V
11
)
.<;::::
"Cl
0
~
"O
Nous tudierons prcisment la convergence de ce schma et dmontrerons par la
c
::::>
c mme occasion le Thorme de Cauchy-Lipschitz (Thorme 6.2) pour l'existence
Cl ....:::i
(V)
"'
~
de solutions .
~
.-1
0
'V
.~
Le schma de Ronge. Une autre approximation consiste utiliser la formule du
N
0""'
.... point mil ieu tudie au Chapitre 5 [section 5.4.3]
@ :::i
. :
.c. c

(1"+ ~1 , u (1" + ~))


0) 0
;:: c
>-
o..
~
a. { " f (s, u(s )) d s "" !!.t f
0 0
u (.)
0
0
..s::::
o..
mais au pralable il est impratif de construire une approximation de u(t 11 + ~r ). Pour
~
~
cela, appliquons simplement le schma d' Euler explicite prsent prcdemment sur
"O
1
un demi-pas de temps
0
c

(1"+ ~) ~f
:::i
Q
@ u '' u(t" ) + (t'', u(t" )) .

211
Chapitre 6 Les quations diffrentielles

En remplaant u(t 11 ) par sa valeur approche v 11 , nous obtenons le schma de Ronge


explicite qui comporte deux tapes
k1 = f (t 11 , v") ,
k2 -- f (tn + 6.t2 '
v" + 6.t2 k l) '
{
V i+l = V + f1t k2,
1 11

qui peut aussi s'crire sous la forme


vn+l = v" + 6.t </>(t", v", 6.t), n = 0, . . . , N - 1,
avec
<f>(t'', v" , !J.t) = f (t" + ~t , v" + ~ J(t'', v'')) .
Le schma de Runge-Kutta. Plus gnralement, dfinissons les schmas de
Runge-Kutta explicites de la manire suivante :

Dfinition 6.12
Une mthode de Runge-Kutta s tages est donne par
k1 = f (t 1, v
1 11
),

k1 = f (t + c2 Cit , v + Cit a2,1k l) ,


11 11

(6.6)
ks = f (t 11
+Cs t:J.t , Vil + t:J.t (as,l k1 + . . . + as ,s-1 ks-1)),
vll+I = vil + 6.t (b1 k1 + b2 k1 + ... + bs ks),
o ci, a; ,j et b j sont des coefficients. Nous les reprsentons habituellement par le
schma
C1 0
C2 a2,1
(6.7)

"O
Cs as ,l as ,s-1 0
0
c b1 bs-1 bs
::J
0
('\"')
T'-f
0 Exemple : mthode d'Euler et de Runge
N
@ Les mthodes d'Euler et de Runge peuvent donc tre reprsentes par les tableaux
~
..c suivants :
Ol
:::: 0
>-
a.
0 l /2 l /2
u
0

Donnons en particulier le schma de Runge-Kutta d'ordre quatre. C'est une


excellente mthode pour la plupart des problmes de Cauchy (6.2), c'est certainement
la premire essayer puisque nous verrons qu'elle est trs prcise et assez stable!

212
6.2. Schmas un pas explicites

Elle est quatre tages et est dfinie par la fonction


1
cp(t , v , ~t) =
11
(k 1 + 2k2 + 2k3 + k4),
avec 6
k1 = f (t 11 , v 11 ) ,
k2 = j' (tn + /1t 2'
VII + 6.t k )
2 1 '
k3 = f (t 11 + ~ , V 11 + ~t k2) ,
k4 = f (t 11 + ~t , v" + ~t k3).
Cette mthode combine les formules de quadrature de Simpson et du trapze tudies
au Chapitre 5 [section 5.2.3] tandis que les valuations aux temps intermdiaires sont
fournies par la mthode d'Euler explicite. Nous vrifions que son criture matricielle
est la suivante
0
112 1/2
112 0 112
1 0 0 1
1/6 1/3 1/3 1/6
Avant de se lancer dans l'analyse des schmas un pas, comparons la prcision
des diffrents schmas pour un problme dont la solution exacte est connue
Exemple
Proposons de comparer l'ordre de convergence des diffrents schmas num-
riques. Pour cela, considrons l'quation diffrentielle scalaire
u' (t) = - u{t), t E [O, 1],
{ u(t = O) = 1,
dont la solution exacte est co nnue :
u(t) = u(O) e- t.
Nous effectuons alors plusieurs
simulations numriques en fai- -5
.~
"O ~ sant tendre le paramtre Llt vers
0 'O
c c:: zro pour le s schmas d'Eu- -10
::J ::::1
_.
0 ler explicite, de Rung e et de
"'
Q)
('\'")
T"-f
Q) Runge-Kutta quatre t ages. ~

0
~
.;a 15 -15
N ..... Sur la Figure 6.2, l'axe des abs- Q) ...
@
_.
0
cis ses correspond au log(Llt) c;; *
::::1 Q
~
..c
Ol
"'c::
0
et l'axe des ordonnes repr- -20
::::
c:: sente log (maxn ~ o len(LH)I). Ain si,
Q)
>-
a. s..
0
la pente correspond l'ordre de Euler explicite -+--
0 -25 Runge d'ordre 2 ---X---
u (.)
la mthode.
B
0
..c:: Nous constatons sur cet exemple
Run e-Kutta d'ordre 4 *. .
p..
que le schma d'Euler explicite -5 -4.5 -4 -3.5 -3 -2.5
"'
~
1 est d'ordre un, le schma de log(dt)
'O
0
c::
Runge est d'ordre deux tand is Figure 6.2
::::1
que le schma de Runge-Kutta Comparaison des schmas d'Euler, de
0 Runge et Runge-Kutta 4.
@ quatre tages est d'ordre quatre!

213
Chapitre 6 Les quations diffrentielles

Simulation d 'une solution chaotique


Dans beaucoup d'applications, les solutions d'une quation diffrentielle ordinaire
sont chaotiques. Il n'y a pas de dfinition formelle prcise de la notion de chaos,
lorsque t devient grand, une connaisssance approximative de la donne initiale,
rend le comportement de la solution incomprhensible. Considrons par exemple le
modle de Lorentz : nous cherchons approcher les fonctions (x(t), y(t) , z(t)) pour
tout t ~ 0 du systme suivant

x' = o-(y - x),


{
y; X (p ~ Z) - y,
Z - X Y /3 Z,
avec o- = 10, p = 28 et f3 = 8/ 3.
En appliquant le thorme de Cauchy-Lipschitz (Thorme 6.2), nous montrons
que sur tout intervalle de temps [0, T], il existe une unique solution au systme de
Lorentz. Cependant, la simulation numrique de ce systme pose de relles difficults
lorsque le nombre d'itrations devient grand.
trajectoire de (x,y,z) - -
1
Choisissons une donne initiale z
qui est une perturbation de l' qui-
libre (0, 0, 0) de l'ordre de 10- .
Nous observons alors plusieurs
6
;1
choses. Tout d' abord, en traant sur
la Figure 6.3 l'volution des compo-
santes (x(t), y(t ), z(t)) au cours du
temps, la solution forme une sorte de
papillon. Notons que pour diffrents
pas de temps 6.t = 2. 10- 4 , 2. 10- 5
et 2. 10-6 le comportement qualitatif Figure 6.3
de la solution reste le mme. volution de (x ,y,z).

"O
Cependant, en traant l' volution des composantes x(t) et z(t), nous observons
0
c que pour t ~ 15, les simulations numriques mettent en vidence un comportement
::J
0 chaotique de la solution numrique pour diffrents pas de temps (voir Figure 6.4).
('\"')
,..-! C 'est pourquoi, il est important d' tudier le plus prcisment possible le com-
0
N portement de la solution numrique lorsque le paramtre 6.t tend vers zro. Par la
@
~
suite, nous tudierons les mthodes de discrtisation des quations diffrentielles
..c
Ol dites schma un pas .
::::
>-
a. L'ensemble de ces mthodes numriques peut tre dcrit comme un schma un
0
u pas explicite, autrement dit le schma s'crit sous la forme

v0 = u(O)
{ v'z+l = vn + 6.t <f>(t 11 , vn, 6.t) , (6.8)
n = 0, ... , N - 1,

o </> : JR+ x ]Rd x JR+ ~ ]Rd dfinit compltement la mthode numrique. Bien sr,
la mthode est dite un pas car v 11 + 1 ne dpend que de l'tape prcdente v 11

214
6.2. Schmas un pas explicites

30
dt= 2.E-4 --+-- dt= 2.E-4 --+--
dt= 2.E5 --------- 50 dt= 2.E5 ---------
dt = 2.E6 dt = 2.E6
20
.1 40
i
10
l: ~
!
::'
; :;
I .
!1 ;

1
~
' .,
. ..

;\i! i~
..
.... 30
x....
~ ~
';;
1-1
:: 'N
'1Jl :~ ,'
0 1
20

10 10

20 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30

Figure 6.4
volution des composantes x" et z11 en fonction de n pour un schma d'Euler
explicite et diffrents pas de temps t:i.1 = 2. 10-4, 2. 10-5 et 2. 10- 6

Ainsi l'algorithme est satisfaisant ds lors que l'erreur e11 = llv 11 - u(t11 )ll converge
vers 0 pour tout n E {O, ... , N} lorsque le pas de temps tl.t tend vers zro.
tudions d'abord le schma le plus simple, c'est--dire le schma d'Euler expli-
cite, pour lequel nous proposons une dmonstration de convergence qui ne repose pas
sur un rsultat d'existence de solutions pour (6.2): la convergence du schma num-
rique constitue donc une preuve du Thorme de Cauchy-Lipschitz (Thorme 6.2).
Ensuite, nous proposons une tude gnrale des schmas un pas et donnons des
conditions suffisantes sur la fonction efJ pour dmontrer la convergence et calculer
l'ordre du schma.

"O
.~
~
6.2.2 Convergence du schma d'Euler explicite
0 'O
c c:: Soit u(t) la solution exacte de l'quation diffrentielle (6.2) et v 11 la solution appro-
::J ::::1
_.
0 che donne par le schma un pas (6.8). Dfinissons l'erreur globale au temps t 11
('\'")
"'
Q)
Q)
T"-f
0
~
.;a
par la diffrence entre les solutions exacte et approche :
N .....
_.
0
@ ::::1
e 11 (tl.t) = u(t 11) d 1, n E N.
~
..c
Ol
"'c::
0
-

::::
c::
Q)
>-
a.
0
s..
0
u (.)
Dfinition 6.13
B
0
..c::
p..
Considrons l'quation diffrentielle ordinaire (6.2). Nous disons que le schma
(6.8) est convergent sur l'i ntervalle [0, T] lorsque pour tl.t = T / N
"'
~
1
'O
0
c::
::::1
lim
D.t-.O n=O, .. . ,N
max lle''(tl.t)ll = O.
0
@

215
Chapitre 6 Les quations diffrentielles

En outre le schma est convergent d' ordre p s'il existe une constante C > 0 ne
dpendant que de f, T , u 0 et surtout pas de fl. t telle que

max lle11 (fl.t) ll ~ C fl.t P.


n= O, .. .,N

Supposons que pour T > 0, la fonction f appartient 1f([O, T] x U , E ) et consi-


drons le schma d'Euler explicite pour (6.2)

Notons alors V fit la fonction affine par morceaux de [0, T] valeurs dans E , dfinie
par

Nous souhaitons dmontrer que la fonction Vfir converge vers une solution de (6.2).
D' une part, puisque f est continue elle est borne sur tout compact. La drive
de VLif est alors borne sur un intervalle inclus dans [0, T] indpendamment de fl. t .
L'ensemble (vtit h t>O forme ainsi une famille de fonctions quicontinues dont une
sous-suite converge uniformment grce au Thorme d' Arzel-Ascoli.

Thorme 6.14 Thorme d'Arze/-Ascoli

Soit (vm)mEN une suite de fonction s telles que {Vm : [0, T] f--4 JR, m E N} est
quicontinue sur [O, T ] avec 0 < T < +oo, c 'est--dire que pour toute > 0, il
existe 8 > 0 indpendant de m E N tel que pour tout lt - si ~ 8 ,

sup llvm(t) - Vm(s) ll ~ e .


mE N
"O
0
Si la suite ( vm )mEN est borne, alors il existe une sous-suite qui converge unifor-
c mment.
::J
0
('\"')
T"-f
0
N Montrons alors le rsultat suivant (qui englobe une partie du Thorme 6.2).
@
~
..c
Ol
Thorme 6.1 5 Conver ence du schma d'Euler ex licite
::::
>-
a.
0
Soient f E 1f0 ([0, T] x U, E ), B(uo, o) C U et
u
M = sup lf(t, u)I
(t ,u)E[O,T] xl3(uo ,)

Alors il existe au moins une solution au problme de Cauchy (6.2) dfinie sur
l' intervalle [0, T0 ] avec T0 = min(T , 8 / M) et il existe une sous-suite de la solu-
tion numrique donne par le schma d'Euler qui converge vers cette solution.

216
6.2. Schmas un pas explicite s

D MONSTRATION. Soient > 0 et T > 0 tels que B(uo, ) C U , alors par dfi-
nition de M la solution numrique w,, (t) E B(u0 , ) pour tout t E [0, T0 ] avec
T0 = min(T , / M) et de plus
llv,(t) - v,(s) ll ( M lt - si.
Ainsi, d'aprs le Thorme d'A.rzel-Ascoli, il existe une sous-suite (v 1; m)m EN" qui
converge uniformment vers une fonction u. Il reste dmontrer que u est solution
de (6.2), c' est--dire que pour tout t E [O, To]

u(t) = u(O) + l f( s , u(s )) d s.

En utHisant le fait que f est uniformment continue sur (0, T] x U , il existe


(llt ) --+ 0 lorsque llt --+ 0 telle que

llf (t , v) - f(s, w)ll ( (llt ), llv -w ll ( Mllt et lt -s l ( t .


C' est pourquoi,

llv,,., (t ) - u(O) - l f (s, VA1 (s))ds ll (


N-1

2::::
11 = 0
1.
l"
, 11+ 1
1 1
llf(s, vr(s)) - f (t", v11 )ll + llf (s, VM(s)) - f (t "+ , v"+ ) llds

N- 1
( 2 2= (llt) llt = 2 T (llt ).
n= O
En crivant cette ingalit pour une sous-suite convergente et en passant la limite
llt tend vers zro, nous obtenons le rsultat. o
Nous montrons facilement que lorsque la fonction f est lipschitzienne par rapport
.<;::::
la seconde variable, la suite dfinie par le schma d'Euler converge uniformment.
"Cl ~
0 "O
c c
::::>
....:::i 6.2.3 Consistance et stabi lit des schmas un pas
Cl
(V)
"'
~

.-1 ~
'V tablissons maintenant des critres gnraux sur l'ensemble des schmas numriques
0 .~
N
0""'
....
un pas, crits sous la forme (6.8), ce qui permettra de dmontrer facilement la
@
.
:::i
: convergence de la solution approche vers la solution exacte. Pour cela, dfi nissons
.c. c
0) 0
c deux notions importantes : la consistance qui renseigne sur la cohrence de la dis-
;::
>-
o..
~
a. crtisation et la stabilit qui signifie le contrle de l'accumulation des erreurs.
0 0
u (.)
0 Pour n E N, l' erreur de consistance du schma (6.8) au temps t, pour u une solu-
0
..s:::: tion de (6.2) et un pas de temps llt, est obtenue en appliquant le schma de discrti-
o..
~
~
sation la solution exacte, c'est--dire
1
"O u(t + llt) - u(t)
0
c
:::i
R(t, u , llt ) = llt - </J(t, u(t ), llt ), (6.9)
Q
@ ce qui permet alors de dfinir la consistance.

217
Chapitre 6 Les quations diffrentielles

Dfinition 6.16
Considrons le schma un pas (6.8) associ l'quation diffrentielle (6.2).
Nous disons que le schma est consistant lorsque pour tout t E [0, T] et toute
solution u E <&'([O, T], JR.d) de (6.2)

lim llR(t, u, dt)l l


Ll1 ~0
= O.

De plus, pour p E N, le schma est consistant d'ordre p s'il existe une constante
C > 0 ne dpendant que de f , T et u 0 mais surtout pas de dt telle que

llR(t , u , dt) ll ~ C iltP, pour toutt ~ 0

et toute solution u E <&'([O, T] , JR.d ) de (6.2).

Ainsi, la consistance donne une indication sur la cohrence de l' approximation </>
de la fonction f. En effet, elle signifie que lorsque le paramtre de discrtisation dt
tend vers zro, la fonction ef>(t , u(t), dt) converge vers f (t , u(t)). tablissons alors
une condition suffisante sur cf> pour que le schma (6.8) soit consistant.

Proposition 6.1 7 Condition suffisante pour la consistance


Considrons le schma un pas (6.8) associ l'quation diffrentielle (6.2). Si
la fonction cf> E <&'0 (JR+ x JR.d x JR+, JR.d ) et pour tout w E JRd, t E [O, T]

<f>(t , w , O) = f(t , w).

Alors le schma (6.8) est consistant.

DMONSTRATION. Prenons u E <&' 1([0, T], JR.d ) la solution exacte de (6.2), nous
'O
pouvons crire pour t E [O, T - dt]
0
c
0
::J t+Llt J t+M
u(t +Llt)-u(t) = t u'(s)ds = r f(s , u(s))ds .
('\"')
T"'f
0
N
J
@ Nous en dduisons alors que
~
..c
Ol
:::: A ) u(t +dt) - u(t) A.( ) A )
>-
a. R(t , u , ut = dt - 'f t , u(t , ut ,
0
u
1
dt
Jt+
r
Llt [f(s , u(s)) - ef>(t , u(t) , dt)] ds.

Soit e > 0, puisque </> est une fonction continue au point


(t , u(t) , 0) et ef>(t , u(t) , 0) = f (t, u(t)) ,

218
6.2. Schmas un pas explicite s

il existe 'T/ t > 0 tel que pour tout 11t ~ 17 1


e
llef>(t, u(t), 11t) - f (t, u(t))ll ~ -
2
Nous avons donc par ingalit triangulaire

e l
llR(t , u , 11t)ll ~ 2 + .t
j t+M llf(s,u(s)) - f(t,u (t)) llds.
1

D'autre part, la fonctions ~ f(s , u(s)) est continue sur [0, T], elle est donc unifor-
mment continue, il existe donc 172 > 0 tel que pour tout lt - s 1 ~ .t ~ 172 ,

1 J'+M llf(s,u(s))-f(t,u(t)) ll ds ~ e
.t t
2.
Ainsi, lorsque 11t ~ 17 = min(7J 1, 7]2), l'erreur de consistance satisfait

llR(t , u,.t)ll ~ e,

ce qui dmontre la proposition. D


Pour obtenir la consistance d'ordre p > 1, .il est ncessaire de supposer que
la fonction f E <ef'P ([O, T] x V , ffi.d), ce qui implique d'aprs le Thorme 6.2
que u E <ef P+ 1 ([0, T] , ffi.d) . Dfinissons alors .f(m) E <ef'P- m([O, T ] x U , ffi.d ) pour
(t , w) E IR X ffi.d

f(o)(t, w) = f(t , w)

"Cl
<;::::
~
{ .f(m+I)(t,w) = a~~m)(t,w) + 'Vw.f(m)(t, w)f(t , w) , m ~ O.
0 "O
c c
::::>
Cl ....:::i Par rcurrence, la solution de (6.2) vrifie pour tout m E {O, ... , p}
(V)
"'
~
~
.-1 'V
0 .~
N
0""'
.... u<m+l\t) = f(m)(t, u(t)), t E [0, T].
@ :::i
. :
.c. c
0)
;::
0
c partir de cette dernire galit et d'un dveloppement de Taylor de la solution de
~
>-
o.. a. (6.2) l'ordre p, il vient
0
0
u (.)
0
0
..s:::: p f1t m f1 tP+I
o..
~ u(t + .t) u(t) + ~ - u(m)(t ) + u <p+J)('T])
~ ~ m! (p+ 1) ! '
1 m= I
"O
0
c /1 m
p- 1 .tp+I
Q
@
:::i
u(t) + .t
m=O
L
(m ~ l) ! .f(m)(t, u(t)) +
(p + l)!
u(p+I)(7]).

219
Chapitre 6 Les quations diffrentielles

Ainsi, en choisissant la fonction </> telle que

p- l /1t m
</>(t ,v, 11t) = L f(m) (t , v)(m+l)! ' (6.10)
m=O

l' etTeur de consistance vrifie naturellement

,.,-,( A
/'\., f , U , u.f
) = u(t + !1t)
A
- u(t ) - ,./-.( ()
<p f l U f , U.f
= A )
U
(p+l) (
1J
) f1t P
) .
u.t (p + 1 !

Compte tenu que u<P+I) est continue, elle est borne sur [0, T] et l'erreur de consis-
tance est bien d' ordre p. Nous pouvons alors facilement dmontrer l' aide de (6.10)
la Proposition suivante

Proposition 6.18 Condition suffisante pour la consistance d'ordre p

Considrons le schma un pas (6.8) associ l' quation diffrentielle (6.2). Si


la fonction </> E ~P- 1 (JR+ x JRd x JR+, JRd) et vrifie pour tout m = {O, ... , p- l}

8m<f>(t V 0) = f(m)(t, v) t E [O, T].


) ) )
8f1tm m +1
Alors le schma (6.8) est consistant d' ordre p .

C 'est alors un exercice trivial que de vrifier que le schma de Runge est effecti-
vement d'ordre deux et le schma de Runge-Kutta quatre tages est d'ordre quatre.
Ces critres donnent une information sur la prcision d'une tape de discrtisation
mais ils n' assurent pas que l'accumulation des erreurs ne converge pas vers l'infini
lorsque le nombre d'tapes ou d'itrations crot. Pour exprimer cela, introduisons la
notion de stabilit.
'O
0
c
::J Dfinition 6.19
0
('\"')
T'-f
Le schma (6.8) est stable s' il existe ~t* > 0 et R > 0 pouvant dpendre de la
0
N
donne initiale u0 et du temps final T = N !1t tels que pour tout !1t E [O, !1t* [
@
~
..c v il E B(O, R), Vn = 0,, ... , N ,
Ol
::::
>-
a.
0 o B(O, R) dsigne la boule de centre 0 et de rayon R. Autrement dit la solution
u numrique v il est borne indpendamment de n et ~t .
En outre, le schma est inconditionnellement stable lorsque 11t* = oo.

Notons que cette notion de stabilit a dj t utilise pour dmontrer la conver-


gence du schma d'Euler explicite puisque nous avons dmontr en premier lieu que
la solution numrique est borne. Cependant cette condition se rvle bien souvent

220
6.2. Schmas un pas expl icite s

trop faib1e pour permettre une analyse de convergence d'un schma numrique un
pas. C' est pourquoi, nous introduisons une notion de stabilit plus contraignante,
c' est Ja stabi1it par
. rapport
- . .
aux erreurs.
-

Dfinition 6.20
Le schma (6.8) est stable par rapport aux erreurs s'il existe dt* > 0 et C > 0
dpendant de u 0 , f et T tels que pour 0 ( d t ( d t* ,

v 11 +1 := v 11 + d t </>(t 11 , v 11 , d t) ,

et
w n+I := w 11 + dt </>(t 11 , w 11 , d t ) + B11 ,
pour n = 0, . . . , N - 1 et (s" )nEN c ~d est donne, alors

pour tout n = 0, ... , N - 1.

Cette dfinition signifie que pour qu' un schma soit stable il faut et il suffit que
l' accumulation des erreurs soit du mme ordre que la somme des erreurs commises
chaque tape. Nous proposons une condition suffisante de stabilit pour un schma
un pas de la forme (6.8)

Proposition 6.21 Condition suffisante pour la stabilit


Supposons que la fonction </> est continue et lipschitzienne par rapport la
variable V E ~d ' o r > 0 est la constante de Lipschitz :

"Cl
.<;::::
~
11</>(t, u , d t) - </>(t , v , dt)ll ( r l u - vll (6.11 )
0 "O
c c
::::>
Cl ....:::i pour tout t ~ 0 et dt > O. Alors la solution numrique donne par (6.8) est stable
"'
~
(V)
.-1 ~
'V
par rapport aux erreurs.
0 .~
N
0""'
....
@ :::i
:
.
.c. c D MONSTR ATION. Soient (v 11 ) 11 et (w 11 ) 11 telles que
0) 0
;:: c
~
>-
o.. a.
0
v11+ 1 := v" + d t </>(t 11 , v" , d t),
0
u (.)
0
0
..s::::
o.. et
~
~
w 11 + 1 := w 11 + d t </>(t 11 , W 11 , d t) + 8
11

1
"O
0 En faisant la diffrence et en utilisant la condition (6.11), .il vient pour e11 vn-wn
c
:::i
Q
lle + 1 11 ( (1 + r d t ) lie" li + lls 11 .
11 11
@

221
Chapitre 6 Les quations diffrentielles

Puis en procdant par rcurrence, nous obtenons


Il

llen+I 11 ~ (1 + r Llt)'1+I lle 11+ I)1+rLlt)'1 -k11 ~l 1 1 .


0

k=O

En observant que 1 + r Llt ~ er tl.t, nous avons alors simplement

ce qui dmontre le rsultat de stabilit par rapport aux erreurs avec

C = err > O. D
partir de la notion de consistance et de stabilit, nous pouvons dmontrer la
convergence de la solution numrique vers la solution exacte de (6.2). C'est un rsul-
tat classique en analyse numrique et plus gnralement en analyse : nous verrons
plus tard que cette notion revient lors de l'analyse de schmas numriques pour les
quations aux drives paitielles.

Thorme 6.22 Consistance + Stabilit =? Convergence


Nous supposons que le schma (6. 8) est consistant d'ordre p et stable par rapport
aux erreurs. Alors la solution numrique converge vers la solution exacte de (6.2).
L'erreur vrifie en outre

pour tout n = 0, ... , N, o C > 0 ne dpend que de T , f et u.

"O
0 DMONSTRATION. Puisque le schma est consistant, la solution exacte u vrifie
c
::J
0
('\"') u(tn+l ) = u(t 11 ) + Llt cp(t 11 , u(t 11 ) , Llt) + Llt R(t 11 , u , Llt) ,
,....f
0
N
@
avec la condition suivante sur R(t 11 , u , Llt) : pour tout t E [0, T] et u solution exacte
~
..c
de (6.2)
Ol
:::: lim llR(t, u , Llt)ll = 0,
>- 6.1~0
a.
0
u et puisque le schma est d'ordre p

llR(t, u , Llt)ll ~ C LltP, \ft E [0, T].

D'autre part, la solution numrique est donne par

vn+I = V 11 + Llt cp(t 11 , vn , Lit).

222
6.3. Les quations diffrentielles raides

En faisant la diffrence entre les deux galits, le terme d'erreur en(lit) = vn - u(t 11 )
satisfait la relation de rcurrence

e11 + 1(Lit) = e11 (Lit ) +Lit [ c/>(t'Z, v 11 , Lit) - </>(t 11 , u(tn) , Lit)]
- Lit R(t11 , u(tn) , Lit ).

Ainsi, en appliquant directement la dfinition de la stabilit par rapport aux erreurs


avec w 11 = u(t 11 ), il vient

lle"(Lit)ll ( C ( lle0(Lit)ll + Lit ~ llR(t;,u , Lit)ll ) .


Puisque le schma est consistant, nous avons

le terme de droite tend bien vers zro lorsque Lit converge vers zro, puisque pour
tout i E {O, ... ,n}

et u0 converge vers u(O) donc le schma est convergent.


En outre, le schma tant consistant d' ordre p , l' erreur est du mme ordre

lle"(Lit)ll ( C [11e0(M)ll + Lit ~ llR(t; ,u(t'), iil)ll l


:::;; C [ lle0 (Lit)ll + LitP ] . D
.<;::::
"Cl ~
0 "O
c
::::>
Cl
c
....:::i 6.3 LES QUATIONS DIFFRENTIELLES RAIDES
(V)
"'
~
~
.-1
0
'V
.~
Considrons l'exemple d' une quation diffrentielle modlisant une raction chi-
N
@ ....:::i""'
0 mique pour un paramtre E > 0 assez petit,
. :
.c. c
0 B
0)
;:: c a ----?
b lente,
~
>-
o.. a. 2
0 0 l/ s
u (.)
0 b+b ----?
c+b trs rapide,
0
..s::::
o.. l/ s
~ b+c ----?
c+a rapide,
~
1
"O
0
c
o a, b etc sont trois ractants de concentration Ca(t), Cb(t) et Cc(t). Sur un intervalle
Q
:::i
de temps dt, la variation de la concentration Ca diminue proportionnellement E pour
@ produire de la substance b et dans le mme temps augmente proportionnellement

223
Chapitre 6 Les quations diffrentielles

1/ 8 par association des substances b et c produisant la fois les ractants a et c, ce


qui conduit
CbCc d
d Ca = - 8 Ca dt + le t.

De la mme manire

et
_ Cb Cb d Cb Cc d Cb Cc d
dec - 2 t + t - t.
28 28 28
En passant formellement la limite dt ---+ 0, nous obtenons un systme d'qua-
tions diffrentielles raides, c'est--dire contenant des chelles d'ordre diffrent e,
1/ 8 et 1/ 8 2
'() = _ C ()
C at Bat+ Cb(t) Cc(t) ,
2e
C~(t) = +8 Ca(t) - c;8~) Cb(t;~c(t)
C'( ) = C't(t)
c t 2e2 .
Cette raction dcrit la production de ractants c partir de la substance a tandis
que b sert de catalyseur. Observons en effet que Cc = 1, Ca = Cb = 0 est un
quilibre vers lequel la solution est suppose converger. Pour un tel systme, l' utili-
sation d'une mthode de Runge-Kutta explicite est pratiquement impossible car nous
serions obligs de prendre un pas de temps f!..t trs petit pour obtenir une approxi-
mation raisonnable, sans quoi la solution numrique devient instable. En effet, une
caractristique de cette quation diffrentielle est la prsence de diffrentes chelles
(lente, trs rapide et rapide), pour que le schma explicite reste prcis, il faut que le
"O
0 pas de temps soit du mme ordre que la frquence la plus rapide, c'est--dire ici de
c
0
::J l'ordre de 8 2 .
('\"')
,..-!
Pour mieux comprendre ce phnomne, considrons un problme bien plus simple
0
N pour lequel tous les calculs sont explicites et qui possde les mmes caractristiques
@
~
..c
Ol eu' (t) = -u(t) + cos(t), 0 < e << 1. (6.12)
::::
>-
a.
0
u Cette quation diffrentielle est linaire inhomogne et la solution exacte est donne
par
1 .) - t / e cos(t) 8 sin(t)
u ( t ) = ( uo - 1 + 82 e + 1 + 82 + 1 + 82 .
Cette solution est la somme d'une fonction oscillant une priode de 27T et d' une
fonction qui tend vers zro la vitesse de 1/ 8.

224
6.3. Les quations diff rentiell es raid es

Observons maintenant ce qu' il se passe lorsque nous appliquons la mthode d' Eu-
ler explicite une telle quation pour un pas de temps fit constant. La solution num-
rique au temps !11 = n fit est alors donne par

v 11+ 1 = fit) 11 fit


( 1 - -;- v + -;- cos(t ) .
11

Comme pour 1' quation diffrentielle, recherchons une solution sous la forme

v 11 =
fit ) Il
(v 0 + a cos(t 11 ) + f3 sin(t 11 ).
( 1 - -;- - a)

En injectant cet ansatz dans le schma numrique, nous obtenons deux quations
linaires pour a et /3 dont la solution est de la fonne
a = 1 + O(s fit) , /3 = s + O(sfit 2 ) ,
ce qui donne finalement

fit) Il (v0
v 11 = ( 1 - -;- - 1) + cos(t 11 ) + s sin(t 11 ) + O(s fit).

Ainsi, la solution numrique vn est proche de la solution exacte seulement lorsque le


pas de temps vrifie la condition

l 1 - fit / B 1 < 1,
c'est--dire lorsque fit < e, ce qui est trop contraignant dans la pratique lorsque
s est trs petit. En dfinitive, tous les schmas explicites un pas doivent satisfaire
une condition similaire pour que la solution numrique soit stable, ce qui les rend
inutilisables pour ce type de problme plusieurs chelles. Il faut donc construire
des schmas diffrents pour les systmes diffrentiels raides.
.<;::::
Envisageons alors l' utilisation d' une mthode implicite directement inspire du
"Cl ~ schma d' Euler. En reprenant la dmarche utilise prcdemment sur l'intervalle
0 "O
c c
::::>
....:::i [t 11 ' t 11 +fit],
Cl
(V)
.-1
0
N
"'
~
~
'V
.~
0""'
....
u(t'" 1
) - u(t" ) = 1. ,11 +1

f (s, u(s )) ds ,
@
.
:::i
: le schma d'Euler implicite consiste appliquer la mthode des rectangles en utilisant
c
.c.
0) 0
c
la valeur droite f (t 11+ 1 , u(tn+1) ) , il vient alors
;::
~
>-
o.. a.
0
0
u / "' f (s , u(s )) d s f (t"+', u(t"' ' )).
(.)
0
0
"' /'J.t
..s::::
o..
~
~
1
Le schm a d'Euler im plicite s'obtient alors en remplaant u(t 11+ 1) par son approxi-
"O
0 mation v11+ 1
c
:::i
Q vo = u(O) (6.1 3)
@ { v11 +1 = v 11 + fit f (t z+I, v z+ 1) ,
1 1
pour n = 0, . . . , N - l.

22 5
Chapitre 6 Les quations diffrentielles

Remarquons que pour le schma d'Euler implicite, l'existence et a fo rtiori le cal-


cul de v11+ 1 n'est pas vident, il est donn de manire implicite et un problme non
linaire doit en gnral tre rsolu, ce qui n'est pas toujours facile. Avant d' aborder
ces problmes, vrifions que ce type de schma convient bien la rsolution d' qua-
tions diffrentielles raides. Pour cela, revenons au problme d'une quation diffren-
tielle linaire raide (6.12). Un calcul analogue celui effectu pour le schma d'Euler
explicite donne ici

dont la solution peut tre crite sous la forme

11

vn = ( 1 + --f
a )- (v0 - 1) + cos(t") + e sin(tn) + O(t:..t e).

Cette fois-ci nous n' avons pas de restriction sur la longueur du pas, car

1
< 1,
1+ t:..t

pour tout t > O. Dans ce cas, le schma implicite donne une bonne approximation
mme si t:..t est trs grand. Il y a donc bon espoir que des schmas implicites soient
mieux adapts la rsolution numrique de problmes raides.

Solution d'Euler explicite --+-


1.5 .---=====;;;:::+::=:::;;::::;::==::::;-i
Solution d'Euler implicite --+-
4 Solution exacte ............ Solution exacte

2
0.5
0
"O 0
0
c -2
::J
0 -0.5
('\"')
,..-!
0 -1'----~----"'........~-~--~---"'~
N
0 2 4 6 8 10 0 2 4 6 8 10
@
~
..c (a) (b)
Ol
:::: Figure 6.5
>-
a. volution de la solution numrique obtenue par un schma d'Euler (a) explicite
u
0
et (b) implicite pour l'quation (6.12) avec e = 10- 1 et D.t = 0, 2.

Par la suite, nous tudions la convergence du schma d'Euler implicite l' aide
de la mthodologie dveloppe pour les schmas un pas. Puis, nous introduisons
une nouvelle notion de stabilit pour la comprhension des phnomnes plusieurs
chelles (A-stabilit) et proposons d' autres schmas implicites d'ordre plus lev.

226
6.3. Les quations diffrentielles raides

6.3.1 Convergence du schma d'Euler implicite


La premire question se poser au sujet d' un schma d'Euler implicite est l' existence
d' une solution v11+ 1 connaissant la solution v 11 au temps t 11 ) O. Pour rpondre cette
question, nous crivons ce schma (6.13) sous la forme d' un schma un pas

v11+ 1 = v 11 + dt <f>(t11 , v" , dt)

et appliquons les rsultats de la section 6.2. Ici la fonction </> est seulement dfinie de
manire implicite puisqu'elle vrifie

</>(t 11 , v 11 , dt) f(t" + dt ,v),

o v est 1'unique solution de


11
V= V +dt f(t 11 +dt , V).

Montrons alors le rsultat d'existence et de convergence suivant (voir Exer-


cice 6.5[1)] pour la dmonstration).

Thorme 6.23 Conver ence du shma d'Euler im licite


Si f : [0, T] x !Rd t-t !Rd est une fonction continue et lipschitzienne en la seconde
variable, c'est--dire il existe L > O tel que 'tf (x , y) E JRd x JRd

llf(t,x) - f(t,y)ll ~ L llx - YIL 'tft E [O, T].

Alors il existe une unique solution v 11 + 1 fournie par le schma (6.1 3) ds lors que
le pas de temps vrifie 6.t < 1/ L. De plus, le schma est consistant d' ordre un et
stable par rapport aux eneurs, il est donc convergent.

.<;::::
"Cl ~ Ce schma entre donc bien dans le cadre des schmas un pas (6.8) tudis dans la
0 "O
c c
::::>
....:::i partie prcdente. Nanmoins, comme nous l'avons constat sur l'exemple prcdent,
Cl
(V)
"'
~ ce schma satisfait une proprit supplmentaire dite de stabilit inconditionnelle.
~
.-1 'V
0 .~
N
0""'
....
@ :::i 6.3.2 Stabilit des schmas implicites
. :
.c. c
0) 0
c
L' tude de l' quation diffrentielle linaire non homogne (6.12) rvle que ce n'est
;::
>-
o..
~
a. pas le terme non homogne qui pose des difficults la mthode explicite, mais c'est
0
u
0
(.)
0
plutt l'approximation de la solution de l'quation homogne eu' = -u. Consid-
0
..s:::: rons donc le problme linaire homogne
o..
~
~
1 u' = u, (6.14)
"O
0
c
Q
:::i
dont la solution exacte est u(t) = C eA 1 laquelle est uniformment borne pour tout
@ t ) 0 ds lors que Re(.A) ~ O. La solution numrique d'une mthode de Runge-Kutta

227
Chapitre 6 Les quations diffrentielles

applique avec un pas de temps tit constant au problme actuel, ne dpend que du
produit tit. Il est alors intressant d' tudier pour quelle valeur de tit la solution
numrique reste borne uniformment par rapport aux itrations n E N.

Dfinition 6.24
Considrons une solution numrique approchant (6.14) qui est une fonction de
z = tit. Alors l'ensemble :
S := {z E C, (v11 )11 EN est borne}

s'appelle domaine de stabilit de la mthode. Nous disons que la mthode est


A-stable si
c-c S, o c-
= {z E C, Re(z) ~ O}.

Pour la mthode d'Euler explicite le domaine de stabilit est:

S = {z, ll +z l ~ l} ,

le disque de rayon 1 et de centre - 1. Pour la mthode d'Euler implicite il est :

S ={z, l z -1 1 ~ 1} ,

c'est l' extrieur du disque de rayon 1 et de centre +1. Seule, la mthode implicite est
A-stable.
Pour une mthode de Runge-Kutta, la solution numrique est de la forme

o la fonction R(z) s'appelle fonction de stabilit et le domaine de stabilit est alors

S = {z E C, IR(z)I ~ 1}.
"O
0
c
0
::J Nous pouvons vrifier que la fonction R(z) est en fait un polynme, l'ensemble S
('\"') est born et la condition de stabilit tit E S impose une restriction svre au pas
T""f
0
N
de temps tit . Ces mthodes ne sont donc pas recommandes pour la rsolution des
@ quations diffrentielles raides. Bien sr, nous pouvons appliquer le schma d'Euler
~
..c implicite mais celui-ci est seulement d 'ordre un ; nous proposons alors des mthodes
Ol
:::: de Runge-Kutta implicites.
>-
a.
0 Il suffit pour cela d'utiliser la mme mthode que pour les schmas de Runge-
u
Kutta explicites (6.6)-(6.7) s tages mais avec une matrice (ai ,j )J ~.i,j ~s pleine. Par
exemple, pour une mthode implicite 3 tages nous partons de la formule intgre
de l' quation diffrentielle comme pour l'obtention des mthodes de Runge-Kutta
explicites
11
u(t + tit) = u(t
11
) + J.
t"
r" + 6.r
f(s , u(s))ds.

228
6.3. Les quations diffrentiell es raides

En appliquant une formule de quadrature, nous recherchons des coefficients c 1, b 1 et


b2 tel que pour une fonction g donne

1. ,11+1

g(t) dt = /1t (b, g(t" +c, /lt) + b2 g(t"')) + 0(/1t4 ).


Pour cela, il suffit de mettre au point une formule de quadrature qui soit exacte pour
tous les polynmes de degr trois, nous dterminons alors les coefficients en prenant
successivement 1, x et x 2 :
b, + b2 = 1,
b1 C[ + b2 = ~ '
{
h1 ci + b2 = ~'
dont la solution est c 1 = 1/ 3, b 1 = 3/ 4 et b 2 = 1/ 4. Ce qui donne alors
u(t 11 + Llt) u(t 11 )

+ ~ (3f (1"+ ~ ,u (1"+ ~ )) +1 1


f(t"+b.t,u(t"+b.t)))

+ O(Llt 4 ) .
Il reste approcher la valeur u(t11 + ~') : en intgrant (6.2) de t 11 t 11 + ~' et en
appliquant une formule de quadrature qui utilise cette fois-ci les valeurs en t 11 + Llt / 3
et t 11 + Llt , il vient alors

u (1" + ~t ) u(t") + ~~ ( 5 f (1" + ~t , u (1" + ~t)) - f(t" +/1t , u(t" + t.t)))


+ O(Llt 3 ).
En supprimant les termes du reste et en notant k 1 et k2 les deux valuations de f,
nous arrivons
.<;::::
"Cl ~ Llt Llt )
c
0
::::>
"O
c k1 f (t
Il
+ 3' V
Il
+
12
(5 k1 - k1) ,
Cl ....:::i
~ (3 k1
"'
~
(V)
.-1 ~
'V k1 = j (( 1 + Llt , V 11 + + k1)) , (6.15)
0 .~
N
0""'
....
@ :::i Llt
.
.c.
:
c
v 11+ 1 = v11 + -4 (3 k2 + k2 ) '
0) 0
;:: c
>-
o..
~
a. qui est une mthode de Runge-Kutta. Les deux premires quations constituent un
0
0
u (.)
0
systme non linaire pour k 1 et k2 , qu' il faut rsoudre avec les techniques du Cha-
0
..s:::: pitre 3 .
o..
~
~
1 Proposition 6.2 5
"O
0
c
Q
:::i Considrons la mthode de Runge-Kutta (6.15) pour l'quation diffrentielle
@ (6.2), alors ce schma est d'ordre trois et A-stable.

229
Chapitre 6 Les quations diffrentielles

D MONSTRATION. L'ordre trois est une consquence des formules de construction.


Notons bien qu' il suffit bien que la deuxime formule soit d'ordre deux car le terme
correspondant dans la premire est multipli par 6.t .
Il reste donc dmontrer que le schma (6.15) est A-stable. En appliquant la mthode
de Runge-Kutta implicite l'quation u' = u, il vient alors pour z = f!..t

.t k1 = ZV
11
+ }~ (5 .t k[ - flt k2),

{
flt k2 = ZV
11
+ ~ (3 .t k[ + flt k2)

Ce systme linaire pour 6.t (k 1, k2 ), peut tre rsolu et nous introduisons la solu-
tion de ce systme dans l'expression de la troisime formule de (6.15). Ceci donne
v 11 + 1 = R(z) v 11 avec comme fonction de stabilit R(z)
R(z) = P(z) 1 + z/ 3
Q(z) 1 - 2z/ 3 + z2 / 6
Sur 1' axe imaginaire, nous avons

2
IQ(iy)l - IP(iy)l =
2
(1 ~r +~y2-(1+~) ~: ~ o
Ceci implique IQ(i y)I ~ IP(i y)I et aussi IR(i y) I :( 1. Les singularits de R(z),
qui correspondent aux zros de Q(z), sont Z = 2 i J2 dans le demi-plan droit.
Ce qui signifie que la fonction variable complexe R(z) est analytique dans le demi-
plan gauche [18] et par le principe du maximum [18], la fonction R(z) est majore
par 1 pour Re(z) :( O. D
Cette construction peut tre gnralise pour obtenir des mthodes de Runge-Kutta
implicites qui sont A-stables et d'ordre quelconque.

"O
6.4 LES SYSTMES HAMILTONIENS
0
c
::J Le modle de base de la mcanique est la loi de Newton. C' est une quation diffren-
0
('\"') tielle du second ordre indiquant que l'acclration d'un point matriel est quivalente
,..-!
0
N
la rsultante des forces exerces sur ce point :
@ d2x
~
..c m dt 2 = F(x ). (6.16)
Ol
::::
>-
a. Cette quation n'est pas exactement sous la forme habituelle d'une quation diff-
0
u rentielle du premier ordre, elle le devient en faisant intervenir la vitesse du point
v = ~~, le systme devient un systme diffrentiel du premier ordre autonome
dx
dt = v,
dv F(x)
dt m

230
6.4. Les systmes hamiltoniens

nous supposerons que F reprsente une force et drive d' un potentiel, c'est--dire
que F(x) = - \7 x V(x) , la quantit V(x) s'interprte comme l'nergie potentielle du
point x. En multipliant l'quation (6.16) par v et en intgrant par rapport au temps,
nous constatons que l'nergie totale :

E(x , v) := m llvll2 + V(x)


2

est conserve au cours du temps. Nous disons que le champ de force est conservatif,

Application l'astronomie.
L'tude du mouvement d'un satellite autour d'une plante est un problme deux
corps.
Pour un satellite de masse m attire par une Trajectoire de la Lune autour de la Terre
plante de masse M, la loi de la gravitation uni-
verselle fournit un potentiel
gMm
V(x) = - llxll
et un champ de force central donn par
X
F(x) = - g Mm llxll3'

o g est la constante d'attraction universelle. Figure 6.6


L'quation diffrentielle associe est l'quation Un problme deux
hamiltonienne corps : trajectoire de la
Lune autour de la Terre.
d2 x
m dt2 = F(x) .

En gnral, ces quations diffrentielles ne